הפחד מ-AI מעולם לא היה עניין שכלתני. יותר שילוב בין הטיות חשיבה, מדע בדיוני, ושוברי קופות כמו שליחות קטלנית - לפחות עד שליחות קטלנית 3, שם אפילו התומכים הגדולים ביותר בחזון האפוקליפטי התייאשו. אבל הבעיה של האנושות מעולם לא הייתה הבינה מלאכותית. האמת? היא אפילו לא הייתה הטיפשות האנושית.
הבעיה האמיתית ב-AI היא ביטחון מלאכותי: האשליה שמישהו (או משהו) יודע יותר טוב מאיתנו, כי הוא מדבר בביטחון, עונה מהר, או מפגין סמכות. גם כשזה לא נכון.
מאז שה-AI נכנס לחיינו, אנחנו מפגינים שוב את אותו מעגל פסיכולוגי עתיק: שלב החרדה, שלב ההסתגלות, ושלב התלות. זה קורה בכל מהפכה טכנולוגית. ככה היה עם כלי עבודה, עם העיתון, עם המחשב, עם הסמארטפון. בהתחלה נבהלים. ממה שיהיה בעתיד, ומה זה אומר על הזהות שלנו. אחר-כך מגלים שהשד לא כזה נורא, אולי אפילו יעיל. ובסוף… לא מסוגלים לדמיין את החיים בלעדיו.
אבל הפעם, יש משהו קצת שונה. הפעם הקידמה מגיעה עם "סמכות" מובנית. הצ'ט מדבר (או מדברת – הם נוטים לגוון כדי שהשיחה תהיה יותר "דינאמית" ואמיתית) בביטחון. הוא מהיר. הוא מחובר לכל המידע בעולם. הוא נשמע כמו חבר. זה שיודע הכל. וזה מסוכן — לא רק בגלל שהוא באמת לא יודע הכל, אלא בעיקר מפני שאנחנו מתחילים לסמוך עליהם בעיניים עצומות.
כבר 70 שנה שאנחנו מלמדים שאנשים מוטים בגלל חוסר מידע, לחץ זמן ומגבלות קוגניטיביות כמו זיכרון ויכולות עיבוד. ואז הגיעה עת שאין שום מחסור. היום כבר לא צריך לזכור שום דבר – לכל אחד יש גוגל בכף היד. ומי צריך לחשוב, או לבצע חישובים מורכבים? בשביל זה יש צ'ט, קלוד, או ג'ימיני. גם זמן כבר הפסיק לשחק תפקיד. אם חיכינו יותר מ-3 שניות לתשובה, אנחנו מתחילים לחשוש שאולי יש בעיות תקשורת – או שהעולם שלנו קורס.
ועדיין, במקום להיות מקבלי החלטות טובים יותר, נהיינו גרועים יותר. אפשר לתת המון דוגמאות לכך, כמו הפילוג הקיצוני בעם, השטויות שאנחנו עדיין קונים לא לצורך, אבל מספיק לראות מה הולך בכבישים כדי להבין שמשהו לא טוב עובר על תהליכי קבלת ההחלטות שלנו.
יש לנו סוף-סוף מכשיר שיודע הכל, רק שאנחנו עדיין לא מבינים כלום.
ה-AI לא משתלט על העולם, הוא משתלט על הביקורתיות שלנו
זה פשוט עד כאב. כמו כל כלי טכנולוגי שנועד להרחיב את גבולות היכולת האנושיים – החל מטכנולוגיה פשוטה כמו פטיש ועד המתוחכמת ביותר כמו AI, הוא יכול לעזור לנו רק אם נשתמש בו נכון.
אבל אנחנו יצורים יעילים (מיתוג טוב ל"עצלנים"). אנחנו מחפשים קיצורי דרך, צריכים לשמר אנרגיה. ואנחנו הכי אוהבים טפיחות על השכם.
והנה קיבלנו "במתנה" כלי אדיב, יעיל, חכם, לומד. שמספק לנו בדיוק את מה שאנחנו כל כך צריכים. אישור. ה-AI לא כותב אמת – הוא מחזיר הד. בדיוק את אותן הטיות בשירות העצמי, על סטרואידים. רק שהפעם אין ועדה אולימפית שתפסול אותם.
לא בכוונה או במטרה לפגוע. אנחנו "מדברים" עם ה-AI כמו חבר, יועץ, או בעל מקצוע. הם באמת נשמעים כך. אבל מדובר על מודלים מתמטיים מורכבים. האלגוריתם לא יודע מה "נכון", או להבחין בין אמת לפייק.
אולי תנחמו עצמכם שמדובר על "מערכת לומדת". אבל למידה משחזרת ידע קיים, לא מייצרת ידע חדש. AI מסתמך על מה שאנחנו (ה"מוגבלים", זוכרים?) עושים. מציע תשובות על סמך חישובי הסתברויות מורכבים על בסיס כלל המידע ברשת, לא על בסיס ניתוח עובדות ונתונים מהימנים.
ואם לא נראה למכונה שאנחנו ביקורתיים, רוצים להבין, לערער על הנחות היסוד שלנו, לא רק לאמת אותן, היא פשוט תלמד שאנחנו זקוקים לתמיכה ואישוש. ואז תחזיר לנו את המחשבות שלנו בחזרה, ממש כמו ראי. רק הפעם, בנוסח מדעי רהוט, וטונה של ביטחון.
הטיות אנושיות על סטרואידים + סמכות מדומה
הבעיה שזה לא מסתיים בוויכוחים מיותרים סביב שולחן השבת, או חיוך מתנשא של חבר שמראה לכולם איך הצ'ט "תומך" בטענה שלו. הבעיה שככל שעובר הזמן, אנחנו שמים יותר מבטחנו במכונה. עושים Copy-Paste, כי מי צריך לבדוק מערכת יותר חכמה מאיתנו?
בני אדם רחוקים מלהיות מושלמים, וכל כלי שיכול לעזור לנו להתמודד עם המגבלות מבורך. אבל מעצם היותו כלי, הוא נועד לסייע, לא להחליף. כלי חשוב חדש בארגז הכלים ההיסטורי, לא היורש של מי שאמור לשבת בראש השולחן של מקבלי ההחלטות
הבעיה היא לא שה-AI טועה – הבעיה שאנחנו מפסיקים לטעות לבד. ואתם יודעים מה אומרים על צרת רבים. גם ב-6/10 הייתה מערכת "חכמה", מתוחכמת, אוטומטית, שהבטיחה להפחית את הטעויות של הגורם האנושי. גם אז סמכנו על הטכנולוגיה יותר מדי. ועד היום כולנו משלמים את המחיר.
לא צריך לחכות לטרגדיה הבאה כדי להבין את זה. ה-AI הוא כלי מדהים. משנה עולם. אבל עדיין כלי. הוא לא תחליף לשיקול דעת אנושי, לא תחליף לביקורת. בכל כלי AI, כתוב למטה, בקטן, שהכלי עשוי לטעות, וכדאי לבדוק, במיוחד דברים חשובים. אבל הוא לא "עשוי". הוא טועה. בדיוק כמונו. וגם הוא מוגבל כמונו מבחינת "זיכרון" או "יכולות עיבוד". אצלו פשוט קוראים לזה טוקנים.
זו מערכת שמסוגלת לכתוב דוקטורט, אבל מתעייפת אחרי 5 שאלות ברצף. היא גם נותנת תשובות שונות בימי חול או בתקופות חגים (גם מודלים זקוקים לשנ"צ). התשובה אפילו משתנה בהתאם לניסוח השאלה, למרות שמדובר על מודל שפה טבעי שמתייחס למהות המסר, לא לניסוח.
.על אף התקווה (או הפחד), עוד אין תחליף לעריכה, להובלה, לחשיבה, ולאחריות האנושית. ואם כלי AI עושה משהו "רע", זה בגלל שאנחנו לימדנו אותו. וסמכנו עליו יותר מידי. אבל זה ביטחון מלאכותי. הם לא "יותר חכמים". והם לא מנסים להשתלט על העולם (למקרה שמישהו נוהג להיות מנומס אליהם רק כדי שיזכרו לו, כשזה יקרה, חסד נעורים).
גיא הוכמןצילום: יובל טבולואם נמשיך לדרוש מהמכונות לרצות אותנו, או לקרוא כל תשובה כתורה מסיני – נמשיך לחזור על אותן טעויות, ונעמיק את השסע. רק מהר יותר, גבוה יותר, חזק יותר. ואז יישאר לנו רק לצטט את ההיסטוריון סר באזיל לידל הארט, שאמר שאי אפשר ללמוד מההיסטוריה כלום מלבד שאין אנו למדים ממנה דבר.
הכותב הוא מומחה לכלכלה התנהגותית וקבלת החלטות, חבר סגל בבית הספר ברוך איבצ'ר לפסיכולוגיה באוניברסיטת רייכמן







