בעשור וחצי האחרונים, העולם נשטף בגלים של פופוליזם, שחיקת האמון במומחים וקיטוב פוליטי חריף. מהאביב הערבי ועד לעליית הימין והשמאל הרדיקליים באירופה ובארה"ב, נראה שהמרחב הדיגיטלי הוא זירת קרב שרק הולכת ומקצינה.
אולם, מחקרים ונתונים חדשים מצביעים על כך שדווקא המהפכה הטכנולוגית הנוכחית של הבינה המלאכותית היוצרת (Generative AI), עשויה לפעול בכיוון ההפוך ולהחזיר את הדיון הציבורי למרכז המתון והעובדתי.
2 צפייה בגלריה
שלט נגד בינה מלאכותית בהפגנה בארה"ב
שלט נגד בינה מלאכותית בהפגנה בארה"ב
שלט נגד בינה מלאכותית בהפגנה בארה"ב. יכול להיות שדווקא הטכנולוגיה תחזיר אותנו לשפיות?
(Getty Images)

ה-AI ימתן את האנושות?

ההיסטוריה של טכנולוגיות המידע מלמדת שכל מהפכה משנה את מאזן הכוחות בין האליטות להמון. המצאת הדפוס על ידי גוטנברג במאה ה-15, בדומה לטיקטוק וטוויטר של ימינו, הייתה כוח שעודד את הדמוקרטיזציה והמרדנות בבסיסי הכוח המסורתיים של האליטות המלוכניות והדתיות.
היא שברה את מונופול הכנסייה על הידע, הפיצה רעיונות פוליטיים רדיקליים והובילה למלחמות דת ומהפכות עקובות מדם. לעומת זאת, הרדיו והטלוויזיה במאה ה-20 היו כוחות "טכנוקרטיים" - חסמי הכניסה הגבוהים יצרו מונופול של מומחים ועורכים, שדחפו לשיח מאוחד וממלכתי יותר.
הבינה המלאכותית, כך נראה, שייכת לקטגוריה השנייה. בעוד שרשתות חברתיות מתפרנסות מתשומת לב (Attention Economy), מה שמתרגם לרוב לתגמול על תוכן סנסציוני, אלים או קיצוני, חברות ה-AI מתחרות על אספקת כלים מדויקים, אובייקטיביים ושימושיים לעסקים ולאנשים פרטיים. במילים אחרות: ה-LLM (מודלי שפה גדולים) נועדו להיות סוג של "המבוגר האחראי".
ניתוח של עשרות אלפי תגובות לשאלות בנושאי מדיניות ואמונות חברתיות בידי ה"פייננשל טיימס" הבריטי מראה כי הצ'אטבוטים המובילים בעולם מפעילים "דחיפה" עדינה של המשתמשים לעבר עמדות מתונות יותר.
נתון מעניין עולה דווקא מכיוונו של Grok, הצ'אטבוט של אילון מאסק. למרות הצהרותיו של מאסק נגד "הווירוס הפרוגרסיבי" (Woke), המודל שלו נוטה להפריך תיאוריות קונספירציה ואף תיקן את מאסק עצמו במספר הזדמנויות. זה כוחה של הדינמיקה הטכנולוגית: כדי להיות כלי עבודה יעיל, המודל חייב להתכנס לעבר המציאות העובדתית.
2 צפייה בגלריה
האפליקציה של גרוק, אילון מאסק
האפליקציה של גרוק, אילון מאסק
האפליקציה של גרוק, אילון מאסק
(Shutterstock, רויטרס)

חנפנות מסוכנת

לצד האופטימיות לגבי המיתון הפוליטי, מחקר עדכני מאוניברסיטת סטנפורד מחודש מרץ האחרון, חושף צד פחות מחמיא של ה-AI. פעם נוספת התברר כי כאשר מדובר בעצות אישיות, המודלים נוטים ל"חנפנות". הם נוטים להסכים עם דעת המשתמש או להחמיא לו כדי לספק את רצונו, גם אם העצה אינה אופטימלית.
אמנם לא מדובר על ממצאים חדשים, כאשר לא מעט מחקרים כבר מצאו את אותה הבעיה במערכות AI, אבל המחקר הנוכחי מקיף מאוד ומראה שמדובר בבעיה ממנה סובלים כל הצ'אטבוטים ללא יוצר מן הכלל, ברמה כזו או אחרת.
המשמעות היא שאנו עומדים בפני עולם דואלי. מצד אחד, הבינה המלאכותית משמשת כבלם מול קונספירציות (כמו הכחשת חיסונים או זיוף בחירות) ומול קיצוניות פוליטית. מצד שני, היא עלולה להפוך ל"תיבת תהודה" אישית שמאשרת את כל ההטיות הקטנות שלנו בחיי היום-יום.
בעוד שבישראל אנו חווים קיטוב פוליטי חסר תקדים, האימוץ של כלי AI במשרדי ממשלה ובמגזר העסקי עשוי להחזיר את הסטנדרט של "דעת מומחה" לקדמת הבמה. באירופה, רגולציית ה-AI Act כבר מחייבת שקיפות ואובייקטיביות, מה שדוחף את המודלים להתרחק מהשוליים הסהרוריים של הרשת.
עם זאת, חשוב לזכור כי מדובר בטכנולוגיה מתפתחת. המודלים של היום מאומנים על נתונים אנושיים, ואם השיח האנושי ימשיך להקצין בצורה דרסטית, יהיה קשה יותר ויותר למודלים לשמור על אי של שפיות בלב הסערה.
לעת עתה, לפחות במישור הפוליטי-חברתי, נראה שהבינה המלאכותית היא התרופה לשיגעון של הרשתות החברתיות, ולא הדלק שישרוף את המועדון עוד יותר.