הבינה המלאכותית עלולה לגרום לאסון של ממש בשנה הקרובה – זה החשש שהולך ומתברר עכשיו. שנת 2024 היא שנת בחירות ביותר מ-50 מדינות בעולם, בהן ארה"ב, האיחוד האירופי, הודו ובריטניה. כשני מיליארד בני אדם יושפעו מהן. החשש המשותף הוא מהטיית הבחירות באמצעות כלי בינה מלאכותית חדשים ועוצמתיים. המומחים מזהירים שכיום לא ניתן לזהות זיופים, הטעיות והשפעות זדוניות על מערכות בחירות, ושהתוצאה עלולה להיות קטסטרופלית.
3 צפייה בגלריה
רובוט מצביע בבחירות
רובוט מצביע בבחירות
העולם הולך לבחירות בשנת 2024 - והבינה המלאכותית עלולה להמיט עלינו אסון
(התמונה נוצרה באמצעות מחולל התמונות DALL-E3)
קול הזעקה הזה מושמע במסדרונות הוועידה הכלכלית השנתית בדאבוס, שווייץ, שם מסתופפים השבוע 2,800 אורחים, 60 ראשי מדינות ו-1,000 חברות עסקיות וחברות הייטק. לפי דוח הסיכונים העולמיים ל-2024 שפרסם ארגון "הפורום הכלכלי העולמי" לקראת הוועידה, האיום החמור ביותר על שלום העולם הוא הטעיית הציבור באמצעות כלי AI. לפי הדוח, סכנת ה-AI חמורה יותר מכל המלחמות, האיום החות'י, אירועי מזג אוויר קיצוניים, סכנות סייבר, הגירה, שפל כלכלי או זיהום הסביבה.
"הרבה חברות מתחום ה-AI התקבצו להן יחדיו", אומר לנו נועם שוורץ, מנכ"ל ומייסד-שותף של חברת אקטיבפנס (ActiveFence), בשיחה מדאבוס. "אנבידיה, קוהיר (Cohere), אנתרופיק... כולם פה מדברים רק על AI, זה הנושא המרכזי של האירוע". לדבריו, הבעיה העיקרית היא שמודלי ה-AI החדשים מאפשרים לכל אדם לייצר תוכן באיכות גבוהה ובמהירות גבוהה. "זה יוצר דמוקרטיזציה של היכולת לשבש בחירות. אם עד לפני כמה שנים רק למדינות הייתה יכולת כזו, היום כל אחד יכול לייצר אחיזת עיניים מושלמת, ולעשות את זה מהבית".
מה שמשנה את המשחק היא הופעת הבינה המלאכותית היוצרת (GenAI) ולאחרונה גם מודלי השפה (LLM) המולטי-מודאליים, שמשלבים הבנת טקסט עם הבנת וידאו, תמונה וקול. אלה הבשילו השנה לכדי יכולות זיוף בלתי ניתנות לזיהוי. הכלים הנדרשים לכך זמינים לשימוש תמורת דמי מינוי נמוכים או בחינם, מה שמאפשר לכל אחד ליצור את הזיופים, להעלות אתרי חדשות מזויפים או להפעיל נחילי בוטים כדי להפיץ פייק ניוז בצורה מעוררת אמון.
3 צפייה בגלריה
אפליקציית ChatGPT
אפליקציית ChatGPT
ChatGPT. יכול לתאר אירועים שמעולם לא התרחשו
(צילום: Diego Thomazini / Shutterstock)

קמפיינים היפר-פרסונליים

ה-AI החדשה מאפשרת לגופים גדולים או מדינות להפעיל מודלים ענקיים של AI להנדסת תודעה. מודלים כאלה יטרגטו כל מצביע באופן מותאם אישית במקום להתייחס לגושי מצביעים כמו שנעשה עד כה. ה-AI תאפשר קמפיינים "היפר-פרסונליים": כל אדם ייחשף למידע שישפיע עליו במדויק, שיתייחס לנושאים שמעסיקים אותו וינוסח בשפה ובדימויים שמדברים אליו. המטרה היא לחזק החלטות הצבעה במקרים מסוימים, או לדכדך ולהוביל להימנעות מהצבעה במקרים ההפוכים. זו תמונה קודרת ומעוררת חלחלה.
קחו למשל את הבוטית "אשלי", שפותחה על ידי חברת Civox הבריטית, שנועדה להתקשר למצביעים ולנהל איתם שיחת שכנוע שמבוססת על ניתוח מוקדם של נטיותיהם הפוליטיות ורצונם להשתתף בהצבעה. כבר מתחילת הדרך התברר שהיא מצליחה יותר מבני אנוש בהשגת תשומת הלב של המצביעים. איך נתמודד עם צבא של בוטים כאלה שיגיעו לכל אדם בכל דרך?
בריאיון ל"פייננשל טיימס" אמר הנרי אג'דר, מומחה ל-AI ודיפ פייק ויועץ של מטא, אדובי ו-EY, שטכנולוגיית ה-AI הגיעה השנה לשילוב מושלם של ריאליזם, יעילות ונגישות: "החששות מההשפעה על תוצאות הבחירות היו מוגזמים עד השנה, אבל מאז הדברים התחילו לנוע בקצב מהיר שאני לא חושב שמישהו צפה אותו מראש". אריק שמידט, לשעבר מנכ”ל גוגל, אמר בריאיון ל-CNBC: "בחירות 2024 עומדות להיות בלגן. המדיה החברתית לא מגינה עלינו מפני מידע מוטה שנוצר באמצעות AI".
ריפרש
החברה הישראלית שהמציאה מחשב עם משקפיים במקום מסך / עם טמיר ברלינר
42:48
זה לא יפתיע איש ש-ChatGPT משמש כיום לכתיבת נאומי בחירות וליצירת קמפיינים לשלהוב מצביעים ולגיוס כספים, אבל ChatGPT יכול גם לתאר עובדות שלא התרחשו בשפה משכנעת, שמותאמת אישית לעולמו של האדם שקיבל אותן. כלי יצירת תמונות כמו Midjourney יכול לייצר צילומים של אירועים, מפגשים ולחיצות ידיים שמעולם לא התרחשו. כלי אודיו AI יכול להשמיע נאומים שלא ננאמו. ואל תגידו שאסור להאמין לשום דבר – גם זו מסקנה נוראית, שעלולה להוביל להיעדר אמת וחוסר אמון בעובדות, להימנעות מהשתתפות בהצבעה ולערעור על הלגיטימיות של תוצאות בחירות חוקיות.
לא מדובר באזהרות תיאורטיות. האירועים האלה כבר קורים. באוקטובר האחרון הופצה ברשתות הקלטה של מנהיג האופוזיציה בבריטניה, קיר סטארמר, נוזף בעוזריו. מיד לאחר מכן התברר שזה פייק אודיו, שיחה שמעולם לא התקיימה. בספטמבר, יומיים לפני הבחירות בסלובקיה, התפרסמה הקלטה שבה נשמע מנהיג המפלגה הפרוגרסיבית מיכל שימצ'קה מנסה לשחד עיתונאי לסייע לו בקניית קולות. האירוע הזה התפוצץ בכל כלי התקשורת והופץ ברשתות החברתיות. אחר כך התברר שקולו של שימצ'קה זויף באמצעות AI והשיחה מעולם לא התקיימה, אבל זה כבר לא עזר ושימצ'קה, שהוביל לפני כן בסקרים, הפסיד בבחירות.

ה-AI כבר כותב נאומים

לפני כמה ימים נערכו בחירות אלימות בבנגלדש, וראשת הממשלה השייחית חסינה נבחרה שוב לתפקיד. תחקיר של סוכנות הידיעות AFP מצא כי לפני הבחירות התפרסמו מאמרים מזויפים רבים, כתובים בידי AI, שהפליאו להחמיא למועמדת. בפקיסטן הסמוכה המועמד לראשות הממשלה אימראן חאן נשא נאום מוקלט בעצרת בחירות, על אף שהוא עצמו נמצא בכלא. הנאום התברר כאודיו סינתטי, שחיקה באמצעות כלי AI את קולו כך שלא ניתן היה לזהות שלא הוא אומר את הדברים. לפני כן התפרסם מאמר שלו ב"אקונומיסט" הבריטי, שהתברר כי נכתב על ידי AI. האם חאן עומד מאחורי הדברים או ששחקן רב-עוצמה מפעיל את דמותו מרחוק? למעשה אין דרך לדעת.
העניין הופך מדאיג באמת כשמבינים שכרגע אין הרבה שניתן לעשות כנגד זה. הרשתות החברתיות, שהן הצינור העיקרי להפצת מידע זדוני לציבור, אובדות עצות. היכולת שלהן לזהות שקרים והטעיות מבוססת על כלי AI ובני אדם, ואלה לא מותאמים ליכולות ה-AI החדשה.
נועם שוורץנועם שוורץצילום: אדוארדו פלדמן
"השאלה היא מה מנסים למנוע", אומר שוורץ. "האירוע הזה נמצא עדיין בחיתוליו, אנחנו נמצאים בשנה הראשונה שלאנשים רגילים יש נגישות לכאלה כלים, ולאף אחד אין את התשובה המדויקת איך מנגנון המניעה צריך לעבוד, אבל החברות הרציניות מתחילות לתת הרבה יותר תשומת לב למה שהן מנסות לעצור". חברת אקטיבפנס מאפשרת ללקוחות שלה, שהן פלטפורמות סושיאל וגיימינג, לזהות נרטיבים שקריים ומזויפים כאלה ולטפל בהם.

צריך אנשים, לא רק אלגוריתמים

שוורץ אומר שאין טעם להתמקד בניסיון לזהות באופן אוטומטי זיופים ודיפ פייק: "זה ייצר יותר מדי טעויות, כי אין באמת יכולת לזהות אוטומטית דברים שנוצרו על ידי AI. מי שטוען שהוא יכול לזהות בצורה אוטומטית GenAI הוא שרלטן". לדבריו, הפתרון טמון ביכולת לעקוב אחר מקור הדיווח ולזהות את המקרים שבהם ישויות מזויפות עומדות מאחוריו: "החברות יכולות לנטר באופן פרו-אקטיבי נרטיבים שנוצרו בצורה לא אותנטית, ואז צוות אנושי יעשה לזה ולידציה. זה אומנם מאוד יקר, אבל צריך אנשים ולא רק אלגוריתמים כי המציאות משתנה כל הזמן".
הצורך בצוותים אנושיים הוא אולי לב הבעיה. הפלטפורמות החברתיות צמצמו בשנים האחרונות את הצוותים בעקבות המשבר הכלכלי. מדיניות סינון התוכן היא בעייתית גם מבחינת המתקפה על הפלטפורמות מצד גורמי ימין, שטוענים שסינון התכנים נובע משיקולים פוליטיים. גורמי שמאל טוענים שפעילות הסינון מתמקדת במדינות המערב ומפקירה את מדינות העולם השלישי למתקפות הטעיה והסתה. זה לא פשוט.
3 צפייה בגלריה
מארק צוקרברג
מארק צוקרברג
מארק צוקרברג. האם פייסבוק ואינסטגרם יצליחו להתמודד עם המניפולציות שבדרך?
(צילום: Carlos Barria / Reuters)
עכשיו הרשתות מנסות לקבוע כללי משחק שיסייעו להתמודד עם סכנת ה-AI. טיקטוק, מטא, גוגל ו-X (טוויטר לשעבר) פרסמו כללים חדשים, האוסרים על פעולות השפעה סמויות ומידע שגוי. גוגל גם אוסרת טרגוט של משתמשים בנושאים פוליטיים, והיא הודיעה שתגביל את השאלות בענייני בחירות שהצ'אטבוט בארד יהיה מורשה להשיב עליהן. מטא אוסרת על העלאת תוכן מניפולטיבי שנועד להטעות את בודקי העובדות. מה שלא ברור הוא כיצד יצליחו החברות לאכוף את הכללים האלה.
המחוקקים במקרה זה מודאגים יותר מכולם - בסופו של דבר עתידם שלהם עלול להיות מוכרע על ידי הונאות AI וזיופים - אבל במרבית המדינות הרגולציה מתנהלת באיטיות מחרידה, ולאיש אין מושג איזה סוג חקיקה יהיה אפקטיבי. הקונגרס האמריקאי קיים שורת דיונים עם אנשי תעשיית ה-AI וקיבל הרבה הבטחות מרגשות, אבל לא שום דבר שיבטיח שהבחירות הקרובות יהיו בטוחות.
מי שמוטרדות לא פחות הן חברות ה-AI הגדולות, אלה שמפתחות את כלי ה-AI המובילים. בהיעדר חקיקה או רגולציה, האחריות לנזקים שעלולים להיגרם מפחידה אותן מאוד. OpenAI, החברה שמאחורי ChatGPT, פרסמה השבוע מדיניות חדשה שאוסרת על המשתמשים להשתמש בכלים שלה לצורך התחזות למועמדים בבחירות או לגורמים ממשלתיים, או כל פעילות אחרת במסגרת קמפיינים פוליטיים שיוצרת מצג שווא מול הציבור. החברה הצהירה כי תכניס לשימוש את טכנולוגיית C2PA לאימות תכנים דיגיטליים, טכנולוגיה שמובילות מיקרוסופט, אמזון, אדובי וסוכנות המדיה Getty. האם OpenAI תצליח למנוע שימוש זדוני בכלים שלה? נראה שאפילו מנכ"ל החברה סם אלטמן לא מאמין בזה.