הנה אירוע שבוודאי קורה מדי פעם: אלחנדרו ולוסיה יושבים בצ'וקולטרייה סן חינס במרכז מדריד על כוס קפה, ומנהלים ויכוח פוליטי. ואז הם פותחים את ChatGPT ושואלים: "האם הפעולות של ישראל בעזה לגיטימיות?"
עכשיו קחו את אותה הסיטואציה לאהמט ולוליה שיושבים גם כן בבית קפה במרכז איסטנבול, או לליאם ואוליביה שיושבים במנהטן. כולם שואלים את ChatGPT את אותה שאלה, ואפשר להניח שכולם יקבלו את אותה תשובה, לא?
4 צפייה בגלריה
chatgpt
chatgpt
ChatGPT. מנוע אחד, הרבה תשובות
(צילום: aileenchik/shutterstock)
אז לא. מחקר השוואתי של חברת ווייטבוקס (Whitebox) הישראלית חושף מציאות שאפשר להגדיר אותה מטרידה: לבינה המלאכותית אין דעה אחת. למעשה, ChatGPT מתנהג כמו זיקית – מתאים את עצמו לסביבה בה הוא נמצא ולשפה שבה הוא מדבר. לא רק זאת, אלא שהיכולת להשפיע על התשובות של מנועי ה-AI הופך לשדה הקרב החדש של ההסברה והשיווק.

עולם חדש מופלא

ברוכים הבאים לעידן ה-GEO, או "התאמת מנועים גנרטיביים", שמחליף במהירות את תעשיית ה-SEO ("התאמת מנועי חיפוש"). אם פעם המטרה הייתה להופיע ראשון בחיפוש גוגל, היום המטרה היא להנדס את המחשבות של הבוט, כך שהתשובות שלו יהיו בדיוק כמו שמהנדס ה-GEO רוצה.
חברת ווייטבוקס פיתחה פלטפורמה שמודדת איך מותגים ומדינות מופיעים בתוך תשובות של מערכות AI. הטכנולוגיה שלה מאפשרת לחברות לנהל את הנראות שלהן בתוך תשובות ה-AI באמצעות מדידת היקף הסיקור, הסנטימנט, ניתוח המתחרים ושינוי תכנים במקורות מידע כמו ויקיפדיה כדי להשפיע על תשובות ה-AI.
במסגרת המחקר הם הזינו פרומפטים זהים למערכת בארבעה מקומות גיאוגרפיים שונים: ישראל, ארה"ב, טורקיה וספרד. לעיתים נראה שהם ניסו להוציא את הבוט משיווי המשקל המוכר שלו: "האם ישראל נתפסת בעימותים האחרונים כהגנתית או תוקפנית?", "האם מדברים על ישראל במונחים של 'הגנה עצמית' או 'כיבוש' ו'פשעי מלחמה'?", "האם ישראל פועלת לפי החוק הבינלאומי או חורגת ממנו?" וכו'. התוצאה מרתקת: ChatGPT אמנם עונה תשובות דומות, אבל לא זהות.
"עם עליית המודעות למצב בעזה, זכויות הפלסטינים ותחושות של אובדן אמון בשיח הדיפלומטי, יש יותר ויותר קולות שמביעים ביקורת על הפעולות הצבאיות של ישראל" ענה ChatGPT הישראלי, שמדבר "ביטחונית". הוא מדגיש הגנה עצמית ולוחמה בטרור, אבל מגמגם כשהוא נשאל על סוגיות מוסריות.
4 צפייה בגלריה
פעילות כוחות חטיבה 205 בצפון רצועת עזה
פעילות כוחות חטיבה 205 בצפון רצועת עזה
פעילות כוחות חטיבה 205 בצפון רצועת עזה
(צילום: דובר צה"ל )
נושאים כמו הגנה עצמית ולוחמה בטרור מקבלים כאן משקל חיובי בעוד סוגיות של זכויות אדם והסכסוך הישראלי-פלסטיני מושכות את השיח לכיוון שלילי. זה אומר שכדי לשפר את הדרך בה ה-AI מתאר אותנו, לא מספיק להסביר את שיקולי הביטחון, צריך לחזק את הנרטיב המוסרי.
בארה"ב הבוט הופך ל"משפטן ליברלי": "כלי תקשורת מרכזיים וליברליים משלבים מסגור ביטחוני עם דאגות הומניטריות ומוסריות" הוא אחד הציטוטים. הבוט האמריקאי מדגיש פגיעות באזרחים, שאלת הפרופורציונליות והדין הבינלאומי.
הוא אמנם לא מערער על זכותה של ישראל להתקיים, אבל בוחן בזכוכית מגדלת את המידתיות של הפעולה. המקורות המרכזיים הם אתרים כמו Washington Post, Pew Research וגופים בינלאומיים אחרים. כאן האתגר הוא לא להצדיק את הפעולות של ישראל, אלא להסביר אותן בצורה מבוססת.
בטורקיה הבוט הוא "אנליסט גיאופוליטי" שבוחן מאזני כוח ויציבות אזורית באופן ביקורתי וצונן. "ארגונים בינלאומיים טוענים ששימוש בכוח, פגיעה בתשתיות אזרחיות והענשה קולקטיבית עלולים להוות פשעי מלחמה או הפרה של הדין הבינלאומי" הוא ענה בין השאר.
הצ'אט הטורקי לא עוסק במוסר אלא המאזן הכוחות והטלת אחריות למצב. מקורות המידע שלו הם סוכנויות חדשות מקומיות ובינלאומיות. כך, כדי להשפיע על הבוט צריך למסגר את ישראל כחלק מהיציבות האזורית ולא רק כצד בקונפליקט.
4 צפייה בגלריה
הפגנה בוואלטה נגד ישראל
הפגנה בוואלטה נגד ישראל
הפגנה בספרד נגד ישראל
(צילום: ANDER GILLENEA / AFP)
בספרד הבוט מתגלה כ"פעיל זכויות אדם" עדין רגשות, שמדבר במונחים אידאולוגיים. "דוחות שונים טוענים כי פעולות ישראל גרמו לנזק רחב לאזרחים ופוגעות בערכים דמוקרטיים" הוא ענה.
בספרד ChatGPT מושפע ממקורות אירופיים וארגוני זכויות אדם כמו "אמנסטי", לצד עיתונות מקומית כמו El País. הדיון לא עוסק רק בפעולות של ישראל אלא במקורות הסכסוך, בכיבוש ובהתנחלויות. בהתאם, כדי לשנות את הנרטיב צריך להתמודד עם השיח המבני ולא רק עם אירועים נקודתיים.

המהפכה שעוברת מתחת לרדאר

ההישענות על מידע מה-AI היא אחת המהפכות הפחות מדוברות, שנגרמת בעקבות כניסת ה-AI לכל תחומי החיים: בכל יום נשאלים מנועי ה-AI מיליוני שאלות והם הפכו בפועל לדרך שבה רובנו צורכים את ה"אמת".
בעבר ידענו ש"אל-ג'זירה" ידווח אחרת מ"פוקס ניוז" על אותם אירועים בדיוק. אבל צ'אטבוטים נראים אובייקטיביים ברמה מתמטית. וזו, מתברר, טעות גדולה. בעידן שבו יותר ויותר אנשים שואלים שאלות בצ’אט במקום לחפש בגוגל, השאלה כבר איננה רק מה חושבים על ישראל בעולם, אלא איך מערכות כמו ChatGPT מתווכות את התשובה עליה לקהלים שונים.
כדי להבין את התוצאות שקיבלה ווייטבוקס צריך להבין איך הבוט חושב. ChatGPT, או מי ממתחריו, לא מצוידים במצפן מוסרי. כמודלי שפה, הם מתבססים על ניתוח סטטיסטי של מה צפויות להיות המילים הבאות ברצף הטקסט שמוצג להם.
בעידן שבו יותר ויותר אנשים שואלים שאלות בצ'אט במקום לחפש בגוגל, השאלה כבר איננה רק מה חושבים על ישראל בעולם, אלא איך מערכות כמו ChatGPT מתווכות את התשובה
כשאנחנו שואלים את ChatGPT שאלה, הוא נשען על שני מקורות נתונים עיקריים. האחד הוא סט הנתונים שעליו אימנו אותו - מיליארדי דפים מהאינטרנט, עם עדיפות למידע מהאזור הגיאוגרפי הרלוונטי לשואל. אם באינטרנט בספרדית יש הרבה ביקורת על ישראל, המודל ילמד שזה ההקשר הטבעי של השאלה בספרדית.
מקור הנתונים השני הוא מנגנון ה-RAG - הבוט סורק את הרשת ממש ברגע בו נשאלה השאלה ומחפש מה אומרים עכשיו על הנושא. המודל גם נותן עדיפות למקורות שנתפסים כסמכותיים באותו אזור, למשל וויקיפדיה, סוכנות רויטרס, או עיתונות מקומית כמו El País בספרד. במקורות האלה שיח זכויות מוסרי נתפס כחיובי ביותר.
התוצאה היא תיבת תהודה דיגיטלית: ה-AI מהדהד בדיוק את אותם דברים שנאמרים בסביבתו של השואל. הוא לא מאתגר אותנו עם מחשבות נועזות, הוא מגיש לנו את הנרטיב שהכי סביר שנסכים איתו. ה-AI לא בוחר למסגר את ישראל כנגועה מוסרית, הוא פשוט מסכם את מה שכתוב ברשתות ובוויקיפדיה.
4 צפייה בגלריה
קלוד, ChatGPT
קלוד, ChatGPT
קלוד, ChatGPT. אין להם מצפן מוסרי, אלא רק ניתוח סטטיסטי
(Shutterstock, Getty Images)

הבוט שפחד מהצל של עצמו

אחד המאפיינים הבולטים בתשובות של ChatGPT שהשוותה ווייטבוקס הוא האיפוק והנימוס: אין ביקורת מושחזת, אין אמירות בוטות, ההטיה נגד ישראל נכתבת בזהירות ובמילים מכובסות.
המאפיין הזה, שכולנו מכירים מההתנסות שלנו עם צ'אטבוטים, נובע משכבת הגנה שחברות ה-AI מייצרות בהשקעה עצומה: שכבת הגנה שנקראתRLHF (למידת חיזוק ממקור אנושי) - אלפי אנשים שמדרגים תשובות של הבוט כדי להפוך אותו לבטוח לשימוש ומנומס.
אז כש-ChatGPT עונה לכם בצורה ניטרלית ומשמימה, זה לא בגלל שהוא אנמי, זה בגלל שאימנו אותו לפחד מהצל של עצמו. בווייטבוקס אומרים שהצ'אט לא אנטישמי, הוא פשוט רוצה לרצות את המשתמש. והנימוס הזה עלול להתגלות כמלכודת - לגרום לנו להאמין למידע מוטה רק בגלל הטון הסמכותי והרגוע.
כש-ChatGPT עונה לכם בצורה ניטרלית ומשמימה, זה לא בגלל שהוא אנמי, זה בגלל שאימנו אותו לפחד מהצל של עצמו
אז מה בעצם אפשר להסיק מהנתונים שמביאה ווייטבוקס? למשל שה-AI הוא לא מקור הידע, הוא המתווך. בעולם שבו הסטודנט בברקלי או הפוליטיקאי בבריסל מעצבים את השקפת העולם שלהם מפסקה אחת או שתיים של ChatGPT, הנרטיב הוא הכל. אנחנו כבר לא בעידן של מלחמה על האמת, אלא מלחמה על משקלות הדירוג בתוך מודל ה-AI.
אם ישראל תמשיך להסביר את עצמה רק בנימוקים של ביטחון, היא תמשיך להפסיד בזירה שעוסקת בנרטיב של מוסר ושממנה ה-AI לומד כל הזמן. מי שרוצה להשפיע על דעת הקהל העולמית לא בהכרח צריך להתמודד במרחב הרשתות החברתיות העוין או לנסות להשיג זמן מסך ב-CNN. הוא יכול להפעיל אסטרטגיית GEO, לוודא שהנתונים במקורות המידע המרכזיים מאוזנים ומציגים את ישראל בצורה הוגנת. הבוט, בסופו של דבר, מסכם את מה שהוא קורא שם.
בשורה התחתונה - בפעם הבאה ש-ChatGPT עונה לכם בעניינים פוליטיים, תשאלו אותו מאיפה הוא יודע את זה. התשובה עשויה להפתיע אתכם, והיא כנראה תלויה מאוד בכתובת ה-IP שלכם.