עורך הדין סטיבן שוורץ לעולם לא ישכח את היום שבו הגיש לבית משפט פדרלי בניו יורק רשימה של פסקי דין שתתמוך בתביעה שהגיש נגד חברת התעופה הקולומביאנית אוויאנקה בשם מרשו, רוברטו מאטה, בעקבות פציעה שספג במהלך טיסה לניו יורק.
3 צפייה בגלריה
שקרים
שקרים
המטרה: לגרום ל-AI להפסיק לשקר
(התמונה נוצרה באמצעות מחולל התמונות DALL-E3)
שוורץ, עורך דין ותיק עם 30 שנות ניסיון, נעזר במהלך התחקיר המשפטי שלו ב-ChatGPT, הצ'אטבוט של חברת OpenAI, שרק חודשים ספורים קודם לכן יצא לשוק והספיק להפוך לתופעה עולמית שאי אפשר להתחמק ממנה. הבעיה: הצ'אטבוט סיפק לו רשימה מומצאת של פסקי דין, עובדה שהתגלתה כאשר עורכי הדין של הצד השני לא הצליחו לאתר אותם במאגרי המידע המקצועיים. השופט זעם, והמקרה העגום של עורך הדין שנפל בפח של ChatGPT סוקר על ידי כלי תקשורת ברחבי העולם. המוניטין של שוורץ ספג פגיעה אנושה, והוא נאלץ לשלם קנס של 5,000 דולר.
לא מדובר במקרה נדיר. להיפך: צ'אטבוטים מסוגו של ChatGPT משקרים לנו כל הזמן. "הזיות" (hallucinations), קוראים לתופעה בז'רגון המקצועי, מכיוון שהיא מזכירה את ההזיות האנושיות שגורמות לבני אדם לדמיין דברים שלא באמת קרו (אם כי יש מומחים שמוחים על השימוש במינוח מסיבות שונות).
גם לנו זה קרה: כששאלנו את בארד, הצ'אטבוט של גוגל, על קורות חייו של יהונתן גפן ז"ל, הוא טען בפנינו בטעות שהמשורר והסופר המנוח כתב את התסריט לסרט "הבית ברחוב גריבלדי". קלוד, הצ'אטבוט של חברת אנתרופיק, סיפר לנו שפאדי קוסגרייב - מנכ"ל כנס הטכנולוגיה WebSummit שעורר סערה בעקבות התבטאויות אנטי-ישראליות - הוא בכלל שחקן כדורגל ישראלי ש"עורר ביקורת וכעס בקרב חלקים בציבור בישראל".
ריפרש
אל תספידו את המטאברס עדיין / עם גלעד טלמון
48:56
ChatGPT, בארד וקלוד הם לא יוצאי דופן; אם השתמשתם אי פעם בצ'אטבוט מבוסס בינה מלאכותית, סביר להניח שבשלב מסוים הוא סיפק לכם מידע שגוי, אולי בלי שבכלל שמתם לב.
ד"ר רוית דותן: "לפני כמה חודשים פורסמו באמזון מספר ספרים בנושא ליקוט פטריות שככל הנראה נכתבו על ידי בינה מלאכותית יוצרת. 'הזיות' בספרים כאלה יכולות להוביל למוות"
בשביל להבין מדוע צ'אטבוטים שוגים בהזיות, צריך קודם כל להבין כיצד הם בנויים: מודלי שפה גדולים (LLMs, ראשי תיבות של Large Language Models), הטכנולוגיה שעליה מבוססים הצ'אטבוטים המודרניים, מתאמנים על כמות עצומה של טקסטים מהאינטרנט על מנת ליצור טקסטים משכנעים בעצמם. הם לומדים כיצד נראה פוסט בפייסבוק, איך בנוי תסריט לסדרת טלוויזיה ומהו הפורמט של מאמר בוויקיפדיה, ותוך כדי גם סופגים הררים של מידע בתחומים שונים.

מידול שפה, לא ידע

ד"ר עידו ליברטי, מנכ"ל חברת פיינקון (Pinecone) שמפתחת טכנולוגיה לצמצום הזיות של בינה מלאכותית, מסביר כי על אף שהמודלים האלה שיננו הרבה מאוד אינפורמציה, "הם מאומנים על יצירת שפה, הם לא מנועי ידע". מודלי שפה גדולים לא מסוגלים להעריך את הנכונות של אמירה כלשהי, הוא מדגיש, וזאת גם לא המטרה שלשמה הם פותחו.
עידו ליברטיעידו ליברטיצילום: יח"צ
"זה כמו בן אדם מאוד חכם שבמקום ללכת לבית ספר לרפואה יצטרף בכל יום במשך עשר שנים לסבב רופאים בבית חולים", מסביר ליברטי. "אחרי עשר שנים הוא יֵדע לדבר כמו רופא, וב-90% מהמקרים הוא יגיד דברים נכונים, אבל הוא עדיין לא יבין כלום ברפואה. המודלים האלה היו ב'סבב רופאים' - הם הקשיבו לכל האינטרנט אלף פעם. האם הם באמת יודעים משהו? לרוב לא".
ד"ר יונתן גייפמן, מנכ"ל חברת Deci שמפתחת ומשפרת מודלים של בינה מלאכותית, מסביר שמודלים של שפה הם אוטו-רגרסיביים, זאת אומרת מייצרים דאטה חדש על בסיס הדאטה שהם התאמנו עליו, והמשימה שלהם היא לנחש את המילה הבאה במשפט. "אין פה מידול של ידע, יש פה מידול סטטיסטי של שפה", הוא מסביר. "בהקצנה, אם נשאל צ'אטבוט מי המייסד של חברת Deci, יש סיכוי גבוה יותר שהוא יגיד שמדובר באילון מאסק מאשר יונתן גייפמן, פשוט כי אילון מאסק מתחבר לו בסטטיסטיקה יותר טובה כשם שקשור ליזמות טכנולוגית".
מכיוון שרוב המידע שהמודלים התאמנו עליו הוא באנגלית, בעיית ההזיות מתגברת כאשר מתכתבים עם צ'אטבוטים בשפות אחרות, למשל עברית. "המודלים ראו הרבה פחות דאטה בעברית והם הרבה פחות שולטים בשפה הזאת", מסביר גייפמן, "אז הם יכולים לעשות טעויות בעברית וגם לכתוב בצורה קלוקלת".
יונתן גייפמןיונתן גייפמןצילום: יח"צ
תופעת ההזיות לא אמורה להפריע לכם אם אתם מבקשים מ-ChatGPT ודומיו לכתוב לכם שיר, ברכה ליום הולדת או תסריט לסדרת טלוויזיה. ייתכן שבמקרים כאלה היא מהווה אפילו יתרון; הזיות הן ביטוי ליצירתיות. אבל אם אתם נעזרים בצ'אטבוטים לצורכי עבודה או לכתיבה אקדמית, או סומכים על ChatGPT שיבנה עבורכם תוכנית אימונים או דיאטה, להזיות האלה יכולות להיות השלכות שליליות משמעותיות. בעיה נוספת היא שתכנים שנוצרו על ידי מודלי שפה כבר מתפשטים ברחבי האינטרנט ללא גילוי נאות, ולעיתים קרובות הם נגועים במידע כוזב.
"בעיית ה'הזיות' היא חמורה מאוד, מכיוון שבהקשרים רבים הן יכולות להוביל לנזק רב", אומרת ד"ר רוית דותן, חוקרת ויועצת של אתיקת בינה מלאכותית. "לפני כמה חודשים פורסמו באמזון מספר ספרים בנושא ליקוט פטריות שככל הנראה נכתבו על ידי בינה מלאכותית יוצרת. 'הזיות' בספרים כאלה יכולות להוביל למוות. דוגמה מדאיגה נוספת היא העובדה שבעיית ההזיות עשויה לעוות את המדע. דמיינו עולם שבו מאמרים מדעיים מכילים טענות שקריות רבות בעקבות שימוש בבינה מלאכותית. לא ניתן לאמוד את הנזק של מציאות כזו, שיכולה להתממש ללא משנה זהירות שכיום אנחנו עוד לא רואים".
3 צפייה בגלריה
קלוד ממציא מידע על פאדי קוסגרייב
קלוד ממציא מידע על פאדי קוסגרייב
בעברית הבעיה מחמירה. קלוד ממציא מידע על פאדי קוסגרייב
דותן עצמה, אגב, מתנגדת לשימוש במונח הזיות. "ראשית, השם עלול להטעות אנשים לחשוב שבינה מלאכותית היא יצור דמוי אנושי בעל תודעה, משהו שיכול להזות", היא מסבירה. "שנית, השם עשוי להסיר אחריות מהחברות שמאחורי הטכנולוגיה. הן אלו שלמעשה אחראיות למידע השקרי, לא הטכנולוגיה עצמה". לדבריה, חלופות אפשריות למילה "הזיות" הן טעויות, שגיאות, מידע כוזב, מיסאינפורמציה ודיסאינפורמציה.

"בעיה לא פתורה מחקרית"

תקראו לזה איך שתרצו, הזיות, טעויות או שגיאות - אין ספק שמדובר בתופעה מדאיגה, שמהווה מכשול בדרך לאימוץ נרחב יותר של בינה מלאכותית יוצרת. צ'אטבוטים יכולים לספק לארגונים וחברות ערך רב ולסייע להם לשמור על קשר עם הלקוחות שלהם, אבל לחברות הטכנולוגיה קשה להבטיח להם כיום שהצ'אטבוט לא יספק ללקוחות מחירים שגויים או ימציא מוצרים שאינם קיימים בקטלוג.
רוית דותןרוית דותן
האם מדובר בבעיה פתירה? מנכ"ל OpenAI, סם אלטמן, אמר בשנה שעברה כי הוא מאמין שאף אחד לא ידבר על הזיות בבינה מלאכותית תוך שנה וחצי-שנתיים, אבל לא כולם מסכימים איתו. "בעיית ה'הזיות' טמועה עמוק בבינה מלאכותית יוצרת, ויש מומחים שטוענים שלא ניתן לפתור אותה", אומרת דותן. גם אלי קולינס, סגן נשיא לתחום המוצר בגוגל דיפמיינד, חטיבת ה-AI של ענקית הטכנולוגיה, אמר עם השקת מודל השפה החדש ג'מיני כי מדובר עדיין ב"בעיה לא פתורה מבחינה מחקרית".
"אני בטוח שמיטב המוחות עובדים על הבעיה הזאת, ושזה אחד הדברים שב-OpenAI עובדים עליהם הכי הרבה", אומר גייפמן. עד שיימצא פתרון, אחת השיטות שמשתמשים בהן בתעשייה כדי לצמצם את שיעור ההזיות נקראת Retrieval Augmented Generation, או בקיצור RAG. במילים פשוטות, מדובר בחיבור של מודל השפה למאגר מידע, שממנו הוא שולף את המידע הרלוונטי במקום להסתמך על המידע שעליו התאמן. כך למשל יצרנית תרופות יכולה לבנות מסד נתונים שיכיל את כל המידע הפנימי שלה, או חלק ממנו, ולחבר אליו צ'אטבוט שיסייע לעובדים בנושאים מקצועיים.
ד"ר עידו ליברטי: "אם אני רוצה שהמודלים שלי יגידו דברים נכונים מבחינה עובדתית, הם צריכים מידע כדי לענות בצורה מדויקת. למה שמודל שפה יוכל לענות על משהו בצורה נכונה בלי שיהיה לו את המידע הרלוונטי?"
פיינקון של עידו ליברטי היא החלוצה של תחום חדש יחסית - מסדי נתונים וקטוריים (Vector Data Bases), שאותם ניתן להצמיד למודלים של שפה. מסדי נתונים כאלה משמשים לאחסון מידע שאינו מתויג, כמו טקסטים, סרטונים ותמונות, כאשר כל פריט מידע מקבל ייצוג מתמטי (וקטור) בהתאם למאפיינים שלו. כך ניתן לחפש מידע באופן סמנטי, על בסיס המשמעות שלו: כאשר שאילתה נשלחת ממודל השפה אל מסד הנתונים הווקטורי, כלומר כאשר המודל "מחפש תשובה" כלשהי במסד הנתונים, נוצר עבור השאילתה ייצוג מתמטי משלה, ומסד הנתונים מחפש ייצוגים דומים, כלומר מידע שדומה או קשור אליה, על מנת למצוא את התשובה הנכונה. אפשר להסתכל על מסדי הנתונים האלה כעל זיכרון לטווח ארוך, או בסיס הידע, של המודלים.
3 צפייה בגלריה
ChatGPT וג'מיני
ChatGPT וג'מיני
ChatGPT וג'מיני. בעיה שחוצה את התעשייה
(צילום: Mojahid Mottakin / Shutterstock)
"אנחנו יודעים בוודאות שזה מצמצם מאוד את שיעור ההזיות", אומר ליברטי על השיטה הזאת, ומסביר כי עבור הלקוחות של החברה מדובר באופציה הכמעט יחידה: "אם אתה בונה אפליקציה עבור חברה ואתה רוצה להשתמש במידע פנימי, אתה חייב להשתמש ב-RAG ובמסד נתונים וקטורי, אחרת לצ'אטבוט לא תהיה את האינפורמציה הרלוונטית".
גישה אחרת היא לקחת מודל שפה קיים, ולאמן אותו באופן ספציפי על המידע הפנימי של הארגון. התהליך הזה נקרא "כוונון עדין" (Fine Tuning), אך הוא נחשב פחות יעיל לצמצום תופעת ההזיות וטומן בחובו סיכונים בתחום הפרטיות: אם בטעות השתרבב למערך הנתונים מידע פרטי של עובד או לקוח, מחיקה שלו מהמודל היא משימה בלתי אפשרית.
האם אפשר בעזרת RAG ומסד נתונים וקטורי לצמצם גם את ההזיות של צ'אטבוטים צרכניים כמו ChatGPT, בארד וכו'? ליברטי: "כן. באיזשהו מובן זה מאוד פשוט: אם אני רוצה שהמודלים שלי יגידו דברים שהם נכונים מבחינה עובדתית, הם צריכים מידע כדי לענות בצורה מדויקת. זה מאוד טבעי שניתן להם את המידע הזה באיזושהי צורה נגישה, בזמן אמת, באמצעות מסד נתונים. למה שמודל שפה יוכל לענות על משהו בצורה נכונה בלי שיהיה לו את המידע הרלוונטי? זה הזוי שבכלל חשבנו על זה".
יכול להיות שבעוד שנה או שנתיים נקום בבוקר ונגלה שבעיית ההזיות בצ'אטבוטים חלפה מן העולם. עד שזה יקרה, מומלץ לבחון בשבע עיניים כל מה שהם אומרים לכם, ועוד לפני כן, לחשוב היטב לאילו תרחישי שימוש הם מתאימים ולאילו לא. עו"ד סטיבן שוורץ סמך בעיניים עצומות של ChatGPT, והטעות הזאת העמידה את הקריירה שלו בסכנה. בפעם הבאה זה יכול להיגמר יותר גרוע.