2 צפייה בגלריה
בינה מלאכותית
בינה מלאכותית
חסר הומור אבל פוליטיקלי קורקט. חוויותיי עם הצ'אט
(אילוסטרציה: Shutterstock)
באתר האינטרנט של חברת ממתקים גדולה שלא נזכיר את שמה נכתב שסוכר הוא מוצר חיוני לבריאות, אבל אני בספק אם מי מגולשי הרשת מאמין למשפט זה. כל בר דעת מבין שקביעה כזאת של גוף עסקי בעל אינטרס אינו אמין. עם זאת, לא מן הנמנע שצ'אט הבינה המלאכותית chatGPT, שיודע לכתוב מאמרים ולענות על שאלות באופן מעורר השתאות, ומעורר בשבועות האחרונים סערה רבתי, דווקא ייפול בפח.
הסערה, המתחוללת בעיקר באקדמיה אבל גם מחוצה לה, נוגעת ליכולותיו המתגבשות של המוצר והחשש מהן. הוא יודע לסרוק את הרשת, לאסוף מידע ולענות על בקשות שהגולש מציג לו, מה שמעורר כמה שאלות: האם ישתמשו בו סטודנטים עצלים להכנת עבודות אקדמיות בלחיצת כפתור? האם הוא יוכל לכתוב ספרים עבור היוצר השרוי במשבר אמנותי? האם ישתמש בו העיתונאי הקצר בזמן כדי להכין כתבה במקום לבדוק את העובדות ולספר את הסיפור בעצמו?
כולם יודעים למי ניתנה הנבואה (chatGPT, נקרא לו בשם החיבה ג'יפי, דווקא לא הצליח לענות לי על שאלה זו), ולכן לא אתנבא פה, אבל אני מציעה להיכנס לפרספקטיבה. ב-1956 נרעש העולם מכך שמכונה ניצחה לראשונה אדם במשחק שחמט (אבל הענף עדיין חי וקיים). לפני 40 שנה לא השתמשו במחשבון בבגרות במתמטיקה (היום זה בסיסי). לפני 30 שנה הורידו מורים לתלמידים ציון בעבודות על שגיאות כתיב (ויתרנו). לפני 20 שנה אנשים לא תיארו לעצמם שאפשר ללמוד בלי לשבת בספרייה. והיום? כל סטודנט וחוקרת יושבים מול מחשב שמחובר לרשת ושולפים כמויות עצומות של מידע מבלי לזוז מהכיסא.
ג'יפי בסך הכול הביא אותנו באקדמיה לפריצת הדרך הבאה. ככל הנראה בעוד שנים ספורות תוגש כל עבודה באמצעות שימוש בצ'אט הזה או בצ'אט מתחרה שיקום וייקח את הקרדיט (כמו שגוגל עשתה עם מנוע החיפוש אלטה ויסטה ודומיו). ועדיין, אנשי האקדמיה והמורים יכולים להירגע: הם יוכלו להמשיך לתת עבודות לתלמידים, רק שהסוג שלהן יצטרך להשתנות. לא עוד מטלות של כתיבת ידע, אלא כאלה שדורשות מיומנויות נוספות ומוגדרות אנושיות-רגשיות. כמעט כל מכונה מועילה לאדם וחוסכת לו עבודה, ועדיין צריך את המוח האנושי שיידע לעבד את הנתונים באופן ביקורתי ולעשות בהם שימוש מושכל.
הנה דוגמה: ניסיתי להשתמש בג'יפי כדי לכתוב מבחן, פעולה שדורשת ממני לא מעט שעות עבודה ושהייתי שמחה לתת למכונה לבצע עבורי. אולם לפי התוצאה, לצערי הרב אצטרך להמשיך לעשות זאת בעצמי. כתיבת שאלות הינה משימה שדורשת מיומנויות שאין למכונה, ולכן השאלות שג'יפי כתב לא מספיק טובות למבחנים.
כמה פעמים מצאתם באינטרנט מידע מוטעה ושגוי? בדרך כלל, הגולש הסביר יודע לפסול מידע לא מהימן על ידי קריאה ביקורתית שהיא מהחשובות במיומנויות האנושיות. לכן כאמור אף בר-דעת לא יאמין ל"מידע" על בריאות המזון שהוא קורא באתר אינטרנט של חברת ממתקים.
ד"ר שירה צוקרד"ר שירה צוקר
האלגוריתם של ג'יפי, שעובר על חומר ברשת ולומד ממנו, עלול לקרוא גם פורומים ואתרים הכוללים מידע שגוי, חובבני, מוטעה או מניפולטיבי. עד כמה האלגוריתם שלו יידע לסנן מקורות מידע כאלה? המשתמש בג'יפי, לפחות לעת עתה, לא יוכל ליהנות מהקריאה הביקורתית הכל כך טריוויאלית שהוא יודע לעשות בעצמו כשהוא מחפש בגוגל, משום שהצ'אט עונה לו לאחר שכבר עיבד את הנתונים. כך למשל, ג'יפי לא יודע מי מולך כיום על בריטניה (המידע שלו מעודכן, לטענתו, עד שנת 2021), ולדבריו בוריס ג'ונסון הוא עדיין ראש הממשלה בדאונינג 10.
לשם השעשוע ביקשתי מג'יפי לספר בדיחה. בעברית הוא לא היה מוכן לעשות זאת כדי לא לפגוע באף מגדר. באנגלית, שפה קלה יותר מבחינה מגדרית, הוא מספר כמעט תמיד את אותה בדיחה. באותן מילים בדיוק. כשביקשתי ממנו לספר לי סיפור, זיהיתי רעיונות שלקוחים מסיפורי ילדים ידועים. ככה זה כשלומדים הכל מהאינטרנט, ללא דמיון עצמי. כששאלתי אותו על כך, ענה לי שהמציא הכל בעצמו. אפשר לשלוח אותו לוועדת המשמעת באקדמיה, על מנת שיישפט על רמאות והעתקה?
  • ד"ר שירה צוקר היא ראש המחלקה למדעי המחשב במכללה האקדמית ספיר
מעוניינים להציע טור לערוץ הדעות של ynet? שלחו לנו opinions@ynet.co.il