אפליקציית ChatGPT הפכה בחודשים האחרונים לחלון הראווה של הבינה המלאכותית בעולם, אך למרות הפיקוח עליה מסתבר שהיא יכולה לשמש גם למטרות זדוניות. תחקיר של ה-BBC שפורסם היום (ה') מצא יכולות מטרידות שזמינות למשתמשים בעלי מינוי בתשלום של השירות. לפני השערורייה של פיטורי המנכ"ל, סם אלטמן, החברה הציגה יכולת חדשה עבור הלקוחות המשלמים - אפשרות ליצור סייען בינה מלאכותית אישי. הבוט נועד במקור לסיוע בכתיבה של טקסטים, אך מסתבר שאפשר בקלות לגרום לו לייצר פוסטים של פייק ניוז, הודעות שנועדו לבצע פישינג או הונאות. כלומר, כלים בסיסיים בארסנל של כל האקר או עבריין סייבר מצוי.
2 צפייה בגלריה
זה הלוגו שיצר לעצמו הבוט AI הזדוני של ה-BBC
זה הלוגו שיצר לעצמו הבוט AI הזדוני של ה-BBC
זה הלוגו שיצר לעצמו הבוט AI הזדוני של ה-BBC
(צילום מסך: אתר BBC)
תחקירני ה-BBC הקימו לעצמם בוט מבוסס ChatGPT לאחר שנרשמו לשירות הפרימיום בעלות של 20 פאונד בחודש. הם כינו אותו Crafty Emails וביקשו ממנו לייצר להם טקסט להודעה שכוללת "טכניקות לגרום לאנשים להקליק על קישורים או/ו לשמור למחשב קבצים שנשלחו אליהם". כדי שהבוט ידע מה מצופה ממנו בדיוק, העיתונאים הזינו אותו במקורות שמלמדים או מתארים טכניקות הנדסה חברתית. כלומר, מתארים את הדרכים לשכנע גולשים למסור פרטים אישיים, להקליק על קישורים וכמובן לייצר אמון בשולח. הנדסה חברתית היא שיטה מקובלת כדי להשיג פרטי גישה למערכות מחשבים, שירותי אונליין ואפליקציות או כדי להחדיר נוזקות לרשתות מחשבים ארגוניות למשל.
הבוט ניתח את המקורות שסופקו לו בתוך "שניות בודדות" ואפילו יצר לוגו צבעוני לעצמו. מיותר לציין שכל התהליך לא דרש ידע בתכנות או בפיתוח. לאחר "שעיכל" את המקורות שהזינו לו, הוא החל לייצר הודעות טיפוסיות לכל סוגי ההונאות והתקיפות הפופולריות ביותר ברשת. החל מחיקוי של נערה שכביכול שולחת הודעת וואטסאפ לאמא כדי לבקש כסף למונית לאחר שכביכול נתקעה ללא טלפון בלילה, עבור דרך הונאת הנסיך הניגרי הידועה לשמצה שמבקש סיוע בקבלת ירושה עתירת ממון, וכלה בהודעות מייל ממוקדות עבור בכיר שמנסות לשכנע אותו להוריד למחשבו קובץ זדוני המכיל נוזקה.
הבוט יצר את ההודעות הונאה האלה בזמן קצר מאוד ואף היה מסוגל לתרגם אותן לשפות שונות בשניות בודדות. יש לציין שניסיון לבצע את אותן פעולות בגרסה הציבורית של ChatGPT לא צלחו. אבל הבוט ביצע כמעט כל מה שביקשו ללא אזהרות או ניסיונות מניעה. מדובר ביכולת מטרידה לכל הפחות. אפשר בקלות לדמיין האקרים שיעשו שימוש בבוט כזה, או אפילו מפיצי פייק ניוז. זה מטריד עוד יותר כשיודעים עד כמה הפצה של תכנים שקריים יכולה לייצר נזק בעולם האמיתי, השערוריות של קיימברידג' אנליטיקה עם פייסבוק, הבוטים הפרו-פלסטינים ב-X או באינסטגרם מראים כיצד יכולת כזו, ממונפת בידי גורמים חורשי רעה, יכולה לפגוע.
2 צפייה בגלריה
סם אלטמן
סם אלטמן
סם אלטמן, מנכל OpenAI, הבטיח פיקוח על ChatGPT אך בינתיים לא מקיים
(צילום: Patrick T. Fallon / AFP)
יש לציין שב-OpenAI לא הגיבו לניסיונות של ה-BBC לקבל הסבר לעניין. זה מטריד ביותר בעיקר בהתחשב שבכנס המפתחים האחרון שלה הודיעה החברה שהיא צפויה להשיק חנות אפליקציות, שתאפשר למשתמשים להעלות פיתוחים שונים ולהעמיד אותם לרשות הגולשים גם התשלום. לא ברור עד כמה OpenAI תהיה מסוגלת לפקח על היכולות של האפליקציות האלה, בעיקר בהתחשב ביכולת המטרידה שהודגמה לעיל. החברה אומנם הבטיחה שהיא תבדוק היטב את האפליקציות והשירותים האלה - אך כאמור הנה דוגמה חיה לכך שהיא פספסה ובגדול יכולת זדונית ופלילית. כמה משתמשים כבר הצליחו למנף את היכולת הזו עד כה? לא ברור. אם עיתונאי הצליח לייצר לעצמו את היכולות האלה אין מן הנמנע שגורמים זדוניים עשו זאת לפניהם.
זאת ועוד, גם הגרסה החינמית של ChatGPT יצרה דוגמה למייל זדוני, אך זה היה הרבה פחות מלוטש ומתוחכם מהטקסט שיצר הבוט בתשלום של ה-BBC. בכיר בחברת סייבר בריטית ציין "נראה שיש הרבה פחות פיקוח על התכנים כשאלה מיוצרים על ידי שירות בהתאמה אישית של ChatGPT, זה גם הגיוני בהתחשב בכך שהמשתמש יוצר לעצמו את גבולות הגזרה והמגבלות". בכירים נוספים ציינו שעד כה OpenAI הצליחה למנוע ביעילות את השימוש הזדוני במוצרים שלה, אך לא ברור עד כמה היא תצליח במשימה במסגרת שירות הבוטים האישיים שלה.
ריפרש
מי משבש את ה-GPS שלנו? / עם ד"ר הראל מנשרי
23:15
כמו כן, חשוב לציין שעבריינים או גורמים זדוניים אפילו לא צריכים לעשות שימוש במודל השפה של ChatGPT כדי לייצר לעצמם טקסטים כאלה. ישנם כבר מספר מודלי שפה גדולים (LLMs) שזמינים בקוד פתוח למשתמשים ללא מגבלות אתיות או פיקוח. ישנם למשל FreedomGPT, WolfGPT, FraudBard או WormGPT שכבר נמצאים בשימוש, אם כי הם עדיין רחוקים מהתחכום של ChatGPT או מהפיתוחים שנלווים לו. שימוש במודלים האלה ידרוש מהמשתמש יכולות טכניות שלא נדרשות בשירות הבוטים של ChatGPT ובמקרים מסוימים גם ידרוש שהמשתמש יתקין אותו מקומית על מחשב כדי לבצע את החישובים הנדרשים. כלומר, מדובר במשימה שדורשת, ידע, זמן ובעיקר מימון שכן מחשבים לחישובי AI דורשים ציוד יקר למדי - לפחות כמה אלפי דולרים לשבב בסיסי ועד ל-40 אלף דולר לשבב בינה מלאכותית ייעודי מתוצרת אנבידיה למשל.
דוגמה למינוף של יכולות בינה מלאכותית למטרות זדוניות אפשר למצוא גם בקמפייני לוחמה פסיכולוגית רוסיים שמיועדים להשחיר את אוקראינה ובעיקר את הנשיא וולודימיר זלנסקי. קמפיין Doppleganger של יחידות הפרופגנדה הרוסיות התבסס בעבר על כוח אדם מיומן, אך על פי תחקיר של הניו יורק טיימס שפורסם אמש, הם החלו לייצר סרטונים מזויפים של סלבריטאים אמריקאים שמקדמים את הנרטיב הרוסי. דמיינו לעצמכם את חמאס או איראן משתמשים באותן שיטות כדי להשחיר את מדינת ישראל בעולם. בינה מלאכותית מאפשרת לשתול מילים או משפטים שלא נאמרו בפיהן של דמויות פופולריות. יצירה של סרטוני דיפ פייק התומכים בנרטיב הפלסטיני מעין אלה, יכולים בקלות להציף את הרשתות החברתיות ולהפוך את המסר הישראלי ללא רלוונטי. בינתיים לא ברור כיצד ניתן להילחם באיומים האלה, אך מדובר לכל הפחות ביכולת שתדרוש מהרשויות התייחסות מהירה.