צעירה בת 21 מדרום קוריאה הואשמה ברצח שני גברים אותם הכירה, לאחר שחוקרי המשטרה גילו כי טרם האירועים היא חיפשה שוב ושוב מידע ב-ChatGPT על הסיכונים הכרוכים בשילוב בין תרופות לאלכוהול. כך לפי דיווח שעלה בימים האחרונים ב-BBC.
לפי משטרת סיאול, בדיקה פורנזית של הסמארטפון של החשודה העלתה כי האישה, המזוהה רק בשם המשפחה "קים", שאלה את הצ’אטבוט בין היתר "מה קורה אם לוקחים כדורי שינה עם אלכוהול?", "כמה כדורים צריך לקחת כדי שזה יהיה מסוכן?", ו-"האם השילוב הזה יכול להרוג מישהו?".
בחקירתה הראשונית טענה קים כי אכן ערבבה תרופות הרגעה המכילות בנזודיאזפינים שקיבלה במרשם עם משקאות אלכוהוליים, אך לדבריה לא צפתה שהקורבנות שלה ימותו כתוצאה מכך. עם זאת, אחד החוקרים מסר לכלי התקשורת במדינה כי מהראיות עולה שהיא הייתה "מודעת לחלוטין לכך ששילוב של אלכוהול עם תרופות הרגעה עלול להסתיים במוות".
קים נעצרה לראשונה ב-11 בפברואר בחשד לגרימת חבלה שהובילה למוות ברשלנות, סעיף אישום קל יותר בחומרתו המשפטית, זאת לאחר ששני גברים מתו ואדם נוסף נמצא מחוסר הכרה בעקבות מפגשים איתה במלונות דרכים (מוטל). בהמשך, לאחר מציאת המידע האמור על ידי משטרת סיאול, שודרגו האישומים לרצח.
על פי גרסת המשטרה, האירוע הראשון המיוחס לה התרחש ב-28 בינואר. באותו ערב נכנסה קים למלון בשכונת סויו-דונג שבמחוז גאנגבוק בסיאול יחד עם גבר בשנות ה-20 לחייו. כשעתיים לאחר מכן היא עזבה את המקום לבדה, ולמחרת נמצא הגבר ללא רוח חיים בחדר. ב-9 בפברואר, כך נטען, השתמשה קים באותה שיטה כדי להרוג גבר נוסף בשנות ה-20 לחייו, לאחר שהשניים נכנסו יחד למלון אחר באותו מחוז.
הרשויות ציינו כי כבר בחודש דצמבר האחרון, טרם הרציחות, ניסתה קים לפגוע בבן זוגה דאז באמצעות משקה שהכיל תרופות הרגעה בחניון של בית קפה בעיר נאמיאנגג'ו שבמחוז גיונגי, וגרמה לו לאבד את הכרתו.
לפי המשטרה, לאחר שהקורבן הראשון שרד והתעורר, החלה קים להכין את המשקאות עם מינונים גבוהים משמעותית של כדורי הרגעה - דבר שהוביל, לכאורה, לתוצאות הקטלניות באירועים המאוחרים יותר. במשטרת סיאול הדגישו כי החקירה נמשכת, וכי נבדקת האפשרות שקיימים קורבנות נוספים מעבר לשלושת הגברים שכבר זוהו.
צעירים שמתאבדים, אחרים שרוצחים
המקרה בדרום קוריאה מצטרף לשורת מקרים שעוררו לאחרונה דיון ציבורי רחב סביב השימוש בצ'אטבוטים מבוססי בינה מלאכותית במצבי קיצון. בארה"ב דווח בשנה האחרונה על כמה צעירים ששמו קץ לחייהם לאחר שהתכתבו עם ChatGPT בנושאים הקשורים למצוקה נפשית ולמוות.
בני משפחותיהם של הקורבנות טענו כי המערכת לא זיהתה בזמן אמת את רמת הסיכון או לא הגיבה באופן מספק למצוקה שהביעו, וכי ניתן היה למנוע את הטרגדיה באמצעות מנגנוני התרעה והפניה לעזרה מקצועית.
בכמה מהמקרים אף הוגשו תביעות אזרחיות נגד OpenAI, בטענה לרשלנות בפיקוח ובאמצעי הבטיחות של המערכת, ובהאשמה כי החברה לא יישמה מנגנוני התרעה והפניה לעזרה מקצועית באופן אקטיבי דיו. ב-OpenAI דחו את הטענות והדגישו כי המערכת מתוכננת לעודד פנייה לגורמי סיוע במצבי מצוקה, אך הוויכוח הציבורי לא שכך.
במקביל, רק לפני יומיים דיווחנו כאן על הודאתה של חברת OpenAI כי זיהתה כבר בחודש יוני אשתקד פעולות מעוררות חשד בצ'אט של הרוצחת ג'סי ואן רוטסלאר, האחראית לאחד ממקרי הירי ההמוני החמורים ביותר בהיסטוריה של קנדה, אך לא הודיעה על כך למשטרה.








