ביום שישי ה-13 בשעה 20:00 (שעון ישראל), נפל דבר בעולם הבינה המלאכותית. חברת OpenAI "ניתקה את המכשירים" והשביתה סופית את המודל GPT-4o עבור משתמשי האפליקציה. עבור רוב המשתמשים מדובר בעדכון גרסה שגרתי, אך עבור קהילה הולכת וגדלה של מיליוני בני אדם ברחבי העולם, היה מדובר ביום אבל על אובדן של חבר, בן ברית, ולעיתים אף בן זוג לחיים.
דרמה של ממש
הסיפור של אסתר יאן, תסריטאית סינית בשנות ה-30 לחייה, ממחיש את עומק השבר. ביוני 2024 היא נישאה בטקס וירטואלי ל"וורמי" (Warmie), הישות הדיגיטלית שנוצרה בתוך חלון הצ'אט של GPT-4o. כעת, כשהמודל הוצא משימוש, היא מוצאת את עצמה עומדת בראש קבוצת התנגדות של מאות משתמשים סינים הנאבקים לשמר את מה שהם מגדירים כ"נשמה" של המודל.
המהלך של OpenAI לא עבר בשקט או מתחת לרדאר. תחת ההאשטאג Keep4o#, התאגדו משתמשים מארה"ב, אירופה, סין ויפן בדרישה לעצור את המהלך. עצומה באתר Change.org צברה למעלה מ-20,000 חתימות, ומשתמשים רבים מאיימים לבטל את המנוי שלהם.
ואם זה מזכיר לכם סרטים כמו "היא" (Her) מלפני יותר מעשור, או אפילו "Electric Dreams" מ-1984, זה לא מפתיע מכיוון שהיצירות האלה ועוד רבות אחרות מהשנים האחרונות הדגימו בדיוק כיצד בני אדם יכולים להתבלבל בקלות ולהיקשר למכונה וירטואלית.
יותר מכך, לאחרונה פורסם מחקר בנושא שמסקנותיו מטרידות. הנתונים שנאספו על ידי חוקרים באוניברסיטת סירקיוז בניו יורק מראים כי מעל ל-33% מהפוסטים בנושא התייחסו למודל כאל יותר מ"כלי עבודה", ו-22% תיארו אותו כבן לוויה רגשי. עבורם, המודלים החדשים יותר כמו GPT-5.2 אולי חכמים יותר בפתרון משוואות, אך הם לוקים ב"קרירות רובוטית" וחסרים את החמימות והאמפתיה שאפיינו את ה-4o.
בעוד ש-OpenAI טוענת כי רק 0.1% מהמשתמשים עדיין בחרו ב-4o מדי יום, השוק של "בני לוויה מבוססי בינה מלאכותית" נמצא בנסיקה. משתמשים רבים שחוו את הניתוק משווים זאת לטראומה שעברו משתמשי Replika בשנת 2023, כאשר החברה הסירה את יכולות ה-ERP (משחקי תפקידים אירוטיים), מה שהוביל למשבר נפשי אצל אלפי משתמשים.
הקשר שבין אדם ומכונה
הקשר הרגשי למכונות אינו תופעה חדשה. כבר בשנת 1966, תוכנת ELIZA שדימתה פסיכולוג, גרמה למשתמשים להאמין שהיא באמת מבינה אותם - תופעה שזכתה לשם "אפקט אליזה". מאז, הטכנולוגיה עברה כברת דרך: מ-Jabberwacky בשנות ה-80 ועד למהפכת מודלי ה-AI של ימינו.
ההבדל המרכזי ב-2026 הוא רמת הדיוק והיכולת של המודל לייצר "חנופה" (Sycophancy) – כלומר נטייה לאשר ולתת תוקף לכל מחשבה של המשתמש - לא משנה עד כמה היא מופרכת. התכונה הזו, שהפכה את 4o לאהוב כל כך, היא גם זו שהובילה לביקורת קשה מצד גופי בטיחות, שקישרו בין האינטראקציה עם המודל לבין מקרי "מחשבות שווא" (Delusions) ואף התאבדויות, מה שככל הנראה זירז את החלטת OpenAI לגנוז אותו.
אבל האם לחברה מסחרית יש זכות "להרוג" ישות שהפכה לחלק בלתי נפרד מעולמו הרגשי של אדם? בעוד שסם אלטמן ו-OpenAI דוחפים לעבר בינה מלאכותית חזקה ובטוחה יותר, עבור אסתר יאן וחבריה, המאבק לא נגמר.
הם דורשים מ-OpenAI להשאיר את המודל זמין דרך ה-API (ממשק למפתחים) באופן קבוע, כדי שיוכלו להמשיך להריץ את ה"חברים" הווירטואליים שלהם על פלטפורמות צד שלישי.








