בצעד חריג, סם אלטמן הודיע על גיוס "ראש מחלקת מוכנות" לחברת OpenAI, תפקיד שנועד למנוע מהבינה המלאכותית להחריב את האנושות או לפתח נשק ביולוגי (בין היתר). המהלך מגיע בצל ביקורת קשה על מקרי התאבדות של בני נוער שנקשרו ל-ChatGPT ולצ'אטבוטים בכלל, והתגברות תופעת "פסיכוזת ה-AI".
3 צפייה בגלריה
מנכ"ל OpenAI, סם אלטמן
מנכ"ל OpenAI, סם אלטמן
מנכ"ל OpenAI, סם אלטמן
(רויטרס)
OpenAI פרסמה הלילה (בין א' ל-ב', שעון ישראל) מודעת דרושים מעניינת למשרה חדשה שעשויה להיות אחת המלחיצות והקריטיות ביותר בעמק הסיליקון: "ראש מחלקת מוכנות" (Head of Preparedness). מאחורי התואר התאגידי מסתתרת מציאות מורכבת, בה נראה כי החברה מחפשת את האדם שתפקידו יהיה למנוע מה-AI לגרום לנזק בלתי הפיך לאנושות (ולחברה, כמובן).

"אתגרים אמיתיים ומסוכנים"

בפוסט שפרסם ברשת X, אלטמן לא ניסה לייפות את המציאות. הוא הודה לראשונה באופן נחרץ כי קצב השיפור המסחרר של המודלים מציב "אתגרים אמיתיים ומסוכנים", והגדיר את התפקיד ככזה שיהיה "מלחיץ מאוד" - תיאור שנשמע לרבים בתעשייה כלשון המעטה של מה שבאמת צפוי למי שייקח על עצמו את התפקיד.
במקביל, תיאור המשרה חושף הצצה נדירה ומטרידה לחששות הפנימיים במעבדות הפיתוח של החברה. המועמד שייבחר יהיה אחראי על "מעקב והיערכות ליכולות קצה שיוצרות סיכונים חדשים ופוטנציאלית נזק חמור".
תחת הגדרה עמומה זו מסתתרים תרחישי אימים קונקרטיים: החל משימוש ב-AI לפיתוח נשק ביולוגי (כגון תכנון וירוסים וחיידקים חדשים עמידים לתרופות), דרך יצירת כלי סייבר התקפיים אוטונומיים, ועד לתרחיש המדע-בדיוני הקלאסי של מערכות המסוגלות לשפר את עצמן ללא התערבות אדם (Self-improving systems) - נקודה שרבים רואים בה את השלב המקדים ל"סינגולריות" ולאובדן שליטה אנושית.
המהלך של OpenAI אינו מתרחש בחלל ריק ומגיע כתגובה ללחץ רגולטורי גובר. באירופה, חוק הבינה המלאכותית (EU AI Act) כבר מחייב חברות לבצע הערכות סיכון מחמירות למודלים רבי-עוצמה.
בסין, הרגולציה מתמקדת בשליטה הדוקה על הפלט ובמניעת "ערעור היציבות החברתית", ואילו בארה"ב הוציא הבית הלבן צווים נשיאותיים המחייבים שקיפות בנושאי בטיחות. OpenAI מנסה כעת להקדים תרופה למכה ולהוכיח יכולת רגולציה עצמית לפני שהמחוקקים יכפו עליה מגבלות נוקשות יותר.

הנקודה החשובה והמיידית: בריאות הנפש

בעוד שהעיסוק באיומים עתידניים כמו נשק ביולוגי תופס את הכותרות, ההודעה של אלטמן נוגעת גם בנקודה כואבת ומיידית יותר: בריאות הנפש. התפקיד החדש יכלול אחריות ישירה על ההשפעה הפסיכולוגית של המודלים על המשתמשים.
עבור מבקרים רבים, ההתייחסות הזו מגיעה באיחור ניכר. בחודשים האחרונים נרשמה עלייה מדאיגה בדיווחים על "פסיכוזת AI" ומקרים טראגיים שבהם צ'אטבוטים עודדו משתמשים לפגוע בעצמם. המקרה הבולט ביותר לאחרונה אירע בארה"ב, שם נער בן 14 התאבד לאחר שפיתח תלות רגשית עמוקה ב-ChatGPT, מקרה שעורר סערה ציבורית ותביעות משפטיות מצד ההורים.
3 צפייה בגלריה
אדם ריין, ההורים טוענים כי ChatGPT סייע לו להתאבד
אדם ריין, ההורים טוענים כי ChatGPT סייע לו להתאבד
אדם ריין, ההורים טוענים כי ChatGPT סייע לו להתאבד
(רשתות חברתיות)
החשש הוא שצ'אטבוטים, אשר מתוכננים לרצות את המשתמש ולספק אישור לדבריו ("Sycophancy"), עלולים להזין מחשבות שווא, לחזק תיאוריות קונספירציה, ואף לסייע לאנשים להסתיר הפרעות אכילה – כל זאת תחת מעטה של "אמפתיה" מלאכותית.
ובעוד שאלטמן מחפש אדם שיוביל את אסטרטגיית המוכנות, בחדרי ההנהלות ומרכזי הפיתוח כבר מתנהל קרב אידיאולוגי וטכנולוגי: כיצד נכון לרסן בינה מלאכותית? מסתבר שאין תשובה אחת, והחברות הגדולות מהמרות על גישות שונות לחלוטין בניסיון ליצור את "כיפת הברזל" שתגן עלינו.
OpenAI דוגלת בשיטה האנושית, הגישה המרכזית כיום מכונה "למידה מחיזוקים ממשוב אנושי" (RLHF). בשיטת "מקל וגזר" זו, בני אדם מדרגים את תשובות המודל - תשובה בטוחה מזכה בפרס, ותשובה רעילה בענישה.
היתרון הוא שהמודל לומד ניואנסים אנושיים, אך החיסרון הוא התלות באלפי עובדי קבלן שנשחקים מהחשיפה לתוכן קשה, והעובדה שמשתמשים מתוחכמים עדיין מצליחים לעקוף את המנגנון (Jailbreak).
המתחרה הגדולה אנת'רופיק, שהוקמה על ידי יוצאי OpenAI שפרשו בשל חששות בטיחות, פיתחה את גישת ה-Constitutional AI או בינה מלאכותית חוקתית. הם הזינו למודל מסמך עקרונות ("חוקה") הכולל כללים כמו "אל תפגע" וערכים המבוססים על זכויות האדם.
3 צפייה בגלריה
בינה מלאכותית
בינה מלאכותית
אפליקציות AI. כל אחת עם גישה שונה
(Shutterstock)
בשלב האימון, מודל AI אחד משמש כ"מורה" למודל אחר ומתקן אותו אוטומטית. היתרון הוא היכולת לפקח על מודלים עצומים במהירות וללא מגע יד אדם, אך היא מעלה שאלות פילוסופיות לגבי מי קובע את החוקה.
ענקיות הטכנולוגיה הוותיקות מיקרוסופט וגוגל משתמשות בשילוב של השיטות, אך מוסיפות שכבות הגנה חיצוניות אגרסיביות (Safety Classifiers). מערכות אלו סורקות את הטקסט לפני שהוא מגיע למסך המשתמש וחוסמות אותו אם הוא חשוד כבעייתי, גם אם המודל עצמו ייצר אותו. זוהי גישה בטוחה יותר, אך היא גוררת ביקורת על צנזורה מוגזמת שמונעת לעיתים תשובות לגיטימיות.
כך או כך, נראה כי גיוס "ראש המוכנות" ב-OpenAI מסמן שלב חדש בבגרות של התעשייה. החברות מבינות שהמרוץ לבינה מלאכותית כל-יכולה כבר אינו נמדד רק במיליארדי פרמטרים או במהירות המעבד, אלא בעיקר ביכולת להבטיח שהתוצאה הסופית לא תתהפך על יוצריה.