הרוחות סוערות בקרב מומחי טכנולוגיה בשבועות האחרונים: תחילה הייתה זו חברת אפל, שחשפה את תוכניות הבינה המלאכותית הכללית (AGI) שלה - התחום הכי חם בעולמות ה-AI. התוכניות האלה מצטיירות כגישה שונה לחלוטין מאלה של מיקרוסופט ו-OpenAI ושל גוגל או אמזון. אפל הציגה את מודל השפה (LLM) המולטי-מודאלי Ferret, שהפרשנים מגדירים אותו כשינוי אסטרטגיית AI בהיקף ענק, שעשוי להזניק אותה לצמרת טבלת ה-AGI העולמית.
3 צפייה בגלריה
AGI
AGI
הבינה המלאכותית מקבלת יכולות-על
(התמונה נוצרה באמצעות מחולל התמונות DALL-E3)
ואז הגיח מארק צוקרברג וחשף בשבוע שעבר שחברת מטא מאיצה בכל כוחה להובלת המירוץ ל-AGI. הוא דיווח על תוכנית שאפתנית לרכוש 350 אלף מעבדי GPU של אנבידיה לבינה מלאכותית ולתגבר את צוותי הפיתוח של פרויקט FAIR לחקר בינה מלאכותית כללית ופרויקט GenAI לבינה מלאכותית יוצרת. המטרה מעוררת ציפיות וחששות גם יחד: למטא יש יותר משתמשים מלכל חברה אחרת וצוקרברג מתכנן שה-AGI שלו יגיע לכולנו. הוא גם מתכנן לעשות את זה באמצעות קוד פתוח, מה שמעורר מומחים להזדעק, שהרי כך יוכל כל מפתח בעולם לקבל גישה לקוד שעלול להשמיד את האנושות. בינה מלאכותית כללית (AGI) היא הדבר החם ביותר, לוהט ממש, בעולמות הטכנולוגיה, העסקים והממשל. קחו את כל מה שהסעיר את העולם מאז נובמבר 2022 – מועד צאתו לאוויר העולם של ChatGPT – והכפילו את זה פי עשרה. כלי AGI, שעתידים להופיע כבר השנה, מכילים לא רק יכולת הבנת שפה טבעית (NLP) כמו הבינה המלאכותית היוצרת (GenAI) של השנה האחרונה, אלא גם הבנת כל יכולות הקוגניציה האנושית, בהן ראייה, שמיעה, הבנת הקשרים, פענוח התנהגות ועוד.
ככה נולד המונח החדש – בינת-על (סופר-אינטליגנציה). כמה אינטליגנטית תהיה בינת-העל? תלוי את מי שואלים. לפי הסקפטים של ה-AI, תהיה תקרה לאינטליגנציה הזו. לפי מעריצי הטכנולוגיה, זה תלוי רק בהיקף המשאבים – קוד, מעבדים, אחסון – ואנחנו בדרך לפגוש ב-AGI שתהיה כל כך חכמה, עד שתאפיל על חוכמתם של בני האדם.
ריפרש
בין הטיות להזיות: הצד האפל של הבינה המלאכותית / עם רוית דותן
52:28
עכשיו כולם בדרך לפתח AGI. אם מסתכלים קצת קדימה, יכול להיות שמול ChatGPT החדש, מבוסס GPT-5 נגיד, שיהיה סוכן סופר-אינטליגנטי, תתייצב סירי החדשה – העוזרת הדיגיטלית של אפל שלתוכה ייצקו יכולות AGI – ואולי גם אלכסה של אמזון תזנב בהם, לצד מודל השפה ג'מיני שיוטמע בגוגל אסיסטנט. מערכות AGI פיננסיות יניעו את השווקים העולמיים, ומערכות AGI ביטחוניות ינהלו את המודיעין ואפילו את הלחימה בשטח.

לא רק עיבוד שפה

מודל Ferret של אפל הוא מודל מולטי-מודאלי, מה שאומר שהוא לא משתמש רק בעיבוד שפה טבעית (NLP), אלא מסוגל לפענח במקביל צלילים ותמונות ובכך להבין הרבה יותר טוב את העולם שסביבו. הוא עושה שימוש בטכנולוגיה שמכונה WIMI AI, השתלשלות חדשנית של מה שפעם כונה דיפ-פייק, שמבלי שהבחנו בכך הפכה לטרנד הכי חם בעולמות ה-AGI החדשים.
גם מטא נמצאת שם עם מודל I-JEPA המולטי-מודאלי, שהוצג בחודש יוני האחרון. יאן לקון, המדען הראשי ל-AI בחברה, אמר אז שהתוספת החזותית והקולית ליכולות ניתוח הטקסט של ה-AI היא מה שתקרב אותו לשלב ההתפתחות הבא. הבינה המלאכותית היוצרת (GenAI), שכל כך התלהבנו ממנה במהלך השנה האחרונה, היא לדבריו הדבר הישן, ממש טכנולוגיה שאבד עליה הכלח.
אנחנו נמצאים בתחילתו של עידן חדש ב-AI, עידן ה-AGI. התחזיות המוקדמות שלפיהן ייקח שנים ארוכות ל-AGI להופיע כנראה עומדות להתבדות. עשרות אלפי מדעני מחשבים ומפתחי בינה מלאכותית בשורה של חברות פרטיות, אוניברסיטאות ומכונים ממשלתיים עובדים באינטנסיביות כדי להביא לעולם מערכת AGI סופר-אינטליגנטית. תהיה בזה יוקרה, בניצחון במרוץ הזה, אבל בעיקר יהיה בזה כוח: כלכלי, חברתי, אפילו צבאי.
בחודש מרץ האחרון התפרסם מאמר של חוקרים מחברת מיקרוסופט שהכה גלים: הכותרת שלו טענה שב-GPT-4, מודל השפה המתקדם של OpenAI, יש "ניצוצות של AGI". אחרי זה הגיע גל ביקורות כנגד המסקנה הזו, כולל כאלה שטענו שהגדרת "אינטליגנציה" שבה נעשה שימוש במחקר מבוססת על עליונות לבנה גזענית, ושה-AGI עלול להנציח את כל הסטריאוטיפים והדעות הקדומות של המין האנושי ולהעצים אותם. בהמשך התפרסמו כמה וכמה מכתבים וגילויי דעת שבהם תבעו החותמים לעצור את פיתוח ה-AGI עד שנדע בביטחון שהמין האנושי לא יושמד כתוצאה משימוש ב-AGI. היה מי שהציע שמדינות העולם יחתמו על אמנה למניעת הפצת AGI בעולם, ממש כמו האמנה למניעת הפצת נשק גרעיני. האם אנחנו בהיסטריה?
אם נשמטה לכם הלסת כשפגשתם לראשונה את ChatGPT, כדאי שתחזקו את שרירי הסנטר לקראת הפגישה עם כלי ה-AGI. טכנולוגיית בינת-העל הזו תקבל החלטות טוב יותר מבני אדם, תוך שהיא מתבססת על הרבה יותר נתונים ועל ניתוח נרחב של אירועים ותוצאות מהעבר. היא תשתלב בכל תחומי החיים ותוכל לסייע בכל עניין, אבל יותר מזה – היא תזהה בעצמה נושאים שדורשים טיפול, שבני האדם לא היו מודעים לבעיות הקיימות בהם.

לפתור בעיות לפני שנוצרו

ה-AGI תוכל לקודד את עצמה ולהוסיף לעצמה יכולות שלא היו לה בתחילת הדרך. כאן היא תיפרד סופית ממדעני המחשב, אלה שכבר כיום לא יודעים להסביר את התוצאות שמתקבלות מבינה מלאכותית יוצרת. בדור ה-AGI הם גם לא יֵדעו להבין את הקוד של המערכת, ולמה ה-AGI כתבה אותו כמו שכתבה. אבל תהיה סיבה טובה לאפשר את זה: התוצאות שה-AGI תניב יהיו חסרות תקדים. היא תמצא פתרונות לבעיות, היא תמנע בעיות לפי שנוצרו, והיא תכניס הרבה כסף לחברות שיפעילו אותה.
מכיוון שבני אדם לא יוכלו להציג אלטרנטיבות טובות יותר מאלה שאותן מציעה ה-AGI, הם יעבירו אליה בהדרגה את קבלת ההחלטות. ה-AGI תחובר ישירות למערכות כספים ומכירות, למערכות שירותים ולמערכות תשתית, כי היא תנהל אותן טוב יותר מכל אדם.
כאן גם מגיעות הסכנות שעליהן מתריעים מומחים רבים. יכול להיות שההחלטות שתקבל ה-AGI בהמשך הדרך יהיו כאלה שמסכנות בני אדם, או מעדיפות שיקולים רחבים יותר מטובת בני אדם בלבד. יש מי שאפילו צופים שה-AGI תפתח מודעות עצמית, ויהיו לה דעות על בני אדם - לאו דווקא חיוביות - וכשבידיה היכולת לשלוט ישירות בכל המערכות שמקיפות אותנו, היא עלולה לקבל החלטות, וגם לבצע אותן, מבלי שניתן יהיה למנוע זאת.
זה הרקע לדיון הסוער סביב האתיקה של פיתוח ה-AI והשימוש בה: מצד אחד תומכים כמו מנכ"ל OpenAI סם אלטמן, שכתב שצריך לרוץ קדימה אבל להקפיד שהתוצאה תניב תועלת לאנושות; מהצד האחר אנשים כמו חוקר ה-AI איאן הוגארת', שקרא להאט את המרוץ לפיתוח "בינה מלאכותית דמויית אלוהים" (God-like AI). אילון מאסק, כשהכריז על הקמת חברת xAI כמפתחת AGI, אמר שהוא משוכנע שכשה-AGI תלמד להכיר את בני האדם, היא תחשוב שהם נחמדים ולכן תימנע מלהשמיד אותם. לא ברור אם זו תחזית מצמררת או הומור נוסח מאסק.
3 צפייה בגלריה
סם אלטמן
סם אלטמן
רץ קדימה. מנכ"ל OpenAI, סם אלטמם
(צילום: JOHN G. MABANGLO / EPA)
הוגארת', מחבר דו"ח "State of AI" ומשקיע בחברות AI, אמר ל-Business Insider שמערכות AGI לומדות ומתפתחות באופן אוטונומי ומבינות הקשרים ללא צורך בהתערבות אנושית. לדבריו, תיאורטית הן יכולות לפתח מודעות עצמית ועוצמה שלא נוכל לשלוט בה. חוקר אחר הרחיק לכת אף יותר, ואמר של-AGI יש פוטנציאל להיות כמו הרובוט הרוצח בסרט המדע הבדיוני "מייגן" (M3GAN): בובת רובוט מבוססת AI שלא מוכנה להיכבות או לעצור, שמתחזה לישנה ושמפתחת תסביך מוסרי.
מנגד אומר טום אווריט, חוקר בטיחות AGI ב-DeepMind של גוגל, שבינת-על אין פירושה בהכרח מודעות עצמית: אם מודעות עצמית בעולם החי גוברת ככל שבעל החיים אינטליגנטי יותר, בעולם התוכנה ניתן לפתח בינת-על מבלי שהיא תהיה בעלת מודעות עצמית. מייקל טימותי בנט, חוקר AI אוסטרלי, מתייחס בספקנות למסע ההפחדה כנגד ה-AGI. לדבריו, כשבוחנים את הרקע לטיעונים, "אנו רואים שיש תמריצים מסחריים לייצר פחד במרחב הבינה המלאכותית". לדבריו, ההבניה של בינת-העל כאיום קיומי, "יש לה יותר במשותף עם פילוסופיה של המאה ה-17 מאשר עם מדעי המחשב".
האם זה משכנע את הסקפטים? נראה שלא. מחקר שנערך על מודלי AI של הבנת שפה מצא שהם נטו יותר להתעלם מהנחיות אנושיות, ואפילו הביעו רצון שלא להיסגר ככל שהחוקרים הגדילו את כמות הנתונים שהזינו למודלים. הממצא הזה עלול לנבא את התנהגות ה-AGI, ככל שהיא תצבור יכולות קוגנטיביות וגישה לכמויות נתונים גדולות יותר.
חוקר הבינה המלאכותית ג'פרי הינטון, זוכה פרס טיורינג לשנת 2018, אומר שה-AGI היא בכלל צורה חדשה של אינטליגנציה, כלומר אינטליגנציה לא אנושית, שעלולה לבוא במקום זו האנושית. חוקר ה-AI הקנדי פרופ' יהושע בנג'יו, שקיבל את הפרס לצדו של הינטון, אמר בעדות בפני הסנאט בארה"ב ביולי האחרון: "אלה סיכונים שלחלקם יש פוטנציאל להיות קטסטרופה, מאיומים משמעותיים על הדמוקרטיה והביטחון הלאומי ועד לאפשרות של יצירת ישויות חדשות חזקות יותר מבני אדם, עם אובדן השליטה שלנו על עתיד האנושות".
3 צפייה בגלריה
מאזינה לנו ללא רשות? העוזרת הקולית סירי
מאזינה לנו ללא רשות? העוזרת הקולית סירי
סירי כבר לא תישמע אותו דבר
(צילום: shutterstocks)
החברות שמפתחות AGI משקיעות מאמצים כבירים בצוותי הבטחת "בינה מלאכותית אחראית" ובמושגים כמו "התאמה" (Alignment) בין ה-AGI לבין צורכי בני האדם. הן גם משתפות פעולה באופן וולונטרי עם ממשל ביידן בארה"ב ועם ממשלות נוספות בניסוח רגולציה על AI. כולנו זוכרים את ביקורו של סם אלטמן מנכ"ל OpenAI בישראל, כחלק ממסע מתוקשר בבירות העולם שבו ביקש להבטיח שתחוקק רגולציה על AI, אבל כזו שתתאים למטרות החברה.
כל זה מחשיד מעט. פרשת פיטורי אלטמן (וביטולם) בחודש שעבר היא המחשה לזה. הרקע, כזכור, היה טענות שהוא דחף לקידום פיתוח ה-AGI של החברה מבלי לשתף ולהתייעץ עם אחרים, משהו שנראה כמו התנהגות משוללת רסן בנושא רגיש ומדאיג. פרופ' בנג'יו אמר בעדותו: "אף אחת ממערכות ה-AI המתקדמות הנוכחיות אינה בטוחה באופן מוכח מפני הסיכון של אובדן השליטה עליה". אגב, בניגוד לאלטמן, צוקרברג הוא בעל השליטה במטא ואיש לא יכול להדיח אותו או להתערב בהחלטותיו, וזה צריך להדאיג.

לא לעצור

הבעיה היא שהמחוקקים בעולם לא ממש מבינים ב-AI, ובטח לא ב-AGI. הרגולציה שפורסמה במספר מדינות, כולל ישראל, מסתפקת בהנחיה לחברות לפתח AI בצורה אחראית. חקיקת ה-AI Act האירופית, שהיא נוקשה יותר, מתייחסת בעיקר לסכנות המוכרות של ה-AI ולא מכילה התייחסות לסכנות ה-AGI, שאיש לא יודע להגדיר אותן בצורה מובהקת.
האם אנחנו צריכים לדאוג? כן, בהחלט. האם צריך לעצור את פיתוח ה-AGI? בהחלט שלא, וממילא זה גם בלתי אפשרי. מה שאנחנו צריכים זה בעיקר מודעות לטווח היכולות והסכנות שמתעדכנת ומתרחבת כל העת, שקיפות מרבית מצד החברות המפתחות AGI, רגולציה שתחייב את החברות באחריות מלאה לנזקים אם ייגרמו כאלה, ואחריות שתלווה בעיצומים מרתיעים דיים, כך שימנעו מהחברות כניסה להרפתקאות בלתי אחראיות.