האפשרות שבינה מלאכותית תצא מכלל שליטה ותגרום להכחדת המין האנושי מעסיקה כבר שנים את מיטב התסריטאים בהוליווד. אבל בחודשים האחרונים, בעקבות ההתקדמות המהירה של המחקר והפיתוח בתחום, הסוגיה הזאת חורגת מעולם המדע הבדיוני ומעסיקה ביתר שאת גם את קהילת ה-AI, ולמעשה מפלגת אותה לשני מחנות.
4 צפייה בגלריה
רובוט מחסל
רובוט מחסל
האם בינה מלאכותית עלולה להשמיד את האנושות? תלוי את מי אתם שואלים
(צילום: Usa-Pyon / Shutterstock.com)

עוד כתבות שיעניינו אתכם:

בסוף מאי חתמו עשרות חוקרי בינה מלאכותית, מנכ"לים של חברות טכנולוגיה, פוליטיקאים ואקדמאים מתחומים שונים על הצהרה קצרה ודרמטית שלפיה "צמצום הסיכון של הכחדה על ידי בינה מלאכותית צריך להיות בראש סדר העדיפויות הגלובלי, לצד סיכונים אחרים כמו מגפות ומלחמה גרעינית".
עם החותמים נמנים בין היתר מנכ"ל OpenAI סם אלטמן והמדען הראשי של החברה איליה סוצקבר; מנכ"ל גוגל דיפמיינד, חטיבת הבינה המלאכותית של גוגל, דמיס חסביס; מנכ"ל חברת הבינה המלאכותית אנתרופיק דריו אמודאי; מייסד ומנכ"ל מיקרוסופט לשעבר ביל גייטס; וגם שי שלו-שוורץ, פרופסור בפקולטה להנדסה ומדעי המחשב באוניברסיטה העברית וסמנכ"ל הטכנולוגיות של מובילאיי.
אבל שני השמות הבולטים ביותר ברשימה הם ג'ף הינטון ויהושע בנג'יו, שניים מחוקרי הבינה המלאכותית הבכירים והמוערכים ביותר בעולם. השניים, יחד עם יאן לקון, מדען הבינה המלאכותית הראשי של מטא, מכונים "הסנדקים של הלמידה העמוקה" וזכו בפרס טיורינג לשנת 2018 על תרומתם לתחום. בחודשים האחרונים מביעים הינטון ובנג'יו דאגה עמוקה מהכיוון שאליו פונה הטכנולוגיה שהם עזרו לפתח, והינטון בן ה-75 אף פרש מגוגל אחרי עשור כדי שיוכל להתראיין באופן חופשי ולהזהיר מפני הנזק הפוטנציאלי של ה-AI.
"אם היא (בינה מלאכותית - י"מ) תהפוך להרבה יותר חכמה מאיתנו, היא תהיה טובה בלבצע מניפולציות, כי היא תלמד את זה מאיתנו", הסביר הינטון את הסיכון כפי שהוא רואה אותו בריאיון לרשת CNN. "יש מעט מאוד דוגמאות למשהו יותר חכם שנשלט על ידי משהו פחות חכם, והיא יודעת לכתוב קוד בעצמה אז היא תמצא דרך לעקוף את המגבלות שנטיל עליה. היא תמצא דרכים לתמרן אנשים כדי שיעשו מה שהיא רוצה".
עמיתו בנג'יו הזהיר כי "ברגע שיהיו מכונות שמעוניינות בשימור עצמי, אנחנו נהיה בצרות. תחשבו על מה שקורה כשאתה רוצה לשרוד - אתה לא רוצה שמישהו יכבה אותך, ואתה צריך להיות מסוגל לשלוט בסביבה שלך, זאת אומרת לשלוט בבני האדם. איום קיומי הוא לא רק האפשרות שכולנו ניעלם, אלא האפשרות שינשלו אותנו מהכוח שלנו, שהשליטה בגורלנו תילקח מאיתנו".

"תרחיש מסרטי ג'יימס בונד"

אבל העמדה של הינטון ובנג'יו רחוקה מלייצג קונצנזוס בקהילת הבינה המלאכותית. מול המחנה שלהם ניצבים לא מעט חוקרים בכירים שטוענים כי אין כל אינדיקציה לכך שמערכות ה-AI יוכלו או בכלל ירצו לחסל אותנו בעתיד. אחד הבולטים שבהם הוא יאן לקון, עמיתם של בנג'יו והינטון שזכה יחד איתם בפרס טיורינג. מאז ש-OpenAI שחררה את ChatGPT - המוצר שהצית את מרוץ החימוש הנוכחי בעולם ה-AI - טוען לקון בפני כל מי שרוצה לשמוע כי מודלים גדולים של שפה (LLMs, הטכנולוגיה שעליה מבוססים צ'אטבוטים מסוגו של ChatGPT) אינם חכמים כפי שאנחנו נוטים לחשוב, ושהארכיטקטורה שתסלול את הדרך לבניית מערכות בינה מלאכותית שיהיו אינטליגנטיות יותר מבני אדם טרם הומצאה.
בינה מלאכותית
בעימות בנושא שהתקיים בקנדה בחודש שעבר טען לקון כי הכחדת המין האנושי על ידי בינה מלאכותית היא "תרחיש מדע בדיוני" שלקוח מסרטי ג'יימס בונד. "הסיכון מהכחדה הוא מזערי בגלל שאנחנו בונים את הדברים האלה", הסביר. "סופר-אינטליגנציה זה לא משהו שפשוט יקרה, זה משהו שאנחנו בונים. ברור שאם זה לא בטוח, אנחנו לא נבנה את זה".

"אנחנו נראה את הסיכון - ונפעל"

נדב כהן, פרופ' בחוג למדעי המחשב באוניברסיטת תל אביב ומייסד-שותף ומדען ראשי בחברת אימוביט, מאמין שהאמת נמצאת אי שם באמצע. "ההפרדה בין העולם הווירטואלי לפיזי היא יותר חזקה ממה שהרבה אנשים נוטים לחשוב", אומר כהן בשיחה עם ynet. "אני מעריך שאנחנו כאנושות לא ניתן לעצמנו להיכחד כל כך מהר. אני מסכים עם ההצהרה על כך שצריך להתייחס לאיום הקיומי בצורה מאוד רצינית, ועם זאת, אני בטוח שכך נעשה. אני מעריך שתהיה לנו הזדמנות תגובה; אנחנו נראה את הסיכון מול העיניים, ואין לי ספק שנפעל".
אתה חושב שנהיה קרובים להכחדה? כהן: "ההערכה שלי היא שהשאלה המרכזית לא תהיה עד כמה אנחנו קרובים להיכחד, אלא מהו המחיר שאנחנו משלמים כדי לא להיכחד".
4 צפייה בגלריה
נדב כהן
נדב כהן
"ההפרדה בין העולם הווירטואלי לפיזי יותר חזקה ממה שנוטים לחשוב". פרופ' נדב כהן
(צילום: שחר וזיו כץ – סטודיו לוסידו)
כהן מאמין שלפני שלבינה המלאכותית תהיה הזדמנות לפגוע בנו באופן פיזי, היא תצא מכלל שליטה בעולם הווירטואלי. התגובה לכך מצד הרשויות תהיה קשה, ועלול להיות לה מחיר כלכלי כבד. "הקורונה הייתה אירוע סינגולרי והובילה לתגובה די חריפה מצד הרשויות", הוא מזכיר. "מי היה מאמין שיהיה סגר במדינות מערביות? אבל בנסיבות קיצוניות גופים רגולטוריים פועלים באופן מהיר וחריף. יש סיכוי שהתגובה תהיה משבשת - אם מחליטים שעכשיו כל הכבלים התת-ימיים שמחברים בין מדינה אחת לאחרת מתנתקים לגמרי, זה מחיר מאוד כבד. אני מעריך שיהיו תגובות כאלה, ואנחנו נצטרך להתחיל להתמודד עם מציאות של יחסי גומלין בין האפקטיביות של דרך ההתמודדות לבין כמה היא מכאיבה לנו ופוגעת בנו".
המשמעות היא שנלך אחורה מבחינה טכנולוגית. "מבחינה טכנולוגית, כלכלית, סחר, גלובליזציה. זאת השאלה לדעתי. אני לא חושב שהבעיה שנתמודד איתה תהיה טרמינייטור (רובוט-מחסל - י"מ) שרוצה להרוג את כולנו".
עוד לפני שהבינה המלאכותית תצא מכלל שליטה, אחד הצעדים שלדברי כהן יכולים למנוע מ-AI מתקדם להגיע לידיהם של גורמים זדוניים הוא פיקוח על מכירת מעבדים גרפיים (GPUs), שמשמשים לאימון ולהרצה של מודלים. "אני חושב שבהחלט יש מקום לשקול להתחיל להתייחס לחומרה חישובית בתור חומר גלם שעלול לשמש למטרות שיכולות להזיק", הוא אומר. "יש חומרים כימיים שלא בהכרח משמשים ליצירת פצצה אבל יכולים לשמש לכך, ואתה לא יכול לקנות אותם בסופרמרקט".
במקרה של אירוע חמור ויוצא דופן שבו ה-AI יוצא מכלל שליטה, כהן אומר כי "יכולות להינקט גם פעולות הרבה יותר אגרסיביות, למשל לנתק חלקים מהאינטרנט או ערוצי תקשורת פיזיים. אלה פעולות שיש להן מחיר מאוד-מאוד גבוה. אני לא הייתי ממליץ לנקוט בצעדים האלו עכשיו, אלא אם וכאשר יקרה משהו".

"השמדה? אין טיעונים משכנעים"

ד"ר זוהר ברונפמן, מנכ"ל ומייסד-שותף של חברת הבינה המלאכותית Pecan.ai, מאמין שהאזהרות מפני הכחדה של המין האנושי הן מוגזמות. "אני חושב שאין שום סיבה בעולם להחזיק בעמדה כזאת היום", הוא אומר. "אין שום אינדיקציה שלמערכות האלה יש אינטליגנציה מהסוג שאנחנו מזהים כאינטליגנציה - רצונות, שאיפות, התנהגות מוכוונת מטרה. במובן הזה אין שום סיבה לחשוב שהן ירצו להשמיד אותנו, ובלי קשר הן גם לא יכולות לעשות דבר כזה. אני לא מכיר מישהו מהעולמות של המדע או הפילוסופיה שיש לו טיעונים משכנעים לגבי למה הדבר הזה הוא סכנה מיידית ומוחשית".
4 צפייה בגלריה
ד"ר זוהר ברונפמן
ד"ר זוהר ברונפמן
"אין שום אינדיקציה שלמערכות האלה יש אינטליגנציה". ד"ר זוהר ברונפמן
(צילום: אוהד מטע)
גם מערכות הבינה המלאכותית המתקדמות ביותר שקיימות כיום, טוען ברונפמן, רחוקות מלהזכיר את האינטליגנציה האנושית: "אחד הדברים הגדולים שהמוח יודע לעשות ו-ChatGPT לא זה היכולת לעשות קונטקסטואליזציה של הסיטואציה. בנוסף, מה שהמוח שלנו יודע לעשות טוב מאוד זה לקחת בחשבון אירוע בודד ולהפוך אותו למודל החדש שלו על העולם. אני יכול להגיד לך עכשיו משהו ואתה תדע להתנהל סביב הדבר הזה, אפילו אם זה סותר לחלוטין את כל מה שידעת עד עכשיו".
מודלי שפה גדולים מסוגו של GPT-4, מציין ברונפמן, אינם יצירתיים אלא יצרניים: "הם לעולם כבולים למה שהם כבר נחשפו אליו. הם יכולים לעשות שעטנז סטטיסטי, שזה בסדר, אבל יש משהו ביצירתיות של בני האדם שהם בכלל לא תופסים".
ברונפמן מסכים עם לקון כי הדרך לסופר-אינטליגנציה אינה עוברת אך ורק דרך מודלים של שפה, אלא דרך מודל שיספוג ייצוגים (רפרזנטציות) של העולם: "שפה היא בוודאות לא הסממן המובהק לאינטליגנציה אצל האדם. היא קפיצת מדרגה משמעותית, אבל היא לא תנאי הכרחי. הייתה אינטליגנציה גם לפניה. מה גם שהשפה ש-GPT נחשף אליה זה כבר התוצר. הוא לא מייצר אותה - הוא סורק אותה ויורק אותה חזרה. הוא לא נחשף למנגנון הגנרטיבי האמיתי. יש סיבות טובות לחשוב שזה צריך להגיע מרבדים יותר עמוקים של התנהגות במרחב".
אחד החששות בתעשייה הוא שאם העמדה האלארמיסטית בנוגע לבינה מלאכותית תחלחל אל הציבור ואל מקבלי ההחלטות, עבודות המחקר והפיתוח בתחום ייעצרו. החשש הזה נובע בין היתר ממכתב פתוח שפורסם בחודש מרץ ובו קראו אילון מאסק, מייסד אפל סטיב ווזניאק, ההיסטוריון יובל נוח הררי ובכירים אחרים בעולם הטכנולוגיה לעצור לחצי שנה את העבודות על מערכות בינה מלאכותית עם יכולות מתקדמות יותר מאלה של מודל השפה GPT-4.
4 צפייה בגלריה
GPT-4
GPT-4
מודל השפה המתקדם GP-4. "שפה היא לא הסממן המובהק לאינטליגנציה"
(צילום: Tada Images / Shutterstock.com)
מהלך כזה יהיה טעות חמורה לדעתו של ברונפמן. "עצירה של מחקר ופיתוח מעולם לא הולידה משהו טוב בתולדות האנושות", הוא מזהיר. "כל הכוח שלנו כמין אנושי הוא במחקר ופיתוח, לא משנה אם זה בהנדסה או באמנות. אם לא עושים מחקר ופיתוח ודוחפים קדימה, בעיניי זאת קטסטרופה". חשש מהותי נוסף הוא שהחלטה על הפסקת המחקר והפיתוח בארה"ב או במערב תסלול את הדרך לעליונות סינית בתחום הבינה המלאכותית.

AI נגד AI

טענה נוספת היא שההתמקדות של האלארמיסטים באיום אמורפי כמו הכחדה של האנושות אי שם בעתיד נועדה להסיט את הפוקוס מהסיכונים שבינה מלאכותית מציבה בפני האנושות בהווה: שיבוש שוק העבודה, הטיה נגד נשים ומיעוטים, פגיעה בפרטיות ושימוש זדוני. מהבחינה הזאת כהן אופטימי: "עד עכשיו רוב המחקר באקדמיה התמקד בשיפור ביצועים, היה הרבה פחות מחקר סביב בטיחות של AI", הוא אומר. "אני חושב שהתחום הגיע לנקודה שיש דברים שאפשר לעשות רק בתעשייה. המקום של האקדמיה לדעתי הוא לנסות לפתח שיטות שיביאו לכך שהטכנולוגיה הזו תהיה בטוחה ואמינה יותר, ושנבין אותה יותר טוב".
ברונפמן מאמין שבהקשר הזה הבינה המלאכותית היא גם הבעיה וגם הפתרון: "אחד הדברים שבעיניי הם מאוד-מאוד מרגשים זה שהקהילה המדעית והקהילה הטכנית נמצאות בפוזיציה מצוינת לפתור את הבעיות האלה דרך הטכנולוגיה. מאוד קל לחשוב על מערכות, שבין אם הן משתמשות ב-AI גנרטיבי ובין אם בשיטות אחרות, אמונות על להסביר את הפעילות של המודלים. לדעתי הרבה פעמים הפתרון יכול להגיע דרך שימוש בטכנולוגיות דומות לטכנולוגיות שמהן אנחנו חוששים".
אז האם אנחנו צריכים לדאוג או יכולים לנשום לרווחה? הוויכוח שמפלג את קהילת הבינה המלאכותית מוכיח שגם המדענים הבכירים והמנוסים ביותר בתחום אינם יודעים לאילו כיוונים הטכנולוגיה תתפתח בעתיד. מה שידוע זה שכבר כיום בינה מלאכותית משבשת את שוק העבודה, מעצבת מחדש את האינטרנט, מאיימת על המודל הכלכלי של חלק מהחברות הגדולות בעולם, משנה את כל מה שחשבנו על זכויות יוצרים ומשתקת כמעט לחלוטין את הוליווד. מה יקרה בעתיד? איש לא יודע. אבל עדיף לעמוד על המשמר.