"המכונות יעשו את כל העבודה ולא יותירו לאנושות שום דבר משמעותי לעשות. אנחנו נהפוך להיות פסיביים, תלותיים, ונאבד את המשמעות ואת תחושת ההגשמה שלנו" - כך כתב ברטרנד ראסל בשנת 1935. ראסל הוא אחד מהפילוסופים החשובים והמשפיעים ביותר במאה ה-20; גם הוא, כמו רבים וטובים לפניו ואחריו, הפליג בחשש מהטכנולוגיה ובעיקר ממה שהיא עלולה לגרום לאנושות. מובן שיש מן האמת בדבריו, כמו גם של אחרים, שאת נבואות הזעם שלהם ניתן לקרוא גם באתר זה: לכל קפיצה טכנולוגית יש צדדים חיוביים ושליליים, אולם ברור שעבור רובנו המוחלט טכנולוגיה מתקדמת מביאה עמה הרבה יותר התפתחויות חיוביות מאשר שליליות, וגם את השליליות ניתן לצמצם ולגדר.
4 צפייה בגלריה
רובוט משחק שחמט
רובוט משחק שחמט
אין סיבה לחשוש מ-AI, אם אין באמת AI
(צילום: shutterstock)

עוד כתבות שיעניינו אתכם:

אלא אם חייתם על הירח, סביר להניח שנחשפתם בחודשים האחרונים לגל של טכנולוגיה מתקדמת ששוטף את החברה המודרנית: גל ה-"AI". מדובר באלגוריתמים לומדים, אשר מכונים באופן כללי "בינה מלאכותית", המבוססים ברובם על מודלי שפה גדולים המסוגלים לנהל שיחה כמעט-אנושית על מגוון נושאים מורכבים, לסכם באופן תכליתי מקורות מידע רבים, ואפילו לייצר תכנים (דוגמת שירים, חרוזים, תסריטים, או קוד תוכנה) על בסיס הוראות חיצוניות. אך בד בבד עם הפופולריות הגוברת של היכולות המרשימות הללו בקרב האוכלוסייה הרחבה, קשה להתעלם ממבול הדעות, ההצהרות, הכתבות, המכתבים והעצומות סביב החשש הקיומי החדש ממנו מזהירים אותנו. ממש כפי שהחשש ממכונות בעת המהפכה התעשייתית והחשש ממחשבים במאה הקודמת התבדו כלא היו – כך יהיה גם לגבי מה שאנחנו קוראים לו היום "בינה מלאכותית", ובשורות אלה אסביר מדוע.
את החששות ניתן לחלק לשלוש קבוצות עיקריות: הראשונה, וזו התופסת הכי הרבה כותרות, היא חשש ש-AI "ישתלט על האנושות". החשש הוא, כפי שקראנו בספרים וראינו בסרטים, שהמכונות יהפכו כה מתוחכמות עד כדי פיתוח תודעה לא-אנושית אשר תוביל למוטיבציה לשליטה על משאבים, וסופה להפוך למתוחכמת יותר מבני אדם, להחליף אותם ולהכניע אותם. השנייה, החשש ש-AI ייתר משרות רבות ויגרום לאבטלה חסרת תקדים – ובעיקר בקרב מקצועות צווארון לבן (עורכי דין, רואי חשבון ואפילו רופאים). ושלישית, החשש שבינה מלאכותית תביא לשינוי מהותי לרעה באופן, בטיב ובאותנטיות של השיח הציבורי.
4 צפייה בגלריה
ד"ר זוהר ברונפמן
ד"ר זוהר ברונפמן
ד"ר זוהר ברונפמן
(צילום: אוהד מטע)
אשר לחשש הראשון והעיקרי, שאותו ביטאו גם אילון מאסק, סטיב ווזניאק, יובל נח הררי ואחרים בעצומה הקוראת לעצור פיתוחי AI לחצי שנה - אפשר, ואף רצוי, להסיר כל דאגה מליבנו. בקצרה, אין סיבה לחשוש מ-AI, אם אין באמת AI. האמת היא, שזה שאנחנו מכנים משהו חדשות לבקרים "AI", עוד לא הופך אותו ל-AI אמיתי. בני אדם נוטים לשייך לעצמים רבים תכונות או אופי, מעין האנשה רפלקסיבית. זהו פגם מוכר הנובע מהיכולת המופלאה שלנו לגבש באופן אוטומטי תיאוריה של הנפש – כלומר, לשים את עצמנו בנעלי האחר ולחוש את תחושותיו, גם אם מדובר באובייקט. כאשר אדם רואה על המסך ציור של משולש בורח מריבוע, הוא באופן אינסטינקטיבי חושב שהריבוע מפחיד את המשולש ושהמשולש אכן מפחד ממנו. כך גם קורה עתה עם מודלי שפה - למשל ChatGPT - שכבשו את העולם: בעוד שמדובר במערכת שהיא לחלוטין חסרת נפש, אנו נוטים לשייך לה יכולות או כוונות שאין לה – וזאת מפני שהיא מחקה התנהגות אנושית באופן מעורר השתאות.
למעשה, ברמה הפילוסופית, ChatGPT דומה יותר למחשבון עצום, או למילון ענקי, מאשר ליצור תבוני. הוא חסר מודעות – ולכן גם בינה. על כך יש קונצנזוס בקרב הקהילה המדעית. לאלגוריתמים אין יכולת לשלוט בפעולות שלהם, אין להם יכולת להשפיע על אופן הלמידה שלהם, הם אינם מסוגלים לשייך כל ערך (חיובי או שלילי) לסיטואציה או אינטראקציה מסוימת, הם לא יכולים להמציא משהו "חדש", ואין להם יכולת להגיב לדברים שהם לא נחשפו אליהם (או לווריאציה מסוימת שלהם) בעבר. היכולות הללו הן אבן הפינה של קוגניציה ומודעות. בסופו של יום, אלו בשיטות מתוחכמות ומרשימות מאוד לייצר משפטים שעושים שכל סטטיסטי, ותו לא. במובנים רבים, לדבורה יש יותר בינה מאשר ל-ChatGPT – ובוודאי שיש לה יותר רצונות, מטרות ויכולות קוגניטיביות.
אחת הטענות החוזרות (והשגויות) היא שהבינה המלאכותית ״השיגה שליטה בשפה״. הטענה הזו מעידה על חוסר הבנה מוחלט של מהי שפה, מהי שליטה אנושית בשפה, ולמעשה מהי בינה. למערכות שאנחנו קוראים להן AI אין באמת קוגניציה, מטרות או שליטה בשפה. יש פער ענק בין האופן שבו בני אדם מבינים שפה לבין איך שהמכונות הללו בנויות. הדרך הכי נכונה לחשוב על האלגוריתמים הללו הן מילון ענקי, עם מספר עצום של אינדקסים, שיודע למצוא משפט שנאמר או נכתב בעבר (או משפט שדומה לו מבחינה סטטיסטית) – ולשייך לו תשובה מתאימה, גם כן, על בסיס סטטיסטי.
"חשוב לציין כי בעוד שהקהילה המדעית אכן הופתעה מהיכולות של מודלי השפה מהדור החדש - המודלים הללו אינם מייצגים פריצת דרך משמעותית... הפחד שמודלי השפה ירצו להשתלט על העולם דומה לפחד שסוס קרוסלה בלונה פארק ינסה להשיג את הסוס שלפניו"
הדוגמה הטובה ביותר להמחיש זאת היא החדר הסיני, הניסוי המחשבתי שהציע הפילוסוף ג'ון סירל ב-1980. ניסוי החדר הסיני חזה את קיומו של אלגוריתם מהסוג של ChatGPT והניח שאלגוריתם כזה יוכל להגיב לכל קלט בסינית עם פלט "הגיוני", גם הוא בסינית. בשלב הבא, טוען סירל, הוא נכנס לחדר עם חוברת ההפעלה בגרסה האנגלית של האלגוריתם, מקבל לחדר קלט בסינית, פועל לפי ההוראות שבחוברת האנגלית, ומפיק פלט סיני שאותו הוא מוציא מהחדר. מצד אחד, למי שנמצא מחוץ לחדר ייראה כאילו סירל מממש את האלגוריתם ומפיק פלט שיתפרש כבינה, ומצד שני ברור שסירל לא יודע או מבין מילה בסינית, והוא בסך הכל פועל לפי ההוראות. טיעון זה נועד להוכיח שעצם היכולת להוליד תשובה – אין בה כדי לרמז על הבנה אמיתית של התוכן, כפי שאנו בעלי האינטליגנציה מבינים אותו.
4 צפייה בגלריה
דבורי העץ הצהובות שחורות Bumble Bee
דבורי העץ הצהובות שחורות Bumble Bee
לדבורים יש יותר מבינה מל-ChatGPT
(צילום: Shutterstock)
הפחד מטכנולוגיה פורצת דרך הוא מאפיין חוזר של החשיבה האנושית. אנו חיים בתוך מארג של סיבה ותוצאה, תצפית והסבר. ברגע שאנשים נחשפים לתופעה שאינה מתיישבת עם הסיבתיות המוכרת, או עם הסבר אשר מניח את הדעת, התגובה הראשונית שלנו היא חשש. אנחנו נוטים לחשוש ממה שאנחנו לא יכולים להסביר. ניתן רק לדמיין כיצד הגיבו אבותינו כשנחשפו בפעם הראשונה לזכוכית מגדלת, או כשתושבי כפר נידח נחשפו לראשונה למכונית מונעת. למעשה, אחת הדוגמאות המתועדות – היא התגובה של שבטים ילידיים באמזונס, שרואים מסוק בשמיים וסבורים שמדובר באל. אלו מאיתנו שעובדים כבר שנים עם מודלי למידת מכונה (Machine Learning) יודעים שמדובר באלגוריתמים אלגנטיים, עם יכולות מדהימות של זיהוי תבניות ומתאמים, ניתוח טקסט ואף כאלו שיודעים לחתור למטרה ולשחק במשחקים שחמט או גו (לעיתים אף טוב יותר מבני אדם). אך אין זה שונה קונספטואלית ממקרים אחרים שבהם הטכנולוגיה עולה על יכולותינו: ממש כמו שלאפליקציית ווייז יש יכולת ניווט טובה משל האדם, ולמחשבון – יכולות אריתמטיקה טובות משלנו. זוהי מהותה של הטכנולוגיה. זה אמנם מרגש כשמכונה מנצחת אדם במשחק קופסה או כותבת תסריט לפרק של סיינפלד, אך אין זה אומר שלמודלים הללו יש נפש ומאוויים, או שאנחנו יכולים לייחס להם כוונות ורצונות.
חשוב גם לציין בהקשר זה, כי בעוד שהקהילה המדעית אכן הופתעה מהיכולות של מודלי השפה מהדור החדש - המודלים הללו אינם מייצגים פריצת דרך מדעית משמעותית, והאלגוריתמיקה פורצת הדרך שבבסיסם קיימת כבר שנים רבות (בחלק מהמקרים כבר עשרות שנים). מה כן השתנה לאחרונה? המודלים הללו אכן הצליחו לגדול לאחרונה ברמת המורכבות ההנדסית שלהם (למשל כמות הפרמטרים) באופן אקספוננציאלי – מה שהוליד יכולת לעבד הרבה יותר נתונים, ולהגיב להוראות בצורה מדויקת. יחד עם זאת, הפחד שמודלי השפה ירצו להשתלט על העולם – דומה לפחד שסוס קרוסלה בלונה פארק ינסה להשיג את הסוס שלפניו. אין באמור לטעון שאלגוריתמים חסרי בינה או נפש אינם יכולים לייצר נזק. ודאי שהם יכולים: די לדמיין שנאפשר לאלגוריתמים הללו שליטה בקבלת החלטות צבאיות כדי להבין שהעולם עלול להידרדר למלחמות מיותרות, מפאת צדק לוגי של מכונה כלשהי. האחריות על בקרה והגבלת תחום קבלת ההחלטות של האלגוריתמים הללו היא של הקהילה הבינלאומית, של ממשלות ברחבי העולם, ולמעשה של החברה כולה.
אשר לחשש השני: היסטורית, כל שיפור טכנולוגי משמעותי הוליד שינוי רדיקלי באופן שבו מבוצעות עבודות מסוימות. חשבו על האיכר כשהומצאה המחרשה, או על החייט כאשר הומצאה מכונת התפירה. לאורך כל ההיסטוריה, האפקט של טכנולוגיה חדשה על התוצר היה חיובי (ולמעשה, רק באמצעות קדמה טכנולוגית בכלל התאפשר לתוצר לגדול באופן משמעותי). המשמעות עבור החברה והכלכלה הייתה ונשארה עוד מקומות עבודה ועוד פריון, ולא ההיפך – וכך יהיה גם במקרה זה. מה שישתנה הוא כמובן אופן העבודה: זה נכון שעורכי דין יצטרכו ללמוד לעבוד עם ChatGPT על מנת למשל לסקור ולתקן חוזים באופן יעיל ומהיר יותר, וכן הלאה.
4 צפייה בגלריה
GPT-4
GPT-4
מציאות חדשה. GPT-4, מודל השפה המתקדם של OpenAI
(צילום: Tada Images / Shutterstock.com)
החשש השלישי ממודלי שפה, הוא החשש מתמורה משמעותית באופן שבו מידע מיוצר, מאורגן, מופץ ונצרך בחברה: פייק ניוז שהביאו עמן הרשתות החברתיות על סטרואידים של AI. זהו חשש לגיטימי וחשוב. בני אדם שמשתמשים באלגוריתמים האלו עלולים לרתום אותם למטרות זדוניות, באמצעות התחזות לבני אדם אחרים, הפצת מידע מוטעה או מטעה, הפעלת מניפולציות רגשיות, ועוד. כלומר, ממש כמו שקרה עם הרשתות וענקיות האינטרנט (שמשתמשות במודלים דומים כבר זמן רב מאוד), רק בהיקף נרחב ומשמעותי יותר.
אומרים שאקדחים לא הורגים אנשים, אלא אנשים הורגים אנשים. זה נכון גם במקרה זה. יש דרכים רבות להתמודד עם החשש הזה, והן ככל הנראה צריכות להתממש במקביל, גם במישור הטכני וגם במישורים החברתי, התודעתי והרגולטורי. בדיוק לשם כך יש גופים רגולטוריים ומומחי טכנולוגיה, מדיה וחברה. כך למשל, דיסאינפורמציה מכוונת צריכה להיות עבירה חמורה מאוד, במיוחד אם היא נעשית על ידי פוליטיקאים, דמויות ציבוריות או גופי מדיה. ככל שהמודלים הללו ימשיכו לצמוח – תהא זו שעתם החשובה של גופים רגולטוריים א-פוליטיים וא-מדינתיים לקחת על עצמם תפקיד משמעותי ביותר בחקר האמת, בביסוס מקורות מהימנים, ובביקורת ציבורית. יתר על כן: בני הסמכא השונים (מדענים, אקדמאים, עיתונאים – איש איש בתחומו) יצטרכו להיות נדבך משמעותי וקריטי מאי-פעם באופן שבו החברה האנושית צורכת מידע ומתנהלת. לבסוף, הטכנולוגיה צריכה לבוא בשירות החברה גם פה. ניתן לבנות מערכות שמנטרות פעילות של מודלים ומתריעות בפני חריגה מנורמות מקובלות או מפעילות רצויה שלהן.
כמו כל טכנולוגיה פורצת דרך, גם GPT ושאר מודלי השפה מייצרים מציאות חדשה – וככאלו מצריכים התייחסות רחבה שלנו כחברה. אבל את הניצוץ האנושי, הניצוץ שהמציא את המודלים האלו והמצאות רבות אחרות ששינו את חיינו, המודלים האלו רחוקים מלחקות או ליישם. האחריות לשמר אותו היא עלינו – והפיתרון לכך הוא לא להשהות פיתוח, לעצור מחקר או להתעלם מקיומם של מודלי שפה מתקדמים. הגיע הזמן להפסיק עם נבואות הזעם.
הכותב הוא מנכ״ל ומייסד-שותף של Pecan.ai, מומחה עולמי לבינה מלאכותית, ובעל שני תארי דוקטור מאוניברסיטת ת״א: בפילוסופיה של תודעה ובינה מלאכותית, ובקוגניציה חישובית