בכל מה שקשור לעתיד, בצומת שבין היקסמות מוחלטת לפרנויה משתקת יושב צמד מילים שאומרות הכל: בינה מלאכותית. בחמש השנים האחרונות עשו מודלים של AI קפיצה משמעותית, וצמצמו את הפער שבין מילות באזז שיווקיות לבין מציאות קיומית. פיתוח, אימון וחקר של מודלים מבוססי למידה עמוקה ורשתות נוירונים מלאכותיות נעשה בכל הסקטורים - אבל זוכה ליהנות מתשומת הלב, המימון והמשאבים של השוק הפרטי, כשתאגידים טכנולוגיים שופכים עליו הרבה מאוד כסף.
3 צפייה בגלריה
אישה רובוט
אישה רובוט
אישה רובוט
(צילום: shutterstock)
בשבוע שעבר קיבלנו הצצה לעתיד, כבר לא רחוק ולא בלתי מדומיין, שבו מודל כזה מסוגל לייצר דימויים ויזואליים על בסיס טקסטים בלבד - מופרכים, הזויים ובלתי שגרתיים ככל שיהיו. מודל שזכה לשם DALL-E הצליח בין השאר "לדמיין" איך ייראו כורסאות עשויות אבוקדו, ואיך מעוצב צנון סיני שלובש חצאית טוטו, ולייצר דימויים מסוגים שונים - כולל "תמונות" קרובות למציאות, אילוסטרציות ועוד. המשמעות המעשית של מודל כזה, בתנאי שהוא עובד בצורה מושלמת - היא שמתישהו בעתיד הנראה לעין, במקום לשלוט בתוכנות עריכה ועיצוב גרפי, מספיק שנקליד לתוכן תיאורים מילוליים ונקבל בחזרה ים של דוגמאות מלאכותיות. כל שיישאר לנו הוא לבחור.
הפיתוח הזה מגיע מתוך OpenAI - מעבדת מחקר שהיא חלק מארגון ללא מטרות רווח בשנת 2015. המטרה המוצהרת של הארגון היא לקדם את תחום הבינה המלאכותית באופן שקוף, מתוך ראייה הומנית, כלומר - בינה מלאכותית שתעשה טוב, על פני בינה מלאכותית שתעשה כסף. באופן עקרוני מתחרה מעבדת המחקר של OpenAI עם אלה של תאידי ענק - בראשם DeepMind שנרכשה ב-2014 על ידי גוגל, ומעבדת ה-AI של פייסבוק. בעוד שהשתיים האלה מונעות באופן מובהק משאיפות מסחריות, הרעיון של OpenAI היה לקדם לא רק את התחום - אלא גם את הרגולציה עליו, ולוודא שמודלים מבוססי בינה מלאכותית לא יוצאים מכלל שליטה ומסבים נזק.
3 צפייה בגלריה
כורסת האבוקדו
כורסת האבוקדו
כורסת האבוקדו
(צילום מסך)
אחד המייסדים הוא היזם שטיפס החודש לראש רשימת עשירי העולם - אילון מאסק, שמקפיד להביע את החשש שלו מפני פיתוחים מבוססי בינה מלאכותית וההשלכות האפשריות שלהם על החברה. בעבר, טען כי פוטנציאל ההרס של בינה מלאכותית משול לזה של נשק גרעיני, ואף הצהיר כי הטכנולוגיה הזו היא שתוביל למלחמת עולם שלישית.
בשנת 2018 הודיע מאסק כי הוא מוותר על מקומו בדירקטוריון החברה, מחשש לניגוד עניינים בין הפעילות של OpenAI ושל חברת טסלה. אבל ברקע החלה להישמע ביקורת שלו סביב ההחלטות הניהוליות. נפתחה חטיבה מסחרית בארגון, והמחקר הפך פחות ופחות שקוף ונגיש לציבור. בינתיים, שחררה המעבדה כמה וכמה פיתוחים מסעירים ומדליקים: בוטים חכמים שלמדו לנצח שחקנים אנושיים בלהיט הגיימינג Dota 2; אלגוריתם שמסוגל לייצר קטעים מוזיקליים וקוליים בעצמו - לפי ז'אנר, מילות השיר וסגנון מוזיקלי של אמנים מוכרים; וגם מודל שפה בשם GPT, שכבר עבר כמה גלגולים ומושך תשומת לב עולמית.
מודל GPT-3 הוא למעשה מודל שפה שמייצר טקסטים כמו-אנושיים בעצמו. בחודשים האחרונים, המודל הזה הספיק לכתוב ספר מאוד מדובר - "הפקעת". כל מה שנדרש מהחוקר במקרה הזה, הוא להזין אל המודל 22 מילים, ולבקש טקסט דומה ככל האפשר לזה של סופר המד"ב ניל גיימן. בוט מבוסס GPT-3 ישב בפלטפורמת הפורומים רדיט והגיב במשך תקופה לפוסטים של משתמשים. בגרדיאן הבריטי הגדילו לעשות ופרסמו מאמר דעה שלם שנוצר על ידי GPT-3, וכותרתו: "רובוט כתב את כל המאמר הזה. אתם מפחדים כבר, בני אדם?".
המודל הזה מסוגל גם לייצר שירה, לכתוב קוד, לייצר מאמרים עיתונאיים ולכתוב בלוגים שלמים, הוא מאפשר להתכתב עם דמויות מההיסטוריה, ואף שומש כדי לייצר משחקים מבוססי טקסט. גם DALL-E מבוסס על GPT-3, ומדגים את הקשר בין מודלים של שפה למודלים ויזואליים - ואת מנעד האפשרויות שהשילוב הזה מציע.
3 צפייה בגלריה
לא מבסוט מהעיבוד ליצירתו של חברו המנוח. ניל גיימן
לא מבסוט מהעיבוד ליצירתו של חברו המנוח. ניל גיימן
מכונה אחרי בן אדם. ניל גיימן
(AP)
אלא שלצד ההיקסמות יש גם הרבה מאוד חשש. GPT-3 נחשב למודל עוצמתי למדי, שאומן על מערכות עתירות דאטה. מאמר של OpenAI הוקדש לסכנות הטמונות בשימוש במודל, ובין היתר נכתב בו כי העובדה שלעיתים בלתי אפשרי להבדיל בין טקסטים שמיוצרים על ידי המכונה לבין טקסטים שנכתבו על ידי בני אדם, הופכת נושאים דחופים כמו פייק ניוז, ספאם, קונספירציות ואפילו זיוף מאמרים אקדמיים לסכנה של ממש. כל אלה, עוד מבלי שהתחלנו לדבר על בעיות מוכרות ומדוברות של מודלים של שפה, שכוללים עדיין הטיות מגדריות, גזענות מובנית ובעצם את כל הרע שיש למין האנושי להציע.
ב-OpenAI שחררו API ציבורי של המודל הזה, כדי לאפשר לחוקרים, מפתחים ונסיינים לבחון אותו בצורה ידידותית למשתמש. אלא שבספטמבר האחרון הוכרז כי מיקרוסופט רכשה את הזכויות על GPT-3, כלומר - קוד המקור נמצא ברשותה הבלעדית, וכי היא מתכוונת לעשות בו שימוש לשיפור השירותים שלה. הצעד הזה התקבל בהרמת גבה, גם בקרב קהילת החוקרים וגם אצל אילון מאסק, שמיהר לטעון כי אין שום דבר "שקוף" או חיובי במהלך הזה של מכירת הזכויות על GPT-3 לתאגיד טכנולוגיה. בכך צעדה OpenAI הכי רחוק שאפשר מהמטרות הראשוניות והמוצהרות שלה לגבי מודלים מבוססי בינה מלאכותית.