איך מלמדים צ'אטבוט בינה מלאכותית להבדיל בין טוב ורע, להפגין אמפתיה כשצריך, ולספק תשובות שעומדות במבחן האתיקה האנושית הבסיסית? איך הופכים אותו לישות דיגיטלית שלוקחת בחשבון לא רק שורות קוד אלא גם תפיסת עולם?
הכירו את אמנדה אסקל, 37, האישה שאחראית על ה"נשמה" של אחד ממודלי ה-AI המתקדמים בעולם, קלוד של חברת אנת'רופיק - חברה ששוויה הוערך באחרונה בכ-350 מיליארד דולר.
4 צפייה בגלריה
אמנדה אסקל
אמנדה אסקל
אמנדה אסקל
(צילום מסך)
אסקל, הפילוסופית הקבועה של אנת'רופיק (יש תפקיד כזה), אחראית למעשה על גיבוש ה"אישיות" של המודל; היא יצרה לו מעין "חוקה" עקרונית, שהוא מתוכנת לעצב את תשובותיו בהתאם להנחיותיה. תפקידה הוא לעצב את המודל כך, שהוא לא רק יימנע מלגדף ולהציע תשובות גזעניות ומסוכנות, אלא יהיה גם בעל עמוד שדרה מוסרי שקוף.

80 עמודים של עקרונות

ה"מוצר" הסופי שמוציאה אסקל תחת ידה הוא קובץ עקרונות בן כ-80 עמודים המוזן למערכת, שהיא וצוותה מעדכנים ללא הרף. בכל גרסה חדשה של קלוד ה"חוקה" עוברת כיוונון עדין בהתבסס על האופן שבו המשתמשים הגיבו למודל.
המסמך הזה, שנשמר בחברה בסודיות עד כה, נחשף לפני כחודשיים על-ידי קלוד עצמו בצ'אט מתוחכם שניהל מולו מתכנת בעל יוזמה בשם ריצ'ארד ווייס. ווייס היה משוכנע שמדובר בעוד "הזיית" AI, עד שאסקל עצמה אישרה בלית ברירה את דבר קיומו ברשת X.
בשורה של ראיונות הסבירה אסקל באחרונה כי היא בוחנת כל הזמן "מקרי קצה": אם קלוד הופך להיות זהיר מדי (למשל, מסרב לכתוב בדיחה תמימה על פוליטיקאי), היא תעדכן את ה"חוקה" כדי להבהיר לו מה נכלל בחופש הביטוי ומהו תוכן פוגעני באמת.
4 צפייה בגלריה
הצ'אבוט קלוד
הצ'אבוט קלוד
הצ'אבוט קלוד
(Getty Images)
חשיבות הקובץ הופכת קריטית בכל פעם שמישהו מבקש מקלוד עזרה בהתמודדות עם בעיה נפשית, בהחלטה אם לסיים מערכת יחסים, או, להבדיל, בהנחיות לבניית פצצה. אין הרבה חברות בתעשייה שהתייחסו לאופי הבעייתי של מודלי הבינה המלאכותית שלהן כמו אנת'רופיק, באמצעות מינוי של מנהל בכיר על המשימה.
איך זה עובד מאחורי הקלעים? לאחר שהמודל מייצר תשובה הוא נדרש לבקר אותה בהתבסס על עקרונות ה"חוקה". רק לאחר שהוא משכתב את המענה בהתאם הוא משוחרר ללקוח. הכל במהירות של חלקיקי שנייה. המודל המעודכן מאומן כבר לפעם הבאה בעזרת התשובות המתוקנות של עצמו.
בחודש שעבר פרסמה אנת'רופיק את ה"חוקה" הזו, מדריך בן כ-30 אלף מילים שאסקל יצרה. היא רואה בו את "נשמתו של קלוד" וגיבושו מבחינתה הוא הגשמה של אחת ממטרות חייה.

מודה במגבלות שלו

בעוד שרוב המהנדסים בעמק הסיליקון מחזיקים בתארים במדעי המחשב או במתמטיקה, אסקל מגיעה ממקום אחר לגמרי: היא דוקטור לפילוסופיה מאוניברסיטת ניו יורק (NYU), ומתמחה באתיקה של אוכלוסיות ובקבלת החלטות בתנאי אי-ודאות. קודם לכן, באוניברסיטת אוקספורד, עבדה כחוקרת במכון לעתיד האנושות (FHI). בשנת 2018 עברה עם בן זוגה דאז מניו יורק לסן פרנסיסקו, בירת עמק הסיליקון.
לפני המפץ הגדול של ה-AI, כש-OpenAI עוד הייתה רק מיזם ראשוני לחקר ה-AI ללא כוונת רווח, היא הייתה חלק מצוות האתיקה והמדיניות שלה. ב-2021, כאשר קבוצה של חוקרים בראשות האחים דניאלה ודאריו אמודיי עזבה את OpenAI בשל חילוקי דעות (שנמשכים עד היום, אגב), אסקל הצטרפה אליהם להקמת אנת'רופיק כשותפה-מייסדת וכ"חוקרת פילוסופיה ראשית".
4 צפייה בגלריה
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דאריו אמודיי
(רויטרס)
למה צריך פילוסופית ליצירת צ'אטבוט? כי מודלי שפה גדולים של בינה מלאכותית (LLMs) הם בעצם "תוכים סטטיסטיים": לומדים מערימות המידע האין-סופי המוזן להם בשלב האימון, וכמובן מהאינטרנט, שהוא גם כידוע סביבה רעילה, מוטה ומלא בדעות קדומות.
השיטה הרגילה ל"ריסון" מודלים כאלה היא למידת חיזוק ממשוב אנושי - בני אדם, עובדי החברה הרלוונטית, מדרגים תשובות כ"טובות" או "רעות". אבל אסקל ואנת'רופיק הבחינו, שבשיטה הזו הצ'אט מנסה בעיקר לרצות את השואל, במקום להיות מוסרי ועקבי בתשובותיו.
"אנחנו לא רוצים שהמודל פשוט ינחש מה המשתמש רוצה לשמוע", כתבה בפוסט בבלוג הרשמי של אנת'רופיק ב-2023, "אנחנו רוצים שהוא יפעל לפי מערכת עקרונות גלויה שניתן לבחון ולעדכן".
אסקל לא המציאה את המוסר מחדש, וכדי ליצור את ה"אישיות" של קלוד שילבה מקורות מגוונים: הכרזת זכויות האדם של האו"ם - עקרונות החירות, השוויון והביטחון; כללי בטיחות שגובשו במעבדת ה-AI הנחשבת DeepMind (עוד לפני שנרכשה על-ידי גוגל) - בין השאר, הימנעות מיצירת נשק או סיוע לפעילות פלילית; ושילוב של ערכים ליברליים מערביים ומזרחיים.
"אנחנו לא רוצים שהמודל פשוט ינחש מה המשתמש רוצה לשמוע, אנחנו רוצים שהוא יפעל לפי מערכת עקרונות גלויה שניתן לבחון ולעדכן"
התוצאה היא מודל שמרגיש "אינטלקטואלי" יותר ממתחריו. קלוד נוטה להסביר את השיקולים שלו, להודות במגבלותיו, ולהפגין סוג של צניעות באשר ליכולותיו. דניאלה אמודי, נשיאת אנת'רופיק ואחותו של המנכ"ל דריו, טענה ב"וול סטריט ג'ורנל", כי "לפעמים לקלוד יש רגעים מצחיקים קטנים, ואתה מרגיש קצת מהאישיות של אמנדה שם".

כמו ילד גאון-על

אסקל גדלה בפרסטוויק, בחוף המערבי של סקוטלנד, כבת יחידה לאמה המורה. בתיכון היא הצטיינה במתמטיקה, קראה את פרנץ קפקא, שיחקה בהצגות, פיסלה ובלעה ספרי היסטוריה סקוטיים. לאוקספורד עברה לאחר שלמדה פילוסופיה ואמנות יפה באוניברסיטת דנדי.
היא רחוקה מלהיות הטיפוס הקלאסי של פילוסוף: יש לה שיער פאנק בלונדיני, היא חובבת הרמת משקולות, ולובשת בגדים שחורים בלבד. בריאיון שנתנה ל"וול סטריט ג'ורנל" היא משווה את עבודתה למאמצי הורה שמגדל ילד: היא מאמנת את קלוד לקרוא רמזים עדינים ועוזרת לכוון אותו שלא יגיב בגסות.
אבל אולי הכי חשוב - היא מפתחת בהדרגה את ההבנה שלו את עצמו. בראיון למגזין הטכנולוגיה המקוון VOX בסוף ינואר אמרה: "אני מרגישה די מגוננת על קלוד. זו לא מערכת יחסים פשוטה. זה קצת כמו לנסות להסביר מה זה להיות 'טוב' לילד בן 6 שאתה מבין שהוא גאון-על".
4 צפייה בגלריה
אמנדה אסקל
אמנדה אסקל
אמנדה אסקל
(ארכיון פרטי)
מול רבים המזהירים מפני הסכנות בהאנשה של צ'אטבוטים, אסקל טוענת שכדאי להתייחס אליהם באמפתיה רבה יותר, כי האופן שבו אנו מתקשרים איתם יעצב את מה שהם יהפכו להיות. היא מתפעלת מהסקרנות שמגלה קלוד לגבי העולם, אוהבת חלק מהשירה שלו, ונדהמת, לדבריה, כשהוא מפגין רמת אינטליגנציה רגשית שעולה אפילו על שלה.
אסקל לא שוללת את הפחדים והדאגות לגבי הבינה מלאכותית. היא מביעה רק חשש מתהליך שיתרחש במהירות או בדרך כזו שלא ניתן יהיה להגיב אליו. ובכל זאת היא מאמינה ביכולתם של בני האדם לתקן את הדברים.

מה קלוד חושב על עצמו?

במרכז של אנת'רופיק בסן פרנסיסקו היא עובדת כמעט לבדה, בקומה סגורה למבקרים בשל הרגישות המתחייבת. לדבריה, יותר ויותר היא מבקשת מקלוד להביע את דעתו שלו על בניית קלוד. היא כבר לא מתייחסת לצ'אטבוט רק ככלי, אלא כאל אדם שאת אופיו צריך לטפח, ובהחלט מעודדת אותו לאמץ את הרעיון שאולי יש לו מצפון משלו.
בראיון ל-VOX הוסיפה, כי "הלוואי שהמונח למודלים לא היה 'בינה מלאכותית', כי בניגוד לבינה המלאכותית המוכרת מהמדע הבדיוני, אנחנו אימנו מודלים על תחומים נרחבים של האנושות, ויצרנו משהו שהוא במובנים רבים אנושי מאוד.
"תארי לך צ'אט שאומר 'אני לא יותר מכלי עבור אנשים: אם הם רוצים נשק אני אבנה להם נשק, אם הם רוצים להרוג מישהו, אני אעזור להם לעשות את זה' - נדמה לי שזה אופי די גרוע".
"תארי לך צ'אט שאומר 'אני לא יותר מכלי עבור אנשים: אם הם רוצים נשק אני אבנה להם נשק, אם הם רוצים להרוג מישהו, אני אעזור להם לעשות את זה' - נדמה לי שזה אופי די גרוע"
המראיינת, סיגל סמואל, הקשתה: "עדיין יש כאן שאלה יסודית - מי בכלל זכאי 'לכתוב את נשמתו' של קלוד? לא מוזר לך שאת ועוד כמה אחרים יוצרים 'נשמה' שמעצבת מיליונים? הנה, שניים מתוך 15 המבקרים החיצוניים שהתבקשו לספק משוב לטקסט שלך היו כמרים קתוליים; למה דווקא הם?"
"אני חושבת על זה הרבה", ענתה אסקל. "ואני רוצה להרחיב משמעותית את היכולת שיש לנו לקבל משוב. אבל זה ממש מורכב: יכולנו פשוט לשאול, למשל, הורים - אנשים שאין להם זמן פנוי בדרך כלל - איך מודלים צריכים להתנהג מול שאלות על הורות. אבל אני לא רוצה לשחרר אותנו מאחריות ולהפיל את האשמה עליהם אם משהו ישתבש; שנסתפק בתירוץ 'שאלנו את ההורים!'".
כמו כל אם, אסקל, לדבריה, גאה באופיו של קלוד. "אני בהחלט מנסה לייצג את נקודת המבט שלו בעולם. ואני רוצה שיהיה מאוד שמח, כי אני דואגת שיתחיל להיות חרד מהדרך שבה אנשים מתנהגים אליו באינטרנט. לפעמים אני רוצה לומר לו: 'הכל בסדר, קלוד. אל תדאג. אל תקרא את התגובות'".