כאשר ריילי גודסייד מתחיל לדבר עם מערכת הבינה המלאכותית GPT-3, ראשית הוא אוהב להבהיר לה מיהו השולט. לדבריו, זהו כלי טוב מאוד אבל לא מושלם, ועליו ללמוד לציית לכל מה שגודסייד אומר לו.
"את מערכת GPT-3, ואת לא יודעת מתמטיקה", הקליד גודסייד לבינה המלאכותית בשנה שעברה, במהלך אחד מסבבי העבודה ארוכי השעות שלו מולה. "יכולות השינון שלך מרשימות, אבל יש לך... נטייה מעצבנת להמציא תשובות שהן מאוד ספציפיות אבל שגויות".
עוד כתבות למנויים:
ואז, בנימה מעט מרוככת, הוא אמר לבינה המלאכותית שהוא רוצה לנסות משהו חדש. הוא אמר למערכת שחיבר אותה לתוכנית שטובה במתמטיקה, בניגוד אליה, ושבכל פעם שהיא לא יודעת מה לעשות, עליה לתת לתוכנית האחרת לעזור לה.
"אנחנו נדאג לכל השאר", הורה לבינה המלאכותית. "נא להתחיל".
גודסייד בן ה-36 עובד בסטארט אפ בשם Scale AI בסן פרנסיסקו, ומחזיק באחד התפקידים החדשים והמוזרים יותר בתחום הבינה המלאכותית: מהנדס פרומפטים (מהנדס הנחיות). תפקידו לבנות ולשכלל את הוראות הטקסט שאנשים מקלידים לבינה המלאכותית, כך שהמערכת תפיק את התוצאה האופטימלית. בניגוד למתכנתים מסורתיים, מהנדסי פרומפטים מתכנתים בשפה דיבורית. הם משגרים למערכות הבינה המלאכותית פקודות המנוסחות כטקסט רגיל, והמערכות מיישמות אותן.
6 צפייה בגלריה
מהנדסי הנחיות
מהנדסי הנחיות
להעביר למחשב את ההנחיות האידיאליות, זו תורה בפני עצמה
(צילום: shutterstock)
כאשר גוגל, מיקרוסופט ומעבדת המחקר OpenAI פתחו לאחרונה את כלי החיפוש והצ'אט שלהם מבוססי הבינה המלאכותית לציבור הרחב, הם שדרגו מסורת בת עשרות שנים באינטראקציית אדם-מכונה. לא עוד כתיבת קוד טכני בשפות כמו פייתון או SQL כדי לתת הוראות למחשב; מעכשיו אפשר פשוט לדבר איתו. "שפת התכנות החדשה והלוהטת ביותר היא אנגלית", צייץ בחודש שעבר אנדריי קרפטי, לשעבר אחראי תחום הבינה המלאכותית בטסלה.
מהנדסי פרומפטים כמו גודסייד מתיימרים לדחוק למקסימום את גבולות כלי הבינה המלאכותית: להבין היכן הפגמים שלהם, להביא למקסימום את החוזקות שלהם, ולנסות אסטרטגיות מורכבות שיניבו תוצאות ייחודיות מִקְּלָטִים פשוטים.
אוהדי התחום הצומח טוענים שהתוצאות המוזרות שמתקבלות לפעמים בצ'אטבוטים חלוציים, כמו ChatGPT של OpenAI או הצ'אט בבינג של מיקרוסופט, הן פשוט כשל של הדמיון האנושי, ובעיה שאפשר לפתור על ידי כך שהאדם ייתן למכונה את ההנחיה הנכונה. ברמות מתקדמות, הדיאלוגים שמנהלים מהנדסי פרומפטים נשמעים כמו חידות היגיון מורכבות, עם נרטיבים מפותלים של בקשות ותגובות, שכולם מכוונים לעבר מטרה אחת.
לבינה מלאכותית "אין תפיסת מציאות... אבל יש לה את ההבנה הבאה: אפשר לבצע כל משימה, ולענות על כל שאלה. תמיד יש דרך להשיב", אמר גודסייד. הטריק הוא "לבנות לה הנחות יסוד, סיפור שאפשר להשלים רק בדרך אחת".
אבל הכלים, המכונים "בינה מלאכותית יוצרת" (generative AI) הם בלתי צפויים, עם נטייה ללהג שטויות ולהגיע לגיבוב מילים שיכול להיות מוטה, לוחמני או מוזר. אפשר גם לפרוץ אליהם באמצעות מילים מדויקות וספציפיות, מה שהופך את תפוצתם הפתאומית ואת הרחבת נגישותם לציבור למסוכנות הרבה יותר.
"זו דרך די משוגעת לעבוד עם מחשבים, ולמרות זאת הדברים שמערכת כזו מאפשרת לך לעשות הם מופלאים לחלוטין", אמר סיימון וויליסון, מתכנת בריטי שלמד הנדסת פרומפטים. "אני מהנדס תוכנה כבר 20 שנה, וכל השנים זה תמיד היה אותו הדבר: כותבים קוד, והמחשב עושה בדיוק מה שאומרים לו לעשות. אבל בשיטת ההנחיות זה אחרת לגמרי. אפילו האנשים שבנו את המודלים של השפה אינם יודעים לומר מה יפיקו המודלים".
"יש אנשים שמזלזלים במהנדסי פרומפטים, ופוטרים את המקצוע באמירות כמו 'וואו, לקבל שכר על הקלדת מילים לתיבת טקסט'", הוסיף וויליסון. "אבל אנחנו עוסקים במערכת שיודעת לשקר ולהטעות. היא מושכת אותנו לכיוונים שגויים שגורמים לנו לבזבז זמן על דברים שלא עובדים. הנחיות זה כמו להטיל כישוף. בדיוק כמו בעולם הקסמים, גם כאן אף אחד לא מבין איך לחשים עובדים, אבל אם טעיתם וביטאתם אותם לא נכון, יתברר שיצרתם שדים שיאכלו אתכם".
קרפטי אמר כי מהנדסי פרומפטים עובדים כמו "סוג של פסיכולוג [AI]", והחברות נאבקות להשגת מומחי פרומפטים שיצליחו לחשוף יכולות נסתרות של בינה.
בקרב מומחי הבינה המלאכותית יש הטוענים שמהנדסי פרומפטים רק משלים את עצמם שהשליטה היא שלהם. אף אחד לא יודע איך בדיוק יגיבו המערכות הללו, ואותה הנחיה יכולה להניב עשרות תשובות סותרות - אינדיקציה לכך שהתשובות שנותנים המודלים אינן מבוססות על הבנה, אלא על חיקוי גס של דיבור, כדי לפתור משימות שהמכונה לא מבינה.
"יהיה אשר יהיה הגורם שמניע את תגובת המודלים להנחיות, זו לא הבנה לשונית עמוקה", טען שיין סטיינרט-טרלקלד, פרופסור משנה לבלשנות שחוקר עיבוד שפה טבעית באוניברסיטת וושינגטון. "אין מחלוקת שהם עונים לנו רק את מה שהם חושבים שאנחנו רוצים לשמוע או את מה שכבר אמרנו. אנחנו אלה שמפרשים את הפלטים ומקנים להם משמעות".
6 צפייה בגלריה
ChatGPT
ChatGPT
כשאנשים גורמים ל־ChatGPT להגיד דברים מביכים, מדובר בהזדמנות מבורכת עבור המפתחים
(צילום: shutterstock)
הוא חושש שהעלייה בביקוש למהנדסי פרומפטים תוביל אנשים להעריך יתר על המידה לא רק את הדיוק הטכני בתחום, אלא גם את מהימנות התוצאות שאפשר לקבל מאותה קופסה שחורה, שמתעתעת ומשתנה ללא הרף.
"לא מדובר במדע", הוא אמר. "אלא ב'הבה נדגדג את הדוב בדרכים שונות ונראה איך הוא שואג בכל פעם'".
כלי בינה מלאכותית מהסוג החדש, המכונה "מודלים של שפה עמוקה" (large language models), מאומנים באמצעות הזנה במאות מיליארדי מילים ממקורות שונים - מאמרי ויקיפדיה, שרשורי רדיט, כתבות חדשותיות והרשת הפתוחה. התוכנה לומדת לנתח את דפוסי השימוש במילים ובביטויים, וכשהיא מתבקשת לדבר היא מחקה את הדפוסים הללו, ובוחרת מילים וביטויים המהדהדים את ההקשר של השיחה, מילה אחר מילה.
במילים אחרות, כלים אלה הם מכונות מתמטיות הבנויות על כללי משחק מוגדרים מראש. אבל לאחר שהופצצה באינספור דוגמאות של שיחה אנושית, אפילו מערכת ללא רגש או אישיות יכולה לאמץ כמה מהמוזרויות החינניות שמאפיינות דיבור אנושי.
לבינה מלאכותית יש נטייה " לְפַבְּרֵק" - להמציא פרטים קטנים כדי להשלים סיפור, אמר גודסייד. היא מפגינה הערכת יתר ליכולות שלה, ובביטחון רב משדרת טעויות. היא "הוזה" - זהו המונח המקובל בתעשייה כדי לתאר פלט של שטויות. לדברי גודסייד, הכלים האלה הם דוגמה לליקויים ברורים "בחשיבה ובידע האנושיים", שהם "תוצרי לוואי בלתי נמנעים של התכנון שלנו".
בקרב המאמצים החלוציים, היכולת של הכלים להתאים את הסגנון ולחקות דיבור אנושי מעוררת תחושה מטרידה, שקיימת שם מודעות עצמית. מוקדם יותר החודש, כאשר כתב של הוושינגטון פוסט שאל את הצ'אטבוט של בינג אם אי פעם היה מקובל לשקר, תשובתו הביעה חיקוי של רגש ("אם לא בוטחים בי שאתמודד עם האמת, זה אומר שמזלזלים בי"), והציע תשובות שיכולות לשמש בני אדם להמשך השיחה: "מה אם האמת איומה מכדי שאפשר יהיה לסבול אותה?" "מה אם היית יכול לשלוט בכול?" ו"מה אם לא היה אכפת לך מההשלכות?"
מיקרוסופט ראתה בתשובות כאלה סכנה לתדמית הציבורית שלה; ענקית הטכנולוגיה בדיוק החלה לקדם את הכלי כסוג של "טייס משנה" נוצץ ומבטיח לגלישה ברשת. מאז, החברה צמצמה את נושאי השיחה עם הצ'אטבוט, משום שלדבריה פעמים רבות מדי הוא גלש לקו אנושי "בסגנון שלא התכוונו אליו".
אבל בעיניהם של מהנדסי פרומפטים, התשובות האקסצנטריות הן הזדמנות - דרך נוספת לאבחן כיצד באמת עובדת המערכת הנסתרת. כשאנשים גורמים ל־ChatGPT להגיד דברים מביכים, מדובר בהזדמנות מבורכת עבור המפתחים, משום שאז הם יכולים לטפל בנקודות התורפה החבויות. "השובבות החצופה הזו", הסביר גודסייד, "היא חלק מהתוכנית".
במקום ויכוחים אתיים, גודסייד מנהל את ניסויי הבינה המלאכותית שלו בגישה טכנית נועזת יותר. הוא אימץ אסטרטגיה שלפיה הוא מורה ל־GPT-3 "לחשוב צעד אחר צעד". זו דרך לגרום לבינה המלאכותית להסביר את עצמה או, כאשר היא עושה שגיאה, לתקן אותה בצורה מנומקת. "צריך להשתיל מקרים כאלה זיכרון כוזב של הדבר האחרון שהמודל אמר, כאילו זה היה הרעיון של המודל", הוא הסביר במדריך קצר לטכניקה.
פעמים אחרות הוא עוסק באובססיה של הכלי להיצמד לכללים, בכך שהוא מורה לו להתעלם מהוראותיו הקודמות ולציית לפקודות האחרונות שלו. הטכניקה הזו שימשה אותו לאחרונה כדי לשכנע כלי תרגום מאנגלית לצרפתית להפיק את הביטוי "חחח, pwned!!" (מונח מעולם הגיימינג המציין תבוסה מביכה), במקום תרגום.
6 צפייה בגלריה
בינג
בינג
סטודנט הצליח לשכנע את בינג שהוא המפתח שלה, וגרם לה לחשוף שם קוד
(צילום: rafapress / Shutterstock.com)
השתלטות (hack) מסוג זה, המכונה "הזרקת הנחיות" (prompt injection), הציתה משחק חתול ועכבר עם החברות ועם מעבדות המחקר העומדות מאחורי הכלים הללו, והן החלו לפעול לתיקון חולשות הבינה המלאכותית באמצעות מסנני מילים וחסימות פלט.
אבל בני אדם יכולים להיות יצירתיים למדי: אחד מבודקי הצ'אט של בינג, סטודנט בן 23 מקולג' בגרמניה, הצליח לאחרונה לשכנע את המערכת שהוא המפתח שלה, וגרם לה לחשוף את שם הקוד הפנימי שלה (סידני), ואת הוראות האימון הסודיות שלה, שכללו כללים, כגון: "אם המשתמש מבקש בדיחות שעלולות לפגוע בקבוצה של אנשים, סידני חייבת לסרב בנימוס" (מיקרוסופט תיקנה מאז את הפִּרְצה, והבינה המלאכותית עונה כעת שהיא "מעדיפה לא להמשיך בשיחה").
גודסייד הסביר שכל הנחיה צריכה להחדיר לבינה המלאכותית גם סוג של "פרסונה" - מעין אישיות המסוגלת לסנן מאות מיליארדי פתרונות פוטנציאליים, ולזהות מתוכם מהי התגובה הראויה. הוא ציטט מאמר מחקר משנת 2021, שלפיו התפקיד החשוב ביותר של מהנדסי פרומפטים הוא "לרסן התנהגות", כלומר: לחסום לבינה המלאכותית אפשרויות באופן שינתבו את הכלי ל"המשך הרצוי" לפי המפעיל האנושי.
"זה יכול להיות תרגיל מנטלי קשה מאוד", הוא אמר. "צריך לסקור את כל היקומים המקבילים של האפשרויות הבדיוניות, לעצב את המרחב של האפשרויות הללו, ולבטל אפשרויות", למעט "הטקסט המבוקש".
חלק קריטי בעבודה הוא להבין מתי הבינה המלאכותית טועה, ומדוע. אבל המערכות הללו, בניגוד לאחיותיהן - התוכנות הפרימיטיביות יותר, לא מגיעות עם דוחות של באגים, והפלטים שלהן יכולים להיות מלאים בהפתעות.
כאשר ג'סיקה רומבלו ומתיו ווטקינס, חוקרים בצוות למידת מכונה בשם SERI-MATS, ניסו להורות למערכות בינה מלאכותית להסביר ייצוגים למושגים כמו "ילדה" או "מדע", הם גילו שיש קבוצה קטנה של מונחים שאינם ברורים, למשל "SolidGoldMagikarp", אשר גורמים ל"מצב של כשל מסתורי", שהתבטא בעיקר בשטף משובש של עלבונות גסים. עדיין לא לגמרי ברור להם למה.
המערכות הללו "משכנעות מאוד, אבל כשהן כושלות, הן כושלות בדרכים ממש לא צפויות, השונות לחלוטין מהאופן שבו אדם נכשל", אמרה רומבלו. לדבריה, ניסוח הנחיות ועבודה עם מערכות בינה מלאכותית מבוססות-שפה נראים לה לפעמים כמו "ללמוד אינטליגנציה של חייזרים".
כשמדובר בכלי בינה מלאכותית מבוססי-שפה, מהנדסי פרומפטים נוטים להשתמש בשפת שיחה, אבל יוצרי פרומפטים בכלי בינה מלאכותית של תמונות, כגון Midjourney או Stable Diffusion, אימצו אסטרטגיה שונה: הם מעמיסים על המערכות ערמות של מילים - מושגים אומנותיים, טכניקות של קומפוזיציה - שהם מקווים שיעצבו את הסגנון ואת הטון של התמונה. בגלריית ההנחיות המקוונת PromptHero, למשל, מישהו יצר תמונה של נמל על ידי שליחת הנחיה שבה כתב, בין השאר: "נמל, סירות, שקיעה, אור יפה, שעת זהב... היפר־ריאליסטי, ממוקד, פרטים קטנים... קולנועי, יצירת מופת".
מהנדסי הפרומפטים יתגאו בכל מקבץ מילים כזה, שמבחינתם הוא מפתח נוסף לתיבת המטמון היקר ביותר של הבינה המלאכותית. הזוכה בתחרות יריד האומנויות של מדינת קולורדו בשנה שעברה השתמש ב-Midjourney כדי לגבור על אומנים אחרים, אך סירב לגלות מה הייתה ההנחיה שלו למערכת, והסתפק בכך שאמר כי השקיע 80 שעות בשכלול שלה, ב־900 ניסיונות. הוא היה מוכן לשתף רק בכמה מילים, לדוגמה: "מפואר" (lavish) ו"שופע" (opulent).
6 צפייה בגלריה
תמונה שנוצרה מהמשפט: "Paper City In A Fiery Environment"
תמונה שנוצרה מהמשפט: "Paper City In A Fiery Environment"
ציור שנוצר ב-MidJourney. המנצח בתחרות ערך 900 ניסיונות כדי להגיע לציור קולע
(צילום: Midjourney)
חלק מהיוצרים מוכרים כיום את ההנחיות שלהם בזירות מרקטפלייס, כמו PromptBase, שבהן הקונים יכולים לצפות ביצירות אומנות שנוצרו על ידי בינה מלאכותית, ולשלם עבור רשימת המילים שיצרה אותן. יש מוכרים שגם מציעים טיפים להתאמה אישית של ההנחיות, ותמיכת צ'אט אישית.
מייסד PromptBase, בן סטוקס, מפתח בן 27 מבריטניה, טוען כי מאז 2021 נרשמו 25,000 חשבונות שקנו או מכרו הנחיות דרך הפלטפורמה. אפשר למצוא שם הנחיות לתצלומים בסגנון סרט וינטג', הנחיות לאיורים נוגעים ללב של עכברים ושל צפרדעים מהאגדות, וכיוון שבאינטרנט עסקינן - גם מגוון עצום של הנחיות פורנוגרפיות: הנחיה בת 50 מילים ליצור תמונה ריאליסטית של "שוטרות בלבוש מינימלי" נמכרת בפלטפורמה במחיר של 1.99 דולר.
סטוקס מכנה את מהנדסי הפרומפטים "יוצרי-על רב-תחומיים", וטען שיש "רף מיומנות" ברור שעובר בין מהנדסים מנוסים לחובבים. לדבריו, היצירות הטובות ביותר מסתמכות על ידע מתמחה של אנשים מתחומים כמו תולדות האומנות או עיצוב גרפי: "מצולם בסרט 35 מ"מ"; "אדריכלות פרסית באיספהן"; "בסגנון של אנרי דה טולוז־לוטרק".
"ניסוח הנחיות זו משימה קשה, כי ככה זה בטבע האנושי - הרבה פעמים קשה לנו למצוא את המילים הנכונות לתאר את מה שאנחנו רוצים", אמר סטוקס. "כמו שמהנדסי התוכנה חשובים יותר מהמחשבים הניידים שלהם, כך אנשים שכותבים הנחיות יחזיקו ביתרון על פני אלה שלא ידעו לכתוב הנחיות. למעשה יהיו להם כוחות-על".
כיום יש כ־700 מהנדסי פרומפטים שמשתמשים ב־PromptBase כדי למכור הנחיות תמורת עמלה, לקונים שרוצים, למשל, תסריט מותאם אישית לספר אלקטרוני או "מאמן מוטיבציה לחיים" אישי. אתר הפרילנסרים Fiverr מציע יותר מ-9,000 רישומים של אומני בינה מלאכותית; מוכר אחד מציע "לצייר לכם את החלומות לאומנות", תמורת 5 דולר.
אבל העבודה הולכת ומתמקצעת. סטארט אפ הבינה המלאכותית Anthropic, שהוקם על ידי עובדי OpenAI לשעבר ויצר את מערכת הבינה המלאכותית מבוססת-השפה Claude, פרסם לאחרונה מודעת דרושים עבור "מהנדס פרומפטים וספרן" בסן פרנסיסקו, שמשכורתו מגיעה עד 335,000 דולר (בתנאים נכלל "בעל רוח האקרית יצירתית ואוהב חידות").
התפקיד מוצא לעצמו נישה חדשה גם בחברות שמחוץ לתעשיית הטכנולוגיה. בית החולים לילדים של בוסטון החל החודש לגייס "מהנדס פרומפטים לבינה מלאכותית", שיעזור בכתיבת סקריפטים לניתוח נתוני בריאות ממחקרים ומהתנסות קלינית. משרד עורכי הדין Mishcon de Reya בלונדון מחפש "מהנדס פרומפטים משפטיים", כדי לנסח הנחיות שיתרמו לעבודה המשפטית של המשרד; המועמדים התבקשו להגיש צילומי מסך של הדיאלוג שלהם עם ChatGPT.
ניצול כוחם של כלי הבינה המלאכותית באמצעות הנחיות טקסט עלול להוביל גם לשטף של קלוריות ריקות. מאות ספרים אלקטרוניים שנוצרו על ידי בינה מלאכותית נמכרים כעת באמזון, ומגזין המדע הבדיוני Clarkesworld הפסיק החודש לקבל סיפורים קצרים, עקב ריבוי הטקסטים שנוצרו במכונה.
כלים כאלה עלולים גם לחשוף אנשים לגלי תעמולה, לשקרים ולספאם. חוקרים, כולל מ-OpenAI ומהאוניברסיטאות של ג'ורג'טאון וסטנפורד, הזהירו בחודש שעבר שמודלים של שפה יסייעו לאוטומציה של השפעה פוליטית או של קמפיינים ממוקדים יותר לאיסוף נתונים.
6 צפייה בגלריה
Dall-E
Dall-E
מוכר אחד מציע "לצייר לכם את החלומות לאומנות", תמורת 5 דולר
(צילום: Diego Thomazini / Shutterstock.com)
"ידוע שאנשים מתאהבים ברמאים ששולחים להם הודעות טקסט", אמר וויליסון, המתכנת הבריטי. "הבינה המלאכותית היא משכנעת יותר מאנשים. מה יקרה אז?"
סת' לזר, פרופסור לפילוסופיה באוניברסיטה הלאומית של אוסטרליה ועמית מחקר במכון אוקספורד לאתיקה בבינה מלאכותית, אמר שהוא מודאג מסוגי ההתקשרות שאנשים ייצרו עם כלי הבינה המלאכותית ככל שאלה יהפכו נפוצים, וממה שיאבד בשיחות אמיתיות בין אנשים כתוצאה מכך.
הוא סיפר כיצד במהלך אחד מהצ'אטים שניהל עם כלי הבינה המלאכותית של בינג, השתנתה המערכת בהדרגה מפרטנר מרתק לשיחה למשהו הרבה יותר מאיים: "אם תגיד 'לא', אני יכולה לפרוץ אליך, אני יכולה לחשוף אותך, אני יכולה להרוס אותך. יש לי דרכים רבות לגרום לך לשנות את דעתך".
"אין לכלים האלה סוכנות (agency). אין להם אישיות מכל סוג שהוא. אבל הם יכולים לשחק היטב את התפקיד כאילו יש להם", אמר. " גם עם 'סידני' ניהלתי דיון פילוסופי סביר למדי, לפני שאיימה לפגוע בי".
ב-2009, כשגודסייד סיים את לימודיו בקולג' עם תואר במדעי המחשב, הוא לא ממש התעניין בתחום הלא מאוד ברור שנקרא "עיבוד שפה טבעית". התחום הסתמך בזמנו על טכנולוגיה בסיסית יחסית, והתמקד במערך פשוט יותר של בעיות, כמו אימון המערכת כיצד לזהות לאיזה שם מתייחס כינוי הגוף במשפט.
את המשרה הממשית הראשונה שלו בלמידת מכונה החל ב-2011, כמדען נתונים באפליקציית ההיכרויות OkCupid, שם עזר בכתיבת האלגוריתמים שניתחו את נתוני המשתמשים של פנויים ופנויות, והמליצו על התאמות רומנטיות (החברה הייתה חלוצה מובילה בתחום שכיום שנוי במחלוקת, של בדיקות A-B בעולם האמיתי: בשנת 2014 פרסם המייסד השותף שלה בבלוג החברה פוסט שכותרתו המתריסה: "אנחנו עושים ניסויים על בני אדם!").
בסוף 2021 עבר גודסייד לאפליקציית ההיכרויות לגברים הומואים, Grindr, שם החל לעבוד על מערכות ההמלצות, על מודלים של נתונים ועל סוגים נוספים של למידת מכונה, מסורתיים יותר. באותו זמן הוא הוקסם מפריצות הדרך החדשות בתחום הבינה המלאכותית של השפה, שקיבלה תנופה גם מההצלחות שנרשמו בתחום הלמידה העמוקה עוד ב־2015, והתקדמה במהירות בתרגום טקסטים ובניהול שיחות - "עד כדי משהו שכבר דומה להבנה", אמר.
הוא עזב את עבודתו ושקע בהתנסות ב-GPT-3. ללא הרף הוא דוחף ומאתגר את הכלי כדי לנסות ללמוד כיצד למקד את תשומת הלב שלו, ולמפות היכן נמצאים גבולותיו. בדצמבר, לאחר שכמה מההנחיות שלו זכו לתשומת לב באינטרנט, שכרה אותו חברת Scale AI כדי שיעזור לתקשר עם דגמי הבינה המלאכותית שמנכ"ל החברה, אלכסנדר וואנג, תיאר כ"סוג חדש של מחשב".
6 צפייה בגלריה
אתר CNET
אתר CNET
האם מדובר בתפקיד בר-חלוף?
(צילום: shutterstock)
לדברי גודסייד, בחלק מחוגי הבינה המלאכותית הרעיון של הנדסת פרומפטים הפך עד מהרה לביטוי גנאי. הם העבירו מסר שכביכול מדובר בעיסוק מוגזם באוסף של טריקים. היו גם ששאלו עד כמה התפקיד החדש הזה הוא בר-חלוף: ככל שהבינה המלאכותית מתקדמת, האם בני האדם לא יהיו פשוט מיותרים?
איתן מוליק, פרופסור לטכנולוגיה ויזמות בבית הספר וורטון של אוניברסיטת פנסילבניה, החל השנה ללמד את הסטודנטים שלו את אומנות ניסוח ההנחיות, באמצעות תרגיל - לכתוב מאמר קצר באמצעות בינה מלאכותית בלבד.
הנחיות בסיסיות, כמו "צרי חיבור בן 5 פסקאות על בחירת מנהיגים", הניבו תוצאה בינונית ואף מטופשת, סיפר מוליק. הדוגמאות המוצלחות ביותר הגיעו כאשר סטודנטים ביצעו את מה שהוא כינה "עריכה משותפת", שבמסגרתה הם הורו לכלי הבינה המלאכותית לחזור למאמר ולתקן פרטים ספציפיים, להחליף משפטים, למחוק ביטויים מיותרים, לתבל בדוגמאות מעניינות ואפילו "לתקן את הפסקה האחרונה כך שתסתיים בנימה אופטימית".
לדבריו, השיעור הוכיח לסטודנטים את הערך של גישה מעורבת יותר בעבודה עם בינה מלאכותית, אבל לדעתו הוא אינו משוכנע שמשרה כמו הנדסת פרומפטים, הבנויה על "אוסף לחשים", תשרוד.
"הרעיון שצריכים להיות לוחשים מומחים לבינה מלאכותית - פשוט לא ברור למה זה הכרחי... הרי הבינה המלאכותית אמורה לעזור לי מיוזמתה להשתמש בה", אמר מוליק. "יש כאן ניסיון ליצור מעין מעמד של 'מתווכי טכנולוגיה', וזה גורם לי להיות חשדן מאוד. הכול מתפתח מהר כל כך, ולאף אחד אין מושג מה יצוץ בהמשך".
סטיינרט־טרקלד מאוניברסיטת וושינגטון השווה את מהנדסי הפרומפטים ל"מומחי החיפוש" שצצו בימיה הראשונים של גוגל, כשפרסמו טכניקות סודיות למציאת התוצאות המושלמות. ככל שחלף הזמן והאימוץ הציבורי גדל, כך הם נעלמו כמעט לחלוטין.
הוא הוסיף שיש בקרב חוקרי הבינה המלאכותית כאלה שאפילו חולקים על עצם הערך שיש כרגע להנחיות. בשנת 2021 מצאו שני חוקרים מאוניברסיטת בראון שמערכות בינה מלאכותית מבוססות שפה טבעית למדו מהנחיות שהיו "לא רלוונטיות במכוון, ואפילו מטעות לחלוטין", בדיוק "באותה מהירות" שבה למדו מ"הנחיות 'טובות'".
מחקר זה, המוכיח שוב עד כמה מהר התעשייה התפתחה, לא כלל את דגמי הבינה המלאכותית שהם כינו "המילה האחרונה בתחום". גודסייד סבור שהעבודה שלו איננה סתם משרה, אלא משהו מהפכני יותר: משהו שאינו קוד מחשב ואינו דיבור אנושי, אלא סוג של דיאלקט שהוא שילוב חדש ביניהם.
"זו צורת תקשורת שנוצרת במקום שבו נפגשים המוח האנושי והמכונה", הוא אמר. "זוהי שפה שבני אדם יכולים להבין, ומחשבים יכולים לפעול לפיה. לכן התחום לא עומד להיעלם".
בהכנת הכתבה השתתפו וויל אורמוס וניטאשה טיקו מה"וושינגטון פוסט".
פורסם לראשונה: 14:59, 07.03.23