כלי הבינה המלאכותית ChatGPT של חברת OpenAI שהושק בנובמבר ומסוגל לשוחח עם המשתמשים ולהפיק עבורם טקסטים, זכה להצלחה מסחררת, שימושים מגוונים ואפילו עורר חשש כי ישנה לחלוטין את תחומי החינוך, יצירת התוכן ועוד. לפי דיווחים, בקרוב OpenAI עשויה לקבל השקעות ענק, ולהיות מוערכת בשווי של 29 מיליארד דולר. אחד הגורמים להצלחתו של מודל השפה GPT-3.5, שעליו מבוסס ChatGPT, ואחד השינויים הבולטים בינו לבין הדור הקודם שלו (GPT-3), הוא בכך שהוא מפיק תכנים "נקיים" בלבד. הדור הקודם התאפיין בכך שמדי פעם הפיק הערות אלימות, גזעניות ועוד. כעת נחשף כי השיפור של הכלי עבר דרך פגיעה בעובדים מוחלשים.
לפי תחקיר של מגזין Time, חברת OpenAI התבססה על עובדים במיקור חוץ מקניה שעברו על טקסטים שחלקם מכילים תכנים קשים מאוד, ומתארים באופן גרפי התעללות מינית בילדים, רצח, עינויים, קיום יחסים עם בעלי חיים, התאבדות וגילוי עריות. העובדים העידו כי העבודה השפיעה לרעה על מצבם הנפשי. לרוב, הם הרוויחו בין 1.32 ל-2 דולר לשעה.
עוד בנושא:
העובדה כי הדור הקודם של מודל השפה הפיק לפעמים תכנים אלימים או פוגעניים נבעה מאופן האימון של הבינה המלאכותית - המודל נחשף למאות מיליארדי מילים שנאספו מהרשת, כך שבאופן לא מבוקר הוא נחשף גם לתכנים כאלו ולומד מהם. מאחר שמדובר במאגר עצום, על מנת "לנקות" את הטקסט ש-ChatGPT מפיק מאותם תכנים, היה צורך לבנות כלי AI נוסף שיידע לזהות אותם. על מנת לאמן את אותו הכלי, היה צורך באנשים שיזהו ויתייגו גם דוגמאות לטקסטים כאלה. בעתיד, ניתן יהיה להשתמש באותו הכלי גם לסינון המאגר עצמו.
OpenAI שיתפה פעולה לצורך הפרויקט עם חברה אמריקאית בשם Sama שמעסיקה עובדים בקניה, אוגנדה והודו עבור ענקיות כמו גוגל, מיקרוסופט ומטא כדי שיתייגו עבורן תכנים. לפי הדיווח, OpenAI שלחה ל-Sama אלפי קטעי טקסט, ועל כל עובד הוטל לקרוא ולתייג בין 150-250 קטעי טקסט במשמרת של תשע שעות (ב-Sama הכחישו וטענו כי נדרש מהם לתייג רק 70 קטעים במשמרת). כל קטע כזה היה באורך של בין מאה ועד מעל אלף מילים.
העובדים העידו כי התכנים הקשים ליוו אותם גם אחרי שעות העבודה. אחד מהם תיאר כי היו לו חזיונות חוזרים שהיו "עינוי" עבורו אחרי שקרא תיאור שכלל פגיעה מינית בבעל חיים וילד. "קוראים מספר קטעים כאלו במהלך כל השבוע. עד שמגיע יום שישי, אתה מוטרד מהמחשבות על התמונה שעולה מהם", הוסיף. המרואיינים גם אמרו כי למרות שהיו זכאים להשתתף בפגישות עם "יועצי בריאות נפשית", אותן פגישות לא סייעו להם, והיו נדירות בשל דרישות ההספק בעבודה (ב-Sama הכחישו גם את טענה זו ואמרו כי היועצים היו זמינים לכל דורש).
עוד עולה מהדיווח כי האופי הטראומטי של העבודה הוביל לבסוף לביטול ההסכם מול OpenAI, שמונה חודשים לפני ששיתוף הפעולה בין החברות אמור היה להסתיים. Sama אף הודיעה לאחרונה כי לא תעבוד יותר בתחום תיוג התכנים הרגישים, ותבטל את העבודות שכבר הוזמנו ממנה.
בעבר התפרסמו דיווחים דומים על מסנני התוכן בפייסבוק, מהם עלה כי הם נחשפו לתכנים קשים מאוד במהלך עבודתם, שהשפיעה לרעה על בריאותם הנפשית. בהקשר ל-Sama, שיתוף הפעולה בין מטא לבינה הופסק לאחרונה, ושתיהן נמצאות במרכזה של תביעה שבמסגרתה עובד לשעבר שעבד כמסנן תוכן טוען שהחברות הפרו את החוקה הקנייתית.
מ-OpenAI נמסר בתגובה לדיווח כי "המשימה שלנו היא להבטיח שבינה מלאכותית כללית (AGI) מיטיבה עם כל האנושות, ואנחנו עובדים קשה כדי לבנות מערכות AI בטוחות ומועילות שמגבילות את התכנים המזיקים והמוטים. תיוג וסינון של תכנים מזיקים הוא צעד הכרחי כדי לצמצם את כמות התוכן האלים והמיני שנכלל במאגרי המידע לאימון, כדי ליצור כלים שיכולים לזהות תכנים מזיקים".