סערה פרצה בסין בעקבות ניסוי של חברת גיימינג שהשיקה עובד מבוסס בינה מלאכותית, שעובד מסביב ‏לשעון. המערכת מבוססת על נתונים של מומחה משאבי אנוש לשעבר, המכונה "שיאו יו", שהסכים לשימוש ‏בדמותו הדיגיטלית במסגרת ניסוי פנימי.‏
הכפיל הדיגיטלי נועד לבצע משימות בסיסיות במקום העבודה – ייעוץ, שליחת ‏הזמנות והפקת מצגות פשוטות וגיליונות נתונים. העובד לשעבר עצמו תיאר את הרעיון כ"די משעשע", ‏והחברה הדגישה כי הכלי מוגבל לפקודות בסיסיות ועדיין מסורבל לשימוש בתנאי עבודה אמיתיים.‏
1 צפייה בגלריה
רובוט מדגים יכולות עבודה בסיסיות בחברה סינית
רובוט מדגים יכולות עבודה בסיסיות בחברה סינית
רובוט AI מדגים יכולות עבודה בסיסיות בחברה סינית
(צילום: AFP/Adek Berry)
עם זאת, עצם יצירת "אדם מבוסס בינה מלאכותית" עוררה גל תגובות ציבוריות. ברשתות החברתיות טענו ‏חלק מהמגיבים כי מדובר במהלך המטשטש את הגבול בין אדם לכלי עבודה, ואף מעודד החפצה נוספת של ‏עובדים. אחרים ראו בפרויקט ביטוי מוקדם לרעיון של "אלמוות סייברי", שבו מאפייניו המקצועיים של אדם ‏ממשיכים להתקיים גם לאחר שעזב את הארגון. במקביל, עלו שאלות בדבר זכותה של חברה להפיק ערך ‏כלכלי מהידע המצטבר ומהנתונים האישיים של עובד, גם כאשר ניתנה הסכמה ראשונית לניסוי.‏
העיתון הכלכלי הסיני ‏Securities Times‏, הציג את המקרה כחלק ממגמה רחבה יותר של פיתוח "עובדי ‏AI‏", שנועדו לשמר ידע ארגוני גם לאחר עזיבת עובדים. לפי הפרסום, המערכת אומנה על בסיס תכנים ‏מקצועיים שנוצרו במהלך עבודתה של העובדת, כולל אינטראקציות עבודה ומסמכים פנימיים.‏
מבקרים רבים טענו כי אם מערכת בינה מלאכותית מאומנת על בסיס סגנון העבודה, התקשורת והתוצרים ‏של אדם מסוים, יש לבחון מודלים של תמלוגים או פיצוי מתמשך עבור שימוש מסחרי בתכונות אלה. עצם ‏האפשרות להתאים את הכפיל הדיגיטלי להעדפות המשתמש באמצעות תיאורים סובייקטיביים של עמיתים ‏לשעבר, הגבירה את החשש כי עובדים מצטמצמים לכדי "מודולים פונקציונליים" הניתנים להעתקה. אחד ‏התיאורים הביקורתיים ברשת כינה את המהלך "מיצוי דיגיטלי מהעצמות" – ביטוי שהמחיש את החרדה ‏מפני טשטוש הגבולות בין זהות מקצועית לבין נכס טכנולוגי.‏
מומחים מעולם המשפט הדגישו כי נתונים הקשורים להתנהגות ולתקשורת האישית של עובדים - כולל ‏הודעות צ'אט, דוא"ל והרגלי עבודה - מוגדרים כמידע אישי לפי חוק הגנת המידע האישי. לפיכך, שימוש ‏בהם לאימון מערכות בינה מלאכותית ללא הסכמה מפורשת עלול להוות פגיעה בזכויות. גם כאשר הנתונים ‏נוצרו במסגרת העבודה, אין בכך כדי להעניק לחברה זכות אוטומטית לשכפל מערכת המשקפת את ‏אישיותו או סגנונו של עובד מסוים ללא הרשאה נפרדת ומתוגמלת. אמצעי הניהול המוצעים לשירותי "אדם ‏דיגיטלי" והאמצעים הזמניים לניהול שירותי בינה מלאכותית גנרטיבית, מדגישים את הצורך בהסכמה חד-‏משמעית לאימון ולשימוש בדמויות כאלה.‏
חוקרי עבודה ופעילי זכויות עובדים מציינים כי יחסי הכוחות במקום העבודה עלולים להפוך את מושג ‏ההסכמה למורכב. עובדים עשויים לחשוש מהשלכות מקצועיות, פגיעה במוניטין או בקשרים בענף אם ‏יסרבו להשתתף ביוזמות מסוג זה. מעבר לכך, עצם הרעיון שגרסה דיגיטלית של אדם ממשיכה לפעול ‏במקום עבודתו לשעבר מעורר אי-נוחות פסיכולוגית בקרב רבים. בנוסף, עלו שאלות אחריות: טעויות של ‏כפיל דיגיטלי המזוהה עם אדם מסוים עלולות לפגוע במוניטין שלו ולהעלות שאלות משפטיות בדבר זהות ‏האחראי.‏
הדיון אינו מוגבל לניסוי הספציפי. סוכני בינה מלאכותית המסוגלים להפעיל מחשבים ברציפות ולבצע ‏משימות שגרתיות מושכים תשומת לב רחבה בסין, שם הם נתפסים כבעלי פוטנציאל להגדיל ‏פרודוקטיביות, אך גם כמקור לחששות בתחום אבטחת המידע ודליפת נתונים אישיים או פיננסיים.‏
בסיקור הסיני הוזכר גם כי אנשי מקצוע ממליצים לכלול בחוזי עבודה סעיפים המחייבים מחיקת נתוני ‏מאפיינים אישיים עם סיום ההעסקה, או לחלופין קבלת הרשאה נפרדת ומתוגמלת לשימוש בהם בעתיד.‏