סערה פרצה בסין בעקבות ניסוי של חברת גיימינג שהשיקה עובד מבוסס בינה מלאכותית, שעובד מסביב לשעון. המערכת מבוססת על נתונים של מומחה משאבי אנוש לשעבר, המכונה "שיאו יו", שהסכים לשימוש בדמותו הדיגיטלית במסגרת ניסוי פנימי.
הכפיל הדיגיטלי נועד לבצע משימות בסיסיות במקום העבודה – ייעוץ, שליחת הזמנות והפקת מצגות פשוטות וגיליונות נתונים. העובד לשעבר עצמו תיאר את הרעיון כ"די משעשע", והחברה הדגישה כי הכלי מוגבל לפקודות בסיסיות ועדיין מסורבל לשימוש בתנאי עבודה אמיתיים.
עם זאת, עצם יצירת "אדם מבוסס בינה מלאכותית" עוררה גל תגובות ציבוריות. ברשתות החברתיות טענו חלק מהמגיבים כי מדובר במהלך המטשטש את הגבול בין אדם לכלי עבודה, ואף מעודד החפצה נוספת של עובדים. אחרים ראו בפרויקט ביטוי מוקדם לרעיון של "אלמוות סייברי", שבו מאפייניו המקצועיים של אדם ממשיכים להתקיים גם לאחר שעזב את הארגון. במקביל, עלו שאלות בדבר זכותה של חברה להפיק ערך כלכלי מהידע המצטבר ומהנתונים האישיים של עובד, גם כאשר ניתנה הסכמה ראשונית לניסוי.
העיתון הכלכלי הסיני Securities Times, הציג את המקרה כחלק ממגמה רחבה יותר של פיתוח "עובדי AI", שנועדו לשמר ידע ארגוני גם לאחר עזיבת עובדים. לפי הפרסום, המערכת אומנה על בסיס תכנים מקצועיים שנוצרו במהלך עבודתה של העובדת, כולל אינטראקציות עבודה ומסמכים פנימיים.
מבקרים רבים טענו כי אם מערכת בינה מלאכותית מאומנת על בסיס סגנון העבודה, התקשורת והתוצרים של אדם מסוים, יש לבחון מודלים של תמלוגים או פיצוי מתמשך עבור שימוש מסחרי בתכונות אלה. עצם האפשרות להתאים את הכפיל הדיגיטלי להעדפות המשתמש באמצעות תיאורים סובייקטיביים של עמיתים לשעבר, הגבירה את החשש כי עובדים מצטמצמים לכדי "מודולים פונקציונליים" הניתנים להעתקה. אחד התיאורים הביקורתיים ברשת כינה את המהלך "מיצוי דיגיטלי מהעצמות" – ביטוי שהמחיש את החרדה מפני טשטוש הגבולות בין זהות מקצועית לבין נכס טכנולוגי.
מומחים מעולם המשפט הדגישו כי נתונים הקשורים להתנהגות ולתקשורת האישית של עובדים - כולל הודעות צ'אט, דוא"ל והרגלי עבודה - מוגדרים כמידע אישי לפי חוק הגנת המידע האישי. לפיכך, שימוש בהם לאימון מערכות בינה מלאכותית ללא הסכמה מפורשת עלול להוות פגיעה בזכויות. גם כאשר הנתונים נוצרו במסגרת העבודה, אין בכך כדי להעניק לחברה זכות אוטומטית לשכפל מערכת המשקפת את אישיותו או סגנונו של עובד מסוים ללא הרשאה נפרדת ומתוגמלת. אמצעי הניהול המוצעים לשירותי "אדם דיגיטלי" והאמצעים הזמניים לניהול שירותי בינה מלאכותית גנרטיבית, מדגישים את הצורך בהסכמה חד-משמעית לאימון ולשימוש בדמויות כאלה.
חוקרי עבודה ופעילי זכויות עובדים מציינים כי יחסי הכוחות במקום העבודה עלולים להפוך את מושג ההסכמה למורכב. עובדים עשויים לחשוש מהשלכות מקצועיות, פגיעה במוניטין או בקשרים בענף אם יסרבו להשתתף ביוזמות מסוג זה. מעבר לכך, עצם הרעיון שגרסה דיגיטלית של אדם ממשיכה לפעול במקום עבודתו לשעבר מעורר אי-נוחות פסיכולוגית בקרב רבים. בנוסף, עלו שאלות אחריות: טעויות של כפיל דיגיטלי המזוהה עם אדם מסוים עלולות לפגוע במוניטין שלו ולהעלות שאלות משפטיות בדבר זהות האחראי.
הדיון אינו מוגבל לניסוי הספציפי. סוכני בינה מלאכותית המסוגלים להפעיל מחשבים ברציפות ולבצע משימות שגרתיות מושכים תשומת לב רחבה בסין, שם הם נתפסים כבעלי פוטנציאל להגדיל פרודוקטיביות, אך גם כמקור לחששות בתחום אבטחת המידע ודליפת נתונים אישיים או פיננסיים.
בסיקור הסיני הוזכר גם כי אנשי מקצוע ממליצים לכלול בחוזי עבודה סעיפים המחייבים מחיקת נתוני מאפיינים אישיים עם סיום ההעסקה, או לחלופין קבלת הרשאה נפרדת ומתוגמלת לשימוש בהם בעתיד.






