בשנים האחרונות יכולות הבינה המלאכותית השתפרו בצורה מדהימה - אבל נראה כי בחברות הטכנולוגיה עדיין בוחרים בגישה זהירה בתחומים שבהם טעות אחת יכולה לגרור נזק תדמיתי גדול. זהו לפחות המקרה בכל הנוגע לזיהוי של גורילות, וקופים בכלל, בתמונות.

עוד בנושא:

בשנת 2015, גוגל שחררה את אפליקציית גוגל תמונות (Google Photos), שבין היתר, הציעה למשתמשים יכולות זיהוי אוטומטי של אנשים, בעלי חיים וחפצים במאגר התמונות האישי שלהם. אבל אחרי חודשיים התגלה כי למרות היכולות המרשימות, התוכנה תייגה בטעות תמונה של משתמשים שחורים כגורילות - טעות שהדהדה סטריאוטיפ גזעני וגרמה לסערה. גוגל כמובן התנצלה, התחייבה לתקן את הבעיה, ובינתיים מנעה מהתוכנה לתייג גורילות.
3 צפייה בגלריה
גורילה
גורילה
גורילה
(צילום: shutterstock)
בניו יורק טיימס ערכו בדיקה מה קורה נכון להיום, בימים שבהם בינה מלאכותית היא אחד הנושאים החמים ביותר, כשתוכנות עם יכולות זיהוי תמונה, שניתן לבצע חיפוש במאגר תמונות באמצעותן על ידי הקלדת המושג המבוקש, מתבקשות לאתגר גורילות. לצורך הבדיקה, יצרו בעיתון אוסף של 44 תמונות שבהן הופיעו אנשים, חיות וחפצים, וערכו את הבדיקה בגוגל תמונות וגם בכלים דומים של המתחרות אפל, אמזון ומיקרוסופט.
גוגל תמונות זיהתה בקלות חיות שונות באוסף התמונות שהוזן אליה, כמו חתולים וקנגורו, אך כאשר התבצע חיפוש של גורילות, או סוגים אחרים של קופים, שתמונות שלהם הופיעו באוסף - האפליקציה לא זיהתה ולא העלתה בחיפוש דבר.
לאחר מכן נבחנה האפליקציה המתחרה של אפל, אפל תמונות. גם היא הגיעה לתוצאות דומות - זיהתה תמונות של חיות, אבל לא של קופים. את הגורילה זיהתה רק בתמונה שהמילה "גורילה" הופיעה בה. במקרה של גוגל וגם של אפל, השתיים בכל זאת הצליחו לזהות למורים בתמונות.
3 צפייה בגלריה
גוגל פוטוס
גוגל פוטוס
גוגל תמונות
(צילום: shutterstock)
מיקרוסופט ואמזון נכשלו גם הן במבחן, כאשר במקרה של מיקרוסופט וואן דרייב, התוכנה כלל לא הצליחה לזהות חיות בתמונות, ואילו באמזון החיפוש אחר גורילות כלל גם קופים אחרים ולא היה מדויק מספיק. למרות שגוגל ואפל מציעות את התוכנות המתוחכמות ביותר בכל הנוגע לניתוח תמונות, הן קיבלו החלטה מכוונת שלא לאפשר חיפוש ויזואלי של קופים, מחשש לטעויות פוגעניות. במקום לתקן את הפיצ'ר הבעייתי, השתיים בחרו לכבות אותו לחלוטין.
ב-2018 בדיקה של אתר הטכנולוגיה WIRED העלתה כי גם הכלי גוגל לנס (Google Lens), שמאפשר חיפוש ויזואלי ברשת, לא מסוגל לזהות גורילה. בחיפוש תמונות גורילות הוא אומנם העלה בתוצאות תמונות נוספות של גורילות, אך לא כתב במפורש שמדובר בגורילה. ב-2019, משתמש אייפון התלונן בפורום התמיכה של אפל על כך שהתוכנה לא מסוגלת למצוא קופים בתמונות המכשיר שלו.
בניו יורק טיימס פנו לג'קי אלסין, שתמונתו ותמונת חברו תויגו באופן הפוגעני בעבר והציתו את הסערה. הוא הופתע מכך שגוגל עוד לא טיפלה בסוגייה ומתח ביקורת על כך שהחברה שלנו מסתמכת יותר מדי על טכנולוגיה. "לעולם לא יהיה לי אמון ב-AI", אמר.
בעקבות המקרה של אלסין, שני עובדי גוגל לשעבר סיפרו כי החברה לא כללה מספיק תמונות של אנשים שחורים במאגר התמונות שעליו התאמנה הבינה המלאכותית - ומסיבה זו היא לא הכירה וזיהתה אנשים שחורים. מדובר בחלק מתופעה רחבה, והיו תקריות דומות בחברות נוספות בעבר. מצלמות הרשת של HP לא הצליחו לאתר אנשים עם עור כהה, אפל נתבעה על כך שהשעון החכם אפל ווטש לא קרא כראוי את רמות החמצן בדם עבור משתמשים עם צבע עור כהה, ולפי דיווח של עובד לשעבר בגוגל, גם מצלמת אבטחה חכמה של המותג נסט של גוגל בלבלה בין אנשים שחורים לבעלי חיים. במקרה הזה, היה מדובר בטעות שהתגלתה במבחן פנימי, ובחברה מיהרו לתקן אותה לפני שלמשתמשים הייתה גישה למוצר.
בעקבות התקריות הללו, הקריאות לגיוון מאגרי המידע שעליהם מתאמנות תוכנות בינה מלאכותית על מנת למנוע הטיות וטעויות הלכו וגברו, והחברות ניסו להשתפר בכך, אך גם התהליך הזה לא עבר ללא סערות. ב-2019 גוגל ניסתה לשפר את פיצ'ר זיהוי הפנים בסמארטפונים של אנדרואיד, ולשם כך להכליל יותר תמונות של אנשים כהי עור במאגריה. אך אז פורסם כי עובדי הקבלן שנשכרו כדי לאסוף סקירות פנים השתמשו בטקטיקה בעייתיות כמו צילום הומלסים וסטודנטים, מבלי להיות שקופים לגבי המטרה של איסוף הדאטה.
3 צפייה בגלריה
זיהוי פנים
זיהוי פנים
הטכנולוגיות השתפרו, אך החששות נשארו
(צילום: shutterstock)
גוגל מסרה בתגובה לפרסום כי בחברה בחרו שלא לאפשר לאפליקציית גוגל תמונות לתייג תמונות כקופים כי היתרון "לא גובר על הסיכון לפגיעה". אפל לא הגיבה על הנושא. באמזון ומיקרוסופט אמרו כי החברות תמיד שואפות לשפר את המוצרים שלהם.
ד"ר מרגרט מיטשל, חוקרת ומייסדת שותפה של קבוצת האתיקה ב-AI בגוגל, שכבר אינה עובדת בחברה, אמרה לאחרונה בריאיון כי היא תמכה בהחלטה להסיר את תווית הגורילה מהאפליקציה, "לפחות לתקופה מסוימת". "תחשבו על התדירות שבה מישהו צריך לתייג גורילה לעומת הדהוד של סטריאוטיפים פוגעניים", אמרה. "היתרונות לא עולים על הנזקים הפוטנציאליים. כל מה שצריך זה טעות אחת וההשלכות אדירות". היא התייחסה לטעות כזו בתור "מחט מורעלת בערימת שחת".