📷
בחסות משבר הקורונה קיבלו טכנולוגיות מתקדמות של מעקב המוני דחיפה חסרת תקדים: בישראל נחשפנו כאזרחים בתוך פחות מחודש למעקבים של השב"כ, לאיכון טלפוני, לניטור נתוני מיקום בידי חברות פרטיות שנויות במחלוקת דוגמת NSO ולאיסוף מידע רפואי בהיקף חסר תקדים. במקומות פחות חופשיים בעולם, מעקב המוני אחר אזרחים מתאפשר גם באמצעות טכנולוגיה לזיהוי פנים, ובשעה שכולם מבקשים לרתום טכנולוגיות מתקדמות למען המאבק בהתפשטות הנגיף, הסכנות מושתקות.
השבוע פורסמו דיווחים רבים על האופן שבו השלטונות הרוסיים אוכפים את הנחיות הסגר והבידוד החדשות בעיר מוסקבה. אלפי מצלמות מרשתות את העיר, יש מצלמה כמעט בכל כניסה לכל בניין. מצלמות אלה צוידו בתוכנה לזיהוי פנים, שמאפשרת זיהוי בזמן אמת ומסוגלת להגיע להתאמה גם כשהמצולמים עוטים מסכות פנים. היכולת הזו כל כך אפקטיבית, עד שאחד התושבים מספר כיצד יצא לזרוק זבל מהדירה בעת שהיה מחויב בבידוד ביתי, ובתוך חצי שעה שוטרים דפקו לו בדלת. בסין, שם האזרחים כבר מורגלים בטכנולוגיות מעקב, רותמים יכולות זיהוי פנים קיימות לצרכים מתקדמים יותר - כמו זיהוי אנשים שאינם חובשים מסכה במרחב ציבורי, ואפילו מדידת חום.
2 צפייה בגלריה
זיהוי פנים
זיהוי פנים
זיהוי פנים
(צילום: shutterstock)
השימוש בטכנולוגיות לזיהוי פנים הפך בשנתיים האחרונות למגפה בפני עצמה: בהיעדר רגולציה על מידע דיגיטלי - שלא לדבר על מידע ביומטרי או על טכנולוגיות מתקדמות - והבנה מעמיקה של השלכות השימוש בהן, פורחת תעשייה רחבה. זו מורכבת מצד אחד מחברות פרטיות, ענקיות כקטנטנות, שמפתחות אלגוריתמים מתקדמים שמסוגלים לזהות כל אדם בהמון, ומצד שני גם מרשויות אכיפה, ממשלות וארגונים שמבקשים לרתום את הטכנולוגיה לצורכי מעקב ואבטחה, ניטור חשודים ואפילו חיזוי פשעים. בקיצור, "האח הגדול".
רק לפני שבועיים יצאה ענקית התוכנה מיקרוסופט בהודעה חריגה: החברה החליטה למכור אחזקות בסטארט-אפ הישראלי AnyVision, המפתח טכנולוגיה לזיהוי פנים. זאת, לאחר חודשים של ביקורת ציבורית בנוגע לשימוש שנעשה בטכנולוגיה של החברה למעקב המוני אחר פלסטינים בגדה המערבית. מיקרוסופט דיווחה כי ערכה חקירה בנושא, כדי לבחון אם מדובר בחריגה מעקרונות האתיקה של החברה בנוגע למעקבים נרחבים, והודיעה כי על אף שנמצא שהטכנולוגיה של AnyVision משמשת רק במעברי גבול ולצורכי אבטחה, מיקרוסופט תמכור את האחזקות בה, שכן אלה אחזקות מיעוט שלא יאפשרו לה פיקוח ברמה מספקת.
כמעט במקביל הועברה הצעת חוק ראשונה במדינת וושינגטון הנוגעת למגבלות על שימוש בטכנולוגיה לזיהוי פנים. זו מצטרפת לשורה של תקנות שכבר עברו בערים מרכזיות בארה"ב, המבקשות לפקח על האופן שבו רשויות שלטון ואכיפה עושות שימוש בטכנולוגיה לזיהוי פנים. במדינות אחרות הועברו חוקים נקודתיים, למשל על איסור שימוש בטכנולוגיה לזיהוי פנים בהתבסס על נתונים ממצלמות גוף של שוטרים.
לפני כחודשיים פרסם ה"ניו יורק טיימס" תחקיר מקיף על אפליקציה קטנה ולא מוכרת בשם Clearview AI, שכבר נמצאת בשימוש על-ידי מאות רשויות אכיפה בארה"ב, כולל ה-FBI והמשרד להגנת המולדת - דוגמה קלאסית להיעדר הפיקוח על השימוש שנעשה בטכנולוגיה. כמוה, שורה של חברות מציעות כיום לגורמי אכיפה ולממשלות את החלום הרטוב - מצלמות חכמות שמצליחות לזהות כל אחד, גם בתוך ההמון, בלי שאף אחד יעצור לשאול את השאלות החשובות.
יש המון טכניקות לזיהוי פנים, אבל ברמה הבסיסית הטכנולוגיה משווה תווי פנים מתוך תמונה או קטע וידיאו מול מאגר קיים. אלגוריתם לזיהוי פנים יודע לנתח תווים ייחודיים, להשוות ובכך לייצר זיהוי או לאמת זהות של אדם. לצד טביעת אצבע או זיהוי רשתית, גם זיהוי פנים היא טכנולוגיה המבוססת על מידע ביומטרי - כלומר, מידע שמופק מהמאפיינים הפיזיולוגיים שלנו וייחודי רק לנו. מבין השיטות, זיהוי פנים נחשבת דווקא לפחות מאובטחת ויותר מועדת לפורענות ולטעויות בזיהוי, אבל גם נמצאת בשימוש פופולארי ומסחרי יותר מאחרות.
2 צפייה בגלריה
כולם חשופים. מצלמות אבטחה או מצלמות מעקב?
כולם חשופים. מצלמות אבטחה או מצלמות מעקב?
כולם חשופים. מצלמות אבטחה או מצלמות מעקב?
(צילום: Shutterstock)
אם האייפון שלכם נפתח באמצעות מבט, אם בכל תמונה שאם מעלים לפייסבוק החברים מקבלים תיוג אוטומטי, אם השתמשתם בפילטרים באינסטגרם או במצלמה של סנאפ - אתם יודעים מקרוב מהי טכנולוגיה לזיהוי פנים. גם במעברי גבול ובנמלי תעופה עושים שימוש בסוגים שונים של יישומים לזיהוי פנים. בכניסה לתערוכות ולכנסים בינלאומיים עוברים אט-אט להעדיף זיהוי פנים על פני אמצעי זיהוי מיושנים יותר, ולפני כשנתיים סרקה טיילור סוויפט את פניהם של המעריצים שהגיעו להופעה שלה, לאחר שסבלה מאיומים של סטוקרים ורצתה לוודא שהם לא נמצאים בקהל.
היתרונות אולי נראים ברורים, אבל לטכנולוגיה לזיהוי פנים יש שתי בעיות אתיות גדולות במיוחד: הן סובלות מהטיות מגדריות ואתניות, והן מאפשרות מעקב המוני ופוגעות בחופש התנועה ובזכות לפרטיות. הבעיה הראשונה מאפיינת הרבה מהפיתוחים המבוססים על בינה מלאכותית. הטיות (Bias) נכתבות אל תוך האלגוריתמים, מאגרי המידע הקיימים עמוסים בהן, והתוצאה היא שעדיין, תוכנות שמאפשרות זיהוי פנים נוטות לטעות הרבה יותר כשמדובר בתמונות של נשים או של שחורים, למשל. כשמדובר בתיוג בפייסבוק זה כנראה נסלח, כשהסמארטפון מגמגם בזיהוי זה כבר פחות. אבל אם בתחנת המשטרה שולפים תמונה ממאגר ויוצאים למעצר של חשודה בהתבסס על טעות בזיהוי - זו כבר סכנה של ממש.
הבעיה השנייה נוגעת למעקבים המוניים. טכנולוגיה לזיהוי פנים מאפשרת לממשלות ולגופי אכיפה, הלכה למעשה, לבצע מעקב אחר האזרחים שלהן, ופוגעת בצורה חסרת תקדים בחופש הדמוקרטי. אלה יכולים להיות דברים קטנים וחסרי משמעות - בסין שכללו למשל את היכולת לדעת מי חוצה באלכסון במעבר חצייה (ולאכוף את האיסור, כמובן) - ואלה יכולים להיות דברים משמעותיים יותר, כמו לזהות בזמן אמת מי נמצא בהפגנה. אפשר לבצע בקלות מעקבים אחרי פעילי זכויות אדם, אקטיביסטים ועיתונאים - באותן קלות ופשטות שבה מנסים לאתר חשוד בעבירה.
בדרך לשם נחשף מידע ביומטרי רגיש של כלל האזרחים, בתרחיש שכבר מתחיל להיראות פחות ופחות דיסטופי והרבה יותר ריאליסטי. בייחוד עכשיו, כשמשבר הקורונה מעביר אותנו על דעתנו ואנחנו מוכנים לאמץ כמעט כל פתרון, ובלבד שנוכל לחזור לשגרה כמה שיותר מהר - טכנולוגיות של מעקב צריכות לעבור מסננות עבות יותר של ביקורת ציבורית, כי את הגלגל אי אפשר יהיה להחזיר לאחור.