בעוד שבינה מלאכותית יכולה לשפר את חיינו, ולעזור לנו לבצע משימות שונות באופן יעיל ומהיר יותר, יישומיה, שהולכים ונהיים רווחים יותר, רבים ומגוונים יותר, מביאים גם לא מעט סכנות ו"צדדים אפלים" פוטנציאליים. ד"ר תהילה שוורץ אלטשולר, מומחית למשפט וטכנולוגיה מהמכון הישראלי לדמוקרטיה, סוקרת בשיחה עם ynet כמה מהסוגיות האלו, שמעסיקות היום את הקהילה המשפטית, בניסיון לקבוע מסגרת רגולטורית מוסכמת לפעילות של AI.
2 צפייה בגלריה
זיהוי פנים
זיהוי פנים
טכנולוגיית זיהוי פנים. אתגר לפרטיות
(צילום: shutterstock)

פרטיות

סוגיית הפרטיות היא אחת הבולטות בכל הנוגע ליישומי בינה מלאכותית, בשל אופן הפעולה של אותן מערכות - הן זקוקות לאיסוף של מידע רב מאחר שממנו הן לומדות, ומקבלות החלטות בהתאם למה שלמדו. לעתים מדובר במידע אישי במיוחד. טכנולוגיות זיהוי פנים למשל, הוחרמו במקומות שונים מאחר שאספו מידע ביומטרי, ובפעמים רבות אף הגיעו להחלטות לא נכונות בנושאים קריטיים.
מהפכת ה-AI
שוורץ אלטשולר מתארת את התהליך של מערכות הבינה המלאכותית כלולאה - שמתחילה במידע שנאסף על אנשים פרטיים. אותו מידע מצטרף למאגר גדול שבו ניתן לזהות דפוסים ולהגיע לתובנות, ולבסוף יישום ההחלטה חוזר לרמת האינדיבידואל כי אותן תובנות מופעלות באופן אישי. "אנחנו חיים בעולם שבו אנחנו כל הזמן נמדדים, ובסוף המכונה משלבת נקודות מידע שונות על כל אחד ומפיקה מסקנות מהשוואות לאחרים. זה יכול להיות בדפוסי קנייה, מידע בריאותי, למי הצבענו בבחירות. והמכונה הזו מחליטה החלטות לגבי אנשים - איך אפשר להשפיע עליהם, מתי כדאי לתת הלוואה, איזה תמחור יקבלו על מוצרים, איזו פרמיה ישלמו על ביטוח, מי יכול לקבל משכנתא או שחרור מוקדם מהכלא ועוד".
היא מוסיפה כי הפרקטיקות האלו מעלות הרבה שאלות שנוגעות לפרטיות - כמו איזה מידע המכונות אוספות, על מי, איך עושים אנונימיזציה למידע, מה עומק היכולות של המכונות להבין התנהגויות ולהסיק מסקנות על אנשים, וגם "אילו מניפולציות ניתן לעשות עלינו, איך החיים שלנו ישתנו מזה שיתנו לנו הלוואות, האם יתנו לנו לצאת מהבית - בקורונה דיברו על מערכות שיבדקו עם מי אדם בא במגע כדי להחליט אם לתת לו להיכנס לסופר או לרכבת. בסין ככה זה עובד היום".
מבחינה רגולטורית, שוורץ אלטשולר מסבירה כי ההתפתחות הזו דורשת חוקי פרטיות ומדיניות דאטה חדשים, ומעלה שאלות על הצורך לבקש הסכמה של אנשים, וכן על הצורך בפיקוח על ההחלטות שמתקבלות על סמך מידע פרטי.

הטיות

נושא ההטיות בולט במיוחד בשנים האחרונות בשיח סביב סכנות ה-AI. מאחר שמערכת בינה מלאכותית לומדת ומסיקה מסקנות מתוך המאגר שאומנה עליו, היא עשויה לשחזר הטיות שקיימות בו, אם אינו מגוון מספיק. "אם תיתני למכונה לקרוא את כל ספריית הקונגרס ותשאלי אותה מי ינצח בבחירות לנשיאות ארה"ב, הילרי קלינטון או דונלד טראמפ - היא תגיד טראמפ כי הוא גבר", אומרת שוורץ אלטשולר. אמנם במקרה הזה התחזית של המכונה הייתה יוצאת מדויקת, אלא שבאופן דומה היא כנראה גם לא הייתה חוזה שברק אובמה יהיה נשיא - מכיוון שלא היה נשיא שחור לפניו.
2 צפייה בגלריה
ד"ר תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה
ד"ר תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה
ד"ר תהילה שוורץ אלטשולר, המכון הישראלי לדמוקרטיה
(צילום: פרטי)
"אנחנו רואים שעתוק של הטיות שאנחנו מכירים מהעולם", שוורץ אלטשולר מתארת. "יש מערכות זיהוי פנים שמבדילות בין גברים לבנים באופן הרבה יותר טוב מאשר בין נשים אסייתיות או שחורות. במערכת שצריכה להחליט על שחרור מוקדם מהכלא, שחורים כמעט אף פעם לא מקבלים שחרור כזה. מערכת שצריכה לחזות פשיעה ולהחליט איפה להציב שוטרים, תראה איפה יש פשע ותשלח לשם שוטרים והם ימשיכו לעשות שיטור יתר לאוכלוסיה".
היא מוסיפה כי "היום המערכות האלו יודעות גם לזהות שקרנים - ככה עושים פרופיילינג בשדות תעופה, מחפשים אנשים עם התנהגות מוזרה. אבל אם המערכת התאמנה על אנשים מחברה מסוימת, היא אולי תתפוס תנועות מסוימות שבחברות אחרות לא נחשבות מפחידות ככאלה. זו פגיעה בזכויות של קבוצות ולא רק יחידים".
אולי זה אומר שיש משימות שלא צריכות לעבור אוטומציה, כמו ההחלטה מי יקבל שחרור מוקדם? "גם לאנשים יש הטיות ובעיות בשיקול הדעת. כשאדם נכנס לרופא, יכולה להיות לו דעה קדומה לגבי המוצא שלו שבגללה הוא יחליט שהוא משקר לגבי התרופות שהוא לוקח. שופט אולי הגיע עצבני ועייף מהבית. השאלה היא לא מה ראוי מוסרית להעביר למכונה אלא האם היא עושה משימה יותר טוב מאנשים, איפה התקלות שלה, איך אנחנו דואגים שהיא לא תשעתק את הבעיות של אנשים, איך נאתר תקלות בדיעבד ואיך אנחנו גלויים עם אנשים לגבי זה שמערכת אוטומטית מטפלת בהם ולא בן אדם. יש דברים שהתקבעו אצלנו כמשהו שרק אנשים יכולים לעשות. אבל אנחנו רואים שזה לא נכון. מבחינה רגולטורית נשאלת השאלה האם צריך לבחון הטיות רק כשמדובר בפגיעה בזכויות של אנשים, או שזה דבר יותר כללי וצריך לשאול האם יש חובה אתית לגוון מאגרי מידע, וגם את המהנדסים שמפתחים על המערכות".

שקיפות

הדרך ממאגר המידע להחלטות של בינה מלאכותית עוברת כאמור דרך עיבוד המידע והסקת מסקנות, שלמעשה פועל בתור מעין קופסה שחורה - מבלי שנדע כיצד בדיוק התבצע. מכאן עולה הצורך בשקיפות. לדברי שוורץ אלטשולר, "זה מעלה שאלות לגבי איך ניתן יהיה לייצר תהליכי שקיפות במכונות לומדות. אף אחד לא יודע להגיד מה זו בדיוק השקיפות הזו, לאחרונה פרסמנו מטעם המכון הישראלי לדמוקרטיה מחקר מדיניות, שסורק 13 מסמכים מרכזיים בנושא מהשנים האחרונות, וכל אחד מהם מדבר על שקיפות בצורה אחרת. יש כאלה בהם החשיבה היא כמו בעולם הישן - האם ניתן להסביר איך הגעת לתוצאה. יש כאלה שאומרים - חשוב רק להסביר מה הדרך שהלכת בה, וכאלה שאומרים שמה שחשוב זה להגיד לאנשים שמכונה טיפלה בעניין שלהם".
היא מוסיפה כי "במקרים שבהם ניתן לתת הסבר רציונלי לסיבה שבגללה מכונה לומדת סיפקה פלט מסוים, זה מעולה. אבל בגלל שאי אפשר יהיה תמיד להשיג שקיפות צריך להחליט - באילו מקרים בהם אי אפשר להשיג שקיפות לא נאפשר פיתוח מערכות כאלה, ובאילו מקרים נעשה להן תהליך של בדיקה ונחליט שאם עלה ממנה כי מאגר המידע מפוקח, יש הוכחה מתמטית שהמערכת האלגוריתמית תקינה, וניתן להסביר את מטרות הלמידה, אז לא מעניין מה קרה בדרך. ברור לנו היום שלא כל דבר נדע להסביר. ולכן האתגר הוא לא לפתור את המשימה אלא לעקוף אותה".
את חושבת שחשוב גם ללמד בבתי ספר מהם הכלים שיקבלו את ההחלטות ואיך הם עובדים? "זה חשוב קודם כל עבור מקבלי ההחלטות, וזה חלק מהאוריינות הדיגיטלית שהיום מאוד חסרה. כולם היום עושים האנשה לבינה מלאכותית, המכונה לומדת, חושבת, יודעת וזה יוצר קושי. צריך ללמד אותם שזו מכונה ולא בן אדם, והיא לא לומדת כמו אנשים. יש חברות מסחריות שנח להן להגיד שלבינה יש חשיבה בפני עצמה, כי זה יוריד אחריות מהחברות שמייצרות אותה, זה משרת אינטרסים".

האיומים העתידיים שאולי פספסנו

שוורץ אלטשולר מסבירה לבסוף כי ייתכן שכל הסוגיות הללו יהיו פחות רלוונטיות בקרוב, בשל איום גדול הרבה יותר. "עולם המשפט עובד בתנועת עדר, כולם עסוקים באותם דברים. אבל בעיניי כל השאלות האלו הולכות אחורה בקרב שאולי הפסדנו בו כבר. הן נוגעות לבינה מלאכותית במובן הצר שלה - למידה מפוקחת, שמתבססת על מאגר, ומתחלקת לסוגים - ראיית מכונה, תחום ה-NLP שנוגע לניתוח טקסטים, וזיהוי דיבור". אבל לדבריה, "האמירה היא שייקח עוד 15-10 שנים עד שתהיה לנו בינה מלאכותית כללית (AGI) - שכבר לא רק תאפשר למכונה לעשות את הדברים שאנחנו עושים יותר מסודר או מהר, אלא תקרב אותנו לעולם שבו המכונה יכולה לעשות דברים יותר טוב מאנשים".
"אבל בשנה וחצי האחרונות", היא מוסיפה, "יש קונסולידציה של שלושת העולמות, מכונה אחת שעושה הכל - למשל מחוללי תמונות שיודעים גם להבין טקסט וגם להפיק תמונה, מכונה שיודעת להעביר בעיות מילוליות למחשבון. יש מכונות עם יכולות לוגיות - מודל של גוגל בשם PALM שיודע להסביר למה בדיחות הן מצחיקות, יש מודלים שיודעים המון על השפה - לא רק מה המילה שחסרה לי במשפט, אלא לשכתב, לנתח סנטימנטים, לענות על שאלות. הטרנספורמציה שבינה מלאכותית תייצר נמצאת בעיניי בנקודה הזו".
אלטשולר מסבירה כי אותה נקודת טרנספורמציה נוגעת למעבר מלמידה מבוקרת ללמידה לא מבוקרת מסוג Experience based learning - בינה מלאכותית שכבר לא לומדת ממאגר מידע מוגדר: "יש למכונות הרבה מאוד כישורים, ולכן מתחילים לתת להן ללמוד מאינטראקציה עם אנשים ומהחיים, ולא ממאגר מידע מוכן. כמו הצ'אטבוט של פייסבוק. בעיניי, זו קפיצת פאזה לכיוון AGI, שחשבתי שתיקח עוד 10 שנים, וקורית בקצב מהיר יותר. ופה נמצא השיבוש הגדול. בעולם העבודה, זה עשוי להחליף את הבכירים; להחליף אנשים כותבים, מעיתונות ועד אקדמיה. אם יש מערכת שיודעת להגיד למה בדיחה מצחיקה היא מבינה שפה לעומק".
החשש של שוורץ אלטשולר נובע מהעובדה כי הסוגיות שמעסיקות את עולם המשפט נכון להיום - הטיות, פרטיות ושקיפות, נוגעות כולן למאגר שעליו מכונה התאמנה, ואילו בלמידה שכזו אין מאגרים. "מה שמטריד אותי זה שפה אפשר להגיד למערכת לעשות משהו, ויהיו לכך תוצרי לוואי רעים בדרך לפתרון הבעיה, והשאלה איך אנחנו יכולים למנוע אותן". דוגמה לכך היא בוט שמיקרוסופט שחררה לטוויטר לפני מספר שנים, שלמד דרך התוכן של משתמשי הפלטפורמה, ובמהרה החל להתבטא בצורה פוגענית. "הלמידה הזו אמורה לשנות את העולם ולא להסביר את העולם. לא עושים למכונה סימולציות, אלא זורקים אותה למים ורואים מה קורה. זה בראש ובראשונה פועל באינטרנט כי הוא ענק וכל הזמן משתנה".
היא מוסיפה כי "אנשי המשפט והמדיניות חושבים על המערכות הלומדות באותם דפוסים שאנחנו מכירים מהעולם שלנו. אנחנו לא מבינים שהשאלות צריכות להיות אחרות. איזה מחסומים צריך לשים? האם לחייב לעשות סימולציות לפני שיוצאים למסע של למידה לא מפוקחת? האם יש דברים שצריך לאסור לעשות בלמידה לא מפוקחת? האם אנחנו יודעים מספיק על תופעות הלוואי? אנחנו לא יודעים לעשות את זה וזה האתגר כי החברות כבר מתקדמות. גם לגבי רגולציה, אנחנו שבויים בדרך שבה עשינו משפט מאז ומעולם - קובעים כלל עם חריגים והשופט יחליט. למערכת כזו צריך לתת כלל קשיח. זה לא ייתן לשופט את האפשרות לשנות אותו בדיעבד וזה ישנה את כל התפיסה שלנו לגבי משפט. יש כאן אתגרי רגולציה מאוד גדולים".