גוגל, אחת החברות המשפיעות ביותר בתחום הבינה המלאכותית, ערכה השבוע שינוי דרמטי במדיניות פיתוח הבינה המלאכותית שלה - החברה הסירה התחייבויות קריטיות שלא לפתח יישומים מסוכנים, צעד המשקף מגמה מדאיגה בתעשיית הבינה המלאכותית ואת המתחים הגאו-פוליטיים המתגברים סביב רגולציה בתחום.
כיום, רוב החברות הגדולות מחזיקות במדיניות פומבית לפיתוח אחראי של בינה מלאכותית. גוגל הייתה אחת מהחלוצות בתחום זה כאשר ב-2018 פרסמה את המדיניות שלה, שהפכה למודל לחיקוי עבור התעשייה כולה. מסמכי המדיניות הללו הם בעלי חשיבות גדולה כאשר הם מכילים התחייבויות מפורשות של מה חברות יעשו ולא יעשו בתחום.
שינוי דרמטי במדיניות
המדיניות המקורית של גוגל כללה שבעה עקרונות שהתוו את גישתה לפיתוח אחראי של בינה מלאכותית, כגון תועלת לחברה, הוגנות והגנה על פרטיות. במקביל, המסמך כלל התחייבות מפורשת להימנע מפיתוח טכנולוגיות העלולות לגרום נזק, כלי נשק, טכנולוגיות מעקב, או מערכות הפוגעות בזכויות אדם.
הגרסה החדשה של מסמך העקרונות משנה באופן דרמטי את המדיניות הזו. היא מחלישה את הדגש על אחריות לטובת דגש על חדשנות, ובעוד שהעקרונות החדשים עדיין מזכירים את חשיבות האחריות, הם מסירים את ההתחייבויות שהיו בגרסה הקודמת.
כעת, גוגל עשויה לפתח נשק, טכנולוגיות מעקב, או כל טכנולוגיה אחרת, אם היא מעריכה שהתועלת במערכות עולה על הסיכונים שבהן. המרחק בין המצב הנוכחי לבין הסיסמה המקורית של גוגל - "Don't be evil" ("אל תהיה מרושע") - מעולם לא נראה גדול יותר.
הסכנות הטמונות במהלך זה מודגמות היטב דרך מקרים שכבר התרחשו בתעשייה. דוגמה בולטת היא חברת Axon, שב-2022 הכריזה על פיתוח רחפנים חמושים בטייזר להתמודדות עם מקרי ירי המוני בבתי ספר. הרחפנים תוכננו לרחף בבתי ספר ולתקוף חשודים, ובכללם ילדים חשודים, זאת למרות בעיות ידועות כגון סכנת מוות, דיוק נמוך בזיהוי ואפליה.
ועדת האתיקה של החברה עצמה התנגדה לפרויקט לאחר שנה של דיונים מעמיקים. למרות זאת, החברה בחרה להתעלם מההמלצות, בטענה שהתועלת עולה על הסיכונים. רוב חברי הוועדה התפטרו במחאה, והחברה נאלצה להשעות את הפרויקט זמנית. למרות זאת, ב-2023 דווח שהיא עדיין מתכוונת לייצר את הרחפנים החמושים לבתי ספר.
המרחק בין המצב הנוכחי לבין הסיסמה המקורית של גוגל - "Don't be evil" ("אל תהיה מרושע") - מעולם לא נראה גדול יותר
סכנה משמעותית לתעשייה ולחברה
מעבר להשפעה המיידית של טכנולוגיות מסוכנות בידיים ציבוריות, קיימת סכנה משמעותית של הורדת סטנדרטים בתעשיית הבינה המלאכותית והטכנולוגיה בכלל, שהרי גוגל מתווה דרך בהיותה מודל לחיקוי. עקרונות מקיפים לניהול אחראי של בינה מלאכותית, הכוללים פיתוח, שימוש ורכש, נחוצים להגנה על הציבור והחברות עצמן.
למרות ההתקדמות המרשימה, הטכנולוגיה עדיין נמצאת בחיתוליה מבחינות רבות, כפי שמעידים הדיווחים הרבים על כשלים: תשובות שגויות של צ'טבוטים שהובילו לתביעות, שגיאות ואפליה בזיהוי פנים בחנויות, דליפת מידע רגיש בתקיפות סייבר, ועוד.
3 צפייה בגלריה


רחפנים חמושים בבתי ספר זו רק דוגמה אחת לניצול מסוכן של טכנולוגיה. אילוסטרציה
(צילום: AP/Alex Brandon)
ירידה ברמת עקרונות הפיתוח האחראי עלולה להוביל להתרופפות בתעשייה כולה, שממילא טעונה שיפור רב, וזה עלול להוביל לאיכות מוצרים ירודה והשפעות מזיקות על החברה כמו אפליה, ניצול מידע פרטי, דיסאינפורמציה והונאות - כולן בהיקפים רחבים ביותר.
מתחים גיאופוליטיים עולים
השינוי במדיניות גוגל מתרחש על רקע מתחים גיאופוליטיים סביב רגולציה של בינה מלאכותית ושינויים בגישת ארה"ב לנושא לאחר עליית טראמפ לשלטון. תחום הרגולציה של בינה מלאכותית כולל שני מחנות מרכזיים: האחת היא גישת האיחוד האירופי, המקדמת חקיקה ריכוזית של בינה מלאכותית הכוללת מגבלות על פי רמת סיכון.
מנגד, בריטניה מובילה גישה המעדיפה חקיקה סקטוריאלית ורגולציה עצמית של חברות. ארה"ב, שבתקופת ביידן שילבה בין הגישות, נראית כעת נוטה יותר לכיוון הרגולציה העצמית תחת ממשל טראמפ, שכבר הכה גלים כשביטל לאחרונה צו נשיאותי של ביידן בנושא.
ירידה ברמת עקרונות הפיתוח האחראי עלולה להוביל להתרופפות בתעשייה כולה, שממילא טעונה שיפור רב
שינוי העקרונות של גוגל ממחיש את הסכנות שבגישת הרגולציה העצמית. כפי שחברות יכולות לאמץ עקרונות, כך הן יכולות גם לנטוש אותם. מאחר שארה"ב, בתנועת נגד למתרחש באיחוד האירופי, דוחפת יותר לגישה כזו, גובר הסיכון להתנהגות בעייתית של חברות והתוצאה עלולה להיות נזק משמעותי לחברה ולפרט.
ההתפתחויות הללו מדגישות את הצורך הדחוף במנגנונים משלימים לרגולציה בתחום הבינה המלאכותית. בעוד שחקיקה יכולה להיות מנוע אפקטיבי לשינוי, היא אינה הפתרון היחיד. עידוד אחריות באמצעות כוחות שוק הוא אפשרות חשובה נוספת, הכוללת צרכנות מושכלת של הציבור הרחב - בחירת מוצרים בטוחים של חברות המפגינות אחריות.
גם מנגנוני מימון כמו השקעות, תרומות ורכש, המזרימים כספים רבים לעולם הבינה המלאכותית, צריכים להתנות את תמיכתם באימוץ עקרונות אחריות ברורים. שינוי המדיניות של גוגל הוא נורת אזהרה המחייבת את כולנו - ממשלות, משקיעים וצרכנים - לפעול בדחיפות להבטחת עתיד טכנולוגי בטוח.
ד"ר רוית דותן היא יועצת וחוקרת של אתיקת בינה מלאכותית.







