תאגידים רב-לאומיים וחברות ענק מאוד אוהבים להתהדר בבינה המלאכותית (AI) שלהם. קצת פחות הם אוהבים להתייחס לנזקים שהיא גורמת, לאפליה הטבועה בה, לטעויות המביכות שהיא עושה. ככה התפתח ז'רגון AI ייחודי של מנהלים, שעושה שימוש במילות מפתח מכובסות שנבחרו בקפידה. העיתונאית קארן האו מ-MIT Technology Review הציעה לסייע למנהלים מתחילים, עם מדריך לאיך לדבר על AI בלי להגיד כלום. החלטנו לתרום את חלקנו למאמץ, לטובת הישראלים המבולבלים. ואם אתם מזהים כאן כמה אירועי AI שקרו, זה לא במקרה.
אדם במעגל (human in the loop) - שילוב של בני אדם בתהליך מבוסס AI. יכול לשמש לכל מיני מטרות, מהסתרת היכולות האמיתיות של המערכת ועד הדיפת הטענות שמדובר באוטומציה (ע"ע) של נושאים רגישים.
אוטומציה – הכנסת תהליכים אוטומטיים כדי לחסוך מאמץ מהעובדים שעשו אותם. אגב כך גם לחסוך את המשכורות שלהם. כשמדובר בנושאים רגישים כמו טיפול בבני אדם אפשר להשאיר אדם אחד במעגל (ע"ע).
אחריותיות (accountability) - הפעולה של הצבעה על מישהו אחר, כמי שאחראי לרצף האירועים שהוביל לכישלון ה-AI שלך.
4 צפייה בגלריה
רובוט במוקד שירות לקוחות
רובוט במוקד שירות לקוחות
צ'אטבוט. כי למי יש כוח לבני אדם?
(אילוסטרציה: Shutterstock)
אימון (training) - שלב הפיתוח שבו מדגימים נתונים ל-AI, כך שהיא תדע איך להגיב על הדוגמאות שהמפתחים היו מסוגלים לחשוב עליהם. אחר כך, בשטח (ע"ע), כשמגיע נתון לא מוכר, ה-AI קצת מתחרפנת.
אינטרדיסציפלינרי (interdisciplinary) – תיאור צוות שמעורבים בו גם אנשים שאינם כותבי קוד: חוקרים, מנהלי מוצר, פילוסופים של המוסר. פילוסופים של המוסר תמיד נשמע טוב.
אמינות (trustworthy) – ההנחה בציבור שה-AI שלך עושה את מה שהיא אמורה לעשות. ניתנת להשגה באמצעות כמות מספקת של יחסי ציבור.
בינה מלאכותית אחראית (responsible AI) – מגבלות שהמפתח הכניס ל-AI כדי שהתוצאה לא תהיה קטסטרופלית והלקוח הוציא כדי שהתוצאה תצדיק את ההשקעה.
בינה מלאכותית מוסברת (explainable AI) – מערכת AI שהמפתחים שלה מבינים איך היא מקבלת החלטות. לכל האחרים אפשר להסביר מה שרוצים.
ביקורת (audit) – דו"ח על פעילות ה-AI שלך, ששילמת עליו למישהו אחר כדי שיעשה אותו במקומך, כך שאתה תוכל להפגין שקיפות (ע"ע) מבלי שתצטרך לשנות משהו באמת.
4 צפייה בגלריה
זהירות, רגולטור לפניך
זהירות, רגולטור לפניך
זהירות, רגולטור לפניך
(אילוסטרציה: Shutterstock)
גיוון (diversity), הגינות (equity), הכלה (inclusion) – תיאור של מפתחים וחוקרים מקבוצות מיעוט, שגייסת כדי שניתן יהיה להתהדר בהם מזמן לזמן. כשהם מתחילים לשאול שאלות על הגינות הטכנולוגיה (ע"ע), זה הזמן לפטר אותם.
דיוניות (adversary) – טיעונים של מפתח בודד, שמסוגלים לקלקל את זרם ההכנסות שנובע ממערכת ה-AI החדשה שלך.
הגינות (fairness) – ביטוי שמתאר מערכת AI שאינה מפלה בין בני אדם. ניתנת להגדרה בעשרות דרכים, לפי הצורך.
הגברה (augmentation) - הפעולה שבה אתה מגביר את הפיריון של עובדי הצווארון הלבן בחברה ובו בזמן גורם לעובדי הצווארון הכחול לאבד את עבודתם. עצוב, אבל ככה יצא.
השטח, העולם האמיתי (real world) – כל מה שקורה אחרי שמסתיימת הסימולציה במעבדת הפיתוח. סביבה שמתעקשת להזין ל-AI נתונים שהיא לא מכירה. ואחר כך מתפלאים שהיא מוציאה תוצאות אוויליות?
התאמה (alignment) – הצהרה שה-AI שלך עושה מה שאמרת שהיא תעשה ומקבלת החלטות שאמרת שהיא תקבל. נשמע מעורפל? זו הכוונה. רצוי להימנע משימוש בדוגמאות אמיתיות, שעלולות לקלקל את האפקט.
4 צפייה בגלריה
כך נראית גורילה. לידיעת גוגל
כך נראית גורילה. לידיעת גוגל
כך נראית גורילה. לידיעת גוגל
(צילום: יח"צ)
ולידציה (validation) – בדיקה של ה-AI עם נתונים חדשים, שלא שימשו בזמן אימון (ע"ע) ה-AI. כשזה עובד, זו הפתעה נעימה.
ועדת אתיקה (ethics board) – קבוצה חסרת סמכויות של יועצות ויועצים, שכונסה כדי ליצור רושם שאכפת לחברה. דוגמאות: מועצת האתיקה של גוגל (בוטלה), מועצת הפיקוח של פייסבוק (קיימת, בינתיים).
חיזוי (foresight) – היכולת לנבא את העתיד. בלתי אפשרי באופן מעשי ולכן זה הסבר מצוין למה ה-AI שלך מייצרת תוצאות בלתי צפויות.
סיכון לטווח ארוך (long-term risk) – טעויות קטנות יכולות לגרום לתוצאות הרסניות בעתיד הרחוק. רוב הסיכוי שזה לא יקרה, אבל עדיף לחקור את זה מאשר להתעסק בנזקים שה-AI שלך גורמת כבר היום.
עקרונות אתיקה (ethics principles) - אוסף משפטים מובנים מאליהם, שמשקפים את כוונותיך לעשות טוב. ככל השפה יותר מעורפלת, עוד יותר טוב.
ערך (value) – התמורה הלא-מוחשית שמקבלים המשתמשים מה-AI שלך. פעם משתמשים פשוט 'השתמשו', היום הם 'מקבלים ערך', כשבאותו זמן אתה מייצר הרבה הכנסות.
ערכים (values) - אתה מחזיק בהם כמובן, ומרבה לדבר עליהם.
4 צפייה בגלריה
הבינה המלאכותית בדיכאון
הבינה המלאכותית בדיכאון
הבינה המלאכותית בדיכאון
(אילוסטרציה: Shutterstock)
ציות (compliance) – עשיית פעולות בהתאם לכללי הרגולציה (ע"ע). מה שיפה: כל מה שאינו בלתי חוקי, אפשר לעשות.
רגולציה – מגבלות ל-AI שקובעים מחוקקים, שאין להם שום מושג מה באמת אפשר לעשות היום עם AI. הסבר טוב למה ה-AI שלנו היא סבבה: היא עומדת בדרישות הרגולציה.
שקיפות (transparency) – מלוא המידע על איך עובדת ה-AI שלך, מה המשתנים בהם היא עושה שימוש ומה ההמלצות של ה-AI על בסיס משתנים אלה. להימנע בכל מחיר.
שקלול הפרטיות (privacy trade-off) – נכונות אצילית להקריב את הפרטיות של המשתמשים שלך תמורת היתרונות של קבלת החלטות מבוססת AI. לגמרי במקרה זה גם רווחי הרבה יותר.
תיוג (labeling) – פעולה שעושה אדם לסווג הנתונים שמוזנים ל-AI לפי קטגוריות שנקבעו מראש. ההנחה היא, שאחרי אלף פעמים שתייגת תמונת גורילה, ה-AI תזהה את הגורילה הבאה. לפעמים זה עובד.
אגב, יש לכם עוד מונחים? כתבו לנו ואולי נוסיף.