תחום הבינה המלאכותית נמצא איתנו כבר לא מעט שנים. כמו תחומים אחרים הוא החל בסרטים הוליוודיים על העתיד, המשיך במודלים מתקדמים שמדענים בתחומים שונים השתמשו בהם כדי לפתור בעיות מורכבות ולבסוף הגיע ה-Chat GPT שמשמש את כולם ככלי עזר למענה לכל שאלה אפשרית, על בסיס כלל הידע האנושי הקיים
כאשר טכנולוגיה הופכת להיות נחלת הכלל, העולם חייב שתהיה לגביה תפיסה והתייחסות גם במישורים ארגוניים ורגולטורים רבים, אפקטי שימוש, תופעות לוואי, הטיות תרבותיות והיבטים נוספים.
2 צפייה בגלריה
(צילום: דיפוזיט אימג')
היום ברור לדוגמא, ש-Chat GPT מסוגל לסייע בכתיבת קוד בפיתוח תוכנות חדשות, תרומה חיובית בהחלט. עם זאת, מתרבות הדוגמאות בהן הוא יכול לסייע גם למציאת פרצות בתוכנה שהינן ה"דלק" המניע מתקפות סייבר. לפיכך, בעוד שבשימוש הראשון רוב ההיבטים חיוביים, עולה שיש לבצע בקרה, הגבלה או מנגנון אחר כדי לא לאפשר ליכולות ה-AI לסייע בתקיפת המערכות הממוחשבות של העולם. גם בהקשרים יומיומיים אחרים עולות שאלות. כשם שלמשל Chat GPT מסייע לעובדים בחברות בכתיבת מסמכים, מה צריכה להיות המדיניות בנוגע לסיוע לסטודנטים או תלמידים בכתיבת עבודותיהם?
מהפכת המכשירים הניידים כמשל - ככל שההשפעה מתרחבת, כך צריך לקחת החלטות
מהפכת המכשירים הניידים היא מקרה דומה לתהליך כזה. בהתחלה היו אלו בודדים שהחלו להשתמש במכשירים הללו ולא היו פערים משמעותיים, אולם עם הפיכת השימוש במכשירים הללו להמוני, החלו לצוף החלטות ושכבות מסייעות שמתחייבות מהיקף התופעה. היה צורך לבדוק מהן השפעות הקרינה, איזו אבטחה יש על המידע בתוכם ומה עושים עם מכשירים שסיימו את תפקידם. התברר שיש סכנה בטיסות, וכך נדרש היה להחליט מהי מדיניות רשויות התעופה לעניין באופן גלובלי. נדרש היה לקבוע היכן עובר הגבול בין החברה שמייצרת את המכשיר לחברה שנותנת את השירות (Service Provider) בהקשרי מידע, תפעול ואחריות. ארגונים היו צריכים לקבוע האם הם מחלקים לאנשיהם מכשירים ניידים או לא, בכמה מחייבים אותם, מה עושים עם המידע, מהם ההגבלות לשימוש נכון בניידים ועוד. כל השכבות המסייעות הללו דורשות החלטות של אנשי מפתח בארגון שאינם מומחי טלפונים ניידים. בדילמות כאלה משתתפים גורמי הנהלה מתחומי הליבה של הארגון והתחומים המקצועיים: כלכלה וכספים, משאבי אנוש, ייעוץ משפטי ואחרים. דיון רציני בעניין מניח שכל אחד ואחת מהנוכחים מבין את הרקע הכללי, התנסה בשימוש בו בעבר, ויכול/ה לדמיין את האספקטים הארגונים של השימוש הנרחב במכשיר על הארגון ואפילו על החברה והמדינה.
2 צפייה בגלריה
 ד"ר יניב הראל
 ד"ר יניב הראל
ד"ר יניב הראל
(צילום: מיכל בנדל)
ה-AI מתקדם בצעדי ענק – הרגולציה של התחום נבנית בימים אלו
תחום הבינה המלאכותית עשה בשנתיים האחרונות קפיצה בקצב חריג בכל קנה מידה, מטכנולוגיה המשרתת מומחים לזו המסייעת לכולם. בניגוד למהפכת המכשירים הניידים, שבה נדרש לרכוש מכשיר בחנות, להצטרף לנותן שירות ולהתקין אפליקציות, ההצטרפות ל-Chat GPT או לשירותי Gen AI אחרים כרוכה ברישום מהיר ופשוט והתחלת שימוש מיידית. לאור זאת, השימוש הנרחב בטכנולוגיה הצליח לתת שירות לחלקים נרחבים באוכלוסייה והפך לשיחת היום בעולם הגלובלי בקצב חסר תקדים.
אנחנו נמצאים בדיוק בשלב בו קצב ההתפשטות של ה-AI משיג את התפתחות השכבות המסייעות שאמורות לתמוך בהפיכתו לנפוץ. העולם משנס מותניים בימים אלה ועוסק בעוצמה רבה בבניית רגולציה עבור התחום, הסדרה של צורת השימוש בו, איתור סיכונים, קבלת החלטות ארגוניות באשר לעמדת חברות בנושא השימוש בטכנולוגיות אלו, קבלת החלטות מדינתיות לגבי הגבלות של היכולות הללו, ובניית האופן בו הציבור הרחב יצרוך את הכלים הללו.
המנהלים של היום חייבים להיות חלק מתהליך קבלת ההחלטות
על מנת לקחת חלק ולקבל החלטות בתחום, כל מנהל.ת, גם מי שלא חובב טכנולוגיה או מומחה לתחום, יתבקש להביע את דעתו ולהיות חלק מהתהליך. השאלות לא תהיינה טכנולוגיות אלא יעסקו בנגזרות הארגוניות של הטכנולוגיה. התשובה: "אני לא מבין.ה בכל העולם המתפתח הזה" תמנע ממנהלים.ות שלא יוכלו להשתלב בדיון, להשפיע על עיצוב ארגוניהם לשנים הקרובות. החשיבות לכך עולה כבר בימים אלה בכל הסקטורים ובמגוון חברות מתחומים שונים; פיננסים, ביטוח, בריאות, אירוח, גז ובנייה לצד חברות טכנולוגיה, תוכנה ותקשורת.
  • ד"ר יניב הראל – מנהל אקדמי של קורס בינה מלאכותית למנהלים.ות בלהב, משמש כ-CSO של מרכז המחקר ICRC באוניברסיטת תל-אביב ולשעבר מנכ"ל קבוצת פתרונות הסייבר של DELL.
קורס בינה מלאכותית למנהלים.ות ייפתח בלהב פיתוח מנהלים באוניברסיטת תל-אביב ב-18.2.24. בקורס יחשפו המשתתפים.ות לרקע הדרוש להבנת המורכבויות, השאלות האתיות והדילמות שטרם נפתרו באשר לשלל יכולות ה AI, ההיבטים הטכנולוגיים הכלליים

פורסם לראשונה: 16:06, 03.01.24