נשיא ארה"ב ג'ו ביידן וסגניתו קמלה האריס נפגשו הערב (יום ה') בבית הלבן עם המנכ"לים של גוגל, מיקרוסופט, OpenAI ואנתרופיק, ארבע מהחברות שעומדות בחוד החנית של תחום הבינה המלאכותית שההתפתחות המהירה שלו מעוררת דאגה עולמית בחודשים האחרונים. סגנית הנשיא האריס הבהירה למנכ"לים במהלך הפגישה כי מוטלת עליהם "אחריות חוקית ומוסרית" לוודא שהמוצרים שלהם בטוחים לשימוש.
3 צפייה בגלריה
סם אלטמן וסונדר פיצ'אי בכניסה לפגישה בבית הלבן
סם אלטמן וסונדר פיצ'אי בכניסה לפגישה בבית הלבן
סם אלטמן (מימין) וסונדר פיצ'אי בכניסה לפגישה בבית הלבן
(צילום: Evan Vucci / AP)
3 צפייה בגלריה
סאטיה נאדלה בכניסה לפגישה בבית הלבן
סאטיה נאדלה בכניסה לפגישה בבית הלבן
סאטיה נאדלה (מימין) בכניסה לפגישה בבית הלבן
(צילום: Evan Vucci / AP)

עוד כתבות שיעניינו אתכם:

בפגישה שארכה כשעתיים השתתפו מנכ"ל גוגל סונדר פיצאי, מנכ"ל מיקרוסופט סאטיה נאדלה, מנכ"ל OpenAI סם אלטמן ומנכ"ל אנתרופיק דריו אמודאי. בלטו בהיעדרם המנכ"לים של ענקיות הטכנולוגיה אמזון ומטא, שגם הן פעילות מאוד בתחום הבינה המלאכותית, אם כי לא ברור אם הם הוזמנו לפגישה. מהצד של הממשל השתתפו סגנית הנשיא האריס, שרת המסחר ג'ינה ריימונדו, ראש הסגל של ביידן ג'ף זינטס, היועץ לביטחון לאומי ג'ייק סאליבן וראש המועצה הכלכלית הלאומית לאל בריינארד. הנשיא ביידן לא היה אמור להשתתף בפגישה, אך לפי הבית הלבן הוא החליט אליה להצטרף באופן ספונטני. האריס אמרה בפגישה כי היא וביידן תומכים בחקיקה בתחום הבינה המלאכותית ומקדמים רגולציה חדשה. מהבית הלבן נמסר כי ביידן והאריס הבהירו כי "על מנת ליהנות מהיתרונות שנובעים מההתקדמות ב-AI, חשוב לצמצם את הסיכונים הקיימים והפוטנציאליים ש-AI יכול לגרום לבני אדם, לחברה ולביטחון הלאומי. מדובר בסיכונים הקשורים לבטיחות, לביטחון, לזכויות אדם ואזרח, לפרטיות, למשרות ולערכים דמוקרטיים". עוד נמסר כי בממשל קראו למנכ"לים "להפגין התנהגות אחראית ולפעול על מנת לוודא שהחדשנות נעשית בצורה אחראית עם אמצעי הבטיחות הנדרשים" וכן "להבטיח את הפרטיות והבטיחות של האזרחים". מנכ"ל OpenAI סם אלטמן אמר לאחר הפגישה כי באופן מפתיע, בקרב החברות יש תמימות דעים לגבי מה שצריך לקרות בתחום.
בבית הלבן אמרו לפני הפגישה כי ביידן מעורה מאוד בנושא ואפילו התנסה בעצמו ב-ChatGPT, הצ'אטבוט הפופולרי של OpenAI שנחשב למוצר שהצית את מרוץ הבינה המלאכותית הנוכחי. "אנחנו מתכננים לנהל דיון כן בנוגע לסיכונים שאנחנו רואים בפיתוח של בינה מלאכותית כרגע ובעתיד הקרוב", אמר בכיר בממשל בעילום שם לפני הפגישה, "כוכב הצפון שלנו הוא הרעיון שאם אנחנו הולכים ליהנות מהיתרונות, אנחנו צריכים להתחיל בלנהל את הסיכונים". לקראת הפגישה הכריז הבית הלבן על השקעה של 140 מיליון דולר בהקמת שבעה מכוני מחקר חדשים בתחום ה-AI. כמו כן נמסר כי הבית הלבן יפרסם קווים מנחים לשימוש בבינה מלאכותית על ידי הממשלה הפדרלית וכי החברות אנתרופיק, גוגל, Hugging Face, אנבידיה, OpenAI ו-Stabillity AI הסכימו להעמיד את המערכות שהן מפתחות לבדיקה פומבית במסגרת כנס הסייבר DEFCON שיתקיים בקיץ.
3 צפייה בגלריה
GPT-4
GPT-4
GPT-4, מודל השפה המתקדם של OpenAI
(צילום: Tada Images / Shutterstock.com)
מאז ש-ChatGPT הושק בנובמבר 2022, התפתח בתעשיית הטכנולוגיה "מרוץ חימוש" בתחום ה-AI: מיקרוסופט וגוגל מטמיעות בקצב מהיר יכולות חדשות של בינה מלאכותית יוצרת במוצרי הליבה שלהן; חברות כמו אנתרופיק, Inflection ו-Stabillity AI השיקו מודלי שפה גדולים וצ'אטבוטים מתקדמים; ולפי ההערכות יותר ממיליארד וחצי דולר הושקעו בסטארטאפים בתחום ברבעון הראשון של 2023. הדינמיקה הזאת מעוררת בקרב רגולטורים וחוקרים חשש כי הטכנולוגיה העוצמתית הזאת יוצאת ממרכזי המחקר והפיתוח ומגיעה אל המשתמשים מבלי שמוקדשת מספיק מחשבה לסיכונים שהיא מעמידה בפני החברה האנושית. החששות המרכזיים נוגעים לאיסוף המידע המאסיבי שנדרש כדי לאמן את האלגוריתמים של הבינה המלאכותית - תהליך שעשוי לפגוע בפרטיות ובזכויות יוצרים - וכן לעובדה שהטכנולוגיה יכולה לשמש ליצירת והפצת פייק ניוז ודיסאינפורמציה, לסייע להאקרים בביצוע מתקפות סייבר, וכן לשבש תעשיות שלמות ולהשתלט על משרות. חוקרים מסוימים מאמינים כי בטווח הארוך, בינה מלאכותית יכולה לפתח יכולות מתקדמות יותר משל בני האדם ולהוות סיכון ממשי לאנושות.