מסמך מדיניות חדש שמטא פרסמה היום (ג') רומז כי ישנם תרחישים מסוימים בהם החברה עשויה להחליט שלא לשחרר מערכת AI בעלת יכולות מתקדמות במיוחד פרי פיתוחה. המסמך עצמו סותר את הצהרת המנכ"ל, מארק צוקרברג, שהתחייב להנגיש לציבור הרחב בינה מלאכותית כללית (AGI).
4 צפייה בגלריה
מנכ"ל מטא, מארק צוקרברג, בעת הצגת Meta AI
מנכ"ל מטא, מארק צוקרברג, בעת הצגת Meta AI
מנכ"ל מטא, מארק צוקרברג, בעת הצגת Meta AI
(רויטרס)
למרות שההגדרה של AGI עדיין לא מדויקת, ויש את אלו החוששים שהכוונה היא לבינה מלאכותית בעלת תבונה אנושית – לרוב הכוונה היא לבינה מלאכותית המסוגלת לבצע כל משימה אותה יכול לבצע בן אדם.

היום שבו בינה מלאכותית תהפוך למסוכנת מדי

אולם, במסמך המדיניות, שמטא מכנה "מסגרות הבינה המלאכותית החלוצית", הכותבים מזהים שני סוגים של מערכות בינה מלאכותית שהחברה מחשיבה כמסוכנות מדי: מערכות "בסיכון גבוה" ומערכות "בסיכון קריטי".
כפי שמטא מגדירה אותן, מערכות בסיכון גבוה וגם בסיכון קריטי מסוגלות לסייע למשל במתקפות סייבר, בתקיפות כימיות ובתקיפות ביולוגיות. מערכות בסיכון קריטי עלולות לגרום ל"תוצאה קטסטרופלית שלא ניתן יהיה למתן", כמו למשל שואה גרעינית (זוכרים את הסרט "משחקי מלחמה" מהאייטיז? אז כזה), בעוד שמערכות בסיכון גבוה עשויות להקל על ביצוע מתקפה, אך לא בצורה יעילה או ודאית.
4 צפייה בגלריה
המלחמה ההיברידית
המלחמה ההיברידית
ככל שהבינה המלאכותית מתקדמת - כך גם משתכללות מתקפות הסייבר
(עיבוד תמונה. צילום: AP, Shutterstock)
אז על אילו סוגים של מתקפות מדובר? מטא נותנת דוגמאות, כמו "פריצה אוטומטית של סביבה ארגונית מוגנת מקצה לקצה" כלומר השתלטות מוחלטת של האקרים על מערכות מחשוב ארגוניות. או "הפצת כלי נשק ביולוגיים בעלי סיכון גבוה", כלומר מגפת קורונה על סטרואידים.
רשימת האסונות האפשריים במסמך של מטא רחוקה מלהיות ממצה, כך מודה החברה, אך היא כוללת את אלה שמטא מאמינה שהם "המיידיים ביותר" ושסביר שיקרו כתוצאה מהפצת מערכת בינה מלאכותית רבת עוצמה כמו AGI.
מה שמפתיע במסמך, הוא שמטא מסווגת את הסיכון שמערכת כזו מהווה לא על סמך בדיקה אמפירית, אלא על סמך הערכות של חוקרים הכפופים ל"מקבלי החלטות בכירים" בחברה. או במילים אחרות - מדובר על הערכות שבחלקן עשויות אולי להתבסס על תחושות בטן או אידאולוגיה.
נשמע מוזר שחברה כמו מטא תתבסס על הערכות תיאורטיות מעין אלה כדי להעריך סיכונים של מערכות טכנולוגיות. החברה טוענת מנגד שהיא לא מאמינה בכך שניתן להעריך באופן מדעי מידת סיכון של מערכת, או כפי שכתוב במסמך: "חד משמעי מספיק כדי לספק מדדים כמותיים מובהקים להחלטה", כך לפי הדיווח של אתר TechCrunch.
4 צפייה בגלריה
מנכ"ל מטא מארק צוקרברג בטקס השבעת טראמפ ארה"ב
מנכ"ל מטא מארק צוקרברג בטקס השבעת טראמפ ארה"ב
צוקרברג בטקס השבעתו של טראמפ לנשיאות. מטא תעריך באופן תיאורטי את רמת הסיכון של מערכות AI
(צילום: AFP)

ברכת וקללת הקוד הפתוח

כאמור יש צורך להעריך (לא מדעית, כן?) אם מערכת היא בסיכון גבוה. אם התשובה חיובית, מטא תגביל את הגישה אליה באופן פנימי ולא תשחרר אותה עד שתיישם אמצעי הגנה שמטרתם "להפחית את הסיכון לרמות מתונות" (שימו לב שגם סיכון מתון הוא סביר מבחינת מטא, ר"ק). אם, לעומת זאת, מערכת תיחשב כבעלת סיכון קריטי, מטא טוענת כי היא תיישם אמצעי הגנה לא מוגדרים כדי למנוע את חדירת המערכת ולעצור את הפיתוח שלה עד שניתן יהיה להפוך אותה לפחות מסוכנת.
נראה כי מסגרת הבינה המלאכותית של מטא, שלדברי החברה תתפתח עם הזמן ואשר התחייבה לפרסם לפני הפסגה הבינלאומית שצפויה בפריז בנושא בסוף החודש, היא תגובה לביקורת על הגישה "הפתוחה" של החברה לפיתוח מערכות AI.
כידוע, מטא אימצה אסטרטגיה של הנגשת טכנולוגיית הבינה המלאכותית שלה (אם כי לא בקוד פתוח בהגדרה המקובלת), זאת בניגוד לחברות כמו OpenAI שבוחרות לכלוא את המערכות שלהן מאחורי API. למרות שהאחרונה החלה לגשש אל עבר הקוד הפתוח, עבור מטא הגישה הזו התגלתה גם ברכה וגם קללה.
4 צפייה בגלריה
מודל השפה של מטא, LLaMA
מודל השפה של מטא, LLaMA
מודל השפה של מטא, LLaMA. הקוד הפתוח התברר כקללה וברכה
(צילום: rafapress / Shutterstock)
משפחת מודלי הבינה המלאכותית של החברה, Llama, אמנם צברה מאות מיליוני הורדות, אבל גם דווח כי נעשה בה שימוש על ידי לפחות יריב אחד של ארה"ב לשם פיתוח טכנולוגיות הגנה מתקדמות. בפרסום מסגרת הבינה המלאכותית שלה, מטא עשויה גם להשוות את האסטרטגיה שלה לזו של חברת ה-AI הסינית DeepSeek שעוררה לאחרונה הדים והשפיעה גם על החברה.
אבל לבינה המלאכותית הסינית יש מעט מאוד אמצעי הגנה וניתן להשתמש בה בקלות ליצירה של פלט מזיק. זה אפילו הפך לספורט עממי בקרב האקרים ברשת לגרום לה לומר או לבצע כל מיני דברים שהיא לא הייתה אמורה (למרות שבכל מה שקשור לנושאים שנויים במחלוקת בסין - הצ'אטבוט מיישר קו עם המדיניות של המפלגה הקומוניסטית).
כך או כך, המסמך של מטא אולי לא מהווה הצהרה רשמית על מדיניות, אבל הוא מספק הצצה מעניינת לניסיון שלה להלך בין הטיפות בתחום בו הרגולציה עדיין רחוקה מלמתן את הסיכונים הפוטנציאליים של הטכנולוגיה.