ביום שישי שעבר, בשעת ערב מוקדמת, עוד הגדירו הנשיא טראמפ ומזכיר המלחמה שלו, פיט הגסת', את חברת הבינה המלאכותית "אנת'רופיק", יצרנית מודל השפה הפופולרי "קלוד", כ"סיכון לביטחון הלאומי של ארה"ב" – הגדרה השמורה בדרך כלל למדינות עוינות כמו סין ורוסיה. אחרי שתיאר אותה ברשת החברתית הפרטית שלו Truth כחברת "ווק" קיצונית המנוהלת על ידי "משוגעים מהשמאל", חתם טראמפ על צו המורה לכל הסוכנויות הפדרליות להפסיק בהדרגה את השימוש במודלי ה-AI שלה, ולבטל את כל החוזים הממשלתיים שכבר נחתמו עמה.
חתם – אבל שעות ספורות אחר-כך כבר תקף פיקוד המרכז של הצבא האמריקאי, "סנטקום", את איראן לצד ישראל, תוך שימוש מאסיבי ב"קלוד" לסיכום מודיעין גולמי ממאות ואלפי מקורות, ולהפקה של פקודות מבצעיות. מדובר בחלק מ"פרויקט Maven" של הפנטגון, שעיקרו סריקת טרה-בייטים של נתונים — אלפי שעות של צילומי לוויין, מטוסים, רחפנים ומל"טים – והפקת תובנות באמצעות AI, שמסייעות לבחור מתוכם מטרות מדויקות.
הפער המדהים בין הרגע שבו יצרנית טכנולוגיה הופכת מאויבת האומה למרכיב עיקרי במכונת המלחמה שלה מבהיר, כי גם הבינה המלאכותית יכולה ליפול קורבן לקיטוב החברתי והאידיאולוגי הגדול ולמלחמת התרבות שקורעים את אמריקה לגזרים.
בכלל, נדמה ש"אנת'רופיק" ו"קלוד" לא מפסיקים לשגע את העולם בשבועות האחרונים: אחרי שהמודל החדש והמתקדם של "קלוד" הקריס את המניות של חברות התוכנה בבורסה, זעזע את המודל העסקי שלהם והציב איום על פרנסתם של מיליוני מתכנתים בעולם, עכשיו הוא מחולל מהפכה דרמטית גם בדרך שבה צבאות נלחמים.
הקונפליקט עם הממשל
במשך עשורים, חלוקת העבודה בין עמק הסיליקון לפנטגון הייתה פשוטה: הממשלה משלמת, חברות הטכנולוגיה מספקות לצבא תוכנות בלי שאלות מיותרות, וכולם מחייכים בדרך אל הבנק. רק שבעידן הבינה המלאכותית, ה"מוצר" הוא כבר לא רק טבלת "אקסל" או מעבד תמלילים, אלא ממש המוח שמאחורי הנשק, ומתלוות אליו דילמות אתיות מורכבות.
מיום היווסדה, "אנת'רופיק" ממצבת את עצמה באופן עקבי כמי שמקפידה במיוחד על בטיחות ומוסריות. המנכ"ל והמייסד שלה, דריו אמודיי, כמו רוב חוקרי הבינה המלאכותית הבולטים בעולם, נוהג להביע בהופעותיו דאגה עמוקה משימוש בלתי מבוקר בבינה מלאכותית. כך, גם במסגרת המו"מ שניהלה מול משרד המלחמה, החברה סירבה להסתפק בהצהרה לפיה הצבא יוכל להשתמש במוצריה ל"כל מטרה חוקית", ועמדה על כך שבשני תחומים לא ייעשה שימוש במודלים שלה: מעקב המוני אחר אזרחים אמריקאים, ונשק אוטונומי קטלני ללא פיקוח אנושי.
"אני מאמין עמוקות", אומר אמודיי, "בחשיבות הקיומית של השימוש בבינה מלאכותית להגנה על ארה"ב ודמוקרטיות אחרות ולהבסת אויבינו, אבל היום, גם מערכות בינה מלאכותית גאוניות פשוט לא אמינות מספיק כדי להפעיל נשקים אוטונומיים לחלוטין".
הממשלים בארה"ב – תחילה בעידן ביידן ובהמשך בתקופת טראמפ – בחנו את שני התנאים הללו וקיבלו אותם. תחת ההבנה הזו, "אנת'רופיק" חברה לענקית ההייטק "פלנטיר" וחתמה עם הפנטגון בקיץ שעבר על חוזה בשווי כ-200 מיליון דולר. "קלוד" היה המודל הראשון שצבא ארה"ב הכניס לרשתות המסווגות שלו. עם זאת, לאורך חודשים ארוכים ניהל איתה הפנטגון מו"מ שקט במטרה לאפשר לעצמו גישה חופשית יותר ליכולות שלה, שלדברי אנשי הביטחון תסייע בהגנה על אמריקה.
ואז הפעיל הנשיא טראמפ את הצבא האמריקאי לחטיפת שליט ונצואלה, ניקולס מדורו, ככל הנראה בסיוע משמעותי של יכולות בינה מלאכותית. בעקבות הפרסומים שהופיעו בנושא, גורמים ב"אנת'רופיק" הרימו טלפון למשרד המלחמה וביקשו פרטים על סוג השימוש המדויק שנעשה ב"קלוד" לצורך המבצע. התגובה הייתה אגרסיבית, והביאה לשבירת כלים ולהסלמה מיידית: בפנטגון טענו כי שני התחומים שעליהם מתעקשת "אנת'רופיק" כוללים "אזורים אפורים" רבים, ולא תמיד ניתן להחליט בקלות מה נכלל בהם ומה לא.
זמן קצר לאחר שהכניס את החברה לרשימה השחורה, כבר הודיע משרד המלחמה על הסכם שחתם עם יריבתה, OpenAI. מנכ"ל OpenAI, סם אלטמן, שהותקף בציבור על הצעד, טען להגנתו כי החוזה שעליו חתם כולל אותם "קווים אדומים" שעליהם עומדת "אנת'רופיק". אמודיי, בתגובה, טען אתמול כי מדובר ב"שקרים מוחלטים"; "אנת'רופיק נענשה", טען, "כיוון שבניגוד לסם אלטמן, אנחנו לא חלקנו שבחים לטראמפ בסגנון דיקטטורי".
אמודיי אולי זועם, אבל לחוץ: שלשום פורסם, כי גם חברת xAI של אלון מאסק הגיעה להסכם עם הפנטגון לשימוש במודל "גרוק" שלה במערכות מסווגות, לאחר שהסכימה להסתפק במגבלה המצומצמת של "שימוש חוקי בלבד". ובמקביל, לפי דיווחים שונים, גם "גוגל" מנהלת משא ומתן עם הפנטגון על שילוב מודל הבינה המלאכותית שלה, "ג'מיני", במערכת צבאית מסווגת.
הסערה שמתחוללת בעמק הסיליקון בעקבות המהלך מטלטלת את תעשיית הטכנולוגיה בארה"ב: גם מי שמאמינים שכל הכבדה ורגולציה על פיתוח AI בארה"ב תוביל לאובדן היתרון התחרותי שלה מול סין, זועמים על הפגיעה באחת מחברות הבינה המלאכותית המבטיחות ביותר באמריקה. כמעט 500 עובדים מ-OpenAI וגוגל היריבות חתמו על מכתב פתוח נגד הממשל. "הם מנסים לפצל אותנו", טענו.
על האהדה הציבורית שזוכים לה אמודיי ואנשיו אפשר ללמוד מן העובדה, שבבת-אחת כבש "קלוד" את המקום הראשון ברשימת היישומים החינמיים של "אפל סטור" בארה"ב, כשהוא שובר שיא של יותר מ-400 אלף הורדות ביממה. מספר המשתמשים החינמיים הפעילים שלו עלה ב-60% ומספר המנויים בתשלום הוכפל. במקביל ספגה OpenAI פגיעה קשה במוניטין, כאשר משתמשים רבים הצהירו כי הם מוחקים את האפליקציה שלה, ChatGPT.
הפרשה, המסעירה את התקשורת האמריקאית, רחוקה מלהסתיים: אתמול נודע כי המנכ"ל אמודיי חוזר לשיחות עם משרד ההגנה, במטרה להגיע לפשרה; בכל זאת, אובדן רווח של 200 מיליון דולר לא הולך ברגל.
דילמת קבלת ההחלטות
חילוקי דעות בין ראשי התעשייה, חוקרים ואנשי אקדמיה לגבי שימושים צבאיים ב-AI, קיימים כבר תקופה ארוכה. ב-2018 נאלצה "גוגל" לסגת מעסקה קודמת עם הפנטגון, גם היא במסגרת "פרויקט Maven", בשל מרד מהנדסים פנימי בתוך החברה. מצד שני, חברות כמו "פלנטיר" ו"אנדוריל" (Anduril), המרבות לעבוד עם הממשל האמריקאי, נאט"ו ואוקראינה, חוזרות וטוענות, בניגוד לטענות "אנת'רופיק", כי אם ארה"ב תטיל על עצמה מגבלות מוגזמות בזמן שסין ממשיכה לפתח במרץ מערכות אוטונומיות מהירות פי 100 – היא עלולה להישאר מאחור; "אם אנחנו לא נהיה שם עם AI קטלני, האויבים שלנו יהיו".
ואכן, במערכות ה-AI שמפתחים הסינים, בניגוד למערכות המערביות, אין חובה לשלב אדם במעגל קבלת ההחלטות (Human in the loop). דוגמה טובה היא "טכנולוגיית הנחילים", שבה נחשבת סין מובילה עולמית: שיגור של "נחילים" בני יותר מ-200 כטב"מים, המתקשרים ביניהם בלי מעורבות אנושית, מחלקים ביניהם משימות תצפית ותקיפה, ויודעים אפילו "לפצות" על אובדן של כלים בודדים. הנחיל יכול לקבל החלטת תקיפה קבוצתית על סמך זיהוי מטרה עצמאי בלבד.
ושוב, מן העבר השני — לפי מקורות שמצטט המגזין המקוון Axios, מנהלים רבים ב-OpenAI וב"גוגל" מעלים חששות לגבי אופן השימוש הצבאי האפשרי במודלים שלהם. לדבריהם, גם הם, בחברות המפתחות עצמן, אינם יודעים כיצד מודלי ה-AI שפיתחו יגיבו בתרחישים מסוימים. "המוצר שאנחנו מייצרים", הם אומרים, "לא דומה למכשיר פיזי, שאתה יכול לבדוק מראש אם יעמוד בחום כזה או אחר. כאן השאלה היא מה הסיכון שהמודל יעשה משהו בלתי צפוי, ואם מדובר באחד למיליון – האם שווה או לא לקחת אותו". למשל, אם נשק אוטונומי המופעל באופן עצמאי יוכל להפיל רחפנים מסוכנים - האם זה אתי לפרוס אותו כאשר קיים סיכוי קטן שהוא יוכל לירות גם על מטוס אזרחי תמים?
המחלוקת הפנימית המרתקת הזו, שנידונה עד כה רק בכנסים מקצועיים, הפכה עכשיו בבת-אחת לסוגיה פוליטית נפיצה. השמאל האמריקאי מיהר לאמץ את "אנת'רופיק", אולי בעל כורחה, כסמל ההתנגדות לטראמפ: הזמרת קייטי פרי, למשל, הידועה בהתנגדותה לממשל, פרסמה צילום מסך ב-X, שמלמד כי היא מנויה ל"קלוד פרו", המנוי היקר ביותר של "אנת'רופיק", וקראה למעריציה לבטל את המינויים ל-ChatGPT.
מנכ"ל OpenAI, סם אלטמן, שנבהל מן הזעם בציבור ובקרב עובדיו, חזר וטען השבוע, כי החברה שלו הציבה לממשל תנאים דומים לאלו שהציבה "אנת'רופיק". "אנחנו מאמינים זמן רב שבינה מלאכותית לא צריכה לשמש למעקב המוני או לנשק קטלני אוטונומי, ושבני אדם צריכים להישאר מעודכנים בהחלטות אוטומטיות בעלות סיכון גבוה. אלה הקווים האדומים העיקריים שלנו", כתב לעובדים, "נבקש שהחוזה יכסה כל שימוש, למעט כזה שאינו חוקי או לא מתאים לפריסת ענן, כגון מעקב פנימי ונשק התקפי אוטונומי".
מלחמה יותר מדוייקת
הוויכוח כבר אינו תיאורטי: אם בעבר הלא-רחוק הבינה המלאכותית שימשה בעיקר ככלי עזר לניתוח נתונים, במלחמה מול איראן היא עברה לכיסא הנהג. השימוש המאסיבי שעושים הצבא הישראלי והצבא האמריקאי בטכנולוגיה הטרייה חוצה תחומים: בתכנון ההיקף העצום של המתקפות, בתיאום המדוקדק של נוכחות מאות מטוסים במקביל באוויר, בהחלטות המהירות על דרך היירוט של הטילים הבליסטיים ועוד ועוד.
הפרטים, כמובן, עטופים במעטה כבד של חשאיות, אבל חלקם נחשפים בהדרגה. ברור שלא מדובר ברובוטים תוקפים בסגנון "שליחות קטלנית", אלא במערכות תומכות החלטה, שיודעות לעבד כמויות נתונים שאנשי מודיעין לא יוכלו לעכל גם בעשרות שנים, ולהתמקד במידע החשוב באמת. ה"גרדיאן" הבריטי קבע השבוע, כי הקצב המדהים שבו המטרות מיוצרות, מאושרות ויוצאות לפועל במלחמה הנוכחית "מהיר יותר ממהירות המחשבה". מדובר במהפך דרמטי בתורת הלחימה המודרנית, שהופך אותה ממוקדת, חסכונית, וקטלנית בהרבה.
האם צודקת "אנת'רופיק" כשהיא מזהירה מפני הסכנות האתיות והמוסריות הכרוכות בבינה המלאכותית כשהיא הופכת לכלי נשק? האם אלגוריתם AI יכול באמת להבדיל בין מחבל עם RPG לבין ילד עם צעצוע? ומי האחראי במקרה של תקיפה שגויה – מודל ה-AI? המתכנת שכתב את הקוד? המפקד שאישר את המערכת?
אם בפנטגון גורסים כי את ההחלטה אם לעשות שימוש במודלים צריכים לקבל מפקדי הצבא, לא מנהלים בעמק הסיליקון — בצה"ל (כמו גם בנאט"ו, אגב) קובעים בבירור: החלטות משמעותיות, בטח כאלה הנוגעות לחיי אדם, מתקבלות תמיד על ידי מפקד בשר ודם. מערכות ה-AI בצה"ל נועדו לניתוח ומיצוי נתונים בלבד, ואף אחת מהן לא מקבלת החלטות ביצועיות עצמאית. גם כשנבחרת מטרה לסיכול בזכות הנתונים הללו, היא נבחנת באופן פרטני על-ידי קצינים בכירים: "לעולם לא יהיה מצב שבינה מלאכותית תקבל החלטה עבורנו". בצה"ל טוענים גם, כי השימוש ב-AI דווקא מצמצם פגיעה בחפים מפשע, כי הוא מאפשר דיוק גבוה יותר.
בלי ספק, ה-AI מקצרת משמעותית את הזמן שחולף מהזיהוי הראשוני של המטרה ועד להשמדה הסופית. לשם השוואה: במלחמת העולם השנייה, הזמן שחלף מאיסוף מודיעין כמו סיור אווירי ועד ביצוע משימת הפצצה יכול היה להימשך עד שישה חודשים. זיהוי מטרות במהלך הפלישה האמריקאית לעיראק, שדרש אז יחידת מודיעין בת 2,000 חיילים, דרש במבצע הנוכחי באיראן 20 חיילים בלבד.
גם ישראל, מצידה, לפי פרסומים זרים, עשתה שימוש השבוע במערכות בינה מלאכותית המכונות "הבשורה" ו"לבנדר", אלה שסייעו לה בשנתיים האחרונות לאיתור ולזיהוי מטרות בעזה. מערכת "הבשורה", לפי תחקיר של "מגזין "972+" שצוטט בהרחבה ב"גרדיאן" ב-2023, משמשת לייצור אוטומטי של המלצות לתקיפת מבנים ומתקנים (מטרות "עוצם") - אתרי גרעין, מתקני נפט ומפקדות של משמרות המהפכה. היא מעבדת ומצליבה צילומי לוויין, נתוני תקשורת, מודיעין אנושי ומידעים שמתקבלים מאלפי מקורות אחרים, כדי לסמן מבנים ואתרים שמהם פועלים פעילי טרור.
אם "הבשורה" מתמקדת בבניינים, "לבנדר" — לפי אותם פרסומים — מתמקדת באנשים. מדובר במאגר מידע מבוסס AI שסורק ומעבד כמויות עצומות של נתוני מעקב, כגון קשרים חברתיים והיסטוריית מיקום, כדי לסמן מטרות פוטנציאליות. מערכת נוספת משלימה את התהליך, ונועדה לעקוב אחרי מי שסומנו על ידה ולהתריע בזמן אמת ברגע שהם נכנסים למבנה מגורים מוגדר.
מלחמת "שאגת הארי" היא הראשונה שבה פועלת "בינה", חטיבת הבינה המלאכותית החדשה שהוקמה בצה"ל רק לפני חודשים ספורים, שבראשה עומד תא"ל. היעד, לפי מפקד אגף התקשוב וההגנה בסייבר, אלוף אביעד דגן, הוא "להפוך טנק אחד למאה טנקים, וחייל אחד למאה לוחמים".
8200 ומיקרוסופט כמשל
אסור לשגות באשליות: הוויכוח הפנימי שהתעורר בארה"ב סביב מאבקו של ממשל טראמפ ב"אנת'רופיק" נוגע ישירות גם לישראל. תזכורת: בספטמבר אשתקד חסמה מיקרוסופט את הגישה של יחידה 8200 של צה"ל לשירותי הענן שלה (Azure), לא לפני שוועדה מיוחדת, שהקימה אחרי לחץ ציבורי עצום, מצאה כי שרתי החברה שימשו לאחסון ועיבוד נתונים של מערכת מעקב אחר פלסטינים בעזה ובשטחים. הדרך היחידה להפיק תובנות אפקטיביות מהיקף אדיר כזה של מידע גולמי היא שימוש בבינה מלאכותית.
מדובר בתקדים מסוכן של "סגירת שאלטר" מסיבה פוליטית-אידיאולוגית: אין בינה מלאכותית בלי מודלים מתקדמים, בלי שרתים לאחסון מידע עצום ובלי כלי תוכנה לעיבודו. כמעט כולם מיוצרים כיום בעיקר בארה"ב. פרויקט "נימבוס", החוזה בשווי 1.2 מיליארד דולר שחתמו גוגל ואמזון עם ממשלת ישראל לאספקת שירותי אחסון בהיקף גדול, הפך כבר לסמל המחאות הפנימיות הסוערות בשתי החברות, ולא רק בהן, נגד שיתוף הפעולה שלהן עם הצבא הישראלי. במערכת הביטחון מבינים כבר שאסור "לשים את כל הביצים בסל אחד". שהסתמכות רק על "עננים ציבוריים" ומודלי AI בתשלום היא בעיה אסטרטגית.
זו הסיבה, כנראה, שבגללה נכללו מלכתחילה בחוזי "נימבוס" "סעיפי אל-חזור" משפטיים, שלמעשה מונעים מגוגל ומאמזון להפסיק את שירותיהן בשל לחצים או החלטות פוליטיות. גם העובדה שהשרתים נמצאים פיזית על אדמת ישראל ומנוהלים על ידי צוותים מקומיים מרגיעה. אבל כדי להתגבר על הגבלות והתניות עתידיות, הפיתרון המוביל הוא כנראה מעבר למודלי AI ב"קוד פתוח" (כמו Llama של מטא): מודלים כאלה אפשר להריץ על שרתים של צה"ל ללא חיבור לאינטרנט ולאמן אותם על נתונים צבאיים מסווגים מבלי שהמידע יזלוג החוצה.
בעיה אחת ישראל תתקשה לפתור לבדה, והיא בכלל מתחום החומרה: השבבים. מודלי ה-AI המתקדמים רצים על מעבדים ייחודיים, רובם המוחלט מתוצרת "אנבידיה" ומיעוטם מתוצרת ענקיות טכנולוגיה מתחרות, גם הן אמריקאיות. עם כל הכבוד לעובדה שרוב המעבדים הללו מפותחים בכלל בארץ, ולידידות המופגנת של ראשי "אנבידיה" לישראל - אם ממשל אמריקאי עתידי יחליט, למשל, להטיל אמברגו כללי על ייצוא שבבים כאלה, וכבר היו דברים מעולם, מערכת הביטחון תמצא את עצמה בבעיה קשה.










