אם המבצעים של צה"ל בעזה היו הפיילוט, אפשר לומר שמלחמת "שאגת הארי", או "זעם אפי" (Epic Fury) בגרסה האמריקאית, היא למעשה מלחמת הבינה המלאכותית הכוללת הראשונה בהיסטוריה.
אם בעבר הלא רחוק הבינה המלאכותית שימשה בעיקר ככלי עזר לניתוח נתונים, במלחמה הנוכחית היא עברה לכיסא הנהג. השימוש המאסיבי שעושים שני הצבאות בטכנולוגיה הטרייה חוצה תחומים: בתכנון ההיקף העצום של המתקפות על המטרות האיראניות, בתיאום המדוקדק של נוכחות מאות מטוסים במקביל באוויר, בהחלטות המהירות על דרך היירוט של הטילים הבליסטיים ועוד ועוד.
9 צפייה בגלריה
ההרס בטהרן
ההרס בטהרן
ההרס בטהרן
(צילום: Majid Asgaripour/WANA (West Asia News Agency) via REUTERS )

מהפך דרמטי

הפרטים, כמובן, עטופים במעטה כבד של חשאיות, אבל חלקם נחשפים בהדרגה. ברור שלא מדובר ברובוטים תוקפים בסגנון "שליחות קטלנית", אלא במערכות תומכות החלטה, שיודעות לעבד כמויות נתונים שאנשי מודיעין לא יוכלו לעכל גם בעשרות שנים, ולהתמקד במידע החשוב באמת.
ה"גארדיאן" הבריטי קבע השבוע, כי הקצב המדהים שבו המטרות מיוצרות, מאושרות ויוצאות לפועל במלחמה הנוכחית "מהיר יותר ממהירות המחשבה". מדובר במהפך דרמטי בתורת הלחימה המודרנית, שהופך אותה ממוקדת, חסכונית, וקטלנית בהרבה.
בלי ספק, ה-AI מקצרת משמעותית את הזמן שחולף מהזיהוי הראשוני של המטרה ועד להשמדה הסופית. לשם השוואה: במלחמת העולם השנייה, הזמן שחלף מאיסוף מודיעין כמו סיור אווירי ועד ביצוע משימת הפצצה יכול היה להימשך עד שישה חודשים.
ואם נסתכל על העבר הקרוב יותר - לפי "הטיימס" הבריטי, זיהוי מטרות במהלך הפלישה האמריקאית לעיראק, שדרש אז יחידת מודיעין בת 2,000 חיילים, דרש במבצע הנוכחי באיראן 20 חיילים בלבד.
9 צפייה בגלריה
 תיעוד מתקיפת מסוק וחיילים איראנים
 תיעוד מתקיפת מסוק וחיילים איראנים
תיעוד מתקיפת מסוק וחיילים איראנים
( צילום: דובר צה"ל )
פיקוד המרכז של הצבא האמריקאי, סנטקום, מיישם במלחמה הזו את "פרויקט Maven" שהוכרז ב-2017, ומטמיע שימוש במודלי שפה גדולים (LLMs), בעיקר קלוד של אנת'רופיק ומהשבוע גם המודלים של OpenAI ו-xAI, כדי לסכם מודיעין גולמי ממאות ואלפי מקורות בו-זמנית ולהפיק ממנו פקודות מבצעיות.
המערכת סורקת אלפי שעות של צילומי רחפנים ומל"טים, מזהה עצמים (מכוניות, אנשים, סוגי נשק) - טרה-בייטים של נתונים - ומסמנת אותם למפעילי המודיעין. תוכנה של חברת פלאנטיר (Palantir) מסייעת לצבא האמריקאי, וככל הנראה גם לצבאות אחרים במערב, לגבש החלטות ולבחור את המטרות בעזרת המידע הזה.
באוגוסט 2023 חשפה סגנית שר ההגנה האמריקאי, קתלין היקס, גם את תוכנית Replicator ("משכפל") של הפנטגון, שמפעילה אלפי רחפנים, כלי שיט ורכבים אוטונומיים, הפועלים עצמאית, ללא שליטה אנושית ישירה על כל כלי.
ככל הנראה, לפחות חלקם נוטלים חלק במערכה מול איראן. בשבועיים האחרונים פרסה ארה"ב במזרח התיכון גם יחידה המפעילה נחילי כטב"מים מסוג LUCAS - כטב"מים זולים יחסית (35 אלף דולר ליחידה) מתוצרת חברת ספקטר-וורקס מאריזונה, הפועלים באופן אוטונומי לחלוטין. הם מסוגלים לתקשר ביניהם בשמיים, לחלק מטרות ולבצע תקיפות התאבדות על מערכות מכ"ם איראניות מבלי להזדקק להנחיה מהקרקע.
מזכר שנשלח על-ידי שר המלחמה האמריקאי פיט הגסת' לבכירי הצבא בתחילת השנה הפך את הנושא לפקודה: "אני מורה למשרד המלחמה", כתב, "להאיץ את הדומיננטיות הצבאית של ארה"ב בבינה מלאכותית על ידי הפיכה לכוח לחימה 'AI ראשון' בכל התחומים, מהחזית לאחור".
9 צפייה בגלריה
כטב"ם תקיפה מתאבד מדגם LUCAS או FLM 136 של צבא ארה"ב סנטקום הודיע כי הציב לראשונה במזרח התיכון
כטב"ם תקיפה מתאבד מדגם LUCAS או FLM 136 של צבא ארה"ב סנטקום הודיע כי הציב לראשונה במזרח התיכון
כטב"ם תקיפה מתאבד מדגם LUCAS או FLM 136 של צבא ארה"ב סנטקום הודיע כי הציב לראשונה במזרח התיכון
( CENTCOM)

גם ישראל בתמונה

ולא רק ארה"ב. גם ישראל, מצידה, לפי פרסומים זרים, עשתה שימוש השבוע במערכות בינה מלאכותית המכונות "הבשורה" ו"לבנדר", שסייעו לה בשנתיים האחרונות לאיתור ולזיהוי מטרות בעזה.
מערכת "הבשורה", לפי תחקיר של "מגזין 972+" שצוטט בהרחבה בגרדיאן ב-2023, משמשת לייצור אוטומטי של המלצות לתקיפת מבנים ומתקנים - אתרי גרעין, מתקני נפט ומפקדות של משמרות המהפכה. היא מעבדת ומצליבה צילומי לוויין, נתוני תקשורת ומודיעין אנושי שמתקבלים מאלפי מקורות אחרים, כדי לסמן מבנים ואתרים שמהם פועלים פעילי טרור.
ואם "הבשורה" מתמקדת בבניינים, "לבנדר", לפי אותם פרסומים, מתמקדת באנשים. מדובר במאגר מידע מבוסס AI שסורק ומעבד כמויות עצומות של נתוני מעקב, כגון קשרים חברתיים והיסטוריית מיקום, כדי לסמן מטרות פוטנציאליות.
המודל מעניק לכל נבדק ציון של בין 1 ל-100, וכאשר הציון עובר סף מסוים, "לבנדר" מסמן אותו כמטרה צבאית. מערכת נוספת, המכונה "איפה אבא?" משלימה את התהליך, ונועדה לעקוב אחר מי שסומנו על ידה ולהתריע בזמן אמת ברגע שהם נכנסים למבנה מגורים מוגדר.
במקביל, "פייננשל טיימס" הבריטי דיווח השבוע, כי ישראל פרצה כמעט לכל מצלמות התנועה בטהרן, ותמונותיהן שודרו לשרתים בתל אביב. משלב זה ניתן היה לעקוב אוטומטית אחר תנועת מאבטחי הבכירים שהגיעו לבית שבו חוסל חמינאי בשבת שעברה. אלגוריתמים מורכבים, מבוססי AI, שיקללו פרטים כמו שעות התורנות שלהם, המסלולים שבהם נסעו לעבודה ועוד.
לפי התחקיר של 972+, מערכות AI סייעו לישראל בשבת האחרונה גם לניתוח רשתות הסלולר והקשר של ההנהגה האיראנית הבכירה, מה שהוביל גם כן לסיכול הממוקד והמוצלח של חמינאי ועשרות מראשי ההנהגה האיראנית בלב טהרן.
9 צפייה בגלריה
האנליסט המבצעי של חיל התקשוב בצה"ל
האנליסט המבצעי של חיל התקשוב בצה"ל
חיל התקשוב בצה"ל
(צילום: דובר צה"ל)
תזכורת: רק בספטמבר אשתקד חסמה מיקרוסופט את הגישה של יחידה 8200 לשירותי הענן שלה (Azure), לאחר שגילתה כי אלו שימשו לאחסון ועיבוד נתונים של מערכת מעקב המונית אחרי פלסטינים בעזה ובגדה המערבית. הדרך היחידה להפיק תובנות אפקטיביות מהיקף אדיר כזה של מידע גולמי היא שימוש בבינה מלאכותית.
מלחמת "שאגת הארי" היא גם הראשונה שבה פועלת "בינה", חטיבת הבינה המלאכותית החדשה שהוקמה בצה"ל רק לפני חודשים ספורים, ובראשה עומד תא"ל. לתוך החטיבה החדשה רוכזו רוב היחידות שעסקו בתחום עד כה. היעד, לפי מפקד אגף התקשוב וההגנה בסייבר, אלוף אביעד דגן, הוא "להפוך טנק אחד למאה טנקים, וחייל אחד למאה לוחמים".

גם בהגנה, ה-AI נכנס לפעולה

אזרחי ישראל קיבלו השבוע הוכחה ליעילותן של מערכות הבינה המלאכותית גם בהגנה על חיי אדם: כאשר רצף של טילים מסוגים שונים משוגר לארץ מאתרים שונים, ה-AI מבצעת במהירות "היתוך חיישנים".
במילים פשוטות - היא מקבלת נתונים מרדארים וחיישנים רגישים בים, באוויר ובקרקע, שלנו ושל האמריקאים, ומחליטה תוך מילי-שניות איזה מיירט לשגר נגד איזו מטרה כדי למקסם את אחוזי הפגיעה. במקביל, מערכת אחרת מייצרת אוטומטית מודיעין מדויק, שמאפשר לסגור מעגלי אש על משגרי הטילים האיראניים שניות מרגע הזיהוי שלהם.
על פיצוח הכאוס בשמיים, על ההבנה מי הוא מה, על המעקב אחר הטילים במעופם ועל ניהול היירוטים, ממונה בצה"ל "אופק 324", היחידה הטכנולוגית של חיל האוויר. העיבוד האלגוריתמי המדויק, שיכול לספק תמונה אווירית מלאה, מתבצע בשתי מערכות ממוחשבות שפותחו ביחידה.
האחת, הוותיקה יותר, יודעת לספק "תמונת שמיים" של כל כלי טיס המרחף מעל או בקירוב לשמי המדינה. השנייה יוצרת את תמונת האיומים הבליסטיים שמגיעים לישראל בזמן אמת. לאלו מצטרף תכנון מערכת השליטה והבקרה שמנצחת על הכל.
9 צפייה בגלריה
 היחידה הטכנולוגיה אופק 324
 היחידה הטכנולוגיה אופק 324
היחידה הטכנולוגיה אופק 324
(צילום: עוז מועלם)
על האלגוריתמיקה המסובכת הזו אחראית ב"אופק" יחידת AI ייחודית. זו פיתחה בין השאר גם אפליקציות עצמאיות המשמשות, למשל, לתכנון נתיבי טיסה בטוחים למטוסי התקיפה ולהערכת נזקי ההפצצות.
מערכת ההגנה של "אופק" היא גם זו שעומדת בבסיס מערכת ההתרעה המשוכללת להגנת העורף: בעזרת שימוש נרחב באלגוריתמים מתמטיים היא יודעת לחזות היכן ומתי הטיל שנמצא בדרכו לישראל צפוי לפגוע, ולאפשר התרעה אך ורק באזורים הנמצאים בסיכון.
וכמובן, כפי שחשף השבוע יושב ראש המטות המשולבים האמריקאי, הגנרל דן קיין, חלק ניכר מהמלחמה מתנהל גם מאחורי הקלעים, באמצעות לוחמת סייבר מסיבית. כבר במהלך מלחמת 12 הימים איראן דיווחו אתרי טכנולוגיה זרים על שימוש ב-AI מצד קבוצות המזוהות עם ישראל כדי לשתק את מערכת הבנקאות האיראנית. ה-AI סייעה אז לסריקה אוטומטית של פרצות אבטחה ולהזרקת קוד זדוני משבש ללא מגע יד אדם.

שדה הניסויים של סין וארה"ב

המערכה מול איראן אומנם הפכה השבוע למעבדת ניסויים חיה של טכנולוגיית ה-AI המערבית, אבל גם הסינים נערכים למלחמה שבה המנצח לא יהיה מי שמחזיק ביותר טנקים או מטוסים, אלא זה שיש לו את האלגוריתם היעיל והמהיר ביותר.
מבחינתם, AI היא לא רק כלי עזר, אלא, במוצהר, ליבת האסטרטגיה הצבאית כיום. סין, למשל, נחשבת מובילה עולמית ב"טכנולוגיית נחילים": חברת CETC הממשלתית שלה פיתחה יכולת לשגר נחילים של למעלה מ-200 כטב"מים המתקשרים ביניהם בלי מעורבות אנושית, מחלקים ביניהם משימות תצפית ותקיפה, ויודעים אפילו "לפצות" על אובדן של כלים בודדים.
9 צפייה בגלריה
סין בייג'ינג מצעד צבאי 80 שנה ל מלחמת העולם השנייה כטב"ם
סין בייג'ינג מצעד צבאי 80 שנה ל מלחמת העולם השנייה כטב"ם
כטב"ם מוצג במצעד צבאי בבייג'ינג
(צילום: REUTERS/Maxim Shemetov)
בניגוד למערכות מבוססות הבינה המלאכותית המערביות, בסין אין חובה לשלב אדם במעגל קבלת ההחלטות (Human-in-the-loop): הנחיל יכול, תיאורטית, לקבל החלטת תקיפה קבוצתית על סמך זיהוי מטרה עצמאי.
בכלל, רחפנים וכטב"מים הם כלי הנשק הכי פופולרי בסכסוכים אלימים בעשור האחרון ברחבי הגלובוס. בין טכנולוגיות ה-AI ששינו את פני המלחמה באוקראינה הייתה "סקיינוד" (Skynode ) של חברת Auterion - מערכת AI ל"ניווט ללא "GPS שהתקינו האוקראינים על רחפנים, המאפשרת להם לנווט ולזהות מטרות גם כאשר רוסיה חוסמת אותות GPS: המערכת "רואה" את פני הקרקע ומשווה אותם למפות לוויין בזיכרון.

העימות עם אנת'רופיק

בתזמון מקרי לחלוטין, המלחמה מול איראן פרצה דווקא בעיצומו של עימות חזיתי חריף בין משרד ההגנה האמריקאי והבית הלבן לבין חברת ה-AI אנת'רופיק, יצרנית המודל "קלוד" ששימש במתקפה את צבא ארה"ב.
במשך עשורים, חלוקת העבודה בין עמק הסיליקון לפנטגון הייתה פשוטה: הממשלה משלמת, והחברות מספקות לצבא תוכנות בלי שאלות מיותרות, וכולם מחייכים בדרך אל הבנק. רק שבעידן הבינה המלאכותית, המוצר הוא כבר לא רק טבלת אקסל, אלא ממש המוח שמאחורי הנשק, ומתלוות אליו דילמות אתיות מורכבות.
אנת'רופיק ממצבת את עצמה באופן עקבי כמי שמקפידה במיוחד על בטיחות ומוסריות; מנכ"ל ומייסד החברה דריו אמודיי נוהג להביע בהופעותיו דאגה עמוקה משימוש בלתי מבוקר בבינה מלאכותית, והיא לא מסכימה להסתפק בהצהרה לפיה הצבא יוכל להשתמש במוצריה ל"כל מטרה חוקית".
9 צפייה בגלריה
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
(רויטרס)
החברה מתעקשת שבשני תחומים לא ייעשה שימוש במודלים שלה: פיקוח המוני על אזרחים ונשק אוטונומי. "אני מאמין עמוקות", אומר אמודיי, "בחשיבות הקיומית של השימוש ב-AI להגנה על ארה"ב ודמוקרטיות אחרות ולהבסת אויבינו, אבל היום, מערכות AI פשוט לא אמינות מספיק כדי להפעיל נשקים אוטונומיים לחלוטין".
תחת ההבנה כי הכללים מקובלים על הממשל - אנת'רופיק חברה לפלאנטיר וחתמה עם הפנטגון בקיץ שעבר על חוזה בשווי של כ-200 מיליון דולר. קלוד היה גם המודל הראשון שצבא ארה"ב הכניס לרשתות המסווגות שלו.
אבל אז, לאחר חטיפת שליט ונצואלה מדורו, התעניינו בחברה אצל גורמים במשרד המלחמה בסוג השימוש שנעשה בקלוד לצורך המבצע. הפנטגון הגיב בתקיפות, וטען כי שני התחומים שעליהם מתעקשת אנת'רופיק כוללים "אזורים אפורים" רבים, ולא תמיד ניתן להחליט בקלות מה נכלל בהם ומה לא.
מו"מ שנפתח עם החברה הסתיים בפיצוץ, ושר המלחמה הגסת' אף הכריז עליה כ"סיכון לביטחון הלאומי" - הגדרה השמורה בדרך כלל לחברות ממדינות עוינות כמו סין. ביום שישי שעבר חתם טראמפ על צו המורה לכל הסוכנויות הפדרליות להפסיק לאלתר את השימוש במודלי ה-AI שלה.
חתם - אבל בפועל, כאמור, קלוד של אנת'רופיק תפסה השבוע בכל זאת מקום מרכזי בתכנון התקיפות באיראן. ביום שלישי נכנסה OpenAI המתחרה לתמונה, וטענה כי הציבה למשרד ההגנה תנאים דומים לשימוש במודלים שלה, שהתקבלו על ידו. לפי דיווחים, גם גוגל מנהלת משא-ומתן עם הפנטגון על שילוב מודל הבינה המלאכותית שלה, ג'מיני, במערכת צבאית מסווגת.
9 צפייה בגלריה
הצ'אבוט קלוד
הצ'אבוט קלוד
הצ'אבוט קלוד
(Getty Images)
האם צודקת אנת'רופיק כשהיא מזהירה מפני הסכנות האתיות והמוסריות הכרוכות בבינה המלאכותית כשהיא הופכת לכלי נשק? האם אלגוריתם יכול באמת להבדיל בין מחבל עם RPG לבין ילד עם צעצוע? ומי האחראי במקרה של תקיפה שגויה - המתכנת שכתב את הקוד? המפקד שאישר את המערכת? המכונה עצמה?
בצה"ל לפחות – כמו גם בנאט"ו - קובעים חד משמעית: החלטות משמעותיות, בטח כאלה הנוגעות לחיי אדם, יתקבלו בסוף הדרך תמיד על-ידי מפקד בשר ודם. אף אחת ממערכות ה-AI בצבא לא מקבלת החלטות ביצועיות לבדה; הן נועדו לניתוח ומיצוי נתונים בלבד.
גם כשנבחרת מטרה לסיכול בזכות הנתונים הללו, היא נבחנת באופן פרטני על-ידי קצינים בכירים. "לעולם לא יהיה מצב שבינה מלאכותית תקבל החלטה עבורנו". בצה"ל טוענים גם כי השימוש ב-AI דווקא מצמצם פגיעה בחפים מפשע, כי הוא מאפשר דיוק גבוה יותר.
אבל למרוץ בתחום יש דינמיקה משלו: חברות כמו פלנטיר ואנדוריל (Anduril), המרבות לעבוד עם משרד המלחמה האמריקאי, נאט"ו ואוקראינה, חוזרות וטוענות, כי אם ארה"ב תטיל על עצמה מגבלות מחמירות בעוד שסין תפתח בינתיים מערכות אוטונומיות מהירות פי 100 – ארה"ב עלולה להפסיד בקרב. פיתוח AI צבאי, לדבריהן, הוא הדרך היחידה של המערב לנצח את סין ורוסיה במרוץ החימוש הטכנולוגי; "אם אנחנו לא נהיה שם עם AI קטלני, האויבים שלנו יהיו".

החשש מהתלות בענקיות הטק

דווקא בשל המקום המרכזי שתופסת כיום הבינה המלאכותית בשדה הקרב, החשש בישראל מהיום שבו ענקיות הטכנולוגיה הבינלאומיות, המספקות הן את המודלים המתקדמים ואת את חוות השרתים המאפשרות אותם, יחליטו "לסגור לנו את השאלטר", אינו תיאורטי.
פרויקט "נימבוס", החוזה בשווי 1.2 מיליארד דולר שחתמו גוגל ואמזון עם ממשלת ישראל לאספקת שירותי אחסון בהיקף גדול, הפך כבר לסמל המחאות הפנימיות הסוערות בשתי החברות, ולא רק בהן, על שיתוף הפעולה עם צה"ל. במערכת הביטחון מבינים כבר, שאסור "לשים את כל הביצים בסל אחד". שהסתמכות רק על "עננים ציבוריים" ומודלי AI בתשלום היא בעיה אסטרטגית.
9 צפייה בגלריה
הפגנת עובדי גוגל נגד החברה בסן פרנסיסקו באוגוסט
הפגנת עובדי גוגל נגד החברה בסן פרנסיסקו באוגוסט
הפגנת עובדי גוגל נגד החברה בסן פרנסיסקו ב-2023
(צילום: רויטרס)
זו הסיבה שבגללה נכללו מלכתחילה בחוזי נימבוס "סעיפי אל-חזור" משפטיים, שלמעשה מונעים מגוגל ומאמזון להפסיק את שירותיהן בשל לחצים או החלטות פוליטיות. גם העובדה שהשרתים נמצאים פיזית על אדמת ישראל ומנוהלים על ידי צוותים מקומיים מרגיעה.
אבל כדי להתגבר על הגבלות והתניות מהסוג של אנת'רופיק, הפתרון המוביל הוא מעבר למודלי AI הפתוחים לשימוש ב"קוד פתוח" (כמו Llama של מטא): מודלים כאלה אפשר להריץ על שרתים של צה"ל ללא חיבור לאינטרנט, ולאמן אותם על נתונים צבאיים מסווגים מבלי שהמידע יזלוג החוצה.
במקביל, משרד הביטחון משקיע הון בטיפוח פיתוחים בתחום ה-AI, שלא תלויים בעמק הסיליקון. מפא"ת מעודדת סטארטאפים בתחילת דרכם בתחומי ה-AI הצבאי. חברות כמו אלביט, רפאל והתעשייה האווירית הקימו חטיבות AI פנימיות עצומות; במקום לקנות פתרון מוכן ממיקרוסופט, הן מפתחות בינה מלאכותית "מקומית", כזו ש"יושבת" ישירות בטיל, ברחפן או בטנק.
בעיה אחת שישראל לא יכולה לפתור לבד היא השבבים: מודלי ה-AI המתקדמים בעולם רצים על המעבדים הייחודיים של אנבידיה. עם כל הכבוד לעובדה שחלק ניכר מהמעבדים הללו מפותח בכלל בישראל - אם ממשל אמריקאי עתידי יחליט, למשל, להטיל אמברגו על ייצוא שבבים כאלה, מערכת הביטחון תמצא את עצמה בבעיה קשה.