דרמה בוושינגטון: שעות ספורות לאחר שהנשיא טראמפ הכריז על חברת אנת'רופיק כ"סיכון לביטחון הלאומי", כלי הבינה המלאכותית שלה, קלוד (Claude), לקח חלק מרכזי בתקיפה האווירית הנרחבת באיראן. כך עולה מדיווח חדש שעלה בכלי התקשורת בארה"ב.
3 צפייה בגלריה
הצ'אבוט קלוד
הצ'אבוט קלוד
הצ'אבוט קלוד
(Getty Images)

שיאים חדשים של אירוניה

ההיסטוריה של המלחמה המודרנית רצופה בסתירות, אך המקרה שאירע בסוף השבוע האחרון בוושינגטון שובר שיאים חדשים של אירוניה פוליטית וטכנולוגית. ביום שישי האחרון חתם טראמפ על צו המורה לכל הסוכנויות הפדרליות להפסיק לאלתר את השימוש במודלי ה-AI של חברת אנת'רופיק. הסיבה: החברה סירבה לאפשר לצבא שימוש "בלתי מוגבל" בטכנולוגיה שלה לכל מטרה חוקית, והתעקשה על סייגים מוסריים.
אלא שבזמן שהדיו על הצו עוד לא התייבש, מטוסי חיל האוויר האמריקני כבר היו בדרכם ליעדים באיראן. על פי גורמים המעורבים בפרטים, מערכות הפיקוד של סנטקום (CENTCOM) השתמשו בדיוק באותו כלי של אנת'רופיק כדי לבצע הערכות מודיעין, זיהוי מטרות וסימולציות של זירת הקרב בזמן אמת.
הקרע בין ממשל טראמפ לבין אנת'רופיק, שנחשבת לאחת משלוש השחקניות החזקות בעולם ה-AI לצד OpenAI וגוגל, אינו רק עסקי. אנת'רופיק חרטה על דגלה את מושג ה-"Constitutional AI" (בינה מלאכותית חוקתית), המטמיע ערכים דמוקרטיים ומוסריים בתוך ליבת המודל.
במהלך המשא ומתן על חוזה הענק מול הפנטגון, סירבה החברה לאפשר למערכת שלה לשמש להחלטות קטלניות אוטונומיות ללא התערבות אנושית, או לביצוע מעקב המוני. הממשל, מצדו, ראה בכך "מרד" של הייטקיסטים פרוגרסיביים. שר ההגנה פיט הגסת' אף הגדיל לעשות כשהגדיר את החברה כסיכון לשרשרת האספקה, מהלך ששמור בדרך כלל לחברות סיניות עוינות כמו וואווי.
3 צפייה בגלריה
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
(רויטרס)

יש מי שלא יסרב לפנטגון

ובעוד אנת'רופיק נדחקת החוצה, המתחרות כבר אורבות בפינה. לפי דיווחים, OpenAI ו-xAI של אילן מאסק חתמו לאחרונה על הסכמים חדשים מול הממשל לשימוש בסביבות מסווגות. קלוד אמנם נחשב למדויק ביותר בניתוח טקסטים מורכבים וקוד, אך מוגבל על ידי "מעקות בטיחות" אתיים.
גרוק של xAI, לעומת זאת, ממותג ככלי "אנטי-פרוגרסיבי" (Anti-Woke), המבטיח לממשל טראמפ גמישות מקסימלית ללא עכבות מוסריות "ליברליות". גם OpenAI ויתרה לאחרונה על האיסור הגורף על שימוש צבאי ב-GPT-4o שלה, זאת במטרה להפוך לספקית התשתית המרכזית של משרד ההגנה האמריקאי.
עם זאת, מומחים מדגישים כי היפרדות מקלוד הוא "ניתוח לב פתוח" עבור הצבא. המודל מוטמע עמוק במערכות של ענקית כריית הנתונים פלנטיר (Palantir), ששימשה בין היתר במבצע ללכידת נשיא ונצואלה, ניקולס מדורו. התהליך צפוי לקחת לפחות חצי שנה, מה שמסביר מדוע הממשל ממשיך להשתמש בכלי שהוא עצמו הגדיר כמסוכן.
3 צפייה בגלריה
לארי אליסון (במרכז), מלווה בנשיא ארצות הברית דונלד טראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין), נואם במהלך מסיבת עיתונאים בחדר רוזוולט בבית הלבן ב-21 בינואר 2025
לארי אליסון (במרכז), מלווה בנשיא ארצות הברית דונלד טראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין), נואם במהלך מסיבת עיתונאים בחדר רוזוולט בבית הלבן ב-21 בינואר 2025
לארי אליסון (במרכז), הנשיא טראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין)
(צילום: Andrew Harnik / Getty Images North America)
השימוש בבינה מלאכותית בשדה הקרב אינו חדש, אך עוצמתו ב-2026 חסרת תקדים. כבר בשנות ה-90 השתמש הצבא האמריקני במערכת DART לניהול לוגיסטי במלחמת המפרץ, אך המהפכה האמיתית החלה ב-2017 עם פרויקט Maven לזיהוי אובייקטים בווידאו.
בישראל, מערכות כמו "הבשורה" ו"לבנדר", שפורסמו בהרחבה בהקשר של הלחימה בעזה, מציגות מודל דומה של עיבוד נתוני עתק ליצירת בנק מטרות. ההבדל המרכזי הוא שבעוד שבישראל המערכות הן לרוב פיתוח פנימי של יחידות הטכנולוגיה של צה"ל כמו 8200, האמריקנים נשענים על חברות מסחריות פרטיות - מה שיוצר את החיכוך הנוכחי.
בעוד אירופה מביטה בדאגה על ה"חימוש" של ה-AI ומנסה להעביר רגולציות מחמירות, וסין משתמשת במודלי שפה כדי לסגור פערים במבצעי השפעה ותעמולה, ארה"ב נמצאת בעיצומה של התחדשות טכנולוגית. השאלה היא כבר לא האם ה-AI ינהל את המלחמה, אלא מי יקבע את הערכים שיוטמעו בתוך ה"מוח" הדיגיטלי שיגיד מתי ועל מי לכוון את הנשק.