הקרב בין חברת הבינה המלאכותית אנת'רופיק לבין הממשל האמריקאי הולך ומסלים: אתמול (ב') פנתה החברה לבית המשפט והגישה באופן חסר תקדים שתי תביעות פדרליות נגד הממשל בטענה כי פקידי הפנטגון נקמו בה באופן בלתי חוקי בשל עמדתה בנוגע לגבולות הבינה מלאכותית.
שעות ספורות לאחר הגשת התביעות, הגישו כ-40 עובדים ממתחרותיה של אנת'רופיק, OpenAI וגוגל, תצהיר תמיכה בחברה, שבו מפרטים גם הם את חששותיהם לגבי הסיכונים שבהחלטת הממשל והשלכותיה.
"חששות אמיתיים שדורשים תגובה"
העובדים החתומים על התצהיר, בהם ג'ף דין, המדען הראשי של גוגל, המוביל את פרויקט ג'מיני, טוענים כי מדובר ב"פגיעה באינטרס הציבורי", וכי החששות של אנת'רופיק "אמיתיים ודורשים תגובה".
בשבוע שעבר הגדיר שר המלחמה האמריקאי פיט הגסת' את אנת'רופיק כ"סיכון בשרשרת האספקה" בעקבות התעקשותו של מנכ"ל החברה, דריו אמודיי, שלא לאפשר לצבא ארה"ב להשתמש בקלוד, מודל ה-AI שלה, בנשק אוטונומי או למעקב אחרי אזרחים אמריקאים.
מעניין לציין שהגדרת חברה כ"סיכון בשרשרת האספקה" מוחלת בדרך-כלל על קבלני אויב ועל חברות החשודות בסיוע לאויב, שעלולים לפגוע באינטרסים האמריקאיים, והשימוש בה נגד חברה אמריקאית נדיר ביותר.
בפועל, ההגדרה מכניסה את החברה לרשימה שחורה, שמונעת לא רק ממנה להתחרות על חוזים צבאיים, אלא גם מחברות אחרות המשלבות את מוצריה. המשמעות: החברות הללו ייאלצו להפסיק לעבוד עם קלוד אם הן רוצות לשמור על החוזים הרווחיים שלהן מול הפנטגון. ואכן, לאחר שבכירי הפנטגון הודיעו לאנת'רופיק על ההגדרה, הנשיא טראמפ טען ברשתות החברתיות שכל הסוכנויות הפדרליות יפסיקו להשתמש בכלים של החברה.
ניסיון להעניש את החברה?
אנת'רופיק טוענת בתביעה, כי ההחלטה היא ניסיון להעניש אותה: "הממשל הפדרלי נקם במפתחת מובילה בתחום הבינה המלאכותית על כך שדבקה בעמדתה בנושא שהוא בעל חשיבות ציבורית רבה - בטיחות ה-AI ומגבלות המודל שלה - בניגוד לחוקה ולחוקי ארה"ב". התביעה מוסיפה, כי בכירי ממשל טראמפ "מנסים להרוס את הערך הכלכלי שנוצר על ידי אחת החברות הפרטיות בעלות הצמיחה המהירה בעולם".
התביעה של החברה הוגשה במקביל הן בבית המשפט המחוזי בצפון קליפורניה והן בבית המשפט הפדרלי לערעורים בוושינגטון הבירה. לפי הנטען, ממשל טראמפ הפר את "התיקון הראשון לחוקה", המבטיח בין השאר את חופש הביטוי, וחרג מסמכותו בחוק בהגדרת החברה כ"סיכון לשרשרת האספקה". אנת'רופיק מבקשת מבית המשפט למנוע מפקידי הפנטגון לכלול אותה ברשימה השחורה.
בכירי הפנטגון טוענים בתגובה, כי חברות פרטיות אינן יכולות לקבוע לממשל מראש כיצד ישתמש בטכנולוגיה בתרחישים כמו מלחמה ופעולות טקטיות, ועומדים על כך שכל השימושים בה יהיו "חוקיים".
אנת'רופיק הייתה הראשונה בין מפתחות מודלי ה-AI, שזכתה להסכם בשווי 200 מיליון דולר עם משרד ההגנה האמריקאי ביולי אשתקד, והייתה מודל הבינה המלאכותית הראשון שנעשה בו שימוש בסביבות מסווגות ובסוכנויות ביטחון לאומיות.
קלוד תופס מקום מרכזי גם במלחמה מול איראן, אך מאז תחילת הסכסוך, מתחרותיה - xAI של אילון מאסק ו-ChatGPT של OpenAI - קיבלו גם הן אישור דומה. מנכ"ל OpenAI, סם אלטמן, שהותקף על הצעד, טען כי החוזה שעליו חתם כולל אותם "קווים אדומים" שעליהם עומדת אנת'רופיק.
לפי הוול סטריט ג'ורנל, קלוד סייע לפעולות צבאיות כמו הפשיטה שהובילה למעצרו של נשיא ונצואלה ניקולאס מדורו, וכן להערכות מודיעין ולזיהוי מטרות במלחמה מול איראן. החברה עצמה מציינת בתביעה, כי מאז 2024 היא משתפת פעולה עם חברות קבלניות העובדות מול מערכת הביטחון האמריקאית, כמו חברת פלנטיר, כדי לסייע בפעולות כמו "עיבוד מהיר של נתונים מורכבים, זיהוי מגמות, ייעול בדיקת מסמכים, וסיוע לפקידי ממשל לקבל החלטות מושכלות יותר במצבים רגישים".








