נראה שהמנהלים ב-OpenAI מעולם לא ראו את סרט המדע הבדיוני ״שליחות קטלנית״, או שהם דווקא עובדים שעות נוספות כדי להפוך את הרעיון למציאות. מעבדות המחקר הלאומיות של ארה"ב ישתמשו במודלי הבינה המלאכותית של OpenAI כדי לאבטח נשק גרעיני – כך הודיעה החברה בימים האחרונים, במה שנראה כמו צעד נוסף של ענקית הבינה המלאכותית להעמיק את קשריה עם הממשל האמריקני.
במסגרת ההסכם, עד 15,000 מדענים העובדים במעבדות המחקר הלאומיות צפויים לקבל גישה למשפחת המודלים o1 של החברה, המתמקדת בניתוח נתונים עמוק והסקת מסקנות מתקדמת. במקביל, OpenAI תשתף פעולה עם מיקרוסופט, המשקיעה המרכזית שלה, כדי לפרוס את המודלים שלה על גבי "ונאדו" (Venado) – מחשב העל של המעבדה הלאומית בעיר לוס אלמוס.
בינה מלאכותית שתמנע מלחמה גרעינית
לפי OpenAI, הטכנולוגיה אמורה לסייע בצמצום הסיכון למלחמה גרעינית ובהגנה על חומרים מסוכנים, אך המהלך מעורר חששות בקרב מומחים בתעשייה, שכן מודלי החברה ידועים בנטייתם לדליפות מידע וטעויות עובדתיות, ולמרות ההבטחות למערכות מאובטחות יותר, לא ברור כיצד תימנע חשיפה של מידע רגיש במיוחד.
המהלך מגיע במקביל להשקת ChatGPT Gov – פלטפורמה ייעודית שפיתחה OpenAI לממשל האמריקני, המאפשרת לארגונים ממשלתיים להזין מידע רגיש למודלים של OpenAI בסביבה מאובטחת. במקביל, החברה גם הצטרפה לפרויקט "סטארגייט" (Stargate) של ממשל טראמפ – יוזמה גרנדיוזית שמטרתה להפוך את ארה"ב למובילה העולמית בתחום הבינה המלאכותית, בהשקעה של 500 מיליארד דולר.
3 צפייה בגלריה


לארי אליסון (במרכז), ממייסדיה של חברת אורקל, מלווה בטראמפ, מנכ"ל OpenAI סם אלטמן (מימין), ומנכ"ל סופטבנק מסיושי סון (שני מימין), בעת הכרזת פרויקט "סטארגייט"
(צילום: Andrew Harnik / Getty Images North America)
כל השותפויות האלו מציבות את OpenAI בעמדת מפתח ביחסי וושינגטון-עמק הסיליקון, אך גם מעוררת דאגות בנוגע להשפעתה של החברה הפרטית על המדיניות הטכנולוגית של ארה"ב. המנכ"ל סם אלטמן, שבעבר מתח ביקורת על טראמפ, שינה לאחרונה את עמדתו באופן מפתיע, ואף תרם מיליון דולר לטקס ההשבעה של הנשיא החדש. בציוץ שפרסם בזמנו, טען כי "הוא (טראמפ, ד"א) ישנה את המדינה בדרכים רבות".
המתחרה הסיני המפתיע שנכנס לתמונה
ובעוד OpenAI מעמיקה את קשריה עם הממשל האמריקני, התחרות העולמית בתחום הבינה המלאכותית מתחממת. רק לאחרונה הציגה חברת "דיפסיק" (DeepSeek) הסינית מודלים עוצמתיים שעוררו סערה בשוק. אלטמן עצמו הודה כי מדובר במתחרה רציני, אך טען כי OpenAI תספק מודלים טובים יותר.
מאוחר יותר יצאה OpenAI במתקפה חריפה נגד דיפסיק, והאשימה אותה בכך שזו גנבה ממנה נתונים כדי לאמן את המודל R1 שלה. ב-OpenAI טענו כי מצאו ראיות לכך שדיפסיק השתמשה במודלים הקנייניים של החברה כדי לאמן את המודלים שלה, כאשר החשש הוא מפני הפרה פוטנציאלית של קניין רוחני.
מפתחת ChatGPT מסרה ל"פייננשל טיימס" כי ראתה ראיות מסוימות ל"זיקוק" (distillation) שלטענתה מקורו בדיפסיק. טכניקה זו משמשת מפתחים כדי להשיג ביצועים טובים יותר במודלים קטנים על ידי שימוש בתשובות ממודלים גדולים, ומאפשרת להם להשיג תוצאות דומות במשימות ספציפיות בעלות נמוכה בהרבה.
כך או כך, על אף ההתלהבות מהשימוש בטכנולוגיה מתקדמת בתחומים רגישים כמו ביטחון לאומי, יש מי שמזכירים את התסריטים הדיסטופיים של סרטי מדע בדיוני. האם מערכות בינה מלאכותית יהיו אחראיות בעתיד על ההחלטות הקריטיות ביותר בנוגע לנשק גרעיני? בשלב זה, נראה שוושינגטון ו-OpenAI מוכנות לקחת את הסיכון.