הקרב על הבינה המלאכותית כבר לא סובב סביב שבבים כאלה או אחרים - עכשיו השאלה היא מי "מזקק" ממי. בפוסט שהעלתה בבלוג הרשמי שלה וברשת X אתמול (ב'), טענה חברת אנתרופיק כי שלוש חברות סיניות, דיפסיק (DeepSeek), מינימקס (MiniMax) ו- Moonshot AI, הקימו יותר מ-24 אלף חשבונות מזויפים במודל קלוד (Claude) שלה, כדי להעתיק ממנו מידע.

השיטה הסינית

לפי הטענות, באמצעות אותם חשבונות מזויפים, שלוש החברות פנו לקלוד יותר מ-16 מיליון פעמים, ושאבו דרכו מידע כדי לאמן ולשפר את המוצרים שלהן. הטענות של אנתרופיק לא עומדות בחלל הריק - לפי דיווח של ה"וול סטריט ג'ורנל", גם OpenAI שלחה בתחילת החודש מזכר לחברי בית הנבחרים בארה"ב, שבו האשימה את דיפסיק בשימוש באותה טקטיקה - דיסטילציה - כדי לחקות את מוצריה.
דיסטילציה, או "זיקוק", הוא כלי מקובל בעולמות ה-AI, וחברות משתמשות בו כדי לבנות גרסאות קטנות יותר של המודלים של עצמן. אבל באנְתרופיק הזהירו שאפשר להשתמש באותה שיטה גם כדי לפתח מוצרים מתחרים "בשבריר מהזמן ובשבריר מהעלות".
באנתרופיק ציינו עוד כי היקף הפעילות הסינית מול קלוד לא היה אחיד - בעוד שדיפסיק ביצעה כ-150 אלף פניות למערכת, Moonshot רשמה יותר מ-3.4 מיליון פניות, ואילו מינימקס הגיעה ללא פחות מ-13 מיליון פניות.
ההאשמות של אנתרופיק מגיעות על רקע שחרור המודלים החדשים של מינימקס ו- Moonshot, שהציגו יכולות היסק וכתיבת קוד משופרות. גם דיפסיק צפויה להשיק בקרוב את הדור הבא של המודל שלה, מה שמעורר לא מעט חשש בחברות ה-AI האמריקאיות.
2 צפייה בגלריה
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנת'רופיק, דריו אמודיי
מנכ"ל אנתרופיק, דריו אמודיי
(רויטרס)

החשש היה שם מההתחלה

נזכיר כי דיפסיק, שטלטלה את עולם ה-AI בתחילת 2025 עם השקת המודל העוצמתי שלה V3, עוררה דאגה מיידית מכך שסין הולכת ומדביקה את הפער בתחום מול החברות האמריקאיות, גם בלי גישה לשבבי AI מתקדמים. באותה התקופה גם עלה החשד כי ייתכן והחברה השתמשה בדיסטילציה כדי לאמן את המודל שלה.
מנגד, במאמר מדעי שפרסמה דיפסיק בחודש ספטמבר האחרון, היא טענה כי השתמשה אך ורק בדפי אינטרנט ובספרים דיגיטליים רגילים כדי לאמן את V3, מבלי לשלב בתהליכי האימון נתונים סינתטיים כלשהם.
עם זאת, החברה הודתה שחלק מאותם דפי אינטרנט בהם השתמשה לאימון כללו "כמות משמעותית של תשובות שנוצרו על ידי מודלים של OpenAI". כך, ייתכן כי המודל שלה רכש ידע ממודלים חזקים אחרים בעקיפין, דרך אותם עמודים.
נתונים סינתטיים, כלומר מידע שמודל AI מייצר בעצמו לצורך אימון, הפכו לפתרון נפוץ בתקופה האחרונה, זאת לאור העובדה שהדאטה האיכותית ברשת הולכת ואוזלת. במילים פשוטות, במקום להסתמך רק על טקסטים שנכתבו בידי בני אדם, מודלים מאמנים את עצמם גם על תשובות שמודלים אחרים מייצרים.
2 צפייה בגלריה
האם דיפסיק העתיקה מ-ChatGPT?
האם דיפסיק העתיקה מ-ChatGPT?
האם דיפסיק העתיקה מ-ChatGPT ומאנתרופיק?
(AP)
באנְתרופיק טוענים כי הפעילות הזו אינה רק סוגיה עסקית, אלא בעלת השלכות מדיניות וגיאו-אסטרטגיות של ממש. "חברות זרות שמבצעות דיסטילציה למודלים אמריקאיים עלולות להשתמש ביכולות האלו למערכות צבאיות, מודיעיניות ולמטרות פיקוח אזרחי", נמסר מהחברה.

זירה גיאופוליטית חדשה

מעבר להיותה שחקנית מרכזית בתחום ה-AI האזרחי, אנתרופיק פועלת גם מול ממשלת ארה"ב ומספקת את מודל קלוד לגופים פדרליים וביטחוניים, בהם הפנטגון. בשנה האחרונה חיזקה החברה את הנוכחות שלה במכרזים ובפרויקטים ממשלתיים, כחלק מהמאמץ האמריקאי לשלב מודלי שפה מתקדמים במערכות תומכות קבלת החלטות, ניתוח מודיעין ואוטומציה של תהליכים.
המשמעות היא שקלוד אינו רק מוצר צרכני או עסקי, אלא טכנולוגיה שנוגעת גם בתשתיות אמריקאיות רגישות. על הרקע הזה, ההאשמות נגד חברות סיניות מקבלות משקל גיאופוליטי ברור. אם חברה שמספקת יכולות AI גם לממשל האמריקאי טוענת שגורמים סיניים "מזקקים" את המודל שלה כדי להאיץ פיתוח עצמאי, בוושינגטון עשויים לראות בכך לא רק תחרות עסקית אלא סיכון אסטרטגי של ממש.
בתרחיש כזה, הסיפור עלול לגלוש מעבר לעולם הטכנולוגיה ולהפוך לעוד נקודת חיכוך ביחסים המתוחים ממילא בין ארה"ב לסין, במיוחד אם הממשל יבחר לאמץ את הטענות באופן רשמי. נראה אם כך שהמאבק הטכנולוגי על מודלים הופך בהדרגה לעוד חזית בעימות בין וושינגטון לבייג'ינג.