איום חדש על מונופול אנבידיה בשוק השבבים הייעודיים לבינה מלאכותית - אחרי AMD, אינטל, גוגל ואמזון - גם ענקית התוכנה מיקרוסופט נכנסת לתחום מעבדי ה-AI העוצמתיים: החברה מכריזה היום על "מאיה 200" (Maia 200), שבב ייעודי להפעלת מודלי AI בזמן אמת.
לפי מיקרוסופט, השבב החדש – מהדורה מתקדמת של קודמו, "מאיה 100" - מעניק לפלטפורמת מחשוב הענן Azure שלה יתרון בהרצת מודלי AI – מהר יותר ובעלות נמוכה יותר מן המתחרים; ביצועיו, לדבריה, גבוהים פי שלושה מאלה של הדור השלישי של שבב "טראניום" של אמזון, ועולים גם על אלו של ה-TPU מהדור השביעי של גוגל.
ההכרזה החדשה מכניסה לשלב חדש את "מרוץ החימוש" בין ענקיות הטכנולוגיה, שמנסות – כל אחת בדרכה – להתחיל להדביק את הפער הגדול שפתחה אנבידיה עם השבבים הייעודיים שלה ל-AI. השוק נשלט אמנם על-ידה ביד רמה – והיא מחזיקה עדיין בנתח של כ-80%-85% - אך שנת 2026 מבשרת התחלת שינוי: כבר כיום מזנבת בה AMD עם סדרות השבבים Instinct MI300 ו-MI325X, ואחריה אינטל עם שבבי "גאודי 3". אבל האיום הגדול מגיע דווקא מלקוחותיה הגדולים – גוגל עם מעבדי ה-TPU שפיתחה, אמזון עם שבבי ה"טרייניום" וה"אינפרנטיה", ומיקרוסופט, שעד כה הציגה רק את שבבי ה"מאיה 100" בפרופיל נמוך יחסית.
מאיה 200 הוא למעשה "מאיץ הסקה (inference)" – שבב ייעודי להפעלת מודלי AI בזמן אמת שפותח בתהליך ייצור של 3 ננומטר בחברת TSMC בטאיוואן, ומסוגל להריץ בקלות את המודלים הגדולים ביותר הקיימים כיום, עם הכנה למודלים גדולים יותר בעתיד. הוא כולל למעלה מ-100 מיליארד טרנזיסטורים, עם מנועי העברת נתונים שמבטיחים פעולה מהירה מאוד של מודלים עצומים, ביעילות ובניצול גבוה, ועם שיפור של כ-30% בביצועים לכל דולר לעומת המערכות קיימות.
מיקרוסופט החלה כבר בפריסת "מאיה 200" במרכזי הנתונים שלה במרכז ארה"ב, ובהמשך השבב יגיע גם לאזורים אחרים. במקביל החברה משיקה גרסה מוקדמת של SDK, שנועדה לסייע למפתחים לבצע אופטימיזציה לשבב.
כיוון שביצועי חישוב גולמיים (FLOPS) הם רק חלק מהתמונה, ושלב הזנת הנתונים למודל קריטי לא פחות – "מאיה 200" מצויד במערכת זיכרון שעוצבה מחדש מן היסוד, כולל רשת תקשורת פנימית (NoC) ייעודית להעברת נתונים בקצב גבוה. הארכיטקטורה מאפשרת להפעיל קבוצות גדולות של מאיצי AI שפועלים יחד בקנה מידה רחב, בצורה יעילה מבחינה אנרגטית ובעלות כוללת נמוכה יחסית בכל צי הדאטה סנטרים של Azure.
הראשונים לעשות שימוש ב"מאיה 200" יהיו צוות Microsoft Intelligence, שיפעילו את המאיץ לצורך יצירת דאטה סינתטי ולמידה, כחלק מפיתוח הדור הבא של מודלי ה-AI הפנימיים של מיקרוסופט.






