אנציקלופדיית הבינה המלאכותית המקוונת החינמית גרוקיפדיה (Grokipedia), שזכתה לביקורות קשות על שגיאות עובדתיות, הטיה פוליטית ימנית ותיאוריות קונספירציה, היא בין המקורות שעליהם מבוססת הגרסה האחרונה של הצ'אטבוט ChatGPT של חברת OpenAI המתחרה. כך מגלה בדיקה של העיתון הבריטי ה"גארדיאן".
2 צפייה בגלריה
אילון מאסק השיק את גרוקיפדיה
אילון מאסק השיק את גרוקיפדיה
אילון מאסק וגרוקיפדיה
(רויטרס, צילום מסך)

מקור בעייתי

העיתון מצא, כי הצ'אטבוט הפופולרי החל לצטט את גרוקיפדיה - מבית xAI של אילון מאסק - כמקור למגוון רחב של נושאים שבדק, כמו תאגידים איראנים ומכחישי שואה. מומחים ברחבי העולם טענו עם הופעתה של גרוקיפדיה, כי היא אינה מבחינה בין מקורות, ונותנת משקל שווה לפוסטים של משתמשים בצ׳אטים ולמאמרים אקדמיים.
בין השאר נמצא, כי הציגה כעובדות נרטיבים ימניים בנושאים כמו עבדות, נישואים חד-מיניים וההסתערות על הקפיטול בארה"ב. בערך על שינוי האקלים, למשל, טענה כי הקונצנזוס המדעי בנושא הוא תוצאה של "הצגה סלקטיבית של מחקרים בתחום", והערך על שר החימוש הנאצי אלברט שפר כלל פרטים שקריים שהופרכו.
בבדיקות שביצע הגרדיאן, גרסת GPT-5.2 של ChatGPT ציטטה את גרוקיפדיה תשע פעמים בתגובה ליותר מעשר שאלות שונות, בין השאר על מבנה הפוליטיקה באיראן ומקור שכרם של כוחות הבסיג' שם. עם זאת, לפי הגארדיאן, ציטוטים שגויים מגרוקיפדיה הופיעו רק בנושאים פחות מוכרים, ולא בתחומים שבהם כבר "נתפס" מנוע החיפוש בשקרים.
2 צפייה בגלריה
צ'אט GPT על האייפון
צ'אט GPT על האייפון
ChatGPT
(צילום: Domenico Fornas / Shutterstock.com)

ניסיון להתחרות בוויקיפדיה

גרוקיפדיה הושקה באוקטובר האחרון עם קרוב ל-900 אלף ערכים במטרה להתחרות בוויקיפדיה, שלפי אילון מאסק "מוטה ונתמכת על ידי צבא של אקטיביסטים מהשמאל". היא אינה מאפשרת עריכה אנושית ישירה: מודל AI הוא שכותב את התוכן ומגיב לבקשות לשינויים.
ככל הנראה, ChatGPT אינו מודל השפה הגדול היחיד המצטט את גרוקיפדיה; לפי גארדיאן, גם "קלוד" של חברת אנת'רופיק התייחס לאנציקלופדיה של מאסק בנושאים שונים - מייצור נפט ועד בירות סקוטיות.
חוקרי פייק-ניוז ודיסאינפורמציה ברשת טוענים, כי העובדה שגרוקיפדיה משמש מקור למודלי שפה היא מקור של דאגה. באביב האחרון העלו כבר מומחי אבטחה חשש, כי גורמים זדוניים, כמו רשתות תעמולה רוסיות, מפיצים כמויות עצומות של דיסאינפורמציה ברשת בניסיון לשרבב את המידע במודלים הללו, תהליך שנקרא "טיפוח LLM".
דובר OpenAI אמר בתגובה, כי חיפוש האינטרנט של המודל "שואף לשאוב ממגוון רחב של מקורות ודעות זמינות לציבור. אנו מיישמים מסנני בטיחות כדי להפחית את הסיכון להופעת קישורים הקשורים לנזקים חמורים, ו-ChatGPT מראה בבירור אילו מקורות נתנו תגובה דרך ציטוטים". הדובר הוסיף, כי לחברה יש להם תוכניות מתמשכות לסינון מידע בעל אמינות נמוכה ולקמפייני השפעה. מאנת'רופיק לא נמסרה תגובה.