דו"ח חדש של OpenAI חושף עלייה דרמטית במספר הדיווחים על תכנים הכוללים ניצול ילדים שעלו ל-ChatGPT והועברו לרשויות במחצית הראשונה של 2025. בעוד בחברה תולים את הזינוק בשיפור טכנולוגיות הניטור וגידול בבסיס המשתמשים, הרגולטורים בארה"ב ואירופה מאבדים סבלנות.
עלייה דרמטית בדיווחים
הנתונים נחשפו לאחרונה על ידי OpenAI ומטלטלים את ענף הטכנולוגיה. במהלך המחצית הראשונה של שנת 2025, שלחה החברה למרכז הלאומי לילדים נעדרים ומנוצלים בארה"ב (NCMEC) מספר דיווחים הגבוה פי 80 מזה שדווח בתקופה המקבילה אשתקד. מדובר בזינוק מ-947 דיווחים בלבד ב-2024 ל-75,027 דיווחים בחודשים הראשונים של השנה הנוכחית.
הדיווחים מועברים דרך ה-CyberTipline, המוקד הלאומי המוסמך על ידי הקונגרס לטיפול בחומרים הכוללים ניצול מיני של ילדים (CSAM). לפי החוק האמריקני, חברות טכנולוגיה מחויבות לדווח על כל חשד לתוכן מסוג זה, כאשר המרכז מעביר את המידע להמשך חקירה של רשויות האכיפה.
ב-OpenAI מדגישים כי הנתונים הסטטיסטיים הם תוצאה של שילוב גורמים. גבי ריילה, דוברת החברה, ציינה למגזין Wired כי לקראת סוף 2024 בוצעו השקעות משמעותיות בהרחבת יכולות הניטור והסינון בחברה, זאת כדי להדביק את קצב הצמיחה המהיר. ואכן, הקצב מסחרר: מנכ"ל ChatGPT, ניק טורלי, הצהיר באוגוסט האחרון כי מספר המשתמשים הפעילים השבועי באפליקציה זינק פי ארבעה תוך שנה.
בנוסף לגידול בכמות המשתמשים, OpenAI פתחה אפשרות להעלאת קבצים ותמונות ישירות לצ'אטבוט. יחד עם זאת, הנתונים הנוכחיים עדיין אינם כוללים את השפעת מודל הווידאו סורה 2 (Sora), שהושק לציבור הרחב רק בספטמבר 2025, מה שמעורר חשש לזינוק נוסף בדו"ח המסכם של השנה.
ניסיונות לרגולציה עולמית
הזינוק בדיווחים של OpenAI אינו מתרחש בחלל ריק. הוא משקף מגמה רחבה שזוהתה ב-NCMEC, שם נרשמה עלייה של למעלה מ-1,300% בדיווחים הקשורים לבינה מלאכותית יוצרת (Generative AI) בין 2023 ל-2024. או במילים אחרות - הניסיון מראה שהאפשרות לייצר תכנים בקלות ובמהירות ימשוך מן הסתם גם גורמים זדוניים שינסו לנצל זאת - כמו למשל פדופילים.
בעוד שבישראל ובוושינגטון מתמקדים בהליכים ושימועים בכנסת ובקונגרס, באירופה נכנס השנה לתוקף "חוק הבינה המלאכותית" (EU AI Act) שאגב מהווה את אחת מנקודות המחלוקת הקשות של האיחוד עם ממשל טראמפ ,עד כדי משבר דיפלומטי שהתפתח בימים האחרונים ועליו דיווחנו כאן.
החל מפברואר 2025, האיחוד האירופי אוסר באופן מוחלט על פרקטיקות של מניפולציה וניצול פגיעות של קטינים באמצעות AI, כאשר חברות שלא יעמדו בסטנדרטים של שקיפות וניהול סיכונים עשויות לספוג קנסות עתק.
בסין, הממשל נקט בגישה שונה והחל מספטמבר 2025 מחייב את כל ספקי ה-AI לסמן תכנים שנוצרו על ידי מכונה בסימני מים גלויים וסמויים (סימון של מטא דאטה למשל), כדי למנוע הפצה של חומרים מטעים או פוגעניים.
הצורך לזהות במהירות תוכן פוגעני
למרות הזינוק של OpenAI, היא עדיין נמצאת בפיגור מול הנתונים של "העולם הישן". חברת מטא, למשל, דיווחה בשנים קודמות על עשרות מיליוני מקרים בשנה (כ-27 מיליון ב-2022), בעיקר בשל נפח התמונות האדיר המועלה לפייסבוק ואינסטגרם. אולם, בניגוד לרשתות חברתיות המבוססות על שיתוף תמונות קיימות, האתגר ב-AI הוא יצירת תוכן חדש שאינו מופיע במאגרי המידע המוכרים ("Hashes").
במשך עשורים, המלחמה ב-CSAM ( Child sexual abuse material תוכן מיני המערב ילדים) התבססה על טכנולוגיית "התאמת גיבוב" (Hash Matching) – חברות כמו גוגל ומיקרוסופט השוו קבצים המועלים לשרתיהן מול מסד נתונים של תמונות שכבר זוהו בעבר כבלתי חוקיות. המעבר לבינה מלאכותית יוצרת שינה את כללי המשחק: כעת ניתן לייצר תוכן פוגעני "חדש" בכל רגע, מה שמחייב פיתוח של מודלים מבוססי סמנטיקה והבנת הקשר, ולא רק השוואת קבצים יבשה.
כדי להתמודד עם הביקורת והתביעות המשפטיות מצד משפחות שטוענות כי הצ'אטבוטים השפיעו לרעה על ילדיהם או שימשו לניצול שלהם, השיקה OpenAI בנובמבר האחרון את Teen Safety Blueprint. מדובר במערכת כלי בקרה להורים המאפשרת לקשר חשבונות, לחסום יצירת תמונות, ולנטר סימנים למצוקה נפשית או פגיעה עצמית. זה פתרון הדומה ל-Family Link של גוגל, שמעניק להורים שליטה ישירה על חשבונות בני נוער בגילאי 13 עד 17, זאת לעומת הפתרון של גוגל שמוגבל עד גיל 13.
באמצעות המערכת החדשה, הורים יכולים לקשר את חשבונם לזה של ילדיהם ולנהל מרחוק תכונות ליבה כמו כיבוי מצב השיחה הקולית, מחיקת יכולות הזיכרון של המודל וחסימת יצירת תמונות ב-DALL-E.
4 צפייה בגלריה


רשתות חברתיות. כניסתו של ה-AI מחדד את הצורך בזיהוי מהיר של תכנים פוגעניים
(Getty Images)
מעבר לשליטה הטכנית, החברה הטמיעה מנגנון התראות חירום ייחודי המנטר דפוסי שיחה מדאיגים ומתריע בפני ההורים, ובמקרים של סכנה מיידית אף בפני רשויות האכיפה, על חשש לפגיעה עצמית, תוך מתן אפשרות גורפת להחרגת נתוני הקטינים מתהליך אימון המודלים העתידיים.
לעומתה, גוגל ומטא בוחרות בגישות המבוססות על תשתית קיימת ואינטגרציה חברתית רחבה, המשלבות סינון אוטומטי עם שקיפות למשתמש. גוגל נשענת על סביבת ה-Workspace המוכרת כדי להחיל בגרסת הנוער של ג'מיני חסימה מחמירה על נושאים רגישים כמו אלכוהול וסמים, תוך הטמעת כלי אימות עובדות המיועדים ללמד את הילדים לזהות "הזיות" של הבינה המלאכותית.
מטא, מצידה, משלבת את הבקרות בתוך אינסטגרם וואטסאפ דרך "מרכז המשפחה", המאפשר להורים לעקוב אחר זהות הבוטים ותדירות השימוש בהם ללא חדירה לפרטיות תוכן השיחה. שתי החברות שמות דגש על הגבלת אינטראקציות יזומות מצד דמויות AI וסימון תוכן, במטרה לייצר סביבה דיגיטלית מוגנת במרחבים החברתיים בהם הילדים כבר פועלים.
בסופו של דבר אין ספק שהכניסה של הבינה המלאכותית היוצרת לעולם הרחב מהווה עוד כר פורה לעברייני מין, פדופילים או סתם סוטים. מנגד יש כאלה שיטענו שאולי עדיף שיצרו את התוכן הזה באמצעות מכונה מאשר דרך ילדים חיים אמיתיים. מה שבטוח זה שבעוד הרגולטורים עסוקים בפיקוח על רשתות חברתיות - המשתמשים כבר מזמן עברו לצ'אטבוטים וככל הנראה ייקח להם גם כאן בערך כמה שנים עד שיבינו את גודל האירוע ואיך צריך להתמודד איתו באמת.








