ערב שישי. שעת חסד שבין החדשות לבין שטיפת הכלים. יוסי, פנסיונר מחולון, ענה לטלפון. הבן שלו דיבר מהצד השני של הקו. נשמע לחוץ וטרוד. אותה נשימה קצרה בין מילים, אותו צחוק עצבני כשהוא מבקש טובה. "אבא, תעביר כסף, עכשיו, זה דחוף". יוסי לא שאל שאלות. זאת הייתה טעות, הסתבר. אבל גם מה כבר היה יכול לשאול? כשאתה אבא, אתה פועל.
הוא העביר סכום גדול. רק מאוחר יותר, כשדיבר עם אשתו, התברר שהבן בכלל היה בטיסה לחו"ל. הקול היה זיוף. קול שנבנה מבינה מלאכותית מתוך הקלטות ישנות. מלכודת מושלמת.
מאותו ערב יוסי כבר לא אותו אדם. "אני שומע את הבן שלי בטלפון", סיפר, "ואני מרגיש היסוס. אולי אני כבר לא מזהה את הילד שלי. לאן הגענו?".
טלטלה חברתית
במשך דורות, צילום היה עדות. קול היה הוכחה. עכשיו, שני היסודות האלה, העיניים והאוזניים, מתערערים. אנשים מתחילים לחשוד בכל סרטון, בכל הקלטה. גם כשהכל אמיתי, משהו בבטן לוחש: אולי זה זיוף. האמון האוטומטי התערער. האמת, כמו כל דבר בעידן הדיגיטלי, הפכה לשאלה פתוחה. מה שנראה, לא בהכרח היה. מה שנשמע, לא בהכרח נאמר. קובץ וידאו, קובץ שמע, קובץ של מישהו אחר. הטכנולוגיה מציעה אפשרויות, וגם מרוקנת אותן ממשמעות. אנחנו צופים, מאזינים, מהססים. אבל ממשיכים, כאילו כלום. זה לא שיש לנו ברירה.
למה דיפ פייקים מסוכנים? שאלה רטורית, אבל בכל זאת:
מידע שגוי וחדשות כוזבות הונאה, הונאה וגניבת זהות, נזק למוניטין וסחיטה, איומים משפטיים, ביטחוניים ולאומיים -אבל בעיקר, כי הם יכולים לשכפל את הפנים והקול שלנו, בלי שנדע.
ישראל 2025: דיפ-פייק כבר כאן
ברשתות החברתיות מופצות מודעות מזויפות עם דמויות שנוצרו בבינה מלאכותית. הן מציעות הצעות מפתות ומבקשות פרטים אישיים. אנשים רבים כבר נופלים בפח.
פייסבוק, אינסטגרם וטיקטוק הפכו למגרשי משחקים לשקרים שמייצרים רווחים. החברות מרוויחות מיליארדים מהתוכן הזה. אף אחד לא בודק.
אני סבורה שמדינות חייבות להחיל מגבלות על חברות הבינה המלאכותית ולדרוש מהן לקחת אחריות על התוכן שהן מאפשרות להפיץ. אתמול.
עובדה מטרידה: היידעתם שכבר מאמצע 2023, ניתן לזייף את החתימה הקולית שלכם? זו שהבנק משתמש בה לזיהוי. הטכנולוגיה קיימת. היא זמינה. היא בשימוש.
גם לחברות הבינה המלאכותית יש אחריות קריטית כאן. הן יודעות בדיוק מה הכלים שלהן מסוגלים לעשות. הן צריכות לחייב סימון ברור ובלתי ניתן להסרה על כל תוכן שנוצר בבינה מלאכותית. אחרת, הן משתפות פעולה עם העבריינים שמנצלים את הטכנולוגיה.
במצב כזה, הדרך היחידה שנותרה לנו היא לאמן מחדש את החושים, לחדד את המבט, להקשיב אחרת. הנה אוסף של סימנים וכלים שיעזרו לכם למצוא פירורי אמת בתוך ים הולך וגדל של תעתועים דיגיטליים.
איך לזהות דיפ־פייק בסרטונים ותמונות
בעולם שבו כמעט כל תמונה וכל קול עלולים להיות מזויפים, העיניים והאוזניים שלנו צריכות לפתח חוש ביקורתי חדש.
הטכנולוגיה השתכללה, אבל עדיין יש סימנים:
העיניים חושפות מצמוץ בתדירות לא טבעית. חוסר סנכרון בין תנועת האישונים להבעת הפנים. מבט מנותק שקשה להגדיר אבל אפשר להרגיש.
השפתיים לא משקרות חוסר התאמה בין תנועת השפתיים לדיבור - אפילו פער של מילישניות. במערכות מתקדמות תגלו את זה רק בהילוך איטי.
רגשות מזויפים אלגוריתמים מצליחים ליצור תנועות פנים, אבל נכשלים במורכבות רגשית. סימני אזהרה: אדם מדבר על טרגדיה עם פנים ניטרליות. היעדר מיקרו-תנועות בשרירי הפנים. סימטריה מושלמת מדי - פנים אנושיות אף פעם לא סימטריות לגמרי.
הפרטים הקטנים משקפיים, תכשיטים, שיער - נקודות התורפה של 2025. חפשו טשטוש בקצוות, זכוכית שלא שקופה באמת, שרשרת שקופצת מפריים לפריים.
תנועות הגוף הצוואר והלסת עדיין בעייתיים. תנועות מהירות נראות מכאניות. מעברים חדים מדי או חלקים מדי.
הכלל החשוב: אם משהו מרגיש "לא נכון", תקשיבו לתחושת הבטן. המוח שלכם קולט אי-סדרים שהעין מפספסת.
עור הפנים - בדיפ-פייק פשוט, העור חלק מדי, כמו פורצלן. בלי נקבוביות, בלי כתמים, בלי החיים של עור אמיתי. בדיפ־פייק מתקדם, ההבדלים כמעט בלתי נראים. צריך כלי ניתוח דיגיטליים כדי לתפוס אותם.
האמת הקשה של 2025 הסימנים הוויזואליים כבר לא מספיקים. עין אנושית לא תמיד תזהה דיפ־פייק מתקדם.
מה כן עובד: ספקנות בריאה - אל תאמינו מיד, בדיקת מקור - האם קיים אתר אינטרנט מסודר? מאיפה הגיע הסרטון? אימות צולב - חפשו אישור ממקורות נוספים.
הקול המזויף של 2025 משכנע, אבל לא מושלם
איכות הקול: נשמעת חלול. מתכתית. חסר את החום האנושי שקשה להגדיר אבל אפשר להרגיש. קצב הדיבור: הפסקות לא טבעיות. כאילו מישהו מקליד את המשפט הבא. דיבור רובוטי שמנסה להישמע אנושי. הרגש לא שם: אמא שלך מבקשת עזרה דחופה בקול מונוטוני? משהו לא מסתדר. הבוס כועס אבל נשמע רגוע? דגל אדום. רעשי הרקע: משפטים קטועים. הגיות מוזרות. רעש רחוב כשהוא אמור להיות במשרד. הפרטים הקטנים שלא מסתדרים.
הכלל החדש שלכם ב-2025: אם מישהו מתקשר ומבקש משהו דחוף: כסף, סיסמאות, פעולה מיידית, תנתקו או תבקשו מספר להתקשר אליו בחזרה.
להשתמש בטכנולוגיה כדי להילחם בטכנולוגיה
לצד אימון החושים והטמעת ספקנות בריאה, קיימים כלים טכנולוגיים שיכולים לשמש עבורנו כחוות דעת שנייה. הם לא מושלמים אך הם יכולים לסייע בזיהוי מניפולציות.
הבלש הדיגיטלי האישי שלכם: קיימים בשוק כלים חינמיים לניתוח תוכן חשוד, אבל אף כלי אינו מדויק ב־100%. שירותים כמו https://www.aiornot.com למשל, מציעים זיהוי עבור מגוון סוגי מדיה, כולל תמונות, וידאו ושמע. גם כאן, הכלל הוא לא להסתפק בכלי אחד. לתת לעצמנו את פריבילגיית הספק לפני שאנחנו משתפים, מגיבים או מאמינים.
מסקנות: בנייה מחדש של אמון בעולם סינתטי
השאלה הגדולה איננה רק אם נדע לזהות זיופים. השאלה היא אם נדע לבנות מחדש את האמון בעולם שבו החושים שלנו כבר אינם מספיקים.
קרן שחרהתשובה לא תבוא מחשדנות פרנואידית. היא תגיע מהפנמה שאנחנו צריכים ללמוד דברים ישנים מחדש. האמון העתידי שלנו לא יכול להישען על עיניים ואוזניים בלבד. נדרשים יסודות חדשים: חוק מעודכן שמדביק את המציאות, אחריות של החברות שמפיצות תוכן ושל חברות ה-AI לסמן אותו.
וחינוך שמתחיל כבר מהגיל הצעיר: חינוך לספק, חינוך לשאלת שאלות.
מה שקרה ליוסי מחולון יכול לקרות לכל אחד מאיתנו. אבל אם נאמץ ספקנות בריאה, נפתח את החושים, ניעזר בכלים דיגיטליים ונדרוש אחריות מהמערכות שסביבנו, נוכל, אולי, לצמצם את הנזק.







