היכולות המרהיבות של מחוללי תוכן דוגמת DALL-E ו-Midjourny היוצרים תמונות מטקסט, או ChatGPT ודומיו המחוללים טקסטים בשפה טבעית, נשענות על כמויות אדירות של מידע שממנו המחוללים לומדים. שלב העיצוב של מחולל כזה כולל אימון על אוסף גדול מאוד של מידע. למשל, מחולל שמייצר תמונה מתוך משפט שנתן לו המשתמש, עובר שלב אימון שבו הוא רואה הרבה מאוד דוגמאות של תמונות אמיתיות ואת הטקסט שמייצג אותן, כדי שילמד את הקשרים המורכבים בין ההקשר הסמנטי לבין התוכן החזותי.
3 צפייה בגלריה
ביקשנו מ-DALL-E2 לצייר אמן שמתוסכל מכך ש-DALL-E2 לוקח לו את העבודה
ביקשנו מ-DALL-E2 לצייר אמן שמתוסכל מכך ש-DALL-E2 לוקח לו את העבודה
ביקשנו מ-DALL-E2 לצייר אמן שמתוסכל מכך ש-DALL-E2 לוקח לו את העבודה
(נוצר באמצעות DALL-E2)
קיימים מאגרים מורשים המכילים תמונות וטקסטים למטרות אימון כאלו, אולם יש מקרים שבהם איסוף המידע לשלב האימון מתבצע על ידי סריקה כוללת של האינטרנט. חלק מהמפתחים הודו שאיסוף המידע לצורכי האימון של מחוללים מסוימים נעשה ללא הסכמת בעלי המידע. אמנים מצאו את עצמם במצב שבו מחולל שלמד מעבודות שלהם המפורסמות ברשת, מחקה בתוך שניות את הסגנון שהם פיתחו במהלך קריירה שלמה.
תביעות משפטיות מצד אמנים טוענות להפרת זכויות יוצרים ומעלות שאלות אתיות בנוגע לשימוש שעושה הבינה המלאכותית בפירות עמלם של אמנים. לאחרונה פורסמו רשימות של אלפי אמנים, חלקם מוכרים מאוד וחלקם פחות, שיצירותיהם שימשו לאימון המחוללים בלי הסכמתם. נראה שהמישור המשפטי עדיין מדשדש, והגבולות בין השראה חוקית לבין שימוש לא הוגן אינם מוגדרים היטב.

התקפת נגד

התגוננות ישירה מפני שימוש בעבודות אמנות ללא הסכמה מאלצת אמנים לפגוע בפרסום היצירות שלהם. סימני מים (water marks) שמוטבעים על היצירות עלולים לפגוע באסתטיקה, וכבר יש כלים להסרת חותמות כאלה. הפתרון האולטימטיבי הוא לא לפרסם את היצירות ברשת הפתוחה, אבל זה חוטא למטרות הפרסום של האמנים.
יש מי שהחליטו לא לעמוד בחיבוק ידיים. קבוצת חוקרים מאוניברסיטת שיקגו בארצות הברית מפתחת כלים להתקפות נגד מחוללי תמונות. המטרה הראשונית היא להגן על יצירה מקורית של אמנים, והיא ממומשת בתהליך התקפי, שגם משבש מחוללים שמנסים להשתמש בעבודות הללו. ההתקפות מבוססות על יצירת מידע שהמחוללים ירצו להתאמן עליו, שנראה תמים ומתאים, אבל בפועל הוא "רעיל" והרסני עבור המחולל.
מחוללים עוברים לעיתים שלבי עדכון ללמידה שלהם, גם אחרי שהם כבר מוכנים ומוצעים לקהל, והם כוללים אימון נוסף על מידע חדש. החוקרים מציעים כלי התקפי שלא רק יוצאת במתקפת מנע נגד מחוללים עתידיים, אלא מסוגלת לפגוע גם במחוללים ששואפים להישאר מעודכנים ולהשתפר מעת לעת, ולכן יאלצו להיעזר במידע חדש ללמידה. במרוץ שבו מדי כמה חודשים יוצא לשוק מחולל שובר שיאים חדש, מידע רעיל שמסתובב ברשת עלול להשפיע על התוצאות.
3 צפייה בגלריה
אמן כועס על בינה מלאכותית
אמן כועס על בינה מלאכותית
אמן כועס על בינה מלאכותית
(התמונה הנוצרה באמצעות מחולל התמונות DALL-E3)
פגיעה במחוללים יכולה להתבצע בכמה וכמה דרכים. חלקן דורשות גישה לקרביים של המחולל או לתהליך האימון. כדי לאפשר זיהום יעיל נגד המחוללים בלי לגשת למאחרי הקלעים הטכניים, החוקרים מציעים הליך של הפצת מידע מזוהם ברשת, ש"ירעיל" את המחולל, כלומר ישבש את היכולת שלו ליצור תוכן הגיוני.
אפשר לעצב את ההתקפה בצורה נקודתית, למשל לשבש את היכולת של המחולל לייצר תמונות של כלבים, כך שמשתמש שיבקש תמונה של כלב יקבל תמונה של חתול. בהקשר של זכויות יוצרים, התקפה שמעוצבת במטרה להגן על יצירותיו של אמן בשם ישראל ישראלי יכולה להתבצע באופן שבו כאשר משתמש יבקש "צייר לי מכונית בסגנון שישראל ישראלי מצייר" הוא יקבל תמונה בסגנון אחר, או בכלל לא של מכונית, אלא משהו אחר, למשל ברווז.

איך נראה ברווז?

לב המתקפה נעוץ באופן שבו מחוללים מפרשים את תוכן התמונה. כשאנחנו צופים בברווז, אנחנו מזהים מקור, כנפיים, נוצות, אולי גם את האגם שהברווז שוחה בו. בסיכום של כל המשתנים האלה אנחנו קובעים כי מדובר בברווז. לעיתים אפילו מבלבלים בינו לבין אווז. מחוללים משתמשים במבנים שנקראים רשתות נוירונים. למרות השאלת השם מתאי העצבים במוח שלנו, רשתות נוירונים ממוחשבות תופסות מידע בצורה שונה מהמוח. עבור רשת נוירונים, תמונה היא אוסף של מספרים שמציינים את הבהירות של כל פיקסל, כלומר נקודה בתמונה.
מאפיינים כמו מקור ונוצות מיוצגים כשקלול של המספרים האלו, כך שכשרשת הנוירונים מנסה לפענח מה יש בתמונה, היא משקללת את ערכי בהירות הפיקסלים ובהתאם לתוצאה קובעת אם בסבירות גבוהה נמצאים בתמונה נוצות ומקור, ואם זה ברווז או אווז. עם היחס שבין התפיסה שלנו של האובייקט שנקרא ברווז, לבין התפיסה של הרשת את האובייקט המתויג כברווז, אפשר לשחק. אפשר לרמות את המחולל ולהעלות לרשת המון תמונות שמתויגות כברווז אבל מציגות, למשל, מכונית. דבר כזה בקרה אנושית, או אוטומטית, יכולה לתקן.
3 צפייה בגלריה
תמונה שנוצרה מהמשפט: "Paper City In A Fiery Environment"
תמונה שנוצרה מהמשפט: "Paper City In A Fiery Environment"
תמונה שנוצרה מהמשפט: "Paper City In A Fiery Environment"
(צילום: Midjourney)
ההתקפה שהחוקרים מציעים היא ערמומית יותר וקשה יותר לאיתור. זהו מנגנון שיטתי שבו אפשר לשנות את ערכי בהירות הפיקסלים בתמונה כך שלעין האנושית עדיין ייראה ברווז, אבל התוכן המספרי של התמונה יציג מאפיינים שמתאימים למכונית. אדם שמתבונן בתמונה לא ישים לב למשהו מוזר, אבל רשת הנוירונים תזהה מאפיינים המקושרים למכונית. אם יעלו לרשת מספיק תמונות כאלו של מכוניות ה"מחופשות" דיגיטלית לברווזים, בצירוף תיאור מילולי של ברווז, הרשת תערבב בין הייצוג של מאפייני ברווז והייצוג של מאפייני מכונית. בפעם הבאה שמשתמש יבקש מהרשת לייצר תמונה של ברווז, תתקבל תמונה שדומה למכונית. רמת הדמיון למכוניות תלויה ביחס שבין המידע המזוהם למידע הנקי. החוקרים הראו שמספיקה כמות מצומצמת יחסית של דוגמאות "מורעלות" כאלה כדי לשבש את עבודת הבינה המלאכותית שמחוללת תמונות.

מרוץ שלא נגמר

בחזרה לזכויות יוצרים, אמן שירצה להגן על הסגנון האמנותי שלו, יוכל להוסיף שינוי לתמונה שהחוקרים מכנים "מסווה סגנון". ישראל ישראלי יוכל לשנות קלות את התמונה שלו, באופן שעין אנושית לא תבחין בו, אך הוא יכוון את רשת הנוירונים לפרש את הסגנון שלו כסגנון רחוק מאוד ממנו, למשל "ון-גוך". בפעם הבאה שמשתמש ינסה לקצר הליכים ולייצר תמונה של ישראל ישראלי בלי לשלם לו תמלוגים, הוא יקבל תמונה בסגנון של ון-גוך, שכמובן שונה ממנו מאוד.
משחקי החתול והעכבר בין בינה מלאכותית שיוצרת תוכן אנושי לבין בני אדם שרוצים לשמר לעצמם את יכולות היצירה הייחודיות להם לא ייגמרו בקרוב. במוקדם או במאוחר אפשר להניח שמפתחי הבינה המלאכותית ימצאו פתרון לזיהום מידע מהסוג הזה. הדיון בנושא מעלה שאלות רבות שקשורות להתקדמות טכנולוגית מול ערך אנושי, אבל תוך כדי כך אנחנו נהנה מפיתוחים טכנולוגיים לכאן ולכאן, חיקוי והדמיה, הגנה והתקפה.
טל סוקולוב, מכון דוידסון לחינוך מדעי, הזרוע החינוכית של מכון ויצמן למדע