יישום חינמי התקפי חדש, המאפשר לאמנים להשיב מלחמה נגד בינה מלאכותית יוצרת (GenAI) ולשבש מודלים המתאמנים על יצירותיהם ללא הסכמתם, הופך בהדרגה ללהיט ברשת וזכה ל-250 אלף הורדות כבר בחמשת הימים הראשונים להשקתו.
1 צפייה בגלריה
אמן כועס על בינה מלאכותית
אמן כועס על בינה מלאכותית
אמן כועס על בינה מלאכותית שמשתמשת ביצירות שלו
(התמונה הנוצרה באמצעות מחולל התמונות DALL-E3)
הכלי, שנקרא Nightshade, נוצר על ידי חוקרי מדעי מחשב באוניברסיטת שיקגו, ומתייחס לתוכנות AI פופולריות כמו DALL-E, Midjourney ואחרות, שמאפשרות ליצור תמונות באיכות גבוהה על-פי הנחיות טקסט בלבד. כמו כל יישום בינה מלאכותית, התוכנות הללו מתבססות על כמות אדירה של מידע – במקרה זה מיליארדי יצירות אמנות - שנאסף לצורך יצירת המודל עליהן הן מתבססות.
Nightshade מאפשר לאמנים להוסיף שינויים בלתי נראים בפיקסלים בצילומי יצירות האמנות שלהם לפני שהם מעלים אותן לרשת, כך שאם ייכללו במאגרים המשמשים לאימון בינה מלאכותית הם יטעו את אלגוריתם למידת המכונה, ויוכלו לגרום למודלים נזקים חמורים: כובעים יהפכו לעוגות, תיקים לטוסטרים, כלבים לחתולים, מכוניות לפרות, וכן הלאה. המחקר שעליו הוא מתבסס הוגש באחרונה לביקורת עמיתים בכנס אבטחת המחשבים Usenix.
ריפרש
המהפכה האמנותית של הבינה המלאכותית / עם אדי גולדנברג
48:15
חברות העוסקות בבינה מלאכותית, כמו גוגל, מטא, OpenAI ועוד, מתמודדות באחרונה עם שורה ארוכה של תביעות מצד אמנים, הטוענים כי יצירות שלהם, המוגנות בזכויות יוצרים, נכללו במאגרי האימון ללא הסכמה או פיצוי. לדברי פרופ' בן ז'או מאוניברסיטת שיקגו, שהוביל את הצוות שיצר את Nightshade, התקווה היא שהיישום יעזור "להטות את מאזן הכוחות" מחברות AI כלפי אמנים, באמצעות יצירת הרתעה משמעותית מול הזלזול וחוסר הכבוד לזכויות יוצרים ולקניין רוחני בכלל.
זמן קצר לאחר השקת Nightshade ברשת, הביקוש להורדות שלו כמעט הפיל את שרתי האינטרנט של אוניברסיטת שיקגו, עד שיוצריו נאלצו להוסיף "קישורי מראה" נוספים, שיאפשרו הורדה גם ממיקומים אחרים בענן. "ציפיתי שהיישום יתקבל בהתלהבות גבוהה מאוד", אמר ז'או השבוע, "אבל התגובה היא מעבר לכל מה שדמיינו".
הצוות של ז'או הוא גם זה שפיתח את Glaze, כלי ותיק יותר אך הגנתי באופיו, שמאפשר לאמנים "להסוות" את הסגנון האישי שלהם כדי למנוע את הכללתו במאגרי חברות בבינה מלאכותית. גם Glaze מתבסס על שינוי פיקסלים של תמונות בדרכים עדינות שאינן נראות לעין האנושית, אך מספיקות כדי להטעות מודלים של למידת מכונה. הצוות מתכוון לשלב בקרוב את Nightshade ב-Glaze, ואמנים יוכלו לבחור אם הם רוצים להשתמש גם בכלי החדש, שהוא התקפי באופיו, ל"הרעלת נתונים" או לא.

מומחי האבטחה מודאגים

Nightshade יופץ גם בקוד פתוח, מה שיאפשר למפתחים שונים ליצור לו גרסאות משלהם. לדברי ז'או, ככל שיותר אנשים ישתמשו ביישום, כך הוא יהפוך חזק יותר. מערכי הנתונים של מודלים גדולים של בינה מלאכותית יכולים להכיל מיליארדי תמונות, כך שככל ש"ייקצרו" יותר תמונות "מורעלות" לתוך המודלים, כך ייגרם להם נזק רב יותר. את הנתונים ה"מורעלים" קשה להסיר, מכיוון שהם דורשים מחברות הטכנולוגיה למצוא ולמחוק בדקדקנות כל דגימה פגומה.
חוקרי הצוות של ז'או בחנו את היישום על מודלים של מחולל התמונות Stable Diffusion. הם הזינו את המודל ב-50 תמונות "מורעלות" של כלבים ואז הנחו אותו ליצור תמונות של כלבים: התמונות שהתקבלו היו של יצורים עם גפיים מיותרים ופרצופים מעוותים. העובדה שמודלים של בינה מלאכותית יוצרת עושים שימוש ביצירת קשרים בין מילים רק עוזרת ל"רעל" להתפשט. Nightshade מדביק לא רק את המילה "כלב" אלא את כל המושגים הדומים או קשורים, כגון "כלבלב" ו"זאב".
הטכנולוגיה החדשה אולי תשרת את האמנים במאבק של שמירת זכויותיהם, אבל כבר מדאיגה מומחים בעולם, החוששים שאנשים ינצלו אותה לרעה לשימושים זדוניים ולגרימת נזק ממשי למודלי בינה מלאכותית. "אנחנו עדיין לא מכירים הגנות חזקות נגד התקפות כאלה, כי עדיין לא ראינו התקפות הרעלה משמעותיות על מודלים של למידת מכונה, אבל זה יכול להיות רק עניין של זמן", אמר ויטלי שמטיקוב, פרופסור באוניברסיטת קורנל, שחוקר אבטחת מודלים של AI.