הצ'אטבוט המפורסם ChatGPT פרץ לחיינו בסערה בנובמבר 2022, והכניס את יכולות השפה המתקדמות של הבינה המלאכותית לכל בית. הוא הפך ליישום הצרכני עם הצמיחה המהירה ביותר בהיסטוריה עם מעל מאה מיליון משתמשים חודשיים פעילים, והאיץ את קצב ההשקעות והתחרות סביב הבינה המלאכותית הגנרטיבית. פתאום, כבר לא היה מדובר במשהו עתידני ורחוק, אלא ביכולות שקיימות בהווה ומשנות תחומים רבים בקצב מסחרר.

עוד בנושא:

ניתן לשער כי עבור רבים מהצרכנים, המשיכה הגדולה אל אפליקציות הבינה המלאכותית הגנרטיבית בכלל, ואל ChatGPT בפרט, התבססה לא רק על יכולותיו ועל התוצרים שהוא מפיק, אלא גם על התחושה שמדובר במעין קסם - שמתבססת על המסתורין סביב אופן פעולתו. אלא שעם העניין הציבורי והכלכלי בטכנולוגיה, התעורר גם עניין אצל הרגולטורים, ועבורם אותו מסתורין הוא לא סימן טוב - הם דורשים תשובות, והתיישרות לפי כללים.
4 צפייה בגלריה
ChatGPT
ChatGPT
ChatGPT
(צילום: trickyaamir, Shutterstock)
ככל שהשיח הנלהב מהאפשרויות החיוביות של אפליקציות אלה מתרחב גם לסכנות ולפגיעה שהם מביאים עמם, הוא מביא לתגובה של רגולטורים ומחוקקים שונים מסביב לעולם. האם בקרוב ענקיות הטכנולוגיה יאלצו להגביל או להאט את הפיתוחים בתחום? אלו כמה מהצעדים שננקטים היום מסביב לעולם.

אירופה

נדמה שכרגיל כאשר מדובר ברגולציה על טכנולוגיה, גם הפעם אירופה מובילה. בסוף מרץ הרשות האיטלקית להגנה על המידע (Garante) הורתה ל-OpenAI להוריד את ChatGPT מהרשת באיטליה. הצעד היווה אמצעי בטיחות, בזמן שהרשות החלה לבחון אפשרות להפרה של חוקי פרטיות והגנת מידע אירופאיים על ידי היישום הפופולרי. ChatGPT משתמש בעיקר במידע מהרשת עבור אימון מודל הבינה המלאכותית שמאחוריו, אך באירופה, גם אם אותו מידע מוגדר כציבורי, אם הוא נוגע לאנשים פרטיים, עשויה להיות כאן הפרה.
בינתיים, ChatGPT חזר לפעול באיטליה, והחברה הכריזה על מספר שינויים. בין היתר, אמרה כי תספק שקיפות רבה יותר לגבי אופן פעולתה, ותציג טופס בו משתמשים מהאיחוד האירופי יוכלו להתנגד לשימוש במידע אישי לאימון המודלים. בנוסף, משתמשים כעת מתבקשים לאשר במהלך ההרשמה כי הם בני 18 ומעלה, או בני 13 ומעלה עם הסכמה של הורה לשימוש בשירות - חשש נוסף שהועלה על ידי הרגולטור. החברה גם אמרה לרשות כי היא לא מסוגלת לתקן את הפגם של המצאת מידע על אנשים בשלב זה, ולכן תאפשר להם למחוק מידע ש"נחשב לא מדויק".
השירות אמנם עומד כעת בתנאים ראשוניים שהוצבו ולכן חזר לפעול, אך לפי הרשות, הבדיקה נמשכת. הרשות גם עדיין מצפה מ-OpenAI לעמוד בדרישות נוספות - כמו שילוב מערכת לאימות גיל והרצת קמפיין מידע מקומי שיסביר לאיטלקים איך עיבדו את המידע שלהם, ועל הזכות שלהם לבחור שלא יעובד. הפעולות שלה העלו שאלות מעניינות על השימוש האפשרי במידע אישי ללא הסכמה, כולל מידע שנמסר במהלך השיחות עם הצ'אטבוט.
איטליה לא לבד: גם רשויות בספרד, צרפת, גרמניה ואירלנד חוקרות את נושא איסוף ושימוש במידע על ידי מערכות החברה. יש גם פעולות רחבות יותר ביבשת - הגוף שמאחד את רשויות הפרטיות של אירופה, The European Data Protection Board, הקים כוח משימה בנושא ChatGPT, שיתאם את החקירות והאכיפה סביב הצ'אטבוט, מה שעשוי להוביל למדיניות משותפת. לא מן הנמנע שבקרוב נשמע על חסימות נוספות באירופה, וגם צעדים כמו קנסות או חיוב במחיקת מידע, ושמדינות מערביות אחרות ילכו בעקבותיה.
אלא שהצרות של OpenAI וחברות נוספות מול הרגולציה האירופאית לא מסתכמות בנושא הפרטיות. האיחוד האירופי מנסח בימים אלו את סט החוקים המקיף הראשון במערב בנושא AI, שצפוי לעבור בהמשך השנה. בין היתר, לפי דיווחים, מפתחי כלי ה-AI יידרשו לפרט באילו חומרים המוגנים בזכויות יוצרים נעשה שימוש כדי לבנות את המערכות, מה שיאפשר ליוצרי החומרים האלה לדרוש תגמול כספי. באיחוד האירופי גם מוסיפים לחוק דרישות שלפיהן מפתחים יהיו חייבים לפתח מודלים עם אמצעים שימנעו מהם לייצר תכנים לא חוקיים. מדובר בשינוי גישה, שכן עד לאחרונה מטרת החוק הייתה להתמקד באפליקציות מסוכנות של AI, כמו מניעת שימוש משטרתי בכלי זיהוי פנים, ולא למודלים עצמם.

ארה"ב

בארה"ב הרגולציה סביב טכנולוגיה נוטה להיות מקלה בהרבה, ויש למדינה גם אינטרס חשוב של הובלה במרוץ מול סין. למרות זאת, גם שם מתגבשים מספר מהלכים מול הטכנולוגיה החדשה שמתפתחת במהירות. השבוע, הגיעו לבית הלבן המנכ"לים של OpenAI, גוגל, מיקרוסופט, והסטארט-אפ אנתרופיק (Anthropic) לדיון בנושא אמצעי בטיחות סביב AI עם סגנית הנשיא קמלה האריס ובכירים נוספים. האריס רצתה להעביר להן מסר שלפיו לחברות יש אחריות למנוע נזקים פוטנציאליים. באותו יום, הבית הלבן הודיע על השקעה של 140 מיליון דולר בפיתוח מכונים חדשים למחקר AI, ואמרו כי הם מצפים מחברות להסכים לסקירה של מוצריהם במסגרת כנס הסייבר DEF CON באוגוסט.
4 צפייה בגלריה
סם אלטמן וסונדר פיצ'אי בכניסה לפגישה בבית הלבן
סם אלטמן וסונדר פיצ'אי בכניסה לפגישה בבית הלבן
מנכ"ל OpenAI סם אלטמן ומנכ"ל גוגל סונדר פיצ'אי בכניסה לפגישה בבית הלבן
(צילום: Evan Vucci / AP)
בכירים נוספים בממשל האמריקאי התבטאו בנושא רגולציה סביב AI, כמו לינה קאן שעומדת בראש רשות הסחר הפדרלית. משרד המסחר אותת בחודש שעבר כי הוא שוקל לדרוש הליך בדיקה מקדים לפני שימוש במודלים של AI. גם צ'אק שומר, מנהיג הרוב בסנאט, אמר לאחרונה שהשיק מאמץ לחוקק חוקים על מערכות AI שיענו על חששות בתחומי ביטחון לאומי וחינוך. לדבריו, מטרת הרגולציה היא "למנוע נזק שעשוי להיות קטסטרופלי למדינה, אך גם לוודא שארה"ב תתקדם ותוביל בטכנולוגיה הטרנספורמטיבית הזו", וקרא לקידום חקיקה בשיתוף פעולה של שתי המפלגות. לפי הצעתו של שומר, חברות יצטרכו לאפשר למומחים עצמאיים לבחון את טכנולוגיות הבינה המלאכותית לפני שחרורן לציבור או עדכון שלהן, ולתת למשתמשים גישה לממצאים.
4 צפייה בגלריה
קמלה האריס
קמלה האריס
קמלה האריס
(צילום: AP)
האיום על כלי בינה מלאכותית גנרטיבית בארה"ב מגיע גם מכיוון פחות צפוי. בבית המשפט העליון נבחנת בימים אלו השאלה האם סעיף 230 של חוק הגינות התקשורת, שמגן על פלטפורמות מאחריות לתכנים שמפרסמים המשתמשים שלהן, צריך להגן על מנועי המלצות. הפסיקה, שצפויה להתקבל בחודש הבא, תקבע למעשה האם אלגוריתמים של המלצות נחשבים כיוצרי תוכן בפני עצמם. אם ייקבע כי החוק לא מגן על מודלים אלו, עשויות להיות לכך השלכות גם לגבי מוצרי בינה מלאכותית גנרטיבית, שיהיו חשופים לתביעות דיבה והפרות פרטיות. הסיבה לדיון בבית המשפט העליון הוא הרצון של משפחתה של נעמי גונזלס, סטודנטית מקליפורניה שנרצחה בהתקפת טרור של המדינה האיסלאמית (לשעבר דאעש) בפריז, לתבוע את יוטיוב בטענה שהמלצות המנוע שלה על תכנים שלו למשתמשים, סייע לארגון הטרור לגייס אנשים ולצמוח. לקריאה שלא להחיל את סעיף 230 על מודלים של בינה מלאכותית גנרטיבית הצטרפו גם מחוקקים שלקחו חלק בניסוח החוק.

סין

בסין, שוק משתמשי האינטרנט הגדול בעולם שמתאפיין בבדלנות וצנזורה, כבר שחררו טיוטת חוקים שמטרתה לנהל את האופן בו חברות מפתחות מוצרי בינה מלאכותית גנרטיבית. הרצון ברגולציה בסין נובעת ממוטיבציה שונה לגמרי. בין היתר, על בינה מלאכותית שתפותח במדינה לשקף את ערכי הסוציאליזם בתכנים שתייצר - כך נכתב בטיוטה שפרסם מנהל הסייבר של סין לקווים המנחים של החקיקה. בכך רומזים בסין על כך שהצנזורה הנהוגה במדינה על חופש הביטוי תיושם גם על צ'אטבוטים.
עוד קובעים הכללים כי בינה מלאכותית גנרטיבית לא תנסה לחתור תחת כוחה של המדינה, להפיל את המערכת הסוציאליסטית או לחתור תחת האחדות הלאומית. נאסר על קידום טרור, קיצוניות, שנאה על בסיס אתני או הפצה של מידע כוזב או תוכן שעשוי "לשבש את הסדר החברתי והכלכלי". גם הדאטה שתהיה בשימוש כדי לאמן את המודלים צריכה שלא להפלות אנשים. הכללים כוללים אפשרות לקנסות או השעיית הפעילות עבור הפרות חוזרות. לפי בלומברג, במדינה אף מתכננים לבצע בדיקות אבטחה של שירותי AI גנרטיבי לפני שיאפשרו להם השקה נרחבת במדינה.
מה זה בינה מלאכותית גנרטיבית?מה זה בינה מלאכותית גנרטיבית?תמונה: שאטרסטוק, עיבוד תמונה
פרסום הכללים הגיע אחרי שחברות סיניות כמו עליבאבא ובאידו חשפו את האלטרנטיבות שלהן ל-ChatGPT, אך לפני שהושקו באופן נרחב. בסין, בדומה לארה"ב, יש אינטרס לשמר הובלה לצד הרצון להחיל רגולציה. לכן במדינה מעוניינים לקדם את הפיתוח של אלטרנטיבות מקומיות, וסביר גם ששירותים זרים לא יורשו לפעול במדינה. סנוניות ראשונות לבינה גנרטיבית מצונזרת ראינו עם מחולל התמונות של באידו, ERNIE-ViLG, שסירב ליצור תמונות של כיכר טיאננמן ומנהיגים פוליטיים, ובמקום זאת תייג תכנים אלו כ"רגישים".

קריאות נוספות

פרט לכל המהלכים הללו, יש גם קריאות נוספות לרגולציה: ראש ממשלת יפן, פומיו קישידה, אמר לקראת ועידת G7 כי "יש ליצור חוקים בינלאומיים", וזמן קצר לאחר מכן, שרי הדיגיטל של מדינות ה-G7 קראו לאימוץ רגולציית AI.
קריאה מעניינת נוספת הגיעה ממנכ"ל קרן העושר של נורבגיה, ניקולאי טנגן, שלדבריו ממשלות צריכות להאיץ את רגולציית ה-AI. מדובר בקרן עושר של 1.4 טריליון דולר - הגדולה בעולם, והיא עתידה לפרסם כללים מנחים באוגוסט על איך החברות שבהן היא משקיעה צריכות להשתמש ב-AI בצורה אתית. הקרן משקיעה בכ-9,000 חברות, ביניהן ענקיות טכנולוגיה כמו אפל, אלפבית, מיקרוסופט ואנבידיה.
4 צפייה בגלריה
Bard ו-ChatGPT
Bard ו-ChatGPT
Bard של גוגל ו-ChatGPT של OpenAI
(צילום: JRdes / Shutterstock)
ואיך אפשר בלי להזכיר את המכתב שיצא בסוף מרץ, עליו חתומים אילון מאסק ושורת חוקרים ובכירים, בהם המייסד השותף של אפל סטיב ווזניאק, המדען הראשי של IBM גריידי בוץ', ההיסטוריון יובל נח הררי ועוד. החששות שהועלו במכתב היו גדולים בהרבה מפגיעה בפרטיות, בזכויות יוצרים או בערכי מדינה. המכתב קרא להשהיה של אימון מערכות AI לחצי שנה: "החברות נעולות במרוץ שיצא משליטה לפיתוח ופריסה של מוחות דיגיטליים עוצמתיים שאף אחד - כולל היוצרים שלהם - יכול להבין, לחזות או לשלוט עליו באופן מהימן". החוקרים הוסיפו כי "אם לא ניתן יהיה לבצע השהיה כזו במהירות, ממשלות צריכות להתערב ולאסור על זה זמנית".
המכתב הזהיר מפני תרחישים אפוקליפטיים אפשריים: "האם עלינו לפתח מוחות שאינם אנושיים ועשויים לבסוף לגבור עלינו במספר, להיות חכמים מאיתנו, להפוך אותנו למיושנים או להחליף אותנו? האם עלינו להסתכן באובדן השליטה על הציוויליזציה שלנו? החלטות כאלו לא צריכות להיות בידיים של מנהיגי הטכנולוגיה שלא נבחרו".
החששות גדולים, קצב ההתפתחות מהיר, והרגולציה, כרגיל בכל הנוגע לטכנולוגיה ותהליכי שינוי בפרט, איטית יחסית. האם יש לה סיכוי במרוץ הזה?