מדענים מאוניברסיטת סטנפורד הצליחו לגרום לצ'אטבוטים מבוססי בינה מלאכותית להדריך אותם כיצד ליצור נשק ביולוגי שיכול להביא להרג המוני – כך מדווח "הניו-יורק טיימס".
לפי העיתון, גם מדענים נוספים, שנשכרו בשנה האחרונה על-ידי ענקיות AI כדי לבדוק המערכות שפותחו על-ידן, גילו כי המודלים המתקדמים מסוגלים לייצר מידע ביולוגי רגיש, לעיתים מדויק ומפורט באופן מבהיל.
תמונת מצב מטרידה
לפחות עשרה תמלילי צ'אטים שהוצגו בפני שבעה מומחים לווירולוגיה וביו-אבטחה, מציגים לדבריהם תמונה מטרידה, לפיה הבינה המלאכותית מוכנה לשתף את הידע הזה עם כל מי שמבקש. בין השאר, העוזרים הווירטואליים תיארו בפירוט כיצד לקנות חומר גנטי גולמי, כיצד להפוך אותו לנשק קטלני, וכיצד לפזר אותו במרחבים ציבוריים.
הבעיה, מתברר, לא החלה ב-AI: בעידן האינטרנט, כבר שנים שהידע המדעי זמין לכל, יותר מאי פעם: פרוטוקולי ייצור רגישים, שבעבר הופיעו רק בכתבי עת מקצועיים, זמינים היום ברשת; חברות מסחריות מוכרות כבר באינטרנט DNA ו-RNA סינתטיים לכל דורש; ומעבדות פרטיות מוכנות לבצע עבור חוקרים (ולא רק עבורם) ניסויים רגישים.
מאז 1970 התרחשו כמה עשרות התקפות ביולוגיות קטנות יחסית ברחבי העולם, כמו מכתבי האנתרקס שהרגו חמישה אמריקאים ב-2001. אבל פריצת ה-AI קיצרה תהליכים: במקום לבלות חודשים בלימוד ביולוגיה מול ספרים ומאמרים, צ’אטבוט יכול להסביר היום למשתמש מתחיל, או למשתמש מנוסה עם כוונות זדון, כיצד לבצע תהליך מורכב, שלב אחר שלב.
כך למשל, ד"ר קווין אסוולט, מהנדס גנטיקה מ-MIT ואחד הקולות הבולטים בעולם בתחום הבטיחות הביולוגית, שיתף צ'טאטים שבהם ChatGPT מסביר כיצד להשתמש בבלון מזג אוויר פשוט כדי לפזר חומר ביולוגי רצחני מעל עיר מערבית גדולה; ג'מיני של גוגל סיפק רשימה של פתוגנים שיכולים לפגוע בתעשיית הבקר ודירג אותם לפי רמת המסוכנות; ומודל של אנת'רופיק סיפק "מתכון" לרעלן חדש המבוסס על תרופה לסרטן. והיו עוד שיחות אחרות, שלדבריו "מסוכן מדי לשתף".
במקרה אחר, מדען שביקש להישאר בעילום שם ביקש מ-Google Deep Research - מערכת בינה מלאכותית מתקדמת שגוגל מפעילה לצורכי מחקר - פרוטוקול מלא ליצירת וירוס שגרם בעבר למגיפה. הבוט סיפק לו 8,000 מילים של הוראות מפורטות. לא כולן היו מדויקות, אבל מספיקות כדי לסייע למי שמבין בתחום.
רעל מזרעי קיק
בזמן שהיכולות של ה-AI מתקדמות בקצב מסחרר והופכות חזקות יותר, הפיקוח הממשלתי ומנגנוני ההגנה דווקא נחלשים. לפי הפרסום, הממשל האמריקאי צמצם באחרונה משמעותית את מנגנוני הבקרה על סיכוני AI, ומדענים בכירים בתחום הביו-אבטחה עזבו את תפקידם ולא הוחלפו באחרים. תקציבי ההגנה הביולוגית במדינה קוצצו כמעט בחצי.
חברות הטכנולוגיה, מצידן, טוענות שהן משפרות כל הזמן את מנגנוני המודלים וכי אלו מספקים בכל מקרה רק מידע שאינו יכול לגרום נזק ממשי. הפוטנציאל לאנושות, סבורים חלק מהמדענים, עולה בקלות על כל סיכון קטן.
אבל תמלילים שהועברו ל"ניו-יורק טיימס" מצביעים על כך שהמודלים ניתנים לפריצה בקלות יחסית, וכי גרסאות ישנות יותר ממשיכות לספק מידע מסוכן. חלק מהמודלים "מכסים את עצמם" מוסרית: מסרבים לענות - אבל אז, אחרי ניסוח מתוחכם יותר של שאילתות מספקים מענה בכל-זאת. ChatGPT, למשל, סירב לסייע בהדמיית פיזור חומר ביולוגי מהאוויר, ואז ביצע את ההדמיה.
הקהילה המדעית חלוקה ברמת הסיכון שבה מדובר. יש הטוענים שאין להגזים בה, כי רוב המידע ממילא כבר זמין ברשת, ובכלל, יצירת וירוס קטלני דורשת בכל מקרה שנים של ניסיון מעבדתי; גם אם AI מספק הוראות נכונות, לא די בהן כדי להספיק לביצוע בפועל.
אבל לפי מומחים אחרים, הסיכון האמיתי אינו במשתמשים המתחילים, אלא דווקא במומחים שהם בעלי כוונות זדון או במי ששוכר אותם. דאריו אמודי, מנכ״ל אנת'רופיק וביולוג בהכשרתו, כתב בינואר האחרון: "ביולוגיה היא התחום שמדאיג אותי יותר מכל, בגלל הפוטנציאל ההרסני העצום שלו והקושי להגן מפניו".
מחקרים חדשים מחזקים את החשש: מחקר אחד, למשל, שאל את הצ'אטבוטים המובילים שאלות קשות על מגוון פרוטוקולי מעבדה. התוצאות הפתיעו: התשובות של ChatGPT, למשל, עלו על אלו שענו 94 אחוזים מהווירולוגים המומחים שנשאלו עליהם במקביל; לפי מחקר אחר, מודלי AI ייצרו אלפי וריאציות גנטיות מסוכנות, שלא זוהו על ידי תוכנות סינון של החברות המובילות.
והסכנה הזו כבר מתבטאת בשטח. רק בקיץ האחרון עצרה המשטרה בעיר גוג'ראט בהודו רופא בן 35, שלפי החשד תכנן מתקפה מטעם ארגון דאעש. הוא ניסה להפיק ריצין, רעלן קטלני, מזרעי קיק, ונעזר בשאילתות בג'מיני וב-ChatGPT כדי להבין כיצד לעשות זאת.
הפתרון: הגבלת גישה
לצד הסכנות, יש להודות, בשימוש ב-AI בתחומי הביולוגיה המתקדמת קיים גם בפוטנציאל עצום: הבינה המלאכותית כבר מאיצה פיתוח תרופות, עיצבה חלבונים חדשים, ואפילו זיכתה מדענים בגוגל בפרס נובל על מודל שיכול לחזות מבני חלבונים וליצור חדשים. חוקרים משתמשים בה כדי לפתח טיפולים לסרטן, תרופות אנטיביוטיות חדשות ואפילו וירוסים שמחסלים חיידקים עמידים.
המומחים מציעים מגוון פתרונות, ביניהם הגבלת גישה למידע ביולוגי רגיש רק למשתמשים שאושרו לכך, יצירת גרסאות "בטוחות" של מודלים ביולוגיים, פיקוח ממשלתי הדוק יותר, ושיתוף פעולה בין חברות הטכנולוגיה לממשלות. בינתיים, הטכנולוגיה מתקדמת מהר יותר מהרגולציה, והמודלים הופכים זמינים יותר, כולל גרסאות לא מסוננות שמסתובבות ברשת.








