בעידן שבו מערכות בינה מלאכותית (AI) הופכות לחלק בלתי נפרד מהחיים הציבוריים, העסקיים והאישיים שלנו, עולה שאלה קריטית: האם אנחנו מקריבים את הפרטיות שלנו על מזבח הקדמה? למערכות הללו, שמשולבות כיום בתחומי הבריאות, החינוך, הפיננסים והשירותים הממשלתיים, יש רעב בלתי נדלה למידע האישי והפרטי שלנו. אם לא נדע להיזהר, אנחנו עלולים לגלות שהנתונים הכי פרטיים שלנו מופיעים בתשובות של ChatGPT או ג'מיני.
הרשות להגנת הפרטיות במשרד המשפטים מכוונת זרקור לאירוע, שעובר לרובנו מתחת לרדאר. במדריך ראשון מסוגו – "יישום טכנולוגיות מגבירות־פרטיות במערכות בינה מלאכותית", שמתפרסם כאן לראשונה, משורטט המאבק על הפרטיות כתהליך מתמשך, שבו שותפות גם החברות מפתחות ה-AI, גם הארגונים שמפעילים את אותם כלי בינה מלאכותית וגם כולנו-המשתמשים.
איפה בעצם הבעיה?
ראשית בעובדה שהבינה מלאכותית צורכת נתונים בהיקפים עצומים. המידע הזה - גיל, מצב בריאותי, היסטוריה פיננסית, תמונות ועוד - אינו רק עובר דרך המערכת, אלא עלול להיטמע בתוכה. למעשה מודלי AI מאומנים על בסיס הפרטים של אנשים ספציפיים ועלולים לזכור אותם גם אם קובץ הנתונים המקורי נמחק. התוצאה: תשובות עתידיות של הצ'אטבוט עלולות לכלול מידע או תמונה שלנו ואנחנו אפילו לא נדע.
2 צפייה בגלריה
מדריך ליישום טכנולוגיות מגבירות פרטיות במערכות בינה מלאכותית
מדריך ליישום טכנולוגיות מגבירות פרטיות במערכות בינה מלאכותית
מדריך ליישום טכנולוגיות מגבירות פרטיות במערכות בינה מלאכותית

כך למשל במערכות לזיהוי הונאות והלבנת הון בבנקים: כדי לזהות דפוסים של פשיעה פיננסית, ה-AI של המערכת צריך לנתח נתונים שעוברים מבנק אחד לבנק אחר, למערכת מיסוי או למערכת אכיפה. הנתונים האלה רגישים ביותר: סכומי כסף, פרטי חשבונות בנק, השקעות, פרטי אשראי. למעשה בגלל מגבלות חקיקה ורגולציה לא ניתן להעביר אותם בין המערכות, אלא אם יופעלו טכנולוגיות מגבירות פרטיות.
בעיה דומה קיימת במערכות תומכות החלטה קלינית בבתי חולים: מערכות אלה נשענות על עיבוד כמויות אדירות של מידע רפואי רגיש ממקורות שונים. ללא הגנה, מידע רפואי פרטי עלול לזלוג או להיחשף לצדדים לא מורשים, במהלך פיתוח רפואי או מחקר. גם בשירותים ממשלתיים כמו חינוך או קצבאות, שימוש במערכות AI משפיע ישירות על זכויות אזרחים. ללא מנגנוני פרטיות מובנים, הציבור עלול לגלות שהוא מטופל בחוסר רגישות, עד כדי תביעות משפטיות כנגד הממשלה.

2 צפייה בגלריה
פרטיות בעולם ה-AI
פרטיות בעולם ה-AI
פרטיות בעולם ה-AI
(shutterstock)

מסמך רשות הגנת הפרטיות מציע לאזן בין היכולות של מערכות הבינה המלאכותית לבין ההגנה על המשתמשים באמצעות טכנולוגיות מגבירות-פרטיות (Privacy Enhancing Technologies – PETs).
מדובר על שלוש טכנולוגיות:
1. שינוי ועיבוד הנתונים (Data Transformation)- המטרה כאן היא להפוך את הנתונים לפחות מזוהים אישית, (anonymize), אך מבלי לפגוע בהסקת המסקנות של ה-AI. כך למשל, במקום להשתמש במידע רפואי אמיתי של חולים, יוצרים נתונים סינתטיים שמשקפים את מאפייני האנשים מבחינה סטטיסטית מבלי לזהות אותם אישית. ניתן גם להוסיף "רעש" לנתונים (Noise Injection) כדי למנוע זיהוי של אדם ספציפי בתוך המאגר.
2. הגבלת גישה וחישוב מאובטח (Secure Computation) – בשיטה זו ניתן לבצע חישובים מורכבים על נתונים מבלי לחשוף אותם כלל. למשל בטכנולוגיית חישוב מאובטח רב-צדדי (MPC) מספר בנקים יכולים לשתף פעולה בזיהוי הלבנת הון, מבלי שאף בנק יראה את הנתונים הגולמיים של הלקוחות של הבנק האחר. טכנולוגיה נוספת מכונה "הצפנה הומומורפית" והיא המאפשרת למערכת AI לעבד נתונים מוצפנים כך שהמידע נשאר חסוי גם במהלך העיבוד.
3. בקרה ושקיפות (Governance & Monitoring)- כלים שנועדו לוודא שהמערכת אינה יוצאת משליטה בשום שלב. בין השאר משתמשים בכלים למעקב אחר זליגת מידע, שימוש במנגנון תיעוד פעולות (Audit Trails) ומנגנוני הרשאות מתקדמים שמונעים שימוש חוזר בנתונים.
ממסמך ההמלצות עולה שאין פתרון קסם אחד לבעיית ההגנה על הפרטיות במערכות בינה מלאכותית. הגנה אפקטיבית דורשת שילוב של מספר טכנולוגיות לאורך כל מחזור החיים של המערכת. כמו כן, שימוש בטכנולוגיות מגבירות פרטיות, מאפשר לחברות לפתח מודלים מדויקים יותר ולשתף פעולה ביניהן מבלי לחשוף נתונים פרטיים.
אחרי כל זה צריך להבין: יש בעיות עמוקות בתחום הפרטיות בבינה מלאכותית שלא ניתנות לפתרון רק באמצעות מערכות תוכנה. ראשית, אין דרך להבטיח 100% אנונימיות ונתונים "מותממים" עלולים להיות מזוהים מחדש בשילוב עם מקורות מידע חיצוניים. שנית, קשה למנוע ממודלי AI לזכור פרטים אישיים שהופיעו בנתוני האימון שלהם. בכלל, מרגע שהמודל יוצא ממגרש האימונים לחיים האמיתיים, קשה לשלוט בו: הוא עלול ללמוד שיטות חדשות, לקלוט מידע שישנה את התנהגותו, לפעמים הוא ממש "יורד מהפסים", כלומר מאמץ דפוסי התנהגות חריגים. כל זה כדי להגיד - מעורבות בני אדם נדרשת וכנראה תידרש גם בעתיד.
המסר העיקרי של מסמך הרשות להגנת הפרטיות, הוא ששמירה על פרטיות אינה מכשול לחדשנות. להיפך, היא התנאי לקיומו. היא מאפשרת שיתוף מידע בין ארגונים, פיתוח מודלים מדויקים יותר, שימוש בנתונים רגישים ללא חשיפה, שיפור אמון הציבור במערכות AI ועמידה בדרישות חוקיות ורגולטוריות.
המדריך מבקש להציב את ישראל בשורה אחת עם המדינות המובילות בעולם באימוץ סטנדרטים מתקדמים של AI אחראית. האם ישראל אכן תתייצב שם? זה כבר תלוי במפתחי הבינה המלאכותית בישראל, במנהלי המוצרים, במנהלי הפרויקטים הממשלתיים וביועצים המשפטיים. מדובר בקריאת השכמה: העתיד של החיים במחיצת הבינה המלאכותית תלוי ביכולת שלנו לשלב הגנה על הפרטיות כבר מהשורות הראשונות של הקוד.
פורסם לראשונה: 15:05, 18.01.26