על רקע עליית רף איומי הסייבר על מערכת הבריאות במלחמת "שאגת הארי", הגביל משרד הבריאות את השימוש בכלי בינה מלאכותית (AI). מאחורי המכתב ששוגר לרופאים, עומד חשש אמיתי. "מערכת הבריאות היא יעד מועדף של תוקפים מדינתיים", אומר גיל מסינג, ראש המטה של צ'ק פוינט. פרופ' רן בליצר, סמנכ"ל וראש מערך החדשנות בכללית, מדגיש: "גם לרופא הבודד שאינו חלק מארגון, וגם למטופל בבית - הכלל הוא: מה שלא היית מעלה לפייסבוק, אל תעלה לצ'אט".
במכתב ששוגר בימים האחרונים למנהלי ארגוני הבריאות, מטעם ראובן אליהו, ממונה אבטחת מידע וסייבר במשרד, נאמר כי על פי הערכת מצב עדכנית באיומי הסייבר, "מזוהה עלייה משמעותית בסיכוני אבטחת מידע הנובעים משימוש בכלי בינה מלאכותית. כלים אלו מהווים כיום וקטור תקיפה מרכזי המנוצל על ידי גורמים עוינים לביצוע התקפות סייבר מורכבות, הנדסה חברתית ודלף מידע רגיש מארגוני הבריאות. לאור זאת, נדרשת נקיטת משנה זהירות וצמצום חשיפת הארגונים לסיכונים אלו".
עבור רוב הארגונים הגדולים מדובר בעיקר בחידוד נהלים, שכן הם ממילא מגבילים ומפקחים על השימוש בפלטפורמות חיצוניות. עם זאת, ישנם ארגונים שבהם רמת ההקפדה בנושא נמוכה יותר. "הרקע להנחיות האלה הן שתי תופעות שמתרחשות תמיד, אבל במלחמה המוטיבציה של התוקפים גדולה במיוחד לייצר נזקים, והצלחתם להשיג מידע רפואי נפיצה במיוחד בעת הזו", מסביר גיל מסינג, ראש המטה של צ'ק פוינט.
"תופעה אחת היא ניצול של כל מיני צרכים דחופים להתחזות לפלטפורמות בינה מלאכותית, ובפועל החדרת וירוסים מסוכנים דרך השימוש בפלטפורמות המתחזות. התופעה השנייה נובעת מהשימוש המואץ בפלטפורמות בינה מלאכותית השונות ברמת האבטחה שלהן", אומר מסינג. לדבריו, חוויית המשתמש אמנם טובה וקבלת התשובות מהירה, אך לעיתים רמת האבטחה אינה גבוהה מספיק, וכך נוצרים סיכוני אבטחה חדשים.
חולשות אבטחה ב-AI
"הסיכון מוגבר עכשיו ולכן מחדדים הנחיות שאני מניח שבעבר הייתה או פחות הנחיה או פחות אכיפה", מסביר מסינג. "אנחנו למשל בצ'ק פוינט מצאנו רק לאחרונה עשר חולשות אבטחה חמורות בפלטפורמות מאוד פופולריות, דוגמת קלוד ואחרות, ולכן העלאת מידע רגיש בעת הזו טומנת בחובה סיכון – שהיה קיים גם קודם, אבל במיוחד עכשיו, שכן במלחמה יש חשיבות גדולה במיוחד למידע שנמצא בידי מערכת הבריאות". לדבריו, חידוד ההנחיות של משרד הבריאות נוגע הן לשימוש הפרטי של רופאים במערכות אלה והן לשימוש המערכתי, אם כי שם מדובר בסיכון נמוך יותר, שכן אלו מערכות פנימיות היושבות על התשתית הארגונית.
במשרד הבריאות מסבירים במכתבם שכדי להגן על שלמות הנתונים ורציפות התפקוד של מערכת הבריאות, על ארגוני הבריאות "לצמצם באופן משמעותי ומיידי את השימוש בכלי בינה מלאכותית גנרטיבית וביישומי ענן חיצוניים שאינם מבוקרים לצורכי עבודה". הם מוסיפים כי "חל איסור מוחלט על הזנת נתונים ארגוניים, מידע רפואי, פרטי כוח אדם או קוד תוכנה לממשקי AI ציבוריים (כגון ChatGPT, קלוד וג'מיני – בגרסאותיהם הפתוחות)".
הנחיות משרד הבריאות מתייחסות גם לשימוש ב"כלים זדוניים". הם מסבירים כי יש ניסיונות של תוקפים "לפתות" עובדים להוריד כלי עזר מבוססי AI כגון תוספי דפדפן, אפליקציות או מודלים חיצוניים המכילים קוד זדוני. "כלים אלו נועדו לגנוב הרשאות גישה או להשתלט על תחנות עבודה בתוך רשת הארגון", נכתב. עוד מצוין כי תוקפים עושים שימוש ב-AI לאיתור מהיר של פרצות בקוד ובמערכות הארגון.
"לא להעלות מסמכים מזהים"
לצד ההגבלות, במשרד הבריאות מבהירים שניתן להמשיך ולהשתמש בכלים מאובטחים שאושרו רשמית, וכי הגבלה זו אינה חלה על פלטפורמות AI ארגוניות שמותקנות בתוך הארגון ומיועדות לעבודה מאובטחת, בכפוף לנהלי אבטחת המידע הפנימיים. הם קוראים למנהלי הארגונים לדווח מיידית למרכז הסייבר על כל פעילות חשודה או פנייה חריגה המקושרת לשימוש בכלי AI.
"אנחנו נמצאים בתקופת מלחמה, וחלק מהמשמעויות שלה בעידן הנוכחי אינן רק טילים אלא גם ניסיון של גורמים עוינים לפגוע בנו במרחב הפעילות שלנו ברשת", מסביר פרופ' רן בליצר, סמנכ"ל וראש מערך החדשנות בכללית. "מתוך כך עולה צורך לנהוג באופן זהיר, אף יותר מבימי שגרה, כדי להמשיך ליהנות מהתועלות העצומות של כלי AI - אך מבלי לסכן את המערכות ואת פרטיות המידע של המטופלים".
פרופ' רן בליצרלדבריו, בכללית - הקופה הגדולה בישראל - מיושמים פתרונות טכנולוגיים מתקדמים להגנה על כלי ה-AI הארגוניים, שמייצרים משנה זהירות המתאימה גם לימים אלה ולהמלצות משרד הבריאות. "לגבי עובדי מערכת הבריאות - הנחיות כללית אוסרות על העלאת מידע מזוהה לכלי AI חיצוניים, וזו המלצה נכונה לכל אדם: לא להעלות מידע או מסמכים מזהים לכלי הבינה הפתוחים ברשת. חשוב גם לא להתפתות להוריד מהרשת תוספים וכלים תומכים – חלקם אינם מה שהם נחזים להיות, ובעצם מדובר בכלים זדוניים".
"כל אדם - רופא או מטופל שמשתמש היום בכלים ברשת - צריך להבין שהרשת היא מקום שצריך להתנהל בו בתבונה, ולא מקום נטול סיכונים", הוא מוסיף. "צריך להפעיל שיקול דעת. לא צריך להעלות לקלוד או לצ'אט GPT מידע מזוהה".
היערכות למצב "אי בודד"
"הנחיות משרד הבריאות למעשה מחדדות את שגרת הניהול והעבודה שלנו", מוסיפה חגית הנדל, מנהלת מערכות מידע במרכז הרפואי בילינסון, מקבוצת כללית. "אנחנו מנחים את הצוותים שלא לעשות שימוש בכלי בינה מלאכותית חיצוניים שאינם מוסדרים - בכל הנושא של מידע על מטופלים, מידע רגיש אחר, או הזנת נתונים רפואיים לכלים אלה, שאסורה בהחלט. אלה הנחיות שאנחנו מדגישים בפניהם כל הזמן ומוציאים בנושאן הודעות".
הנדל מדגישה כי שימוש במערכות ציבוריות אינו "פתוח" עבור כלל אנשי הצוות. "יש כמות מצומצמת מאוד של אנשים שיכולים להשתמש בכלים אלה, וגם אז הפעילות שלהם מנוטרת כל העת". לדבריה, בבתי החולים בילינסון והשרון נעשה שימוש מאובטח בכלי בינה מלאכותית באמצעות מערכת מבוקרת. "כל מערכת AI שנכנסת לארגון עוברת תהליך ארוך של אישור - לא כל מערכת שנמצאת בחוץ יכולה להיכנס לכללית".
אמש עדכן משרד הבריאות כי הנחה את כלל ארגוני הבריאות להיערך למעבר מרמת כוננות ג' לרמה ד' במדיניות "אי בודד" - רמה אחת לפני הרמה הגבוהה ביותר במדרג הכוננות בהגנת הסייבר. במסגרת ההיערכות הונחו ארגוני הבריאות לבצע תהליך ניהול סיכונים מקיף, הכולל בין השאר בחינת מערכות תפעוליות וציוד רפואי קריטי, בחינת תשתיות ליבה כגון מערכות תקשורת, אבטחת מידע ומערכות הפעלה, זיהוי נקודות תורפה, הבטחת שרידות מערכות קריטיות והגברת המעקב אחר חריגות ודיווחים בתחום הסייבר. "אנחנו עוסקים בנושא הסייבר בשגרה, נערכים למתי זה יקרה ולא אם זה יקרה - מזה כמה שנים. זה חלק מפעילות שעת חירום, ואנחנו מתרגלים את הצוותים בנושאים השונים", מסבירה הנדל.









