לראשונה בישראל, ההסתדרות הרפואית קובעת כללי שימוש בבינה מלאכותית (AI) בתחום הרפואה. נייר עמדה חדש של הלשכה לאתיקה קובע כי האחריות על הטיפול הרפואי תישאר תמיד בידי הרופא, ולא תופקד בידי אלגוריתמים. הכללים החדשים מחייבים שקיפות מלאה מול המטופלים ונקיטת צעדים אקטיביים למניעת אובדן מיומנויות הרופא בשל תלות במכונה.
השימוש בבינה מלאכותית ברפואה הפך בשנתיים האחרונות למציאות יומיומית. היא מוטמעת במגוון רחב של כלים קליניים בבתי החולים ובקופות החולים, משיפור אבחון וטיפול עד לניתוחי נתוני עתק ומחקר רפואי. הטכנולוגיה כוללת מערכות לחיזוי סיכונים למצבים רפואיים מורכבים ומסכני חיים, מערכות המסייעות לרופאים בפענוח ממצאים בתחום הדימות, ו"בינה מוגברת" שמסייעת לרופאים בבחירת פרוטוקולים טיפוליים מותאמים אישית באונקולוגיה ובמתן אנטיביוטיקה.
לנוכח המהפכה הטכנולוגית והשימוש הנרחב בכלים של בינה מלאכותית בעולם הרפואה, הלשכה לאתיקה של ההסתדרות הרפואית בישראל (הר"י) תפרסם השבוע נייר עמדה ראשון מסוגו, המשרטט את גבולות הגזרה האתיים. המסמך קובע כלל ברזל מרכזי: המכונה לעולם לא תחליף את שיקול דעתו של הרופא. "הרופא ישתמש בכלי בינה מלאכותית כעזר בקבלת ההחלטות, אך לא כתחליף לשיקול דעת קליני", נאמר בהנחיות.
במרכז הכללים החדשים עומד עקרון ה"אדם שבמערכת" – פיקוח אנושי מקצועי על כל החלטה המתקבלת בסיוע אלגוריתמי. לפי הר"י, הרופא אחראי בלעדית לכל אבחנה או טיפול, ואסור לו להסתמך על החלטת מכונה באופן עיוור. ההנחיות החדשות קובעות כי על הרופא מוטלת האחריות לשמש מתווך מקצועי בין הכלים הדיגיטליים לבין המטופל, ולספק לו הסבר ברור ומושכל של תהליכי קבלת ההחלטות, מתוך ערכים של אמפתיה, אחריות מקצועית ואתיקה רפואית.
אחד החידושים המרכזיים נוגע לזכות המטופל לשקיפות. הרופאים נדרשים כעת ליידע מטופלים כאשר נעשה שימוש מהותי בבינה מלאכותית בתהליך קבלת ההחלטות בעניינם. יתרה מכך, על הרופא להסביר למטופל את ההיגיון שמאחורי ההמלצה שניתנת לו בשפה פשוטה ומובנת, על מנת לקבל את הסכמתו לטיפול.
שמירה על איזון
המסמך קובע כי שמירה על סודיות המידע היא תנאי הכרחי לאמון הציבור. נקבע איסור אתי גורף על שימוש מסחרי במידע רפואי שנאסף במערכות בינה מלאכותית ללא הסכמה מפורשת מהמטופל. כמו כן, על הרופאים לוודא כי הנתונים מוגנים תחת הסטנדרטים המחמירים ביותר של אבטחת מידע.
ד"ר יוסי ולפישלצד היתרונות, מזהיר המסמך מפני אובדן מיומנויות רופא בסיסיות כגון פענוח צילומים או קבלת החלטות תרופתיות בשל תלות יתר בבינה המלאכותית. הפתרון המוצע הוא שמירה על איזון: שימוש ב-AI ככלי עזר בלבד, תוך הקפדה על השתלמויות ואימון קליני עצמאי. כדי להבטיח את יישום העקרונות הללו ממליצה הלשכה לכל מוסד רפואי למנות ממונה אתיקה בבינה מלאכותית.
"אנחנו בעד טכנולוגיות חדשות ובינה מלאכותית בפרט, שכן זו דרכה של הרפואה להתקדם ולהציל חיים", מסביר יו"ר הלשכה לאתיקה, ד"ר יוסי ולפיש, "עם זאת, לנגד עינינו עומד כל העת המתח המהותי שבין הרצון לרתום את עוצמת ה-AI לשיפור עולם הרפואה לבין החובה להגן על האוטונומיה, הסודיות והעקרונות הבסיסיים ביותר של המקצוע.
יוסי ערבליךצילום: אלבום פרטי"מטרת המסמך אינה לומר לרופאים 'אל תשתמשו בבינה המלאכותית', אלא להפך: לעודד שימוש מושכל תוך הבנת המגבלות והסיכונים. החוזה שלנו מול המטופלים מחייב שהרופא יישאר המתווך המקצועי והאחראי, שנמצא בשליטה מלאה, שיידע לשאול את השאלות הנכונות על אמינות הכלי, ידאג להגנת הפרטיות ולתיקוף הנתונים, ולא יוותר על שיקול דעת אנושי ועל אמפתיה בתהליך הטיפולי".
יוסי ערבליך, יו"ר ארגון "למענכם", המעניק ייעוץ והכוונה רפואית ללא עלות, מתריע על סכנות השימוש בבינה מלאכותית בתחום הרפואה בפורומים שונים. לדבריו, "ההסתדרות הרפואית הרימה את הכפפה במקומה של מערכת הבריאות, ששוב נרדמה בשמירה. בכל העולם מבינים שלצד התועלת האדירה, שימוש בלתי מבוקר בבינה מלאכותית בסוגיות רפואיות עלול להיות הרה אסון. גיבוש הקוד האתי הוא מהלך קריטי ונחוץ לתחילת התיקון למצב שנקלענו אליו".
פורסם לראשונה: 00:00, 15.04.26






