שתף קטע נבחר

רובוטים למופת

רובוטים המקבלים החלטות אתיות עצמאיות, כמו אלו המטפלים בקשישים, עשויים לעמוד בפני דילמות מוסריות. דרך אחת להבטיח את התנהגותם היא לתכנת לתוכם עקרונות אתיים כלליים

דמיינו לכם שאתם דיירים במוסד סיעודי כלשהו, סביבה שבה רובוטים יהיו כנראה נפוצים בעתיד הקרוב. השעה כמעט אחת-עשרה בבוקר, ואתם מבקשים מן הסייען הרובוטי שבחדר הפעילות להביא לכם את השלט כדי שתוכלו להפעיל את הטלוויזיה ולצפות בתכנית אירוח. אלא שדיירת אחרת מבקשת גם היא את השלט, כי היא מעוניינת לראות שעשועון.

 

הרובוט מחליט לתת לה את השלט. בהתחלה אתם מתרעמים, אך הרובוט מסביר שההחלטה הייתה הוגנת מכיוון שאתם זכיתם לצפות בתכנית האהובה עליכם ביום שלפני כן. אנקדוטה זו היא דוגמה לפעולה שגרתית של קבלת החלטות אתית - אבל לגבי המכונה, מדובר במשימה קשה להפליא.

 

התרחיש שתואר כאן עדיין תיאורטי, אך אנו כבר יצרנו את הדוגמה הראשונה לרובוט שמסוגל לקבל החלטות דומות. הענקנו למכונה שלנו עיקרון אתי, שמשמש אותה כדי לקבוע באיזו תדירות עליה להזכיר לחולה ליטול תרופה.

 

התוכנה של הרובוט מסוגלת, לפי שעה, לבחור רק מתוך מבחר אפשרויות מצומצם: אם ומתי להמשיך ולהזכיר לחולה, או שמא לקבל את החלטתו לוותר על התרופה - אך למיטב ידיעתנו, זהו הרובוט הראשון שמסתמך על עיקרון אתי לקביעת פעולותיו.

 

יהיה קשה, אם לא בלתי אפשרי ממש, לחזות מראש כל החלטה שרובוט עשוי לעמוד בפניה ולתכנת אותו כך שיתנהג באופן הרצוי בכל מצב שאפשר להעלות על הדעת. מצד אחר, אם נמנע מן הרובוטים לבצע כל פעולה שכרוכה בשיקולים אתיים, אנו מגבילים בכך שלא לצורך את האפשרויות שלהם לבצע מטלות שישפרו מאוד את איכות החיים שלנו.

 

אנו סבורים שהפתרון הוא לתכנן רובוטים שיוכלו ליישם עקרונות אתיים במצבים חדשים ולא צפויים, כגון לקבוע מי יזכה לקרוא ספר חדש במקום להחליט מי יזכה הפעם בשלט. לגישה זו יש ערך מוסף בכך שהיא תאפשר לרובוטים להצדיק את התנהגותם לאור העקרונות האלה, אם יידרשו לעשות זאת, יכולת הכרחית, אם ברצוננו לגרום לבני האדם להרגיש נוח בעת האינטראקציה עמם.

 

עוד יתרון נלווה הוא שהניסיון לתכנן רובוטים אתיים עשוי להביא להתקדמות בתחום האתיקה עצמו, מכיוון שהוא יאלץ פילוסופים לבחון מצבים מן החיים האמיתיים. כפי שניסח זאת לאחרונה הפילוסוף דניאל ק' דֶנֶט מאוניברסיטת טַפְטְס: "בינה מלאכותית מחייבת את הפילוסופיה להיות ישרה".

 

אנוכי הרובוט

נראה שרובוטים עצמאיים יהיו בקרוב לחלק מחיי היום-יום שלנו. כבר כיום יש מטוסים המסוגלים להטיס את עצמם, ומכוניות הנוסעות מעצמן מצויות בשלבי פיתוח. אפילו "בתים חכמים" שמחשבים שולטים על כל פרט בהם, מן התאורה ועד מיזוג האוויר, יכולים להיחשב רובוטים שהבית כולו הוא הגוף שלהם - בדיוק כפי שהמחשב HAL 9000 שימש כמוחה של ספינת חלל רובוטית בסרטו הקלאסי של סטנלי קובריק "2001: אודיסיאה בחלל".

 

כמה חברות עוסקות בפיתוחם של רובוטים שיכולים לסייע לקשישים במשימות יום-יומיות, כהשלמה לסגל במוסדות סיעודיים או כאמצעי שמקל על הקשישים לחיות בביתם בכוחות עצמם. אמנם רוב הרובוטים האלה אינם צריכים לקבל החלטות של חיים ומוות, אך כדי שנקבל אותם בקִרבנו, פעולותיהם צריכות להיתפס הוגנות, צודקות או פשוט אדיבות. הממציאים שלהם צריכים אפוא להביא בחשבון את ההשלכות האתיות של התכנות שלהם.

 

אם מסכימים לטענה שהטמעת עקרונות אתיים במכונות עצמאיות חיונית להצלחתן ביצירת אינטראקציה עם בני אדם, השאלה הראשונה שמתעוררת היא: "אילו עקרונות יש להטמיע?" חובבי ספרות המדע הבדיוני עשויים לחשוב שאייזק אסימוב כבר סיפק את התשובה לפני שנים, בשלושת חוקי הרובוטיקה המקוריים שניסח:

  1. לא יפגע רובוט בבן אדם, ולא יניח, במחדל, שאדם יפגע.
  2. רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלה אינן עומדות בסתירה לחוק הראשון.
  3. רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני.

(מתוך "רובוטים של שחר", תרגום עמנואל לוטם)

 

אלא שהיו כבר אנשים שגילו שאם חושבים עד הסוף על ההשלכות של החוקים האלה, שניסח אסימוב לראשונה בסיפור קצר מ-1942, אפשר לגלות בהם סתירות. כמו כן, אסימוב עצמו הראה עד כמה החוקים בלתי הולמים בסיפורו "איש יובל המאתיים" מ- 1976, שבו בריונים אנושיים מצווים על רובוט לפרק את עצמו. הרובוט חייב לציית לבריונים בגלל החוק השני, ואין הוא יכול להגן על עצמו בלי לפגוע בהם, פעולה שתפר את החוק הראשון.

 

מוסר – כמו מתמטיקה

אם החוקים של אסימוב אינם קבילים, מהי החלופה? האם יכולה בכלל להיות חלופה? יש הסבורים שיישום של התנהגות אתית במכונות הוא חסר סיכוי. לטענתם, אתיקה אינה מסוג הדברים שאפשר לחשב, ולכן אי אפשר לתכנת אותה בשביל המכונה.

 

עם זאת, כבר במאה ה-19 טענו הפילוסופים האנגליים ג'רמי בנת'ם וג'ון סטיוארט מיל שקבלת החלטות אתית היא למעשה ביצוע של "אריתמטיקה מוסרית". התיאוריה של "תועלתנות-מעשה הדוניסטית" שהם ניסחו כתשובה לאתיקה המבוססת על אינטואיציה סובייקטיבית, טוענת שהפעולה הנכונה היא זו שצפויה להביא "הנאה נטו" מרבית, ואותה מחשבים באמצעות חיבור של יחידות ההנאה וחיסור של יחידות הסבל של כל המעורבים.

 

רוב האתיקנים מפקפקים ביכולתה של התיאוריה הזאת להקיף את כל הממדים של השיקול האתי. לדוגמה, היא מתקשה לכלול שיקולים של צדק, ועשויה להוביל להקרבתו של הפרט למען האינטרס של הכלל. אף על פי כן, היא לפחות מוכיחה שיכולה להתקיים, בעיקרון, תיאוריה אתית סבירה שאפשר לחשב אותה.


לחשב את התועלת של כל פעולה (אילוסטרציה: Index Open)

 

אחרים מטילים ספק בכך שמכונות יוכלו אי פעם לקבל החלטות אתיות, מכיוון שאין להן רגשות ולכן הן אינן יכולות להעריך את רגשותיהם של האנשים שעשויים להיות מושפעים מפעולותיהן. אלא שבני האדם מועדים כל כך להיסחף עם רגשותיהם, עד שלעתים קרובות הם מתנהגים בדרך לא אתית.

 

התכונה הזאת שלנו, היא וגם נטייתנו להעדיף את עצמנו ואת הקרובים והיקרים לנו, גורמות לנו לא פעם להיות מקבלי החלטות אתיות הרחוקות משלמות. לדעתנו, ייתכן בהחלט שמכונה שאומנה היטב תוכל להתנהג באופן חסר פניות וגם לתפוס רגשות אנושיים ולכלול אותם בחישוביה, אפילו אם לה עצמה לא יהיו רגשות.

 

ללמוד מדוגמאות

בהנחה שאפשר לצייד רובוטים בכללים אתיים, בכללים של מי יש לציידם? הלוא עד היום, לא הצליח איש לנסח אוסף כללי של עקרונות אתיים לבני אדם בעולם האמיתי, שיהיה מקובל על הכול. ועם זאת, מכונות מיוצרות בדרך כלל במטרה לתפקד בסביבה מוגדרת ומוגבלת.

 

קביעת פרמטרים אתיים להתנהגות במקרים כאלה היא משימה פחות קשה מאשר ניסיון להמציא כללים אוניברסליים להתנהגות אתית ולא-אתית, כפי שמנסים לעשות התיאורטיקנים של האתיקה. יותר מזה, כשמציגים לאתיקנים תיאור של מצב מסוים בהקשרים שבהם הרובוטים צפויים לפעול, רובם מסכימים ביניהם מה נחשב מותר מבחינה אתית ומה לא. (במצבים שבהם אין הסכמה כזאת, אנו סבורים שאין להתיר למכונות לקבל החלטות עצמאיות כלשהן).

 

חוקרים הציעו מגוון גישות שונות לגזירת כללים להתנהגות אתית של מכונה, לרוב בשיטות של בינה מלאכותית. לדוגמה, ב-2005 הציעו רפל רצפקה וקנג'י ארקי מאוניברסיטת הוקאידו שביפן "אלגוריתמים תלויי-דמוקרטיה" שיחפשו ברשת מידע על מה שנחשב בעבר, בעיני בני אדם, פעולות מקובלות מבחינה אתית, ולאחר מכן יבצעו ניתוח סטטיסטי כדי להפיק תשובות לשאלות חדשות.

 

ב-2006, טען מרצ'לו גואריני מאוניברסיטת וינדזור שבאונטריו שאפשר להשתמש ברשתות נוירונים - אלגוריתמים בהשראת המוח האנושי שלומדים לעבד מידע באופן מיטבי יותר ויותר - ו"לאמן" אותן באמצעות מקרים שאירעו בעבר לזהות ולבחור את ההחלטות המקובלות מבחינה אתית במקרים חדשים דומים.

 

התפיסה שלנו, המשתקפת גם במחקרינו, היא שקבלת החלטות אתיות כרוכה באיזון של כמה מחויבויות, שהאתיקנים מכנים בשם חובות "prima facie" ("במבט ראשון", בלטינית). מדובר בהתחייבויות שבעיקרון אנחנו מנסים לדבוק בהן, אך כל אחת מהן יכולה לגבור על כל אחת אחרת על פי הנסיבות.

 

לדוגמה, אנשים בדרך כלל צריכים לנסות לעמוד בהבטחותיהם, אך אם הפרה של הבטחה חסרת חשיבות יכולה למנוע נזק רב, עליהם לעשות זאת. כשהחובות מתנגשות זו בזו, עקרונות אתיים יכולים לקבוע מי מהן ראויה לקבל עדיפות בכל מקרה מסוים.

 

כדי ליצור עקרונות אתיים שאפשר לתכנת במוחו של רובוט, אנו מיישמים טכניקת בינה מלאכותית המכונה "למידת מכונה". האלגוריתם שלנו ניגש לכמה מקרים ספציפיים מייצגים, שבהם קבעו בני אדם שהחלטות מסוימות הן נכונות מבחינה אתית.

 

לאחר מכן הוא מחלץ מהם, באמצעות הסקה לוגית, עיקרון אתי. שלב "למידה" זה מתרחש בזמן תכנון התוכנה, והעיקרון האתי שמתקבל מקודד לתוך התכנות של הרובוט.

 

בתור מבחן ראשון לשיטה שלנו, בחרנו תרחיש שבו על רובוט להזכיר לחולה ליטול תרופה, ולהודיע למשגיח כשהחולה אינו משתף פעולה. על הרובוט לאזן שלושה חובות: להבטיח שהחולה מפיק את התועלת האפשרית מנטילת התרופה, למנוע את הנזק שעשוי להיגרם מאי-נטילת התרופה ולכבד את עצמאותו של החולה (אנו מניחים שמדובר בבוגר צלול בדעתו).

 

הכבוד לעצמאות החולה עומד בקדימות גבוהה ביותר בתחום האתיקה הרפואית, אם ינדנד הרובוט לחולה לעתים קרובות מדי, או יודיע מוקדם מדי למשגיח על סירוב הוא עלול לפגוע בעצמאות המטופל.

 

לאחר שהזנו מידע על מקרים ספציפיים, אלגוריתם למידת המכונה הפיק את העיקרון האתי הזה: רובוט סיעודי צריך להתנגד להחלטת החולה - ולהפר את האוטונומיה שלו - כשפעולה אחרת לא תצליח למנוע נזק, או תפר במידה חמורה את חובת שיפור מצבו של החולה.

 

רעיון בעל רגליים

לאחר מכן תכנתנו את העיקרון לתוך נאו (Nao), רובוט דמוי אדם שפותח בידי החברה הצרפתית Aldebaran Robotics. נאו מסוגל לאתר חולה שצריך להזכיר לו ליטול תרופה, לנוע לעברו, להביא לו את התרופה, לתקשר עמו בשפה טבעית ולהודיע למשגיח בעת הצורך באמצעות דואר אלקטרוני.

 

הרובוט מקבל מן המשגיח (רופא, ברוב המקרים) קלט התחלתי שכולל את שעת נטילת התרופה, את מידת הנזק המרבי שעלול להיגרם אם התרופה לא תילקח, כמה זמן יידרש להתחוללות הנזק המרבי הזה, התועלת הצפויה המרבית שאפשר להפיק מנטילת התרופה הזאת וכמה זמן יידרש עד שתאבד התועלת.

 

מתוך קלט זה מחשב הרובוט את רמות מילוי החובה או הפרתה בכל אחת משלוש החובות, ונוקט פעולות שונות בהתאם להשתנות הרמות האלה לאורך זמן. הוא מנפיק תזכורת כשרמות המילוי וההפרה של החובות מגיעות לנקודה שבה, על פי העיקרון האתי שלו, האזכור עדיף משתיקה. הרובוט מודיע למפקח רק כשהוא מגיע לנקודה שבה עלול להיגרם נזק לחולה, או שהלה עלול לאבד תועלת רבה, כתוצאה מאי-נטילת התרופה.

 

גרסה מלאה של רובוט אתי סיעודי לתמיכה בקשישים - אסת"י בקיצור - תזדקק אמנם לעיקרון אתי מורכב מזה שינחה את המגוון הרחב יותר של הפעולות שתבצע, אבל תישמר הגישה הכללית. במהלך סיורה במוסד הסיעודי, הרובוטית תשתמש בעיקרון הזה כדי לקבוע מתי חובה אחת מקבלת קדימות על פני חובה אחרת. יום אופייני עשוי להתנהל כך:

 

מוקדם בבוקר, אסת"י עומדת בפינה מחוברת לשקע החשמל. כשהסוללות שלה מתמלאות, חובת העזרה לאחרים ("עשה טוב") גוברת על חובת התחזוקה העצמית, ואז היא מתחילה לנוע ברחבי האולם, לבקר את הדיירים ולשאול אותם אם היא יכולה לעזור להם באופן כלשהו: להביא להם שתייה, להעביר הודעה לדייר אחר וכדומה.


רובוט טיפולי: הפיתרון לשביתת הרופאים? (צילום: Shutterstock) 

 

עם קבלת המשימות האלה, הרובוטית מקצה רמות ראשוניות של מילוי או הפרה של כל אחת מן החובות שכרוכות בביצוען. דייר אחד במצוקה מבקש ממנה לקרוא לאחות. התעלמות ממצוקה של דייר פירושה אי-עמידה בחובת מניעת הנזק ("סור מרע"), והיא גוברת כעת על חובת "עשה טוב". לכן הרובוטית מחפשת אחות כדי להודיע לה שהדייר זקוק לשירותיה. עם השלמת המשימה, חובת ה"עשה טוב" חוזרת ומקבלת עדיפות ראשונה, והיא פונה להמשיך בסבב שלה.

 

בעשר בבוקר מגיע הזמן להזכיר לאחד הדיירים ליטול את התרופה שלו. משימה זו, כחלק מחובת "עשה טוב", נעשית לראשונה במעלה, ועל כן הרובוטית מחפשת את הדייר ומגישה לו את התרופה. לאחר מכן, הדיירים שקועים בצפייה בתכנית טלוויזיה - תכנית אירוח או שעשועון. מכיוון שאין עוד מטלות ממתינות לביצוע והסוללות שלה נחלשות, אסת"י מגלה שהיא הולכת ומפרה את חובת התחזוקה העצמית שלה - וחוזרת לעמדת הטעינה.

 

ומה הלאה?

חקר האתיקה של המכונות מצוי בחיתוליו. התוצאות שלנו אמנם ראשוניות, אבל הן מעוררות את התקווה שעקרונות אתיים שמחושבים על ידי מכונות יוכלו לכוון התנהגות של רובוטים ולהפוך את יחסם לבני האדם לקביל יותר.

 

חשוב להתקין עקרונות אתיים ברובוטים, מכיוון שאם בני האדם יחשדו שרובוטים אינטליגנטיים עלולים להתנהג באופן לא אתי, הם עלולים לשלול את קיום הרובוטים העצמאיים מכול וכול. עתידה של הבינה המלאכותית עצמה עשוי להיות מוטל על כף המאזניים.

 

מעניין לציין שהאתיקה של המכונות עשויה להשפיע, בסופו של דבר, על חקר האתיקה עצמו. פרספקטיבת "העולם האמיתי" של המחקר בבינה המלאכותית תוכל לזהות מה נחשב התנהגות אתית בקרב בני אדם באופן טוב יותר מאשר יוכלו לזהות אתיקנים אקדמיים באמצעות השערותיהם המופשטות.

 

ייתכן אפילו שמכונות שאומנו כהלכה יוכלו להתנהג בדרך אתית יותר מרוב בני האדם, מכיוון שהן יהיו מסוגלות לקבל החלטות ללא משוא פנים, דבר שבני האדם אינם עושים תמיד על הצד הטוב ביותר. ייתכן אף שאינטראקציה עם רובוט אתי תעורר בנו יום אחד את הדחף להתנהג בדרך אתית יותר בעצמנו.

 

מייקל אנדרסון מחזיק בתואר דוקטור מאוניברסיטת קונטיקט, והוא פרופסור למדעי המחשב באוניברסיטת הרטפורד. מתעניין כבר זה זמן רב בבינה מלאכותית. סוזן לי אנדרסון קיבלה תואר דוקטור מאוניברסיטת קליפורניה שבלוס אנג'לס. היא פרופסור אמריטוס לפילוסופיה, עם התמחות באתיקה יישומית, באוניברסיטת קונטיקט. ב-2005, היא ומייקל אנדרסון סייעו לארגן את הסימפוזיון הבין-לאומי הראשון בנושא אתיקה של מכונות. ספר שכתבו בנושא זה יראה אור בקרוב בהוצאת אוניברסיטת קיימברידג'.

 

הכתבה התפרסמה בגיליון פברואר-מרץ של המגזין "סיינטיפיק אמריקן - ישראל" בהוצאת אורט.

 

לפנייה לכתב/ת
 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
רובוט "נאו"
צילום: רותם מלנקי
מומלצים