שתף קטע נבחר

העתיד: רובוטים חברותיים?

טכנולוגיות שונות מסייעות לרובוטים לשתף ביניהם פעולה וליישם מודלים חברתיים לפעילותם. המחקר בנושא יסייע לפתח מערכות משוכללות יותר של רובוטים בעלי בינה מלאכותית ויכולת תפקוד גבוהה במיוחד

 

בחלק מהמקרים כל אחד מהרובוטים נדרש לבצע משימה בצורה עצמאית, כאשר שיתוף הפעולה מתבטא בחלוקת המשימות בין הרובוטים ובהעברת מידע. לדוגמה, רובוט שחיישניו קלטו מידע מעניין במקום מסוים עשוי להחליט שלא לעצור ולהמשיך במשימתו, אלא להעביר לשאר הרובוטים את המידע, כך שרובוט אחר יוכל להגיע לאותו מקום. ההחלטה תהיה תלויה, בין השאר, בחשיבות המשימה הנוכחית של הרובוט ובזמינות רובוטים אחרים לחקירת המידע החדש. אם הרובוטים אינם זהים ביכולותיהם, יש להתייחס גם להבדלים האינדיבידואליים כאשר מחליטים איזה רובוט יקבל את המשימה החדשה.

 

לדוגמה, חוקרים מאוניברסיטת פנסילבניה הראו כיצד אפשר להשתמש ברובוט מוטס ובארבעה רובוטים קרקעיים כדי לאתר עצמים בתוך סביבה עירונית: הרובוט המוטס יכול לסרוק מהר שטחים נרחבים, אבל דיוק האיתור שלו נמוך, ושדה הראיה שלו עשוי להיחסם על ידי בניינים. כאשר מצלמותיו קולטות משהו הנראה כמו העצמים שהרובוטים נתבקשו לאתר, הוא משדר את המידע לשאר הקבוצה, ואחד מהרובוטים הקרקעיים מגיע למקום, מוודא את הזיהוי ומספק מיקום מדויק. בתהליך זה, אף רובוט אינו צריך לדעת את זהות הרובוט שמסר את המידע או את זהות הרובוט היוצא לחקור את המיקום. "אנונימיות" זו מאפשרת גמישות רבה, כמו גם עמידות בתקלות: אם הרובוט שיצא אל המקום התקלקל או נחסם, רובוטים אחרים יבחינו לאחר זמן מה כי המקום עדיין לא נחקר ורובוט אחר יקבל עליו את המשימה.

 

משימה אחרת המופיעה במחקרים רבים היא איסוף (foraging): על קבוצה של רובוטים לסרוק שטח, למצוא עצמים מסוג מסוים ולהביא אותם לנקודת איסוף מרכזית. במעבדת MAVERICK של אוניברסיטת בר-אילן, המנוהלת על ידי ד"ר גל קמינקא, נחקרו כמה אסטרטגיות של שיתוף פעולה עבור משימה זו, ונמצא כי מצבים שונים דורשים אסטרטגיות שונות. במסגרת עבודת הדוקטורט שלו פיתח אבי רוזנפלד שיטה המתאימה את האסטרטגיה של כל רובוט למצב הנקלט בחיישנים שלו ולמידע המגיע מרובוטים אחרים. בקישור בסוף הכתבה אפשר לראות סרטים המדגימים זאת, כמו גם סרטים אחרים, המתעדים פיתוחים נוספים של שיתוף פעולה רובוטי.

 

במקרים אחרים, ביצוע עצמאי של משימות אינו מספיק, ויש צורך בשיתוף פעולה הדוק הרבה יותר. שיתוף פעולה זה הוא נושאו של תחום המחקר ברובוטיקה הנקרא "tightly coupled cooperation". דוגמאות לשיתוף פעולה כזה אפשר לראות במעבדת הבינה המבוזרת של אוניברסיטת טנסי, בראשות פרופ' לין פארקר (Parker; קישור בסוף הכתבה). בין השאר, פותחה במעבדה זו גישה לשיתוף פעולה הדוק בין רובוטים הנקראת ASyMTRe. בעזרת שיטה זו, רובוטים בעלי מצלמה יכולים להדריך תנועה של רובוטים חסרי מצלמה אך בעלי זרוע, כך שרובוטים אלה יגיעו לחפצים ויניעו אותם לכיוון הרצוי. שיתוף פעולה הדוק אף יותר נדרש כאשר שני רובוטים מרימים יחד קורה ארוכה ומסיעים אותה למקום אחר – הקוראים מוזמנים להיזכר במצבים דומים שבהם הזיזו קורות או רהיטים בשיתוף עם אחרים כדי להבין עד כמה אתגר זה אינו פשוט.

 

דמוקרטיה רובוטית

כיצד אפשר ליצור שיתופי פעולה כאלה? גישה אחת היא לשלוט על כל הרובוטים דרך מחשב אחד, המקבל את המידע שנאסף על ידי הרובוטים, יוצר תוכנית פעולה וגוזר ממנה הוראות המשודרות אל הרובוטים. לגישה זו חסרונות רבים: ככל שמספר הרובוטים גדל, נדרש מחשב מהיר וגדול יותר כדי לתאם ביניהם; רובוט שאיבד תקשורת עם המחשב המרכזי מפסיק מיד את פעולתו, ותקלה במחשב המרכזי משביתה את כל הרובוטים. עדיפה לכן שליטה מבוזרת: שליטה שבה משתתפים כל הרובוטים, כל אחד לפי המידע הזמין לו ולפי יכולותיו ומיקומו. בשליטה כזו, איננו יכולים לצפות כי לכל הרובוטים יהיה אותו מידע או כי כולם יסכימו לאותה תוכנית פעולה. גם כאשר שיתוף המידע והתוכניות הוא חלקי בלבד, עדיין אפשר לבצע משימות רבות במקביל, תוך שאיפה למטרה משותפת. יתרה מזאת: בכך שאנו מקבלים על עצמנו את חלקיות המידע והשליטה, אנו מאפשרים עמידות גבוהה בפני תקלות ברובוטים עצמם ובפני כשלים בתקשורת ביניהם.

 

קן יאנג (Young), מומחה רובוטיקה באוניברסיטת וורוויק (Warwick) באנגליה, אומר: "בני אדם פועלים יחד לעתים קרובות, ומשלבים כישורים כדי לבצע משימות שאינן אפשריות עבור אדם בודד. זהו מסלול ברור להתקדמות גם עבור רובוטים". במטרה להשיג התקדמות כזו פונים חלק מהחוקרים לפסיכולוגיה החברתית, ולמודלים של פתרון בעיות ושיתופי פעולה בקבוצות אנושיות.

 

אחת השאלות החשובות עבור מודלים חברתיים היא "מי מדבר עם מי?", כלומר: האם יהיה זה נכון לשדר כל פריט מידע שהתגלה על ידי רובוט כלשהו אל כל הרובוטים האחרים? האם נדרשת הסכמה של כל הרובוטים לפני שמתחילים לבצע תוכנית פעולה כלשהי? קל לראות כי תשובה חיובית לשאלה השנייה – כלומר המתנה להסכמת כל הרובוטים להחלטות – עשויה להביא לשיתוק המערכת כולה, אפילו בתנאים אידאליים שבהם אין כל שיבוש או תקלות בתקשורת.

 

עבור השאלה הראשונה, התשובה האינטואיטיבית עשויה להיות כי אין כל חיסרון בהפצת כל הממצאים לכל הרובוטים: במילים אחרות, מה יכולה להיות המטרה של מניעת מידע? מסתבר כי יש בכך יתרונות: מנקודת מבט חישובית, אין טעם באיסוף מידע רב אם עלות שידור המידע גבוהה ואם יכולת החישוב של רובוט בודד אינה מספיקה ממילא ליצירת תוכנית אופטימלית המתחשבת בכל מה שנאסף.

 

מעניין כי ממצאים דומים מגיעים ממחקרים על פתרון בעיות ותקשורת בקבוצות: אחד מהמודלים האפקטיביים ביותר הוא של קבוצות קטנות המשתפות בתוכן מידע, אך מעבירות רק חלק מאותו מידע גולמי לקבוצות אחרות, יחד עם ההחלטה שאליה הגיעה אותה קבוצה ועם אפשרות לגשת למידע הגולמי במידת הצורך. אם ההתאגדות לקבוצות היא דינאמית ונקבעת לפי דרישות המשימות בכל רגע נתון, מודל זה הוא לא רק יעיל אלא גם חסין לתקלות ולשיבושים. זוהי רק דוגמה אחת לקווים הדומים בין חקר אינטראקציה חברתית אנושית לבין תכנון רובוטים. ייתכן כי דמיון זה נובע מכך שיצרנו את הרובוטים בצלמנו ובדמותנו. מצד שני, הדמיון עשוי להיות תוצאה של הקבלה מעמיקה יותר: אולי החברה האנושית היא תוצר של האבולוציה שמצאה, בדרכה הבזבזנית של ניסוי וטעייה, פתרונות דומים לבעיות דומות לאלו שכיום מתחבטים בהן הרובוטיקאים בבואם ליצור חברה רובוטית יעילה.

 

תודה לתום שפיגלמן על עזרתו באיסוף המידע עבור טור זה

 

לפנייה לכתב/ת
 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
מומלצים