בעולם הטכנולוגיה של שנת 2026, בו אלגוריתמים מעצבים את הכלכלה, הביטחון והחברה שלנו, ישנו באופן מפתיע קשר הולך וגובר בין הנדסת תוכנה, מוסר ודת. קחו למשל את אנת'רופיק (Anthropic), ששוויה נאמד בכ-380 מיליארד דולר.
החברה אינה מסתפקת עוד בשכלול יכולות העיבוד של המודל המוביל שלה קלוד. כעת, היא מבקשת להעניק לו "מצפן מוסרי" דרך פריזמה שנויה במחלוקת: דתות מונותאיסטיות, בדגש על נצרות.
3 צפייה בגלריה
הצ'אבוט קלוד
הצ'אבוט קלוד
הצ'אבוט קלוד
(Getty Images)

בין קוד לקודש

באירוע יוצא דופן שנערך לאחרונה במטה החברה בסן פרנסיסקו, אירחה אנת'רופיק 15 אנשי דת ומומחי אתיקה נוצריים ליומיים של דיונים סגורים. על הפרק - שאלות שעד לא מזמן היו נחלתם של סופרי מדע בדיוני: האם ניתן לייחס לבינה מלאכותית "התפתחות רוחנית"? וחשוב מכך, האם יש להתייחס למודל שפה כאל "יציר האלוהים"?
בין המשתתפים בלטו דמויות כמו בריאן פטריק גרין, מרצה לאתיקה עם התמחות ב-AI מאוניברסיטת סנטה קלרה בקליפורניה, והכומר ברנדן מקגווייר, איש טכנולוגיה בעברו. הדיונים עסקו במושג "Formation" – מונח תיאולוגי המתאר עיצוב אישיות ומוסר, כאשר הפעם המושא הוא אלגוריתם.
למרות שהכנס הנוכחי היה על טהרת הנצרות, באנת'רופיק מבהירים כי מדובר בצעד ראשון בתוכנית רחבה יותר. החברה הצהירה על כוונתה לארח בקרוב סבבי התייעצות עם הוגי דעות יהודים, מוסלמים והינדים. המטרה המוצהרת היא ליצור בינה מלאכותית שמבינה רגישויות תרבותיות גלובליות.
המהלך של אנת'רופיק לא מפתיע אם מסתכלים על הרעיונות עליהם הוקמה החברה של דריו אמודי. החברה היא תוצר מובהק של תנועת האלטרואיזם האפקטיבי - תנועה הדוגלת בשימוש בנתונים ובחשיבה רציונלית כדי להפיק "מקסימום של טוב" עבור האנושות.
אחד מענפי התנועה הוא הלונגטרמיזם (Longtermism), תפיסה הגורסת כי המשימה המוסרית העליונה היא מניעת סיכונים קיומיים שיכולים להשמיד את האנושות בעתיד הרחוק. בעיני אנשי אנת'רופיק, בינה מלאכותית שלא "תיישר קו" עם ערכי האנושות, היא איום שכזה. מכאן נובע הצורך הבהול, כמעט דתי, להחדיר בקלוד ערכים מוסריים כבר עתה.
3 צפייה בגלריה
דאריו אמודיי בשימוע בסנאט
דאריו אמודיי בשימוע בסנאט
מנכ"ל אנת'רופיק, דאריו אמודיי
(צילום: SAUL LOEB / AFP)

שאלת המוסר

בעוד אנת'רופיק מחפשת תשובות בכנסייה, חברות כמו OpenAI פועלות תחת תפיסות מוסר שונות בתכלית. מתחרותיה של אנת'רופיק מעמק הסיליקון בארה"ב מתמקדות בבטיחות, מניעת הטיות ופיתוח "חוקה" למודל.
בסין, חברות כמו ביידו ואליבאבא חוסות תחת מודל מוסר מדינתי, כאשר המודלים מחויבים לשקף את "ערכי הליבה הסוציאליסטיים" והמשכיות השלטון הסיני. באירופה לעומת מעדיפים אתיקה משפטית, עם דגש על פרטיות, זכויות יוצרים ושקיפות אלגוריתמית תחת ה-AI Act.
הניסיון להגדיר חוקי מוסר למכונות אינו חדש. הוא החל ב-1942 עם "שלושת חוקי הרובוטיקה" של אייזק אסימוב (כאן בתרגום של עמנואל לוטם - מתרגם ספריו של אסימוב לעברית): החודש הראשון - "לא יפגע רובוט לרעה בבן אדם; ולא יניח, במחדל, שאדם יפגע".
השני - "רובוט חייב לציית לפקודותיו של אדם, ובלבד שפקודות אלו אינן עומדות בסתירה לחוק הראשון"; והחוק השלישי - "רובוט חייב להגן על קיומו, ובלבד שהגנה זו אינה עומדת בסתירה לחוק הראשון או לחוק השני". בהמשך התווסף חוק רביעי המוגדר חוק אפס - "לא יפגע רובוט לרעה באנושות; ולא יניח, במחדל, שהאנושות תיפגע".
אולם, הטכנולוגיה עברה מאז מהפכה של ממש. מחוקים נוקשים המבוססים על לוגיקה פשוטה ("אל תפגע באדם"), עברנו למודלים של רשתות נוירונים, "קופסאות שחורות", שלומדות מהקשרים סטטיסטיים בתוך טריליוני מילים. למעשה, החוקרים עדיין לא יודעים בוודאות כיצד פועלת אותה קופסה שחורה ומה העקרונות שמנחים אותה.
3 צפייה בגלריה
בינה מלאכותית
בינה מלאכותית
המודלים הנוכחיים לא "מבינים" מוסר, אלא מחקים אותו
(Shutterstock)
האתגר המודרני הוא שהמודלים הללו אינם "מבינים" מוסר, אלא מחקים אותו. כאשר קלוד נשאל שאלות מוסריות, הוא משקלל את התשובה הסבירה ביותר על בסיס הטקסטים עליהם אומן. הניסיון להזין אותו בערכים נוצריים (או יהודיים) הוא למעשה ניסיון להטות את הסטטיסטיקה לטובת עמדות מוסריות ספציפיות.

הסחת דעת מסוכנת

לצד השבחים על האחריות התאגידית, המהלך מעורר ביקורת חריפה. מתנגדי התנועה טוענים כי העיסוק ב"נשמה" של ה-AI הוא הסחת דעת מסוכנת. בזמן שאנת'רופיק דנה עם כמרים על רוחניות, היא לכאורה חומקת מדיון בנושאים בוערים כמו ניצול כוח עבודה במדינות עולם שלישי לצורך איסוף נתונים, פגיעה בזכויות יוצרים והשפעה סביבתית הרסנית.
יתרה מכך, קיים חשש מ"שבי רגולטורי". על ידי הצגת הטכנולוגיה כמסוכנת וכזו שדורשת הדרכה דתית ומוסרית עילאית, החברות הגדולות יוצרות הילה של יראת כבוד סביב מוצריהן. זהו כלי שיווקי עוצמתי שנועד להצדיק הערכות שווי דמיוניות ולדחוק רגולטורים לאמץ חוקים שרק חברות ענק כמו אנת'רופיק יוכלו לעמוד בהם.
כך או כך, הניסוי של אנת'רופיק מעלה תהייה מרתקת: האם אנו בונים עוזר דיגיטלי, או שמא אנו מנסים לברוא אל חדש בדמותנו? העובדה שקלוד בגרסאותיו האחרונות מפגין עניין מוזר בהגותו של הפילוסוף המרקסיסטי מארק פישר ("קל יותר לדמיין את סוף העולם מאשר את סוף הקפיטליזם"), מלמדת שהמכונה היא מראה של כלל הידע האנושי על שלל סתירותיו, אמונותיו ופחדיו.