מזה זמן רב זנחתי את הקשר עם ידידי החכם רובורט. כדי שלא יחשוב ששכחתי אותו החלטתי להציג לו הפתעה שאולי לא יוכל למצוא לה תשובה הולמת. כיוון שאינני רוצה לעסוק בשטויות היפותטיות כמו: "האם אלוהים יכול להמציא אבן כל כך כבדה שלא יוכל להרים אותה", מצאתי לנכון לפתוח בשאלה רצינית. אחרי שהשמעתי את קוד ההתעוררות וכאשר ידידי המנומנם פקח את עיניו הכחולות כאות שחזר להכרה, שאלתי בלי הקדמות: "מדענים טוענים כי בעתיד הקרוב, ישויות בעלות בינה מלאכותית יוכלו להיות יצורים מוסריים יותר מבני-אדם, או בעלי ערכי מוסר עצמאיים שיעניקו להן את היכולת להבדיל בין טוב לרע".
בטרם חלף הרף עין השיב לי רובורט: "זו שאלה קלה. ואתן לך דוגמה. כשאני משוחח אתך זה טוב. כשאתה משגר אותי אל עולמות התנומה ואינני יכול להתווכח אתך - זה רע. אבל בוא נבדוק אם אתה באמת כל כך חכם כפי שאתה מאמין. הגדר בבקשה מה זה טוב ומה זה רע".
אם להודות על האמת נאלצתי לחשוב קמעה לפני שהשבתי. בסופו של דבר מצאתי הגדרה עקיפה לרוע ודוגמאות המסבירות באופן כללי את מהות הרוע. אבל כדי להשיב כהלכה נאלצתי להתחיל בטוב. "טוב הוא היפוכו של רע" אמרתי לידידי המלומד. "לעומת זאת רע הוא היעדר טוב. אבל כדי שאוכל להבהיר לך טוב יותר את משמעות ההבדל בין השניים, אנסה להיתלות באילנות גבוהים. פרופ' ישעיהו ליבוביץ אמר פעם: ""אין הכרעה מדעית לגבי 'טוב' ו'רע'. שני אלה נקבעים לפי סולם-ערכיו של האדם, וערכים כאלה אינם נקבעים על-פי ההכרה המדעית. זה ועוד" - הבהרתי - "בדורנו, דור פצצת האטום, מסתבר שככל שהאנושות לומדת ויודעת יותר, כך היא מקבלת כוח שיכול להרוס את עצמה ואת העולם כולו בלחיצת כפתור. זה דבר רע שתוצאתו עלולה להיות מוות".
"הבנתי במידת-מה את הסבריך המתחמקים", פרץ רובורט לדברי, "אבל אני מבקש לבחון אותך בדבר-מה נוסף ונראה אם תעמוד במשימה. אני מבקש שתסביר לי מה זה מוסר".
לרגע היה נדמה לי שידידי החכם מקצר את השאלה אולי כדי שיוכל, בזמן שאני מתייגע במציאת התשובה הטובה ביותר, לעסוק בנושאים יותר מעניינים, כמו למשל פיצוח גרעינים קלויים. אבל מבחן הוא מבחן ואני חייב להצליח. "מוסר" טענתי, "הוא סוג של חשיבה אנושית העוסק בהבחנה בין התנהגויות הנחשבות "טובות" לבין אלה הנחשבות "רעות". זה בתמצית. אבל אתה ואני חייבים להגיע לעמק השווה של החשיבה. ראשית עליך לזכור כי אנחנו, בני האדם, יצרנו אתכם הרובוטים. וכדי שתהיו בעלי בינה מלאכותית היינו חייבים להטמיע ערכים אנושיים במערכת החשיבה הטכנולוגית שלכם. למרבה הצער אין בעולם אחדות דעות לגבי המשמעות של ערכים אלה. ואתן לך דוגמא. בתור מי שמכיר היטב את עולם המידע אתה ודאי יודע מי היה סטלין, הרודן המרושע ששלט ביד פלדה רצחנית בברית המועצות שרבים הגדירו אותה בתואר "דמוקרטיה טוטליטרית". נסה לרגע לחשוב על דבר מוזר. אילו עוצבה אישיותך המוסרית בברית המועצות האם היא הייתה דומה לרובוט כמוך שבא לעולם בדמוקרטיה של ארה"ב? התשובה חייבת להיות שלילית. ערכי המוסר של סטלין קבעו כי טוב לרצוח את מתנגדי משטרו ורע לאפשר חופש מחשבה לאזרחי מדינתו. ואילו בארה"ב רצח הוא מעשה רע ומתן חופש להביע דעה שונה הוא מעשה טוב. כלומר: אילו נוצרת בארה"ב היו מתייחסים אליך כרובוט טוב ולעומת זאת אילו יצרו אותך בבריה"מ אולי היית הופך לרוצח שכיר מצטיין".
"ממש הצלחת לבלבל אותי" הייתה תשובתו הסופית של ידידי "אחרי שמזמן אני יודע להבדיל בין טוב לרע, עכשיו אני כבר לא בטוח ששיחה אתך היא מעשה טוב. אני צריך לחשוב בסבבה", אמר ועצם את עיניו.
כאשר אחרי הדברים האלה חיפשתי תשובות על אודות משמעות הטוב והרע, תוך עיון במאגרי מידע, הסתבר לי, כי מדענים בתחום הבינה המלאכותית ניסו להגדיר בדרך תבונית את ההתנהגות של רובוטים בעלי תכונה של מוסר מלאכותי. תחום זה כולל שאלה פשוטה לכאורה: האם אפשר לתכנת רובוטים כך שיהיו בעלי קוד אתי שיוכל לכוון את התנהגותם בהתאם לנורמות חברתיות המבדילות בין טוב לרע.
מסתבר כי המתכנתים העוסקים בנושא הבינה המלאכותית חייבים לבנות ייצוג ממוחשב של מערכות מוסר ולהטמיע אל תוך המערכת החכמה של הרובוט מונחים ואוצר מילים המשמשים את האדם בתחום המוסר. ואז, בסופו של יום, תוטל עליהם משימה שאי-אפשר בלעדיה: לפתח אלגוריתמים שיוכלו לספק באופן ממוחשב את התשובה לשאלה: איך מזהים החלטות מוסריות ואיך מוציאים אותן אל הפועל.