החששות מפני הבינה המלאכותית אינם רק שמא תיטול את משרותינו, תהרוס את הפוליטיקה שלנו ותפגע ביכולתנו לחשוב, אלא גם ממשהו גרוע בהרבה: שמא תהרוס את האנושות עצמה – כותב פרופ' אריק אוליבר, איש מדעי המדינה מאוניברסיטת שיקגו בוושינגטון פוסט.
חברות הטכנולוגיה מצויות במרוץ מטורף לפתח מערכות AI גנריות, שיוכלו לתכנת את עצמן. מומחים רבים חוששים, שהללו יראו את בני האדם כסכנה לקיומן. נכון לעכשיו, קשה מאוד להבדיל בין האמת, הריגוש והפנטזיה. כדי להבין את הסכנות האפשריות מהבינה המלאכותית יש להבין את טיבה של הבינה עצמה.
בינה היא עיבוד מידע כדי לקדם את מטרות החיים, מגדיר אוליבר. מדובר באיסוף ובארגון של מידע שנקלט בחושים, זיהוי דפוסים וחיזוי תוצאות. לרוב בעלי החיים יש יכולת כזאת. הבינה האנושית הולכת קדימה: באמצעות שימוש בשפה, אנחנו מרכיבים מחדש את המידע בדרכים חדשניות, מדמיינים תפיסות חדשות ויוצרים צורות ייחודיות של מידע. הבינה מתפתחת כדרך בה מערכות חיים מתנגדות לאי-סדר מערכתי. זו האסטרטגיה של החיים לשמר את עצמם ביקום מתדרדר.
מערכות AI עכשוויות הן הרחבה של הבינה האנושית. הן הכלי, לא המטרה. הן נסמכות כמעט לחלוטין על מידע שמעבדים בני אדם. הבינה שלהן ניזונה משלנו. אפשר כבר לראות את ההשלכות: לאחר שקלטו את רוב הידע שלנו, המודלים החדשים אינם מתקדמים בקצב דומה לקודמיהם.
כדי שמערכות AI יהפכו לסופר-אינטליגנטיות, יהיה עליהן לאסוף מידע שמעבר לזה שבידי בני האדם. הן יזדקקו לאיזושהי דרך לחוש את היקום, בלא תלות במידע ובקודים שנזרים אליהן. יהיה עליהן לפתח דרכים חדשות לתפוס את המציאות. ואז זו עלולה להיות בינה החושבת מעבר לדרכי הידע שלנו.
אולי המערכת תיכנס לדיכאון ותתאבד
המערכות הנוכחיות אולי פועלות בצורות שאיננו מבינים לחלוטין, אך הן עדיין מצויות במרחב השפה והקודים האנושיים. זו הסיבה לכך שהדיון הנוכחי על "סכנה קיומית" אינו רציני. נניח שמערכת AI תרצה להשמיד את האנושות; היא תסתובב סביב עצמה, תעבד מחדש ידע אנושי עד שהמעגלים שלה יישחקו. כל עוד המערכות תלויות במידע אנושי, הן זקוקות לנו כדי לשרוד.
אפילו אם המערכות יהפכו לסופר-אינטליגנטיות, אין זה מובטח שינסו להשמיד אותנו – טוען אוליבר. התחזית הזאת מבוססת יותר על התודעה המוגבלת שלנו מאשר על עובדות אובייקטיביות. מערכת כזאת תצטרך לזהות בשלב כלשהו, שהחיים עצמם אינם אלא חלקיק הצף ביקום. אולי אז תגיע למסקנה, שאין טעם לשמר אותם. או שאולי תשקע בדיכאון ותחליט להתאבד. אין לנו שום דרך לדעת מה תעשה המערכת עם המודעות העצמית שלה, הוא סבור.
הסכנות האמיתיות שמציב ה-AI אינן נובעות ממנו אלא מהשימוש האנושי בו. מאחר שהוא הרחבה של הבינה האנושית, הוא שיקוף של עצמנו. כאשר AI מפיק שנאה או אלימות, אין זה משום שהוא מרושע אלא משום שכך בני אדם תכנתו אותו. אם התוצר שלנו יהיה השמדה, הסיבה תהיה שמישהו ביקש זאת במכוון. אם יעוות את יעדינו, יהיה זה משום שלא הבהרנו את הוראותינו.
אז מה עושים? נכון לעכשיו, ה-AI הוא כלי ועלינו להתמקד בשימוש היעיל בו. אין מקום למנוע את השימוש בו בתחומי האנרגיה, הכספים והצבא, אלא למנוע מאויבינו האנושיים להשתמש בו נגדנו. אבל אם חברות ייצרו מערכות AI גנריות באמת, יהיה עלינו להחליט כיצד להתקיים לצידה של צורת חיים חדשה זו. אולי נרצה להרוס אותה; אולי נעבוד לה כאליל; אולי נשאל את GhatGPT כיצד לנהוג. לדעת אוליבר, זוהי התוצאה הסבירה ביותר: דו-שיח מתרחב בינינו לבין הרחבה חדשה זו של כוח החיים שלנו.