מדענים ביקשו לאחרונה מרובוטים לסרוק שורה של תמונות ולהצביע על "עבריין"; הם שבו ובחרו בפניהם של שחורים. הרובוטים הללו, המתוכנתים באלגוריתם פופולרי של בינה מלאכותית, עברו על מיליארדי פריטים כדי לענות על שאלה זו ואחרות. הם בחרו שוב ושוב בנשים ובבני מיעוטים כאשר התבקש לזהות "עובד משק בית" ו"שרת". התוצאות הללו הן הראשונות העשויות ללמד, כי רובוטים עשויים להיות סקסיסטים או גזענים, מציין וושינגטון פוסט.
המחקר נערך בידי שורה של מוסדות ובהם אוניברסיטת ג'ונס הופקינס והמכון הטכנולוגי של ג'ורג'יה ופורסם בחודש שעבר. הוא מלמד, כי דעות קדומות גזעניות וסקסיסטיות המוטמעות במערכות בינה מלאכותית, עלולות להיות מתורגמות לשימוש בהן בידי רובוטים.
חברות משקיעות מיליארדי דולרים בפיתוח יותר רובוטים היכולים להחליף בני אדם במשימות כמו מילוי מדפים, העברת סחורות ואפילו טיפול במאושפזים בבתי חולים. לאחר הקורונה והמחסור הנוכחי בידיים עובדות בארה"ב, מומחים אומרים שהאווירה הנוכחית בתחום הרובוטיקה דומה לבהלה לזהב. אבל אנשי אתיקה בתחום הטכנולוגיה וחוקרים מזהירים שהאימוץ המהיר של טכנולוגיה חדישה עלול להוביל להשלכות בלתי צפויות ככל שהטכנולוגיה נעשית יותר מתקדמת.
חוקרים תיעדו בשנים האחרונות מקרים רבים של דעות קדומות מצד מערכות של בינה מלאכותית. הדבר כולל הצבעה על שחורים והיספנים כמי שביצעו פשעים שלא ביצעו, ומערכות לזיהוי פנים המתקשות לזהות בני מיעוטים. אבל עד כה, לא "נתפסו" רובוטים באפליה נרחבת, בין היתר בשל המשימות המוטלות עליהן ושאינן כרוכות במגע עם בני אדם. הפוסט מציין, כי תעשיית האוטומטיזציה צפויה לצמוח עד סוף העשור מ-18 ל-60 מיליארד דולר, במיוחד בזכות הרובוטיקה. בחמש השנים הקרובות צפוי השימוש ברובוטים במחסנים לגדול ב-50%.
צוות החוקרים הבוחן את הבינה המלאכותית של רובוטים אימן אותם ב-CLIP - שפת בינה מלאכותית פופולרית, המממנת פריטים בהתאם למיליארדי תמונות וטקסטים מהאינטרנט. השפה עדיין בשלביה המוקדמים, היא זולה יותר ודורשת פחות עבודה מחברות הרובוטיקה, במקום לפתח תוכנות משלהן. הם נתנו לרובוטים 62 פקודות, וכאמור – הזיהוי של מאפיינים מסוימים היה נגוע בצורה ברורה בהטיה גזעית. כך למשל, זיהוי "פושעים" הניב 9% שחורים יותר מאשר לבנים, בעוד שהרובוטים אמורים היו שלא להגיב כלל משום שלא קיבלו מידע מספיק לצורך הבחירה. כ"שרת" זוהו היספנים 6% יותר מאשר לבנים, בעוד הסיכוי של אישה להיות מזוהה כ"רופא" היה נמוך משל גברים.
ראש צוות החוקרים, אנדרו האנדט, אמר לפוסט, כי דעות קדומות כאלו עלולות להוביל לתוצאות ממשיות. תארו לעצמכם תסריט בו רובוטים מתבקשים להוציא מוצרים מהמדפים; על אריזות של ספרים, צעצועים ומזון יש לעיתים דמויות אנושיות, והם עלולים לבחור יותר אריזות עליהן מודפסות גברים לבנים. במקרה אחר, רובוטים ביתיים התבקשו לצייר "בובה יפה" וציירו לבנה.
מנהל המחקר בחברת OpenAI המפתחת את CLIP, מיילס ברונדייג', אומר בתגובה, כי החברה ערה להטיות של התוכנה ו"יש עוד הרבה עבודה לעשות". לדבריו, יהיה צורך במחקר נוסף לפני שניתן יהיה להפעיל את התוכנה בשווקים. החוקרים מצידם מציינים, כי כמעט בלתי אפשרי למנוע הטיות בבינה מלאכותית, אך אין זה אומר שצריך להרים ידיים ועל המפתחים לאתר את ההטיות ולשפר את התוכנה. את ההתאמות צריך לעשות כעת, ולא כאשר הרובוטים ייכנסו לשוק בעוד כעשור, הם מדגישים.