צוות חוקרים מאוניברסיטת קיימברידג' ומהאוניברסיטה העברית בירושלים בחן את ChatGPT בבעיה שהעסיקה פילוסופים עוד מימי אפלטון: כיצד להכפיל את שטח הריבוע. בניסוי התבקש המודל להציע פתרון לבעיה המפורסמת שבה תלמידו של סוקרטס טעה כשהכפיל את אורך הצלע במקום להשתמש באורך האלכסון. ChatGPT הצליח לפתור נכון את הבעיה, אך בהמשך, כשהתבקש להכפיל שטח מלבן, טען בטעות כי הדבר בלתי אפשרי בגאומטריה.
למידה או יצירתיות?
לדברי החוקר נדב מרקו, סיכוי קלוש שמודל השפה "שינן" תשובה כזו, מה שמעיד כי יצר השערות חדשות על בסיס ידע קודם. "בדיוק כמו תלמיד, ChatGPT ניסה להכליל את הפתרון הקודם - והגיע גם למסקנה שגויה" אמר. הוא ועמיתו הפרופסור אנדראס סטיליאנידס רואים בכך סימן שהמודל פועל במעין "אזור ההתפתחות הקרובה" - מונח מעולם החינוך המתאר את הפער בין מה שהתלמיד יודע לבין מה שהוא מסוגל לדעת בעזרת הנחיה מתאימה.
לקחים למערכת החינוך
החוקרים סבורים שהניסוי חושף פוטנציאל לשילוב
בינה מלאכותית בהוראת מתמטיקה - כל עוד המורים והסטודנטים בודקים באופן ביקורתי את התשובות. "אי־אפשר להניח שהוכחות שמפיק ChatGPT נכונות", מדגיש סטיליאנידס. "צריך ללמד תלמידים לזהות שגיאות ולבקר את הפתרונות - ממש כמו בכיתה רגילה".
הצוות מתכנן לבדוק דגמים חדשים של בינה מלאכותית עם בעיות מורכבות יותר, ולשלב אותם עם מערכות גאומטריה הידודיות (אינטראקטיביות), כך שיוכלו לשמש כלי הוראה שמסייע לחשיבה יצירתית. הם מזהירים שלא למהר להסיק שמודלים "חושבים" כמו בני אדם, אך מסכימים שההתנהגות "דמוית תלמיד" היא צעד משמעותי בהבנת האופן שבו AI מייצר ידע חדש.