במשך שנים חששו רגולטורים ואנשי החברה האזרחית שהאלגוריתמים של הרשתות החברתיות מפלגים את ארה"ב בפוסטים וקונספירציות רעילים מבחינה פוליטית. הדאגה הייתה כה רבה, עד שבשנת 2020 חברת מטא העבירה כמות עצומה של מידע למומחים באקדמיה כדי לבחון עד כמה פייסבוק ואינסטגרם משפיעות על הבחירות הקרובות.
התוצאות הראשונות מלמדות שהפלטפורמות של החברה מילאו תפקיד מרכזי בהפניית המשתמשים למידע מפלגתי עימו הם צפויים להסכים. אבל – מדווח וושינגטון פוסט – התוצאות מטילות ספק על ההנחה שהאסטרטגיות של מטא משפיעות בצורה משמעותית על הדעות הפוליטיות של המשתמשים.
"אלגוריתמים משפיעים מאוד על מה שאנשים רואים בפלטפורמות ובעיצוב השימוש שלהם בהן. מצאנו השפעה רבה על חוויית השימוש בפלטפורמות, אבל השפעה מעטה מאוד על שינוי גישותיהם בנושאים פוליטיים ועל מעורבותם בנושאים כאלה", אומר ג'ושוע טאקר מאוניברסיטת ניו-יורק, אחד ממובילי ארבעת המחקרים שפורסמו בשבוע שעבר בכתבי-העת החשובים Science ו-Nature. הם אומנם הסתמכו על הנתונים של מטא, אך עברו בקרת עמיתים כמקובל בפרסומים אקדמיים.
החוקרים בדקו את השימוש של אלפי גולשים בפייסבוק ואינסטגרם ערב בחירות 2020, כדי לראות האם התכנים – השונים מהמידע שהיו מקבלים בשגרה – שינו את עמדותיהם הפוליטיות, את הידע שלהם או את מידת הקיטוב. בהמשך יתפרסמו למעלה מתריסר מחקרים נוספים, כולל על בסיס המידע שנאסף אחרי 6 בינואר.
הפוסט צופה, כי התוצאות יחזקו את טענתן של הרשתות לפיהן האלגוריתמים אינם גורמים לקיטוב ולהקצנה, וזאת במקביל ליוזמות חקיקה המיועדות לטפל בתופעות אלו. אולם, מבקריהן של החברות וכמה חוקרים שקראו את התוצאות טוענים, כי המחקרים אינם בוחנים את חלקן של הרשתות במתן תהודה למחלוקות ולקונספירציות, וכי הם אינם הצדקה להימנעותן מבלימת מידע כוזב.
באחד הניסויים בחנו החוקרים את ההשפעה של שינוי ה"פידים" והזרמת חומר בסדר כרונולוגי הפוך מזה שיצר האלגוריתם של מטא. מבקרי החברה טענו, כי האלגוריתם מחזק ומתגמל תכנים שטנה, כזבים ופלגנות בכך שהוא מקדם אותם לראש ה"פידים", וכי שינוי לסדר כרונולוגי יהפוך את התוכן לפחות מפלג. החוקרים מצאו, כי סדר כרונולוגי גורם להרבה פחות מעורבות של הגולשים, והם גם ראו יותר תכנים שסומנו כבלתי ראויים לאמון. אולם, סקרים שהופנו לגולשים העלו, כי לשינוי הייתה השפעה מועטה על רמות הקיטוב, הידע הפוליטי או ההתנהגות הפוליטית שלהם מחוץ לרשת.
ניסוי אחר בדק את ההשפעה של הגבלת הנראוּת של חומרים ויראליים ב"פידים". החוקרים מצאו, כי כאשר נמנע מן הגולשים לראות העלאה חוזרת של פוסטים בידי חבריהם, הם נחשפו להרבה פחות חדשות פוליטיות. אותם משתמשים גם הקליקו/הגיבו בצורה פחותה והיה להם פחות ידע חדשותי, אך רמות הקיטוב ועמדותיהם נותרו ללא שינוי.
המחקרים יחדיו מציירים תמונה של רשתות חברתיות מורכבות ומפולגות, בהן הליברלים והשמרנים פונים למקורות שונים לחלוטין לצריכת חדשות. אחד המחקרים בדק את הנתונים על 200 מיליון משתמשי פייסבוק ומצא, כי הגולשים צורכים את החדשות על בסיס חלוקה אידיאולוגית. עוד נמצא, כי שמרנים חיבבו ושיתפו הרבה יותר דומיינים וכתובות URL. ממצא נוסף: רוב התכנים שסומנו בידי צד שלישי ככוזבים, נטו ימינה.
בניסוי אחר הופחתה החשיפה לתכנים שהגולשים צפויים היו להסכים עימו והוגברה החשיפה לתכנים המנוגדים להשקפותיהם – שינוי העשוי להרחיב אופקים. אולם, להתערבות זאת לא הייתה השפעה ניתנת למדידה על הגישות הפוליטיות או על האמון בתכנים כוזבים.
טאקר אמר לפוסט, כי אין לקרוא יותר מדי מתוך המחקרים. "ייתכן שאם היינו עורכים את אותו מחקר בנקודת זמן אחרת או במדינה אחרת, בה יש פחות תשומת לב לפוליטיקה או פחות חשיפה למידע פוליטי ממקורות אחרים, היינו מקבלים תוצאות שונות". המחקר נערך במידה רבה לאחר שהסוסים ברחו מהאורווה: הניסויים לשנות במשך שלושה חודשים את צורת ההגשה של תכני הרשתות החברתיות נערכו בהקשר של שינוי מקיף בצורה בה אנשים מוצאים וחולקים מידע.