דונלד טראמפ שלף עמוד מתוך ספר ה"מתכונים" של
ברק אובמה, וכינס בתחילת החודש "פסגת היי-טק" בבית הלבן בנוגע לשנאה ברשת. לכאורה זו הייתה תגובתו לטבח בעיר אל-פאסו, אבל בפועל הוא נלחם ביריבים הלא-נכונים ועלול להחמיר עוד יותר את המצב – טוענים פרופ' דניאל ביימן מאוניברסיטת ג'ורג'טאון וכריסטופר מרלוז ממכון ברוקינגז, במאמר ב-Foreign Affairs.
ביימן ומרלוז מגיעים למסקנה זו מהכוונה להעניק לוועדת השידור הממלכתית את הסמכות לפקח על חברות הטכנולוגיה. לדעתם, המטרה האמיתית של צעד זה אינה להכריח את החברות לפעול טוב יותר לבלימת תכני שנאה, אלא להבטיח שהן לא יהיו מוטות נגד השמרנים – טענה חוזרת ונשנית של טראמפ. התוצאה תהיה, שהחברות יתקשו להיאבק נגד תכנים של גזענות לבנה, שלעיתים דומים לרטוריקה של הנשיא.
האיום מצד השנאה ברשת גדל בהתמדה. מבחינת הפריסה הגלובלית והקטלניות, הגזענות הלבנה מזכירה את התנועה הג'יהאדיסטית. וכמותה היא גם משתמשת באינטרנט ובמדיה החברתית כדי לגייס חברים ולהקצין אותם, להפיץ תעמולה ולשדר תמונות וסרטונים של מעשיה. מה יכולות חברות הטכנולוגיה והממשלה לעשות כדי לבלום אותה?
הצורך לאזן בין
חופש הביטוי לבין מניעת הסתה ברשת איננו ייחודי לארה"ב. לאחר הטבח בעיר כרייסטצ'רץ' יזמה ראש ממשלת ניו-זילנד, יאסינדה ארדם, עם ממשלת צרפת וחברות ההיי-טק הגדולות את "הקול הקורא של כרייסטצ'רץ'", שהחותמים עליו התחייבו "לחסל את התכנים הטרוריסטיים והאלימים הקיצוניים ברשת". אולם אומרים ביימן ומרלוז, מדובר בקריאה המבוססת על רצון טוב ואין בה פרטים.
יש צעדים מעשיים שחברות הטכנולוגיה יכולות לנקוט. הראשון: להתייחס בצורה שווה לכל אידיאולוגיות השנאה. פייסבוק וחברותיה יכלו להסיר תכנים של דאעש בלי טענה לפגיעה בחופש הביטוי, משום שממשלת ארה"ב קבעה שמדובר בארגון טרור. הממשל נמנע מהכרזה דומה על הגזענות הלבנה, למרות שבפועל אין הבדל ביניהם. לכן, חברה שחוסמת את האחד – יכולה לחסום את האחר. והצעד הזה עובד, כפי שהוכח כאשר פייסבוק, טוויטר, יוטיוב ואחרות חסמו והסירו תכנים ג'יהאדיסטיים. מדובר בחברות פרטיות, שיכולות לקבוע לעצמן את מדיניות ההעלאה וההסרה.
שנית, החברות צריכות לשכור יותר עובדים העוסקים בסינון התכנים. למרות שחברות כמו פייסבוק ויוטיוב סומכות בעיקר על איתור אוטומטי של תכנים אסורים, הן מעסיקות אלפי עובדים הבוחנים את התכנים שאותרו. פייסבוק לבדה מעסיקה 200 מנתחי טרור ויש לה עוד 15,000 בוחני תוכן עצמאיים ברחבי העולם. אבל המספר הזה אינו קרוב לנחוץ כדי להתמודד עם הבעיה, כי 2 מיליארד איש משתמשים בפייסבוק.
איכותם של בוחני התוכן חשובה עוד יותר מאשר מספרם. בחינה איכותית מחייבת יכולת להבחין בין תוכן פוליטי מותר לבין תוכן טרוריסטי – דבר המצריך ידע מעמיק במגוון תחומים, כולל הכרת הזירה המקומית והגלובלית והיכרות עם השפה והתרבות. וזה אומר, שהחברות צריכות לא רק לשלם להם יותר, אלא גם להעניק להם יותר יוקרה וכבוד.
החברות גם חייבות לשפר את חלוקת המידע בין הפלטפורמות, טוענים ביימן ומרלוז. לרוב החברות הקטנות והמתחילות אין משאבים להשקיע במאבק בטרור ובשנאה. החברות הגדולות כבר משתפות פעולה במאבק זה, אך לא במידה מספקת. עליהן לפרסם את רשימות הארגונים והיחידים שסילקו מהפלטפורמות שלהן, עם הסבר קצר לכל החלטה. כך יקל על החברות הקטנות לנקוט צעדים דומים.
עוד אומרים ביימן ומלרוז, כי הציבור אינו יודע האם חברות הטכנולוגיה מאזנות כיאות בין השיקולים, משום שהוא לא ממש יודע מה הן עושות – ולכן הן חייבות להגביר את השקיפות ולפרסם את קני המידה לפיהם הן פועלות. דיווח כזה צריך לכלול את מספר החשבונות שנסגרו ומספר התכנים שנבלמו, לגבי כמה תכנים ניתנו אזהרות וכמה מהר הן טופלו, ומהו היחס בין התכנים האסורים לבין המותרים.
לבסוף: למרות שקריאות למנוע שידורים חיים אינן מציאותיות, פייסבוק וחברות אחרות יכולות להגביל אותם. למשל: אחרי הטבח בכרייסטצ'רץ' הנהיגה פייסבוק מדיניות המאפשרת לה לחסום בבת אחת את המעורבים בטרור. ואילו בהודו היא הגבילה את מספר האנשים היכולים לשתף הודעת ווטסאפ. חברות אחרות צריכות ללכת בעקבותיה. רפורמות כאלו לא יהיו קלות, יודעים ביימן ומלרוז, אך בלעדיהן הבעיה רק תחמיר.