שר ההגנה האמריקני,
פיט הגסת', הציב למנכ"ל חברת אנתרופיק (Anthropic), דריו אמודי, אולטימטום שיפוג היום (יום ו', 27.02.26). על-פי הדרישה, על החברה לאפשר לצבא ארה"ב שימוש בלתי מוגבל בטכנולוגיית הבינה המלאכותית שלה, "קלוד" (Claude), או שתסתכן בביטול החוזה הממשלתי שלה. המפגש בין השניים (24.02.26) חשף חילוקי דעות עמוקים סביב הגבולות שבין צורכי הביטחון הלאומי לבין עקרונות אתיים של חברות טכנולוגיה.
אמודי הבהיר כי החברה "אינה יכולה במצפון נקי להיענות" לדרישות הפנטגון במתכונתן הנוכחית. עיקר המחלוקת נוגע לשני תחומים שאותם הגדירה אנתרופיק כקווים אדומים: שימוש בבינה מלאכותית למבצעי תקיפה אוטונומיים לחלוטין, וביצוע מעקב המוני אחר אזרחים אמריקנים. אמודי הביע חשש מפני שימוש בטכנולוגיה לזיהוי "כיסי חוסר נאמנות" בציבור ודיכוים בטרם יתרחבו.
עימות חזיתי מול מדיניות הממשל
הפסקת המגעים והטון החריף מצד הפנטגון משקפים את המדיניות החדשה של השר הגסת', שהבטיח לבער את מה שהוא מכנה "תרבות הווק" (Woke culture) בכוחות המזוינים. גורמים במשרד ההגנה טוענים כי האחריות לשימוש חוקי בכלים מוטלת על הצבא, וכי אין לאפשר לחברה פרטית להכתיב מגבלות מבצעיות.
- מעמד חוזי בסיכון: אנתרופיק הייתה החברה הראשונה שאושרה לרשתות צבאיות מסווגות, בחוזה ששוויו עשוי להגיע ל-200 מיליון דולרים.
- התחרות בשוק: בניגוד לאנתרופיק, חברות כמו OpenAI, גוגל ו-xAI של אילון מאסק כבר חתמו על הסכמים דומים ואינן מערימות קשיים דומים על הרשת הפנימית של הצבא.
- השלכות חקיקתיות: סנאטורים אמריקנים הביעו דאגה מהתנהלות הפנטגון, וטענו כי הניסיון להתעלם ממנגנוני ממשל בתחום ה-AI מחייב חקיקה מחייבת של הקונגרס.
למרות המתיחות, באנתרופיק ציינו כי הם אינם נוטשים את שולחן המשא-ומתן, אך הבהירו כי השפה החוזית החדשה שהציע הפנטגון אינה מספקת הגנות מפני שימושים הרסניים. אם החוזה יבוטל, החברה הודיעה כי תפעל לאפשר מעבר חלק של שירותיה לספק אחר כדי לא לפגוע בפעילות שוטפת.
העימות הנוכחי מהווה מקרה בוחן ליחסי הכוחות בין ענקיות הטכנולוגיה לממשל האמריקני בתקופה של מרוץ חימוש גלובלי בתחום הבינה המלאכותית. השאלה האם חברה פרטית יכולה להגביל את ריבונות המדינה בשימוש בכליה תעמוד במרכז הדיונים המשפטיים והביטחוניים בוושינגטון בשבועות הקרובים.