בשנים האחרונות התגבר השימוש בטכנולוגית AI, ולאור יתרונותיה דומה כי היא נכנסה לכול המגזרים העסקיים. על-רקע העניין הרב שטכנולוגיה זו יצרה, החלו גם חברות פיננסיות להשיק מוצרים ושירותים חדשים מבוססי
בינה מלאכותית כדי לשפר את קבלת ההחלטות הפיננסיות, לחזות טוב יותר את מגמת השוק, ולשפר את הפרודוקטיביות והצמיחה שלהם וכן למשוך משקיעים חדשים ולשמר לקוחות קיימים (בעניין זה ראו גם:
קוחלני, News1, 16.4.2024).
על-רקע זה החלה רשות ניירות ערך האמריקנית (להלן - SEC או הרשות) לבחון את ההשלכות של שימוש בבינה מלאכותית (AI) בחברות פיננסיות, כאשר בחודשים האחרונים היא הגישה בנושא זה מספר כתבי אישום. מדובר בצעדים פלילים בהם נקטה הרשות נגד חברות השקעות בגין הצהרות כוזבות ומטעות באשר לשימוש שלהם כביכול בבינה מלאכותית. מדובר בחברות שהציעו לציבור שירותיי ייעוץ פיננסי מבוסס AI היכולים לחזות את הטרנדים בשוק.
בכינוס של קציני ציות שנערך לאחרונה בניו-יורק הציג גורביר גרוואל (Gurbir S. Grewal), ראש חטיבת האכיפה של ה-SEC, כללים שעל קציני ציות לנקוט, בכל הקשור לשימוש בבינה מלאכותית
1. גרוואל אמר כי קציני ציות צריכים לאמץ גישה פרואקטיבית כדי לצמצם את הסיכון להעלאת טענות שווא או מטעות באשר ליכולות של מוצרים ושירותים הפיננסים בהם נעשה שימוש, או נטען שנעשה שימוש בבינה מלאכותית (AI).
שינויים אלה, ובראשם ההחלטה של ה-SEC להתחיל באכיפה, צריכים לגרום לקציני ציות לשאול את עצמם, כיצד הוא יכולים לסייע לחברות שלהם להבטיח כי הם עומדים בדרישות החוק בכל הקשור לבינה מלאכותית.
הדרך לעשות זאת על-פי גרוואל היא לפעול בהתאם לעקרונות ה"ציות פרואקטיבי", לפיהן קציני ציות צריכים לפעול: לרכוש ידע בתחום (לימוד), לגלות מעורבות בתהליכי קבלת החלטות (העברת ידע), ולנקוט צעדים כדי להבטיח צמצום סיכונים (נקיטה בצעדים), כדלקמן:
לימוד - קציני ציות, נדרשים ללמוד על אזורי הסיכון החדשים שנוצרים עקב אימוץ טכנולוגית AI, וכן לעקוב אחר התפתחויות בנושא, בעיקר בעקבות פעולותיהם של גופי אכיפה. דהיינו עליהם לקרוא החלטות של גורמי האכיפה הקשורות ל-AI, וכן לעקוב אחר התפתחות האכיפה עם הזמן, כדי לעדכן בהתאם את תוכנית האכיפה שלהם. כך מומלץ לקציני ציות שהחברות שלהם פועלות בארה"ב או נשלטות על-ידי תאגידים הנסחרים בארה"ב לעיין בנאומו של יו"ר גנסלר על בינה מלאכותית, שהדגיש מספר דרכים שבהן השימוש ב-AI עלול להגביר את הסיכון לאי ציות לחוקי ניירות הערך הפדרליים, במיוחד מצבים בהם יועצי השקעה עלולים להימצא עקב 2
allucinationsHAI בניגוד עניינים
3. כדוגמה לחידוש באכיפה הוצגה ההחלטה של הרשות להעמיד לדין את חברת תעופה אייר קנדה שעשתה שימוש בצ'אט-בוט (Chatbot) שהציע ללקוחותיה מידע שגוי על מדיניות החזרים שלה
4.
העברת הידע - קציני הציות נדרשים לתקשר את הידע הזה לעובדים בתוך היחידות העסקיות השונות של החברה, כדי להציג בפניהם כיצד הפעילויות, האסטרטגיות, התמריצים הפיננסיים שלהם וכו' עלולים להיות חשופים לסיכוני ציות AI.
נקיטה בצעדים - קציני ציות נדרשים לבחון האם אין מקום לעדכן בכך את המדיניות, נהלים ובקרות פנימיות של הציות, וכן האם המדיניות והנהלים של החברה המתייחסים, בין אם במישרין ובין אם בעקיפין לטכנולוגית AI, הולמים לחשיפה זו. גרוואל הזהיר כי "לא מספיק ללכת ל-ChatGPT או לכלי דומה ולבקש ממנו לייצר עבורכם מדיניות AI" אלא נדרשת עבודת הפנמה והתאמה מקיפה וייחודית לפעילות החברה.
סיכום איתות זה של ה-SEC לקציני ציות לא בא בחלל ריק, אלא אנו עדים בשנים האחרונות לכך שבארה"ב ובאירופה גורמי האכיפה שוקלים להטיח אחריות אישית בקציני ציות, לא בגין עבירה על חוקים פלילים, אלא בגין רשלנות מקצועית. מציאות זו לא באה בחלל ריק, כאמור, אלא היא תמונת ראי למידת האחריות ההולכת וגדלה הרובצת על כתפיהם, לפיה רגולטורים מצפים לפרואקטיביות מקציני ציות. קרי, לא עוד מציאות שבה קציני ציות פועלים על-פי מתווה של הצ'רטר שקבעה הנהלה, אלה עליהם לבחון בצורה אקטיבית את התמורות ברגולציה ולהעלות בפני הנהלה את הצורך בפריסת תוכנית הציות בהתאם להתרחבות הרגולציה. מציאות זו מחדדת את הצורך במינוי קציני ציות מוסמכים (CCO), הפועלים על-פי קודקס מקצועי הכולל תקנים אתיים שממילא מחייבים אותם לנוהג כך.