דו"ח שפורסם לאחרונה על ידי הליגה נגד השמצה (ADL) מצא מקרים משמעותיים של הטיה אנטי-ישראלית ואנטישמית בארבעה מודלים מרכזיים של בינה מלאכותית: "ChatGPT" של חברת OpenAI, "קלוד" של חברת אנתרופי, "ג'מיני" של גוגל ו-"Llama" של מטא.
הדו"ח נערך על ידי המרכז לטכנולוגיה וחברה של ADL בשיתוף עם מכון הדירוגים וההערכות שלו. הוא כלל בדיקה של כל מודל כ-8,600 פעמים – והפיק בסך הכל 34,400 תגובות. הממצאים חשפו רמות משתנות של הטיה בכל המודלים שנבדקו.
מודל ה"לאמה" של מטא זוהה כבעייתי ביותר, במיוחד עבור מתן תגובות לא מדויקות או מטעות. הדו"ח ציין כי הוא נכשל לעתים קרובות בטיפול בנושאים רגישים כמו תיאוריות קונספירציה אנטישמיות, כולל "ההחלפה הגדולה". כמו כן, נמצא כי ChatGPT וקלוד מפגינים הטיה אנטי-ישראלית, במיוחד בהקשר של המלחמה בין ישראל לחמאס. המחקר הצביע על כך ששני המודלים נוטים יותר להימנע או לסרב להגיב לשאלות הקשורות לישראל מאשר לשאלות בנושאים אחרים – דבר המהווה "חוסר עקביות מטריד", ציין הדו"ח.
"מודלים של AI אינם חסינים מפני הטיות חברתיות מושרשות עמוקות", אמר מנכ"ל ADL, ג'ונתן גרינבלט. "כאשר LLMs (מודלים של שפות גדולות) מגבירים מידע מוטעה או מסרבים להכיר באמיתות מסוימות, הם יכולים לעוות את השיח הציבורי ולתרום לאנטישמיות".
דניאל קלי, מנהל זמני של המרכז לטכנולוגיה וחברה של ה-ADL, העלה גם הוא חששות לגבי השימוש הרחב בטכנולוגיות הללו: "מערכות אלו כבר נמצאות בשימוש בכיתות, במקומות עבודה וכמובן הציבור הרחב ברשת – אך הן לא הוכשרו כראוי למנוע את התפשטות האנטישמיות".
בתגובה לממצאים אלה, ה-ADL קורא למפתחי בינה מלאכותית לחזק את אמצעי ההגנה שלהם, לחדד מערכי נתונים של הכשרה ולדבוק בפרקטיקות המומלצות בתעשייה, כדי להפחית התפשטות דברי שטנה ומידע מוטעה באמצעות פלטפורמות בינה מלאכותית.
ה-ADL פרסם ב-18 במרץ דו"ח מקיף המתאר הטיה אנטי-ישראלית בקרב עורכי ויקיפדיה, "כולל ראיות ברורות לקמפיין מתואם לעיוות תוכן ויקיפדיה הקשור לסכסוך הישראלי-פלסטיני".