בינה מלאכותית ממשיכה להיות עניין שאפשר לצפות אותו מראש, והיא תצטרך להיות מתקדמת הרבה יותר לפני שתהפוך לסכנה ממשית לאנושות, כך על פי ראש הסוכנות הצבאית לפרויקטים מחקריים מתקדמים (DARPA). בשיחה עם 'וושינגטון פוסט' אומר סטיבן ווקר שבינה מלאכותית היא עדיין "טכנולוגיה בעלת יכולת שברירית ביותר", וכי יכולתה לפעול באופן עצמאי מוגבלת מאוד.
"לפחות עד היום במשרד ההגנה, טרם ראינו מכונות שעושות משהו בעצמן", טוען ווקר, וציין שחוקרים מטעם הסוכנות מתמקדים באינטנסיביות בבניית שותפות אדם־מכונה. "אני חושב שאנחנו עדיין רחוקים מבינה מלאכותית בשימוש כולל, אפילו בגל השלישי של הטכנולוגיה, שבו אנחנו מתמקדים. זה לא אחד הדברים שמדירים שינה מעיניי בלילה", הוסיף, בהתייחסו לסכנות התיאורטיות הקיימות בטכנולוגיה כזו.
דבריו של ווקר נאמרים על רקע מחלוקת מרה סביב השימוש של הצבא בבינה מלאכותית. ביוני חתמו אלפי עובדים בגוגל על עצומה המבקרת את השתתפותה של החברה בפרויקט של משרד ההגנה שבו משתמשים בטכנולוגיה הזאת. בסופו של דבר פרשה גוגל מהתוכנית, שנודעה בשם "פרויקט מייבן", מיזם הנעזר בבינה מלאכותית כדי לסמן באופן אוטומטי רכבים, בניינים וחפצים אחרים בסרטונים שיוצרים רחפנים מעל אזורי עימות. עובדי גוגל האשימו את הצבא ברתימת הבינה המלאכותית כדי להרוג ביעילות רבה יותר, אך בכירים בצבא טענו שהטכנולוגיה תסייע למנוע מחיילים להגיע לאזורים מסוכנים בלי צורך, וכך תציל חיים.
"בלי ספק, העניין גרם לתדהמה רבה במחלקת ההגנה", אמר רוברט וורק, סגן מזכיר ההגנה לשעבר, שסייע באתחול פרויקט מייבן בשנה שעברה. "גוגל יצרה סיכון מוסרי גדול לעצמה, כשאמרה שהיא אינה מוכנה להשתמש בטכנולוגיית הבינה המלאכותית שלה אם הדבר כרוך באובדן חיי אדם. הם לא אמרו דבר על החיים שנוכל להציל". כמה חודשים לאחר שפרשה גוגל ממייבן הכריזה DARPA על השקעה ארוכת טווח של שני מיליארד דולר בתוכניות המתמקדות בפיתוח בינה מלאכותית.
בכירים בעולם הטכנולוגי, כמו אילון מאסק וביל גייטס וכן המדען המנוח סטיבן הוקינג, רק הוסיפו לתבהלה סביב הבינה המלאכותית כשטענו כי האנושות נכנסת לתחום מסוכן במרדף העיוור שלה לכאורה אחרי בינה מלאכותית. מאסק השווה את הטכנולוגיה ל"דיקטטור בן אלמוות" ול"שטן", והוקינג טען כי היא יכולה "להוביל לסוף האנושות".
ווקר, לעומת זאת, הביע גישה רגועה בשעה שדיבר על הנושא, וציין שחוקרי DARPA מצאו שהמכונות תפקדו "די גרוע" כשהורו להן להתנהל בגמישות ולחשוב מחוץ למידע שבו השתמשו כדי להכשיר אותן. המטרה, לדבריו, היא לא רק להעניק למכונות את היכולת להבין מה הן רואות, אלא גם להשתנות בהתאם למצב, באופן שבו יעשה זאת בן־אדם. לדוגמה, ייתכן שהבינה המלאכותית תוכל לזהות תמונה של חתול היושב על גבי מזוודה, אך המכונה עדיין לא תבין שאפשר לשים את החתול בתוך המזוודה – וגם שכנראה לא נרצה לעשות דבר כזה. בני אדם, לעומת זאת, מבינים באופן אינסטינקטיבי את שני הדברים הללו.
"כיצד להעניק למכונות שכל ישר כזה? זו המטרה הבאה שבה אנו מתמקדים ב־DARPA", אמר ווקר. "זה יהיה קריטי אם באמת נרצה שמכונות יהיו שותפות לבני אדם, ולא סתם כלים".