כשמחבל מתאבד תקף את נמל התעופה הבינלאומי בקאבול באוגוסט שעבר, המוות וההרס היו עצומים. 183 בני אדם נהרגו בפיגוע, ובהם 13 חיילים אמריקנים. אירוע רב נפגעים כזה עלול להיות מאיים במיוחד לכוחות החירום. מאות אנשים זקוקים לטיפול, בבתי החולים הסמוכים יש מקום מוגבל, ואת ההחלטות בדבר תעדוף הטיפול יש להחליט במהירות. לעיתים קרובות התשובה איננה ברורה, ואין עליה הסכמה.
הסוכנות הצבאית למיזמי מחקר מתקדמים (DARPA), זרוע החדשנות של צבא ארה"ב, שואפת להעביר את הדילמה הקשה לידי בינה מלאכותית. באמצעות תוכנית חדשה, "בו ברגע" (In the Moment), היא מבקשת לפתח טכנולוגיה שתקבל החלטות מהירות במצבי לחץ באמצעות אלגוריתמים, בטענה שהסרת הטיות אנושיות עשויה להציל חיים – כך לפי פרטים מהשקת התוכנית שפורסמו לאחרונה.
התוכנית עדיין בחיתוליה, והיא מושקת בזמן שמדינות אחרות מנסות לעדכן מערכת בת מאות שנים של טריאז' רפואי, וצבא ארה"ב מגביר את הישענותו על טכנולוגיה כדי להגביל טעויות אנוש בלחימה. אך מומחים וחוקרי אתיקה מניפים דגלים אדומים, ותוהים אם יש לערב בינה מלאכותית כאשר חיי אדם מונחים על כף המאזניים. "בינה מלאכותית מעולה בלספור דברים", מסבירה סאלי אפלין, עמיתת מחקר ויועצת החוקרת את הצומת שבין אנשים, אלגוריתמים ואתיקה. "אבל אני חושבת שתוכנית כזו עלולה ליצור תקדים שבו ההחלטה על חייו של מישהו נתונה בידיה של מכונה".
הסוכנות למיזמי מחקר, שייסד הנשיא דווייט ד' אייזנהאואר ב-1958, היא מהארגונים המשפיעים ביותר במחקר הטכנולוגי, והיא שלחה ידה בחידושים רבים, כולל האינטרנט, ה-GPS, לווייני מזג האוויר ולאחרונה חיסון הקורונה של חברת מודרנה. תולדות עיסוקה בבינה מלאכותית משקפות את העליות והמורדות בתחום. בשנות השישים הסוכנות עשתה כברת דרך בעיבוד שפה טבעית, וסייעה למחשבים לשחק משחקים כמו שחמט. בשנות השבעים והשמונים ההתקדמות נעצרה, בעיקר בשל מגבלות בכוח המִחשוב.
מראשית שנות האלפיים, ככל שהשתפר כוח העיבוד והתפתח מחשוב הענן, הסוכנות החלה לעסוק יותר בשימוש בבינה מלאכותית ליישומים צבאיים. בשנת 2018 היא הקצתה 2 מיליארד דולרים לתוכנית AI Next, החותרת לשלב בינה מלאכותית ביותר משישים מיזמי הגנה – סימן לכך שהתחום עשוי להיות משמעותי מאוד במלחמות בעתיד. בהכרזה על התוכנית נאמר שבעתיד מכונות יהיו יותר מסתם כלים, ויתפקדו "יותר כעמיתים מאשר ככלי עבודה".
בין השאר, התוכנית "בו ברגע" מפתחת ומעריכה את התועלת של אלגוריתמים שיסייעו למקבלי החלטות בשני מצבים: פציעות ביחידות קטנות, למשל כוחות מיוחדים, ובאירועים רבי נפגעים, כמו הפיצוץ בנמל התעופה בקאבול. לפי גורמים בסוכנות, בהמשך הם עשויים לפתח גם אלגוריתמים שיסייעו במצבי אסון כמו רעידות אדמה.
התוכנית תפעל שלוש שנים וחצי, והיא מבקשת סיוע מהמגזר הפרטי להשגת מטרותיה – נוהג שגרתי בשלבים הראשוניים של רוב מחקרי הסוכנות. פקידי DARPA לא סיפרו אילו חברות הביעו עניין או מהו תקציב התוכנית. מאט טורק, מנהל "בו ברגע", אומר שההמלצות של האלגוריתמים יישענו על הדרכה מ"בני אדם מהימנים מאוד" בעלי מומחיות בטריאז', אך יוכלו לגשת למידע נוסף כדי לקבל החלטות מושכלות במצבים שבהם אפילו מומחים מנוסים יהיו מבולבלים.
לדוגמה, מציע טורק, בינה מלאכותית יכולה לעזור לזהות את כל המשאבים שיש לבית חולים סמוך – כמו זמינות תרופות, אספקת דם וזמינות צוות רפואי – כדי לסייע בקבלת ההחלטות: "שיקולים כאלו לא יכולים להיכנס להחלטה של בן אדם. אלגוריתמים עשויים למצוא פתרונות שבני אדם לא יראו".
קולונל סוהראב דלאל, ראש הענף הרפואי בפיקוד ההתפתחות העליון של ברית נאט"ו, אמר שתהליך הטריאז', שבו רופאים בודקים כל חייל ומעריכים עד כמה דחוף הטיפול בו, הוא בן כמעט מאתיים שנה, והוא זקוק לריענון. צוותו עובד עם אוניברסיטת ג'ונס הופקינס כדי ליצור "עוזר טריאז' דיגיטלי" שיכול לשמש את בעלות הברית. התוכנה תשתמש במערכות נתוני פציעות של נאט"ו, במערכות ניקוד נפגעים, במודלים חזויים ובתיאור מצבו של המטופל כדי ליצור מודל שיתעדף את הטיפול במצב של משאבים מוגבלים. "זה שימוש טוב מאוד בבינה מלאכותית", אומר דלאל, רופא במקצועו. "השורה התחתונה היא שזה ישפר את הטיפול בחולים ויציל חיים".
כמה אתיקנים מעלים שאלות על התוכנית של DARPA: האם הנתונים שישמשו את התוכנה יובילו לכך שחיילים פשוט יעשו כל מה שהאלגוריתם אומר להם, גם אם השכל הישר יציע אחרת? ואם האלגוריתם יגרום למותו של אדם, מי אשם? פיטר אסרו, פילוסוף לבינה מלאכותית בבית הספר החדש ללימודי מדיה, אומר שבצבא יצטרכו להחליט כמה אחריות ניתנת לאלגוריתם בקבלת החלטות טריאז'. גם מנהיגים יידרשו להבין כיצד יטופלו שאלות אתיקה: למשל, אם היה פיצוץ גדול ונפגעו בהם אזרחים וחיילים גם יחד, האם האזרחים יקבלו טיפול בעדיפות פחותה, גם אם נפגעו קשה? "זו שאלה ערכית", מסביר אסרו. "זה משהו שאתה יכול להגיד למכונה לתעדף בדרכים מסוימות, אבל המכונה לא תבין לבד".
סאלי אפלין, אנתרופולוגית העוסקת באתיקה של בינה מלאכותית, אומרת שככל שהתוכנית תתגבש, יהיה חשוב לבדוק אם האלגוריתם מנציח קבלת החלטות מוטה, כפי שקרה בעבר כשהאלגוריתמים בתחום הבריאות העדיפו חולים לבנים על פני שחורים בקבלת טיפול. "אנחנו יודעים שעלולה להיות הטיה בבינה מלאכותית, שמתכנתים לא יכולים לחזות כל מצב, שבינה מלאכותית אינה חברתית ושבינה מלאכותית אינה תרבותית", אמרה. "היא לא יכולה לחשוב על הדברים האלה"