
דילמות אתיות בהפעלת כטמ"מים
פרופ' אסא כשר, פרופ' אמיר שפירא והחוקרת פנינה שרביט ברוך דנים בדילמות המוסריות הדרמטיות שמציב השימוש בכלים מאוישים מרחוק להשמדת מטרות. האם הריחוק הגדל מהמטרה הופך את היד קלה יותר על ההדק?

בשנת 2012 סיפרה כתבת ה"ניו יורק טיימס", אליזבת' מילר, את סיפורו של קולונל סקוט ברנטון, מפעיל כטמ"מים מסוג Predator, שמבצע את מלאכתו כשהוא יושב בכורסה מרופדת היטב בפרבר של העיר סירקיוז במדינת ניו יורק.
קולונל ברנטון, בעברו טייס F-16, קיבל מהמודיעין הצבאי מאות צילומי מטרות באפגניסטן, וכשנפלה ההחלטה לפעול, קיבל פקודה לשיגור טיל הלפייר מהמל"ט שהטיס במרחק 11 אלף ק"מ ממקום מושבו. "אני רואה אמהות, אבות וילדים משחקים כדורגל", סיפר הקולונל, "ולפעמים אני מקבל הוראה לשגר כשהילדים בסביבה. לפעמים אני עוקב במשך שבועות אחרי מטרה אחת. אין לי שום תחושת קרבה לאויב. יש לי משימה, ואני מבצע אותה".
בתום יום עבודתו, נכנס קולונל ברנטון למכוניתו, ונוסע הביתה ברחובות הומי בני אדם כדי לשחק עם ילדיו. עמיתו לתפקיד, מפעיל כטמ"מים אף הוא, דיבר אחרת: "נכון שיש סיבה טובה להרוג את האנשים הללו, אבל אני לא יכול לשכוח. הזיכרון לא נמחק".
סיפורם של קולונל סקוט ברנטון ועמיתו בנושא שיגור וחימוש כטמ"מים גדולים הטסים לטווחים ארוכים כדוגמת ה - Predator (נקראים גם MALE -Medium Altitude Long Endurance) הוא ליבת הדילמה המעסיקה צבאות, ארגוני מודיעין, ארגוני זכויות אדם, אנשי מוסר ומשפט. מקור הדילמה הנו אופן השימוש בטכנולוגיה, לא עוד קרב כידונים וחרבות פנים אל פנים בשדה המערכה. אלא שיגור חימוש מטווחים של עשרות עד רבבות קילומטרים - ממטוס או מסוק קרב מאויש ובאופן דומה מכטמ"ם.
האם הטלת חימוש מכטמ"ם מותרת או אסורה על פי דיני המלחמה, המשפט והמוסר. כאן הדילמה.
המתירים יאמרו: מהו כטמ"ם? עוד פלטפורמה אווירית. מה שמותר לביצוע ממטוס קרב מותר לכלי בלתי מאויש. האוסרים יטענו: שיגור מרחוק עלול להסב נזק סביבתי/אגבי/שיורי, ופעמים רבות נזק זה משמעותו פגיעה באזרחים בלתי מעורבים, נשים וילדים. מתפרסמים דו"חות על אבידות בנפש ופגיעות בבלתי מעורבים בזירות לחימה שונות בעולם, אלא שלעיתים קרובות הדו"חות מתאימים עצמם להשקפת עולמו של המחבר או המזמין.
ארגון זכויות האדם של האו"ם פרסם דו"ח על הריגות אקס-טריטוריאליות. המצב נבדק בצבאות ארה"ב ובריטניה. המסקנה: אין פסול בשיגור חימוש מכטמ"ם. הכטמ"ם שוהה באוויר זמן רב יותר ממטוס קרב, מה שמאפשר למפעילו לבדוק לעומק את המטרה וסביבתה. כך נשמר עקרון הזהירות בחוק הבינלאומי, המחייב לנקוט את מרב האמצעים כדי למנוע פגיעה באזרחים.
במאמר של THE COMMUNITY OF THINKERS נכתב כי "אלפי בני אדם נהרגו בהתקפות מל"טים אמריקאים. זו מכונת הרג המופעלת מרחוק, ממרחק אלפי ק"מ". מאמר של סקוט שיין ב"ניו יורק טיימס" (2012) קבע כי "מאזורים נידחים בפקיסטן הגיעו דיווחים על משפחות שנמחקו, ילדים שנספו ונזק סביבתי שנגרם".
חוקר של סוכנות הביון הפדרלית CIA, שביצעה בעבר תקיפות מרחוק באמצעות כטמ"מים, כתב: "חשבו על שריפות הענק בדרזדן שבגרמניה במלחמת העולם השנייה בעקבות הפצצות של בנות הברית. האם אפשר להשוות מה שקרה שם למה שקורה היום בשדות הקרב מבחינת הפחתת הפגיעה בבלתי מעורבים?".
פקיסטן הייתה למעשה שדה הניסויים הגדול בעולם לתקיפת מטרות באמצעות כטמ"מים. מחקרים גילו ששיעורי הפגיעה בבלתי מעורבים שם היו נמוכים לאין שיעור בהשוואה לתקיפות באמצעים אחרים. לעומת זאת, כאשר צבא פקיסטן פשט על מעוזי טרוריסטים, 46 אחוזים מההרוגים היו אזרחים.
כדי לדון בדילמה של ההרג מרחוק באמצעות כטמ"ם ביקשה מערכת ישראל דיפנס לשמוע את חוות דעתם של שלושה אנשי אקדמיה, מומחים להיבטי המוסר והמשפט בתחומים הביטחוניים-צבאיים: פרופ' אסא כשר, מרצה לפילוסופיה ומומחה לאתיקה, בעיקר צה"לית, פרופ' אמיר שפירא, ראש המעבדה לרובוטיקה במחלקה להנדסת מכונות באוניברסיטת בן גוריון בנגב, ופנינה שרביט ברוך, חוקרת בכירה וראש התוכנית למשפט וביטחון לאומי במכון למחקרי ביטחון לאומי INSS.
תוכנה עם שיקולים אנושיים
פנינה שרביט ברוך על ההיבט המשפטי של הדילמה: "בקרב המשפטנים מקובל שאין בעיה משפטית להשתמש בכטמ"מים, גם לסיכולים ממוקדים, בהשוואה לכלי טיס מאויש. כטמ"ם הוא עוד סוג של פלטפורמה. כיום, גם טייס רואה את המטרה ממרחק רב, לעיתים אפילו אינו רואה אותה כלל בעין, ובכל זאת יכול לתקוף. התנאי בשני המקרים הוא אחד: שהתקיפה עומדת במבחן דיני המלחמה. המבחן הזה מבוסס על שני עקרונות: (1) ההבחנה ו-(2) המידתיות. עקרון ההבחנה קובע שמותר לכוון התקפה נגד מטרה צבאית או אזרחית המשמשת ללחימה. עקרון המידתיות קובע כי גם כאשר מכוונים למטרה, אסור לבצע את התקיפה אם הנזק האגבי לאזרחים צפוי להיות מופרז ביחס ליתרון הצבאי הצפוי מהתקיפה.
"מי מחליט? תמיד המפקד בשטח. זו אחריותו".
פרופ' אסא כשר רואה יתרונות גדולים בשיגור כלי בלתי מאויש: "מתבטלת הסכנה לטייס ומפעיל כטמ"מים מרחוק רואה טוב יותר את אזור המטרה. התצפית איטית ויסודית יותר, והמפעיל יכול לנהוג ביתר רגישות מול סכנה של נזק סביבתי. העובדה שאין סכנת אבדות לכוחותינו היא הסיבה לכך שהנשיא אובמה אישר בזמנו תקיפות באמצעות כטמ"מים, שהרי חובתו של המפקד העליון להגן על חייליו. הכללים של אובמה פורסמו, ושיפרו את שקיפות ההפעלה על ידי הצבא בהשוואה להפעלה על ידי ה-CIA לפני כן, שהייתה אפופת סודיות.
"נכון שנופלות טעויות בבחירת מטרות וגם נגרם נזק אגבי, אך גרימת נזק כזה איננה פסולה בכל מקרה על פי כללי המוסר. עניין המידתיות חשוב מאוד. מי שמזין תוכנה של כטמ"ם בנתוני מטרות שקיבל מהמודיעין משוכנע שהמטרות אמיתיות ולגיטימי לתקוף אותן. כאן נכנסת המידתיות: עליו לשקול אם ניתן לתקוף. מוטב, אם כן, לפתח תוכנה שתדע לזהות ילדים ואזרחים בלתי מעורבים שנכנסים לאזור המטרה, ואז להפסיק את המשימה (ABORT MISSION). תהיה כך תוכנה זהה לשיקוליו של אדם אם לתקוף או לעצור תקיפה. לדוגמה, אם המטרה היא מחסן רקטות, ופתאום נעצר לידו אוטובוס צהוב של ילדי בית ספר. ברור שבמקרה כזה ראוי לדחות את התקיפה. המחסן לא יברח, ותימנע תקיפה שהנזק שלה גדול יותר מהתועלת".
פרופ' כשר סבור, שבמצב האידאלי ניתן יהיה להעניק לכטמ"ם יכולת לשקול הפסקה של המשימה בגלל נוכחות של אוטובוס ילדים. במבצע "צוק איתן" ביטלה טייסת של חיל האוויר 20 אחוזים מהמשימות שהוטלו עליה, כיוון שבסביבת המטרות נמצאו בלתי מעורבים במספרים שלא אפשרו פגיעה במטרות בלי להרוג או לפצוע בלתי מעורבים.
פנינה שרביט ברוך מבינה היטב את טיעוני הנגד של המתנגדים לתקיפות בכלים אוטונומיים: "המתנגדים סבורים שההריגה נהפכת לקלה מדי עבור המפעיל, שכאילו משחק במשחק וידיאו. הוא אינו חש את המציאות, בגלל הריחוק הפיזי מהמטרה. לדעתי, הטיעון הזה אינו יכול להתקבל, שהרי גם טייס יכול להסיט טיל ממסלולו כדי לא לפגוע בילדים וגם מפעיל של כטמ"ם מתקדם מסוגל לעשות כן".
לדעת שרביט ברוך, הבעיה האמיתית נעוצה בהפעלת כלים אוטונומיים לחלוטין, שמקבלים החלטות עצמאיות. "קיימת שאלה של חוקיות הפעלת מערכות שמקבלות החלטות. לדעתי, כל עוד יקוימו עקרונות דיני המלחמה שהזכרנו, ההבחנה והמידתיות, הפעלת מערכות אוטונומיות איננה בלתי חוקית. בתנאי אחד: שימוש בתוכנות ואלגוריתמים מחייב נוכחות של אדם בחוג ההפעלה - HUMAN IN THE LOOP".
גם פרופ' שפירא מודאג מרובוטים אוטונומיים: "החשש הוא מפני מכונות שיקבלו החלטות עצמאיות. הסכנה טמונה בכך שכטמ"ם יחליט על דעת עצמו את מי להרוג, היכן ומתי". אבל המומחה לרובוטיקה מאוניברסיטת בן גוריון יודע לומר שבכל מערכות הנשק הקיימות הפועלות בשלט-רחוק אדם הוא שמקבל את ההחלטות, והמשגר יכול לחדול את המשימה. "אין בנמצא כרגע כלי שיכול לקבל החלטות הרג באופן עצמאי לחלוטין".
פרופ' כשר נדרש במאמר שפרסם לטיעון שחייבים לפעול מפעילים אנושיים, ולא מחשבים, כאשר מדובר בחיי אדם: "צריך להוכיח שבן אדם עלול לשגות פחות ממחשבים, וכי אדם עולה על מחשב ביכולת לאתר שגיאות ולתקנן. אנו מניחים שמערכות מתקדמות של אדם-מפעיל ושל מחשב-רובוט כוללות באופן מובנה אמצעים לאיתור שגיאות ולתיקונן, ולכן אין סיבה להניח שאחד מהשניים, אדם ומחשב, טוב ממשנהו. כאשר מוקש מתפוצץ מתחת לרגלו של אדם, או כשכדור פוגע בראשו -האם המוקש או הכדורים הם האחראים למותו או לפציעתו? כמובן שלא. אחראי מי שהניח את המוקש או ירה את הכדור. מקרה הכטב"ם אינו שונה. תמיד יש אדם שנושא באחריות".
פרופ' שפירא: "נכון, אנחנו מפתחים היום מכונות שמסוגלות להרוג וחותרים ליותר ויותר אוטונומיה של הכטמ"ם, אבל אני משוכנע שכל אחד ממפתחי המערכות לא יותיר את הנושא המוסרי בידי המכונה".
פנינה שרביט ברוך מספרת כי יש בין מתנגדי השימוש בכלי נשק נשלטים מרחוק המרחיקים לכת ומבקשים לאסור את השימוש בכלים אוטונומיים, "אלא שיהיה קשה לאכוף איסור כזה. מדינות דמוקרטיות עשויות לקבל על עצמן איסור, אבל מה על מדינות מסוג אחר? אמנות בינלאומיות אוסרות שימוש במה שמכונה 'לייזר עיוור'. נשק כזה עוד לא פותח ואינו קיים, אבל כבר אסור בשימוש. לכן הגיוני שדינו של נשק אוטונומי עשוי להיות כדינם של נשק כימי ונשק גרעיני - מטילים על השימוש בהם מגבלות הפעלה ושימוש".
מסקנתה המסכמת של החוקרת מ-INSS נסמכת על דו"ח שהתפרסם באחרונה, וכולל ניתוח של סיכולים ממוקדים באמצעות כטמ"מים שביצעו האמריקאים: "אם מותר להרוג את מטרת הסיכול הממוקד, מה חשובה פלטפורמת ההריגה? השאלה היא אם ההריגה חוקית או לא חוקית? בתשובה לכך אין שום רלוונטיות למהות הפלטפורמה שביצעה את ההריגה".
נראה שמותר להסיק שהפעלת כטמ"מים למטרות תקיפה, ואפילו הרג, אינה מקובלת על רוב החוגים כבלתי מוסרית או פגומה מבחינה משפטית, בתנאי שיהיה במערכת בן-אנוש שיוכל לקבל החלטות, תוך שמירה על דיני המלחמה ומידתיות ההפעלה. כנראה שעוד לא הגיע הזמן לסמוך על כלי אוטונומי לחלוטין, אפילו הוא בעל בינה מלאכותית, שיקבל החלטות הנוגעות לחיי אדם. ?
לכתבות נוספות באתר ISRAEL DEFENSE היכנסו לעמוד הפייסבוק החדש של nrg