בישיבה חגיגית של ועדת המדע בכנסת הציג לאחרונה תת־ניצב שי קופרמן, ראש מנהל הטכנולוגיות של משטרת ישראל, רשימת יכולות טכנולוגיות הנמצאות בשימוש מבצעי במשטרה ומיועדות למעקב ומלחמה בפשיעה: מיפוי מצלמות במרחב הציבורי, צילומי וידיאו "שתי וערב", שימוש בחיישני קול ומפות חום. תנ"צ קופרמן גם הדגיש שהמשטרה מתקדמת בפיתוח מערכות לומדות ומערכות בינה מלאכותית.
יש להניח שהתכלית הראשונה לשימוש במערכות בינה מלאכותית תהיה ניתוח רב־ממדי של כמויות המידע האדירות שהמשטרה צוברת כל העת באמצעות המצלמות והחיישנים, וליצור מהן תובנות חדשות. מעבר לכך, אפשר לשער שבינה מלאכותית תשמש גם לחיזוי פשיעה ולמערכות פיקוח חכמות, שיוטמעו בשנים הקרובות כחלק מהפעילות השגרתית. רשויות אכיפת החוק בארה"ב משתמשות כבר כמה שנים באלגוריתמים לחיזוי פשיעה, ויש להניח שבתוך עשור מערכות חיזוי פשיעה יהיו חלק חשוב מיכולותיו של כל גוף שיטור, וכך תחליט המשטרה היכן להשקיע כוחות ומשאבים.

בעולם של ניטור ואיסוף מידע מתמיד, יגיע מהר מאוד גם הניתוח החכם שיצליב את כל תכונותיו ופעילויותיו של האזרח, ואז קיימת כמובן האפשרות שאדם יסומן כראוי לחקירה מעמיקה יותר, יילקח למעצר ויינקטו נגדו אמצעים. אין מדובר רק בפשיעה "רגילה" של גניבת אופניים: המערכות יוכלו לסמן את מי לעצור לבדיקה מיוחדת בשדה התעופה; את מי לעכב בדרך להפגנה; איזו חבילה שנשלחה במשלוח בינלאומי עשויה להכיל חומרים אסורים; למי לאפשר שחרור מוקדם מהכלא; ומה שמטריד במיוחד – מתי אדם עלול להוות איום לא רק לסובביו אלא למונחים אמורפיים כמו "שלום הציבור" או "יציבות הממשל".
כאן מגיעים האתגרים. באיזה שלב אפשר לומר שמערכת חכמה היא בעלת רמה מספקת של אחריות המאפשרת להסתמך על החלטותיה? על מי חלה חובת האחריותיות הזאת בכלל – על המכונה, על המפתח או על המשטרה? ומי יהיה הגוף שיבקר את המערכת?
אחד המאפיינים של מערכות לומדות הוא שגם המתכננים שלהן אינם יכולים להסביר עד הסוף כיצד פועל תהליך הלמידה וכיצד הגיעו למסקנותיהן. כיצד מממשים את עקרון השקיפות השלטונית במצב כזה? איך תסביר המשטרה לציבור כיצד פועלות המערכות שהיא משתמשת בהן?
יהיו שיטענו שהחלפת שיקול דעת אנושי, שיש לו הטיות ומגבלות, בשיקול דעת של מכונה תגביר את השוויון משום שהיא תעקוף הטיות כמו חשש מהשונה או סתם ממצב הרוח של השוטר. אלא שכיום ברור שגם למערכות הבינה המלאכותית יש הטיות, הנובעות למשל מן המידע שבו הן עורכות את תהליך האימון שלהן. לדוגמה, מערכות לזיהוי פנים, שתהליך האימון שלהן היה בעיקר על פנים של אנשים לבנים, עושות טעויות כשהן נדרשות לזהות פנים של שחורים. האם נערך דיון ציבורי בהטיות האלה?
חששות נוספים יכולים להיות מפני פגיעה בזכות להליך הוגן, הפרה של הזכות לפרטיות ואפילו חשש מפני פגיעה בכבוד האדם שענייניו נידונים בלא ממשק אנושי שיש בו אמפתיה וחמלה.
יתרונותיהן של מערכות לומדות בשירות המשטרה ברורים. אבל מוצדק לשאול כבר בשלב הזה אם נערך דיון ציבורי בשאלת ההשלכות שלהן על היחסים בין המשטרה לאזרחים ועל ההגנה על זכויות האדם. האם קיים פיקוח על תהליכי הפיתוח והרכש? האם בידי חברי הכנסת יש די ידע מקצועי ואוריינות דיגיטלית שיאפשרו להם לפקח על התהליכים הללו? קשה לשנות או להחזיר לאחור החלטות שמתקבלות היום, בגלל ההשקעה הכספית, הכשרת כוח האדם והפעילות המבצעית שתתבסס על מערכות אלו.
מערכות לומדות יהפכו לחלק משמעותי מחיינו בעשור הקרוב. חלק מהדיון ביתרונות ובחסרונות שלהן נוגע היום בחברות הענק המסחריות, דוגמת גוגל ופייסבוק. על הדרג המקצועי והפוליטי לדאוג כבר כעת שהמערכות הללו אכן ישרתו אותנו, יקדמו יעילות וחיסכון, ולא יפגעו בערכי הליבה של הדמוקרטיה ובזכויות הפרט.