יום שלישי, מרץ 4, 2025 | ד׳ באדר ה׳תשפ״ה
לארכיון NRG
user
user

תהילה שוורץ-אלטשולר

ד"ר תהילה שוורץ־אלטשולר היא עמיתה בכירה במכון הישראלי לדמוקרטיה וראשת התוכנית לדמוקרטיה בעידן המידע במכון

כיצד תשפיע הטכנולוגיה על היחס בין המשטרה לאזרחים?

מערכות בינה מלאכותית יהפכו לחלק מחיינו בעשור הקרוב. על הדרג המקצועי והפוליטי לדאוג שהן אכן ישרתו אותנו, ולא יפגעו בערכי הליבה של הדמוקרטיה ובזכויות הפרט

בישיבה חגיגית של ועדת המדע בכנסת הציג לאחרונה תת־ניצב שי קופרמן, ראש מנהל הטכנולוגיות של משטרת ישראל, רשימת יכולות טכנולוגיות הנמצאות בשימוש מבצעי במשטרה ומיועדות למעקב ומלחמה בפשיעה: מיפוי מצלמות במרחב הציבורי, צילומי וידיאו "שתי וערב", שימוש בחיישני קול ומפות חום. תנ"צ קופרמן גם הדגיש שהמשטרה מתקדמת בפיתוח מערכות לומדות ומערכות בינה מלאכותית.

יש להניח שהתכלית הראשונה לשימוש במערכות בינה מלאכותית תהיה ניתוח רב־ממדי של כמויות המידע האדירות שהמשטרה צוברת כל העת באמצעות המצלמות והחיישנים, וליצור מהן תובנות חדשות. מעבר לכך, אפשר לשער שבינה מלאכותית תשמש גם לחיזוי פשיעה ולמערכות פיקוח חכמות, שיוטמעו בשנים הקרובות כחלק מהפעילות השגרתית. רשויות אכיפת החוק בארה"ב משתמשות כבר כמה שנים באלגוריתמים לחיזוי פשיעה, ויש להניח שבתוך עשור מערכות חיזוי פשיעה יהיו חלק חשוב מיכולותיו של כל גוף שיטור, וכך תחליט המשטרה היכן להשקיע כוחות ומשאבים.

צילום אילוסטרציה: עמי שומן
שוטר ומחשב. צילום אילוסטרציה: עמי שומן

בעולם של ניטור ואיסוף מידע מתמיד, יגיע מהר מאוד גם הניתוח החכם שיצליב את כל תכונותיו ופעילויותיו של האזרח, ואז קיימת כמובן האפשרות שאדם יסומן כראוי לחקירה מעמיקה יותר, יילקח למעצר ויינקטו נגדו אמצעים. אין מדובר רק בפשיעה "רגילה" של גניבת אופניים: המערכות יוכלו לסמן את מי לעצור לבדיקה מיוחדת בשדה התעופה; את מי לעכב בדרך להפגנה; איזו חבילה שנשלחה במשלוח בינלאומי עשויה להכיל חומרים אסורים; למי לאפשר שחרור מוקדם מהכלא; ומה שמטריד במיוחד – מתי אדם עלול להוות איום לא רק לסובביו אלא למונחים אמורפיים כמו "שלום הציבור" או "יציבות הממשל".

כאן מגיעים האתגרים. באיזה שלב אפשר לומר שמערכת חכמה היא בעלת רמה מספקת של אחריות המאפשרת להסתמך על החלטותיה? על מי חלה חובת האחריותיות הזאת בכלל – על המכונה, על המפתח או על המשטרה? ומי יהיה הגוף שיבקר את המערכת?

אחד המאפיינים של מערכות לומדות הוא שגם המתכננים שלהן אינם יכולים להסביר עד הסוף כיצד פועל תהליך הלמידה וכיצד הגיעו למסקנותיהן. כיצד מממשים את עקרון השקיפות השלטונית במצב כזה? איך תסביר המשטרה לציבור כיצד פועלות המערכות שהיא משתמשת בהן?

יהיו שיטענו שהחלפת שיקול דעת אנושי, שיש לו הטיות ומגבלות, בשיקול דעת של מכונה תגביר את השוויון משום שהיא תעקוף הטיות כמו חשש מהשונה או סתם ממצב הרוח של השוטר. אלא שכיום ברור שגם למערכות הבינה המלאכותית יש הטיות, הנובעות למשל מן המידע שבו הן עורכות את תהליך האימון שלהן. לדוגמה, מערכות לזיהוי פנים, שתהליך האימון שלהן היה בעיקר על פנים של אנשים לבנים, עושות טעויות כשהן נדרשות לזהות פנים של שחורים. האם נערך דיון ציבורי בהטיות האלה?

חששות נוספים יכולים להיות מפני פגיעה בזכות להליך הוגן, הפרה של הזכות לפרטיות ואפילו חשש מפני פגיעה בכבוד האדם שענייניו נידונים בלא ממשק אנושי שיש בו אמפתיה וחמלה.

יתרונותיהן של מערכות לומדות בשירות המשטרה ברורים. אבל מוצדק לשאול כבר בשלב הזה אם נערך דיון ציבורי בשאלת ההשלכות שלהן על היחסים בין המשטרה לאזרחים ועל ההגנה על זכויות האדם. האם קיים פיקוח על תהליכי הפיתוח והרכש? האם בידי חברי הכנסת יש די ידע מקצועי ואוריינות דיגיטלית שיאפשרו להם לפקח על התהליכים הללו? קשה לשנות או להחזיר לאחור החלטות שמתקבלות היום, בגלל ההשקעה הכספית, הכשרת כוח האדם והפעילות המבצעית שתתבסס על מערכות אלו.

מערכות לומדות יהפכו לחלק משמעותי מחיינו בעשור הקרוב. חלק מהדיון ביתרונות ובחסרונות שלהן נוגע היום בחברות הענק המסחריות, דוגמת גוגל ופייסבוק. על הדרג המקצועי והפוליטי לדאוג כבר כעת שהמערכות הללו אכן ישרתו אותנו, יקדמו יעילות וחיסכון, ולא יפגעו בערכי הליבה של הדמוקרטיה ובזכויות הפרט.

כתבות קשורות

הידיעה הבאה

כתבות אחרונות באתר

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.