מי שומר עלינו מהשימוש של המשטרה בטכנולוגיה?
מיפוי מצלמות במרחב הציבורי, צילומי וידיאו "שתי וערב", שימוש בחיישני קול ומפות חום, כל אלו האמצעיים שהמשטרה משתמשת לצורך מעקב ומלחמה בפשיעה. אך זו רק ההתחלה, שימוש במערכות בינה מלאכותית תהיה לבצע ניתוח רב ממדי של כמויות המידע האדירות שהמשטרה צוברת כל העת באמצעות המצלמות והחיישנים, וליצור מהן תובנות חדשות ובהמשך אפילו לחזות פשעים.
בישיבה חגיגית של ועדת המדע של הכנסת הציג לאחרונה תנ"צ שי קופרמן, ראש מנהל הטכנולוגיות של משטרת ישראל, רשימת יכולות טכנולוגיות הנמצאות בשימוש מבצעי על ידי המשטרה ומיועדות לצורך מעקב ומלחמה בפשיעה: מיפוי מצלמות במרחב הציבורי, צילומי וידיאו "שתי וערב", שימוש בחיישני קול ומפות חום. תנ"צ קופרמן גם הדגיש כי המשטרה מתקדמת בפיתוח מערכות לומדות ומערכות בינה מלאכותית.
יש להניח כי התכלית הראשונה לשימוש במערכות בינה מלאכותית תהיה לבצע ניתוח רב ממדי של כמויות המידע האדירות שהמשטרה צוברת כל העת באמצעות המצלמות והחיישנים, וליצור מהן תובנות חדשות.
מעבר לכך אפשר לשער שבינה מלאכותית תשמש גם במערכות חיזוי פשיעה ומערכות פיקוח חכמות, אשר יוטמעו בשנים הקרובות כחלק מהפעילות השגרתית. רשויות אכיפת החוק בארצות הברית משתמשות כבר כמה שנים באלגוריתמים לצורך חיזוי פשיעה, ויש להניח כי בתוך עשור יהוו מערכות חיזוי פשיעה חלק חשוב מיכולותיו של כל גוף שיטור, וכך תחליט המשטרה היכן להשקיע כוחות ומשאבים.
בעולם של ניטור מתמיד ואיסוף מידע יגיע מהר מאד גם הניתוח החכם אשר יצליב את כל תכונותיו ופעילויותיו של אזרח, ואז קיימת כמובן האפשרות שאותו אדם יסומן כראוי לחקירה מעמיקה יותר, יילקח למעצר או יינקטו נגדו אמצעים אחרים. אין מדובר רק בפשיעה "רגילה" של גניבת אופניים: המערכות יוכלו לסמן את מי לעצור לבדיקה מיוחדת בשדה התעופה; את מי לעכב בדרכו להפגנה; איזו חבילה שנשלחה במשלוח בינלאומי עשויה להכיל חומרים אסורים; למי לאפשר שחרור מוקדם מהכלא; ומה שמטריד באופן מיוחד - מתי אדם עלול להוות איום לא רק לסובבים אותו אלא לאותו מונח אמורפי בשם "שלום הציבור" או "יציבות הממשל".
כאן מגיעים האתגרים. באיזה שלב ניתן לומר שמערכת חכמה היא בעלת רמה מספקת של אחריותיות המאפשרת להסתמך על החלטותיה? על מי חלה חובת האחריותיות הזאת בכלל – על המכונה, על המפתח או על המשטרה? ומי יהיה הגוף שיבקר את המערכת?
אחד המאפיינים של מערכות לומדות הוא שגם המתכננים שלהן אינם יכולים להסביר עד הסוף כיצד פועל תהליך הלמידה וכיצד הגיעו למסקנות שאליהן הגיעו. כיצד מממשים את עיקרון השקיפות השלטונית במצב כזה? כיצד תסביר המשטרה לציבור כיצד פועלות המערכות בהן היא משתמשת?
יהיו שיטענו שהחלפת שיקול דעת אנושי, שיש לו הטיות ומגבלות, בשיקול דעת של מכונה יגביר את השוויון משום שהוא יעקוף הטיות כמו חשש מהשונה או סתם ממצב הרוח של השוטר. אלא, שכיום ברור שגם למערכות הבינה המלאכותית יש הטיות, הנובעות למשל מן המידע שעליו הן מבצעות את תהליך האימון שלהן. למשל, מערכות לזיהוי פנים – שתהליך האימון שלהן היה בעיקר על פנים של אנשים לבנים, מבצעות טעויות כשהן נדרשות לזהות פנים של שחורים. האם מתקיים דיון ציבורי בהטיות האלה?
חששות נוספים יכולים להיות מפני פגיעה בזכות להליך הוגן, הפרה של הזכות לפרטיות ואפילו חשש מפני פגיעה בכבוד האדם כאשר ענייניו נדונים בלא ממשק אנושי שיש בו אמפתיה וחמלה.
יתרונותיהן של מערכות לומדות בשירות המשטרה ברורים. אבל מוצדק לשאול כבר בשלב זה האם מתקיים דיון ציבורי בשאלת ההשלכות שלהן על היחסים שבין המשטרה לבין האזרחים ועל ההגנה על זכויות האדם. האם קיים פיקוח על תהליכי הפיתוח והרכש? האם בידי חברי הכנסת מספיק ידע מקצועי ואוריינות דיגיטלית שיאפשרו להם לפקח על התהליכים הללו? החלטות המתקבלות היום, יהיה קשה לשנות או להחזיר לאחור–בגלל ההשקעה הכספית, הכשרת כוח האדם, והפעילות המבצעית שתתבסס על מערכות אלו.
מערכות לומדות יהפכו להיות חלק משמעותי מחיינו בעשור הקרוב. חלק מן הדיון ביתרונות ובחסרונות שלהן מתבצע היום בנוגע לחברות הענק המסחריות כמו גוגל ופייסבוק. על הדרג המקצועי והפוליטי לדאוג כבר כעת שמערכות אלו אכן ישרתו אותנו, יקדמו יעילות וחיסכון אך לא יפגעו בערכי הליבה של הדמוקרטיה ובזכויות הפרט.
פורסם לראשונה במקור ראשון.