אסדרת הבינה המלאכותית בישראל מחייבת קווים אדומים שימנעו פגיעה בזכויות יסוד
גיבוש רגולציה על בינה מלאכותית בנפרד מרגולציה על תחומים משיקים כפרטיות וסייבר היא בעייתית. מלבד זאת, האיסורים על פיתוח ושימוש במערכות נבונות נדרשים להתאים למקובל בעולם.
ביום 30 באוקטובר 2022 פרסם משרד החדשנות, המדע והטכנולוגיה את מסמך ''עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית" להערות הציבור.משרד החדשנות, המדע והטכנולוגיה, מדיניות רגולציה ואתיקה בתחום הבינה המלאכותית בישראל(2022) https://www.gov.il/he/departments/news/most-news20223110 (להלן: "מסמך המדיניות") במסמך התייחסות מקיפה ראשונה של ממשלת ישראל להשלכות כניסת הבינה המלאכותית, ולאתגרים שהיא מציבה בפני המאסדרים.
מטרת המסמך היא לגבש עקרונות למדיניות אתיקה ורגולציה בתחום הבינה המלאכותית בישראל. במבט השוואתי, אין מדובר במסמך חדשני, ואין הוא מבקש להיות כזה. ישנו מספר בלתי מבוטל של מסמכי אתיקה אשר הציעו עקרונות אתיים לבינה מלאכותית,לסקירות חלקיות, ראו Anna Jobin, Marcello Ienca and Effy Vayena, The global landscape of AI ethics guidelines, 1 Nature Machine Intelligence, 389–399 (2019); Yi Zeng, Enmeng Lu and Cunqing Huangfu, Linking artificial intelligence principles. Preprint at https://arxiv.org/abs/1812.04814 (2018); Thilo Hagendorff, The Ethics of AI Ethics: An Evaluation of Guidelines, 30 Minds and Machines 99-120 (2020); Jessica Fjeld, Nele Achten, Hanna Hiligoss, Adam Nagy and Madhulika Srikumar, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI, Berkman Klein Center Research Publication No. 2020-1 (2020) available at https://cyber.harvard.edu/publication/2020/principled-ai ובתוכם מסמך עקרונות ה-OECD אליו מפנה מסמך המדיניות,מסמך המדיניות בעמ' 36-38 וכן המלצות ועדת המשנה של המיזם למערכות נבונות שהתפרסמו בשנת 2019. המיזם הלאומי למערכות נבונות, ועדת המשנה בנושא אתיקה ורגולציה של בינה מלאכותית, דוח מסכם (2019)
עם זאת, אנו סבורים שהעמדה המובעת בדו"ח ביחס לצורך באסדרה רכה ואתית בלבד היא עמדה שאיננה עולה בקנה אחד עם ההתפתחויות בעולם ותוביל לפתיחת פער מיותר בין ישראל למדינות המפותחות. אנו סבורים גם כי ההתעלמות מסוגיית שימושי בינה מלאכותית במגזר הציבורי תיצור כפילויות וסתירות בהמשך. בנוסף, ההתייחסות לאסדרת בינה מלאכותית כעומדת בפני עצמה מבלי לראות בה חלק מאסדרת טכנולוגיה (למשל פרטיות וסייבר) ומבלי ללמוד מלקחי הכשלים באסדרת התחומים המשיקים, היא בעייתית.
אנו סבורים שחסרונו המרכזי של המסמך הוא בהסתפקות ב"מתווה של אסדרה רכה" וכי ראוי במסמך זה להכין את הקרקע לחקיקה שתבטא אמירה ערכית ברורה בנוגע לצורך להתמודד באמצעות רגולציה עם החששות מפני נזקים שמערכות בינה מלאכותית עלולות לגרום.
ברמה הגלובלית, השיח התיאורטי על אתיקה של בינה מלאכותית הניב מאות מסמכים.ר' בה"ש 4 לעיל הגם שהשיח האתי חשוב על מנת לזהות נכונה את הסיכונים והאיומים מטכנולוגיות אלו, לדעתנו הוא איננו מספיק. בעת הזאת, קריאה לאימוץ וולנטרי של מסגרת של כללים אתיים רחבים ובלתי מחייבים, על ידי התעשייה או רשויות הממשלה, עשויה לשמש כעלה תאנה הממחיש הכרה מוסדית בקיומה של בעיה אך משולל גיבוי של מנגנוני פיקוח ואחריותיות משפטים המאפשרים להתמודד איתה. השיח האתי בעולם הטרים את השיח על החקיקה, ופרסום מסמך שכל כולו עקרונות אתיקה בסוף שנת 2022 ייצור באופן אינהרנטי פער בין ישראל לבין מדינות מובילות בהן השיח כבר מתקדם לכדי הצעות חקיקה ורגולציה. גם במדינות בהן רגולציה כופה אינה בנמצא עדיין, מוסדות השלטון מביעים צורך בהגנה קשיחה על אינטרסים ציבוריים ועל זכויות אדם.ר' כותרת מסמך האתיקה The White House, Office of Science and Technology Policy, Blueprint for an AI Bill of Rights: Making Automated Systems work for the American people (2022) https://www.whitehouse.gov/ostp/ai-bill-of-rights/ (להלן: AI BOR))
עמדתנו היא שכעניין שבעקרון, אסדרת בינה מלאכותית צריכה להיות על בסיס חקיקה, ואין להסתפק באסדרה רכה של בינה מלאכותית ובמנגנונים וולנטריים על מנת להבטיח הגנה נאותה על זכויות אדם וחירויות אזרח.
למנהלי חברות במגזר הפרטי, קרנות הון סיכון וגם למהנדסים ומפתחי מערכות בינה מלאכותית עשויים להיות אינטרסים למימוש וולנטרי של העקרונות האתיים המוצעים במסמך. כך למשל, מימוש של ערך ה"אמינות, עמידות, אבטחה ובטיחות"מסמך המדיניות, פרק 6.2.3 (ה) עולה בקנה אחד עם אינטרסים מסחריים לפיתוח מוצרים יציבים ואמינים שאין בצידם סיכון בלתי סביר. ואולם, חלק מהעקרונות האתיים המוצעים עשויים להתנגש עם אינטרסים מסחריים – למשל, חברה המפתחת מערכת דירוג אשראי עשויה שלא להקפיד על שמירת העקרון האתי של "שיוויון ומניעת אפליה פסולה",מסמך המדיניות, פרק 6.2.3 (ג) כאשר המוצר שלה מהווה "קופסה שחורה"על קופסאות שחורות ועכירות אלגוריתמית, ר' פרל ואלטשולר, בה"ש 2 לעיל בעמ' 14. כדי להפלות בין לקוחות על בסיס מאפיינים אסורים. כאשר העקרונות האתיים לא מתורגמים להוראות סטטוטוריות מחייבות, ובמקום זאת הם נתמכים באסדרה וולנטרית, יהיו גופים עסקיים שיעדיפו שלא לפעול לפי שיקולים אתיים אלא משיקולי השאת רווחים. בנוסף, מערך התמריצים של חברות גדולות ומבוססות שונה משל חברות צעירות וקטנות, שמטה לחמן מבוסס על טכנולוגיות שנויות במחלוקת. כך למשל, חרף המורטוריום הוולנטרי של חברות כגון אפל, מייקרוסופט ו-IBM על טכנולוגיות זיהוי פנים,החברות אפל, מייקרוסופט ואמזון הכריזו במהלך 2020 שיפסיקו לייצר ולהשקיע בחברות המפתחות מערכות זיהוי פנים לתכליות שיטור, או שימנעו מלספקן לסוכנויות אכיפת החוק. Alex Hern, IBM quits facial-recognition market over police racial-profiling concerns, The Guardian (9.6.2020) available on https://www.theguardian.com/technology/2020/jun/09/ibm-quits-facial-recognition-market-over-law-enforcement-concerns ; Jay Greene, Microsoft won’t sell police its facial-recognition technology, following similar moves by Amazon and IBM, The Washington Post (11.6.2020) available on https://www.washingtonpost.com/technology/2020/06/11/microsoft-facial-recognition/ ; Jeffrey Dastin, Amazon extends moratorium on police use of facial recognition software, Reuters (18.5.2021) available on https://www.reuters.com/technology/exclusive-amazon-extends-moratorium-police-use-facial-recognition-software-2021-05-18/. חברות אחרות (כגוןClearview AI קשמיר היל, "תכירו את Clearview AI, החברה שהרגה לכם את הפרטיות" הארץ (21.1.2020)) ממשיכות בפיתוח ושיווק שלהן.חרף ההכרזות של חברות אלו, המורטוריום לא הועיל, ב-2021 התגלה כי כ-24 ארגוני אכיפת חוק ברחבי העולם עשו שימוש במוצרים של חברת זיהוי הפנים השנויה במחלוקת Clearview AI. Ryan Mac, Caroline Haskins and Antonio Pequeño IV, Police In At Least 24 Countries Have Used Clearview AI. Find Out Which Ones Here, Buzzfeed (25.8.2021) בקיצור, גם רגולציה עצמית הניתלת על עקרונות אתיים מסתמכת, בסופו של דבר, על הרצון הטוב של בעלי אינטרסים מסחריים הנהנים מגמישות פרשנית של כללי האתיקה, כמו מהחופש לבחור אם לפעול לאורם. לכן, עולה גם החשש שהשיח האתי מסייע ל'טיוח אתי' (ethics washing) – מצב בו התעשייה מעודדת דיונים ברומו של עולם על אתיקה, על מנת לקנות זמן ולעכב רגולציה אפקטיבית.ר' לדוגמא Inga Ulnicane, Artificial intelligence in the European Union - Policy, ethics and regulation in The Routledge Handbook of European Integrations 254-269 263 (Thomas Hoerber, Gabriel Weber and Ignazio Cabras, eds., 2022); Paul Nemitz, Constitutional democracy and technology in the age of artificial intelligence, 376 Philosophical Transactions of the Royal Society A (2018); Luciano Floridi ,Translating principles into practices of digital ethics: five risks of being unethical32 Phil. Technol, 185–193 (2019).
ללא חקיקה המעגנת זכויות של מושאי החלטות אלגוריתמיות ומחילה במקביל חובות שונות על מפתחים ומשתמשים במערכות אלגוריתמיות, פוחתת האטרקטיביות של ארגזי חול רגולטוריים, שמהותם הקלה מהוראות רגולטוריות כגון אלו כדי לאפשר לרגולטור לערוך ניסויים באסדרה.
בנוסף, ללא אסדרה בחקיקה המבוססת על עקרון של ניהול סיכוניםמסמך המדיניות, פרק 6.1.2 (ג) לא ניתן לנהל דיון בשאלת "הקווים האדומים". בינה מלאכותית עשויה לאיים על זכויות יסוד, אם ביחס להיבטים של שיוויון בתעסוקה, הקצאת משאביםר' למשל בעניין מערכת 'סירי' המתוארת אצל פרל ואלטשולר שוורץ בה"ש 2 לעיל, בעמ' 54-56 או מיסוי, ואם ביחס להיבטים הנוגעים להוגנות ההליך השיפוטי, מקום בו החלטות שחרור של עציריםר' למשל את עניין State v. Loomis, 881 N.W.2d 749, 754 (Wis. 2016). להרחבה, ר' John Villasenor & Virginia Foggo, Artificial Intelligence, Due Process and Criminal Sentencing, 2020 Mich. St. L. Rev. 295 (2020); Katherine Freeman, Algorithmic Injustice: How the Wisconsin Supreme Court Failed to Protect Due Process Rights in State v. Loomis, 18 N.C. J.L. & Tech. 75 (2016 או אף פסקי דיןEric Niler, "Can AI Be a Fair Judge in Court? Estonia Thinks So" Wired (25.3.2019); Nyu Wang and Michael and Yuan Tian, ‘Intelligent Justice’: AI Implementations in China’s Legal Systems in Artificial Intelligence and Its Discontents: Critiques from the Social Sciences and Humanities 212 (Ariane Hanemaayer, ed., 2022); Bin Wei, Kun Kuang, Changlong Sun, Jun Feng, Yating Zhang, Xinli Zhu, Jianghong Zhou, Yinsheng Zhai and Fei Wu, A full-process intelligent trial system for smart court, 23 Frontiers of Information Technology & Electronic Engineering 186-206 (2022) מתקבלים בסיוע אלגוריתמי. יישומי בינה מלאכותית כגון רכבים אוטונומיים עשויים להביא לפגיעה בזכות לחיים ושלמות הגוף. מערכות זיהוי פנים הפרוסות במרחב הציבורי פוגעות בזכות לפרטיות. משכך, במסגרת מדיניות של ניהול סיכונים יש להגדיר מהם הקווים האדומים ליישומי בינה מלאכותית – אם משום שקטגורית ישנם יישומי בינה מלאכותית שפגיעתם בזכויות היא חמורה, ואם משום שישנם יישומי בינה מלאכותית שהטכנולוגיה שלהם אינה בשלה עדיין על מנת שייעשה בה שימוש.
ישנן טכנולוגיות שתוחלת הסיכון שלהן גבוהה, בשלותן המדעית מוטלת בספק, ואי הודאות בייחס להשפעותיהן החברתיות רבה. דוגמא לכך הן טכנולוגיות המתיימרות לזהות רגשות, שמפניהן הזהיר לאחרונה המפקח הבריטי על המידע (Information Commissioner Office). Immature biometric technologies could be discriminating against people’ says ICO in warning to organisations" ICO. (26.10.2022) https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2022/10/immature-biometric-technologies-could-be-discriminating-against-people-says-ico-in-warning-to-organisations/; Ifeoma Ajunwa, Automated Video Interviewing as the New Phrenology, 36 Berkeley Technology Law Journal 1173 (2021) החוקה הצ'יליאנית תוקנה לאחרונה כדי להגן על 'זכויות נוירולוגיות' – שלמות המוח והמחשבה, לרבות המידע האצור בו – מפני מניפולציה ושימוש לרעה באמצעים טכנולוגיים.Joseph J. Fins, The Unintended Consequences of Chile’s Neurorights Constitutional Reform: Moving beyond Negative Rights to Capabilities, 15 Neuroethics 26 (2022) מסמך 'המתווה למגילת זכויות בבינה מלאכותית' שפורסם לאחרונה על ידי המחלקה המייעצת לנשיא ארצות-הברית בנושאי מדע וטכנולוגיה קורא להמנע ממעקב מתמיד (continuous surveillance) בהקשרים מסוימים.AI BOR, בה"ש 8 לעיל
איסורים קטגוריים על יישומים קונקרטיים של מערכות בינה מלאכותית הם חלק אינטגרלי מאסדרת בינה מלאכותית במדינות רבות, מתוך תפיסת ניהול סיכונים לפיה בהקשרים מסויימים תוחלת הסיכון הנשקפת מיישומי בינה מלאכותית מסוימים היא כה גבוהה, עד כי יש לאסור עליה כליל. תקנות הבינה המלאכותית האירופיות המוצעות כוללות קטגוריה של 'מערכות אסורות',Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, COM(2021), Art 5(1) 206 (21.4.2021) available at: https://digital-strategy.ec.europa.eu/en/library/proposal-regulationeuropean-approach-artificial-intelligence (להלן: הצעת תקנות הבינה המלאכותית האירופיות) שנתפסות כמסוכנות באופן קיצוני ושאינן עולות בקנה אחד עם ערכי היסוד האירופיים, כגון דירוג חברתי, מערכות העושות שימוש בטכניקות תת הכרתיות כדי לנצל חולשות אנוש, ויישומי זיהוי ביומטריים בזמן אמת לתכליות של אכיפת חוק. בשנת 2021 הוצגה בקונגרס של ארצות הברית הצעת חוק פדראלית לפיה ייאסר על גורמים פדראליים לרכוש, להעריך או להשתמש במערכות ביומטריות (ובתוכן מערכות זיהוי פנים), למעט כאלו שהותרו בחוק מפורש, ומדינות בארצות הברית או גופי ממשל מקומי העושות שימוש במערכות אלו לא יהיו זכאיות לסיוע תקציבי מתוכניות פדראליות מסוימות.Facial Recognition and Biometric Technology Moratorium Act of 2021, S. 2052, 117th Congress (2021) גם בתקנות מערכות ההמלצה האלגוריתמיות הסיניות מצויים איסורים מפורשים על שימוש במערכות בינה מסוימות – כאלו העשויות לעודד התמכרות, ובמיוחד של קטינים, לרשת."Translation: Internet Information Service Algorithmic Recommendation Management Provisions (Opinon-Seeking Draft)”, Digichina (14.10.2021) (להלן: הצעת תקנות מערכות ההמלצה האלגוריתמיות הסיניות), בס' 8. עמדה דומה הביעה הנציבה העליונה של האו"ם לזכויות אדם, מישל בצ'לט, בקוראה להשעיית השימוש בטכנולוגיות בינה מלאכותית המסכנות זכויות אדם, לרבות מערכות זיהוי פנים ומערכות דירוג חברתי (social scoring).Jamey Keaten And Matt O'brien, U.N. urges moratorium on use of AI that imperils human rights, AP News (15.9.2021
ללא אמירה מפורשת שגם פניה של מדינת ישראל לאסדרה, ותוך הסתפקות באסדרה רכה בלבד, לא ניתן יהיה לקיים דיון על הקווים האדומים של יישומי בינה מלאכותית בישראל. דיון כזה, למשל, יכול להיערך על בסיס העקרונות האתיים המוצעים במסמך: אלו שימושים וטכנולוגיות רצוי שיהיו אסורים בשימוש נוכח חוסר הודאות ביחס למידת האיום שלהם על זכויות אדם, חירויות יסוד או על העקרונות האתיים המוצעים ובתוכם "אמינות, עמידות, אבטחה ובטיחות",מסמך המדיניות, פרק 6.2.3 (ה) "שוויון ומניעת אפליה פסולה"מסמך המדיניות, פרק 6.2.3 (ג) או "האדם במרכז"?מסמך המדיניות, פרק 6.2.3 (ב) יובהר כי איסורים כאמור יכולים להיות זמניים, עד שרמת הודאות ביחס ליישום טכנולוגי קונקרטי מתבהרת ותוחלת הסיכון הנשקף ממנו יורדת בהתאמה.
היעדר אסדרה במדינת ישראל כאשר תתקיים אסדרה באירופה ובמדינות מפותחות אחרות, עשוי להציב את הישראל כ"חצר אחורית". כאמור, בשנים האחרונות מתקיימת מגמה עולמית, בהובלת האיחוד האירופי, בה מקודמות הצעות לאסדרת בינה מלאכותית. גם אם קיים שוני ברמה הערכית בין ההסדרים במדינות שונות – אם בבחירת סוגי המערכות שמהן נשקף סיכון, ואם במטרות המוצהרות של החקיקה עצמה – יש בהן גם הרבה מן המשותף. לכן, ראוי שבמדינת ישראל תהיה חקיקה הנמצאת בהרמוניה עם המקובל בעולם.
הרמוניה איננה בהכרח זהות. כאשר הפיתוח מכוון יצוא, ממילא הסטנדרט הרגולטורי נדרש לכל הפחות להלום את הסטנדרטים הזרים, שלרוב גבוהים יותר מאלה הישראליים. אבל, כאשר הפיתוח מכוון אל השוק המקומי, ומושאי ההחלטות של מערכות הבינה המלאכותית אינם אזרחים זרים אלא אזרחי המדינה, ראוי להגן עליהם לא פחות מהראשונים. סטנדרט רגולטורי נמוך מהמקובל בעולם עשוי אמנם לעודד חדשנות, אך לאו דווקא חדשנות רצויה: ישראל עשויה להפוך ל'חצר אחורית" טכנולוגית, בה מפותחות מערכות האסורות בשימוש, פיתוח או פריסה לפי הדין הזר.כך למשל, חברות ישראליות או בבעלות ישראלית מובילות בפיתוח של מערכות סייבר התקפיות, השנויות במחלוקת (ב-2019 קרא הדווח המיוחד של האומות המאוחדות לחופש הביטוי להשעות באופן זמני את הסחר הבינלאומי והשימוש בהן. ר' Human Rights Council Forty-first session 24 June−12 July 2019 Agenda item 3 Promotion and protection of all human rights, civil, political, economic, social and cultural rights, including the right to development; Surveillance and human rights Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression; A/HRC/41/35; Recommendations 66. כן ר' בנושא Amir Cahane, Targeting targeted surveillance - The UN special rapporteur's report on the private surveillance industry" CSRCL Blog (31.12.2021).. דוגמה אחרת היא תעשיית האופציות הבינאריות, שפעלה בישראל והציעה אופציות בינאריות למשקיעים מעבר לים, עד לחקיקת האיסור הפלילי על פעילות זו. ר' ס' 44יב1 לחוק ניירות ערך, תשכ"ח-1968, ס"ח 541 בעמ' 234; US v. Lee Elbaz, No. 20-4019 (4th Cir. 2022). עופרן וסימן טוב הראו במטה-מחקר שנערך בשנת 2022 כיצד ניסויים על דאטה פרטי של אזרחים "זלגו" בעקבות הטמעת תקנות הגנה המידע האירופיות, למדינות מחוץ לאירופה שלא היתה בהן חקיקת פרטיות מעודכנת.Yom-Tov E, Ofran Y. Implementation of data protection laws in the European Union and in California is associated with a move of clinical trials to countries with fewer data protections. 9 Frontiers in Medicine (2022) אין סיבה להניח שבאסדרת בינה מלאכותית מצב זה יהיה שונה. אפשרות אחרת, הגובלת באבסורד אך נוכחנו בה עם הצעת "תקנות הגישור" בשנת 2022, היא מצב בו הדין הישראלי יהיה בהרמוניה עם הדין הזר כלפי חוץ, אך יחיל סטנדרטים נמוכים יותר בתוך גבולות המדינה או ביחס לאזרחיה-שלה.כך למשל, במהלך 2022 שקלה הרשות להגנת הפרטיות לקדם חקיקה שנועדה להטיל חובות מיוחדים על בעלי מאגרי מידע ישראליים ביחס למידע שמקורו באיחוד האירופי, על מנת לעמוד בדרישות ההלימות עם הוראות ה-GDPR בהעדר רפורמה כוללת בדיני הגנת הפרטיות הישראליים. ר' עומר כביר, "איפה ואיפה: ישראל תספק הגנה משופרת רק לפרטיותם של תושבי האיחוד האירופי" כלכליסט (11.7.2022) https://www.calcalist.co.il/calcalistech/article/hyax3wtic ; טל קפלן, "מומחים מתריעים: הזנחת הפרטיות מובילה להצעה בלתי סבירה ומקוממת" Law.co.il (10.7.2022) https://www.law.co.il/news/2022/07/10/protest-against-moj-privacy-proposal-for-gdpr-compliance/
לכן, לתפיסתנו, האיסורים על פיתוח ושימוש במערכות נבונות נדרשים להיות בהלימה עם המקובל בעולם, ובפרט עם הדין האירופי המתהווה, לבל תהפוך מדינת ישראל לחצר אחורית לניסויי כלים טכנולוגיים. אנו ממליצים לאמץ לכל הפחות את האיסורים שבתקנות הבינה המלאכותית האירופיות, ובתוכם האיסור על שימוש במערכות זיהוי ביומטריות 'בזמן אמת' לתכליות של אכיפת חוק והאיסור על מערכות מערכות נבונות בשירות רשויות ציבוריות או מטעמן, שנועדו לסווג או להעריך את מידת האמון שיש לתת באדם על בסיס דירוג חברתי.ס' 3(1) להצעת תקנות הבינה המלאכותית האירופיות, בה"ש 23 לעיל. סייגים לאיסורים אלו נדרשים להיות לתכליות של בטחון לאומי בלבד, ובתנאי שמערכות אלו יופעלו באופן מידתי על ידי רשויות ביטחון, על בסיס צורך.השוו לדוגמא עם ס' 3(1)(d)(ii) להצעת תקנות הבינה המלאכותית האירופיות, בה"ש 23 לעיל.
אנו סבורים שיש לנצל את תקופת האיפוק הרגולטורי לצורך גיבוש עמדות משפטיות וניסוח חקיקה – שאם לא כן כוחות השוק והמשפט המקובל יאסדרו את התחום, ולא בהכרח באורח המיטבי.Simon Chesterman, We the Robots? Regulating Artificial intelligence and the Limits of the Law 184-185 (2021) נדרשת אם כן גישה היברידית לחקיקה ורגולציה, המפעילה רגולציה רכה על מנת לזכות בגמישות עד לגיבוש הסדר סטטוטורי ולא כתכלית בפני עצמה.
המדיניות המוצעת במסמך המדיניות "נועדה להתוות את האופן שבו תבחן הממשלה את השאלה האם יש לקבוע כללי התנהגות לפיתוח ושימוש בבינה מלאכותית במגזר הפרטי ואת האופן לעשות כן...".מסמך המדיניות, בעמ' 16. ואולם, מערכות מבוססות בינה מלאכותית מעוררות שאלות החורגות מתחום המשפט הפרטי. זאת בשל ארבעה טעמים.
ראשית, פיתוח, רכש ושימוש של מערכות בינה מלאכותית נעשים גם במגזר הציבורי. מערכות לומדות מופעלות כבר כיום וימשיכו להתרחב לפעילות על ידי רשויות המדינה באופן העשוי להשפיע על זכויותיהם של אזרחים ובכלל זה הזכות לכבוד ולשוויון. מערכות בינה מלאכותית במגזר הציבורי עשויות להשפיע באופן משמעותי על איכות חייו של הפרט: בקבלת החלטות הנוגעות להקצאת זכויות סוציאליות, במיסוי, או באכיפת חוק ובהליכים משפטיים. קביעת סטנדרטים להפעלה, פיתוח, ושימוש במערכות בינה מלאכותית נדרש אפוא גם כאשר אלו נעשים במגזר הציבורי.
שנית, מערכות המופעלות במגזר הפרטי עשויות לעורר אתגרים ציבוריים בסוגיות כהטיות, שקיפות והגנת הפרטיות. למשל, גם כאשר הסיכונים שנשקפים מבינה מלאכותית אינם על זכויות אדם, אלא צבר של סיכונים כלליים שמקורם בשגיאות בפיתוח תוכנה, רשלנות, טעויות או הזנחה,Margot E. Kaminski, Regulating the Risks of AI, 103 B.U. L. Rev. 2, 9-17 (forthcoming, 2023) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4195066 היכולת להתחקות עליהם תלויה במידת השקיפות של מערכת הבינה המלאכותית הנדונה.
שלישית, פגיעה פוטנציאלית של מערכות בשלמות הגוף ובקניין הפרטי מביאה איתה צורך להשית רגולציה ממשלתית מבעוד מועד ועיצוב רגולציה זו ברמה המהותית המוסדית הוא כשלעצמו פעילות בתחום הציבורי.
רביעית, מערכות לומדות במגזר הציבורי יכתיבו את תהליכי הרכש והמכרזים במגזר הציבורי-ממשלתי ויפעפעו אל השוק הפרטי, ומוצרים שנמצאים בשימוש במגזר הפרטי צפויים לזלוג אל המגזר הציבורי.על שימוש במכרזים ציבוריים ככלי של רגולציה רכה ר' Christopher McCrudden, Using public procurement to achieve social outcomes 28 Nat. Resources Forum 257-267 (2004). לשימוש במכרזים ציבוריים כדי לקדם הגנה על הפרטיות ר' לדוגמא Laurens Vandercruysse, Athena Christofi, Olia Kanevskaia and Ellen Wauters, Public procurement of smart city services – Matching competition and data protection, a Report in the framework of the SPECTRE research project (2020). ר' גם אלדד הבר וטל ז'רסקי "דרכי ההגנה על תשתיות חיוניות במרחב הסייבר בישראל משפט וממשל יח 99 136 (2017). כלומר, מתקיים כל העת קשר דו כיווני בין שני המגזרים. כך למשל, רשות החדשנות יכולה לעודד פיתוחים טכנולוגיים במגזר הפרטי בהתאם לתעדוף אסטרטגי של הממשלה.כך למשל, מפעילה הרשות לחדשנות את 'הזירה החברתית-ציבורית', בה היא מעודדת מחקר ופיתוח טכנולוגיים לפתרון אתגרים חברתיים וציבוריים, ובמסגרתה פועל 'מסלול לעידוד חדשנות לאתגרי המגזר הציבורי ("ממשלטק")'. ר' רשות החדשנות, "2019: חדשנות בישראל תמונת מצב" 96 (2020) לרשות התקשוב הממשלתי יש יכולת להשפיע על השוק הפרטי באמצעות הכתבת סטנדרטים במכרזי רכש, באופן המתמרץ את השוק לאמץ אותם.
לכן, אנו סבורים שיש קושי בכך שמסמך בסדר גודל כזה מתעלם ממדיניות בינה מלאכותית במגזר הציבורי ומתמקד במגזר הפרטי בלבד. גישה זו לדעתנו איננה יעילה ואיננה נכונה.
התכלית המרכזית של הפיתוח של בינה מלאכותית ומערכות לומדות צריכה להיות שירות המין האנושי – הן כקולקטיב והן כפרטים – באופן המיטיב עמו. בנוסף, עקרון חירות האדם והאוטונומיה שלו,אוטונומיה היא עקרון יסוד באתיקה רפואית, ואחד מהעקרונות המארגנים לאתיקה של בינה מלאכותית שניסחו פלורידי ואח'. Luciano Floridi, Josh Cowls, Monica Beltrametti, Raja Chatila, Patrice Chazerand, Virginia Dignum, Christoph Luetge, Robert Madelin, Ugo Pagallo, Francesca Rossi, Burkhard Schafer, Peggy Valcke, and Effy Vayena, Ai4people–an ethical framework for a good ai society: Opportunities, risks, principles, and recommendations. 28 Minds and Machines 689–707 (2018) אוטונומיה היא הזכות של הפרט להחליט עבור עצמו, ודוח ועדת המשנה בנושא אתיקה ורגולציה של מערכות נבונות מתייחס לא רק ליכולת הפיזית של אדם לבחור בין אפשרויות, אלא גם להיבטים אפיסטמולוגים המאפשרים בחירה מושכלת. ר' המיזם הלאומי למערכות נבונות, בה"ש 6 לעיל, בעמ' 20. מצטרף אל עקרון קידום הטוב,כ-48% מתוך המסמכים שדגמו Jobin, Ienca and Vayena, בה"ש 4 לעיל, מתייחסים לעקרון קידום הטוב (beneficence). קידום הטוב מופיע בראש חמשת העקרונות שפלורידי ואח' ניסחו (שם, בעמ' 697-698) ומקורו, בין השאר, בכללי האתיקה הרפואית. ועקרון מניעת הנזק,כ-71% מתוך המסמכים שנדגמו על ידי Jobin, Ienca and Vayena, בה"ש 4 לעיל, בעמ' 394, מתייחסים לעקרון מניעת הנזקים. ערך זה מהדהד במידת מה את חוק הרובוטיקה הראשון של אסימוב (ואת חוק האפס), כמו גם את עקרון היסוד של האתיקה הרפואית, Primum non nocere (ראשית, אל תזיק). Tom L. Beauchanp and James F. Childress, Principles of Biomedical Ethics, 150-201 (7th Ed., 2013); גיל סיגל, "ביו-אתיקה בעולם המערבי - ישראל שבין אירופה לארה"ב" 143 הרפואה 142-146 (2004). ר' גם התייחסות מפורשת למקור הביואתי של הכלל אצל Floridi et al., שם בעמ' 697 .לחוקי הרובוטיקה, ר' אייזיק אסימוב, אנוכי הרובוט 6 (1976, מסדה). מבסס ביתר שאת את חשיבותו של עקרון האדם במרכז. המשמעות המעשית של 'האדם במרכז' היא פיתוח, פריסה, ושימוש במערכות מבוססות בינה מלאכותית באופן המגן על זכויות יסוד וחירות אזרח כעיקרון ראשון במעלה. עקרון 'האדם במרכז' אינו מס שפתיים כלפי מימושם של עקרונות הנוגעים לקידום החדשנות ואינטרסים כלכליים של עידוד מגזר ההייטק, "הפיכת ישראל למובילה טכנולוגית גלובלית", ואף לא ייעול תהליכים במגזר הציבורי. במובן זה אנו סבורים שסדרי העדיפויות המופיעים בדו"ח הם בעיתיים. הדו"ח, אגב, נמצא בתוך המסגרת של משרד המדע והחדשנות שתכליתו לעודד התקדמות של התעשיה. אבל, דווקא בשל כך אנו קוראים להעביר את הטיפול בחקיקת מסגרת כה חשובה לידי משרד המשפטים.
מטרתה של רגולציה של בינה מלאכותית היא להגן על המושאים של החלטות אלגוריתמיות – בני אדם. הגנה זו יכולה לבוא לידי ביטוי הן באמצעות יצירת מערכת כללים המאפשרת וודאות ביחס להקצאת הסיכונים הנזיקיים, אך גם בליווי תהליכי פיתוח, הטמעה ושימוש במערכות אלגוריתמיות באופן הממזער את תוחלת הסיכונים הנשקפים לזכויות אדם, ומאפשר בקרה אקס אנטה ואקס פוסט על החלטות אלגוריתמיות. הגנה על מושאי החלטות אלגוריתמיות היא, בין היתר, פיתוח ועיגון של זכויות הנוגעות לשקיפות ושל סעדים בגין פגיעה בהן. כך למשל, משתמשים במערכות בינה מלאכותית צריכים להיות מיודעים שהם אינם מתקשרים עם בשר ודם, אלא עם צ'אטבוט.
כמו כן, מבלי לקבוע מסמרות באשר לרציות שבהסתמכות עיוורת על מערכות החלטה אוטומטיות בכל תחומי החיים, עקרון האדם במרכז משמעו גם הגדרת יישומים של בינה מלאכותית ומערכות אלגוריתמיות תומכות החלטה בהם נדרשים מעורבות או פיקוח אנושיים (Human in the loop),ר' לדוגמא Commission Regulation 2016/679 of 27 Apr. 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data, and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J. (L 119) 1 (EU), Article 22; Government of Canada, Directive on Automated Decision-Making, Sec. 6.3.9 (5.2.2019), available on https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592 בין אם מדובר באישור אנושי להחלטה אלגוריתמית או באפשרות לערער עליה לאחר מעשה לאדם ממשי. זאת, בייחוד במקומות בהם השפעת מערכות אלו על חיי הפרט עשויה להיות משמעותית.
בשולי הדברים, העמדה המתבטאת במסמך לפיה קיים מתח בין האינטרס המדינתי בקידום החדשנות, לבין הצורך להגן על זכויות,בפתיחה לפרק 6 בעמ׳ 90 למסמך המדיניות, נכתב כי ״המדיניות המוצעת מבקשת לאזן בין הצורך בוודאות ובהירות לבין האינטרסים הציבוריים והזכויות שעל הפרק, והחשש מהתערבות שאינה מוצדקת העלולה לפגוע בחדשנות״. מציגה, לטעמנו, תמונה חלקית של מערכת היחסים בין אינטרסים אלו, מתמקדת רק במקומות בהם עלולים להיווצר מתחים, ומתעלמת מהתועלות הצפויות של הגנה על זכויות בשם החדשנות. תועלת עיקרית היא יצירת ודאות המאפשרת לשחקנים השונים באקוסיסטם היזמי להבין את גזרת הפעילות, ולהמנע מפיתוח יישומי בינה מלאכותית מזיקים. מסגרת רגולטורית שבמרכזה הגנה על זכויות האדם מעודדת יצירתיות וחדשנות במרחב בטוח.
ישנם היבטים רבים בהם תחום הבינה המלאכותית משיק לתחום ההגנה על הפרטיות ולהגנת סייבר, ממש כפי שחפיפה עקרונית מצויה גם בין תחומי הגנת הסייבר והפרטיות.ר' מערך הסייבר הלאומי, תורת ההגנה – לנהל את הסיכון: המדריך היישומי (השלם) להגנת הסייבר של ארגון, 72-74 נספח ו' (2021) כך למשל, הקפדה על עקרון העיצוב לפרטיות (Privacy by design), תורמת להגנת סייבר על ידי הקטנת סיכוני זליגת מידע שמלכתחילה לא היה בו צורך. בנוסף, התחום משיק לרגולטורים של תחרות, מיסוי, הגנת הצרכן ואפילו לתחום הפיקוח על הבחירות.
כאמור, הדו"ח עוסק אך ורק באסדרת בינה מלאכותית מבלי להתייחס לכך שאסדרה זו קיימת בתוך תצרף שיש לו הקשרים אופקיים בדמות אסדרת פרטיות, אסדרת סייבר, אסדרת תחרות ואפילו אסדרת תעמולת בחירות. התעלמות זו היא בעייתית בכמה מישורים.
במישור התפיסתי, התעלמות מאסדרה קיימת יוצרת ניכור בין כוחות שהשפיעו על חקיקה במרחבים משיקים ואיננה מתחשבת בהם. כוחות אלה יכולים להיות למשל פער הזמנים בין אסדרה לבין התפתחות טכנולוגית גם כאשר הצורך לאסדר הוא כבר ברור;; טיבן של מהפיכות ככזה שתחילה הן נתפסות כתהליך משחרר אבל עלולות להגיע למצב של "החזק לוקח הכל"ועוד.
במישור המעשי, עשויות להיווצר כפילויות וחפיפות אסדרתיות, הן ברמה המהותית כפי שהדבר קיים למשל בין הגנת הפרטיות לבין הגנת הסייבר, והן ברמה המוסדית - משום שאסדרת תחום הבינה המלאכותית נמצאת בסביבה רגולטורית שיש בה רגולטורים משיקים. יתרה מזאת, התעלמות מן המחדל האסדרתי בשני התחומים – פרטיות וסייבר, במדינת ישראל, לא תאפשר להתקדם באסדרת בינה מלאכותית, ולכן ה"בועה" איננה במקומה.
נוסף על כך, המסגרת המשפטית הקיימת בישראל להגנה על הפרטיות ולאבטחת סייבר נוטה להחריג מתחולתה רשויות ביטחון,ס' 19, 12(ג), 13(ה) לחוק הגנת הפרטיות. ר' גם עמיר כהנא ויובל שני, רגולציה של מעקב מקוון בדין הישראלי ובדין המשווה 33 (2019). או לייצר הסדרים מקלים יותר בהקשרים ביטחוניים. במהלך התפרצות מגפת הקורונה, נעשה שימוש בכלי מעקב לתכליות של סיכול טרור לתכליות אזרחיות מובהקות,בג"ץ 6732/20 האגודה לזכויות האזרח בישראל נ' הכנסת (1.3.2021); תהילה שוורץ אלטשולר, רחל ארידור הרשקוביץ, שיקולי פרטיות ומעקב אחר אזרחים: נגיף הקורונה - התמודדות עם המשבר העולמי (2020); Amir Cahane, "The (Missed) Israeli Snowden Moment?" 34 Int'l J. Intelligence & Counterintelligence 694-717 (2021). ונדמה שהיה הפיתוי רב לפרוס מערכות בינה מלאכותית ל'דירוג הסיכון קורונה' של אזרחי ישראל.רפאלה גויכמן, "משרד הבריאות חבר ל-NSO כדי לדרג את הסיכוי שתידבקו בקורונה" TheMarker (29.3.2020); רשות הגנת הפרטיות, דירוג חברתי בראי הזכות לפרטיות: סקירת רקע בעניין שימוש במערכות לדירוג חברתי (21.4.2020). יש להזהר מהנטייה למסגר אירועים שאין בינם לבין ביטחון לאומי דבר בתור שכאלה, שכן נטייה זו עלולה להביא לעיצוב של הסדר רווי בפטורים ביטחוניים מאיסורים מוחלטים על מערכות בינה מלאכותית לתכליות מסוימות באופן שיאפשר בעתיד זליגה של מערכות אלו מהספרה הביטחונית לזו האזרחית.
נוסף על האמור, אנו סבורים כי בהינתן העובדה שכבר עתה משווקים מוצרים באופן מסחרי המבוססים על טכנולוגיות בינה מלאכותית – וביניהם אלגוריתמים בוראים (גנרטיביים),בין השאר, התפרסמו מוצרים כגון צ׳ט-בוט המסוגלים לנהל שיחה המדמה שיח אנושי ללא אפשרות זיהוי. לסקירה של מאמרים בנושא ניתן לעניין בפרסום של ארגון המהנדסים: Shi, Nuobei, Qin Zeng, and Raymond Lee. "Language Chatbot–The Design and Implementation of English Language Transfer Learning Agent Apps." 2020 IEEE 3rd International Conference on Automation, Electronics and Electrical Engineering (AUTEEE). IEEE, 2020. אלגוריתמים אף מסוגלים לייצר סרטונים ותמונות באופן מלאכותי, המפורסם ביניהם הוא Dall E2. ר' למשל Aditya Ramesh et al., Hierarchical Text-Conditional Image Generation with CLIP Latents, arXiv:2204.06125 המסוגלים לייצר טקסטים ותמונות, אלגוריתמי זיהוי ביומטריים ועזרים רפואיים ופסיכולוגיים – לא ניתן להסתפק בשלב זה במתן הוראה כללית לרגולטורים "לבחון שינויים נדרשים ברגולציה הקיימת". לקראת שנת 2023, אי הודאות קטנה באופן משמעותי וכבר ניתן להצביע על חלק לא מבוטל מהקשיים, כפי שאף נעשה במסמך.
במצב דברים זה, גם אם אין מקום לחקיקה רוחבית ייעודית לבינה מלאכותית, יש להתחיל כבר עתה בהליכים לבחינת התאמת החקיקה הנדרשת של מספר מעשי חקיקה מרכזיים שנראה שיש בהם צורך. בפרט, ראוי להורות על הליך עדכון של חוק הגנת זכויות יוצרים, חוק הגנת הפרטיות, פקודת הראיות והוראות חוק הרכש הממשלתי.
כך למשל, יש לעגן בחוק סוגיות הקשורות ליחס של החוק הישראלי לבעלות על יצירות שנוצרו באמצעות בינה מלאכותית,סוגיות של קניין רוחני על יצירות אלגוריתמיות יכולות להשפיע באופן משמעותי על תפוצת הטכנולוגיה. ראו בעניין זה את עמדתו של אבוט, המעודד נטרליות חקיקתית Ryan Abbott, The Reasonable Robot (2020).. את הנזק של העדר אסדרה בנושא, ניתן לראות בהחלטה של Getty שלא לאפשר תמונות שיוצרו באמצעות אלגוריתמים כגון DallE2. על כך ראה: James Vincent, Getty Images bans AI-generated content over fears of legal challenges, the Verge (21.9.2022) https://www.theverge.com/2022/9/21/23364696/getty-images-ai-ban-generated-artwork-illustration-copyright סוגיות הקשורות לחובות זיהוי ותקשורת של מוצרים המבוססים על בינה מלאכותית בעת התקשרות עם לקוחות פוטנציאליים, ואף הוראות שונות הקשורות לאיסוף המידע ולשימוש בו כאשר מדובר בתוכנות המשמשות משרדים ממשלתיים. זאת, לאור נטייתם של גורמי ממשלה להיות מהלקוחות המרכזיים של מוצרים אלה – כפי שהיה בעת שימוש בצ׳ט בוט על ידי משרד הבריאות בתקופת הקורונה. אנו מציעים כי הליך כאמור ייערך בהובלת משרד המשפטים וייקבעו סדי זמנים להשלמת תיקוני החקיקה הנדרשים בשלב זה.
במסמך חסרה מתודולוגיה לבחינת הסיכונים האתיים הפוטנציאליים מטכנולוגיות שונות של בינה מלאכותית. מוצע כי הליך הבחינה של האתגרים הטמונים בבינה מלאכותית ישקף את הדרך שבה אלגוריתמים אלו מפותחים ומוטמעים, ואת הסיכונים השונים בכל שלב בשרשרת הערך.
הליך הבחינה האתית והליך ניהול הסיכונים צריך לקחת בחשבון ולנתח את הסיכונים השונים בכל שלבי המוצר, כולל יצירת מאגר הנתונים ללמידת המכונה, שלב הלימוד והאימון, והטמעת האלגוריתמים במוצר הלקוח.לעניין ההסתכלות המתודולוגית בשרשרת הערך, ר' פרל ואלטשולר שוורץ, בה"ש 2 לעיל. כך למשל, אנו חייבים לבסס כללים שונים להליך איסוף המידע – הן בהיבטי פרטיות אך גם בסוגיות אתיות, הנוגעות לעצם איסופו של מידע כלשהו והחזקתו בידי גורם יחיד. כמו כן, עלינו לשאול מהי מטרת האיסוף ומהם השימושים המותרים במידע. עלינו לשאול האם לאפשר איסוף נתונים עבור שלב יצירת מאגר הנתונים המתבצע במדינת ישראל ובאילו סטנדרטים. לחילופין, במידה והאיסוף לא מתבצע במדינת ישראל, עלינו לשאול האם מידע שנאסף ו״נלמד״ עבור הבינה המלאכותית במקום אחר בעולם, תוך הפרת עקרונות ישראליים של אתיקה של בינה מלאכותית (או חקיקת בינה מלאכותית, אם תהא כזו, או דין ישראלי אחר), יכול לשמש בישראל לאחר מכן. למשל, יש לבחון האם מידע שנאסף למאגר נתונים במסגרת תוכניות ״דירוג חברתי״ הנהוגות בסין, אשר עוקבות אחר אורחות החיים של אזרחים בסין ומשמשות לצורך הדירוג החברתי שלהם,Geoffrey Cain, The Perfect Police State: An Undercover Odyssey Into China's Terrifying Surveillance Dystopia of the Future (2021) יותר לשימוש בישראל. הדבר דומה, למשל, לשימוש במסגרת הליך פלילי בישראל במידע מודיעיני שהושג באמצעות עינויים במדינה זרה, והסוגיה צריכה לקבל מענה. לבסוף, גם לאחר שלב האיסוף, יש לתת את הדעת גם על שלב בניית התוכנה והטמעתה - ולוודא שהתוכנה מותאמת לחובות החוזיות והגנות הצרכן הנהוגות בישראל.
בינה מלאכותית עיקרה איסוף מידע, ניתוח שלו והפיכת הניתוח לכלי מסחרי. כל שלב בשרשרת הערך מצריך בחינה עצמאית והתאמה רגולטורית.
אבן ראשה של מסמך המדיניות היא ההמלצה שלא לקדם חקיקה רוחבית המשתרעת על כל תחום הבינה המלאכותית, אלא לקדם – ורק במקרה הצורך – רגולציה סקטוריאלית של בינה מלאכותית תחת מסגרת ממשלתית אחידה.מסמך המדיניות, פרק 6.1.2 (א) המלצה זו מסוייגת באמצעות התיבה "בשלב זה".
במסמך המדיניות מוצע כי חלף חקיקה ראשית ייעודית עבור בינה מלאכותית, תבוצע התאמה ענפית על ידי הרגולטורים השונים, איש איש בתחומו. בעניין זה מאומצת גישת הרגולטור בבריטניה,ר' למשל Department for Digital, Culture, Media and Sport, Establishing a pro-innovation approach to regulating AI: An overview of the UK’s emerging approach 9 (18.7.2022) והמלצותיו הדומות בעניין זה (לעומת טיוטת החקיקה הרוחבית באירופה,ר' הצעת תקנות הבינה המלאכותית האירופיות, בה"ש 23 לעיל. ומסמכי מדיניות לא מחייבים בארה״ב).ר'AI BOR, בה"ש 8 לעיל. ההנמקות לבחירת גישה זו נובעים, בין השאר, מאי-הודאות סביב יישומים אפשריים של הטכנולוגיה, והעדר קונקרטיזציה לשינויים הנדרשים.
גישת האסדרה הרוחבית לבינה מלאכותית מחילה מדיניות בעלת אופי כללי על כל יישומי הבינה המלאכותית, בכל המגזרים, כשהסמכות לאסדרה נתונה לשלטון המרכזי. גישה נוספת היא האסדרה המגזרית, המאפשרת לזרועות השלטון השונות לאסדיר את יישומי הבינה המלאכותית באופן ספציפי בתוך כל מגזר ומגזר.
טיוטת הצעת תקנות הבינה המלאכותית האירופיות משקפת את הגישה להחלת אסדרה רוחבית. בדומה, הצעת חוק האחריותיות האלגוריתמית האמריקאיתAlgorithmic Accountability Act of 2022, H.R. 6580, 117th Cong. (2022) (להלן: הצעת חוק האחריותיות האלגוריתמית) מטילה את האחריות לדרוש בחינות השפעה (Impact Assessment) של מערכות בינה מלאכותית בענפי המשק השונים על ועדת הסחר הפדרלית (FTC).
אסדרה רוחבית יכולה להבטיח כיסוי לכל יישומי הבינה המלאכותית, כל העסקים, ובכל הענפים. באמצעות הסדרה רוחבית ניתן לדרוש, בין השאר, רישום של כל מערכות הבינה המלאכותית ומערכות קבלת ההחלטות האוטומטיות הממשלתיות, ללא קשר לסיכון; פירוט תהליכי קבלת החלטות במערכות קבלת החלטות הנוגעת לצרכנים; ציות מפורש לאמנות וחוקים הקשורים לזכויות אדם; חובת הזדהות של מערכות בינה מלאכותית המתקשרות עם בני-אדם; חובת גילוי נאות בכל פרסום של תמונה, וידאו, או טקסט שנוצרו על-ידי בינה מלאכותית; והגדרת "קווים אדומים" של שימושי בינה מלאכותית האסורים באופן קטגורי.
משכך, אסדרה רוחבית צפויה להוות יתרון בכל הנוגע להבטחת הודאות האסדרתית; ליכולת משילות ואכיפה אפקטיביות; ולהגדלת אמון הציבור והמגזרים השונים בטכנולוגיה המתפתחת. ודאות, משילות, ואמון הם קרקע לעידוד השקעות וחדשנות, תוך הגנת זכויות אדם וחירויות אזרחיות.
ממול, אך לא מנגד, ניצבת גישת האסדרה הענפית לבינה מלאכותית. ישנן מספר הצעות חקיקה היכולות לשמש דוגמאות לאסדרה ענפית. למשל, בתחום דיני העבודה, לקוד המונציפלי המנהלי של העיר ניו יורק נתווספה לאחרונה הוראה לפיה השימוש במערכות המקבלות החלטות או המלצות מבוססות אלגוריתמים על העסקת או קידום עובדים יותנה בהליכי בקרת הטיות (bias audit) עצמאיים.N.Y.C. Admin. Code §§ 20-870 - 20-874 (2022); Airlie Hilliard, Emre Kazim, Adriano Koshiyama, Sara Zannone, Markus Trengove, Nigel Kingsmanand and Roseline Polle, Regulating the Robots: NYC Mandates Bias Audits for Ai-Driven Employment Decisions, Holistic AI (2022) http://dx.doi.org/10.2139/ssrn.4083189 בדומה, חוק ראיונות הוידאו בבינה מלאכותית של מדינת אילינוי ((Illinois Artificial Intelligence Video Interview Act חל אך ורק על שימושי בינה מלאכותית לבחינת ראיונות וידאו במהלך תהליכי גיוס, ומחייב מעסיקים להודיע למועמדים על השימוש בבינה המלאכותית לשקלול ובחינת התאמתם לתפקיד.820 ILL. Comp. Stat. 42/1 Artificial Intelligence Video Interview Act; ר' גם Ajunwa, בה"ש 20 לעיל. הצעת חוק הקליפורנית לאחריותיות בטכנולוגיה במקומות עבודה (California Workplace Technology Accountability Act) מגבילה את השימוש במערכות אוטומטיות לקבלת החלטות המשמשות לניטור במקומות עבודה, ומחייבת את מפעילי המערכת בבחינת ההשפעה האלגוריתמית. Airlie Hilliard, Emre Kazima, Tom Kemp and Kelvin Bageire, Overview and commentary of the California Workplace Technology Accountability Act, Int'l. Rev. L. Comp.&Tech. (2022) https://www.tandfonline.com/doi/full/10.1080/13600869.2022.2115749
אסדרה ענפית צפויה לאפשר (1) תקנות ואמצעי אכיפה יותאמו באופן ספציפי, שכן לענפים שונים אתגרים שונים. אתגרים אלה מובנים טוב יותר בתוך המגזר, ולכן ניתן לטפל באתגרים בצורה מדויקת יותר; (2) לבעלי עניין שונים בתוך כל מגזר תינתן אפשרות להשתתף בתהליך אסדרת הטכנולוגיה; וכן, (3) רגולציה ענפית צפויה לספק בהירות רגולטורית בנוגע לעניינים ספציפיים.
בדומה ליתרונות האסדרה הרוחבית שנמנו לעיל, כך גם יתרונות האסדרה הענפית - מענה נקודתי, שיתוף פעולה תוך ענפי, ובהירות רגולטורית - מהווים קרקע לעידוד השקעות וחדשנות, תוך הגנת זכויות האזרח והצרכן. אולם, גישה הדוחה אסדרה רוחבית ומבקשת אסדרה ענפית בלבד צפויה להיתקל באתגרים. כך בין השאר, עבור אותה הטכנולוגיה, אסדרות ענפיות שונות עלולות להיות סותרות. כמו כן, אסדרה ענפית עלולה להותיר חלק מיישומי הבינה המלאכותית "בין הכסאות", מבלי שיאוסדרו תחת אף מגזר. יתר על כן, דחייה של אסדרה רוחבית עלולה להנציח בעיות רגולציה קיימות, שכן כבר עתה קיימים פערי אוריינות טכנולוגית בין הרשויות השונות.
לכן, על-מנת להמנע ממגרעות אסדרה ענפית בלבד, ועל מנת להבטיח את יתרונות האסדרה הרוחבית וגם את יתרונות האסדרה הענפית, אנו ממליצים למחוקק הישראלי לנקוט בשילוב של אסדרה רוחבית ואסדרה ענפית.
טוב הדבר שממשלת ישראל זיהתה את תחום הבינה המלאכותית כתחום המשווע לאסדרה, ואנו מברכים על עצם פרסום מסמך המדיניות. ואולם, כפי שכתבנו לעיל, אנו סבורים שאין להסתפק בעקרונות אתיים שאימוצם הוא וולנטרי, ועל אסדרה רכה ומבוססת מגזרים, אלא שלנוכח הסיכונים לזכויות אדם וחירויות יסוד, שחלקם פורטו במסמך,ר' למשל פרק 4.1 העוסק באפלייה, ופרק 4.7 העוסק בפרטיות. יש לנצל את כלי האסדרה הרכה שפורטו במסמך על מנת את הקרקע למהלך של חקיקה רוחבית שתבטיח לשמור על זכויות אלו ואפשר ותייצר מסגרת של זכויות עבור מושאי ההחלטות האוטומטיות המתקבלות על ידי מערכות בינה מלאכותית.