השימוש באלגוריתמים לקבלת החלטות ציבוריות – אתגרים לרשות ולביקורת / אור מורג

ההתפתחויות הטכנולוגיות של עולם הבינה המלאכותית ושל עולם ה"ביג דאטה" בעשורים האחרונים הביאו עימן מגוון פיתוחים חדשניים, המאפשרים לבצע פעולות שבעבר היו מסורבלות ואף בלתי אפשריות לביצוע. כך, למשל, הודות לטכנולוגיות מחשוב חדשניות ניתן היום לאסוף מידע בקנה מידה אסטרונומי, לאחסנו, לעבדו ואף להפיצו. עיבודי מידע בקנה מידה שכזה מאפשרים, בין השאר, ליצור מערכות שנועדו לנבא פעולות הנוגעות לפרטים.[1] בישראל ובשאר העולם קיימת מגמה אשר הולכת ומתפתחת שבמסגרתה השלטון מיישם אמצעים טכנולוגיים חדשניים בפעילותו בכלל ובהנגשת השירותים הציבוריים לאזרח בפרט.

חלק מאמצעים אלה, אשר הולכים ונהיים שכיחים יותר, הוא מערכות שמקבלות החלטות אוטונומיות המבוססות אלגוריתמים.[2] השימוש במערכות אלה בעל השפעה רבה על הכלכלה, הביטחון והמדע, ויש לו יתרונות רבים.[3] אולם לצד זאת השימוש במערכות אלה כרוך באתגרים לא מעטים ואלה מחייבים לתת עליהם את הדעת. זאת במיוחד כאשר ישראל מובילה יחסית בקרב מדינות העולם בתחום המחקר והפיתוח, אך בכל הנוגע למוכנות הממשלתית ולאסטרטגיה הממשלתית בתחום הבינה המלאכותית, היא מפגרת מאחור.[4]

ברשימה קצרה זו אעמוד על יתרונות אלה ועל חלק מהאתגרים המשפטיים שמתעוררים אגב שימוש באותם אלגוריתמים במסגרת קבלת החלטות ציבוריות.[5] כפי שיובא להלן, הנושא אף הגיע לאחרונה לפתחו של בית המשפט העליון, והוא מחייב חשיבה נורמטיבית מחודשת – כזו אשר תאפשר את הליכי הביקורת הן על ידי הרשות והן על ידי בית המשפט והאזרחים.

באופן כללי, כאמור, הליכי קבלת החלטות אוטונומיות ללא התערבות אנושית מתבצעים באמצעות אלגוריתמים. לעיתים, הליכים אלה מבוססים על הקריטריונים שקבעו המפתחים שלהם. אולם במקרים מסוימים, ששכיחותם הולכת וגדלה, האלגוריתמים מקבלים את ההחלטות על בסיס שיקול דעתם הבלעדי, המתבסס על טכניקת "למידת מכונה" (machine learning).[6] אלגוריתמים המבוססים למידת מכונה יכולים לשנות ולהתאים את הקוד שלהם, קרי את הקריטריונים ואת הנסיבות שעל בסיסם הם מקבלים החלטות, וזאת על סמך הניסיון ולא בהכרח על סמך כללים המוגדרים מראש.[7]

בתחום הציבורי קיומם של אלגוריתמים שאוספים, מנתחים ומעבדים מידע מהציבור מאפשר למדינה ולרשויותיה לשפר ולייעל את השירותים הציבוריים: שירותי הבריאות, שירותי הביטחון והשמירה על הציבור, חינוך, תחבורה ועוד.[8] כך, למשל, בתחום החינוך, אלגוריתמים משמשים ככלי למעקב אחר תלמידים בבתי ספר. דוגמה לכך היא קיומה של תוכנה אשר סורקת ומנטרת את פעילות התלמידים ברשתות החברתיות לשם איתור פעילות חשודה.[9] בתחום הביטחון והאכיפה, רשויות משתמשות בניתוח והצלבה של מידע כדי להעריך "מסוכנות פוטנציאלית",[10] ואף לאחרונה בארצות הברית נעשה שימוש בתוכנות לזיהוי פנים כחלק מאיתור תוקפי הקפיטול.[11] בתחום הבריאות, אלגוריתמים מסייעים באבחנה של מצב רפואי הדורש טיפול, תוך התאמת הטיפול האופטימלי למטופל.[12]

למעשה, פעולת איסוף המידע מן הציבור ועיבודו איננה חדשה כשלעצמה, שכן ידוע זה מכבר כי איסוף מידע מהציבור עשוי לשמש עבור שיפור השירותים הציבוריים ולשם הבנה טובה יותר של צורכי הציבור. יתרה מכך, אף השימוש עצמו במחשב המקבל החלטות הוא כבר דבר שבשגרה.[13] כך, למשל, באנגליה הכירו בקבלת החלטות על ידי מחשב כבר בחוק הביטוח הלאומי משנת 1998.[14] אף בישראל נראה כי מעודדים את השימוש באלגוריתמים, למצער בתחום הבריאות. כך, משרד הבריאות קבע במבחנים לתמיכה ביצירת תשתיות להפקה והנגשה של נתוני בריאות לפי סעיף 3א לחוק יסודות התקציב,[15] כי אחד מתנאי הסף האופציונליים לקבלת תמיכה הוא יישום של "אלגוריתם לבחינת רמת הסיכון לזיהוי מטופלים במסד נתונים שאינו מכיל פרטים מזהים".[16]

לא בכדי המדינה עושה שימושים באלגוריתמים המקבלים החלטות אוטונומיות, שכן הם ניחנים ביתרונות רבים על פני מקבל ההחלטות האנושי. ראשית כול, החלטות שמתקבלות על ידי אלגוריתמים מתקבלות כהרף עין, ומשכך האלגוריתמים חוסכים זמן רב ומשאבים.[17] כמו כן, אלגוריתמים יכולים לשתף אחד את השני במידע הרב שהם מחזיקים ולהצליבו, מה שעשוי להכפיל את כמות המידע שנמצא בבסיס קבלת ההחלטות ואף לייצר מידע חדש כתוצאה מההצלבה. יתרון נוסף נוגע לאחד מכללי היסוד בשיטת המשפט שלנו – והוא הכלל האוסר על הימצאות במצב של ניגוד עניינים. כידוע, "אסור לו לעובד הציבור להימצא במצב בו קיימת אפשרות ממשית של ניגוד עניינים".[18] לאיסור זה מספר טעמים והעיקרי שבהם, להערכתי, הוא הטעם שלפיו מחשבתו של עובד הציבור צריכה להיות "נקייה" לשם קידום האינטרס שעליו מופקד עובד הציבור.[19] יתרון זה של האלגוריתמים על פני מקבלי ההחלטות האנושיים נובע מן העובדה שהאלגוריתמים (עדיין) אינם בעלי רגשות, והם לא ניחנים בקיומם של אינטרסים אישיים.[20] לפיכך, אין האלגוריתמים יכולים להימצא במצב של ניגוד עניינים עקב "אינטרס אישי שלהם".[21]

כפי שאנו רואים הליכי קבלת החלטות מבוססי־אלגוריתמים הולכים והופכים ליותר ויותר נפוצים בעולם בכלל ובישראל בפרט, וזאת תוך שהם מחליפים את שיקול הדעת האנושי. לצד דברים אלה, האלגוריתמים אינם מושלמים. ראשית כול, הם עשויים לקבל החלטות שגויות.[22] מעבר לכך, הליכי קבלת החלטות על ידי אלגוריתמים עשויים להיות מורכבים מאוד, בלתי מובנים ובלתי שקופים,[23] במיוחד כשמדובר באלגוריתמים המבוססים על למידת מכונה – שימוש שמטבעו איננו בהיר.[24] מדובר בבעיות של ממש, שכן הרשויות תתקשינה לעמוד בחובותיהן המנהליות ואף לא תצלחנה לספק מענה על פי דרישה.[25] כך, למשל, בכל הנוגע לפרסום הנחיות מנהליות,[26] שכן ניתן לראות בקריטריונים שעומדים בבסיס האלגוריתם כהנחיות פנימיות של הרשות.[27]

למעשה, אנו עשויים להיות עדים לבעיות אלה בעתיד הקרוב במסגרת פרשת הר שמש.[28] בפרשה זו נתבקשה רשות המיסים למסור את קוד האלגוריתם שמכוחו הוטלו על חוות הר שמש עיצומים כספיים. בטענותיה התבססה העותרת על כך שקוד האלגוריתם, שכאמור מהווה הנחיה מנהלית, הוא בגדר "מידע" בחוק חופש המידע. בית המשפט דחה את הטענה, אולם נראה כי ערעורה של הר שמש לבית המשפט העליון עשוי לשאת פרי. בהחלטה שניתנה לאחרונה, בית המשפט העליון החליט להחזיר את התיק לדיון בבית המשפט המחוזי, תוך מתן "המלצה" שלפיה יקבע כי קוד האלגוריתם הוא בגדר "מידע" לצורך החוק.[29] החלטה זו בהחלט מבורכת וכנראה תהיה לה השפעה רוחבית בתחום, אולם היא עשויה להביא לידי ביטוי את הבעיות שהצגתי לעיל. הקושי האנושי בהבנת הקריטריונים שעומדים בבסיס החלטות האלגוריתמים יפגע הן ביכולתן של הרשויות להציג ולהסביר את הקריטריונים שעמדו בבסיס קבלת ההנחיות המנהליות, והן ביכולתו של האזרח להבין את אותם קריטריונים שעשויים "להשפיע על מהלך חייו".[30]

בדומה, עשויה להתעורר בעיה נוספת הנוגעת ליסוד חובת ההנמקה במשפט המנהלי, שלפיו בנסיבות מסוימות הרשות נדרשת לפרט ולנמק על אודות החלטה שנתקבלה. כך, הרשויות תתקשינה למלא את חובה זו, מאחר שהן לא תדענה כיצד להסביר ולנמק את ההחלטה שנתקבלה.[31] כמו כן, אף על פי שאלגוריתמים ניחנים ביכולתם שלא להימצא במצב של ניגוד עניינים, הם עדיין עלולים להפלות בין אנשים שונים, עקב ההטיות שקיימות אצל מפתחיהם האנושיים[32] וכן עקב הטיות מובנות במידע שבו משתמש האלגוריתם.[33] כך, האלגוריתמים עשויים להיות מתכוננים מלכתחילה באופן מוטה – במתכוון או שלא במתכוון.[34] בנוסף, מידת ההשפעה והפיקוח שיש לפקיד המנהלי על האלגוריתם עשויה להשפיע על פעילותו ולהטמיע בו את ניגוד העניינים "האנושי". כך, למשל, באמצעות שינוי קו פעילות או פיקוח ואשרור של פעולות האלגוריתם.

מעבר לאמור לעיל, קיים חשש שהרשויות המנהליות לא תדענה – מקצועית – כיצד להתערב בהחלטות האלגוריתם ולפקח עליהן.[35] בעיות אלה מתעצמות נוכח הנחיתות שיש לרשויות מנהליות ביחס לחברות פרטיות, בכל הנוגע לפיתוח אמצעים שכאלה. זאת מאחר שאם רשות מנהלית מבקשת להשתמש באמצעים אלה, יהא עליה לפנות לצד שלישי שיפתח את המערכת בעבורה.[36] התוצאה היא שמכיוון שלרוב הצד השלישי לא ירצה לחשוף את האלגוריתם שיצר – וממילא לעיתים קרובות הרשות לא תקבל את קוד המקור – הרשות לא תדע להסביר כיצד ועל בסיס מה האלגוריתם קיבל את ההחלטה שקיבל.[37]

חשוב להבין כי הצורך בדיון על אודות הביקורת השיפוטית האפשרית על החלטות מנהליות שמתקבלות על ידי אלגוריתם יתגבר ככל שהאלגוריתם מחליף את הפקיד האנושי.[38] לצד זאת, ככל שלא קיימת יכולת אנושית לבחון את החלטות אלה, לא יהיה ניתן להגשים צורך זה, ושלטון החוק וזכויות האדם ייפגעו.[39] בנוסף, לשקיפות הליכי קבלת ההחלטות שמתקבלות על ידי אלגוריתמים חשיבות רבה בכל הנוגע לאמון הציבור. זאת מאחר שבאופן שאינו אינטואיטיבי אנשים נוטים לחשוש מהמעבר לעולם שבו מתקבלות החלטות ללא התערבות אנושית.[40] כלומר על הרשויות לעמול כדי לרכוש את אמון הציבור במערכת, ולא יהיה ניתן לעשות זאת ללא היכולת להסביר ולהנגיש את פעולות האלגוריתמים לאזרח הפשוט.[41]

לסיכום, לשימוש שעושות רשויות מנהליות באלגוריתמים המאפשרים קבלת החלטות אוטונומיות יתרונות רבים. לצד זאת, השימוש בהם, אשר הולך ומתגבר, מחייב התאמה וחשיבה נורמטיבית מחודשת. כפי שהצגתי, לא יהיה ניתן להגשים את יתרונות אלה כל עוד הליכי הביקורת – בין אם מטעם בית המשפט או הרשות עצמה ובין אם מטעם האזרחים – לא יהיו אפשריים ואפקטיביים וכל עוד הרשויות לא תמצאנה את האיזונים הראויים בין היתרונות שבשימוש באלגוריתמים לבין הסכנות והאתגרים הכרוכים בכך. למשל, בכל הנוגע להימצאות בניגוד עניינים הרי שלאלגוריתמים יתרון משמעותי הנובע מכך שאינם ניחנים "בחסרונות" האנושיים, אולם יתרון זה מצטמק ככל שלפקיד המנהלי האנושי שליטה ובקרה על פעילות האלגוריתם – מה שנראה הכרחי לעת עתה. כאמור, איזונים אלה מחייבים התאמה נורמטיבית להתפתחויות הטכנולוגיות[42] וכן מערך הסברתי נגיש לשם רכישת אמון הציבור.


אור מורג הוא סטודנט לתואר ראשון במשפטים, במסלול לתואר שני במשפטים ולתואר שני במנהל עסקים, במרכז הבינתחומי הרצליה. המחבר מודה לפרופ' גיא זיידמן על הליווי, על הסיוע ועל ההערות המעולות; לשני שניצר עורכת הבלוג ולקוראת החיצונית על הערותיה הטובות. רשימה זו היא חלק מפרויקט עתידי רחב יותר.

ציטוט מוצע: אור מורג "השימוש באלגוריתמים לקבלת החלטות ציבוריות – אתגרים לרשות ולביקורת" ICON-S-IL Blog‏ (30.3.2021).


[1]       על חלק מפיתוחים אלה ראו מעיין פרל "פרטיות, שליטה ופיקוח בעידן של נתוני עתק: חובת הנמקה על החלטות אלגוריתמיות" משפט, חברה ותרבות ב: מן הפרט אל הכלל – פרטיות וחברת המעקב 167, 171 (מיכאל בירנהק עורך 2019).

[2]       סיוון תמיר בינה מלאכותית בשירותי ממשל: הטמעת מערכות לקבלת החלטות מבוססות־אלגוריתם בשירותי הרווחה 4 (2020).

[3]       פורום תל"מ דו"ח ועדת הבדיקה בנושא בינה מלאכותית ומדע הנתונים 82 (2021).

[4]       שם, בעמ' 6–7.

[5]       על אתגרים אלה במשפט הפרטי במסגרת קבלת החלטות של מנהל תיקי השקעות ראו אור מורג "התפתחות המסחר האלגוריתמי והשפעותיו על חובת האמון שחב מנהל תיקי השקעות" אתר משפט ועסקים (צפוי להתפרסם ב־2021).

[6]       תמיר, לעיל ה"ש 2, בעמ' 8–9.

[7]       פרל, לעיל ה"ש 1;Maayan Perel & Niva Elkin-Koren, Black Box Tinkering: Beyond Disclosure In Algorithmic Enforcement, 69 Fla. L. Rev. 181, 189 (2017).

[8]       Robert Brauneis & Ellen P. Goodman, Algorithmic Transparency for the Smart City, 20 Yale J. L. & Tech. 103, 111 (2018).

[9]       להרחבה ולבעיות ששימוש שכזה מביא עימו, ראו Barbara Fedders, The Constant and Expanding Classroom: Surveillance in K-12 Public Schools, 97 N.C. L. Rev. 1673, 1679 (2019).

[10]      פרל, לעיל ה"ש 1, בעמ' 172.

[11]      ראו Mark Harris, How Facial Recognition Technology Is Helping Identify the U.S Capitol Attackers, Ieee Spectrum (Jan. 11, 2021). יש הסבורים כי השמירה על ביטחון המדינה מחייבת קביעת מדיניות בתחום הבינה המלאכותית. ראו לעניין זה שגיא כהן "סייבר כבר לא מספיק: 'ביטחון המדינה מחייב מדיניות בתחום הבינה המלאכותית'" The Marker‏ 8.10.2020.

[12]     Karni Chagal-Feferkorn, The Reasonable Algorithm, 1 J. Law T. & Pol'y 111 (2018).

[13]     Michele Finck, Automated Decision-Making and Administrative Law, in The Oxford Handbook of Comparative Administrative Law 660 (Peter Cane, Herwig C. H. Hofmann, Eric C. Ip & Peter L. Lindseth eds., 2020).

[14]     ס' 2 ל־Social Security Act (1998), שלפיו: "(1) Any decision… made… by the Secretary of State… may be made or issued not only by an officer of his acting under his authority but also – (a) by a computer for whose operation such an officer is responsible". להרחבה על אודות חקיקת הסעיף, ראו Andrew Le Sueur, Robot Government: Automated Decision-making and its Implications for Parliament, in Parliament: Legislation and Accountability 183 (Alexander Horne & Andrew Le Sueur eds., 2016).

[15]      ס' 3א לחוק יסודות התקציב, התשמ"ה־1985.

[16]      ס' 5(ב)(1)(א)(3) למבחנים של משרד הבריאות לתמיכה ביצירת תשתיות להפקה והנגשה של נתוני בריאות, והעסקת כוח האדם ייעודי למטרה זו בקופות חולים ובבתי החולים הכלליים–ציבוריים לצורכי מחקר לשנת התקציב 2019 עד 2020, י"פ 8029 (5.12.2018).

[17]     Chagal-Feferkorn, לעיל ה"ש 12, בעמ' 125.

[18]      בג"ץ 531/79 סיעת הליכוד בעיריית פתח־תקוה נ' מועצת עיריית פתח־תקווה, פ"ד לד(2) 566, 569 (1980).

[19]      בג"ץ 971/99 התנועה למען איכות השלטון בישראל נ' ועדת הכנסת, פ"ד נו(6) 117, 149 (2002).

[20]     Chagal-Feferkorn, לעיל ה"ש 12, בעמ' 144.

[21]      כפי שיובהר להלן, יתרון זה עלול "להצטמק" ככל שלאדם זיקה מהותית יותר לפעילות האלגוריתם.

[22]     Perel & Elkin-Koren, לעיל ה"ש 7, בעמ' 183–184.

[23]      פרל, לעיל ה"ש 1, בעמ' 172; אף מרבית מפתחי התוכנה לא בנקל יבינו את הפרוצדורה הזו: שם, בעמ' 188–189.

[24]      השוו, למשל, לפענוח של בדיקת MRI על ידי אלגוריתם אצל W. Nicholson Price II, Black-Box Medicine, 28 Harv. J. L. & Tech. 419, 433–434 (2015) ("[T]he network can take an observation and classify it – for instance, whether an image likely shows a tumor or not – but the mechanism of that classification remains opaque to everyone, including the initial programmer").

[25]      ראו, למשל, עת"ם (מנהליים י–ם) 2663-05-19 הר שמש מושב שיתופי בע"מ נ' הממונה על חופש המידע ברשות המיסים (נבו 5.9.2019) (להלן: פרשת הר שמש).

[26]      קיימת הן חובה סטטוטורית והן חובה פסיקתית המטילות על הרשות את החובה לפרסם את ההנחיות הפנימיות שקבעה. ראו, למשל, ס' 6 לחוק חופש המידע, התשנ"ח־1998 (להלן: חוק חופש המידע); עע"ם 9187/07 לוזון נ' משרד הפנים, פס' 60 לפסק הדין של השופט דנציגר (אר"ש 24.7.2008).

[27]      בג"ץ 1637/17 שמש נ' מנהל רשות המיסים, פס' 3 לפסק הדין של השופטת ברון (אר"ש 12.7.2017).

[28]      פרשת הר שמש, לעיל ה"ש 25. כמובן שהדבר תלוי במורכבות הקוד שבבסיס האלגוריתם, אם כי נקודת המוצא של רשימה זו היא כי בעתיד בהכרח יעשה שימוש באלגוריתמים מורכבים המבוססים למידת מכונה, בהתאם למגמות המתפתחות בנושא.

[29]      עע"מ 6782/19 הר שמש מושב שיתופי בע"מ אגש"ח נ' הממונה על חוק חופש המידע ברשות המיסים (אר"ש 24.12.2020) (להלן: ערעור הר שמש).

[30]      עניין לוזון, לעיל ה"ש 26.

[31]      ראו גם Karen Hao, The Coming War on The Hidden Algorithms That Trap People in Poverty, MIT Tech. Rev. (Dec. 4, 2020).

[32]     Jon Kleinberg et al., Discrimination in the Age of Algorithms, 10 J. Legal Analysis 113, 120 (2018).

[33]     פרל, לעיל ה"ש 1, בעמ' 172–173.

[34]     השוו, למשל, Megan Ji, Are Robots Good Fiduciaries? Regulating Robo-Advisors Under the Investment Adviser Act of 1940, 117 Colum. L. Rev. 1543, 1573 (2017).

[35]      השוו לת"צ (כלכלית ת"א) 47119-12-15 אפרימוב נ' יו אס ג'י קפיטל ישראל בע"מ, פס' 16לפסק הדין של השופטת רונן (נבו 24.6.2019).

[36]      השוו, למשל, למקרים שבהם הרשות עשתה שימוש באלגוריתם שפיתח צד שלישי: Houston Federation of Teachers v. Houston Independent School District, 51 F.Supp. 3d 1168 (S.D Tex. 2017); State v. Hickerson, 228 So. 3d 251 (La. Ct. App. 2018); Bauserman v. Unemployment Ins. Agency, 503 Mich. 169 (2019). אני מודה לפרופ' מישל גילמן מאוניברסיטת בולטימור על ההפניה למקורות אלה.

[37]      להרחבה ראו את הדיון אצל Brauneis & Goodman, לעיל ה"ש 8, בעמ' 107.

[38]      השוו לדבריו של השופט גרוסקופף בעמ' 6 לפרוטוקול הדיון של ערעור הר שמש, לעיל ה"ש 29. ניתן לעיין בעותק של פרוטוקול הדיון באתר התנועה לחופש המידע.

[39]      יצחק זמיר הסמכות המינהלית 101 כרך א – המינהל הציבורי (מהדורה שנייה, 2010).

[40]      ראו, למשל, Jason Collins, What to Do When Algorithms Rule, Behav. Scientist(Feb. 6, 2018).

[41]      השוו לוועדת משנה של המיזם הלאומי למערכות נבונות בנושא אתיקה ורגולציה של בינה מלאכותית דו"ח הוועדה 11 (2019).

[42]      ראו את דברי השופט חשין בתב"מ 16/01 סיעת ש"ס – התאחדות הספרדים העולמית שומרי תורה נ' חבר־הכנסת אופיר פינס־פז, סגן יושב־ראש ועדת הבחירות המרכזית, פ"ד נה(3) 159, 165 (2001).

להשאיר תגובה

היכנס באמצעות אחת השיטות האלה כדי לפרסם את התגובה שלך:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת גוגל

אתה מגיב באמצעות חשבון Google שלך. לצאת מהמערכת /  לשנות )

תמונת Twitter

אתה מגיב באמצעות חשבון Twitter שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s

יצירה של אתר חינמי או בלוג ב־WordPress.com. ערכת עיצוב: Baskerville 2 של Anders Noren.

למעלה ↑

%d בלוגרים אהבו את זה: