חיתום אשראי צרכני על סמך עיבוד מידע אלגוריתמי – היש סיבה לחשוש מאפליה אסורה? / רות פלאטו-שנער ומעיין פרל

חיתום אשראי אלגוריתמי

רשימה זו מתמקדת בהפליה העלולה להיגרם בשל האופן שבו מתקבלות החלטות בנוגע להעמדת אשראי צרכני בידי מלווים בנקאיים וחוץ-בנקאיים בישראל – פעולה המכונה בעגה המקצועית "חיתום אשראי".[1]

העמדת אשראי נתפסת כעסקה מסוכנת מבחינתו של המלווה, שכן מרגע שהוא הלווה את הכסף ללקוח הוא חשוף לסיכון של אי-פירעון החוב. בהתאם, מרכיב מרכזי בחיתום האשראי הוא הערכת הסיכון הטמון במתן האשראי ללקוח ספציפי.

בעבר נהגו המלווים השונים להעריך סיכוני אשראי על סמך התרשמות אישית ישירה מהלקוח ומניתוח נתוניו הפיננסיים. אולם בעקבות מהפכת המידע ופיתוחן של טכנולוגיות ניתוח נתונים מתקדמות, יותר ויותר מלווים מבצעים חיתום אלגוריתמי, לעיתים ללא כל מעורבות אנושית. הם מנבאים את סיכון האשראי של הלקוח באמצעות מודלים מבוססי בינה מלאכותית, המשקללים מגוון רחב של נתוני מידע.[2]

לשימוש בכלים אלגוריתמיים בעת חיתום אשראי ישנם יתרונות חשובים ובראשם הגברת יעילות החיתום (מהירות ודיוק),[3] שכלול שוק האשראי הצרכני,[4] והרחבת הנגישות לאשראי.[5] עם זאת, מחקרים שונים הצביעו על פגיעה הנגרמת ללקוחות עקב שקלול מידע לא-מדויק, מידע מוטעה או שימוש במודלים לא-איכותיים.[6] מחקרים אחרים הצביעו על פגיעה בפרטיות ואובדן האוטונומיה של הלקוח בשל שקלול מגוון רחב של נתוני מידע אישיים על אודותיו.[7] סיכון נוסף, שבו כאמור מתמקדת רשימה זו, הוא הפליה בין לקוחות וחשש לפגיעה באוכלוסיות מוחלשות.

חיתום אשראי נעשה בידי המלווים על סמך מודלי החיתום הפנימיים שלהם.

מרכיב מרכזי במודלי החיתום הוא דירוג אשראי שמפיקות לשכות אשראי חיצוניות ומוכרות למלווים. על פי חוק נתוני אשראי, התשע"ו-2016, לשכות האשראי רשאיות – בתנאים מסויימים ובכפוף להסכמת הלקוח – למשוך את המידע הקיים אודותיו במאגר נתוני האשראי של בנק ישראל, ובאמצעות שימוש במודלי דירוג אלגוריתמיים לקבוע את דירוג האשראי האישי של הלקוח: ציון מספרי המבטא את מידת הסיכון של הלקוח בפירעון האשראי.[8]  

החוק אוסר על לשכות האשראי לבסס את מודלי הדירוג שלהן על תבחינים אסורים, כגון מין, גיל, נטייה מינית, דת, גזע, מצב בריאותי או מצב משפחתי.[9] מודלי הדירוג של הלשכות כפופים לתיקוף ולביקורת קפדניים מצד הממונה על נתוני אשראי כדי לוודא בין היתר שהם אינם מבוססים על התבחינים האסורים.

הוראות אלה אמורות לצמצם בצורה ניכרת את החשש להפליה מצד מלווים בבואם לשקול אם לתת אשראי ללקוח. אולם, בשל השימוש במודלים אלגוריתמיים המסוגלים לעבד כמויות עצומות של מידע, מלווים אינם מסתפקים בדירוג האשראי הנרכש מלשכות האשראי, והם משקללים במודלי החיתום שלהם מידע נוסף ורב, כגון: מידע היסטורי המצוי בידיהם אודות לקוחות קיימים (כגון אופן העמידה בהתחייבויות קודמות, הרגלי רכישה בכרטיסי אשראי), מידע שהלקוח מתבקש לספק בעת בחינת הבקשה לקבלת האשראי (כגון תלושי משכורת, ותק במקום העבודה, מספר שנות לימוד), מידע המתקבל במסגרת מערכת הבנקאות הפתוחה,[10] ואף נתוני עתק (ביג-דאטא) שהם מלקטים ממקורות שונים כגון רשתות חברתיות ומאגרים פומביים. כתוצאה מכך, מודלים לחיתום אשראי כוללים לא רק מידע פיננסי, כי אם גם מידע התנהגותי וחברתי על אודות הלקוח.

המעבר לחיתום אשראי אלגוריתמי אמור לנטרל את החשש להפליה מכוונת, שכן ניתן להגדיר אלגוריתמים כך שלא ישקללו תבחינים אסורים. עם זאת, מתברר כי גם ללא שימוש בתבחינים אסורים, אלגוריתמים עלולים להוביל להפליה: הפליה בלתי-מכוונת הנגרמת בעקיפין.

כך למשל, שימוש בתבחינים לגיטימיים לכאורה המבוססים על הפליה היסטורית, עלולים לשעתק את אותה הפליה. דוגמה לכך הן הלוואות הסאב-פריים בארצות הברית. במשך שנים הבנקים האמריקנים סירבו לתת אשראי לאוכלוסייה האפרו-אמריקנית, ואילצו אותה ליטול הלוואות סאב פריים בעייתיות. כעת, שקלול מידע על הלוואות סאב פריים המוביל להורדת הדירוג, גורם לשעתוק ההפליה כנגד אוכלוסייה זו.[11]

מודלים מבוססי למידת מכונה עשויים להוביל להפליה גם כאשר המידע הגולמי בו הם משתמשים הוא ניטרלי לחלוטין, אולם משמש כאינדיקציה לתבחינים אסורים (Proxy Discrimination).[12] לדוגמה, באמצעות מיקוד כתובת המגורים של הלקוח, האלגוריתם יכול ללמוד אם מדובר בלקוח מקבוצת מיעוט אתנית שנוטה להתגורר באזורים מסוימים.  

גם האופן שבו המידע הגולמי מנותח ומעובד עשוי להשפיע על החשש להפליה, שכן שיטות שונות של למידת מכונה עשויות לצמצם או להרחיב את החשש להפליה סטטיסטית.

הדין הקיים

בחינת הדין הקיים מובילה למסקנה שאין בו כדי לספק ללקוחות הגנה הולמת מפני הפליה.

אין בישראל חקיקה כללית המגבילה את השימוש בבינה מלאכותית במטרה למנוע פגיעה באינטרסים ובזכויות אדם מוגנות, ובכלל זה הפליה.

חוק איסור הפליה במוצרים, בשירותים ובכניסה למקומות בידור ולמקומות ציבוריים, התשס"א-2000 (להלן: חוק איסור הפליה) אוסר באופן גורף על הפליה באספקת מוצרים ושירותים ציבוריים, ובכלל זה במתן אשראי.[13]

החוק אוסר על הפליה מחמת גזע, דת או קבוצה דתית, לאום, ארץ מוצא, מין, נטייה מינית, ועוד.[14] יותר מכך, החוק קובע כי סירוב לספק מוצר או שירות לאחר שמציע המוצר או השירות "בירר" פרטים הנוגעים לעילות ההפליה האמורות, מקים חזקת הפליה, כל עוד לא הוכח אחרת.[15] מכאן שעצם בירור הפרטים האמורים, ולענייננו – גם באמצעות שימוש בכלים של בינה מלאכותית, מקים חזקת הפליה ועלול להעמיד את המלווה בסיכון של הפרה.

יודגש שרקע פיננסי או מצב כלכלי אינם נמנים בין עילות ההפליה שבחוק.[16] בנוסף, החוק מסייג וקובע כי אין מכירים בהפליה כאשר הדבר מתחייב מאופיו או ממהותו של המוצר או השירות.[17] חריג זה מאפשר הענקת יחס שונה בהתבסס על שיקולים רלוונטיים. כך, חיתום אשראי המבחין בין לקוחות על פי רמת מוסר התשלומים או כושר הפירעון שלהם, נכנס לגדרי החריג האמור. כל עוד ההבחנה בין לקוחות נעשית על סמך שיקול זה בלבד, אין מדובר בהפליה.

באוסרו על הפליה, החוק אינו מבחין בין הפליה ישירה לעקיפה. פרשנות רחבה שלו עשויה לשלול גם טכניקות של הפליה עקיפה. אולם בהיעדר איסור מפורש בחוק, הספק הפרשני פועל לרעת הציבור ואינו מספק הגנה מלאה מפני הפליה.

למעשה, זהו המצב בארצות הברית, שם האיסור על הפליה קבוע בחוק ייעודי לתחום האשראי: Equal Credit Opportunity Act. החוק אוסר על מלווים להפלות מטעמי גזע, צבע, דת, מוצא, מין, מצב משפחתי, גיל, קבלת סיוע כספי ממשלתי, או נקיטת צעדים למימוש זכויות על פי החוק.[18] החוק אינו מבחין בין הפליה ישירה לעקיפה ואוסר על הפליה באופן כללי. אולם בתי המשפט האמריקניים מוכנים להתיר הפליה עקיפה, היינו כזו שאינה מבוססת במישרין על שימוש בתבחינים פסולים, כאשר היא נדרשת לקידום האינטרס העסקי של המלווה (legitimate-business-necessity defense) כגון צמצום סיכוני אשראי, ואף שיקולים של צמצום עלויות והגברת רווחיות עשויים להיות רלבנטיים.[19]

הקביעה העקרונית בדבר איסור הפליה היא כמובן חשובה מאוד. עם זאת, בעידן של בינה מלאכותית היא אינה מספיקה, לאור הקושי המעשי העומד בפני לקוחות לאתר ולהוכיח קיום הפליה בעניינם. סודיות המודלים המוגנים כסוד מסחרי ומורכבותם מקשים גם הם על זיהוי הפליה. בפרט, החוק הישראלי אינו אוסר על התחשבות בנתונים אלטרנטיביים שאינם פיננסיים לצורך פיתוח מודלי חיתום, עניין המקשה על לקוחות להוכיח הפליה כשהדירוג שלהם נעשה על סמך מודלים אלגוריתמיים המבוססים על כמות עצומה של נתונים.[20] בנוסף, גם אם מוכחת הפליה, כל שנותר ללקוח הוא לנסות לתקוף אותה בדיעבד, על כל הקשיים הנובעים מתביעה כזו.

גם בהוראות הרגולטורים הפיננסיים בולטת בהיעדרה הוראה האוסרת על הפליה בחיתום אשראי אלגוריתמי או קובעת מנגנונים לצמצומה.[21]

מנגנון שעשוי לסייע למניעת הפליה הוא מסירת מידע ללקוח על "פעולה פוגעת" (adverse action). החקיקה האמריקנית מחייבת מלווה, אשר בהתבסס על מידע שקיבל מלשכת אשראי סירב להעמיד אשראי ללקוח או נקט פעולה פוגעת אחרת בנוגע לאשראי, למסור ללקוח את הסיבות לכך, לרבות דירוג האשראי שהתקבל מלשכת אשראי.[22]

מידע זה מאפשר ללקוח להתחקות אחר הסיבות להחלטה הפוגעת ולוודא שההחלטה בעניינו לא נגזרה ממשתנים אסורים. עם זאת ספק אם יש בכוחו לאפשר ללקוח לאתר הפליה בלתי מכוונת כפי שתוארה לעיל. זאת ועוד, ככל שמדובר בלקוחות מוחלשים כלכלית, שהם הקבוצה העיקרית העלולה לסבול מהפליה, רמת האוריינות הפיננסית שלהם בדרך כלל נמוכה ולכן מנגנון זה אינו ישים מבחינתם. בישראל, מכל מקום, אף הוראה כזו אינה קיימת.[23]

מטעמים אלה נדרשת הסדרה של תחום החיתום האלגוריתמי באמצעות קביעת מנגנונים ספציפיים ומפורטים שיקטינו מראש את החשש להיווצרות הפליה או הטיות פסולות.

הצעות לצמצום הפליה בחיתום אשראי אלגוריתמי

המהלך הראוי לדעתנו לצמצום הפליה הוא חקיקת חוק ייעודי להסדרת השימוש בבינה מלאכותית בכל תחומי הפעילות במדינה, שיקבע איסור מפורש על הפליה ויכלול חובות ומנגנונים לצמצם את הסיכון לה. עד להתקנת חקיקה שכזו, אנו קוראות לרגולטורים הפיננסיים להתערב, ולהטיל על המלווים את הדרישות הבאות בנוגע לחיתום אשראי אלגוריתמי, במטרה לצמצם את החשש להפליה בלתי-מכוונת:[24]

1. שקיפות: כלפי הרגולטור – שקיפות ביחס לתהליך הפיתוח של המודל ואופן פעילותו בפועל, כדי לאפשר לרגולטור את בדיקתו. לצד זאת, יש להטיל על המלווים חובת שקיפות משמעותית גם ביחס ללקוחות, באופן שיאפשר להם לזהות בקלות הטיות וטעויות בנתוני האשראי שלהם.

2. בקרה ודיווח: ביצוע בקרות פנימיות והערכות תקופתיות במטרה לאתר הטיות פסולות ומגמות מפלות, לרבות דיווח לרגולטור הפיננסי על תוצאותיהן.

3. מעורבות אנושית (human in the loop) בשלבי הפיתוח והיישום של המודל: כך ניתן לדרוש ביצוע בדיקה אנושית מדגמית של החלטות אוטומטיות. לחלופין, ברוח הרגולציה האירופית להגנת המידע (GDPR),[25] ניתן לאסור החלטות אוטומטיות לחלוטין באשר לבקשות אשראי בעלות מאפיינים מסוימים כגון אשראי לרכישת השכלה, או באשר למבקשי אשראי שדורשים מעורבות אנושית בעניינם.

4. הסברתיות (explainability): יש לאסור על שימוש במודלים שאינם ניתנים להתחקות ולהסבר (מודלים של "קופסה שחורה"). זאת למרות שדרישה זו עלולה למנוע שימוש בטכנולוגיות חדישות ולהפחית את רף היעילות והחדשנות בתחום.

לצד הגברת הפיקוח על השימוש במודלים אלגוריתמיים לחיתום אשראי, ישנה חשיבות גדולה להרחבת הנגישות לאשראי הצרכני לאוכלוסיות אשר בשל הפליה בלתי-מכוונת בהליך החיתום סובלות מדירוג אשראי נמוך ובשל כך נשללת מהן האפשרות לקבל אשראי. אנו מציעות לחזור ולבחון את הרעיון של הקמת קרן למודרי אשראי, וכן לספק תמריצים שונים למלווים במטרה לעודד אותם לספק אשראי לאוכלוסיות מוחלשות אלה.


רות פלאטו-שנער היא פרופסור מן המניין, מייסדת וראשת המרכז לדיני בנקאות ורגולציה פיננסית, המכללה האקדמית נתניה. היא מכהנת כסגנית יו"ר הוועדה המייעצת לממונה על שוק ההון, ביטוח וחיסכון; יו"ר הוועדה המייעצת לממונה על שוק ההון, ביטוח וחיסכון בתפקידו כמפקח על שירותים פיננסיים מוסדרים; יו"ר הוועדה המייעצת לממונה על השיתוף בנתוני אשראי; וחברת הוועדה המייעצת לנגיד בנק ישראל בענייני בנקאות. הדעות המובאות במאמר זה הן דעותיה הפרטיות ואינן מייצגות איזשהו מהגופים האמורים. המידע הכלול במאמר נאסף ממקורות פומביים ואינו כולל מידע שהגיע לכותבת מתוקף תפקידיה האמורים.

מעיין פרל היא מרצה בכירה, המכללה האקדמית נתניה ועמיתת מחקר בכירה במרכז שמגר למשפט דיגיטלי וחדשנות בפקולטה למשפטים, אוניברסיטת תל אביב.

ציטוט מוצע: רות פלאטו-שנער ומעיין פרל "חיתום אשראי צרכני על סמך עיבוד מידע אלגוריתמי – היש סיבה לחשוש מהפליה אסורה?" ICON-S-IL Blog‏ (22.8.2022).


[1] רשימה זו מבוססת על המאמר: רות פלאטו-שנער ומעין פרל "חיתום אשראי צרכני על סמך עיבוד מידע אלגוריתמי – היש סיבה לחשוש מהפליה אסורה?" עיוני משפט (צפוי להתפרסם ב-2023) (להלן: פלאטו-שנער ופרל "הפליה אסורה"). לדיון בהיבטים נוספים של חיתום אשראי אלגוריתמי מלבד הפליה, ראו: רות פלאטו-שנער ומעיין פרל "בינה מלאכותית בחיתום אשראי צרכני: הזדמנויות, אתגרים והצעת אסדרה" מחקרי רגולציה (צפוי להתפרסם ב-2023).

[2] Nikita Aggarwal, The Norms of Algorithmic Credit Scoring, 80 Cambridge L.J. 42 (2021).

[3] Diederick van Thiel & Willem Frederik (Fred) van Raaij, Artificial Intelligence Credit Risk Prediction: An Empirical Study of Analytical Artificial Intelligence Tools for Credit Risk Prediction in a Digital Era, 12 J. Risk Management in Fin. Institutions 268 (2019).

[4] Joseph E. Stiglitz & Andrew Weiss, Credit Rationing in Markets with Imperfect Information, 71 Am. Econ. Rev. 393 (1981); Liran Einav, Mark Jenkins & Jonathan Levin, The Impact of Credit Scoring on Consumer Lending, 44 Rand J. Econ. 249 (2013).

[5] Michael A. Turner & Robin Varghese, The Economic Consequences of Consumer Credit Information Sharing: Efficiency, Inclusion, and Privacy 16-17 (OECD Joint WPISP-WPIE Roundtable, Background Paper No. 2, 2010).

[6] Solon Barocas & Andrew D. Selbst, Big Data's Disparate Impact, 104 Cal. L. Rev. 671, 677-693 (2016).

[7] Danielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Wash. L. Rev. 1 (2014).

[8] פלאטו-שנער ופרל "הפליה אסורה", לעיל ה"ש 1, בפרק א1.

[9] ס' 51 לחוק נתוני אשראי, התשע"ו-2016.

[10] מערכת הבנקאות הפתוחה, שהחלה לפעול בישראל בחודש יוני 2022 מכוח חוק שירות מידע פיננסי, התשפ"ב-2021, היא מנגנון לשיתוף במידע פיננסי. במסגרת מערכת זו נדרשים הגופים הפיננסיים, על פי הוראת הלקוח, לפתוח את המידע הקיים בידיהם על הלקוח בפני צדדים שלישיים המספקים שירותי מידע פיננסי (כגון חברות פינטק שקיבלו רישיון מיוחד לכך). על בסיס מידע זה יוכלו נותני שירותי המידע הפיננסי להציע ללקוח שירותים פיננסיים שונים. המידע מועבר באמצעות ממשק טכנולוגי אחיד שכל המשתמשים במערכת נדרשים להתחבר אליו. ראו על כך: פלאטו-שנער ופרל "הפליה אסורה", לעיל ה"ש 1, בפרק א2.

[11] Lisa Rice & Deidre Swesnik, Discriminatory Effects of Credit Scoring on Communities of Color 18 (National Fair Housing Alliance, 2012).

[12] Anya E.R. Prince & Daniel Schwartz, Proxy Discrimination in the Age of Artificial Intelligence and Big Data, 105 Iowa L. Rev. 1257 (2020).

[13] ראו הגדרת המונחים "שירות ציבורי" ו"שירותים פיננסיים" בס' 2 לחוק איסור הפליה. האיסור על הפליה חל על הבנקים גם מכוח מעמדם המעין-ציבורי והדואליות הנורמטיבית החלה עליהם מכוח מעמד זה. ראו על כך לדוגמה: ע"א 8068/01 איילון חברה לביטוח בע"מ נ' מנהל עיזבון אופלגר, פ"ד נט(2)  349, 369 (2004). לביקורת על תפיסת הבנקים כגוף דו-מהותי, ראו: רות פלאטו-שנער דיני בנקאות: חובת האמון הבנקאית 65-60 (2010).

[14] ס' 3(א) ו- 3(א1) לחוק איסור הפליה.

[15] ס' 6(1) לחוק איסור הפליה.

[16] ס' 3(א) לחוק איסור הפליה.

[17] ס' 3(ד) לחוק איסור הפליה.

[18] Equal Credit Opportunity Act, 15 U.S.C. § 1691(a).

[19] Katja Langenbucher, Responsible AI-Based Credit Scoring – A Legal Framework, 31 Euro. Busi. L. Rev. 527, 552-554 (2020).

[20] Mikella Hurley & Julius Adebayo, Credit Scoring in the Era of Big Data, 18 Yale J. L. & Tech. 148, 190-191 (2016).

[21] בנק ישראל – הפיקוח על הבנקים: הוראת ניהול בנקאי תקין 311A "ניהול אשראי צרכני" ס' 16, 23, 24, 26, 27, 28; ס' 93 לנספח לחוזר נותני שירותים פיננסיים 4-10-2020 של רשות שוק ההון, ביטוח וחיסכון "הוראות לניהול אשראי צרכני".

[22] Equal Credit Opportunity Act, 15 U.S.C. § 1691(d); Fair Credit Reporting Act, 15 U.S.C. § 1681m.

[23] ס' 31 לחוק נתוני אשראי קובע מנגנון מצומצם משמעותית והוא חל רק לגבי דוח אשראי שהתקבל מלשכת אשראי.

[24] להרחבה על כל אחת מדרישות אלו ראו: פלאטו-שנער ופרל "הפליה אסורה", לעיל ה"ש 1, בפרק ה.

[25] Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data and Repealing Directive 95/46/EC (General Data Protection Regulation), 2016 O.J. (L 119).

להשאיר תגובה

היכנס באמצעות אחת השיטות האלה כדי לפרסם את התגובה שלך:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת Twitter

אתה מגיב באמצעות חשבון Twitter שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s

יצירה של אתר חינמי או בלוג ב־WordPress.com. ערכת עיצוב: Baskerville 2 של Anders Noren.

למעלה ↑

%d בלוגרים אהבו את זה: