אפלייה במקום העבודה >

כיצד בינה מלאכותית יוצרת פערים בשוק העבודה?

"מכונות אינן חפות מהטיה מעבר למידע שהן לומדות ממנו." משפט זה מסכם מציאות הולכת ומתרחבת בעולם העבודה של ימינו, מציאות של אפליה לא מכוונת הנובעת מהטייה של המידע שעליו מאומנות מערכות בינה מלאכותית.

יותר ויותר ארגונים מאמצים כלים מבוססי בינה מלאכותית כדי לייעל תהליכים, כולל בתחום כוח האדם – מיון קורות חיים, סינון מועמדים, קידום עובדים, ניתוח ביצועים ואפילו קביעת שכר. הטכנולוגיה המתקדמת מציעה פתרונות מהירים, חכמים וחסכוניים, המציעים יעילות ואפקטיביות, אך יחד איתה עולה שאלה מטרידה: האם האלגוריתם באמת פועל בהגינות?

מודלי AI אינם טאבולה ראסה. הם מאומנם על כמות עצומה של מידע היסטורי. לכן, כאשר הנתונים שעליהם מתבססת המערכת כוללים דפוסים של אפליה מן העבר, גם תהליך אובייקטיבי לכאורה עלול להפיק תוצאות שמנציחות פערים. כך נוצרת תופעה חדשה: אפליה במקום העבודה שאינה מתבצעת על ידי אדם, אלא על ידי מכונה. במאמר זה נבחן את המנגנונים שמובילים לכך, ננתח את ההיבטים המשפטיים ונדון בצעדים בהם אפשר לנקוט כדי לצמצם את הסיכון.

מדוע החלטות של בינה מלאכותית עלולות לשקף דעה קדומה כגון גזענות, שוביניזם וגילנות

כאשר אלגוריתם ממיין קורות חיים או מנתח ביצועי עובדים, הוא לרוב אינו שואל על גזע, מין או גיל, לפחות לא באופן גלוי. אך מערכת המשתמשת בבינה מלאכותית, למידת מכונה (Machine Learning) ומעבר על אין ספור נתונים היסטוריים מהעולם אמיתי – לומדת מדפוסי העבר, אשר ברובם מכילים הטיות וכאשר הדפוסים ההיסטוריים עצמם מוטים, גם תהליך קבלת ההחלטות הופך למוטה, לעיתים באופן בלתי נראה.

כאשר לדוגמה ביקשו בעבר הלא רחוק ממודלי בינה מלאכותית לספק תמונה של מנכ"ל, כמעט תמיד התוצאה הייתה של גבר לבן. הסיבה פשוטה – המודל אומן על מיליוני תמונות, כידוע, מסיבות היסטוריות חברתיות ותרבותיות, מרבית המנכ"לים הם גברים לבנים. כך, כאשר הבינה המלאכותית התבקשה לספק תמונה של מנכ"ל גנרי כלשהו היא פשוט התבססה על מה שהכירה. במילים אחרות, האלגוריתם אינו גזען או שובניסט, אך התוצאה עלולה להיות כזו.

הסוגיה אינה מסתיימת בגבולות היצירה וה-AI הכללי. אם במשך שנים גויסו יותר גברים לתפקידי ניהול, האלגוריתם עלול "ללמוד" שמועמד גבר מתאים יותר ולתעדף אותו מבלי להבין מדוע. מקרה מפורסם התרחש באמזון לפני מספר שנים, שם פותחה מערכת אוטומטית לסינון מועמדים, אך התברר שהיא מדרגת נשים נמוך יותר. למה? כי המידע עליו התבססה כלל בעיקר מועמדים גברים.

אפליה אלגוריתמית אינה תוצאה של כוונה רעה, היא נובעת מחיקוי והתבססות על מציאות עבר שבתורה משקפת הטיות אנושיות. האלגוריתם "מחפש הצלחה", ובדרך מחקה החלטות שהתקבלו בעבר, גם אם הן שיקפו דעות קדומות או אפליה מבנית. כך נוצרת סכנה חדשה: מערכת אוטומטית ללא מגע יד אדם, האמורה להיות אובייקטיבית, אך משמרת את אי-השוויון הקיים בעבודה.

מורכבות זו מציבה אתגר כפול: מצד אחד, קשה לזהות את האפליה בזמן אמת. מצד שני, הנזק המצטבר עלול להיות רחב היקף, במיוחד כשהמערכת פועלת בהיקפים גדולים ומהירים.

מה האחריות המשפטית של המעסיק על אפליה טכנולוגית לפי הדין בישראל?

הטמעת מערכות בינה מלאכותית בתהליכי גיוס וניהול כוח אדם מעלה אם כן שאלה משפטית עקרונית: האם מעסיק נושא באחריות משפטית כאשר תוכנה שבה נעשה שימוש מפלה מועמדים או עובדים, גם אם לא הייתה כוונה להפלות?

לפי חוק שוויון ההזדמנויות בעבודה, תשמ"ח–1988, חל איסור על אפליה בתנאי קבלה לעבודה, תנאי עבודה, קידום, פיטורים, הכשרות ועוד,כאשר ההבחנה נעשית בשל מאפיינים כגון מין, גיל, דת, לאום, נטייה מינית, שירות במילואים, מוגבלות ועוד. הדין הישראלי הוא רחב וגורף ואינו מבחין בין אפליה שנעשתה על ידי אדם לבין אפליה הנובעת מכלי טכנולוגי שהמעסיק עשה בו שימוש, בכלל זה מערכת אוטומטית המבוססת על בינה מלאכותית או כל טכנולוגיה אחרת.

המשמעות היא שמעסיק המשתמש במערכת ממוחשבת לסינון מועמדים או להערכת עובדים, מחויב לוודא כי המערכת אינה מפלה קבוצות מוגנות, גם אם האפליה אינה גלויה, או נעשית מבלי מודעות לכך. במילים אחרות, האחריות המשפטית אינה מוטלת על התוכנה, אלא על הגורם שהשתמש בה ככלי לקבלת החלטות.

יוזכר כי בתי הדין לעבודה בישראל פוסקים לפי עקרון המהות ולא לפי טכנולוגיית הביצוע. לכן, די בכך שמועמד או עובד יוכיחו כי התקבלו לגביהם החלטות מפלות ללא קשר אם מקור ההחלטה היה אנושי או טכנולוגי. כך, ככל שיתברר כי המעסיק לא נקט באמצעים סבירים למנוע את ההטיה, הוא עשוי להיתבע על פי החוק, ולהידרש לפצות את הנפגע.

ההשלכה המשפטית ברורה אם כן: ככל שמעסיקים מסתמכים יותר על טכנולוגיה, ובכלל זה בינה מלאכותית, כך גוברת חובתם לפקח עליה משפטית, אתית וארגונית.

מה יכול המעסיק לעשות כדי למנוע אפליה במקום העבודה בגלל הטיה אלגוריתמית?

למרות שמדובר בטכנולוגיה מתקדמת, מניעת אפליה אלגוריתמית במקום העבודה מחייבת צעדים פשוטים אך עקביים מצד המעסיק. ראשית החשיבה צריכה לעבור מתפיסה של “המערכת עושה בשבילי את העבודה”, לתפיסה של אחריות מלאה על כל כלי בו נעשה שימוש. שנית, במקום להתייחס למערכת הבינה המלאכותית כאל "שופט אובייקטיבי", יש להבין שמדובר בכלי הנתון להשפעות של הדאטה עליו הוא מאומן, ולכן נדרש פיקוח הדוק. האחריות היא של המעסיק, ולא של האלגוריתם.

  • בחינה מוקדמת ומדוקדקת של המערכת

לפני הטמעת מערכת AI בארגון, יש לבדוק כיצד היא פועלת, אילו מאגרי מידע שימשו לאימון שלה, והאם ננקטו אמצעים לנטרול הטיות מגדריות, אתניות או אחרות. יש לבדוק האם המערכת כוללת מנגנוני איזון או תיקון, והאם בוצעו בדיקות לאיתור אפליה סמויה. בעת רכישת מערכת חיצונית, חשוב לדרוש מהספק גילוי מלא בנוגע לאופן האימון והבדיקות הסטטיסטיות שבוצעו.

  • בקרה שוטפת ומתמשכת על התוצאות

גם לאחר ההפעלה, חובה על המעסיק לעקוב אחר תפקוד המערכת. האם יש דפוסים עקביים של שלילה לקבוצות מסוימות? האם מתבצעת בדיקה סטטיסטית של החלטות לפי מגדר, גיל, מוצא, מוגבלות וכדומה? ניטור כזה מאפשר לאתר הטיות בזמן אמת ולפעול לתיקונן.

  • יעוץ משפטי בשלבי הפיתוח, ההטמעה וההפעלה

יש לערב יועץ משפטי המתמחה בדיני עבודה ופרטיות כבר בשלב בחירת הפתרון הטכנולוגי. עורך הדין יסייע בגיבוש חוזה עם הספק, קביעת מדיניות פנים-ארגונית, והבטחת עמידה בדרישות חוק שוויון ההזדמנויות והגנת הפרטיות.

  • שקיפות מול עובדים ומועמדים

כאשר מתקבלות החלטות באמצעות AI, העובדים והמועמדים לעבודה זכאים לדעת זאת. לכן יש לעדכן על עצם השימוש, תחומי ההפעלה, ומהם מנגנוני הפיקוח והערעור. שקיפות זו מחזקת את האמון ומקטינה את הסיכון המשפטי.

אלגוריתם או בשר ודם – האחריות נשארת של המעסיק

בעולם שבו גם תוכנה עלולה להפלות, המעסיק חייב לנקוט משנה זהירות. שימוש ב-AI מחייב פיקוח, שקיפות ועמידה מלאה בדרישות החוק.

מתלבטים כיצד לפעול נכון? עו״ד אסף מסדה ישמח ללוות אתכם ביצירת סביבת עבודה הוגנת, חכמה וחוקית.

 

כיצד בינה מלאכותית יוצרת פערים בשוק העבודה?

ליצירת קשר בנושא אפלייה במקום העבודה ותיאום ייעוץ טלפוני ראשוני ללא עלות

מאמרים נוספים בתחום