[ad_1]
Сьогодні рішення на основі штучного інтелекту здійснюють революцію у сфері управління людськими ресурсами. Сьогодні у розпорядженні HR-фахівців, серед іншого: інструменти, що автоматизують процеси підбору персоналу, та рішення, що допомагають оцінювати ефективність співробітників та ефективно керувати талантами. Однак, незважаючи на численні переваги, які приносить ІІ, використання алгоритмів штучного інтелекту у сфері управління персоналом не позбавлене безлічі етичних дилем. Які етичні сумніви можуть бути пов’язані з використанням штучного інтелекту у HR-процесах? Як їх ефективно усунути? Відповіді на ці запитання ви знайдете у статті.

Як алгоритми штучного інтелекту підтримують HR?
За даними Товариства управління людськими ресурсами, до 88% компаній у всьому світі використовують ту чи іншу форму штучного інтелекту для підтримки своєї HR-діяльності, у тому числі: у сфері підбору, оцінки та адаптації співробітників. Інструменти штучного інтелекту допомагають скоротити час заповнення вакансії, допомагають рекрутерам швидше готувати пропозиції щодо роботи та аналізувати кандидатів, а також приймати рішення щодо подальшого розвитку співробітників в організації.
Це можливо перш за все тому, що алгоритми штучного інтелекту здатні обробляти та аналізувати великі обсяги даних за короткий час. У разі найму до них належать: надав резюме та супровідні листи, результати тестів, історію працевлаштування або дані, якими кандидати поділилися у соціальних мережах, за умови, що кандидат погодився їх надати. На основі цієї інформації вони можуть автоматично оцінювати придатність кандидатів на посади, прогнозувати їхній потенційний успіх у компанії та перевіряти їхню відповідність організаційній культурі. Завдяки цьому – як ми читаємо у доповіді Randstad «Ринок праці та ІІ. Привід для занепокоєння чи можливість? — HR-фахівці можуть звільнитися від стомлюючої роботи і тим самим підвищити свою ефективність та зосередитись на найважливіших завданнях.
Проте впроваджуючи ІІ-рішення в HR-процеси в компанії та використовуючи їх щодня, варто думати не лише про те, як штучний інтелект може допомогти підвищити ефективність роботи. Не менш важлива перспектива, на яку зараз необхідно звернути увагу, – це етика використання ІІ у сфері HR.
Які етичні дилеми можуть бути пов’язані з використанням штучного інтелекту у сфері HR?
повторювані забобони
Одна з найважливіших проблем, пов’язаних з використанням ІІ в HR, — це повторення упереджень. Моделі штучного інтелекту навчаються на наданих їм історичних даних. І такі дані можуть містити приховані упередження – наприклад, щодо статі, раси чи віку чи навіть політичних поглядів. Такий стан справ викликає безліч обґрунтованих побоювань. Якщо дані, що використовуються для навчання штучного інтелекту, що використовується при наборі персоналу, не вільні від упередженості, алгоритми можуть несвідомо віддавати перевагу кандидатам з певним походженням, освітою чи статтю та рекомендувати їх на певні посади, що призводить до створення та збереження нерівності на робочому місці та обмеження різноманітність.
Наприклад: у ситуації, коли ІІ-система підбору персоналу була навчена на даних про домінування чоловіків на конкретних позиціях, вона може неприхильно оцінювати кандидатів-жінок, які претендують на ті самі посади в компанії, і частіше відхиляти їхні заявки.
відсутність прозорості
Інша етична дилема, пов’язана з присутністю ІІ в HR-процесах, стосується прозорості рішень, що приймаються алгоритмами, та складності розуміння того, як штучний інтелект робить вибір.
При здійсненні процесів прийняття рішень алгоритми ІІ зазвичай ґрунтуються на складних моделях даних, які не завжди легко зрозуміти та інтерпретувати людям. Це означає, що і співробітники, і кандидати можуть не знати точних критеріїв, за якими здійснювався відбір або приймалося рішення – наприклад, у процесі найму чи просування по службі. Що відбувається, коли процес прийняття рішень про прийом на роботу не є ясним, прозорим і зрозумілим? Люди, які торкнулися цих рішень, можуть відчути, що з ними обійшлися несправедливо, і втратити довіру до конкретного роботодавця.
Як зазначають експерти McKinsey, відсутність прозорості також ускладнює перевірку того, чи підтримує ІІ процеси компанії відповідно до чинного законодавства, політики різноманіття та організаційних цінностей.

конфіденційність даних
Використання ІІ у сфері HR вимагає збирання, зберігання та аналізу великих обсягів персональних даних співробітників та кандидатів. Збір та аналіз цих даних системами штучного інтелекту порушує важливі питання щодо етичності їх обробки та безпеки: чи обробляються дані відповідно до чинних правил захисту персональних даних та правил безпеки, що діють у компанії? Чи захищені вони належним чином від витоку чи несанкціонованого доступу? Чи всі суб’єкти даних дали згоду на їхню обробку?
Як усунути неетичність у HR-процесах, що проводяться з використанням ІІ?
Зважаючи на всі згадані вище дилеми, одним із основних завдань, з яким сьогодні мають зіткнутися компанії, які використовують інструменти на основі штучного інтелекту у сфері управління персоналом, є усунення неетичності у цих процесах. Як вони це можуть зробити? Ось п’ять рішень, які варто реалізувати:
мінімізація упередженості алгоритмів, що використовуються в HR
Щоб суттєво знизити ризик того, що рішення, які приймаються ІІ, будуть засновані на упередженості, в першу чергу необхідно подивитися на дані, що використовуються для навчання штучного інтелекту, що використовується в HR-процесах. Варто подбати про те, щоб дані були різноманітними та репрезентативними. Саме тому ми рекомендуємо ввести до команди фахівців, які візьмуть на себе цей важливий аспект роботи з інструментами ІІ. Особливо важливою тут буде роль куратора даних — фахівця, відповідального за відбір даних, які використовуються для навчання, з метою усунення систематичних помилок. Також варто працювати з аудиторами ІІ, які регулярно перевірятимуть алгоритми на предмет упередженості та виявлятимуть проблеми, що виникають. І з експертами у предметній галузі, які допоможуть розробити та впровадити системи штучного інтелекту без дискримінації.
об’єднання людських компетенцій із можливостями штучного інтелекту
Наступний спосіб зменшити кількість помилок, що виникають через упередженість, — змінити підхід до ролі, яку ІІ повинен грати в HR-відділі. До штучного інтелекту слід ставитися як до підтримки прийняття кадрових рішень, а не як до повної заміни людей. Включення людського фактора до такого процесу прийняття рішень гарантує, що будь-які нюанси та контексти, які могли вислизнути від алгоритмів, будуть прийняті до уваги.
підвищення зрозумілості та прозорості ІІ
Ще одна важлива мета, до якої повинні прагнути компанії, які використовують штучний інтелект у HR, — краще розуміти рішення, які приймає ІІ, і чітко пояснювати їх усім зацікавленим сторонам. Як ми вже згадували вище, незрозумілий спосіб прийняття рішень, що особливо стосуються найму чи розвитку співробітників в організації, негативно впливає на брендинг роботодавця організації. Ось чому компанії повинні відкрито повідомляти, як і чому вони використовують ІІ у своїх HR-процесах. Таке спілкування має пояснювати методи навчання алгоритмів, показувати, які для цього використовуються і які критерії враховуються. Ясність у кожній із цих областей допоможе зміцнити довіру та підвищити прозорість HR-процесів.
навчання та навчання співробітників
Більше того, працівники, відповідальні за впровадження інструментів штучного інтелекту у сферу HR та використання їх у повсякденній роботі, мають бути належним чином навчені етичним аспектам використання цього типу технологій у HR-процесах. Вони повинні знати, як розпізнавати упередженість у рішеннях, які приймає ІІ, і як відповідально працювати з даними, що обробляються такими інструментами.
створення універсальних ринкових стандартів етичного використання ІІ в HR
Водночас, варто співпрацювати з іншими підприємствами, організаціями та академічними центрами для обміну передовим досвідом використання ІІ у сфері HR. На основі обміну досвідом компанії з цієї галузі можуть створювати та розвивати загальні, послідовні етичні стандарти використання штучного інтелекту в управлінні людськими ресурсами.
Хорошим прикладом ініціативи, яка допомагає встановити галузеві правила та стандарти використання ІІ у сфері управління персоналом, є проект ЄС «Справедливість та міжсекційна недискримінація в людських рекомендаціях» (FINDHR), частиною якого є Randstad. У рамках проекту ми працюємо, серед іншого: про нові способи вимірювання упередженості алгоритмів, які використовуються у сфері підбору персоналу.
завантажте звіт, щоб дізнатися більше
Хоча нові інструменти відкривають вельми перспективні можливості використання ІІ у сфері HR, варто переконатися, що їх використання в компанії не викликає етичних розбіжностей. Забезпечуючи прозорість та різноманітність даних, що надаються алгоритмами, та відповідально використовуючи такі інструменти, компанії можуть знизити ризик неетичного використання ІІ у сфері управління персоналом та повною мірою використати його потенціал для побудови більш справедливого та інклюзивного ринку праці.
Для отримання додаткової інформації про етичне використання ІІ при підборі персоналу та управлінні працевлаштуванням, будь ласка, прочитайте наш останній звіт «Ринок праці та ІІ. Причина занепокоєння чи можливість?

Як повідомляє: RANDSTAD (Польща)






