Етичні наслідки ІІ. впровадження технологій з урахуванням справедливості та благополуччя співробітників

Рубрика:
СТАТТІ
||

[ad_1]

Штучний інтелект — винахід, що створює величезні можливості для людства, тепер впливає практично на всі аспекти нашого життя. ІІ підказує, де пообідати наступного разу, які фільми подивитися наступних вихідних, коли піти на прогулянку, повідомляє, що ви занадто довго сидите або коли вийти з дому, щоб встигнути на роботу вчасно.

А коли ми знаходимося в офісі, ІІ допомагає нам розставляти пріоритети протягом дня, писати електронні листи та набувати нових навичок. Людям, які працюють у сфері HR та рекрутменту, ІІ вже допомагає їм шукати, перевіряти та оцінювати кандидатів та планувати з ними співбесіди. Фактично, ІІ розширює можливості працівників такою безпрецедентною мірою, що трепет перед його можливостями іноді затьмарює потенційну небезпеку, яку він може становити на робочому місці.

Що це за погрози? Деякі можуть розглядати ІІ як неупереджену, доброзичливу силу, яка служить усім нам у роботі, але етичні міркування, пов'язані з розробкою та впровадженням ІІ, не мають широкої поваги, не кажучи вже про те, щоб вони були визначені. Для роботодавців, що діють із кращих спонукань, впровадження автоматизації на робочому місці пов'язане з ризиком несприятливих наслідків, якщо вони не вивчать наслідки впровадження ІІ у свої процеси. Більше того, етична реалізація ІІ також залежить від користувачів та від того, як вони планують використовувати ІІ у своїй роботі.

Можливо, ви чули про зростаючу стурбованість з приводу використання ІІ в процесі набору персоналу. Однією з найбільш тривожних проблем є потенційні упередженості, закладені у технологіях на основі штучного інтелекту, що використовуються для перевірки, співбесід, оцінки та найму працівників. Ці побоювання не обмежуються набором персоналу. Дійсно, рівень занепокоєння з приводу справедливого розвитку ІІ спонукав більше десятка членів Організації економічного співробітництва та розвитку (ОЕСР) прийняти міжнародні стандарти, щоб гарантувати, що системи ІІ є справедливими, безпечними, заслуговують на довіру та надійними.

Як заявив генеральний секретар ОЕСР Анхель Гурріа, оголошуючи про прийняття стандартів цього року, ІІ змінює суспільство, «створюючи нові проблеми та викликаючи стурбованість та етичні питання». У рамках глобальної кампанії щодо заспокоєння страхів та сумнівів ОЕСР окреслила, що урядам усього світу необхідно зробити для розробки більш комплексної стратегії розвитку справедливих та прозорих систем штучного інтелекту.

Хоча ці зусилля продовжуються, за іронією долі, дедалі більше компаній використовують ІІ, щоб мінімізувати упередженість у процесах підбору персоналу. Більшість організацій усвідомлюють, що упередженість може виникнути практично кожному етапі набору персоналу. Незалежно від того, як структуровані посадові інструкції, як проводяться співбесіди або як працює процес розгляду заяв та резюме, несвідома та явна упередженість може виявлятися по-різному. Сьогодні ІІ використовується для маскування голосів та зовнішнього вигляду претендентів на роботу та допомагає компаніям розробляти більш інклюзивні оголошення про вакансії та розширювати пул кандидатів для підвищення різноманітності.

Хоча ІІ може допомогти компаніям мінімізувати упередженість, алгоритми, що використовуються для цього, також можуть бути за своєю суттю упередженими. Мередіт Віттакер, співзасновник AI Now Institute, підкреслює, що «ІІ не є неупередженим чи нейтральним. Коли йдеться про системи, що використовуються для автоматизації пошуку та найму кандидатів, ми повинні запитати себе: які припущення про цінності, навички та потенціал відображаються та відтворюються цими системами? Хто приймав рішення під час кодування цих припущень?»

Однією з найважливіших проблем є забезпечення належного управління даними, використовуваними системами ІІ, оскільки можуть бути основним чинником створення упереджених алгоритмів. Вкрай важливо, щоб компанії були інклюзивними при зборі даних, що вимірюються шляхом маркування інформації, і щоб вони мали різноманітну команду, яка приймає рішення про дані та про те, які показники будуть використовуватися для створення ІІ. Це лише деякі з дій, спрямованих на створення більш етичної та справедливої ​​системи на основі ІІ.

В даний час інструменти для мінімізації упередженості пропонують багато розробників HR-рішень, тому вибір правильних інструментів для впровадження рекрутингової діяльності може стати проблемою для роботодавців. Більше того, як компанія може гарантувати, що обрана нею система ІІ вирішить проблему упередженості щодо певної групи, наприклад, гендерної нерівності серед її співробітників? За іронією долі, на думку Фріди Поллі, виконавчого директора Pymetrics, компанії, яка виробляє технології оцінки на основі штучного інтелекту, відповіддю на питання про виправлення упередженостей, закладених у алгоритми, можуть бути… алгоритми.

Вона пояснила, що якщо компанія зрозуміє, що її системи підбору персоналу на основі штучного інтелекту, наприклад, наймають менше жінок, алгоритми можуть бути змінені, щоб враховувати упередженості під час пошуку чи оцінки. Важливим питанням є те, чи має доступ до цих алгоритмів бути відкритим, щоб процес розробки був прозорим.

Вимірювання та мінімізація упередженості — важливий етичний аспект ІІ, оскільки він є основою відповідального використання технологій з метою підбору персоналу. Однак також дуже важливо враховувати ширші етичні міркування щодо ІІ, наприклад, розроблені Інститутом етичного ІІ та машинного навчання, які включають поінформованість про ризики даних та проблеми конфіденційності. Ваша компанія також може розглянути можливість розробки власної політики в галузі ІІ та створення комітету з етики ІІ, щоб забезпечити послідовне дотримання цієї політики.

Концепції, що лежать в основі цих принципів, не є новими, але в міру того, як все більше компаній впроваджують системи штучного інтелекту для покращення процесів підбору персоналу, керівники HR завжди повинні пам'ятати про можливі наслідки впровадження такого типу технологій на робочому місці. Незалежно від того, чи пом'якшують вони побоювання з приводу скорочення штату за рахунок підвищення кваліфікації чи перекваліфікації, чи роблять додаткові кроки для захисту конфіденційності співробітників та кандидатів, ІІ не може бути впроваджено на основі сліпої віри. У вас завжди має бути стратегія та план дій, які забезпечують практичне та етичне використання технологій, що використовуються сьогодні та в майбутньому.

[ad_2]
Як повідомляє: RANDSTAD (Польща)

Метки:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Заполните поле
Заполните поле
Пожалуйста, введите корректный адрес email.
Вы должны согласиться с условиями для продолжения