Подбор персонала через ПО: этические проблемы

Рубрика:
Подбор персонала
||
Подбор персонала через ПО: этические проблемы
Как программа найма может быть предвзятой (и что с этим делать)

Все мы видели роль, которую искусственный интеллект (ИИ) может играть в нашей повседневной жизни. Часто это кажется безобидным. Вы вводите вопрос в Google, и он автоматически дает ответ. Иногда Google делает это правильно, а иногда — нет. Если Google ошибается, вам просто нужно переформулировать запрос. Может быть, это займет несколько лишних секунд вашего дня, но в этом нет ничего страшного.

Однако, когда подбор персонала строится на программном обеспечении, последствия неправильного использования ИИ гораздо более серьезны. Это может быть разница между резюме кандидата, попадающим на стол рекрутера, ведущим к собеседованию и, возможно, предложением о работе — или попаданием в стопку отказов до того, как рекрутер его увидел.

На Open Forum 2021 собралось несколько талантливых профессионалов и идейных лидеров, чтобы изучить роль предвзятости и этики при найме с использованием программного обеспечения. Президент и соучредитель Greenhouse Джон Стросс модерировал панельную дискуссию с Джоном Самсером, основателем и главным аналитиком HR Examiner, Моной Халил, старшим научным сотрудником Greenhouse, и Рихамом Сатти, генеральным директором и соучредителем MeVitae.

Почему в технологиях может появляться предубеждение

Почему в технологиях может появляться предубеждение

Заманчиво думать, что технологии нейтральны и могут помочь нам преодолеть предвзятость. Но правда в том, что ИИ так же подвержен предубеждениям, как и люди, которые его создают. Мона Халил объясняет: «Когда мы говорим об ИИ, мы говорим о моделях, которые построены на основе уже существующих данных. Алгоритм, который принимает решение за вас, не появляется из ниоткуда — он обучается на основе набора ранее существовавших данных, которые содержат записи о человеческих решениях».

Модель оценки соответствия кандидат требованиям будет учитывать прошлые решения, по которым проходил подбор персонала. Поскольку эти решения могут быть существенно предвзятыми, алгоритм, обученный им, будет воссоздавать и потенциально усиливать эти предубеждения.

Почему мы встраиваем эти предубеждения в наше программное обеспечение, даже если это непреднамеренно? Рихам напоминает нам, что предубеждения — это умственные шаблоны, которые мы все используем.

«Наш мозг должен обрабатывать различную информацию и стимулы, поэтому он помещает вещи в ячейки, чтобы иметь возможность обрабатывать быстрее, и здесь возникают предубеждения».

Существует более 140 когнитивных предубеждений, таких как предвзятость ради подтверждения первоначального впечатления (разновидность «эффекта ореола»), которые влияют на принятие решений. «Мы никогда не сможем устранить предубеждения в человеческом мозгу, но мы можем попытаться смягчить или отложить их в максимально возможной степени», — говорит Рихам.

Что нужно знать о программном обеспечении для найма на основе ИИ

Что нужно знать о программном обеспечении для найма на основе ИИ

Сегодня искусственный интеллект, положенный в основу ПО для подбора персонала, похож на техническую оснащенность первых автомобилей. Когда автомобили только разрабатывались, не было ни ремней безопасности, ни подушек безопасности. Со временем мы научились делать автомобили безопаснее. Используя ИИ в HR-технологиях, мы должны убедиться, что мы одинаково справедливо рассматриваем всех кандидатов, а люди, которых мы выбираем, подходят для нашей организации.

«Технология слишком примитивна, чтобы позволить ей принимать какое-либо значимое решение о человеке».

Поэтому мнение машины нужно воспринимать как подсказку, а не основывать на нем подбор персонала.

Это не значит, что вы не можете использовать ИИ. Вы должны проверить свою технологию. Вы должны понять, какие данные используются, когда машина принимает решение, и почему она принимает эти решения.

Советы по работе с поставщиками программного обеспечения на базе ИИ:

Существует ряд способов, которые позволяют проверять справедливость ваших моделей среди различных групп. Вот несколько вопросов, которые можно задать поставщику ПО, автоматизирующего подбор персонала:

  • Регулярно ли вы проверяете свои данные по разным группам (особенно таким, как пол, расовые и этнические меньшинства, люди, люди, которые подают заявки из других регионов)?
  • Какие данные вы использовали для построения модели и ее первоначального обучения?
  • Для кандидатов из разных демографических групп имеются схожие соответствия с моделью?
  • Существуют ли группы, которые оказываются в невыгодном положении после запуска на них алгоритма сопоставления?

ЧИТАЙТЕ нашу другую статью о рисках, которые нужно учитывать при подборе новых сотрудников

ПЛОХОЙ ПОДБОР ПЕРСОНАЛА ОБХОДИТСЯ ДОРОГО

ПЛОХОЙ ПОДБОР ПЕРСОНАЛА ОБХОДИТСЯ ДОРОГО

Что дальше?

Заглядывая в будущее, мы видим законодательство, которое также может повлиять на то, как компании могут использовать ИИ. Европейский союз рассматривает политику, аналогичную GDPR (General data protection regulation – регламент по защите данных), которая может позволить кандидатам запрашивать, какая информация обрабатывается и как она используется.

Городской совет Нью-Йорка также рассматривает законопроект, который потребует от компаний раскрытия всех алгоритмов и автоматизированных систем, используемых для оценки кандидата, когда идет подбор персонала.

Независимо от того, будут ли эти законодательные акты приняты или нет, мы ожидаем, что в будущем потребуется гораздо больше ясности и прозрачности в отношении того, как принимаются решения о приеме на работу.

По материалам https://www.greenhouse.io

Метки:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Заполните поле
Заполните поле
Пожалуйста, введите корректный адрес email.
Вы должны согласиться с условиями для продолжения

Меню