[ad_1]
Дуже інтенсивний та динамічний розвиток штучного інтелекту (ІІ), який ми спостерігаємо в останні роки, відкрив компаніям безліч нових можливостей для впровадження інновацій. Однак так само швидко, як розвиваються технології штучного інтелекту, виникають питання та дилеми щодо його впливу на економіку, суспільство та ринок праці, оскільки ІІ починає відігравати все більш значну роль у процесах виробництва, маркетингу та підбору персоналу. Саме тому все більше країн світу вирішують запровадити правове регулювання використання та подальшого розвитку рішень на основі штучного інтелекту. Такі правила здаються необхідними з кількох причин. Серед іншого, щоб надати користувачам відповідний рівень безпеки, запобігти зловживанням, забезпечити прозорість нових рішень та гарантувати, що системи штучного інтелекту розробляються та впроваджуються етично та відповідно до чинного законодавства. Як це досягається?
Давайте докладніше розглянемо деякі рішення щодо правового підходу до ІІ, у тому числі з точки зору HR.

як Європа сьогодні регулює питання, пов’язані з ІІ.
Сьогодні Європу можна вважати піонером у законодавчій роботі з етичного, прозорого та безпечного розвитку, впровадження та використання ІІ. Найбільш інтенсивна та значуща робота у цьому напрямі ведеться у структурах Євросоюзу.
Нині найважливішим документом ЄС, пов’язаним із розвитком штучного інтелекту, є Закон про штучний інтелект, запропонований Європейською комісією у 2021 році. 13 березня 2024 року Європейський парламент ухвалив регламент про штучний інтелект.
Закон ЄС про штучний інтелект — це перша спроба всебічного регулювання цієї технології у великих масштабах. Документ класифікує системи штучного інтелекту, які продаються, пропонуються або вводяться в експлуатацію на ринку ЄС за рівнем ризику, пов’язаного з їх використанням. Це 4 категорії:
- неприйнятний ризик. Це включає: когнітивно-поведінкові маніпуляції людьми (наприклад, іграшки, що активуються голосом, які спонукають дітей до небезпечної поведінки), системи біометричної ідентифікації та категоризації (наприклад, розпізнавання осіб у реальному часі), підсвідомі маніпуляції або соціальний рейтинг (наприклад, бальна класифікація) людей на основі їх особистих якостей). Характеристики );
- високий ризик. Це використання ДІ, яке може порушувати фундаментальні права людини, наприклад, при наймі та працевлаштуванні, забезпеченні правопорядку, питаннях, пов’язаних з міграцією, освітою, фінансами та страхуванням, або при застосуванні та тлумаченні закону;
- середній ризик. Це, серед іншого, дипфейки, ChatGPT або спілкування з чат-ботами;
- мінімальний ризик. Це включає: антиспам-фільтри.
Залежно від категорії, яку одержує ця система, ЄС передбачає три стратегії дій. Систему можуть заборонити в ЄС, до неї можуть пред’явити додаткові вимоги або користувачів, які її використовують, можливо, доведеться інформувати про те, що вони взаємодіють з ІІ.
Майбутні зміни є важливими і з точки зору HR-процесів на підприємствах. Це означає, що коли закон набуде чинності, деякі системи штучного інтелекту, які використовуються при наборі персоналу, наприклад, інструменти автоматичного відбору кандидатів, можуть бути віднесені до рішень високого ризику і, як наслідок, навіть заблоковані. Хоча подробиці поки що не відомі, ми можемо очікувати, що використання ІІ при наборі персоналу регулюватиметься суворими правилами, такими як необхідність реєстрації такої діяльності та ведення докладної документації, а також приділити велику увагу людському контролю за процесом. .
США без єдиних правил ІІ.
У Сполучених Штатах правила використання штучного інтелекту досі розвиваються. Власні законодавчі ініціативи у цій галузі роблять як федеральний уряд, і влади окремих штатів. Цікаво, що федеральний уряд тут часто застосовує галузевий підхід, зосереджуючись на застосуванні ІІ у конкретних галузях та цілях. Наприклад, у травні 2023 року Комісія з рівних можливостей працевлаштування (EEOC) випустила посібник із використання інструментів штучного інтелекту в процесах найму персоналу. Відповідно до цих рекомендацій, роботодавці повинні, серед іншого, стежити за тим, щоб використання інструментів штучного інтелекту при доборі персоналу не призводило до дискримінації за ознакою походження, статі, релігії чи кольору шкіри кандидатів.
А в лютому 2023 року Національний інститут стандартів та технологій (NIST) представив свою систему управління ризиками ІІ. Ці рекомендації не є обов’язковими, але мають допомогти організаціям краще управляти ризиками, пов’язаними з використанням інструментів на основі ІІ. У документі вказані характеристики, якими повинні володіти варті довіри системи штучного інтелекту: безпека, зрозумілість, захист конфіденційності, чесність, відповідальність та надійність.
Важливим кроком на шляху створення подальших правил безпечного та надійного розвитку штучного інтелекту в США є указ президента Байдена, виданий у жовтні 2023 року. Однією з керівних вказівок, включених до цього Наказу, є заклик до розробки стандартів автентифікації контенту та використання передових інструментів кібербезпеки в контексті ІІ. Він також наголошує на важливості захисту конфіденційності, просування рівності та цивільних прав, а також підтримки співробітників у процесі змін, викликаних штучним інтелектом.
цікаві підходи до ІІ в інших частинах світу.
Сьогодні не лише Європа та США докладають зусиль щодо законодавчого регулювання найважливіших питань, пов’язаних з ІІ. Сьогодні ми також можемо спостерігати подібну діяльність у інших частинах світу.
Наприклад, підхід до регулювання ІІ, прийнятий у Японії, можна охарактеризувати як мистецтво балансування між двома підходами. На відміну від Європейського Союзу, який прийняв більш суворі правила, Японія надає перевагу більш м’яким правилам і прагне знайти баланс між підтримкою інновацій та захистом безпеки та конфіденційності своїх громадян.
У свою чергу, Австралійська комісія з прав людини (AHRC) нещодавно зазначила, що зростаюче використання інструментів на основі штучного інтелекту незабаром може становити загрозу правам людини – особливо в тих випадках, коли ІІ використовується спільно з рішеннями в галузі нейротехнологій, доповнених реальністю або метавсесвітом. І хоча в Австралії вже є кілька законодавчих актів, які регулюють використання штучного інтелекту за певних умов чи обставин, Комісія виступає за негайні нормативні заходи для захисту прав своїх громадян.

як нормативні акти державному рівні.
Щоб нові правила та рекомендації щодо використання ІІ в бізнесі дали очікуваний ефект і справді допомогли усунути пов’язані з цим небезпеки, випадки неправомірного використання та етичні дилеми, потрібен ще один елемент: конкретні дії компаній. Підприємствам тепер слід задуматися не лише про виконання рекомендацій державних органів щодо законного та етичного використання ІІ в бізнесі, але також розробити та впровадити власні нормативні акти у цій галузі, адаптовані до ринкового середовища та специфіки діяльності.
У Randstad ми опублікували наші принципи штучного інтелекту ще у 2019 році. Вони доповнюють наші основні цінності та відповідають нашим принципам ведення бізнесу. Вони викладають прагнення Randstad у цій галузі та визначають нашу відданість відповідальному використанню ІІ. Ми розглядаємо їх як живий документ, який ми змінюватимемо з розвитком технологій штучного інтелекту. Відповідно до цих принципів ми регулярно перевіряємо наші рішення за допомогою штучного інтелекту та перевіряємо їх на предмет упередженості та етичного аналізу даних. Ми також беремо активну участь у Всесвітній конфедерації зайнятості – організації лідерів HR-індустрії. У рамках цього членства ми беремо участь у роботі над набором універсальних принципів, які повинні виконувати HR-компанії при впровадженні інструментів на основі штучного інтелекту. Ці принципи включають: необхідність ставити людей у центр уваги, рівність, справедливість, недискримінацію, різноманітність, інклюзивність, конфіденційність та забезпечення зрозумілості та прозорості алгоритмів, що використовуються для прийняття рішень про прийом на роботу.
Враховуючи природу ІІ, що розвивається, ці правила згодом адаптуватимуться до мінливих обставин. Подібного підходу варто очікувати і від законодавців, адже швидкий розвиток технологій означає, що закон не встигає за новітніми рішеннями. А це вимагає від урядів та підприємців постійно тримати руку на пульсі та дуже оперативно реагувати на кожну зміну.
Дізнатися більше.
Дізнайтеся, як штучний інтелект формує сучасний ринок праці, як відповідально та етично використовувати ІІ у процесах управління персоналом та як Randstad гарантує, що штучний інтелект підтримує створення стійкого та відповідального робочого середовища. Погляньте на останній звіт Randstad «Ринок праці та штучний інтелект. Причина занепокоєння чи можливість?

Як повідомляє: RANDSTAD (Польща)






