Не та дикція — не та оцінка: як штучний інтелект може зруйнувати кар’єру ще до співбесіди

22:00, 25 травня 2025
Австралійське дослідження показало, що ШІ-системи під час співбесіди можуть занижувати оцінки кандидатам із акцентом або мовними особливостями.
Не та дикція — не та оцінка: як штучний інтелект може зруйнувати кар’єру ще до співбесіди
Фото: Getty Images
Слідкуйте за найактуальнішими новинами в наших групах Facebook та Telegram.

Застосування штучного інтелекту в процесі найму працівників може створювати ризики дискримінації, особливо для кандидатів із акцентом або з порушеннями мовлення. Про це йдеться у дослідженні, проведеному докторкою Наталі Шірд з Юридичної школи Університету Мельбурна, повідомляє The Guardian.

Відеоінтерв’ю з помилками

У TikTok останнім часом ширяться відео, де кандидати стикаються з помилками під час автоматизованих відеоінтерв’ю. Попри це, популярність таких систем зростає. Згідно зі звітом компанії HireVue, глобальне використання AI у рекрутингу зросло з 58% у 2024 році до 72% у 2025-му. В Австралії ці показники нижчі — приблизно 30%, однак очікується зростання в найближчі п’ять років.

Проблема — у «західних» даних

Шірд проаналізувала досвід 18 HR-фахівців, з яких 13 вже використовували штучний інтелект у підборі кадрів. Найпоширенішими виявилися системи аналізу резюме та автоматизовані відеоінтерв’ю.

Дослідниця застерігає: моделі AI часто навчають на обмежених датасетах, де домінують американські дані. Наприклад, одна з компаній, згадана в дослідженні, вказала, що лише 6% її навчальних даних походять з Австралії та Нової Зеландії, а 36% — це дані про білих кандидатів.

Також зазначено, що система має менше ніж 10% помилок при розпізнаванні англійської мови у США. Але при спілкуванні з людьми з акцентами, зокрема з Китаю, рівень помилок зростає до 12–22%.

«Більшість цих систем створюють у США, тому вони не враховують демографічні особливості Австралії», — пояснила Шірд.

Кандидати не розуміють, чому їх відкинули

Учасники опитування зазначили, що люди з іноземним акцентом або ті, хто має мовленнєві порушення, можуть бути неправильно оцінені алгоритмом. Деякі компанії зверталися до постачальників ПЗ за підтвердженнями, що їхні системи «розуміють акценти», однак доказів не надали.

Шірд також вказує на брак прозорості: навіть самі рекрутери часто не знають, чому алгоритм обрав або відкинув кандидата.

«Це проблема. У звичайному процесі кандидат може попросити зворотний зв’язок. Але з AI — навіть рекрутер не знає, як приймалося рішення», — сказала вона.

Попри те, що жодна справа про дискримінацію AI ще не дійшла до австралійського суду, подібні інциденти мають розглядатися в Комісії з прав людини Австралії.

Прецедент 2022 року

У 2022 році омбудсмен з питань добору кадрів скасував 11 рішень про підвищення у відомстві Services Australia, після того як з’ясувалося, що вони були ухвалені на основі ШІ-системи автоматичного добору. Вона включала психометричні тести, анкети та відеовідповіді, але, як з’ясувалося, не забезпечила справедливого відбору за професійними якостями.

Шірд закликала уряд Австралії розглянути ухвалення окремого закону про штучний інтелект, а також оновити антикорупційне та антидискримінаційне законодавство.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.  

Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Головне за день
Сьогодні день народження святкують
  • Олександр Карташов
    Олександр Карташов
    суддя Луганського апеляційного суду
  • Тетяна Стрелець
    Тетяна Стрелець
    суддя Великої палати Верховного Суду
  • Олена Фаріонова
    Олена Фаріонова
    заступник голови Миколаївського апеляційного суду