Логотип TalentTech
🔥 Как увеличить конверсию на каждом этапе воронки подбора? Расскажем на вебинаре 17 июня →
подписаться на рассылку

Как использовать ИИ в HR этично: 4 важных вопроса для рекрутеров и HR-специалистов

Как применять искусственный интеллект в HR и рекрутинге без риска дискриминации, потери данных или снижения конверсии, читайте в статье.


ИИ в HR

В материале от экспертов «Потока» вы также узнаете какие профессии исчезнут из-за ИИ, как бороться с предвзятостью алгоритмов, защищать авторство и эффективно внедрять ИИ-агентов в процессы найма. Чтобы не пропустить ничего важного, обязательно подпишитесь на нашу рассылку.

Максим Королев
директор по продуктам направления «Подбор» HR Tech-компании «Поток».

О чем в статье? 

  • Влияние ИИ на рынок труда – какие профессии исчезнут, а какие появятся?
  • Этические риски ИИ в рекрутинге – как не допустить дискриминации при найме?
  • Авторские права и ИИ в HR – что учесть?
  • ИИ-аналитика в HR – как не потерять контроль и прозрачность?
  • Этика ИИ в HR — это не страшно, если подходить ответственно

Влияние ИИ на рынок труда – какие профессии исчезнут, а какие появятся?

Одним из самых заметных последствий внедрения искусственного интеллекта становится влияние ИИ на занятость. В ближайшие 3–5 лет могут исчезнуть целые категории должностей, особенно технических и текстовых.

Что может исчезнуть?

Благодаря LLM (Large Language Models), способным обрабатывать, интерпретировать и генерировать текст, находятся под угрозой профессии, чья основная продукция — текстовые документы: презентации, официальные письма, части кода и т. д. Это касается офисных работников, простых задач в разработке ПО, а также тестировщиков и тех, кто работает с текстом.

В IT сфера затронет позиции, связанные с базовым программированием и тестированием — ИИ может выполнять эти задачи быстрее и дешевле. Также под угрозой окажутся дизайнеры, работающие с изображениями и видео, поскольку ИИ способен генерировать визуальный контент.

В HR под ударом окажется вся работа с текстом: составление вакансий, написание сообщений кандидатам, формирование отчетов по собеседованиям. Например, у нас в компании «Поток» ставится задача к концу года полностью автоматизировать рекрутерскую работу с текстом.

Что сохранится?

ИИ пока слаб в широком понимании контекста, культурной специфики и стратегического подхода. Сохранятся верхнеуровневые задачи, требующие креативности, аналитики и понимания tone of voice. То же самое касается HR: роль HR-специалиста будет меняться, превращаясь в «консьержа по подбору», символ того, что компания ценит своих сотрудников.

Также важно развитие нового навыка — умение использовать и оркестрировать ИИ-агентов в HR-процессах. Уже сейчас в «Потоке» внедряются ИИ-агенты для работы с текстами, аналитикой и поиском, а сотрудникам даются тренинги и материалы для освоения этих технологий.

Этические риски ИИ в рекрутинге — как не допустить дискриминации при найме?

Еще один важный этический вопрос — объективность ИИ. На первый взгляд, алгоритмы могут казаться беспристрастными, но на деле они зависят от качества данных, на которых обучались.

В мировой практике появляются законодательные стандарты по использованию AI. Например, международный стандарт ISO 42001 или Закон ЕС об искусственном интеллекте (AI Act). Оба документа регулируют использование ИИ. В них закреплены похожие критерии этичного использования Al: 

  • ИИ должен быть прозрачный и объяснимый; 
  • человек должен быть в цепочке принятия решений;
  • должны проводиться независимые аудиты качества решений ИИ.

В России пока нет закрепленных норм использования искусственного интеллекта, но в ближайшие пару лет они, скорее всего, появятся. На наш взгляд, вероятнее всего нормы будут схожи с регулированием по информационной безопасности: вендоры ИИ будут проходить сертификацию, независимые аудиторы проверять, и так далее.

Поэтому компаниям вендорам ИИ уже сейчас стоит посмотреть на международные стандарты использования искусственного интеллекта, и быть готовыми внедрять подобные нормативы. А компаниям-покупателям также нужно понимать, что этичность использования ИИ будет регламентирована, и готовиться проверять этот критерий и прописывать его в закупках. 

Как ИИ может дискриминировать?

Если данные содержат историческую предвзятость (например, раньше чаще нанимали мужчин), то ИИ будет повторять эти ошибки. Наглядный пример — алгоритм Amazon, который в 2023 году снижал рейтинг резюме с упоминанием женского образования или хобби.

Как бороться с предвзятостью?

  1. Проверять соотношение нанятых —  следить насколько объективно ИИ оценивает кандидатов, и нет ли перекоса, основанного не на профессиональных качествах соискателя.
  2. Не исключать человека из процесса подбора — ИИ должен быть помощником, а не единственным решением.
  3. Не передавать ИИ лишних данных — если пол, возраст или город проживания не важны, не стоит указывать их в системе.

Например, в «Поток Рекрутменте» используется система скоринга, которая оценивает навыки кандидатов, но игнорирует пол и возраст. Эти данные намеренно не отправляются в ИИ.

Авторские права и ИИ в HR – что учесть?

С появлением ИИ в HR-коммуникациях возникает новый правовой вопрос: кто является автором контента, созданного с помощью искусственного интеллекта? Ответ зависит от типа контента, который вы создаете, и целей, для которых вы используете полученный результат.

Варианты использования ИИ в работе с текстами:

  1. Обучение ИИ на ваших данных — например, на текстах резюме, вакансий, сообщений. Это позволяет адаптировать ИИ под стиль вашей компании. Здесь вопрос авторства не так принципиален, в силу формата текстов: вакансии, не экспертные статьи.
  2. Создание персонализированных сообщений — как в случае с GPT: берём текст вакансии и резюме и создаём уникальное письмо, где вакансия описывается через призму интересов кандидата. Здесь вопрос авторства становится менее актуальным.
  3. Использование LLM, обученных на открытых или лицензированных данных — такие модели появляются всё чаще, особенно в США, и скоро будут доступны и в России. Тут тексты используются для обучения, а не переписывания.

Важно помнить: если вы используете западные решения, они могут не соответствовать требованиям ФЗ о персональных данных. Лучше выбирать платформы, которые гарантируют хранение данных на российских серверах.

ИИ-аналитика в HR – как не потерять контроль и прозрачность?

HR-аналитика с применением ИИ открывает новые возможности, но также несёт риски, связанные с прозрачностью, конфиденциальностью и точностью оценок.

Что можем получить?

  •       Лучшая оценка кандидатов: как показал опыт «Альфа-банка», ИИ мог анализировать кандидатов по «похожести» на финалистов и успешно предсказывать эффективность найма.
  •       Прогнозирование оттока и выгорания: ИИ может выявлять признаки эмоционального выгорания на ранних этапах, анализируя коммуникации, активность в корпоративных системах и результаты опросов.

Основные риски и как с ними бороться:

  •       Непрозрачность: ИИ не всегда объясняет свои решения. Для борьбы с этим используют кросс-валидацию и включение человека в цикл принятия решений.
  •       Отсутствие приватности: ИИ может по текстам и видео распознавать депрессию, неврологические особенности и другие данные, которые не должны быть известны. С этим сложно бороться, но можно ограничивать сбор информации.
  •       Ошибка в интерпретации данных: даже при высоком качестве данных выводы могут быть субъективными. Например, низкая посещаемость мероприятий может быть ошибочно воспринята как низкая вовлечённость, хотя на самом деле сотрудник просто занят проектом.

Этика ИИ в HR — это не страшно, если подходить ответственно

ИИ меняет мир HR, делая его более технологичным, масштабируемым и быстрым. Однако вместе с этим растёт и ответственность за этичное использование технологий.

Ключевые принципы, которые должны соблюдать рекрутеры и HR-специалисты:

  • не бояться ИИ, а учиться с ним работать;
  • не забывать о человеке в центре процесса;
  • учитывать этические аспекты: предвзятость, защиту данных, авторство;
  • ориентироваться на международные стандарты по использованию ИИ: международный стандарт ISO 42001 или Закон ЕС об искусственном интеллекте (AI Act);
  • выбирать надёжные платформы, соответствующие требованиям законодательства;
  • развивать цифровую грамотность команды и внедрять ИИ-инструменты осознанно.

ИИ — это не замена HR, а его мощный союзник. Главное — использовать его правильно.

Текст проверила Анна Александрова, главный редактор блога «Поток»

Статья выпущена в июне 2025 года