
Спасибо, что вы с нами!
В материале от экспертов «Потока» вы также узнаете какие профессии исчезнут из-за ИИ, как бороться с предвзятостью алгоритмов, защищать авторство и эффективно внедрять ИИ-агентов в процессы найма. Чтобы не пропустить ничего важного, обязательно подпишитесь на нашу рассылку.
О чем в статье?
- Влияние ИИ на рынок труда – какие профессии исчезнут, а какие появятся?
- Этические риски ИИ в рекрутинге – как не допустить дискриминации при найме?
- Авторские права и ИИ в HR – что учесть?
- ИИ-аналитика в HR – как не потерять контроль и прозрачность?
- Этика ИИ в HR — это не страшно, если подходить ответственно
Влияние ИИ на рынок труда – какие профессии исчезнут, а какие появятся?
Одним из самых заметных последствий внедрения искусственного интеллекта становится влияние ИИ на занятость. В ближайшие 3–5 лет могут исчезнуть целые категории должностей, особенно технических и текстовых.
Что может исчезнуть?
Благодаря LLM (Large Language Models), способным обрабатывать, интерпретировать и генерировать текст, находятся под угрозой профессии, чья основная продукция — текстовые документы: презентации, официальные письма, части кода и т. д. Это касается офисных работников, простых задач в разработке ПО, а также тестировщиков и тех, кто работает с текстом.
В IT сфера затронет позиции, связанные с базовым программированием и тестированием — ИИ может выполнять эти задачи быстрее и дешевле. Также под угрозой окажутся дизайнеры, работающие с изображениями и видео, поскольку ИИ способен генерировать визуальный контент.
В HR под ударом окажется вся работа с текстом: составление вакансий, написание сообщений кандидатам, формирование отчетов по собеседованиям. Например, у нас в компании «Поток» ставится задача к концу года полностью автоматизировать рекрутерскую работу с текстом.
Что сохранится?
ИИ пока слаб в широком понимании контекста, культурной специфики и стратегического подхода. Сохранятся верхнеуровневые задачи, требующие креативности, аналитики и понимания tone of voice. То же самое касается HR: роль HR-специалиста будет меняться, превращаясь в «консьержа по подбору», символ того, что компания ценит своих сотрудников.
Также важно развитие нового навыка — умение использовать и оркестрировать ИИ-агентов в HR-процессах. Уже сейчас в «Потоке» внедряются ИИ-агенты для работы с текстами, аналитикой и поиском, а сотрудникам даются тренинги и материалы для освоения этих технологий.
Этические риски ИИ в рекрутинге — как не допустить дискриминации при найме?
Еще один важный этический вопрос — объективность ИИ. На первый взгляд, алгоритмы могут казаться беспристрастными, но на деле они зависят от качества данных, на которых обучались.
В мировой практике появляются законодательные стандарты по использованию AI. Например, международный стандарт ISO 42001 или Закон ЕС об искусственном интеллекте (AI Act). Оба документа регулируют использование ИИ. В них закреплены похожие критерии этичного использования Al:
- ИИ должен быть прозрачный и объяснимый;
- человек должен быть в цепочке принятия решений;
- должны проводиться независимые аудиты качества решений ИИ.
В России пока нет закрепленных норм использования искусственного интеллекта, но в ближайшие пару лет они, скорее всего, появятся. На наш взгляд, вероятнее всего нормы будут схожи с регулированием по информационной безопасности: вендоры ИИ будут проходить сертификацию, независимые аудиторы проверять, и так далее.
Поэтому компаниям вендорам ИИ уже сейчас стоит посмотреть на международные стандарты использования искусственного интеллекта, и быть готовыми внедрять подобные нормативы. А компаниям-покупателям также нужно понимать, что этичность использования ИИ будет регламентирована, и готовиться проверять этот критерий и прописывать его в закупках.
Как ИИ может дискриминировать?
Если данные содержат историческую предвзятость (например, раньше чаще нанимали мужчин), то ИИ будет повторять эти ошибки. Наглядный пример — алгоритм Amazon, который в 2023 году снижал рейтинг резюме с упоминанием женского образования или хобби.
Как бороться с предвзятостью?
- Проверять соотношение нанятых — следить насколько объективно ИИ оценивает кандидатов, и нет ли перекоса, основанного не на профессиональных качествах соискателя.
- Не исключать человека из процесса подбора — ИИ должен быть помощником, а не единственным решением.
- Не передавать ИИ лишних данных — если пол, возраст или город проживания не важны, не стоит указывать их в системе.
Например, в «Поток Рекрутменте» используется система скоринга, которая оценивает навыки кандидатов, но игнорирует пол и возраст. Эти данные намеренно не отправляются в ИИ.
Авторские права и ИИ в HR – что учесть?
С появлением ИИ в HR-коммуникациях возникает новый правовой вопрос: кто является автором контента, созданного с помощью искусственного интеллекта? Ответ зависит от типа контента, который вы создаете, и целей, для которых вы используете полученный результат.
Варианты использования ИИ в работе с текстами:
- Обучение ИИ на ваших данных — например, на текстах резюме, вакансий, сообщений. Это позволяет адаптировать ИИ под стиль вашей компании. Здесь вопрос авторства не так принципиален, в силу формата текстов: вакансии, не экспертные статьи.
- Создание персонализированных сообщений — как в случае с GPT: берём текст вакансии и резюме и создаём уникальное письмо, где вакансия описывается через призму интересов кандидата. Здесь вопрос авторства становится менее актуальным.
- Использование LLM, обученных на открытых или лицензированных данных — такие модели появляются всё чаще, особенно в США, и скоро будут доступны и в России. Тут тексты используются для обучения, а не переписывания.
Важно помнить: если вы используете западные решения, они могут не соответствовать требованиям ФЗ о персональных данных. Лучше выбирать платформы, которые гарантируют хранение данных на российских серверах.
ИИ-аналитика в HR – как не потерять контроль и прозрачность?
HR-аналитика с применением ИИ открывает новые возможности, но также несёт риски, связанные с прозрачностью, конфиденциальностью и точностью оценок.
Что можем получить?
- Лучшая оценка кандидатов: как показал опыт «Альфа-банка», ИИ мог анализировать кандидатов по «похожести» на финалистов и успешно предсказывать эффективность найма.
- Прогнозирование оттока и выгорания: ИИ может выявлять признаки эмоционального выгорания на ранних этапах, анализируя коммуникации, активность в корпоративных системах и результаты опросов.
Основные риски и как с ними бороться:
- Непрозрачность: ИИ не всегда объясняет свои решения. Для борьбы с этим используют кросс-валидацию и включение человека в цикл принятия решений.
- Отсутствие приватности: ИИ может по текстам и видео распознавать депрессию, неврологические особенности и другие данные, которые не должны быть известны. С этим сложно бороться, но можно ограничивать сбор информации.
- Ошибка в интерпретации данных: даже при высоком качестве данных выводы могут быть субъективными. Например, низкая посещаемость мероприятий может быть ошибочно воспринята как низкая вовлечённость, хотя на самом деле сотрудник просто занят проектом.
Этика ИИ в HR — это не страшно, если подходить ответственно
ИИ меняет мир HR, делая его более технологичным, масштабируемым и быстрым. Однако вместе с этим растёт и ответственность за этичное использование технологий.
Ключевые принципы, которые должны соблюдать рекрутеры и HR-специалисты:
- не бояться ИИ, а учиться с ним работать;
- не забывать о человеке в центре процесса;
- учитывать этические аспекты: предвзятость, защиту данных, авторство;
- ориентироваться на международные стандарты по использованию ИИ: международный стандарт ISO 42001 или Закон ЕС об искусственном интеллекте (AI Act);
- выбирать надёжные платформы, соответствующие требованиям законодательства;
- развивать цифровую грамотность команды и внедрять ИИ-инструменты осознанно.
ИИ — это не замена HR, а его мощный союзник. Главное — использовать его правильно.
Спасибо, что вы с нами!
Текст проверила Анна Александрова, главный редактор блога «Поток»
Статья выпущена в июне 2025 года
Спасибо, что вы с нами!
Спасибо, что вы с нами!