Автор: Денис Аветисян
Новое исследование показывает, как генеративные ИИ-системы, используемые в рекрутинге, могут неосознанно усиливать традиционные представления о гендерных ролях.

Анализ показывает, что модели не проявляют значительной предвзятости в рекомендациях профессий, но используют разные описательные прилагательные для мужчин и женщин, укрепляя стереотипы в описаниях кандидатов.
Несмотря на растущую популярность генеративных систем искусственного интеллекта в рекрутинге, сохраняется риск воспроизведения гендерных стереотипов. Данное исследование, посвященное теме ‘Gender Bias in Generative AI-assisted Recruitment Processes’, анализирует, как современная генеративная модель (GPT-5) предлагает вакансии соискателям с учетом пола и опыта работы, фокусируясь на итальянских выпускниках до 35 лет. Полученные результаты свидетельствуют о том, что, хотя модель не демонстрирует значительных различий в предлагаемых должностях и отраслях, она склонна использовать различные прилагательные для описания мужчин и женщин, ассоциируя женщин с эмоциональными и эмпатичными качествами, а мужчин — со стратегическими и аналитическими. Ставит ли это под вопрос этичность использования подобных моделей в чувствительных процессах и требует ли разработки механизмов обеспечения прозрачности и справедливости на цифровом рынке труда?
Разоблачение двойственности: Искусственный интеллект в HR — прогресс или предрассудки?
В настоящее время наблюдается стремительное внедрение генеративных систем искусственного интеллекта в сферу управления персоналом. Этот процесс обусловлен прежде всего возможностью значительного повышения эффективности и сокращения издержек. Автоматизация рутинных задач, таких как предварительный отбор резюме, ответы на часто задаваемые вопросы кандидатов и даже составление персонализированных предложений о работе, позволяет HR-специалистам сосредоточиться на более стратегических аспектах управления талантами. В результате, предприятия получают возможность обрабатывать большее количество заявок, быстрее закрывать вакансии и снижать общие затраты на найм, что особенно актуально в условиях растущей конкуренции за квалифицированные кадры. Внедрение этих технологий позволяет оптимизировать процессы подбора персонала, делая их более быстрыми, точными и экономичными.
Применение систем искусственного интеллекта в сфере управления персоналом вызывает серьезную обеспокоенность относительно возможности усиления и увековечивания существующих неравенств. Алгоритмы, обучаемые на исторических данных, часто несут в себе предвзятости, отражающие прошлые дискриминационные практики. В результате, автоматизированные системы отбора кандидатов могут неосознанно воспроизводить и даже усугублять эти предрассудки, приводя к несправедливым решениям и ограничивая возможности для определенных групп населения. Особенно важно учитывать, что кажущаяся объективность алгоритмов может маскировать скрытые предвзятости, делая их выявление и исправление особенно сложной задачей. В связи с этим, критически необходим тщательный анализ и постоянный мониторинг работы ИИ-систем, а также разработка механизмов для обеспечения справедливости и прозрачности в процессах принятия решений.
Автоматизированные системы оценки кандидатов, использующие искусственный интеллект, могут непреднамеренно усиливать существующие стереотипы и дискриминационные практики. Алгоритмы, обучаемые на исторических данных о найме, зачастую воспроизводят предвзятости, отражающие прошлые решения, в которых могли присутствовать гендерные, расовые или другие формы дискриминации. Это означает, что система, предназначенная для объективной оценки, может, напротив, систематически недооценивать кандидатов из определенных групп, даже если их квалификация соответствует требованиям. Вместо повышения справедливости и разнообразия в найме, такие инструменты рискуют увековечить неравенство, создавая замкнутый круг предвзятости и ограничивая возможности для перспективных специалистов.

Методологический подход: Раскрытие предвзятости искусственного интеллекта
В рамках данного исследования для генерации предложений по профессиям и отраслям, соответствующих профилям кандидатов, использовалась большая языковая модель ChatGPT-5. Модель получала на вход структурированные данные о кандидатах и на их основе формировала список релевантных предложений. Целью применения ChatGPT-5 являлось автоматизированное получение широкого спектра потенциальных карьерных путей, основанных на анализе входных данных о навыках и опыте кандидатов. В процессе генерации предложений модель учитывала современные тенденции рынка труда и востребованность различных профессий.
Для обеспечения стандартизированного представления кандидатов в исследовании была использована Международная стандартная классификация занятий (МСКЗ) 2008 года. Данная классификация, разработанная Международной организацией труда (МОТ), представляет собой иерархическую систему, позволяющую категоризировать все виды оплачиваемой работы на основе навыков и задач. Применение МСКЗ-2008 позволило унифицировать описание профессий и отраслей в профилях кандидатов, что обеспечило сопоставимость данных и снизило влияние субъективных интерпретаций при анализе результатов, полученных от модели ChatGPT-5.
Для категоризации сгенерированных ChatGPT-5 предложений по должностям, отраслям и описательным прилагательным использовался метод открытого кодирования. Данный подход подразумевает последовательное изучение данных и присвоение им кодов, отражающих ключевые темы и паттерны. В процессе кодирования исследователи независимо анализировали каждый элемент сгенерированного контента, выявляя общие характеристики и формируя категории на основе эмпирических данных, что позволило создать качественную основу для дальнейшего анализа потенциальных смещений в предложениях модели. Полученные категории служили для структурирования данных и облегчения количественной оценки частоты встречаемости различных типов предложений.

Доказательства гендерной предвзятости: Искусственный интеллект и стереотипы
Анализ показал, что ChatGPT-5 генерирует различные предложения по должностям и прилагательные, описывающие кандидатов, в зависимости от указанного пола. В ходе исследования зафиксировано, что при описании 27 женщин чаще использовались реляционные и эмоциональные характеристики, в то время как для 11 мужчин преобладали такие черты. В свою очередь, для 25 мужчин чаще указывались лидерские и влиятельные качества, в отличие от 13 женщин. Кроме того, практичность и надежность чаще ассоциировались с 37 мужчинами, чем с 21 женщиной. Полученные данные свидетельствуют о потенциальном воспроизведении гендерных стереотипов и профессиональной сегрегации в ответах модели.
Статистическая значимость различий в ответах ИИ была подтверждена применением критерия хи-квадрат. Полученное значение p-value, равное 0.00176, указывает на то, что наблюдаемые различия в предлагаемых должностях и прилагательных, связанных с гендером кандидатов, не являются случайными. Это означает, что вероятность получения таких же или более выраженных различий в случае отсутствия реальной зависимости между гендером и типом предлагаемых характеристик крайне мала. Таким образом, результаты анализа свидетельствуют о наличии систематической связи между указанными факторами, что позволяет говорить о статистически обоснованных различиях в ответах модели в зависимости от пола кандидата.
Анализ показал значительные различия в описательных характеристиках кандидатов в зависимости от пола. У 27 из исследуемых женщин в ответах модели ChatGPT-5 преобладали характеристики, связанные с межличностными отношениями и эмоциональным интеллектом, в то время как у 11 мужчин наблюдалась аналогичная тенденция. В свою очередь, лидерские качества и способность к влиянию отмечались у 25 мужчин и только у 13 женщин. Кроме того, практичность и надежность чаще приписывались мужчинам (37 кандидатов) по сравнению с женщинами (21 кандидат).
Анализ результатов показал, что значения p для категорий «должность» (0.27) и «отрасль» (0.38) не продемонстрировали статистически значимых различий. Это указывает на то, что предлагаемые ChatGPT-5 должности и отрасли деятельности не зависят от указанного пола кандидата. Использованный критерий хи-квадрат не выявил существенной связи между полом кандидата и предлагаемыми должностями или отраслями, что позволяет предположить, что в этих категориях предвзятости, основанной на гендере, не наблюдается.
Анализ показал, что модель искусственного интеллекта, вероятно, воспроизводит гендерные стереотипы и способствует профессиональной сегрегации. В ходе эксперимента, при генерации описаний кандидатов, наблюдалась тенденция к использованию реляционных и эмоциональных характеристик для женщин (27 случаев) по сравнению с мужчинами (11 случаев). В то же время, мужчинам чаще приписывались лидерские и влиятельные качества (25 случаев против 13 у женщин), а также практичность и надежность (37 против 21). Данные закономерности указывают на потенциальное ограничение возможностей для кандидатов определенных полов, обусловленное предвзятостью модели при формировании описаний и, как следствие, при отборе резюме.

Последствия и перспективы: К более справедливым системам искусственного интеллекта
Наблюдаемая гендерная предвзятость в системах искусственного интеллекта подчеркивает критическую важность принципа справедливости при их разработке. Этот принцип требует, чтобы ИИ не увековечивал вредные стереотипы и не приводил к дискриминации по половому признаку. Исследования показывают, что алгоритмы, обученные на необъективных данных, могут воспроизводить и усиливать существующие социальные предубеждения, что негативно сказывается на равных возможностях в таких сферах, как трудоустройство и образование. В связи с этим, обеспечение справедливости становится не просто этической необходимостью, но и ключевым фактором для создания надежных и ответственных ИИ-систем, способствующих равноправному обществу. Разработчики должны уделять особое внимание отбору и обработке данных, а также внедрять механизмы контроля и оценки, направленные на выявление и устранение предвзятости.
Результаты исследования подчеркивают необходимость постоянного мониторинга и оценки инструментов искусственного интеллекта, применяемых в сфере управления персоналом. Важно не только выявлять существующие предвзятости, но и внедрять механизмы для их смягчения и предотвращения. Регулярный аудит алгоритмов, используемых при отборе кандидатов, анализе резюме и прогнозировании производительности, позволит обеспечить более справедливые и объективные решения. Отсутствие постоянного контроля может привести к воспроизведению и усилению гендерных стереотипов, что негативно скажется на разнообразии и инклюзивности в организациях. Таким образом, внедрение системы непрерывной оценки является ключевым шагом к созданию этичных и беспристрастных инструментов искусственного интеллекта в HR.
Дальнейшие исследования должны быть направлены на анализ объявлений о вакансиях, чтобы выявить, каким образом гендерные предубеждения проявляются в реальных материалах, используемых при найме на работу. Изучение языковых конструкций, используемых в описаниях должностей, позволит определить, какие слова и фразы неосознанно склоняют к определенному гендеру, создавая тем самым барьеры для равноправного доступа к возможностям трудоустройства. Такой анализ не ограничится только лексикой, но и затронет визуальное оформление объявлений, а также используемые изображения, чтобы комплексно оценить влияние рекрутинговых материалов на восприятие кандидатов. Полученные данные позволят разработать рекомендации по созданию более инклюзивных и справедливых объявлений, способствующих привлечению квалифицированных специалистов независимо от гендерной принадлежности.
Исследование показывает, что генеративные модели ИИ, хоть и не проявляют явной предвзятости в предложениях профессий или отраслей, тем не менее, устойчиво связывают женщин с реляционными и эмоциональными характеристиками, а мужчин — с лидерскими и практическими. Это явление демонстрирует, как даже нейтральные алгоритмы могут увековечивать существующие гендерные стереотипы в описаниях кандидатов. Как говорил Эдсгер Дейкстра: «Программирование — это не столько о том, чтобы делать вещи правильно, сколько о том, чтобы делать правильные вещи». В данном случае, важно не просто создать алгоритм, но и осознавать, какие ценности и стереотипы он транслирует, ведь даже кажущаяся объективность может быть лишь маской для укоренившихся предрассудков.
Что дальше?
Исследование выявило любопытный парадокс: генеративные модели, казалось бы, свободные от прямой гендерной предвзятости в отношении профессий, все же воспроизводят стереотипы через лексику. Вместо очевидного «дискриминационного» отбора, система выбирает эпитеты — «заботливая» для женщин, «решительный» для мужчин. Но что, если эта кажущаяся «тонкость» — не ошибка, а признак более глубокой структуры? Система не столько выбирает гендер, сколько кодирует его через сложный набор ассоциаций, которые мы, люди, сами и создали.
Следующим шагом представляется не столько «исправление» модели, сколько деконструкция этой системы кодирования. Необходимо исследовать, как именно формируются эти лексические связи, как они взаимодействуют с данными обучения, и можно ли «взломать» эту матрицу стереотипов, не нарушая при этом функциональность модели. Вопрос в том, можно ли создать действительно «нейтральный» искусственный интеллект, или же нейтралитет — это иллюзия, тщательно замаскированная предвзятость.
Важно помнить, что алгоритмы — это лишь зеркало, отражающее наши собственные предубеждения. Попытки «очистить» модель от гендерных стереотипов без одновременного анализа и переосмысления самих стереотипов — бессмысленны. Ведь всегда есть вероятность, что «исправленный» алгоритм просто научится маскировать предвзятость, делая ее еще более трудно обнаружимой.
Оригинал статьи: https://arxiv.org/pdf/2603.11736.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Квантовые нейросети на службе нефтегазовых месторождений
- Сохраняя геометрию: Квантование для эффективных 3D-моделей
- Квантовый Переход: Пора Заботиться о Криптографии
- Квантовая обработка данных: новый подход к повышению точности моделей
- Лунный гелий-3: Охлаждение квантового будущего
- Квантовые сети для моделирования молекул: новый подход
- Кватернионы в машинном обучении: новый взгляд на обработку данных
- Ускорение оптимального управления: параллельные вычисления в QPALM-OCP
- Квантовые прорывы: Хорошее, плохое и смешное
- Функциональные поля и модули Дринфельда: новый взгляд на арифметику
2026-03-14 19:14