Kalam News

AI 채용 시스템, ‘성차별 가능성’ 연구 결과 논란

인공지능, AI가 기업 채용 과정에서 공정성을 높일 수단으로 기대를 받고 있지만, 오히려 기존의 인간보다 더 편향적인 결정을 내릴 수 있다는 흥미로운 연구 결과가 나와서 논란이 일고 있다.

뉴질랜드 기술대학(New Zealand Institute of Skills and Technology)의 데이터 과학자 데이빗 로자도(David Rozado) 교수는 최근 발표한 연구를 통해, 주요 AI 언어모델 22개를 실험한 결과, 동일한 자격을 갖춘 남녀 후보자 중 여성 이름을 가진 후보를 더 자주 선택하는 경향이 확인됐다고 밝혔다.

이번 실험은 오직 성별 이름만 다른 동일한 이력서를 입력해서 AI의 선택을 유도하는 방식으로 진행이 됐으며, 총 3만여 건이 넘는 가상 채용 결정 사례가 분석됐다.
그 결과 여성 후보자가 선택된 비율은 56.9%로, 성 중립적 결과(50:50)를 벗어난 유의미한 수치였다.

또한 이력서에 성별 표기란을 추가하는 경우, 여성에 대한 AI의 선호는 더욱 강한 것으로 나타났다.

데이빗 로자도 교수는 작은 차이들이 시간이 지남에 따라 누적되면, 남성 지원자들에게 매우 불리한 결과를 초래할 수 있을 것으로 보인다고 경고했다.

흥미롭게도, 일부 AI 모델은 이력서에 ‘she/her’, ‘he/him’과 같은 인칭 대명사가 포함된 경우 채택 가능성이 약간 높아지는 경향도 보였다. 데이빗 로자도 교수는 AI가 실제로 후보자의 자격이 아닌, 성별이나 프롬프트(입력 순서) 같은 다른 요소에 의해 영향을 받아 결정을 내릴 수 있다는 점에서 문제의식이 필요하다고 강조했다.

이 같은 결과에도 불구하고, 미국 내 다수 기업들은 효율성과 확장성을 이유로 AI 기반 채용 시스템을 도입하고 있다.
특히 최근에는 ‘AI 인터뷰 봇’이 실제 면접관처럼 질문을 던지고, 말투까지 인간처럼 흉내 내는 기술도 적용되고 있다.

이같은 현상에 대해 일부 구직자들은 실험 대상이 된 것 같다면서 면접이 아니라 프로그램과 대화하는 기분이었다는 부정적인 반응도 나타냈다.

데이빗 로자도 교수는 이 같은 AI의 편향성과 예측 불가능성을 지적하며, 채용처럼 개인의 인생에 상당히 큰 영향을 미치는 분야에서는 AI가 독립적으로 의사결정을 내리는 것은 적절하지 않다고 지적했다.
또한 미국 싱크탱크 브루킹스 연구소의 별도 조사에 따르면, 또 다른 사례에서는 오히려 남성이 여성보다 더 우대를 받는 결과도 있었으며, 흑인 이름보다 백인 이름이 더 선호되는 경향이 확인되기도 했다.

전문가들은 AI 채용 시스템에서 공공감사(audit)와 투명성, 그리고 명확한 규제 기준 마련 등이 가장 시급하다고 입을 모으고 있다.