영국 정부, 대입시험에 AI 알고리즘 대입 논란... 가난한 학생은 더 낮은 점수 받아"
미국 아마존, 인공지능 채용 시스템 도입 취소... 이력에'여성' 단어 적히면 감점돼

 


[폴리뉴스 성소의 기자] 윤영찬 더불어민주당 의원의 ‘카카오 항의’ 논란이 인공지능 알고리즘의 중립성 논란으로까지 번지고 있다. 앞서 카카오와 네이버 등 인터넷 뉴스 서비스 사업자들은 뉴스 편집에 외압이 작용할 수 있냐는 논란에 대해 “뉴스 편집은 100% 인공지능 알고리즘이 한다”고 선을 그었다. 그러나 다음 창업자였던 이재웅 전 쏘카 대표가 “인공지능은 가치중립적이지 않다”고 알고리즘의 편향 가능성에 대해 문제를 제기하면서 인공지능 알고리즘의 중립성 논란에 불을 지폈다. 

이 전 대표는 9일 자신의 페이스북을 통해 “많은 사람들이 인공지능은 가치중립적이라고 생각하지만 그렇지 않다. 규칙 기반의 인공지능은 그 시스템을 설계하는 사람의 생각이 반영될 수 없다”며 인공지능 기반의 알고리즘이 사람을 대신해 공정하고 객관적인 판단을 내릴 것이라는 전제에 의문을 제기했다. 

그는 “인공지능 시스템은 회사가 원하는 인재상을 학습한다. 만약 그 회사에 남성이 70%, X대를 졸업한 사람이 50%에 달한다면 인공지능이 점수를 높게 준 지원자는 X대를 졸업한 남성일 경우가 높다”고 지적했다. 인공지능 알고리즘이 사회적으로 편향된 데이터를 바탕으로 학습하기 때문에 특정 성별, 인종, 계층에 차별적인 결과를 도출할 수 있다는 것이다.

해외에서도 인공지능 알고리즘의 공정성을 둘러싼 논란이 뜨겁다.

영국은 지난 8월 코로나19의 영향으로 대입시험을 치르지 않는 대신 인공지능 알고리즘을 기반으로 수험생들의 예상 성적을 산출해 대학입시에 활용했다. 그러나 전체 수험생의 40%가 예상보다 성적이 낮게 나와 논란을 빚었다. 특히 고소득층 학생들은 높은 학점이 주어진 반면 저소득층 학생들은 낮은 학점이 주어져 인공지능이 불평등을 강화한다는 지적이 제기됐다. 

미국 국립표준기술연구소(NIST)는 지난 해 12월 안면 인식 기술에 활용되는 인공지능 대다수가 편향된 데이터를 가지고 있다는 보고서를 발간해 논란이 일기도 했다. 국립표준기술연구소가 미국의 정부기관들과 인텔, 마이크로소프트, 파나소닉 등 주요 IT 기업들이 활용하고 있는 알고리즘을 분석한 결과에 따르면 인공지능이 범죄자를 판별할 때 아시아인과 아프리카계를 잘못 알아볼 확률이 백인 남성보다 월등하게 높았다. 알고리즘이 백인 인종에 편향된 데이터를 학습한 결과다. 

2018년에는 미국의 온라인 쇼핑몰 아마존이 자사 채용 시스템에 인공지능 알고리즘 접목하려다 여성에게 차별적인 결과를 산출하는 것으로 드러나 도입을 취소한 바 있다. 알고리즘이 지난 10년 동안 남성 중심인 IT업계의 채용 동향을 학습하고 여성 지원자에게 불리한 평가를 내린다는 결과였다. 지원자의 이력서에 ‘여성’이란 단어가 포함된 동아리 이름이 기재돼있으면 감점하는 식이다. 문제가 제기되자 아마존은 인공지능 알고리즘을 활용한 채용 시스템 도입을 취소했다.    

윤 의원이 불지핀 알고리즘 중립성 논란을 계기로 네이버와 카카오 등 IT기업과 정부가 나서서 알고리즘을 검증할 수 있는 시스템을 도입해야 한다는 목소리가 나온다.

한국인공지능윤리협회는 14일 성명서를 내고 “AI 기술은 아직 발전 중에 있는 기술로서 윤리적으로 지켜야 할 명확한 개발 가이드라인과 지침이 부족하다”며 “AI 알고리즘의 중립성을 판단하고 검증할 수 있는 시스템과 검증하고 가이드 할 수 있는 중립적 기구가 절실히 필요하다”고 촉구했다. 

SNS 기사보내기

관련기사

키워드

#2020 국회
기사제보
저작권자 © 폴리뉴스 Polinews 무단전재 및 재배포 금지