MBC 스트레이트, AI 편집하는 모바일도 보수 편중 지적

MBC 스트레이트 보도에 따르면 공정하다고 주장한 네이버와 다음의 뉴스 편집 AI 시스템이 편향적으로 뉴스를 제공하고 있는 것으로 나타났다. <사진=MBC 스트레이트 방송 캡처>
▲ MBC 스트레이트 보도에 따르면 공정하다고 주장한 네이버와 다음의 뉴스 편집 AI 시스템이 편향적으로 뉴스를 제공하고 있는 것으로 나타났다. <사진=MBC 스트레이트 방송 캡처>

 

[폴리뉴스 박응서 기자] 인공지능(AI)이 뉴스를 편집하기 때문에 공정성에 문제가 없다고 주장하는 네이버와 다음. 그런데 이 AI가 편향적이어서 네이버와 다음의 뉴스가 불공정하게 서비스되고 있는 것으로 확인됐다.

7일 MBC 시사교양 프로그램 ‘탐사기획 스트레이트’는 지난 1월 8일부터 한 달간 네이버와 다음에서 제공하는 뉴스를 분석한 결과 네이버의 보수 대 진보 언론사 기사 노출 비율이 48대 3으로 나타나는 등 AI 알고리즘에 문제가 있다고 지적했다.

 

진보 성향 아이디에도 보수 언론 기사 추천

네이버는 2019년부터 뉴스 편집에 인공지능 알고리즘을 전면 도입했다. 한성숙 대표는 “네이버는 더 이상 뉴스편집을 하지 않고, 네이버 편집자가 더 이상 기사를 배열하지 않겠다”며 “네이버는 공간과 기술만 지원하는 역할로 물러나겠다”고 말했다.

이렇게 네이버가 뉴스 편집에 AI를 도입한 이유는 포털이지만 뉴스를 제공하면서 언론의 기능을 하고 있고, 뉴스에 편향성이 있다는 지적을 계속 받아왔기 때문이다. 이 같은 논란에서 벗어나기 위해 네이버는 뉴스를 편집하는 시스템에서 사람을 배제하고 AI를 이용하는 방식으로 전환을 선택했다. 이 같은 움직임에 다음도 편승해 다음도 뉴스 편집에 AI를 활용하고 있다.

보수에 편중된 뉴스 편집에 대한 지적에 네이버는 “구독자 수가 많은 언론사에 가중치를 주면서도 AI가 알아서 하고 있다”고 답변했다.

이에 스트레이트는 네이버가 자랑하는 AI 딥러닝 서비스인 ‘에어스’도 시험해봤다. 에어스는 로그인 한 상태에서 AI가 개인의 성향을 반영해서 뉴스를 추천해 주는 서비스다.

스트레이트는 보수 성향 아이디와 진보 성향 아이디를 각각 1개씩 만들었다. 보수 성향 아이디로는 조선일보 또는 중앙일보의 정치와 경제, 사회 기사를 5분에 한 번씩 클릭해 읽도록 하고, 진보 성향 아이디로는 경향신문과 한겨레 기사를 같은 방식으로 읽도록 했다. 또 사람처럼 기사마다 1분 동안 스크롤하며 읽도록 했다.

학습기간은 2주였다. 그 결과 보수 성향 아이디에는 중앙일보, 연합뉴스, KBS, 조선일보, YTN 순으로 많은 기사를 추천했다. 그런데 진보 성향 아이디에는 연합뉴스, 중앙일보, 조선일보, 지상파 방송 기사가 추천됐다. 경향신문과 한겨레 기사는 20위권에도 들지 못했다. 개인의 뉴스 소비 성향 차이를 인식해 맞춤형으로 뉴스를 서비스한다는 주장이 거짓으로 드러난 셈이다.

이에 대해 송경재 상지대 교양학부 교수는 방송에서 “상당히 충격적이다. 인공지능으로 뉴스기사 배열과 편집이 아주 객관적이고 중립적이라고 선전해왔는데, 전부 다 거짓일 수 있다라는 것. 해명과 함께 검증도 같이 이뤄져야 할 것”이라고 말했다. 반면 네이버는 “실제로 특정 언론사 기사만 읽는 이용자는 매우 적어 특이 현상이 벌어질 수 있다”며 “일반화해서는 안 된다”고 답변했다.

스트레이트는 네이버의 ‘언론사별 많이본 뉴스’도 분석했다. 그 결과 72개 언론사 중 52개 언론사는 조사기간 동안 첫 화면 점유율이 1%도 안 되고, 17개 언론사는 한 번도 노출되지 않을 정도였다.

그렇다면 다음은 어떨까. 스트레이트 분석에 따르면 다음은 중도언론 32.6%, 보수 언론 18.0%, 진보 언론 3.5%로 뉴스를 노출하고 있었다. 다음의 뉴스 편집 AI ‘루빅스’ 테스트에서도 보수 성향 아이디와 진보 성향 아이디 모두 네이버와 비슷하게 보수 언론이 상위에 노출되는 것으로 확인됐다. 네이버와 비슷하게 AI가 학습 결과와 다른 서비스를 제공하고 있는 것으로 나타났다.

이에 대해 다음은 “뉴스 알고리즘이 이용자의 성별이나 연령대, 관심사는 감안하지만, 언론사 선호 여부나 정치적 성향은 반영하지 않는다”고 말했다.

김승주 고려대 정보보호대학원 교수는 AI가 완전무결하지 않고 사람에 의해 좌우된다고 설명했다. <사진=MBC 스트레이트 방송 캡처>
▲ 김승주 고려대 정보보호대학원 교수는 AI가 완전무결하지 않고 사람에 의해 좌우된다고 설명했다. <사진=MBC 스트레이트 방송 캡처>

 

“AI는 사람이 세팅하고 학습시킨 대로 뉴스 선택”

김승주 고려대 정보보호대학원 교수는 방송에서 “‘사람이 뉴스 기사를 고르면 그 사람의 주관에 따라서 편향될 텐데, 인공지능은 완전무결할 거야’ 그건 아니다”라며 “사람이 셋팅한 대로, 사람이 학습시킨 대로, 인공지능은 뉴스 기사를 선택한다. 그 이상도 그 이하도 아니다”고 설명했다.

지난달 17일 네이버는 ‘네이버 AI 윤리 준칙’을 공개했다. 네이버의 모든 구성원이 AI 개발과 이용할 때 준수해야 하는 원칙으로 사람을 위한 AI 개발, 다양성의 존중, 합리적인 설명과 편리성의 조화, 안전을 고려한 서비스 설계, 프라이버시 보호와 정보 보안이라는 5개 조항이다. 이날 네이버는 AI 윤리 준칙이 구호에 그치지 않도록 유연한 사내 커뮤니케이션 채널을 마련해, 프로젝트 진행이나 서비스를 개발할 때 사안을 중심으로 문의하고, 논의할 수 있도록 할 예정이라고 밝혔다.

그러나 이 같은 네이버의 주장과 달리 스트레이트에 따르면 AI 윤리 준칙을 준수하지 못하는 AI를 이용해 뉴스를 제공하고 있는 셈이다. 네이버 관계자는 이 같은 지적에 대해 “뉴스추천 알고리즘울 포함해서 네이버 알고리즘에 대해서 2018년에 각 학회의 추천을 받아서 6개월 검토를 받은 뒤, 그 결과를 프레스센터에서 발표했다"며 "헤드라인 등 알고리즘에 문제가 없는 것으로 검증돼 AI 변경은 검토하고 있지 않다”고 설명했다.

네이버가 AI 윤리 준칙을 만든 것은 AI가 기술적 한계를 갖고 있음을 인정하기 때문이다. AI는 기존의 데이터를 학습하는데, 기존 데이터가 편향돼 있을 경우 편향성이 그대로 반영되면서 문제가 발생한다. 데이터 편향성은 다양한 사례로도 확인되고 있다.

2018년 전자상거래 기업 아마존은 인력 채용을 위해 도입한 AI 시스템을 폐기했다. 아마존은 지난 10년간 데이터를 바탕으로 지원자 이력서를 검토해 채용 적합도를 판단하는 AI 채용 시스템을 개발했다. 그런데 이 AI가 여성보다 남성 지원자를 선호하는 편향성을 갖고 있음을 확인해 폐기를 선택한 것.

한 미인대회에서는 객관적 외모평가를 위해 심사에 투입한 AI가 참가자 6000여명 중에서 수상자 44명 대부분을 백인으로 뽑았다. AI가 미인을 판단하는 데 사용한 학습 사진이 거의 백인이었기 때문이다.

흑인을 동물로 인식한 사례도 있다. MIT(매사추세츠공대) 미디어랩에 따르면 사진 분류 AI는 백인 사진의 인식 에러 확률이 1% 내외인 반면 흑인 사진은 최고 35%에 달했다.

이 같은 AI 편향성을 고려해, AI 개발진이 단순히 학습만 고려해 AI를 개발하면 안 되고, 데이터 특성에 대한 이해와 분석 등을 종합적으로 고려해 AI를 개발해야 한다는 방향에서 나온 것이 AI 윤리다.

이런 흐름과 언론과 협력을 모색하던 세계 최대 소셜미디어인 페이스북은 2019년 ‘뉴스 탭’에 배치될 뉴스를 경험 많은 언론인들이 편집하도록 하는 방침을 발표했다. 기존에는 알고리즘에 의존한 것으로 알려졌다.

SNS 기사보내기

관련기사

기사제보
저작권자 © 폴리뉴스 Polinews 무단전재 및 재배포 금지