[미래기술25]④'사회분열'을 부추기는 AI?

장영은 기자I 2020.10.28 05:11:53

네이버 쇼핑·뉴스 알고리즘 조작 논란
화제성 중심의 유튜브 영상추천에도 문제제기
"AI가 확증편향 부추겨"…AI의 공정성·윤리 대한 논의 필요

[이데일리 장영은 기자] 인공지능(AI)은 공정하고 객관적일까요? ‘사람이 아닌 기계’이기 때문에 우리가 AI에 기대하게 되는 것들이 있습니다. 정확하고, 똑똑하고, 객관적일 것이라는 기대가 대표적이지요.

하지만 최근 불거진 사례를 보면 꼭 그렇지도 않은 것 같습니다. 네이버는 AI를 기반으로 하는 쇼핑·검색 알고리즘은 조작 의혹에 시달렸고, 유튜브 등의 ‘추천 영상’ 알고리즘은 사회 분열을 조장한다는 비난을 받고 있습니다.

국내 최대 포털인 네이버는 AI를 이용한 뉴스 추천 시스템을 운영하고 있다.


전문가들의 의견을 들어보면 AI의 작동원리가 되는 알고리즘이 객관적이냐를 판단하기는 매우 어렵다고 합니다. 정답이 정해져 있는 불량 검사나 건상상태, 상품설명 같은 문제가 아니라 판단이 들어가게 될 경우에 말입니다.

결국 AI가 판단을 할 수 있는 근거와 규칙이 되는 알고리즘을 짜는 것은 사람이고, 그 기준은 사람이 정할 수밖에 없기 때문이지요. 알고리즘이 스스로 판단을 하거나 감정에 좌우되진 않지만 알고리즘 자체가 주관적일 수 있다는 이야기입니다.


또 다른 문제는 편향성을 조장한다는 부분인데요. 박정호 SK텔레콤 사장은 얼마 전 회사 행사에서 AI의 중요성을 강조하면서 동시에 우려를 표명했습니다. 우리가 일상에서 쉽게 접할 수 있는 대표적인 AI인 유튜브나 넷플릭스의 추천 알고리즘이 ‘확증편향’을 부추겨 사회 분열을 조장할 수 있다는 의견입니다. 확증편향이란 자신의 신념이나 선호에 맞는 것만을 받아들여 한쪽으로 치우게 되는 것을 말합니다.

이희대 광운대 교수도 추천 알고리즘이 개인의 선택을 기반으로 하고 있는 것처럼 보이지만, 사실은 플랫폼이 ‘의도’한 선택을 강요받는 것일 수 있다는 겁니다. 또 궁극적으로는 동일한 현실에 대해 상반된 해석을 일으켜 정치적인 갈등 등을 야기할 수 있다고 지적했습니다.

현재의 추천 알고리즘은 콘텐츠의 진위 여부를 파악하는 것이 아니라, 1번 영상을 본 사람이 많이 본 영상, 댓글이 많이 달린 영상, 주제의 연관성이 있는 영상 등을 판별해 보여주는 식입니다.

극단적인 콘텐츠, 나의 생각과 같은 뉴스 등이 ‘잘 팔리는’ 추세 속에서 자극적인 가짜 뉴스와 진실이 혼재돼 버젓이 유통되기도 합니다.

한국언론진흥재단이 지난해 발간한 ‘유튜브 추천 알고리즘과 저널리즘’ 연구에 따르면, 유튜브는 특정 기간에 화제가 되는 이슈와 관련한 영상을 집중적으로 추천하는 경향이 있었습니다.

‘많이 본다’는 이유로 진위 여부에 상관없이 비슷한 내용의 자극적인 콘텐츠가 계속해서 만들어지면서 다양한 관점을 보지 못하게 될 우려가 있다는 것이 전문가들의 의견입니다. 마치 양 옆은 보지 못하고 앞만 보고 달리는 경주마처럼 한쪽으로 치우치게 될 위험이 크다는 것이지요.

실제로 방송통신위원회와 정보통신정책연구원이 지난해 5월 발표한 ‘지능정보사회 이용자 패널조사’에 따르면 뉴스 이용자 중 57.8%가 뉴스에 대한 AI의 자동 추천 서비스로 자신의 사고나 가치관이 편향될까 두렵다고 답했습니다.

AI가 객관적일수만은 없는 판단과 주관의 영역으로도 범위를 넓히고 있는 만큼, 기술의 발달과 함께 AI가 초래할 수 있는 편향성과 불평등에 대한 고민과 논의도 병행돼야 할 것으로 보입니다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지

영상 뉴스

더보기

오늘의 포토

더보기

카드 뉴스