신문 모니터_
챗GPT에게 물어보고 그대로 써도 될까, ‘취재 없는 기사’ 우려는?
등록 2023.03.07 15:21
조회 373

인공지능 전문 미국 스타트업 ‘오픈AI’에서 개발한 챗GPT는 범용 딥러닝AI 기술의 강력함을 체험한 첫 사례로 화제가 되고 있습니다. 언론계에서도 챗GPT를 이용해 작성한 기사가 나오고 있습니다. ‘챗GPT에게 물어봤더니…’라는 식의 보도가 그것입니다. 하지만 AI기술이 사람보다 덜 편향적이고 정확할 것이라는 막연한 믿음으로 인해, 아직 기술적으로 완성되지 않은 AI의 답변을 사실로 오인시킬 가능성에 대한 우려도 큽니다.

 

논쟁적 주제까지 질문, 챗GPT는 “중립적 전문가”?

 

동아일보 <GPT도 아는데 이재명만 모른다>(2/27 김지현 기자)는 논쟁적 주제인 ‘이재명 더불어민주당 대표가 불체포특권을 포기해야 하는지’ 여부를 챗GPT에 질문하고, “가장 중립적인 의견을 가진 전문가에게 의견을 묻고 조언을 구했다”며 챗GPT의 답변을 소개했습니다. 해당 기자는 이재명 대표 체포동의안에 대해 “법 집행기관과 적극적으로 협력해 국민의 안전과 이익을 보호하는 데 최선을 다해야 한다”는 취지의 답변을 받고선 제목에서 “챗GPT도 아는데 이재명은 모른다”고 서술했습니다.

 

그러나 챗GPT는 자연어 알고리즘에 따라 ‘가장 그럴 듯한 문장’을 지어낼 뿐 가치판단을 하지 못합니다. 질문에 따라 얼마든지 답을 유도하는 것이 가능하다는 이야기입니다. 실제로 챗GPT에 체포동의안과 관련된 양당의 주장을 소개하자 “야당 국회의원이 불체포특권을 포기할지 여부는 각각의 상황에 따라 다르다”는 취지의 보다 ‘중립적’으로 보이는 답변을 받았습니다.

그림1.jpg

△ ‘이재명 체포동의안’ 질문에 따른 챗GPT의 답변 비교(좌측 : 동아일보, 우측 : 직접 질문)

 

새로운 ‘취재 없는 기사’ 유형의 등장

 

동아일보처럼 챗GPT의 답변을 “중립적 전문가”로 소개하지는 않지만, 비슷한 유형의 기사는 늘고 있습니다. 챗GPT가 출시된 이후부터 지금까지 네이버에 ‘챗GPT’, ‘물어보니’ 등 키워드를 넣어 검색해본 결과, 다양한 주제의 챗GPT를 이용한 기사가 이미 작성되고 있는 상황입니다. 이 중에는 ‘아이폰과 갤럭시 중 무엇이 더 나은지’와 같은 흥미성 질문도 있지만 ‘간호법 제정’, ‘인구감소 영향’, ‘출산율 감소 대책’, ‘카카오 SM인수’ 등 심층적 판단이 필요한 주제를 다루는 경우도 많습니다.

 

그림2.jpg

△ 챗GPT에서 받은 답변을 기사화한 언론기사 일부(3/6 네이버 화면 캡쳐)

 

부산일보는 <양곡관리법 챗GPT에 물어보니쌀 산업 경쟁력 떨어질 것”>(2/7 김덕준 기자)에서 국민의힘 안병길 의원이 양곡관리법에 대해 챗GPT에 물었더니 “쌀 산업의 경쟁력이 떨어질 수 있다”는 답변을 받았다는 내용을 기사화했고, 쿠키뉴스는 <GPT간호법물어보니국회 제정 필요”>(2/21 박선혜 기자)에서 챗GPT로부터 “간호법이 필요하며 국회에서 제정되어야 한다”는 답변을 받아 그대로 보도했습니다. 매일경제는 <GPT에 물어보니 인구 줄어드는 한국 제조업·건설업 타격”>(2/23 박동환 기자)에서 인구감소 영향을 질문해 기사화했으며, 여성신문은 아예 [챗GPT에 물어보니]라는 시리즈 기사를 내고 저출생 해법, 60시간 이상 근무제 등 정책을 평가했습니다.

 

오마이뉴스는 <"윤석열 발언은 사실입니까?" GPT에 물어보니>(2/15 김시연 기자)에서 챗GPT 답변에 대해 “2021년 이전 발언 검증은 실제 팩트체크(오마이팩트) 결과와 대체로 일치했지만, 2022년 이후 최신 데이터가 필요한 발언 검증에는 한계를 보였다”고 평가했습니다. 그러나 2021년 이전 발언 검증이 오마이뉴스 팩트체크 결과와 대체로 일치했다는 해석은 챗GPT가 오마이뉴스 기사를 기반으로 데이터를 학습했을 가능성이 있으므로 정확한 해석으로 보기 어렵습니다.

 

언론계 ‘챗GPT 인용보도 윤리’ 필요

 

지난 2월 ‘대동여지도 연금술사의 난’에 대한 챗GPT의 답변이 화제가 됐습니다. 한 누리꾼이 챗GPT에 “역사적으로 꼽히는 비극적인 사건 10개”를 질문하자 ‘대동여지도 연금술사들의 폭동’이 1392년 발생했다고 답변했고, 이에 대해 추가 질문을 하자 꽤나 자세한 설명을 내놓았다는 것입니다. 이는 아직 문장생성 AI 기술이 미완성이며, 잘못 사용할 경우 ‘AI비서’가 아닌 ‘가짜뉴스 자동생성기’가 될 수 있음을 의미합니다.

 

물론, 위에서 소개한 기사는 기자가 챗GPT의 답변을 보고 직접 진위를 검증하고 보도 가치를 판단했을 것입니다. 바꿔 말하면, 그 기사 대부분은 챗GPT가 없어도 기자 스스로 검증하여 쓸 수 있는 기사라는 것입니다. 분명 미래에는 더 완성된 챗봇이 등장해 전문가보다 정확한 답변을 내놓을 수 있겠지만, 아직 기사의 주요 내용을 AI에게 맡기기에는 시기상조로 보입니다. 언론이 AI 챗봇의 답변을 기사화할 때, AI 한계를 독자에게 정확히 인식시키고 오해 소지를 줄일 보도 방식에 대한 고민이 필요합니다.

 

* 모니터 대상 : 챗GPT 베타 출시일(2022년 11월 30일)부터 2023년 3월 6일까지 네이버에서 검색된 관련 기사

 

monitor_20230307_022.hwp