온라인 게임 채팅 내 폭언, 욕설 등을 일삼는 이른바 사이버 불링 범죄가 끊이지 않고 있다. 문제를 해결하기 위해 인공지능(AI) 기술을 활용하고자 하는 움직임이 일고 있는 반면, 기술 도입 이전에 사회적 합의가 먼저 마련돼야 한다는 논란도 나온다.
15일 게임업계에 따르면 최근 온라인 게임 채팅에서 수차례 폭언과 욕설을 한 20대가 스토킹 혐의로 벌금형을 선고받았다. 가해자가 온라인 게임 채팅을 통해 한 달간 피해자에게 조롱 섞인 폭언 메시지를 221차례 보내며 '사이버 불링(Cyber Bullying, 인터넷 상의 지속적 괴롭힘)' 범죄를 저지른 것.
해당 사건으로 온라인에서 발생한 행위도 실제 법적 제재를 받을 수 있는 심각한 범죄 행위로 인식되고 있다는 분석이 나온다.
지금까지 온라인 게임 내에서 벌어지는 사이버 불링 문제는 고질적이었다. 한국콘텐츠진흥원에 따르면 2023년 기준, 게임 이용자의 56.2%가 게임 내 사이버폭력을 경험했다고 응답했으며, 그중 언어 폭력 83.9%, 스토킹 57.2%, 명예훼손 39.3% 비율을 차지했다. 정보통신망 이용촉진 및 정보보호 등에 관한 법률 등 처벌 법규가 존재함에도 불구하고 해당 범죄율은 가시적으로 줄고 있지 않은 실정이다.
법적 제도적 장치 마련에도 해결이 지지부진한 상황에서 사이버 불링의 해결점으로 AI 기술에 이목이 쏠리고 있다.
이미 인텔은 2019년부터 사이버 불링에 대한 해결책으로 AI에 주목했다. 당시 인텔은 게임 개발자 콘퍼런스에서 "영국의 스피릿 AI와 공동으로 폭언 및 비방을 일삼는 게이머를 AI가 실시간으로 판정할 수 있는 기술을 개발 중"이라고 밝혔다.
지난해에는 미국 게임사 액티비전이 온라인 게임 내 욕설 및 폭언 문제를 해결하기 위해 AI 기능을 도입했다. 액티비전은 FPS 게임 '콜 오브 듀티'에 이용자들의 음성 채팅을 모니터링하고 악성 이용자를 제재할 수 있는 AI '톡스모드'를 적용했다. 톡스모드는 문제가 되는 채팅 내용을 추출해 운영자에게 제출하여 조치를 취하는 방식으로 작동한다.
또 지난해 10월에는 미국의 브리검영대학교와 듀크대학교 연구원들이 사이버 폭력에 맞서 올바른 디지털 환경 조성을 위한 목적으로 AI 활용 연구 결과를 발표했다. 해당 연구 결과는 사이버 불링을 예방할 수 있는 방안으로 주목받고 있다.
반면, 기술이 모든 것을 해결할 수 없다는 입장도 있다. 한국정보통신기술협회 관계자는 "사이버 불링이 아닌데 AI가 사이버불링이라고 잘못 판단했을 때 이런 부분을 어떻게 해결할 것인지에 대한 논의가 먼저 선행돼야 한다"며 "기술을 도입했을 때 이 기술이 사회 및 이해관계자에게 어떤 영향을 끼칠지 그 영향도 평가 검토가 먼저 이뤄져야 한다"고 답했다.
이어 "무작정 기술이 좋다고 도입하는 게 아니라 그 이전에 사회적 합의를 통한 적정한 기술 도입의 기준부터 마련하는 것이 중요"하다고 말했다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성