국내는 물론 전 세계적으로 최근 발표되고 있는 인공지능(AI) 윤리는 '인간 중심의 원칙'을 전면에 내세우고 있다. 과기정통부는 27일 '사람 중심의 인공지능'을 내걸고 최고 가치인 '인간성'을 실천하기 위한 '인공지능 윤리'를 발표했으며, 일본과 유럽연합(EU), 경제협력개발기구(OECD)가 발표한 AI 윤리도 '인간 중심'이라는 목적을 강조하고 있다.
국내는 물론 전 세계적으로 AI 윤리에 '인간 중심의 AI'를 내세우는 이유는 인간이 AI를 개발했지만, AI의 전문가 중 일부에서는 2045년경 'AI가 인간지능을 뛰어넘는 싱귤래러티(특이점)'가 올 것으로 예상하는 등 인간이 만든 AI에 주도권이 뺏기고 기계가 인간을 대체하는 사회가 올 수 있다는 우려가 제기되기 때문이다.
또 인간이 킬러로봇 등 인류에 해악을 끼치거나 여성, 흑인을 차별하는 등 편향성이 없는 AI를 만들기 위해 AI 개발자가 인간존엄성에 기반 해 제품을 설계해야 한다는 것이다.
◆한국은 물론 OECD·EU·일본도 '인간 중심' 윤리 강조
과기정통부는 '사람 중심의 AI'를 구현하기 위해 기본원칙 중 첫 번째로 인간의 존엄성 원칙을 담았고, 10대 핵심요건의 첫 번째를 인권 보장으로 정했다. 이 윤리기준에서 '인간성을 위한 인공지능은 AI가 인간을 위한 수단임을 명시적으로 표현하지만, 인간 이기주의를 표방하지 않는다'고 규정했다.
이는 방송통신위원회가 지난해 11월 내놓은 AI 윤리인 '이용자 중심의 지능정보사회를 위한 원칙'에서도 유사하게, 가장 첫 번째로 '사람 중심의 서비스 제공'을 내걸었고, '지능정보서비스의 제공과 이용은 사람을 중심으로 기본적 자유와 권리를 보장하고 인간의 존엄성을 보호하는 방향으로 이뤄져야 한다'고 규정했다.
또 한국인공지능윤리협회가 지난해 10월 발표한 '인공지능 윤리 헌장'에서도 제1장 2조에서 '인공지능은 인간의 존엄성과 인류 보편의 가치를 존중해야 한다'는 점을 강조했다.
이는 유럽연합(EU), 경제협력개발기구(OECD), 일본 등에서 발표된 AI 윤리의 기본적인 맥락과도 일맥 상통한다.
최근 AI 거버넌스포럼이 발표한 '인공지능 거버넌스와 정책 보고서'에 따르면 OECD는 'AI에 대한 5가지 포괄적 기본원칙' 중 하나로 정부는 '인간 중심의 가치 및 공정성'을 고려하도록 제시했다.
AI 거버넌스포럼 관계자는 "OECD가 내세운 인간 중심 가치 및 공정성은 AI도 인간 사회가 지향해왔던 전통적 가치에 기반해야 한다는 것을 확인해주며, AI 활용이 인권이나 민주주의 가치를 훼손하지 않아야 한다는 것으로 AI가 이에 부합하는 보조장치를 구현할 것을 강조한 것"이라고 평가했다.
일본 내각부도 2018년 5월 사람의 기본적 인권을 침해하지 않도록 '인간 중심의 AI 사회원칙안'을 내놓고 개인의 정보보호와 보안 이슈를 강조했다. 이 원칙에서 'AI의 편리성으로 인간이 과도하게 AI에 의존하거나 종속되지 않고 오히려 다양한 능력을 발휘해 직업에 종사할 수 있도록 인간의 존엄성이 존중되는 사회'가 되어야 한다고 언급했다.
EU가 지난해 4월 내놓은 'AI 윤리 가이드라인'은 신뢰 가능한 AI의 기본 이념으로 인간의 존엄성을 존중하고 개인의 자유를 보호하는 등 인간의 기본권을 존중해야 한다는 내용을 담고 있다.
이와 비교해 MS가 2017년 내놓은 'AI 윤리 디자인 가이드'은 AI는 효율성을 극대화하고, 투명성을 갖추며 신뢰성을 확보해야 한다는 내용을 담고 있으며, 구글이 2018년 내놓은 AI 윤리 원칙은 ▲사회적으로 유익할 것 ▲안전을 위해 제작될 것 ▲사람들에게 책임을 질 것 ▲프라이버시 원칙을 통합할 것 등을 내세워 인간 중심 원리를 내세우지는 않았다. 이 같은 AI 윤리도 공정성, 포용성, 유익성, 프라이버시, 안정성, 투명성, 설명 가능성, 포용성 등 포함하고 있지만 AI 윤리의 상당수가 이에 앞서 '인간 중심'을 강조하고 있다는 점은 주목할 만 하다.
◆국내 AI 윤리 속속 발표에도 구체적 지침 담은 후속조치 한 번도 나오지 않아... 방통위 '사례집'만 배포 계획
국내에서 정부나 민간 차원의 AI 윤리가 속속 등장하고 있지만 아직 매우 추상적인 AI 윤리의 원칙들만 나열돼 있을 뿐, 후속조치들이 나오지 않고 있다는 점은 문제로 지적된다. AI 전문가들은 윤리 원칙들을 AI 개발자 등 기업이 실제로 적용해 실행 가능성을 높이기 위해서는 구체적인 지침 마련이 시급하다고 지적하고 있다.
한국정보화진흥원(NIA)이 2018년 처음으로 '지능정보사회 윤리 가이드라인'을 발표한 데 이어, 지난해 방통위와 한국인공지능윤리협회가, 민간 기업으로는 카카오가 2018년 AI 윤리 가이드라인을, 삼성전자가 지난해 AI 윤리 핵심원칙을 발표했지만, 구체적인 지침을 담은 후속조치는 단 한 번도 발표되지 않았다.
현재 방통위는 AI 후속지침 대신 해외 사례를 담은 사례집을 빠르면 연말 내놓을 계획이지만, 미국 등 해외 사례에 국한한 만큼 국내 실정에도 맞는 지도 아직 불확실하다.
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성