메트로人 머니 산업 IT·과학 정치&정책 생활경제 사회 에듀&JOB 기획연재 오피니언 라이프 AI영상 플러스
글로벌 메트로신문
로그인
회원가입

    머니

  • 증권
  • 은행
  • 보험
  • 카드
  • 부동산
  • 경제일반

    산업

  • 재계
  • 자동차
  • 전기전자
  • 물류항공
  • 산업일반

    IT·과학

  • 인터넷
  • 게임
  • 방송통신
  • IT·과학일반

    사회

  • 지방행정
  • 국제
  • 사회일반

    플러스

  • 한줄뉴스
  • 포토
  • 영상
  • 운세/사주
IT/과학>IT/인터넷

[AI 기획] 'AI 윤리' 최근 세계적 추세는 '인간 중심'...국내서 AI 윤리 후속조치 마련 시급

김석진 방송통신위원회 부위원장이 지난해 12월 개최된 '지능정보사회 이용자보호 국제콘퍼런스'에서 환영사를 하고 있다. 방통위는 지난해 11월 AI 윤리를 발표하고 12월 이 콘퍼런스를 통해 AI 윤리 관련 토론을 진행했다./방통위

국내는 물론 전 세계적으로 최근 발표되고 있는 인공지능(AI) 윤리는 '인간 중심의 원칙'을 전면에 내세우고 있다. 과기정통부는 27일 '사람 중심의 인공지능'을 내걸고 최고 가치인 '인간성'을 실천하기 위한 '인공지능 윤리'를 발표했으며, 일본과 유럽연합(EU), 경제협력개발기구(OECD)가 발표한 AI 윤리도 '인간 중심'이라는 목적을 강조하고 있다.

 

국내는 물론 전 세계적으로 AI 윤리에 '인간 중심의 AI'를 내세우는 이유는 인간이 AI를 개발했지만, AI의 전문가 중 일부에서는 2045년경 'AI가 인간지능을 뛰어넘는 싱귤래러티(특이점)'가 올 것으로 예상하는 등 인간이 만든 AI에 주도권이 뺏기고 기계가 인간을 대체하는 사회가 올 수 있다는 우려가 제기되기 때문이다.

 

또 인간이 킬러로봇 등 인류에 해악을 끼치거나 여성, 흑인을 차별하는 등 편향성이 없는 AI를 만들기 위해 AI 개발자가 인간존엄성에 기반 해 제품을 설계해야 한다는 것이다.

 

◆한국은 물론 OECD·EU·일본도 '인간 중심' 윤리 강조

 

과기정통부는 '사람 중심의 AI'를 구현하기 위해 기본원칙 중 첫 번째로 인간의 존엄성 원칙을 담았고, 10대 핵심요건의 첫 번째를 인권 보장으로 정했다. 이 윤리기준에서 '인간성을 위한 인공지능은 AI가 인간을 위한 수단임을 명시적으로 표현하지만, 인간 이기주의를 표방하지 않는다'고 규정했다.

 

이는 방송통신위원회가 지난해 11월 내놓은 AI 윤리인 '이용자 중심의 지능정보사회를 위한 원칙'에서도 유사하게, 가장 첫 번째로 '사람 중심의 서비스 제공'을 내걸었고, '지능정보서비스의 제공과 이용은 사람을 중심으로 기본적 자유와 권리를 보장하고 인간의 존엄성을 보호하는 방향으로 이뤄져야 한다'고 규정했다.

 

또 한국인공지능윤리협회가 지난해 10월 발표한 '인공지능 윤리 헌장'에서도 제1장 2조에서 '인공지능은 인간의 존엄성과 인류 보편의 가치를 존중해야 한다'는 점을 강조했다.

 

이는 유럽연합(EU), 경제협력개발기구(OECD), 일본 등에서 발표된 AI 윤리의 기본적인 맥락과도 일맥 상통한다.

 

최근 AI 거버넌스포럼이 발표한 '인공지능 거버넌스와 정책 보고서'에 따르면 OECD는 'AI에 대한 5가지 포괄적 기본원칙' 중 하나로 정부는 '인간 중심의 가치 및 공정성'을 고려하도록 제시했다.

 

AI 거버넌스포럼 관계자는 "OECD가 내세운 인간 중심 가치 및 공정성은 AI도 인간 사회가 지향해왔던 전통적 가치에 기반해야 한다는 것을 확인해주며, AI 활용이 인권이나 민주주의 가치를 훼손하지 않아야 한다는 것으로 AI가 이에 부합하는 보조장치를 구현할 것을 강조한 것"이라고 평가했다.

 

일본 내각부도 2018년 5월 사람의 기본적 인권을 침해하지 않도록 '인간 중심의 AI 사회원칙안'을 내놓고 개인의 정보보호와 보안 이슈를 강조했다. 이 원칙에서 'AI의 편리성으로 인간이 과도하게 AI에 의존하거나 종속되지 않고 오히려 다양한 능력을 발휘해 직업에 종사할 수 있도록 인간의 존엄성이 존중되는 사회'가 되어야 한다고 언급했다.

 

EU가 지난해 4월 내놓은 'AI 윤리 가이드라인'은 신뢰 가능한 AI의 기본 이념으로 인간의 존엄성을 존중하고 개인의 자유를 보호하는 등 인간의 기본권을 존중해야 한다는 내용을 담고 있다.

 

이와 비교해 MS가 2017년 내놓은 'AI 윤리 디자인 가이드'은 AI는 효율성을 극대화하고, 투명성을 갖추며 신뢰성을 확보해야 한다는 내용을 담고 있으며, 구글이 2018년 내놓은 AI 윤리 원칙은 ▲사회적으로 유익할 것 ▲안전을 위해 제작될 것 ▲사람들에게 책임을 질 것 ▲프라이버시 원칙을 통합할 것 등을 내세워 인간 중심 원리를 내세우지는 않았다. 이 같은 AI 윤리도 공정성, 포용성, 유익성, 프라이버시, 안정성, 투명성, 설명 가능성, 포용성 등 포함하고 있지만 AI 윤리의 상당수가 이에 앞서 '인간 중심'을 강조하고 있다는 점은 주목할 만 하다.

 

◆국내 AI 윤리 속속 발표에도 구체적 지침 담은 후속조치 한 번도 나오지 않아... 방통위 '사례집'만 배포 계획

 

국내에서 정부나 민간 차원의 AI 윤리가 속속 등장하고 있지만 아직 매우 추상적인 AI 윤리의 원칙들만 나열돼 있을 뿐, 후속조치들이 나오지 않고 있다는 점은 문제로 지적된다. AI 전문가들은 윤리 원칙들을 AI 개발자 등 기업이 실제로 적용해 실행 가능성을 높이기 위해서는 구체적인 지침 마련이 시급하다고 지적하고 있다.

 

한국정보화진흥원(NIA)이 2018년 처음으로 '지능정보사회 윤리 가이드라인'을 발표한 데 이어, 지난해 방통위와 한국인공지능윤리협회가, 민간 기업으로는 카카오가 2018년 AI 윤리 가이드라인을, 삼성전자가 지난해 AI 윤리 핵심원칙을 발표했지만, 구체적인 지침을 담은 후속조치는 단 한 번도 발표되지 않았다.

 

현재 방통위는 AI 후속지침 대신 해외 사례를 담은 사례집을 빠르면 연말 내놓을 계획이지만, 미국 등 해외 사례에 국한한 만큼 국내 실정에도 맞는 지도 아직 불확실하다.

트위터 페이스북 카카오스토리 Copyright ⓒ 메트로신문 & metroseoul.co.kr