[이슈메이커] 완전무결한 제2의 ‘이루다’를 만날 수 있을까?
[이슈메이커] 완전무결한 제2의 ‘이루다’를 만날 수 있을까?
  • 김남근 기자
  • 승인 2021.02.22 09:22
  • 댓글 0
이 기사를 공유합니다

[이슈메이커=김남근 기자]

완전무결한 제2의 ‘이루다’를 만날 수 있을까?
 
인공지능(AI) 챗봇 ‘이루다’가 개인정보유출 문제와 혐오·차별적인 표현이 문제가 된 가운데, 인공지능 윤리 이슈가 다시금 부각되고 있다. 전문가들은 AI 윤리의 중요성을 사회가 인식하고 규범 및 제도의 구체화를 주장하고 있다.
 
 
ⓒ pixabay
ⓒ pixabay

 

시스템적 오류뿐만 아닌 사용자의 책임도 존재
지구촌에 존재하는 거의 모든 기기가 네트워크로 연결되며 대량의 데이터가 필연적으로 발생하게 됐고, 이를 활용하기 위한 빅데이터와 인공지능 산업 부상하게 됐다. 인공지능은 이제 더 이상 미래의 상상이 아니다. 현실과 삶에 깊숙이 파고들고 있다. 하지만 인공지능과 빅데이터의 발전과 함께 예상치 못했던 각종 윤리적 이슈들이 발생하고 있다. 메커니즘의 특성상 인간을 완전히 대체할 수 없으며 편향된 데이터로 학습하게 되면 각종 사회적 책임이 뒤따를 수 있다는 전문가들의 경고를 간과한 건 아닌지 의문이 든다. 최근 서비스를 중단한 ‘이루다’ 사태가 논란에 불을 지폈다.
 
AI 스타트업 스캐터랩은 지난달 인공지능 챗봇(Chatbot) ‘이루다’ 서비스의 종료를 알렸다. 데이터 보안의 오류와 개인정보 유출 의혹이 서비스 종료의 결정적 이유였지만, 그 시작은 사용자로부터 습득한 차별적인 혐오 표현의 재생산 때문이었다. 즉, 인공지능 윤리에 대한 문제로 점화된 것이다. 애초에 이루다가 20대 여성이라는 설정이 이용자로 하여금 편견과 차별을 자연스레 조장하게 된 것인지도 모른다. 스캐터랩 측은 ‘로봇이 실제 사람(연인) 간의 대화를 수집하고 학습한 결과일 뿐’이라고 주장하지만, 애초 설정 단계부터 단추가 어긋난 게 아닌가 하는 의견들이 나오고 있다.
 
이와 유사한 예를 들자면 지난 2018년, 인공지능 플랫폼 회사 ‘라이브 퍼슨(Live Person)’의 로버트 로커시오 CEO는 미국의 경제지 Fortune에 기고한 칼럼에서 “어린 딸이 아마존의 인공지능 비서 ‘알렉사’와 이야기하는 것을 들었는데, 아이가 알렉사의 순종적인 태도에 맞춰 무례하게 명령하고 있다는 것을 알게 됐다. 여성의 목소리를 가진 ‘비서형’ 인공지능 스피커들이 성차별적 인식을 강화하고 있다”고 전한 바 있다.
 
한편, 지난해 초 인공지능 시스템에 대한 내부 감사 절차를 표준화해 발표한 구글은 AI의 오동작 유형을 분석하고 그 영향을 평가한 자료를 도출하는 과정이 핵심이라고 전했다. 이 과정에서는 이용자들이 AI 시스템을 악용하거나 악의적으로 조작할 위험이 없는지 확인하는 작업이 포함되어야 한다고 밝힌 것처럼 인공지능의 윤리적 문제는 시스템의 설계만이 문제가 아니라 ‘학습’이라는 특성을 지닌 인공지능의 특성을 이용하는 사용자들에게도 일정 부분 책임이 있다는 것을 시사한다.
 
김병필 KAIST 기술경영학부 교수는 칼럼을 통해 “신뢰성은 이미 인공지능 성능 평가의 중요 요소”라며 “국제표준화기구가 인공지능 신뢰성을 평가하는 여러 기술 표준을 추가적으로 준비하고 있을 정도”라고 전했다. 이어 “자신의 기대를 충족시키지 못하는 제품에 대한 고객의 평가는 냉혹하다. AI 신뢰성을 높이기 위한 ‘검수’ 절차 수립을 서둘러야 할 때”라고 지적한 바 있다.
 
 
ⓒ 이루다 페이스북 페이지 캡처
데이터 보안의 오류와 개인정보 유출 의혹으로 인공지능 챗봇(Chatbot) ‘이루다’ 서비스가 지난 1월 11일 서비스 종료를 알렸다.ⓒ 이루다 페이스북, 인스타그램 페이지 캡처
데이터 보안의 오류와 개인정보 유출 의혹으로 인공지능 챗봇(Chatbot) ‘이루다’ 서비스가 지난 1월 11일 서비스 종료를 알렸다.ⓒ 이루다 인스타그램 페이지 캡처

 

인공지능 윤리에 대한 끊임없는 고찰 필요
“최근 논란이 된 인공지능 챗봇 ‘이루다’ 사태는 또 다른 ‘미케니컬 터크’(Mechanical Turk) 쇼였다. 우리는 이미 종교가 된 기술 현실에서 이로부터 잠시 각성을 체험하는 행운을 얻었던 것이다. 즉 미케니컬 터크 속에 숨어든 인간의 존재처럼, 인공지능에도 혐오와 편향의 인습이 스며든다는 사실을 말이다.”
 
이광석 서울과학기술대학교 IT정책대학원 디지털문화정책 전공 교수가 한 언론사에 연재한 글에서 발췌한 내용이다. 이 같은 내용은 지난 몇 년 전부터 해외 유수의 기관들도 주장해온 사항이다. 하버드대학교 버크만센터는 원칙에 입각한 인공지능 연구를 통해 주요한 인공지능 원칙 36개의 내용을 분석하여 공통되는 8가지 핵심 주제를 선정한 바 있다. 이는 개인정보, 책무, 안전 및 보안, 투명성 및 설명 가능성, 공정성 및 비차별, 인간의 기술 통제, 전문가 책임, 인간 가치 증진 등이다. 여기서도 알 수 있듯이 인공지능의 윤리를 위해 다양한 각도에서 대비책을 마련해온 것을 알 수 있다. 유럽연합(EU)과 경제협력개발기구(OECD) 등 국제기구와 각국 기업 및 연구기관들도 인공지능 윤리원칙을 발표했고, 독일, 일본 등에서도 정부 차원의 가이드라인이 발표됐다. 우리나라 역시 지난해 12월, 인공지능 기술을 활용하는 정부와 공공기관, 기업, 이용자 등 사회 전체 구성원이 인공지능 개발부터 활용까지의 전 단계에서 함께 지켜야 할 윤리 원칙과 핵심 요건을 담은 ‘인공지능 윤리기준’을 마련했지만, 이번 이루다 사태에서 알 수 있듯 아직 국내의 인공지능 윤리에 대한 인식과 제도적 안전망은 걸음마 단계다.
 
이광석 교수는 “인공지능이 이제 성장 단계인 것을 상정하면 이루다 사태는 그 징후에 불과하다”며 “비슷한 기술 문제가 주기적으로 터져 나올 확률이 크다. 특히 인공지능은 시장을 넘어 사회적으로 민감한 기술이다. 고독과 우울이 현대인을 짓누르는 현실에서, 챗봇과 같은 대화형 인공지능은 이번에 잠시 주춤하겠지만 그 성장세를 멈추지 않을 것”이라고 우려의 목소리를 내비쳤다. 정원준 국가지식재산위원회 전문위원은 기고를 통해 “윤리적으로 완전무결한 제2의 이루다를 만나기 위해서는 책무와 책임 사이에서 인공지능을 둘러싼 이해관계자들의 적극적인 자정의 노력이 필요할 것이고, 공적 주체와 입안자들은 무조건적인 규제보다는 인공지능과 공존할 수 있는 규범적 대응 방향을 모색해야 할 것”이라고 일침을 가했다.
 
윤리기준이 구속력 있는 법이나 지침은 아니지만, 기술의 발전에 따른 사회의 성숙과 고도화를 위해 우리는 인공지능 윤리에 대한 끊임없는 고찰이 이뤄져야 할 것이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 영등포구 국제금융로8길 11, 321호 (여의도동, 대영빌딩)
  • 대표전화 : 02-782-8848 / 02-2276-1141
  • 팩스 : 070-8787-8978
  • 청소년보호책임자 : 손보승
  • 법인명 : 빅텍미디어 주식회사
  • 제호 : 이슈메이커
  • 간별 : 주간
  • 등록번호 : 서울 다 10611
  • 등록일 : 2011-07-07
  • 발행일 : 2011-09-27
  • 발행인 : 이종철
  • 편집인 : 이종철
  • 인쇄인 : 정찬민
  • 이슈메이커 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2021 이슈메이커. All rights reserved. mail to press1@issuemaker.kr
ND소프트