[이슈메이커] 챗GPT, 어떻게 사용하고 대응할 것인가
[이슈메이커] 챗GPT, 어떻게 사용하고 대응할 것인가
  • 김민지 기자
  • 승인 2024.04.30 09:01
  • 댓글 0
이 기사를 공유합니다

챗GPT의 편리함과 동시에 나타나는 여러 가지 문제점들
교육과 기술 개발, 보안정책 통해 문제들에 대처해야

[이슈메이커=김민지 기자]

챗GPT, 어떻게 사용하고 대응할 것인가
 

‘챗GPT’는 언어처리 인공지능 모델을 기반으로 하는 대화형 인공지능 서비스다. 챗봇 형태로 마치 사람과 대화하는 것처럼 대화의 맥락을 이해하고 일상적인 언어를 사용한다. ‘챗GPT’는 사용자 수가 2억 명을 넘었다. 그러나 챗GPT와 같은 생성혐 AI의 사용이 널리 확산됨에 따라 허위 정보, 저작권 침해, 개인정보 위협 등에 대한 우려가 제기되고 있다.

 

ⓒPixabay
ⓒPixabay

 

AI, 정말 위험할까?
챗GPT를 비롯한 인공지능에도 한계점이 있다. 틀린 정보를 사실처럼 대답해 정확성이 떨어진다는 문제가 있다. 이를 할루시네이션(Hallucination) 현상이라고 하는데 이러한 현상으로 종종 사용자들에게 불만을 자아냈다. 혹은 편향된 정보를 제공할 수도 있다. 일례로 과거 마이크로소프트에서 개발한 인공지능 ‘테이’가 특정 사이트에서 부적절한 발언 학습이 유도되는 ‘트롤링(Trolling)’을 당했다. 그 결과 테이는 공개 16시간 만에 서비스를 종료해야 했다.

  가장 주목해야 할 점은 보안 문제다. 챗GPT로 인한 보안 위협 중 대표적인 건 AI 모델과 학습 데이터에 대한 공격이다. 공격자가 생성 AI에 조작된 데이터를 입력하거나 AI가 학습한 기존 데이터에서 개인정보만 뽑아내는 방식이 대표적이다. 생성 AI에게서 악성 코드를 얻어내거나 ‘딥페이크’를 피싱에 활용하기도 한다.

  챗GPT의 개발사인 OpenAI도 이에 맞서 보안 기술을 업데이트하고 있지만 역부족이라는 지적이 나온다. OpenAI는 프롬프트 엔지니어링을 통해 해킹 등에 악용될 수 있는 질문을 차단하고 있다. 예를 들어 ‘해킹에 악용될 소지가 있는 질문에는 답하지 않겠다’고 대응하는 식. 하지만 해커들은 이를 우회할 방법을 찾아 해킹에 악용될 소지가 있는 질문에 대한 답을 무조건 수행하는 ‘DAN(Do Anything Now) 상태’로 만들 수도 있다. 

  또한, 정보 유출에 대한 문제도 제기된다. 챗GPT에 입력한 정보는 제작사 OpenAI 서버에 저장된다. OpenAI사에 보안사고가 발생하면 사용자가 입력한 정보가 유출될 수 있다. 심지어 우회 질문을 통해서도 정보가 유출될 수 있으므로 챗GPT에는 민감한 정보를 입력하지 않도록 주의를 기울여야 한다.

  교육계에는 챗GPT를 사용한 부정행위가 논란이 일었다. 논문·보고서를 작성할 때 챗GPT를 사용해 문제가 된 것. 이를 우려해 미국 뉴욕시의 관할 학교에서 사용하는 단말기, 네트워크 장비 등에서 챗GPT 접속 및 사용 금지 조처가 내려졌다. 영국·프랑스·호주·캐나다의 주요 대학에서도 챗GPT 사용을 제한했다.

  생성형AI 중 DALL-E는 OpenAI에서 개발한 이미지 생성 기술인데, GPT-3와 같은 딥러닝 모델을 활용하여 사용자가 제시한 텍스트 설명에 맞는 이미지를 생성한다. DALL-E가 이미지를 생성할 때 사용하는 데이터셋과 알고리즘에 따라, 이 기술이 만들어내는 이미지가 성적, 인종, 성별 등과 같은 특정 집단을 차별하거나 모욕적인 이미지를 생성할 수 있다는 문제점이 있다. 또한, 생성된 이미지가 실제로 존재하는 사물과 거의 비슷하다면, 이러한 이미지를 잘못 사용하거나 남용할 가능성도 있다.

 

생성형 AI를 통해 만들어낸 이미지. 사용자가 제시한 텍스트 설명에 맞는 이미지를 생성한다. ⓒPixabay
생성형 AI를 통해 만들어낸 이미지. 사용자가 제시한 텍스트 설명에 맞는 이미지를 생성한다. ⓒPixabay

그렇다면 어떻게 해야할까?
앞서 설명한 문제점들이 발생함에 따라서 대처 방법에 대한 여러 가지 의견이 나오고 있다. 우선, 챗GPT 안전 활용 지침을 마련하고 소통·협력을 강화해야 한다는 의견이다. 기업 내 챗GPT를 안전하게 도입하고 부작용을 완화하기 위해 보안사고 정보 공유가 필요하다. 보안 사고가 발생하면 원활한 조사와 협조를 위해 OpenAI와의 협력이 필요하다.

  또한, 챗GPT의 잘못된 사용으로 사이버 위협과 개인정보가 유출될 수 있다는 사실을 사람들에게 알려야 한다. 교육을 통해 무분별한 사용을 방지하기 위한 노력이 필요하다. 이와 함께 기술적인 보안 대책 마련이 필요하다. 챗GPT와 같은 생성형 인공지능의 답변이 보안에 위협적인지 구별할 수 있는 기술 개발이 필요하다는 것. 기술 개발을 통해 사이버 공격에 효율적으로 대응해야 한다는 설명이다.

  이를 위해서 인공지능 보안 분야의 R&D 투자 확대가 요구된다. 미국 등 인공지능 분야 선진국과 공동으로 연구하고, 인공지능 보안 전문 인력을 양성해야 한다. 이를 기반으로 국가 인공지능 기반을 강화하기 위해 노력해야 할 것이다.

  인공지능 보안의 구체적인 방향성을 잡기 위한 보안정책도 갖춰져야 한다. 개발부터 안전한 활용단계까지 기준을 제시할 수 있는 ‘보안 프레임워크’를 마련하는 방법이 있다. 더불어 다양한 산업 분야에 안전한 인공지능 모델 및 서비스가 확산될 수 있도록 인증 제도를 도입하는 등 지속적인 지원이 필요할 것이라는 예측이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 영등포구 국제금융로8길 11, 321호 (여의도동, 대영빌딩)
  • 대표전화 : 02-782-8848 / 02-2276-1141
  • 팩스 : 070-8787-8978
  • 청소년보호책임자 : 손보승
  • 법인명 : 빅텍미디어 주식회사
  • 제호 : 이슈메이커
  • 간별 : 주간
  • 등록번호 : 서울 다 10611
  • 등록일 : 2011-07-07
  • 발행일 : 2011-09-27
  • 발행인 : 이종철
  • 편집인 : 이종철
  • 인쇄인 : 김광성
  • 이슈메이커 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 이슈메이커. All rights reserved. mail to press1@issuemaker.kr
ND소프트