“AI 학습시키려고”… 개인정보 유출 위험에 이용자 불안 증폭

AI 신산업 성장…개인정보 학습력에 이용자 불안 가중
전문가 “불특정 다수의 정보 임의 수집…관리 철저해야”

기사 내용 이해를 위한 사진으로 기사와 직접적 연관은 없습니다. 이미지투데이
기사 내용 이해를 위한 사진으로 기사와 직접적 연관은 없습니다. 이미지투데이

 

AI(인공지능) 신산업이 우후죽순 쏟아지는 가운데, 이용자의 상당수가 AI에 개인정보를 학습시키는 것을 불안해 하는 것으로 나타났다.

 

5일 경기일보 취재를 종합하면 최근 ▲AI 기반 헬스케어 ▲특정 화풍(지브리, 바비 등) 이미지 생성 ▲업무용 AI 비서 등 AI를 활용한 로운 서비스들이 주목받고 있다. 공통점은 질 높은 서비스와 결과물을 제공받기 위해선 얼굴, 신체, 사용자 성격 등의 프라이버시를 AI에 ‘누적’ 학습시켜야 한다는 것이다.

 

인공지능 시대에 대응하는 ‘인공지능기본법’이 내년 1월 시행을 앞두고 있긴 하지만, 개인정보 보호에 대한 내용은 구체적으로 들어가 있지 않아 이용자들의 불안감을 해소하지 못하고 있다.

 

시장조사기업 트렌드모니터가 지난달 15일 전국 만 13~69세 1천200명을 대상으로 실시한 조사에 따르면, 10명 중 7명에 달하는 67.0%가 AI 이미지 생성을 위해 업로드한 사진이 무단으로 쓰일까봐 걱정된다고 답했다.

 

또한 63.1%의 이용자는 ‘내 사진이 AI 학습에 이용될까 걱정된다’, 48.1%는 ‘AI에 사진을 업로드할 때 주저했던 적이 있다’고 답하며 불안감이 큰 모습을 보였다.

 

전문가들은 AI만의 정보 학습력이 이용자들의 불안을 가중시키므로 더욱 철저한 관리가 필요하다고 조언했다.

 

신건윤 한경국립대 정보보안전공 교수는 경기일보와의 통화에서 “AI는 인터넷 환경에서 정보를 학습하며 불특정 다수의 정보를 임의로 수집한다”며 “이용자가 원한다면 기업 웹사이트의 회원가입 정보까지 쉽게 가져와서 학습이 가능하다. 이런 구조가 이용자들의 불안을 가중시키는 요소”라고 설명했다.

 

법적 보호 수준에 대해서는 “AI로 인한 개인정보 탈취 및 유출 문제를 해결하고자 노력하는 것 같다”면서도 “아직 기준이 매우 모호하고, AI가 개인정보를 학습해 피해를 입었다고 증명할 수 있는 장치 마련도 부족한 것 같다”고 말했다.

 

법적 보호가 미흡하자 개인정보보호위원회와 AI 업계 종사자들이 현장에서의 프라이버시 관리 방안을 논의하는 등 대책 마련에 직접 나서고 있다.

 

오는 6월 개보위가 개최하는 ‘제3차 개인정보 미래포럼’에서는 AI 신기술 및 서비스 개발 과정에서 개인정보 처리에 대한 사회적 신뢰 확보 방안이 본격 논의될 예정이다.

 

신 교수는 “AI가 이미 수집한 정보 중에서 개인정보를 구별해내고 정보 제공 시 제외할 수 있게 하는 방안이 필요하다”며 “정보 수집 전뿐만 아니라 수집 후의 개인정보 관리도 중요하게 생각해야 한다”고 강조했다.

© 경기일보(www.kyeonggi.com), 무단전재 및 수집, 재배포금지
댓글 댓글 운영규정