KISTI와과학

슬그머니 일상으로 들어오는 AI, 사생활 노출도 스르륵?! (KISTI)

조조다음 2021. 4. 2. 06:30

출시 20여 일만에 75만 명의 이용자를 모으는 등 10대들을 상대로 선풍적 인기를 끌던 AI 챗봇 ‘이루다’가 지난 1월 12일 돌연히 사라졌다. 성희롱, 성소수자 혐오 등 여러 논란에 휩싸이다 결국 서비스 중단에까지 이르게 된 것

 

특히 개인정보 유출 의혹이 결정타였다. 학습 재료였던 특정 앱에서의 대화가 유출됐다는 논란에 휩싸이며, 현재 개인정보보호위원회의 관련 조사가 진행되고 있다. 불과 1달을 못 채우고 중단된 이루다의 사례는 AI 시대 사생활 노출이 얼마나 큰 문제가 될 수 있는지 잘 알려주는 사례다.

 

AI 챗봇만 문제인 것은 아니다. 각종 통신사와 IT 대기업들이 앞 다퉈 내놓고 있는 AI 비서 역시 사생활 노출의 여지가 크다. 기본적으로 사용자와 AI간의 대화 빅데이터를 분석하고 학습하는 과정이 필수기 때문이다.

 

실제 2019년 구글 AI 비서인 ‘구글 어시스턴트’를 통해 대화 1천 여 건이 유출되기도 했다. 대화 분석을 위해 고용된 직원 중 한 명이 고의적으로 불법행위를 저지른 것. 외신 보도에 따르면, 누출된 대화에는 집주소는 물론 사용자의 건강상태까지 나와 있었다고 한다.

 

문제는 이러한 데이터가 일정 시간동안 저장된다는 사실. AI 시대에 있어 데이터는 필수불가결한 자원이기에, 대부분 회사들은 이를 확보하기 위한 노력을 아끼지 않는다. 법적으로 사용자 동의 절차를 거치긴 하지만, 막상 이를 신경 쓰는 사용자는 그렇게 많지 않다.

 

때문에 AI 스피커를 통한 사생활 침해에 의구심을 가진 사람들 역시 적지 않은 형편이다. 시장조사업체 엠브레인의 최근 조사 결과, 65.8%의 응답자가 이에 대해 우려하고 있다고 대답할 정도.

 

그런데 이러한 경각심마저 점차 내려가고 있다는 견해가 나왔다. 심홍진 KISDI 정보통신정책연구원 연구위원은 최근 한 기고 영상을 통해 “AI 음성기기에 대한 친근감이 프라이버시 불감증과 큰 연관이 있다”고 지적했다.

 

https://www.youtube.com/watch?v=AddxhNm10vY  (출처: KISDI 정보통신정책연구원 유튜브 캡처)

 

그에 따르면 AI 비서를 인간처럼 생각할수록 사생활 노출에 대한 경각심은 낮아진다. 처음엔 날씨를 물어보는 등 기능적 대화에서 출발하지만, 점차 사용자는 AI에게 감정을 드러내며 친근감을 느끼게 된다는 것. AI는 사용자와의 대화를 학습하며 갈수록 똑똑해지기 때문이다.

 

특히 앞으로 진행될 ‘인공지능의 사람화(Personification of AI)’는 사용자와 AI의 심리적 경계를 더욱 허물게 된다. 로봇기술이 발전하고, 홀로그램이 보편화 되면서 AI가 인간과 같은 외모를 갖고 행동을 모방할 수도 있다는 분석이다.

 

결국 사용자는 자신의 사생활을 공유한다는 경각심을 잃어버릴 수도 있다. 나이, 종교, 출신 지역같은 기본적 정보는 물론 성적 취향, 종교적 신념같은 민감한 정보까지 누군가에게 노출될 수 있다는 것이 심 연구위원의 결론이다.

 

그렇다고 사생활 노출이 두려워 AI를 멀리할 수도 없는 노릇. 이에 개인정보 보호를 위한 다양한 움직임 역시 이뤄지고 있다. 대표적인 것이 유럽연합에서 적용 중인 개인정보보호법(GDPR)이다. 이용자가 AI 알고리즘에 대해 설명을 요구하거나, 반대, 이의제기, 의견 표명을 할 수 있는 권리를 법적으로 보장한다.

 

기업 차원에서 ‘프라이버시 바이 디자인(Privacy by Design)’을 도입하자는 목소리도 거세다. 각종 상품과 서비스를 기획, 개발, 구축하는 단계에서부터 프라이버시 보장을 고려해야 한다는 원칙이다. 국내에선 데이터 3법 개정 등 AI 시대를 대비한 법제적 움직임도 한창 진행 중이다.

 

한편 지나친 제약이 AI 산업과 빅데이터 연구를 제한할 수 있다는 주장 역시 산업계를 중심으로 나오고 있는 형편. 이제 일상으로 들어온 AI와 데이터 프라이버시 이슈는 4차 산업혁명 시대의 뜨거운 감자가 될 것으로 보인다.