얄팍다식 & 경제/신재생에너지(스타트업)

인공지능, 편리한 만큼 위험도 크다

AI독립군 2018. 10. 26. 10:27

인공지능, 편리한 만큼 위험도 크다

 

정교한 인공지능개발되면 가족 · 친지 가장해 취약점 공격하기 쉬워져개인정보 보호에 각별히 신경 써야


상대방이 사람인 줄 알고 대화하다가 인공지능으로 밝혀지면 사람들은 심리적 거부감과 불쾌감을 느끼기 쉽다.

/ 사진:GETTY IMAGES BANK

스마트폰이 스스로 미용실이나 식당에 전화를 걸어 예약할 수 있는 개인비서 기능을 한다면 우리의 생활이 얼마나 편해질까? 지난 5월 구글은 실제로 그런 작업을 실행할 수 있는 인공지능 개인비서듀플렉스를 선보였다. 구글 듀플렉스는 안드로이드 또는 iOS 기기에 설치할 수 있는 구글 어시스턴트 앱의 확장 프로그램으로 자연언어 처리, 딥러닝, 텍스트를 대화로 바꾸는 기술을 결합시킨 인공지능 기술이다. 사용자는 구글 어시스턴트에 식당이나 매장에 전화를 걸도록 지시하는 것을 포함해 여러 업무를 시킬 수 있다.

 

구글의 시연에서 스마트폰을 통해 식당에 전화를 건 합성된 인공지능 봇의 목소리는 사람과 완전히 비슷할 정도로 사실적이었다. 기술광들은 당연히 갈채를 보냈다. 구글은 지난 6월 공식 블로그를 통해신뢰할 수 있는 테스트 그룹과 듀플렉스 전화 수신을 허가한 소수의 미국 업소들을 대상으로 시범 테스트를 시행한다고 밝혔다.

 

하지만 그 대화의 상대방이 되는 기분이 어떨지 한번 생각해 봤는가? 진짜 사람 같은 목소리의 컴퓨터로부터 전화를 받는다면 어떤 느낌이 들까? 식당 종업원인 내게 방금 전화를 걸어와 예약을 마친 사람이 알고 보니 인공지능이었다면 말이다. 구글의 시연에서 인공지능은 사람과 똑같은 목소리로 업소 직원과 꽤 긴 대화를 하면서언제가 좀 한가한지등을 따져 적당한 시간에 예약하는 모습은 분명 한 단계 진화한 인공지능의 모습이었다. 특히’ ‘등 망설이는 듯한 모습까지도 그대로 흉내 내 상대방은 전화를 거는 쪽이 로봇일 거라고는 전혀 생각지 못했다.

 

물론 구글 듀플렉스는 인공지능의 미래가 어떨지 보여주는 비근한 예다. 하지만 상대방이 사람인 줄 알고 대화하다가 나중에 가서 사람이 아닌 것으로 밝혀질 경우, 사람들은 섬뜩함과 함께 심리적 거부감과 불쾌감을 느끼기 쉽다. 서비스 제공 주체의 신뢰도에 부정적인 영향을 미칠 우려도 있다. 실제 사람 목소리를 가져다 쓰고같은 추임새까지 따라하는 인공지능이 기만적이라는 지적도 나왔기 때문이다(이에 대해 구글은 통화할 때 통화하는 주체가 구글 어시스턴트라는 사실을 밝히고 통화 내용이 녹음된다는 사실을 공개하겠다는 방침을 내놨다). 그뿐 아니라 실제로 위험한 기술이 될 수도 있다. 보안 전문가들은(bot)’을 특히 우려한다. 고도의 자율성으로 과제를 수행하도록 설계된 인터넷 상의 소프트웨어를 말한다. 구글 듀플렉스 같은 인공지능 소프트웨어가 보편화되면 봇을 사용해 특정인만이 아니라 그가 아는 친구나 가족도 그대로 흉내 낼 수 있지 않을까?

 

네트워크 보안 전문업체 어웨이크 시큐리티의 라훌 카슈얍 대표는이렇게 한번 생각해보라며 가상의 예를 들었다. “공격자가 내 아내의 목소리를 녹음해 인공지능으로학습하면 내 아내의 가짜 전화번호로 내게 전화를 걸어 아내 흉내를 낼 수 있다. 그 정도 수준에 이르면 공격자는 무엇이든 시도할 수 있다. 예를 들어 실제 상황처럼 들리는 이유를 대며 은행 계좌로 특정 금액을 송금하라고 하면 내가 어떻게 거부할 수 있겠나?” 게다가 기업체 대표나 군 장성에게도 그런 일이 일어날 수 있다면 이 얼마나 섬뜩한 일일까?

 


요즘은 고객과 기관 사이의 중재자로 인공지능 봇을 많이 사용한다. 예를 들어 신용카드 구매나 계좌 거래내역에 관한 정보는 봇이 생산했을 수 있다. / 사진:GETTY IMAGES BANK

 

지금은 온라인으로 사기를 치려면 계획 수행에 많은 시간이 걸려 잠재적 피해자 수가 제한될 수밖에 없다. 그러나 인공지능이 더욱 발전하면 해커는 강력한 고성능 봇을 만들어 해킹을 자동화할 수 있다. 그럴 겨우 개인정보 보호에 큰 문제가 생길 수 있다. 예를 들어 비밀번호나 은행계좌 번호를 훔치려는 사기꾼은 개인적으로 잘 아는 사람의 목소리로 전화 통화를 시도함으로써 몇 초 만에 수천 명을 표적으로 삼을 수 있다. 미국 켄터키주 루이빌대학 사이버보안랩의 로먼 얌폴스키 소장은앞으로 특별한 규제가 없으면 구글 듀플렉스 기술이 사회공학 기법 공격의 대규모 감행에 이용될 소지가 다분하다고 말했다. 사회공학 기법(social engineering)이란 가족이나 친지를 가장해 시스템이 아니라 사람의 취약점을 공략함으로써 원하는 정보나 금전적 이익을 얻어내는 기법을 말한다.

 

물론 사람의 목소리를 인위적으로 복제하는 기술은 앞으로 몇 년 더 걸릴 것이다. 하지만 인공지능 봇은 그런 기술 없이 다른 면에서도 보안 위험을 제기했다. 요즘은 고객과 기관 사이의 중재자로 인공지능 봇을 사용하는 것이 보편적 추세이기 때문이다. 예를 들어 우리가 은행에서 신용카드 구매나 계좌 거래내역에 관해 받는 정보는 봇에 의해 생성됐을 수 있다.

 

스마트폰 데이터 사용에 관한 통신사의 알림이나 배달되는 물품에 관해 택배 업체의 통보, 항공사 웹사이트에서 개인에게 전하는 메시지 등도 마찬가지다. ‘직원이 보내는 문자라고 생각하겠지만 대부분 봇이 전송한다.

 

하지만 이런 메시지를 해커가 가짜로 만들어내는 일이 자주 발생한다. 은행에서 전송된 듯한 링크가 사실은 개인정보를 알아낼 목적으로 사용자를 속이는피싱일 수 있다. 봇체인(인공지능 기술을 감사하고 승인하는 블록체인 플랫폼)을 개발한 업체 탈라의 롭 메이 CEO앞으로 2~3년 안에 문자나 음성 메시지, 이메일을 받을 때마다 사람이 보내는지 봇이 보내는지 알기 어려운 세상이 올 것이라고 내다봤다.

 

인공지능 봇 기술은오픈 소스. 어느 회사든 무료로 사용할 수 있다는 뜻이다. 따라서 안전을 위해선 개인정보를 알려주지 말고 너무 많은 질문을 하는 봇은 일단 의심하는 게 상책이다. 좋은 소식은 봇체인이 봇의 진위를 확인해 인증하는 기술을 개발 중이라는 사실이다. 하지만 앞으로 몇 년 동안은 봇 기술이 보안 전문가와 대중의 따라잡기 능력을 앞지를 수 있다.

 

윌리엄 맨셀 뉴스위크 기자

 


728x90