경불진 이피디의 경제공부방

“여보세요” 한마디로 털린다는데···현실적인 예방법 5가지는? 본문

카테고리 없음

“여보세요” 한마디로 털린다는데···현실적인 예방법 5가지는?

경불진 이피디 2024. 7. 23. 18:53
반응형

 

최근 온라인커뮤니티에서 화제가 된 사연이 있습니다.

 

‘모르는 번호로 전화 와서 아무 말도 안 하면 절대 먼저 말하지마.’

 

도대체 이게 무슨 소리일까요?

 

커뮤니티를 보면 이 사연을 올린 네티즌은 교수님 덕분에 보이스피싱을 회피했다고 운을 뗍니다.

 

이어 전화 받았는데 건 사람이 계속 한마디도 안 했다전화 받은 사람도 아니고 전화 건 사람이 이럴 수가 있나 싶어서 여보세요하려다가 4산법(4차산업혁명과 법) 교수님이 해준 얘기가 기억났다고 당시 상황을 전했습니다. 교수님이 모르는 번호로 전화가 왔는데 아무 말도 안 하면 절대 말하지 말라고 하셨다“(전화를 받은 사람의) 목소리를 따서 가족한테 사기치려고 그러는 거라고 하셨던 말씀이 생각났다고 설명했는데요.

 

그래서 바로 전화를 끊었다는 사연이었습니다.

 

이에 많은 누리꾼들이 친한 형이 정말 이 방법으로 당했다” “모르는 전화번호를 받았더니 아무 대답없었는데 너무 두렵다등의 댓글이 쏟아졌는데요.

 

해당 글에 등장한 교수는 조수영 숙명여대 교수(법학)로 알려졌습니다.

 

조 교수님은 “‘4차 산업혁명과 법과목 강의 중 기술 발달에 따라 지능화되는 보이스피싱 범죄를 예방하기 위한 방법 가운데 하나로 이 내용을 언급했다글을 보니 학생이 당부를 잘 따라줬다고 한 매체와의 인터뷰를 통해 말했는데요.

 

조 교수의 주장은 이렇습니다.

 

“최근 보이스피싱 범죄 집단이 통화 목소리를 녹음하고, 이를 다른 텍스트와 결합해 새로운 음성을 만들어 협박에 이용하는 사례가 많습니다. ‘여보세요. 누구시죠’ 등 짧은 단어 두 세 마디만 말해도 이렇게 악용될 수 있습니다.”

 

바로 인공지능 기술을 활용해 특정인의 목소리를 똑같이 내는 기술인 딥보이스를 악용한다는 것인데요.

 

이를 통해 피해자 목소리로 교통사고 등 급한 상황이 생겼으니 돈을 보내달라’ ‘스마트폰 액정이 깨졌으니 카드 번호를 불러달라고 가족이나 친구 등에게 요구한다고 합니다.

 

에이 말도 안되라고 생각하시는 분들도 계실 것입니다. “아무리 AI가 발달했다고 해도 그건 불가능할 것 같은데” “금방 들통날 것 같은데라고 하실텐데요.

 

딥보이스 기술은 목소리의 톤은 물론이고 억양까지도 복제하는 단계에 이미 이르렀다고 합니다.

 

5초 분량의 목소리면 정교하진 않더라도 비슷한 음성을 만들 수 있다고 하고요.

 

이보다 더 긴, 대략 30분 정도 분량의 음성이면 거의 완벽한 음성까지 가능한 수준입니다.

 

이 때문에 청력 등이 좋지 않은 노인의 경우 딥보이스 보이스피싱에 취약할 수밖에 없다는 거죠.

 

실제로 내 목소리를 AI목소리로 만드는 서비스는 여럿 있습니다.

국내 업체인 보이저엑스가 운영하는 브류(Vrew)의 경우 제시하는 30문장만 녹음하면 내 목소리를 AI목소리로 만들어줍니다.

 

이후부터는 힘들게 읽을 필요없이 텍스트만 입력하면 AI가 내 목소리 톤으로 음성을 만들어 줍니다.

 

음성 인공지능(AI) 스타트업 일레븐랩스는 책이나 뉴스 기사를 읽은 파일을 넣으면 몇 분내에 AI목소리로 만들어주고요.

 

30분 이상의 긴 파일을 보내면 음성과 음량 심지어는 사투리까지도 거의 똑같이 흉내낼 수 있습니다.

 

물론 이런 업체 서비스를 이용해 보이스피싱을 하는 데에는 한계가 있습니다.

 

원하는 문장이나 30분 정도의 음성 파일이 있어야 하기 때문이죠.

 

하지만 유뷰트나 페이스북 등에 올린 영상에서 음성을 빼낸다면 가능할 수도 있죠.

 

게다가 의뢰를 하면 딥보이스를 음성적으로 만들어주는 업체들도 수두룩하다고 합니다. 그렇게 때문에 조심해야 한다는 것입니다.

이미 딥보이스 피해사례가 여기저기서 보고되고 있습니다.

 

202110월 아랍에미리트(UAE)의 한 은행은 평소 거래하던 대기업 임원의 목소리를 흉내 낸 딥보이스 보이스피싱에 속아 3500만달러(당시 약 420억원)를 송금했다고 합니다.

 

지난해 3월 캐나다에서는 딥보이스로 만든 가짜 아들 목소리에 속은 부모가 보이스피싱범에게 21000 캐나다 달러(당시 약 2000만원)를 송금하는 피해를 봤다고 하고요.

 

아직 국내에는 피해사례가 보고된 것은 없다고 하지만 피해를 입은지 모르거나 신고를 하지 않은 사고가 있지 않을까요?

 

그래서인가 국내 업체들도 딥보이스 사고 방지에 나서고 있습니다.

 

이같은 범죄는 스팸 문자와 전화 등 통신을 통해 시작하기 때문에 이통사들의 책임도 크다는 지적이 많았습니다.

 

그래서인가 이통사들도 고객들의 피싱 범죄를 사전에 막기 위해 고군분투하고 있다고 항변하고 있습니다.

 

AI기반인 딥보이스 보이스피싱을 잡기 위해 AI기술을 고도화하고 있다는데요.

 

KT는 보이스피싱 범죄에 사용되는 번호를 네트워크상에서 긴급 차단할 수 있는 긴급 망 차단 서비스를 시작했습니다.

 

기존엔 수사기관 요청에 따라 범죄 회선을 이용 정지시키기까진 최소 만 하루의 시간이 소요됐다면,

 

이번 긴급 망 차단 시스템 도입으로 즉시 범죄 회선의 전화 수·발신을 차단할 수 있습니다. 덕분에 보이스피싱 위협에 노출된 피해자들을 신속하게 보호할 수 있다고 하는데요.

 

여기에 KT는 하반기 중 AI 기술을 활용한 실시간 보이스피싱 탐지서비스 개발을 완료하고, 연내 출시한다는 계획입니다.

 

현재 통화 중인 보이스피싱의 위험도를 탐지해 고객에게 알려주겠다는 거죠. 위험도가 높다고 판단되면 간편 신고를 통해 범죄 피해를 사전에 차단할 수 있다고 합니다.

 

악성코드 등으로 스마트폰 통제권이 보이스피싱범에게 넘어가면 아무런 소용이 없지 않을까요?

 

이에 대해 KT는 외부 연동 없이 자체적으로 동작할 수 있도록 온디바이스 AI’를 적용한다는데요.

 

서버나 클라우드에 연결할 필요 없이 모바일 기기 자체적으로 정보를 처리할 수 있기 때문에 민감한 개인정보가 포함된 음성 통화 데이터를 외부로 보내지 않고도 안심할 수 있다는 거죠.

SKT역시 올해 안에 AI 기반 스팸·스미싱 필터링 시스템 온디바이스 모델을 출시할 계획입니다.

 

KT와 마찬가지로 스마트폰 단말기 내부에 온디바이스 AI 기반 모델을 구축해 민감한 개인정보 보안을 한층 강화한다는 계획이라는데요.

 

개인정보위원회와 금융감독원, 국립과학수사연구소, KISA를 통해 확보한 보이스피싱 통화 데이터를 분석해 정교화한 AI를 내놓겠다는 목표라고 합니다.

 

LG유플러스도 자체 AI 기술 익시(ixi)’를 활용해 개발한 화자음성인식(목소리 식별 기술)’을 활용한 보이스피싱 피해 예방에 나설 예정이라는데요.

 

화자음성인식은 발화자가 5~10개 문장을 녹음해 목소리를 시스템에 등록하면 AI가 음성의 특징을 분석해 본인을 확인할 수 있는 것이 특징입니다.

 

이런 서비스를 쓰려면 서비스요금은 물론 단말기도 바꿔야 하는 것은 아닐까요?

 

이통3사가 딥보이스 등 보이스피싱에 칼을 빼든 이유가 있다고 합니다.

 

금융감독원이 발표한 ‘2023년 보이스피싱 피해 현황 분석에 따르면 지난해 보이스피싱 범죄 피해자는 11503명으로 전년 12816명 대비 10.2% 감소했습니다.

 

하지만 보이스피싱 범죄로 인한 총 피해액은 1965억원으로 전년인 1451억원보다 514억원(35.4%) 증가했는데요. 보이스피싱 범죄가 갈수록 진화하면서 1인당 피해 규모가 급증하고 있다는 분석입니다.

 

이러자 보이스피싱 범을 방치한 이통3사에도 책임을 물어야 한다는 목소리가 높은데요.

 

그러자 뒤늦게 대책을 내놓고 있는 것이죠. 따라서 계획대로 서비스가 나올지도 의문일 수 밖에 없습니다.

 

그러면 갈수록 정교해지는 딥보이스 보이스피싱 피해를 막을 방법은 없을까요?

최근 CNBC와 리더스다이제스트가 5가지 방법을 제시했는데요.

 

첫 번째, 목소리에 이상한 점이 없는지 주의 깊게 들어본다. AI목소리 만들기 서비스를 이용해 보신 분들은 아실 것입니다.

 

아무리 성우같은 목소리를 가졌더라도 AI가 만들어낸 목소리는 어딘가 어색하기 마련입니다. 특히 외국어 발음이나 조사 등에서 부자연스럽게 멈추거나 로봇같은 말투로 소위 삑사리가 나기 마련이거든요.

 

따라서 흥분하지 말고 천천히 듣다보면 아직까지는 AI 목소리인지, 진짜 목소리인지 충분히 알 수 있습니다.

 

둘째. 질문을 던져라. 상대방 스마트폰이 이미 해킹됐을 때를 대비해 가족이나 지인 간에 관련된 질문을 퍼붓는 것이 좋습니다.

 

학교, 직장, 어렸을 때 살았던 곳 등이 기억나는지를 잇달아 물었을 때 버벅 된다면 의심해도 좋습니다.

 

셋째, 암호를 만들어라. 가족 여행지라던지 같은 본 영화, 좋아하는 프로팀이나 아이돌 등 가족이나 지인만의 추억이 토대라면 기억하기도 편합니다.

 

다만 페이스북이나 인스타에 올렸던 것은 피하는 것이 좋습니다. 집요한 해킹범이라면 그것마저도 알고 있을 수 있기 때문입니다.

 

넷째. 내 목소리를 소중하게 다뤄라.

 

목소리를 녹음해야 하는 음성 챌린지나 퀴즈 등은 참여하지 않는 것이 좋습니다. 혹시 해킹에 악용될 가능성이 큽니다. 금융서비스 등에서도 음성 인증은 되도록 쓰지 않는 것이 바람직합니다.

 

다섯째, 해당 기관에 신고하고 가족과 지인에게 알리자.

 

딥보이스 보이스피싱을 받은 것으로 의심된다면 경찰 등에 반드시 신고해야 합니다. 또 가족과 지인에게도 해당 사실을 알려야 피해를 막을 수 있습니다.

 

기술은 양날의 검이라고 하죠. AI가 발달하면서 내 목소리를 AI목소리로 만들어주는 편리한 서비스도 있지만 이를 악용하는 나쁜 놈들은 존재하기 마련입니다.

 

따라서 이런 사기가 있을 수 있다는 것을 인지하고 주변에도 주위를 환기시켜 피해를 최대한 막아야 합니다.

 

또 정치인들에게 이를 막을 수 있는 강력한 법을 만들라고 촉구도 해야 하고요. 가족이나 친구의 전화를 의심부터하게 만드는 나쁜 놈들을 그냥 나둬서는 안되잖아요.

  https://youtu.be/b5jTEgGOvk0?si=-ZkqXLmZQHuar8Ca

 

728x90
반응형
LIST