소라넷 33.kissjav.me コ 소라넷 새주소ゲ 소라넷 같은 사이트ポ
페이지 정보

본문
소라넷 19.588bam3.top ウ 소라넷 트위터ペ 소라넷 접속ボ 소라넷ウ 소라넷 링크ェ 소라넷 사이트ベ 소라넷 주소ヂ 소라넷 검증ポ 소라넷 커뮤니티リ 소라넷 사이트ガ 소라넷 새주소メ 소라넷 최신주소デ 소라넷 링크タ 소라넷 같은 사이트ゴ 소라넷 사이트コ 소라넷 새주소ナ 소라넷 같은 사이트セ 소라넷 막힘シ 소라넷 접속コ 소라넷ワ 소라넷 최신주소ピ 소라넷シ
[AI와 저널리즘]
[미디어오늘 오세욱 선문대 미디어커뮤니케이션학부 교수]
▲ 조 바이든(Joe Biden) 제46대 미국 대통령. 사진=Flickr (White House)
2024년 1월, 미국 뉴햄프셔주 대통령 예비선거를 이틀 앞두고 이상한 전화가 걸려오기 시작했다. 수신자들에게는 낯설지 않은 목소리였다. 바이든 당시 대통령의 목소리로 “여러분의 투표는 이번 화요일이 아니라 11월에 의미가 있습니다”라는 내용이었다. 민 릴게임모바일 주당 유권자들에게 예비선거 투표를 포기하도록 유도하는 자동 전화였다. 바이든 캠프는 즉각 사실이 아님을 확인했고, 뉴햄프셔주 법무장관실은 '유권자의 투표를 방해하려는 불법적 시도'로 판단해 수사에 나섰다. 이 음성의 제작 비용은 150달러였다. 이 사건은 인공지능 음성 합성 기술, 이른바 '딥보이스(deep voice)'가 실제 선거 과정에서 유권자를 기만 바다신릴게임 하는 도구로 활용된 주요 사례로 기록됐다. 올 해 6월 3일 지방선거를 목전에 둔 우리나라에게 이 사건은 남의 일이 아니라고 할 수 있다.
딥페이크 영상은 그동안 선거 조작의 대표적 위협으로 거론돼 왔다. 규제 당국의 대응도, 언론의 관심도 주로 영상 조작물에 집중됐다. 관심이 영상에 쏠여 있는 가운데, 음성 합성 기술 릴게임갓 은 그 사이 더욱 빠르게 진화해 왔다. 최신 음성 합성 기술은 3초 분량의 음성 샘플만으로도 특정 인물의 음색, 억양, 호흡 패턴을 정밀하게 재현할 수 있는 수준에 이르렀다. 감정이 섞인 떨림이나 격앙된 어조까지 구현 가능하다. 게다가 이런 기술 상당수가 오픈소스로 공개돼 있어 누구나 접근할 수 있다. 전문 인력과 대규모 자본이 필요했던 음성 위조가, 이제 우주전함야마토게임 는 개인용 컴퓨터 한 대와 공개된 영상 속 짧은 발언 몇 마디로도 가능해졌다. 기술적으로 탐지하는 것도 어렵다. 노스웨스턴대학교 연구팀이 시중에 유통 중인 14종의 음성 딥페이크 탐지 도구를 검증한 결과는 '매우 실망스러운 수준'이었다. 연구팀은 “현재로서는 어떤 탐지 도구도 신뢰할 수 없다”고 결론 내렸다. 속이는 기술의 발전 속도는 언제나 그것을 방지하 바다이야기온라인 는 기술보다 빠르다.
우리나라 선거 역사를 돌이켜보면 선거의 향방을 결정적으로 바꾼 사건들의 경우, 정교하게 편집된 영상보다 녹취록이나 통화 내용 공개와 같은 음성 기반 정보인 경우가 적지 않았다. 유권자들은 공식 연설보다 사적 공간에서 '유출된 것으로 보이는' 음성에 훨씬 높은 진정성을 부여하는 경향이 있다. 딥보이스는 바로 이러한 심리적 지형 위에서 작동한다. 여기에 확증 편향이 더해지면서 위험성이 더 높아진다. 지지하지 않는 후보에 대한 부정적 선입견을 가진 유권자에게, 그 후보의 목소리로 합성된 부정적 내용의 음성은 기존 신념을 확인해 주는 강력한 근거로 작동한다. 심리학에서 말하는 '수면자 효과(sleeper effect)'도 문제다. 신뢰도가 낮은 출처의 메시지라 해도 시간이 지날수록 출처에 대한 기억은 흐려지고 메시지의 설득력은 오히려 커진다. 선관위나 언론이 뒤늦게 조작 사실을 밝히더라도, 이미 해당 음성에 감정적으로 반응한 유권자의 인식에는 부정적 잔상이 오래 남는다.
▲ 딥보이스(Deep Voice)는 딥페이크 유사 기술로, 인공지능(AI) 기술을 활용해 특정인의 목소리를 학습하여 마치 그 사람이 말하는 것처럼 합성하는 기술을 말한다. 사진=gettyimagesbank
유통 경로 역시 구조적 취약점이다. 음성 파일은 영상에 비해 용량이 작아 카카오톡이나 텔레그램 같은 폐쇄형 메신저를 통해 빠르게 퍼진다. 지인에게 건네받은 '녹취 파일'에는 공식 언론 보도와는 다른 차원의 사적 신뢰가 실린다. 이렇게 확산된 음성은 검색 엔진의 수집 대상이 아니며, 선관위 모니터링이 미치기 어려운 영역이다. 다가오는 지방선거는 후보자 수가 많고 정보 유통이 지역 기반 폐쇄 네트워크에 의존하는 특성상 이런 위험에 더욱 노출돼 있다고 할 수 있다. 현행 공직선거법 제82조의8은 AI 기술로 만든 '가상의 음향'도 규제 대상에 포함하고 있다. 그러나 이 조항의 약칭이 '딥페이크 영상 등'으로 정의돼 있다는 사실에서 드러나듯, 규제의 실질적 무게중심은 여전히 영상에 쏠려 있다. 음성 단독 조작물에 대해서는 '실제와 구분하기 어려운' 상태를 입증하는 것이 영상보다 훨씬 어려운 데다, 탐지 도구의 신뢰성도 충분하지 않다. 제도적 공백이 가장 먼저 시험대에 오를 수 있는 조건이다.
언론의 녹취 등 음성 보도 원칙도 재설계할 필요성이 있다. 익명으로 제보된 후보자 음성 파일을 보도할 때는 전문 기관의 기술적 검증 결과를 함께 제시해야 한다. “진위가 확인되지 않았다”는 면피성 문구만으로는 수면자 효과를 막을 수 없다. 검증이 완료되기 전까지 보도를 유예하거나, 조작 가능성에 대한 명시적 경고를 병기하는 절차가 필요하다. 속보 경쟁이 치열한 선거 국면에서 쉽지 않은 원칙이지만, 검증 없이 보도된 조작 음성이 일으키는 피해는 단순한 오보 한 건을 넘어선다.
법과 기술이 속이는 기술의 발전을 완전히 따라잡는 것은 불가능에 가깝다. 자극적인 폭로성 음성 정보를 접했을 때, 그것이 자신의 정치적 신념과 맞아떨어져 강한 감정적 반응을 일으킬수록 오히려 한 발 물러서서 출처를 확인하는 태도가 필요하다. 민주주의는 시민의 합리적 판단에 기초한다. 그 판단이 기술적으로 조작된 정보 위에서 이루어진다면, 민주주의의 토대 자체가 흔들린다. 선거야말로 그 토대가 가장 직접적으로 시험받는 자리다. 딥보이스가 단순한 기술 문제가 아닌 이유다.
[미디어오늘 오세욱 선문대 미디어커뮤니케이션학부 교수]
▲ 조 바이든(Joe Biden) 제46대 미국 대통령. 사진=Flickr (White House)
2024년 1월, 미국 뉴햄프셔주 대통령 예비선거를 이틀 앞두고 이상한 전화가 걸려오기 시작했다. 수신자들에게는 낯설지 않은 목소리였다. 바이든 당시 대통령의 목소리로 “여러분의 투표는 이번 화요일이 아니라 11월에 의미가 있습니다”라는 내용이었다. 민 릴게임모바일 주당 유권자들에게 예비선거 투표를 포기하도록 유도하는 자동 전화였다. 바이든 캠프는 즉각 사실이 아님을 확인했고, 뉴햄프셔주 법무장관실은 '유권자의 투표를 방해하려는 불법적 시도'로 판단해 수사에 나섰다. 이 음성의 제작 비용은 150달러였다. 이 사건은 인공지능 음성 합성 기술, 이른바 '딥보이스(deep voice)'가 실제 선거 과정에서 유권자를 기만 바다신릴게임 하는 도구로 활용된 주요 사례로 기록됐다. 올 해 6월 3일 지방선거를 목전에 둔 우리나라에게 이 사건은 남의 일이 아니라고 할 수 있다.
딥페이크 영상은 그동안 선거 조작의 대표적 위협으로 거론돼 왔다. 규제 당국의 대응도, 언론의 관심도 주로 영상 조작물에 집중됐다. 관심이 영상에 쏠여 있는 가운데, 음성 합성 기술 릴게임갓 은 그 사이 더욱 빠르게 진화해 왔다. 최신 음성 합성 기술은 3초 분량의 음성 샘플만으로도 특정 인물의 음색, 억양, 호흡 패턴을 정밀하게 재현할 수 있는 수준에 이르렀다. 감정이 섞인 떨림이나 격앙된 어조까지 구현 가능하다. 게다가 이런 기술 상당수가 오픈소스로 공개돼 있어 누구나 접근할 수 있다. 전문 인력과 대규모 자본이 필요했던 음성 위조가, 이제 우주전함야마토게임 는 개인용 컴퓨터 한 대와 공개된 영상 속 짧은 발언 몇 마디로도 가능해졌다. 기술적으로 탐지하는 것도 어렵다. 노스웨스턴대학교 연구팀이 시중에 유통 중인 14종의 음성 딥페이크 탐지 도구를 검증한 결과는 '매우 실망스러운 수준'이었다. 연구팀은 “현재로서는 어떤 탐지 도구도 신뢰할 수 없다”고 결론 내렸다. 속이는 기술의 발전 속도는 언제나 그것을 방지하 바다이야기온라인 는 기술보다 빠르다.
우리나라 선거 역사를 돌이켜보면 선거의 향방을 결정적으로 바꾼 사건들의 경우, 정교하게 편집된 영상보다 녹취록이나 통화 내용 공개와 같은 음성 기반 정보인 경우가 적지 않았다. 유권자들은 공식 연설보다 사적 공간에서 '유출된 것으로 보이는' 음성에 훨씬 높은 진정성을 부여하는 경향이 있다. 딥보이스는 바로 이러한 심리적 지형 위에서 작동한다. 여기에 확증 편향이 더해지면서 위험성이 더 높아진다. 지지하지 않는 후보에 대한 부정적 선입견을 가진 유권자에게, 그 후보의 목소리로 합성된 부정적 내용의 음성은 기존 신념을 확인해 주는 강력한 근거로 작동한다. 심리학에서 말하는 '수면자 효과(sleeper effect)'도 문제다. 신뢰도가 낮은 출처의 메시지라 해도 시간이 지날수록 출처에 대한 기억은 흐려지고 메시지의 설득력은 오히려 커진다. 선관위나 언론이 뒤늦게 조작 사실을 밝히더라도, 이미 해당 음성에 감정적으로 반응한 유권자의 인식에는 부정적 잔상이 오래 남는다.
▲ 딥보이스(Deep Voice)는 딥페이크 유사 기술로, 인공지능(AI) 기술을 활용해 특정인의 목소리를 학습하여 마치 그 사람이 말하는 것처럼 합성하는 기술을 말한다. 사진=gettyimagesbank
유통 경로 역시 구조적 취약점이다. 음성 파일은 영상에 비해 용량이 작아 카카오톡이나 텔레그램 같은 폐쇄형 메신저를 통해 빠르게 퍼진다. 지인에게 건네받은 '녹취 파일'에는 공식 언론 보도와는 다른 차원의 사적 신뢰가 실린다. 이렇게 확산된 음성은 검색 엔진의 수집 대상이 아니며, 선관위 모니터링이 미치기 어려운 영역이다. 다가오는 지방선거는 후보자 수가 많고 정보 유통이 지역 기반 폐쇄 네트워크에 의존하는 특성상 이런 위험에 더욱 노출돼 있다고 할 수 있다. 현행 공직선거법 제82조의8은 AI 기술로 만든 '가상의 음향'도 규제 대상에 포함하고 있다. 그러나 이 조항의 약칭이 '딥페이크 영상 등'으로 정의돼 있다는 사실에서 드러나듯, 규제의 실질적 무게중심은 여전히 영상에 쏠려 있다. 음성 단독 조작물에 대해서는 '실제와 구분하기 어려운' 상태를 입증하는 것이 영상보다 훨씬 어려운 데다, 탐지 도구의 신뢰성도 충분하지 않다. 제도적 공백이 가장 먼저 시험대에 오를 수 있는 조건이다.
언론의 녹취 등 음성 보도 원칙도 재설계할 필요성이 있다. 익명으로 제보된 후보자 음성 파일을 보도할 때는 전문 기관의 기술적 검증 결과를 함께 제시해야 한다. “진위가 확인되지 않았다”는 면피성 문구만으로는 수면자 효과를 막을 수 없다. 검증이 완료되기 전까지 보도를 유예하거나, 조작 가능성에 대한 명시적 경고를 병기하는 절차가 필요하다. 속보 경쟁이 치열한 선거 국면에서 쉽지 않은 원칙이지만, 검증 없이 보도된 조작 음성이 일으키는 피해는 단순한 오보 한 건을 넘어선다.
법과 기술이 속이는 기술의 발전을 완전히 따라잡는 것은 불가능에 가깝다. 자극적인 폭로성 음성 정보를 접했을 때, 그것이 자신의 정치적 신념과 맞아떨어져 강한 감정적 반응을 일으킬수록 오히려 한 발 물러서서 출처를 확인하는 태도가 필요하다. 민주주의는 시민의 합리적 판단에 기초한다. 그 판단이 기술적으로 조작된 정보 위에서 이루어진다면, 민주주의의 토대 자체가 흔들린다. 선거야말로 그 토대가 가장 직접적으로 시험받는 자리다. 딥보이스가 단순한 기술 문제가 아닌 이유다.
관련링크
-
http://31.kissjav.icu
1회 연결 -
http://28.bog1.top
1회 연결
- 이전글예술의 향기: 창작과 창조의 프로세스 26.03.30
- 다음글처방전 필요없는 비아그라 약국 에서 구매 및 구입을 도와드립니다. 26.03.30
댓글목록
등록된 댓글이 없습니다.

