큰 진보로 큰 책임이 온다

작가: Roger Morrison
창조 날짜: 27 구월 2021
업데이트 날짜: 1 칠월 2024
Anonim
뉴스A 라이브 / ‘尹 정부’ 인수위 구성 속도 · 靑, ‘이재명 출금 청원’ 비공개
동영상: 뉴스A 라이브 / ‘尹 정부’ 인수위 구성 속도 · 靑, ‘이재명 출금 청원’ 비공개

콘텐츠


출처 : Mike2focus / Dreamstime.com

테이크 아웃 :

인공 지능 (AI)과 같은 기술 발전과 함께 미디어 소비가 진화하고 있습니다. 우리는 일반적으로 진보를 수용하지만, 어떤 형태의 기술의 단점도 알고 있어야합니다. 가짜 뉴스를 홍보 할 때 AI의 기능에는 어두운면이 있습니다.

기술의 어두운면은 NYC Media Lab의 두 번째 Machines + Media 회의에서 5 월 15 일에 블룸버그가 글로벌 본사에서 후원하고 주최 한 주제 중 하나였습니다. 세션 중 일부는 어떤 기술에 대한 자세한 내용을 다루었지만 조작 및 잘못된 정보의 그림자를 가져온 미디어조차도 미디어에서 현재 사용할 수 있습니다.

좋은 이야기는 전체 진실보다 더 매력적입니다

Buzzfeed의 데이터 과학 책임자 인 Gilad Lotan은“State of the Art”라는 제목의 세션에서 미디어 회사 나 새로운 기술에만 가짜 또는 오도 된 뉴스의 문제를 비난 할 수 없다고 지적했습니다. "사람들이 반드시 사실을 찾고있는 것은 아닙니다."라고 그는 말했다. "독자는 이야기를 원합니다."

그는 이야기에 대한 욕망과 호의적 인 이야기를 제공하는 것은 "거짓 정보보다 더 많은 조작"인 가짜 뉴스를 초래할 수 있다고 덧붙였다. 실제로, 전달 된 이야기에는 거짓이 전혀 포함되지 않을 수 있습니다. 이에 대한 가짜는“리더가 결론을 내릴 수 있도록”보고 된 사실이 더 큰“con”에서 체리 선택되고 제거된다는 것입니다.

같은 플랫폼을 따라“플랫폼 + 미디어”세션에서 켈리 윌리엄과 플로라 휴렛 재단의 미국 민주주의 이니셔티브에서 태어났다.“사람들은 자신의 신념을 강화하는 뉴스, 특히 분노를 불러 일으키는 뉴스를 좋아합니다. 그런 경향이 우리에게 최악의 결과를 가져 오는“완벽한 폭풍”으로 이어질 수 있습니다. 이것은 완전히 제작 된 프레젠테이션의 가능성에 의해 악화됩니다.


아직도보고 있는가?

기술은 이미지와 비디오를 통해 스토리를 전달하는 데 중요한 역할을합니다. 우리는 일반적으로 명백한 조작 징후가없는 한 우리가 보는 것을 믿습니다. 그러나 AI가 가짜 비디오의 사실감을 향상시키면서 문자 그대로 대중의 입에 단어를 넣을 수 있습니다. (AI는 사악한 목적으로 만 사용되는 것이 아닙니다. 회사가 AI 사용을 고려할 수있는 5 가지 방법 중 일부 건설적인 내용을 확인하십시오.)

AI가 매우 믿을 수있는 비디오를 제작할 때의 위험은 "기계 구동 미디어의 어두운면에 대한 솔루션"이라는 세션에서 시연되었습니다. Barack Obama가 전 대통령이 실제로 말한 적이없는 내용의 비디오로 시작했습니다. 움직임은 여전히 ​​단어와 약간 일치하지 않았기 때문에 가짜 비디오의 마크가 있으며 대부분의 청중은 그것을 가짜로 인식 할 수 있다고 말했습니다.

오바마의 비디오 조작은 "도적"에 대한 그랜드 모프 타르 킨으로서 피터 쿠싱을 부활시키는 현실주의를 달성하지 못했다. 뉴욕 타임스 기사에서 설명했듯이, 배우가 "머리에 모션 캡처 자료"를 착용하게함으로써 그 효과가 달성되었다 카메라 앞에서“그의 얼굴을 쿠싱의 디지털 재생으로 대체 할 수있게” 구성하다."

감지 할 수없는 가짜

이제 AI의 발전, 특히 GAN (Generative Adversarial Network) 덕분에 영화 마법 효과를 얻는 것이 그 어느 때보 다 쉬워졌습니다. 하나의 AI 시스템이 GAN을 사용하여 가짜를 감지하도록 설계된 AI 시스템에서 실제처럼 받아 들여질 때까지 푸티지를 세분화합니다.

버그 없음, 스트레스 없음-인생을 파괴하지 않고 인생을 바꾸는 소프트웨어를 만드는 단계별 가이드


아무도 소프트웨어 품질에 신경 쓰지 않으면 프로그래밍 기술을 향상시킬 수 없습니다.

이 비디오에서 연구자들은 배우가 공개 인물의 얼굴 움직임을 지시하여 의사 비디오에서 일반적으로 볼 수없는 충실도 수준으로 표현과 발음을 표현하는 방법을 보여줍니다.

현재 비디오를 사용하는 모든 사람이 현재 이러한 시스템을 사용할 수있는 것은 아니지만 가까운 시일 내에 더 많은 사람들이이 소프트웨어를 사용할 수있게됩니다.

가능한 결과

Factmata의 창립자이자 CEO 인 Dhruv Ghulati는이 능력이 어떻게 세계 지도자뿐만 아니라 CEO와 유명인의 얼굴을 자신의 말이나 행동이없는 증거로 비디오에 넣을 수 있는지에 대해“매우 걱정하고있다”고 말했다. . 봇넷으로부터 바이러스 효과를 얻으면 비디오의 파괴적인 힘이 강화됩니다.

코넬 테크 (Cornell Tech) 정보 과학 부교수 Mor Naaman은“우리는 더 이상 거짓말하는 눈을 믿을 수 없다”고 말했다. 그는 신뢰 상실로 이어질 우려했다.

다른 사람들은 폭력의 불꽃을 부채질하는 것에 대해 우려하고 있습니다. 소셜 미디어 책임 센터의 수석 기술자 인 아비브 오바 디아 (Aviv Ovadya)는 이미“약간 수정 된 비디오”가“개발 도상국에서 폭력을 일으키는 데 사용되었습니다”라고 말했습니다. 소셜 미디어는 잘못된 정보를 유포하는 효과적인 방법이 될 수 있습니다. 가장 치명적인 4 가지 피드 해킹을 확인하십시오.

미국에 투자하는 파트너 인 사라 허드슨 (Sarah Hudson)은 "규모에 맞게"조작 된 이미지가 "공공 안전에 엄청난 위협"이된다는 우려를 표명했습니다.

사전 계획

오바 디아는“가능한 한 많은 악용 사례를 예방하는 것이 필수적”이라고 말했다. 그렇기 때문에 "나쁜 영향을 완화하는 방법"과 "의도하지 않은 결과를 해결하는 데 자원을 투입하는 것"에 대해 "기술을 개발하는 동안 미리 생각"하는 것이 중요합니다.

진행 상황에 따라 시계를 되돌릴 수는 없지만, 우리가해야 할 일은 방향을 생각하고 계획하는 것입니다. 즉, 수행 할 수있는 작업을 확인하기 위해 기술을 연구하는 것이 아니라 방지해야 할 작업에 대해 생각하는 것입니다.

기술 혁신을 향한 진전은 그 영향이 무엇인지 생각하고 위험이 현실화되기 전에 보호 수단을 계획하는 것입니다. 이를 위해서는 연구원, 기술 회사 및 정부 기관 간의 협력을 통해 사람들이 준수 할 표준과 모범 사례를 확립해야합니다. 그것은 모든 관련자들에게 우선 순위가되어야합니다.