AI로 만든 합성 사진 메타 자동 라벨링 툴 개발 중
메타가 생성형 AI 시스템으로 합성한 이미지를 식별하는 툴을 개발하고 있다. 페이스북, 인스타그램, 스레드 등 메타의 모든 소셜 미디어에 적용할 계획이다.
ⓒ Getty Image Bank
메타의 글로벌 이슈 부문 대표 닉 클레그는 회사 블로그를 통해 "업계 협력사와 함께, AI를 이용해 만든 콘텐츠임을 나타내는 마크에 대한 공통의 기술 표준을 맞추는 작업을 진행 중이다. 이 신호를 감지하면 사용자가 페이스북이나 인스타그램, 스레드에 올린 사진이 AI가 만든 이미지라는 것을 식별해 별도로 표시한다. 현재 이런 기능을 개발 중이고 몇 달 내에 각 앱의 모든 언어 버전에 적용하기 시작할 것이다"라고 말했다.
구글이나 오픈AI, 어도비, 셔터스톡, 미드저니 등의 AI가 만든 이미지에 별도 표시를 하려는 움직임이 올해 들어 본격화하고 있다. 가장 큰 이유는 미국과 유럽, 인도, 남아프리카 등 여러 나라에서 선거가 예정돼 있기 때문이다. 또한 사용자가 AI 생성 콘텐츠를 생성, 공유하는 방식이나, 중요하게 생각하는 투명성 등에 대해 메타가 더 많은 데이터를 확보하려는 의미도 있다.
클레그의 이번 선거 관련 발언은 2018년 뉴욕타임스와 옵서버가 보도한 케임브리지 애널리티카 사건을 떠올리게 한다. 당시 최소 5,000만 명에 달하는 사용자의 페이스북 데이터가 선거에 활용돼 큰 파문이 일었다. 지난 1월에는 챗GPT를 만든 오픈AI가 미국 민주당 대선 후보 딘 필립스를 흉내 내는 봇을 만든 개발자 2명을 직무 배제했다. 오픈AI가 AI 오용에 대해 직원을 조처한 첫 사례다.
클레그에 따르면, 메타는 자사의 AI 기능을 이용해 만든 이미지에는 이미 별도로 표시하고 있다. 눈에 보이는 표시는 물론 보이지 않는 워터마크도 이미지의 메타데이터에 내장한다. 이런 워터마크가 있으면 다른 기업이 AI 생성 이미지라는 것을 더 쉽게 식별할 수 있다. 또한 메타는 PAI(Partnership on AI) 같은 협의체를 통해 다른 기업과 손잡고 AI 생성 이미지를 식별하는 공통의 표준을 만드는 작업을 하고 있다.
AI 오디오와 비디오는 여전히 사각지대
이처럼 생성된 이미지를 식별하는 데 도움이 되는 마크를 추가하는 기업이 점점 늘어나는 반면, 생성된 오디오와 비디오에는 이런 정책이 적용되지 않고 있다. 이에 따라 메타는 사용자가 오디오, 비디오를 공유할 때 AI로 만든 것임을 스스로 밝히는 기능을 이미 추가했다. 이를 이용하면 메타 역시 AI가 만들었음을 별도로 표시할 수 있다. 클레그는 "사용자가 디지털로 만들거나 수정한 사실적인 비디오, 오디오 콘텐츠를 게시할 때 이 라벨링 툴을 쓰도록 하고 위반할 경우 벌칙을 적용하는 것도 고려하고 있다"라고 말했다.
단, 이런 조치가 여전히 한계가 있다는 것은 메타도 알고 있다. 즉, 이 툴과 표준에 생성된 콘텐츠를 식별하는 최신 기술을 적용한다고 해도, 악의적인 사람들은 결국 이런 마크를 제거하는 방법을 찾아낼 것이다. 결국 이런 행위를 멈추게 하려면, 보이지 않는 마크가 없어도 AI가 만든 콘텐츠를 자동으로 식별하는 일종의 선별기가 필요하다.
클레그는 "우리 역시 이런 선별기를 개발하고 있다. 동시에 우리는 보이지 않는 워터마크를 제거하거나 수정하기 더 어렵게 하는 방법도 고민하고 있다. 예를 들어 메타의 AI 리서치 랩인 FAIR는 최근 보이지 않는 워터마킹 기술을 발표했다. 우리는 이를 스테이블 시그니처(Stable Signature)라고 부른다. 스테이블 시그니처는 워터마킹 메커니즘을 이미지 생성 과정 자체에 직접 통합하므로 워터마크를 해제할 수 없다. 오픈소스 모델이 될 가능성이 크다"라고 말했다.
한편 메타는 AI 시스템을 활발히 활용하는 것으로 유명하다. 실제로 혐오 발언 등 자사 정책을 위반하는 콘텐츠를 찾아 차단하는 데 이미 AI 시스템을 사용하고 있다. 클레그에 따르면, AI 시스템 덕분에 2023년 3분기 기준 페이스북 내 혐오 발언이 0.01~0.02%까지 줄어들었다.
메타는 유해 콘텐츠를 더 빨리 차단하는 데도 생성형 AI를 사용할 계획이다. 클레그는 "정책 위반을 결정하는 LLM 테스트를 시작했다. '사회 규범(Community Standards)'을 훈련 시켜 특정 콘텐츠가 메타 정책에 반하는지를 판단하는 데 도움을 주는 방식이다. 초기 테스트 결과 LLM이 기존 머신러닝 모델보다 더 좋은 성과를 보였다. 또한 이 LLM은 사람 검토자가 특정 콘텐츠가 정책 위반이 아니라고 확신하는 상황에서 콘텐츠를 차단하는 데도 도움이 되고 있다"라고 말했다.
원문보기:
https://www.itworld.co.kr/news/324911#csidxc9e41fd0749ecde9faea2e0130271b4