• 프린트
  • 메일
  • 스크랩
  • 글자크기
  • 크게
  • 작게

[스타트업 법률 가이드] AI 학습 관련된 법적 쟁점

 

표경민 법무법인 디라이트 변호사 | press@newsprime.co.kr | 2023.11.21 11:10:04

[프라임경제] 챗 GPT의 등장 이후 AI 서비스에 대한 대중적 관심이 급증했다. 이에 따른 여러 법적 문제들이 대두되고 있다. 올해 초 미국에서는 세명의 아티스트가 대표적인 이미지 생성형 AI 플랫폼인 Stability AI, Midjourney, Deviant Art를 상대로 저작권 침해 소송을 청구했다. 이어 미국의회조사국은 생성형 AI와 저작권법, 그리고 생성형 AI와 데이터 프라이버시라는 보고서를 차례로 발행했다.

뛰어난 AI를 만들어내기 위해서는 양질의 데이터를 대량으로 수집해 AI를 '학습'시키는 과정이 필수적이다. 하나의 AI를 만들어내기 위해 가공할만한 수준의 데이터들이 대량 이용되며, 이 과정에서 수많은 비용이 투입된다. 또한 AI 학습을 위한 데이터 수집 및 이용에는 아직 해결되지 않은 법적 문제도 있다. 대표적으로 저작권과 개인정보 침해의 문제가 거론되고 있다. 

AI 학습을 위해 이루어지는 데이터의 수집 및 이용에는 타인에게 저작권이 있는 이미지나 글이 포함돼 있고, 저작권자의 허락 없이 AI 학습 과정에서 이루어지는 대량 복제행위는 저작권 침해에 해당할 수 있다. 나아가 이처럼 학습된 이미지나 글은 AI가 생성하는 이미지나 글에도 그대로 표시될 수 있어 해당 결과물을 이용하는 이용자 또한 저작권 침해의 책임을 질 수 있다는 리스크가 있다. 

이러한 점에서 Open AI가 만든 DALL-E 3은 유명인의 이름을 포함하거나 살아있는 창작자의 화풍을 따르도록 요구하는 이용자의 프롬프트를 거부하며, 장래의 학습용 데이터셋에 본인의 창작물을 제외해달라고 요구할 수 있는 옵트아웃(opt-out) 페이지를 운영하고 있다. 올해 유럽의회가 제정한 AI 법(AI Act)는 생성형 AI의 학습데이터 공개를 의무화하는 조항을 포함하고 있다. 학습데이터의 공개를 통해, 원저작자에 대한 공정한 보상이 지급될 수 있는 기반을 마련한 것이다. 

AI 학습 과정에서 이루어질 수 있는 개인정보 침해의 가능성 또한 간과할 수 없다. 2021년, 국내 챗봇형 AI 개발사인 스캐터랩은 인공지능 서비스인 '이루다'의 개발 과정에서 자사의 타 서비스를 통해 수집된 카카오톡 대화 내용을 동의 없이 AI 학습에 사용한 것이 확인돼 과징금 처분을 받았으며, 이루다 서비스의 개인정보 유출 피해자들은 스캐터랩에 집단 손해배상 소송을 제기하기도 했다. 

현재의 개인정보보호법상으로는, 과학적 연구의 목적으로 정보주체의 동의 없이 개인정보를 가명처리해 이용하는 것은 가능하다. 따라서 적절히 가명, 익명처리된 개인정보만을 AI 학습에 이용한다면 개인정보 침해의 가능성을 대폭 줄일 수 있다. 

물론 이 경우에도 가명, 익명처리의 과정과 사후 관리를 강화해 개인정보보호를 위한 법령 및 가이드라인을 준수할 수 있도록 주의가 필요하다. 이와 관련해 개인정보보호위원회는 올해 8월 3일 AI 시대를 위한 개인정보 활용 정책 방향을 발표했다. AI 학습을 위해 데이터를 가명처리함에 있어 이미지, 영상 등의 비정형 데이터의 가명처리 원칙, 식별 위험성 점검기준, 데이터 항목별 가명처리 방법, 관련 가명처리 기법 및 사례 등의 구체적 기준을 마련할 예정임을 선포했으니 앞으로의 정책 방향을 잘 살펴볼 필요가 있다. 

AI는 우리가 예상하지 못하거나 현행 법령으로 대처하기 어려운 여러 문제들을 내포하고 있다. 여러 법령과 정책들의 변화를 살펴보면서, 서비스 개발 단계에서부터 전문가의 도움을 받아 추후 발생할 수 있는 법적 문제를 예방할 필요가 있다.

표경민 법무법인 디라이트 변호사



  • 이 기사를 공유해보세요  
  •  
  •  
  •    
맨 위로

ⓒ 프라임경제(http://www.newsprime.co.kr) 무단전재 및 재배포금지