[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

What happens when generative AI models train recursively on each others' generated outputs?

Created by
  • Haebom

저자

Hung Ahn Vu, Galen Reeves, Emily Wenger

개요

본 논문은 인터넷 상의 AI 생성 콘텐츠가 생성형 AI(genAI) 모델의 훈련 데이터로 사용되는 현실을 바탕으로, genAI 모델들이 다른 모델이 생성한 출력물을 훈련 데이터로 사용하는 경우의 영향을 연구합니다. 기존 연구는 모델이 자체 생성 출력물을 훈련 데이터로 사용하는 경우에 초점을 맞추었지만, 본 논문은 서로 다른 모델들의 생성물이 상호 작용하는 데이터 기반 모델 상호 작용의 결과에 대해 다룹니다. 실증적 증거를 바탕으로 데이터 기반 상호 작용이 실제로 어떻게 전개될 수 있는지 보여주고, 이러한 상호 작용 훈련 과정에 대한 이론적 모델을 개발하며, 장기적인 결과를 실험적으로 보여줍니다. 결과적으로 데이터 기반 상호 작용은 모델이 기존 훈련 데이터에서 놓쳤을 수 있는 새로운 개념에 노출되도록 하여 이점을 제공할 수 있지만, 공유 작업에 대한 성능을 동질화할 수도 있음을 밝힙니다.

시사점, 한계점

시사점:
데이터 기반 모델 상호 작용의 장단점(새로운 개념 학습 vs. 성능 동질화)에 대한 실증적 이해 제공.
생성형 AI 모델의 훈련 데이터에 대한 새로운 관점 제시 및 장기적 영향 예측.
사회적 의존도가 높아지는 genAI의 발전 방향에 대한 시사점 제공.
한계점:
연구 대상 모델 및 데이터의 제한으로 인한 일반화의 어려움.
장기적 영향에 대한 예측의 불확실성.
다양한 유형의 genAI 모델 및 상호 작용 방식에 대한 추가 연구 필요성.
👍