Sign In

Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy and Research

Created by
  • Haebom
Category
Empty

저자

A. Feder Cooper, Christopher A. Choquette-Choo, Miranda Bogen, Kevin Klyman, Matthew Jagielski, Katja Filippova, Ken Liu, Alexandra Chouldechova, Jamie Hayes, Yangsibo Huang, Eleni Triantafillou, Peter Kairouz, Nicole Elyse Mitchell, Niloofar Mireshghallah, Abigail Z. Jacobs, James Grimmelmann, Vitaly Shmatikov, Christopher De Sa, Ilia Shumailov, Andreas Terzis, Solon Barocas, Jennifer Wortman Vaughan, Danah Boyd, Yejin Choi, Sanmi Koyejo, Fernando Delgado, Percy Liang, Daniel E. Ho, Pamela Samuelson, Miles Brundage, David Bau, Seth Neel, Hanna Wallach, Amy B. Cyphert, Mark A. Lemley, Nicolas Papernot, Katherine Lee

개요

머신 언러닝은 법적, 윤리적 문제(개인 정보, 저작권, 안전 등)를 야기하는 AI 모델 내 콘텐츠를 제거하기 위한 솔루션으로 제안된다. 특정 정보(개인 데이터, 저작권 콘텐츠)를 제거하거나 특정 유형의 정보(개인 데이터 유사 생성, "스파이더맨" 관련 생성)를 모델 출력에서 억제하는 것을 목표로 한다. 본 논문은 언러닝 목표와 구현 사이의 불일치를 지적하며, 언러닝이 생성형 AI 모델의 행동을 제한하는 만능 해결책이 아님을 밝힌다.

시사점, 한계점

언러닝은 개인 정보, 저작권, 안전 등의 문제 해결을 위한 유망한 기술로 제시되지만, 목표와 실제 구현 사이의 불일치가 존재한다.
특정 정보의 제거 및 특정 유형 정보 억제는 기술적, 실질적 어려움을 수반한다.
언러닝은 생성형 AI 모델의 행동을 제한하는 보편적인 솔루션이 아니다.
ML 연구자와 정책 입안자가 언러닝의 문제점을 엄격하게 고려할 수 있는 프레임워크를 제공한다.
👍