본 논문은 저작권 침해 위험이 있는 대규모 언어 모델(LLM)의 문제를 해결하기 위해, 공정 이용 원칙에 부합하는 LLM 출력을 생성하는 FUA-LLM 프레임워크를 제시한다. FUA-LLM은 9가지 저작권 침해 시나리오를 포함하는 18,000개의 전문가 검증 데이터셋인 FairUseDB를 활용하여 직접적 선호도 최적화(DPO)를 통해 오픈소스 LLM을 미세 조정한다. 기존 평가 지표의 한계를 인식하고, 저작권 침해 위험과 응답 유용성을 균형 있게 평가하는 새로운 지표인 가중 페널티 유틸리티와 준수 인식 조화 평균(CAH)을 제안한다. 실험 결과, FUA-LLM은 최첨단 방법에 비해 문제가 되는 출력을 최대 20%까지 줄이면서 실용성을 유지하는 것으로 나타났다.
시사점, 한계점
•
시사점:
◦
LLM의 저작권 침해 문제에 대한 새로운 해결책 제시: 단순 거부 기반 필터가 아닌, 공정 이용 원칙에 기반한 프레임워크를 통해 LLM의 실용성을 유지하면서 저작권 침해 위험을 줄임.
◦
새로운 평가 지표 제시: 저작권 침해 위험과 응답 유용성을 동시에 고려하는 가중 페널티 유틸리티와 CAH 제안.
◦
전문가 검증 데이터셋 활용: 실제 저작권 침해 시나리오를 반영한 FairUseDB를 통해 모델의 정확성과 실용성 향상.
•
한계점:
◦
FairUseDB의 데이터셋 크기 및 다양성의 한계: 더욱 다양하고 방대한 데이터셋이 필요할 수 있음.
◦
공정 이용 원칙의 모호성: 법적 해석의 차이에 따라 모델의 성능이 달라질 수 있음.
◦
새로운 평가 지표의 일반화 가능성: 제안된 지표들이 다른 상황이나 LLM에 적용될 때의 성능 검증이 필요함.