TaylorMLP는 공개된 대규모 언어 모델(LLM)의 소유권 보호 및 악용 방지를 위한 새로운 방법을 제시합니다. 기존의 보호 메커니즘이 소유권 또는 데이터 프라이버시 문제를 야기하는 것과 달리, TaylorMLP는 LLM의 가중치를 테일러 급수의 매개변수로 변환하여 소유권을 보호합니다. 개발자는 원래 가중치 대신 테일러 급수 매개변수를 공개함으로써 LLM의 보안을 유지할 수 있습니다. 또한, 테일러 급수 항의 수를 늘림으로써 토큰 생성 속도를 조절하여 LLM의 악용을 방지합니다. 이러한 의도적인 지연은 무단 사용을 방지하는 데 도움이 됩니다. 5개의 데이터셋과 3개의 LLM 아키텍처에 대한 실험 결과, TaylorMLP는 지연 시간을 4배 이상 증가시키면서 원래 LLM과 정확하게 일치하는 토큰을 생성하는 것으로 나타났습니다. 추가적인 방어 실험은 TaylorMLP가 사용자가 다운스트림 데이터셋을 기반으로 가중치 값을 재구성하는 것을 효과적으로 방지함을 확인했습니다.