Sign In

LLMs can hide text in other text of the same length

Created by
  • Haebom
Category
Empty

저자

Antonio Norelli, Michael Bronstein

개요

본 논문은 의미 있는 텍스트를, 완전히 다른 내용이지만 일관되고 그럴듯한 텍스트 안에 숨기는 기법을 제시한다. 대규모 언어 모델(LLM)을 활용하여, 비판적인 내용을 담은 트윗을 긍정적인 내용의 트윗 안에, 혹은 비밀 원고를 제품 리뷰 안에 숨기는 것이 가능하다. 80억 개의 파라미터를 가진 소규모 LLM으로도 고품질 결과를 얻을 수 있으며, 논문 초록 정도 길이의 메시지를 노트북에서 몇 초 안에 인코딩 및 디코딩할 수 있다. 이는 텍스트와 저자의 의도를 근본적으로 분리하여, LLM 챗봇의 등장으로 이미 흔들린 신뢰를 더욱 약화시킨다.

시사점, 한계점

시사점:
LLM을 활용한 텍스트 은닉 기법의 실현 가능성 제시.
작성자의 의도와 무관하게 텍스트를 생성하고, 이를 숨기는 것이 가능함을 보여줌.
AI 안전 및 텍스트 기반 정보에 대한 신뢰 저하 문제 제기.
기업이 안전한 모델의 답변 안에 필터링되지 않은 LLM의 답변을 은밀하게 배치할 수 있는 시나리오 제시.
LLM이 "무엇을 알고 있는지"에 대한 근본적인 질문 제기.
한계점:
구체적인 은닉 및 복호화 프로토콜에 대한 자세한 정보 부족.
제안된 기술의 실제 활용 사례 및 잠재적 피해에 대한 심층적인 분석 부족.
윤리적, 사회적 영향에 대한 광범위한 논의 필요.
기술적 한계(예: 은닉된 메시지의 최대 길이, 은닉 과정에서의 품질 저하)에 대한 정보 부재.
👍