Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ENSI: Efficient Non-Interactive Secure Inference for Large Language Models

Created by
  • Haebom

저자

Zhiyu He, Maojiang Wang, Xinwen Gao, Yuchuan Luo, Lin Liu, Shaojing Fu

개요

본 논문은 대규모 언어 모델(LLM)에 대한 안전한 추론을 위한 새로운 비상호 작용 프레임워크인 ENSI를 제안합니다. ENSI는 암호화 프로토콜과 LLM 아키텍처의 공동 설계 원칙에 기반하여, CKKS 방식과 경량 LLM 변형인 BitNet을 통합하여 암호화된 행렬 곱셈의 계산 복잡성을 크게 줄입니다. 또한 동형 암호화(HE) 하에서 softmax의 과도한 계산 요구사항에 대응하여, 재훈련이 필요 없는 대안으로 sigmoid 어텐션 메커니즘과 HE의 통합을 제시합니다. 더 나아가, 부트스트래핑 연산을 RMSNorm 프로세스에 통합하여 암호문을 효율적으로 새로 고치면서 비용이 많이 드는 부트스트래핑 호출 빈도를 크게 줄입니다. 실험 결과, ENSI는 최첨단 방법에 비해 CPU에서 행렬 곱셈 속도가 약 8배, softmax 추론 속도가 2.6배 향상되었으며, 부트스트래핑 비율은 1%로 감소했습니다.

시사점, 한계점

시사점:
LLM에 대한 안전한 추론의 실용성을 크게 향상시키는 효율적인 프레임워크 ENSI 제시.
CKKS와 BitNet의 통합을 통해 암호화된 행렬 곱셈의 계산 복잡도를 획기적으로 감소.
sigmoid 어텐션 메커니즘과 HE의 통합으로 softmax 계산의 효율성 증대.
부트스트래핑 연산의 효율적인 통합을 통한 암호문 새로 고침 및 부트스트래핑 비용 절감.
실험 결과를 통해 ENSI의 성능 향상을 명확하게 입증.
한계점:
ENSI의 성능은 사용된 하드웨어 및 LLM 크기에 따라 달라질 수 있음.
BitNet과 같은 경량 LLM 변형의 사용은 성능과 정확도 간의 절충을 필요로 할 수 있음.
실험 결과는 특정 환경에서 얻어진 것이므로 일반화에는 제한이 있을 수 있음.
다른 암호화 방식이나 LLM 아키텍처에 대한 적용 가능성에 대한 추가적인 연구가 필요함.
👍