Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Large Language Models Are Unreliable for Cyber Threat Intelligence

Created by
  • Haebom
Category
Empty

저자

Emanuele Mezzi, Fabio Massacci, Katja Tuma

개요

최근 연구들은 대규모 언어 모델(LLM)이 사이버 위협 인텔리전스(CTI) 작업 자동화를 개선하여 사이버 보안 분야의 데이터 폭주를 제어하는 데 사용될 수 있다고 주장한다. 본 연구는 제로샷, 퓨샷 학습, 파인튜닝을 사용하여 CTI 작업에 대한 LLM을 테스트하고, 일관성 및 신뢰도를 정량화할 수 있는 평가 방법을 제시한다. 3개의 최첨단 LLM과 350개의 위협 인텔리전스 보고서 데이터세트를 사용한 실험을 수행하고, CTI에 LLM을 사용하는 데 따른 잠재적 보안 위험에 대한 새로운 증거를 제시한다. LLM은 실제 크기의 보고서에서 충분한 성능을 보장할 수 없으며, 일관성이 없고 과신하는 경향을 보임을 보여준다. 퓨샷 학습과 파인튜닝은 결과를 부분적으로만 개선하여, 레이블이 없는 데이터세트가 부족하고 신뢰도가 중요한 CTI 시나리오에서 LLM을 사용할 수 있는지에 대한 의문을 제기한다.

시사점, 한계점

LLM을 사용한 CTI 작업 자동화의 잠재적 위험성 제시
LLM의 일관성 부족 및 과신 문제 지적
퓨샷 및 파인튜닝이 결과 개선에 한계가 있음
레이블된 데이터 부족 및 신뢰도의 중요성으로 인해 CTI 시나리오에서 LLM 사용에 대한 의문 제기
👍