Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CyberLLMInstruct: A New Dataset for Analysing Safety of Fine-Tuned LLMs Using Cyber Security Data

Created by
  • Haebom
Category
Empty

저자

Adel ElZemity, Budi Arief, Shujun Li

개요

본 논문은 사이버 보안 애플리케이션에 대규모 언어 모델(LLM)을 통합하는 것이 위협 분석 및 악성 코드 탐지 향상과 같은 중요한 기회를 제공하지만, 개인 정보 유출 및 새로운 악성 코드의 자동 생성과 같은 심각한 위험과 안전 문제를 야기할 수 있다는 점을 다룹니다. 이러한 문제를 해결하기 위해, 논문에서는 악성 코드 분석, 피싱 시뮬레이션, 제로데이 취약점 등의 사이버 보안 작업에 걸쳐 54,928개의 instruction-response 쌍으로 구성된 CyberLLMInstruct 데이터셋을 개발했습니다. 이 데이터셋은 다단계 프로세스를 통해 여러 리소스에서 데이터를 소싱하고, instruction-response 쌍으로 필터링 및 구조화하고, 실제 시나리오와 정렬하여 적용성을 높였습니다. 7개의 오픈소스 LLM(Phi 3 Mini 3.8B, Mistral 7B, Qwen 2.5 7B, Llama 3 8B, Llama 3.1 8B, Gemma 2 9B, Llama 2 70B)을 사용하여 CyberLLMInstruct의 유용성을 테스트했습니다. OWASP top 10 프레임워크를 사용하여 미세 조정된 모델의 안전성을 엄격하게 평가한 결과, 미세 조정으로 모든 테스트된 LLM과 모든 적대적 공격(예: 프롬프트 삽입에 대한 Llama 3.1 8B의 보안 점수가 0.95에서 0.15로 감소)에서 안전성이 저하되는 것을 발견했습니다. 또한, 동일한 미세 조정된 모델이 CyberMetric 벤치마크에서 최대 92.50%의 정확도를 달성할 수 있음을 보여주었습니다. 이러한 결과는 성능과 안전성 사이의 상충 관계를 강조하며, 다양한 데이터셋과 도메인에서 성능을 향상시키면서 안전성 위험을 완화할 수 있는 미세 조정 방법론에 대한 추가 연구의 중요성을 보여줍니다.

시사점, 한계점

시사점:
사이버 보안 작업을 위한 새로운 대규모 instruction-response 데이터셋 CyberLLMInstruct 제공.
LLM 미세 조정 시 성능 향상과 안전성 저하 간의 상충 관계를 실증적으로 제시.
OWASP Top 10 프레임워크를 활용한 LLM 안전성 평가 방법 제시.
CyberMetric 벤치마크를 활용한 LLM 성능 평가 결과 제시.
한계점:
데이터셋의 크기와 다양성이 향후 연구에 따라 더욱 개선될 필요가 있음.
테스트에 사용된 LLM이 제한적이며, 다른 LLM에 대한 추가 연구가 필요함.
미세 조정 방법론에 대한 추가 연구를 통해 안전성 위험을 완화하고 성능을 향상시킬 필요가 있음.
현재는 논문이 arXiv에 게재된 예비 결과이며, 동료 검토를 거친 최종 결과와 다를 수 있음.
재현 가능한 코드와 리소스는 논문 채택 후에만 공개됨.
👍