Can Large Language Models Detect Misinformation in Scientific News Reporting?
Created by
Haebom
Category
Empty
저자
Yupeng Cao, Aishwarya Muralidharan Nair, Nastaran Jamalipour Soofi, Elyon Eyimife, K. P. Subbalakshmi
개요
본 논문은 과학적 사실이 대중 매체에서 여론 형성을 위해 왜곡되는 현상에 주목하며, 대규모 언어 모델(LLM)을 활용하여 과학 보도 내 허위 정보를 탐지하는 방법을 연구한다. 특히, 명시적인 주장이 없는 실제 환경을 고려하여, 새로운 데이터셋 SciNews를 구축하고, 다양한 LLM 아키텍처와 프롬프트 엔지니어링 전략을 실험하여 과학적 허위 정보 탐지 가능성을 탐색한다.
시사점, 한계점
•
시사점:
◦
LLM을 활용하여 과학 뉴스 내 허위 정보를 자동 탐지하는 가능성을 제시.
◦
과학 뉴스 기사와 관련 초록 간의 연결을 통해 허위 정보 탐지 접근 방식 제시.
◦
인간 작성 기사 및 LLM 생성 기사를 모두 포함하는 SciNews 데이터셋 구축.
◦
GPT-3.5, GPT-4, Llama2-7B, Llama2-13B 등 다양한 LLM 및 프롬프트 전략 테스트.