대규모 언어 모델(LLM)이 과학적 업무 흐름에 필수적인 부분이 됨에 따라 기밀 데이터의 기밀성 및 윤리적 취급에 대한 우려가 제기되고 있습니다. 본 논문은 과학자의 관점에서 지적 재산 및 독점 데이터를 포함한 기밀 정보를 무심코 유출할 수 있는 LLM 기반 과학 도구를 통한 데이터 노출 위험을 탐구합니다. 본 논문에서는 기밀 데이터 유출을 감지하고, 개인 정보 보호 정책을 요약하고, 데이터 흐름을 시각화하여 조직 정책 및 절차와의 일치를 보장하도록 설계된 프레임워크인 "DataShield"를 제안합니다. 본 연구의 접근 방식은 과학자들에게 데이터 처리 관행에 대한 정보를 제공하여 정보에 입각한 결정을 내리고 민감한 정보를 보호할 수 있도록 하는 것을 목표로 합니다. 프레임워크의 사용성, 신뢰성 및 실제 개인 정보 보호 문제 해결의 효과를 평가하기 위해 과학자들과의 지속적인 사용자 연구가 진행 중입니다.