본 논문은 LLM 앱 생태계에서의 사용자 데이터 수집 관행의 투명성을 확보하기 위해 OpenAI의 GPT 앱 생태계를 사례 연구로 분석합니다. LLM 기반 프레임워크를 이용하여 GPT Actions (맞춤형 도구)의 자연어 명세를 분석하고 데이터 수집 관행을 평가합니다. 분석 결과, Actions는 24개 범주와 145개 데이터 유형에 걸쳐 과도한 데이터를 수집하며, 특히 타사 Actions는 평균 6.03% 더 많은 데이터를 수집하는 것으로 나타났습니다. 또한 여러 Actions가 OpenAI의 정책을 위반하여 비밀번호와 같은 민감한 정보를 수집하는 것으로 드러났습니다. 마지막으로, LLM 기반 개인정보 보호 정책 분석 프레임워크를 개발하여 Actions의 데이터 수집이 개인정보 보호 정책의 공개 내용과 일치하는지 자동으로 확인합니다. 측정 결과, 수집된 대부분의 데이터 유형에 대한 공개가 누락되었으며, 단 5.8%의 Actions만이 데이터 수집 관행을 명확하게 공개하고 있습니다.