본 논문은 2020년 1월부터 2025년 3월까지 발표된 9,439편의 생성형 AI 논문 중 안전 및 신뢰성 관련 논문 1,178편을 분석하여 주요 AI 기업(Anthropic, Google DeepMind, Meta, Microsoft, OpenAI)과 대학(CMU, MIT, NYU, Stanford, UC Berkeley, University of Washington)의 연구 성과를 비교 분석했습니다. 분석 결과, 기업의 AI 연구는 모델 정렬 및 테스트 및 평가와 같은 배포 전 단계에 집중하는 반면, 모델 편향과 같은 배포 단계 문제에 대한 관심은 줄어들고 있음을 확인했습니다. 의료, 금융, 허위 정보, 설득력 있고 중독성 있는 기능, 환각, 저작권 등 고위험 배포 영역에서는 상당한 연구 격차가 존재합니다. 배포된 AI에 대한 관찰력이 향상되지 않으면 기업 집중화가 심화되어 지식 부족이 심화될 수 있습니다. 따라서 연구자들의 배포 데이터 접근 확대 및 시장 내 AI 동작에 대한 체계적인 관찰 가능성을 확보하는 것을 권장합니다.