본 논문은 2014년부터 2024년까지 arXiv에 발표된 10만 건 이상의 AI 관련 논문을 분석하여 AI 연구에 윤리적 가치와 사회적 우려가 어떻게 통합되는지 조사했습니다. 사회적 내용을 식별하는 분류기를 개발하여 연구 논문에서 이러한 고려 사항이 표현되는 정도를 측정했습니다. 그 결과, 학제 간 연구팀이 사회 지향적인 연구를 수행할 가능성이 더 높지만, 컴퓨터 과학 전문 팀이 이 분야의 전체 사회적 성과에서 점점 더 많은 부분을 차지하고 있음을 발견했습니다. 컴퓨터 과학 전문 팀은 공정성과 안전성에서부터 의료 및 허위 정보에 이르기까지 광범위한 영역에서 사회적 우려를 연구에 점점 더 통합하고 있습니다. 이러한 결과는 AI 안전 및 거버넌스에 대한 새로운 이해에 대한 함의와 사회과학 및 인문학 학자들이 기술 분야에 제공할 수 있는 독특한 관점에 대해 중요한 질문을 제기합니다.