본 논문은 AI 기반 지식 시스템이 작업 관련 데이터를 분석하여 지식을 추출하고 표면화하는 과정에서, 이 지식이 본질적으로 지식을 생성하고 사용하는 사람들과 밀접하게 연결되어 있다는 점을 강조합니다. 예측 알고리즘을 통해 지식과 사람을 연결할 때, 지식 추출 및 표면화의 부정확성이 불균형적인 피해로 이어져 개인 간의 상호 인식과 자기 인식에 영향을 미칠 수 있습니다. 따라서 본 논문에서는 이러한 시스템의 투명성 요구 사항과 영향에 대한 성찰적 분석을 제시합니다. 다학제적 문헌 검토를 통해 직장 환경에서 투명성의 영향을 이해하고, AI 지식 시스템을 반영하고 왜곡하는 시스템으로 개념화하는 "거울" 은유를 도입하여 투명성 요구 사항, 함의 및 과제에 대한 견해를 확장합니다. 시스템 내부를 들여다보는 '시스템 투시'와 시스템을 통해 자신과 타인의 기여를 인식하는 '시스템 관통'을 포함한 다양한 '보는 방식'을 형성하는 핵심 매개체로서 투명성을 공식화합니다. AI 지식 시스템의 가치를 실현하기 위해 시스템 투명성, 절차적 투명성, 결과 투명성의 세 가지 투명성 차원을 확인하고, 이러한 투명성 구현을 저해하는 주요 과제와 더 넓은 사회기술적 격차를 논의하며, 향후 컴퓨터 지원 협력 작업(CSCW) 연구 방향을 제시합니다.