본 논문은 인공지능(AI)이 의료에 도입됨에 따라 변화하는 의료 의사결정에 대한 신뢰에 대해 논의한다. AI에 대한 신뢰는 단순히 인간에서 기계로의 이전이 아니라, 구축 및 유지되어야 하는 역동적이고 진화하는 관계임을 주장한다. AI가 의학에 속해야 하는지에 대한 논쟁보다는 AI가 어떤 종류의 신뢰를 얻어야 하고 어떻게 얻어야 하는지 질문한다. 철학, 생명윤리 및 시스템 디자인을 바탕으로 인간의 신뢰와 기계의 신뢰성의 주요 차이점을 강조하며, 투명성, 책임성 및 가치 정렬의 중요성을 강조한다. 공감이나 직관을 모방하는 것이 아니라 신중한 설계, 책임감 있는 배치 및 명확한 도덕적 책임을 통해 AI에 대한 신뢰를 구축해야 한다고 주장한다. 맹목적인 낙관주의와 반사적인 두려움을 피하는 균형 잡힌 관점을 목표로 하며, AI에 대한 신뢰는 당연한 것이 아니라 시간이 지남에 따라 얻어야 하는 것으로 간주되어야 한다고 결론짓는다.