본 논문은 생성형 인공지능(AI) 기술의 급속한 발전으로 인해 발생하는 사회기술 시스템의 책임 문제에 대해 논의한다. 현재의 생성형 AI 시스템은 복잡한 메커니즘에 의존하여 전문가조차도 출력 결과의 이유를 완전히 추적하기 어렵다는 점을 지적한다. 논문에서는 AI 투명성과 책임성에 대한 기존 연구를 검토하고, 투명성이 책임성의 충분 조건은 아니지만 개선에 기여할 수 있다고 주장한다. 생성형 AI의 투명성 확보가 불가능하다면, 생성형 AI 기술은 은유적으로 "인공적으로 만들어진 자연"이 되며, 따라서 예방적 원칙 접근 방식을 사용하여 AI 위험을 고려해야 한다고 제안한다. 마지막으로, 생성형 AI의 위험을 해결하기 위해 시민 참여 플랫폼이 필요하다고 주장한다.