본 논문은 소프트웨어 아키텍처 평가 과정에서 품질 속성 간의 상충 관계를 효율적으로 분석하고, 이해관계자의 요구사항을 우선순위화하는 데 어려움을 해결하기 위해 대규모 언어 모델(LLM)을 활용하는 방법을 제안합니다. 특히, MS Copilot을 이용하여 소프트웨어 아키텍처 수업에서 학생들이 제시한 품질 시나리오를 분석하고, 학생들의 평가 결과와 LLM의 평가 결과를 비교 분석하는 초기 연구를 수행했습니다. 연구 결과, LLM이 위험 요소, 민감도, 상충 관계 분석 측면에서 대부분의 경우 더 정확하고 우수한 결과를 도출하는 것으로 나타났습니다. 이를 통해 생성형 AI가 아키텍처 평가 작업을 부분적으로 자동화하고 지원하여 인간의 의사결정 과정을 개선할 수 있는 잠재력을 확인했습니다.