본 논문은 현대 AI 음악 생성 모델에서 종종 간과되는 음악의 표현력과 일관성에 중점을 둔 연구입니다. Weber 법칙을 기반으로 한 청각 기반 데이터 처리 기법을 도입하여 음악 연주의 표현력을 포착하고, 음악적 미묘함과 표현력을 보존합니다. 또한, 음높이, 지속시간, 벨로시티 등 다양한 음악 데이터 속성 간의 출력 상호 의존성을 확률적 연쇄 법칙을 기반으로 신경망에서 모델링하여 음악적 일관성을 높입니다. 다중 출력 순차 모델을 단일 출력 하위 모델로 분해하고, 이전에 샘플링된 출력을 후속 하위 모델에 조건으로 설정하여 조건부 분포를 유도합니다. 마지막으로, 출력 엔트로피 기반의 잠정적 척도를 제안하여 생성된 모든 시퀀스 중 적합한 시퀀스를 선택하며, 이는 음악적 즐거움과 정보 이득을 정량화하는 정보 미학적 측정의 맥락에서 추가적으로 연구됩니다.