로그인

The GigaMIDI Dataset with Features for Expressive Music Performance Detection

작성자
  • Haebom
카테고리
비어 있음

저자

Keon Ju Maverick Lee, Jeff Ens, Sara Adkins, Pedro Sarmento, Mathieu Barthet, Philippe Pasquier

개요

1983년에 도입된 MIDI는 컴퓨터와 악기 간의 효율적인 통신을 가능하게 하여 음악 제작에 혁신을 가져왔습니다. MIDI 파일은 음악 정보를 간결하게 인코딩하여 편리한 음악 공유를 가능하게 합니다. GigaMIDI 데이터셋은 140만 개 이상의 고유한 MIDI 파일, 18억 개 이상의 MIDI 노트 이벤트, 530만 개 이상의 MIDI 트랙을 포함하는 현재까지 가장 큰 MIDI 형식의 상징적 음악 컬렉션입니다. 본 논문에서는 MIDI 파일이 본질적으로 표현적인 연주와 비표현적인 연주를 구분하지 않기 때문에 이를 구분하는 것이 어려운 점을 해결하기 위해, 표현적인 음악 연주를 감지하기 위한 새로운 휴리스틱(DNVR, DNODR, NOMML)을 제시합니다. 평가 결과, 이러한 휴리스틱은 비표현적인 트랙과 표현적인 트랙을 효과적으로 구분하는 것으로 나타났으며, 특히 NOMML을 사용하여 GigaMIDI 데이터셋에서 표현적인 연주 트랙을 포함하는 가장 큰 표현적인 MIDI 데이터셋을 생성했습니다 (GigaMIDI의 31%, 총 1,655,649개 트랙).

시사점, 한계점

시사점:
GigaMIDI 데이터셋을 기반으로 표현적인 음악 연주를 효과적으로 감지하는 새로운 휴리스틱을 제시.
NOMML 휴리스틱을 이용하여 대규모 표현적인 MIDI 데이터셋을 구축.
음악 정보 검색(MIR), 계산 음악학, 생성 음악 연구에 기여할 수 있는 대규모 데이터셋 제공.
한계점:
제시된 휴리스틱의 일반화 가능성에 대한 추가 연구 필요.
휴리스틱 기반의 표현력 판단의 정확도 한계 존재 가능성.
다양한 음악 장르 및 연주 스타일 전반에 걸친 휴리스틱의 성능 평가 필요.
👍