본 논문은 텍스트, 오디오, 이미지에 대해 훈련된 Transformer 모델을 필기 데이터에 적용하는 새로운 방법을 제시합니다. 기존의 RNN 기반 방법과 달리, 필기 데이터를 극좌표로 변환하고 이를 토큰화하여 표준 GPT 모델로 훈련합니다. 복잡한 획 분포를 캡처하기 위해 특수 아키텍처(예: 혼합 밀도 네트워크 또는 Graves 2014의 자체 진행 ASCII 어텐션 헤드)를 사용하지 않고도 3,500개의 필기 단어와 간단한 데이터 증강만으로 현실적인 필체를 생성하는 모델을 훈련할 수 있음을 보여줍니다.