본 논문은 Transformer 구조를 수정하여 그래프 인식 관계 추론을 어텐션 메커니즘에 통합하는 방법을 제시합니다. 그래프 신경망과 언어 모델링의 개념을 결합하여 어텐션과 그래프 이론 간의 고유한 연결성을 기반으로 Transformer의 어텐션 메커니즘을 그래프 연산으로 재구성하고, Graph-Aware Isomorphic Attention을 제안합니다. Graph Isomorphism Networks (GIN) 및 Principal Neighborhood Aggregation (PNA)와 같은 고급 그래프 모델링 전략을 활용하여 관계 구조의 표현을 풍부하게 합니다. 이 접근 방식은 복잡한 의존성을 포착하고 작업 전반에 걸쳐 일반화되며, 일반화 격차 감소 및 학습 성능 향상으로 입증됩니다. 또한, 희소 GIN을 사용하는 미세 조정 방법인 Sparse GIN-Attention을 도입하여 그래프 인식 어텐션의 개념을 확장합니다. 어텐션 행렬을 희소 인접 그래프로 해석하여, 최소한의 계산 오버헤드로 사전 훈련된 기본 모델의 적응성을 향상시키고 그래프 인식 기능을 부여합니다. Sparse GIN-Attention 미세 조정은 저계수 적응(LoRA)과 같은 다른 방법에 비해 향상된 훈련 역학과 더 나은 일반화를 달성합니다. 기존 어텐션 메커니즘 내의 잠재적인 그래프 유사 구조에 대해 논의하여 Transformer를 이해하는 새로운 관점을 제공하며, Transformer를 관계 추론을 위한 계층적 GIN 모델로 진화시킴으로써 기본 모델 개발에 대한 심오한 의미를 시사합니다. 이를 통해 지역적 및 전역적 의존성에 동적으로 적응하는 아키텍처 설계가 가능해집니다. 생물 정보학, 재료 과학, 언어 모델링 등의 분야에서 관계 및 순차 데이터 모델링의 통합으로부터 이점을 얻을 수 있으며, 해석 가능하고 일반화 가능한 모델링 전략을 위한 기반을 마련합니다.