Transformer 기반 Neural Operator의 최근 발전은 Partial Differential Equations (PDEs)를 위한 데이터 기반 솔버의 획기적인 발전을 가능하게 했다. 현재 연구는 주로 attention의 2차 복잡도를 줄여 훈련 및 추론 효율성을 높이는 데 집중되어 있다. Physics-Attention을 도입하여 계산 비용을 줄인 Transolver가 대표적인 방법으로 꼽힌다. Physics-Attention은 그리드 포인트를 슬라이스로 투영하여 슬라이스 attention을 수행한 후, 다시 역투영하는 방식을 사용한다. 본 논문에서는 Physics-Attention이 선형 attention의 특별한 경우로 재구성될 수 있으며, 슬라이스 attention이 모델 성능을 저해할 수도 있음을 발견했다. 이러한 관찰을 바탕으로, Physics-Attention의 효과는 슬라이스 간의 상호작용보다는 슬라이스 및 역슬라이스 연산에서 기인한다고 주장한다. 이러한 통찰력을 바탕으로 Physics-Attention을 canonical linear attention으로 재설계하는 2단계 변환을 제안하며, 이를 Linear Attention Neural Operator (LinearNO)라고 명명한다. 제안하는 방법은 여섯 개의 표준 PDE 벤치마크에서 최첨단 성능을 달성하는 동시에, 평균 40.0%의 매개변수 감소와 36.2%의 계산 비용 감소를 달성했다. 또한 AirfRANS 및 Shape-Net Car와 같은 두 개의 까다로운 산업 수준 데이터 세트에서도 우수한 성능을 보여주었다.