Bài báo này đề xuất EcoTransformer, một kiến trúc Transformer mới, nhằm giải quyết vấn đề độ phức tạp tính toán và mức tiêu thụ năng lượng cao của cơ chế chú ý tích vô hướng mở rộng (dot-product attention) của Transformer hiện tại. EcoTransformer tạo ra các vectơ ngữ cảnh đầu ra thông qua phép tích chập với hạt nhân Laplacian, và khoảng cách giữa các truy vấn và khóa được đo bằng phép đo L1. Không giống như chú ý dựa trên tích vô hướng, EcoTransformer loại bỏ phép nhân ma trận, giảm đáng kể độ phức tạp tính toán. Nó hoạt động tương đương hoặc tốt hơn so với chú ý tích vô hướng mở rộng hiện có trong các tác vụ NLP, tin sinh học và thị giác, đồng thời giảm đáng kể mức tiêu thụ năng lượng.