Bài báo này tập trung vào việc học biểu diễn cảnh bằng thông tin đa phương thức. Để giải quyết vấn đề xung đột phương thức, đặc biệt là các vấn đề chênh lệch thuộc tính và chênh lệch độ chi tiết, phát sinh do sự khác biệt vốn có giữa các phương thức khác nhau, chúng tôi đề xuất một khuôn khổ chung gọi là MMOne. MMOne nắm bắt các đặc điểm riêng biệt của từng phương thức thông qua một mô-đun mô hình hóa phương thức sử dụng một chỉ báo phương thức mới và một cơ chế phân tích đa phương thức, cơ chế này phân tách các hàm Gauss đa phương thức thành các hàm Gauss đơn phương thức, và tạo ra các biểu diễn cảnh đa phương thức hiệu quả hơn bằng cách phân tách thông tin đa phương thức thành các thành phần được chia sẻ và dành riêng cho từng phương thức. Kết quả thực nghiệm chứng minh rằng phương pháp được đề xuất cải thiện khả năng biểu diễn của từng phương thức và có thể mở rộng sang các phương thức bổ sung. Mã nguồn có sẵn trên GitHub.