यह पत्र स्वायत्त वाहनों के 3D बोध प्रदर्शन को बढ़ाने के लिए LiDAR और कैमरा इनपुट को एकीकृत बर्ड्स-आई-व्यू (BEV) निरूपण में एकीकृत करने की एक विधि प्रस्तुत करता है। मौजूदा विधियाँ LiDAR और कैमरा विशेषताओं के बीच स्थानिक मिसलिग्न्मेंट से ग्रस्त हैं, जो कैमरा शाखाओं और क्रॉस-मोडल फीचर एकत्रीकरण के सटीक गहराई पर्यवेक्षण में त्रुटियों की ओर ले जाती है। यह पत्र दर्शाता है कि इन मिसलिग्न्मेंट के मूल कारण रोलिंग शटर प्रभाव के कारण अंशांकन अशुद्धि और प्रक्षेपण त्रुटियाँ हैं। हम देखते हैं कि ये त्रुटियाँ अनुमानित रूप से ऑब्जेक्ट-पृष्ठभूमि सीमाओं पर केंद्रित होती हैं, जिन्हें 2D डिटेक्टर विश्वसनीय रूप से पहचान लेते हैं। इसलिए, हमारा प्राथमिक लक्ष्य फ़्यूज़न से पहले क्रॉस-मोडल विशेषताओं को पूर्व-संरेखित करने के लिए 2D ऑब्जेक्ट पूर्व सूचना का लाभ उठाना है। वैश्विक संरेखण त्रुटियों को दूर करने के लिए, हम डिसकंटिन्यूटी-अवेयर जियोमेट्रिक फ़्यूज़न (DAGF) का उपयोग करते हैं, जो PGDC से अवशिष्ट शोर को दबाता है और संरचनात्मक रूप से पहचाने जाने योग्य निरूपण उत्पन्न करने के लिए वस्तु-पृष्ठभूमि सीमाओं पर स्पष्ट गहराई भिन्नताओं को स्पष्ट रूप से बढ़ाता है। संरेखित निरूपणों का प्रभावी ढंग से उपयोग करने के लिए, हम स्ट्रक्चरल गाइडेंस डेप्थ मॉड्यूलेटर (SGDM) को एकीकृत करते हैं, जो एक गेटेड अटेंशन मैकेनिज़्म का उपयोग करके संरेखित गहराई और छवि विशेषताओं को कुशलतापूर्वक संयोजित करता है। प्रस्तावित विधि nuScenes सत्यापन डेटासेट पर अत्याधुनिक प्रदर्शन (mAP 71.5%, NDS 73.6%) प्राप्त करती है।