यह शोधपत्र असंरचित वातावरणों में रोबोटिक वस्तुओं के हेरफेर के लिए सूक्ष्म वस्तु सामर्थ्य को समझने के महत्व पर प्रकाश डालता है। मौजूदा दृश्य विशेषता पूर्वानुमान विधियाँ मैन्युअल रूप से एनोटेट किए गए डेटा पर निर्भरता या उनकी सीमाओं के कारण सीमित हैं, जो उन्हें एक पूर्वनिर्धारित कार्य समूह तक सीमित कर देती हैं। इसके उत्तर में, हम अनसुपरवाइज्ड अफोर्डेंस डिस्टिलेशन (UAD) प्रस्तुत करते हैं, एक ऐसी विधि जो किसी आधारभूत मॉडल से विशेषता ज्ञान को बिना किसी मैन्युअल एनोटेशन के एक कार्य-सशर्त विशेषता मॉडल में आसवित करती है। बड़े पैमाने के विज़न मॉडल और विज़न-लैंग्वेज मॉडल की पूरक शक्तियों का लाभ उठाते हुए, UAD स्वचालित रूप से <निर्देश, दृश्य विशेषता> युग्मों के एक बड़े डेटासेट पर एनोटेशन करता है। एक हल्के कार्य-सशर्त डिकोडर को स्थिर विशेषताओं पर प्रशिक्षित करके, UAD वास्तविक दुनिया के रोबोटिक वातावरणों और विविध मानवीय गतिविधियों में उल्लेखनीय सामान्यीकरण प्रदर्शन प्रदर्शित करता है, भले ही इसे सिमुलेशन में केवल रेंडर की गई वस्तुओं पर ही प्रशिक्षित किया गया हो। यूएडी द्वारा अवलोकन स्थान के रूप में प्रदान की गई विशेषताओं का उपयोग करते हुए, हम एक अनुकरण सीखने की नीति का प्रस्ताव करते हैं जो केवल 10 उदाहरणों पर प्रशिक्षण के बाद भी, अदृश्य वस्तु उदाहरणों, वस्तु श्रेणियों और कार्य निर्देशों में विविधताओं में आशाजनक सामान्यीकरण प्रदर्शन को प्रदर्शित करता है।