Este artículo presenta MetaOcc, un marco multimodal para la predicción robusta de ocupación 3D, incluso en condiciones climáticas adversas. MetaOcc realiza predicciones de ocupación 3D omnidireccionales utilizando imágenes y radares 4D multivista. Para superar las limitaciones de la aplicación directa de codificadores basados en LiDAR a datos de radar dispersos, proponemos un módulo de autoatención de altura de radar que mejora la inferencia espacial vertical y la extracción de características. Además, mitigamos el desajuste espaciotemporal y enriquecemos la representación de características fusionadas mediante una estrategia de fusión multimodal multiescala jerárquica que realiza una fusión adaptativa local-global entre modalidades y tiempo. Para reducir la dependencia de costosas anotaciones de nubes de puntos, proponemos un flujo de generación de pseudoetiquetas basado en un segmentador de conjunto abierto, que implementa una estrategia de aprendizaje semisupervisado que alcanza el 90 % del rendimiento supervisado general utilizando solo el 50 % de las etiquetas de verdad de campo. Los resultados experimentales muestran que MetaOcc logra un rendimiento de última generación al mejorar los métodos existentes en +0,47 SC IoU y +4,02 mIoU en el conjunto de datos OmniHD-Scenes, y en +1,16 SC IoU y +1,24 mIoU en el conjunto de datos SurroundOcc-nuScenes.