本論文は、自律走行認知システムで発生する物体遮蔽および不完全なシーンデータの問題を解決するために、画像からシーンの幾何学的構造とセマンティックラベルを同時に推論するセマンティック占有予測(SOP)課題を提示します。従来のカメラベースの方法は、すべてのカテゴリを均等に扱い、主に地域の特徴に依存して、特に動的な前景オブジェクトの予測性能が低下する問題を解決するために、オブジェクト指向SOP(OC-SOP)フレームワークを提案します。 OC-SOPは、検出ブランチから抽出された高レベルのオブジェクト中心の手がかりを意味的な占有予測パイプラインに統合し、前景オブジェクトの予測精度を大幅に向上させ、SemanticKITTIデータセットのすべてのカテゴリにわたって最先端のパフォーマンスを達成します。