本文基于机器人微创手术的日益普及,这使得基于深度学习的手术训练成为一个重要的研究领域。透彻理解手术场景的构成至关重要,而语义分割模型可以帮助实现这一点。现有研究往往侧重于手术工具而忽略了解剖对象,而最先进的模型难以同时捕捉高维上下文特征和低维边缘特征。在本文中,我们提出了一种特征自适应空间定位模型 (FASL-Seg),旨在通过两个独立的处理流捕捉不同特征分辨率的多个细节层次:低维特征投影 (LLFP) 流和高维特征投影 (HLFP) 流。我们在 EndoVis18 和 EndoVis17 手术分割基准数据集上的三个用例上对 FASL-Seg 进行了评估。 FASL-Seg 模型在 EndoVis18 数据集上对组件和解剖结构进行分割时,平均 IoU (mIoU) 达到 72.71%,比最佳方法高出 5%。此外,在 EndoVis18 和 EndoVis17 数据集上,该模型对工具类型进行分割时,mIoU 分别达到 85.61% 和 72.78%,整体性能优于最佳方法。在这两个数据集上,该模型在每个类别上都取得了与最佳方法类似的结果,表明在解剖结构和器械类别中表现出一致的性能,并证明了针对不同特征分辨率使用独立处理流的有效性。