En este artículo, proponemos una técnica de segmentación semántica semisupervisada (SSSS) que utiliza un modelo de segmentación base para abordar la falta de etiquetas en tareas de visión a nivel de píxel (p. ej., segmentación semántica), donde es difícil obtener datos de anotación de alta calidad. En particular, utilizamos SEEM, una variante del Modelo de Segmentación de Cualquier Cosa (SAM) optimizada para entradas de texto, para generar máscaras de predicción para datos sin etiquetar. Para abordar las deficiencias de las máscaras generadas por SEEM, proponemos un nuevo marco SSSS denominado ConformalSAM, que calibra el modelo base utilizando datos etiquetados del dominio objetivo y filtra las etiquetas de píxel poco fiables para utilizar únicamente etiquetas de alta confianza para el aprendizaje supervisado. Específicamente, utilizamos la Predicción Conformal (CP) para adaptar el modelo base a los datos objetivo y empleamos una estrategia de aprendizaje autodependiente que aprovecha el excelente rendimiento del modelo base en la fase inicial de aprendizaje y mitiga el sobreajuste de las máscaras generadas por SEEM en la fase posterior. Los resultados experimentales muestran que ConformalSAM supera a los métodos SSSS recientes en tres pruebas de referencia SSSS estándar y, además, puede contribuir a mejorar el rendimiento de otros métodos como complemento.