Este artículo investiga sistemáticamente el impacto de la especialización de dominios en la eficiencia de recuperación al utilizar modelos de lenguaje a gran escala (LLM) como buscadores densos. Como paso crucial hacia el desarrollo de un buscador unificado capaz de gestionar texto, código, imágenes y contenido multimodal, analizamos experimentalmente cómo la adaptación de los LLM a tareas específicas afecta el rendimiento de la recuperación. Realizamos experimentos exhaustivos utilizando ocho LLM Qwen2.5 7B (modelos de línea base, ajuste dirigido, especialización de código/matemáticas, inferencia de texto largo y visión-lenguaje) en entornos de recuperación de disparo cero y aprendizaje supervisado. En el entorno de recuperación de disparo cero, consideramos la recuperación de texto en el punto de referencia BEIR y la recuperación de código en el punto de referencia CoIR. Para evaluar el rendimiento del aprendizaje supervisado, todos los LLM se ajustan con precisión en el conjunto de datos MS MARCO. La especialización matemática y la inferencia de texto largo degradan sistemáticamente el rendimiento en los tres entornos, lo que sugiere un equilibrio entre la inferencia matemática y la correspondencia semántica. El modelo de visión-lenguaje y el LLM específico para código demuestran un rendimiento superior en el método de cero disparos en comparación con otros LLM, superando a BM25 en tareas de recuperación de código y manteniendo un rendimiento comparable al del LLM de referencia en entornos de aprendizaje supervisado. Estos resultados sugieren perspectivas prometedoras para las tareas de recuperación integrada que aprovechan la fusión interdominio e intermodal.