Este artículo presenta la primera evaluación exhaustiva de la memorización de datos en modelos de lenguaje a gran escala (LLM) en el ámbito sanitario. Analizamos sistemáticamente tres escenarios de adaptación comunes: preentrenamiento continuo en un corpus médico, ajuste fino en un punto de referencia médico estándar y ajuste fino en datos clínicos reales, incluyendo más de 13.000 registros de hospitalización del Sistema de Salud de Yale New Haven. Para evaluar la frecuencia, la naturaleza, la cantidad y el impacto potencial de la memorización en los LLM. Los resultados muestran que la memorización se produce con una frecuencia significativamente mayor en todos los escenarios de adaptación que en el ámbito general, lo que sugiere implicaciones para el desarrollo y la adopción de los LLM en el ámbito sanitario. El contenido memorizado se clasifica en tres tipos: informativo (p. ej., reproducción precisa de guías clínicas y referencias biomédicas), no informativo (p. ej., descargos de responsabilidad repetitivos o lenguaje estereotipado de documentos médicos) y perjudicial (p. ej., reproducción de contenido clínico específico del conjunto de datos o sensible). Ofrecemos recomendaciones prácticas para promover la memorización beneficiosa, minimizar la memorización no informativa y mitigar la memorización perjudicial.