Este artículo presenta un estudio que aprovecha los modelos de lenguaje a gran escala (LLM) y las técnicas de generación aumentada por búsqueda (RAG) para abordar los desafíos de los textos extensos, confusos y redundantes en las historias clínicas electrónicas (HCE). Para abordar la limitada ventana de contexto de los LLM existentes, utilizamos RAG para recuperar fragmentos relevantes para cada tarea de la HCE completa y aplicarlo a tres tareas clínicas: extracción de procedimientos de imagen, generación de un programa de antibióticos e identificación de diagnósticos principales. Utilizando datos reales de HCE de pacientes hospitalizados, evaluamos tres LLM de vanguardia con diferentes niveles de contexto. Demostramos que el rendimiento de RAG es similar o superior al de los métodos que utilizan solo historias clínicas recientes, logrando un rendimiento comparable al contexto completo con significativamente menos tokens de entrada. Esto sugiere que RAG sigue siendo un enfoque competitivo y eficiente, incluso con la aparición de nuevos modelos capaces de gestionar textos más extensos.