Este artículo presenta un método novedoso para mejorar la visibilidad marina mediante la fusión de datos de imágenes en tiempo real con información de cartas náuticas. El sistema superpone los datos de las cartas náuticas a la señal de imágenes en tiempo real detectando ayudas a la navegación, como boyas, y ajustando con precisión sus representaciones con los datos correspondientes. Para garantizar una correlación sólida, introducimos una red neuronal integral basada en transformadores que predice cuadros delimitadores y puntuaciones de confianza para consultas de boyas, ajustando así directamente las detecciones de regiones de imagen con marcadores de cartas náuticas en el sistema de coordenadas global. El método propuesto se compara con métodos de referencia, que incluyen un modelo de trazado de rayos que estima las posiciones de las boyas mediante proyecciones de cámara y una red extendida basada en YOLOv7 con un módulo de estimación de distancias. Los resultados experimentales en un conjunto de datos de escenas marítimas reales demuestran que el método propuesto mejora significativamente la localización de objetos y la precisión de asociación en entornos dinámicos y desafiantes.