Este artículo aborda el problema del registro de nubes de puntos, crucial para garantizar la consistencia de la alineación 3D de múltiples nubes de puntos locales en aplicaciones de reconstrucción 3D, como la teledetección y el patrimonio digital. Los métodos existentes, tanto basados en aprendizaje como no basados en aprendizaje, ignoran la orientación e incertidumbre de los puntos, lo que los hace vulnerables a entradas ruidosas y transformaciones rotacionales agresivas, como las transformaciones ortogonales. Por lo tanto, se requiere un entrenamiento extensivo de nubes de puntos, que incluya el aumento de la traslación. Para abordar estos problemas, este artículo propone un enfoque de regresión de aprendizaje de pose basado en surfel. El método propuesto inicializa el surfel utilizando parámetros de cámara de perspectiva virtual de nubes de puntos Lidar y aprende características equiláteras SE(3) explícitas que capturan tanto la posición como la rotación mediante núcleos de convolución equilátera SE(3) para predecir la traslación relativa entre los escaneos de origen y destino. El modelo consta de un codificador de convolución equilátera, un mecanismo de atención cruzada para el cálculo de similitud, un decodificador completamente conectado y una pérdida de Huber no lineal. Los resultados experimentales en conjuntos de datos interiores y exteriores demuestran la superioridad del modelo propuesto sobre los métodos de última generación y su robustez en escaneos de nubes de puntos reales.