En este artículo, proponemos una novedosa unidad computacional neuronal unificada, la neurona APTx, que integra activaciones no lineales y transformaciones lineales en una única representación aprendible. La neurona APTx se deriva de la función de activación APTx y no requiere una capa de activación independiente, lo que resulta en una arquitectura computacionalmente eficiente y elegante. La neurona propuesta tiene la forma funcional $y = \sum_{i=1}^{n} ((\alpha_i + \tanh(\beta_i x_i)) \cdot \gamma_i x_i) + \delta$, donde todos los parámetros $\alpha_i$, $\beta_i$, $\gamma_i$ y $\delta$ son aprendibles. Validamos la arquitectura basada en la neurona APTx en el conjunto de datos MNIST, logrando una precisión de prueba de hasta el 96,69 % en solo 20 épocas con aproximadamente 332 000 parámetros aprendibles. Estos resultados resaltan el poder expresivo superior y la eficiencia computacional de las neuronas APTx en comparación con las neuronas convencionales, y sugieren un nuevo paradigma para el diseño de neuronas integradas y arquitecturas construidas sobre ellas.