Este artículo aborda el problema de la alineación de la IA, cuyo objetivo es garantizar que la inteligencia artificial (IA), especialmente los sistemas de IAG y de IAS, se comporte de acuerdo con los valores humanos. La preocupación por el control y los riesgos existenciales aumenta a medida que avanzamos de la IA estrecha a la IAG y la IAS. Investigamos si aceptar la inevitable desalineación de la IA puede ser una forma viable de crear un ecosistema dinámico de agentes en competencia, guiarlos hacia una mayor alineación con los humanos y mitigar los riesgos. Presentamos una prueba de que la alineación completa entre la IA y los humanos es matemáticamente imposible para los sistemas Turing-completos y argumentamos que la desalineación es inevitable. También introducimos una prueba de ataque de cambio de perspectiva para estudiar cómo los humanos y los agentes pueden modificar o neutralizar la IA, tanto la amistosa como la hostil, mediante la cooperación y la competencia. Demostramos que los modelos abiertos son más diversos y que las salvaguardas implementadas en modelos propietarios logran controlar el rango de acciones de los agentes, pero generan resultados tanto positivos como negativos. También sugerimos que los sistemas cerrados son más manejables y pueden utilizarse contra sistemas de IA propietarios. Finalmente, demostramos que las intervenciones humanas y de IA tienen diferentes efectos y proponemos diversas estrategias.