Cet article soutient que les progrès des modèles linguistiques à grande échelle (MLA), puissants mais opaques, nécessitent une révision fondamentale des critères philosophiques utilisés pour évaluer les agents moraux artificiels (AMA). Les cadres pré-MLA existants reposent sur l'hypothèse d'une architecture transparente, mais les MLA n'adhèrent pas à cette hypothèse en raison de leurs résultats probabilistes et de leurs états internes opaques. Cet article soutient donc que ces incohérences rendent les critères éthiques existants pratiquement inutiles pour les MLA. Abordant des sujets clés de la philosophie de la technologie, nous présentons dix critères fonctionnels pour évaluer les agents moraux IA basés sur les MLA : cohérence morale, sensibilité au contexte, intégrité normative, conscience métaphysique, résilience du système, fiabilité, modifiabilité, transparence partielle, autonomie fonctionnelle et imagination morale. Ces lignes directrices, appliquées aux « SMA-LLS » (Simulation d'agents moraux via des systèmes linguistiques à grande échelle), visent à conduire les MLA vers un meilleur alignement et une intégration sociale bénéfique dans les années à venir. Nous démontrons l’applicabilité pratique de ces critères dans des contextes moralement importants en utilisant un scénario hypothétique impliquant des bus autonomes (APB).