Cet article étudie l'apprentissage et l'acquisition de connaissances (AAC) des agents pour des propositions vraies ou fausses, en utilisant une approche bayésienne. Les agents reçoivent des données et mettent à jour leurs croyances sur les propositions selon une distribution a posteriori. L'AAC formule les données comme des informations actives, ce qui modifie les croyances de l'agent. Elle suppose que les données fournissent des informations détaillées sur plusieurs caractéristiques pertinentes pour une proposition. Cela conduit à une distribution de Gibbs, qui est la distribution a posteriori à entropie maximale pour la distribution a priori, soumise aux contraintes imposées par les données sur les caractéristiques. L'étude démontre qu'un nombre trop faible de caractéristiques extraites rend impossible un apprentissage complet, et donc une acquisition complète des connaissances. De plus, l'étude distingue l'apprentissage du premier ordre (réception de données sur les caractéristiques pertinentes pour une proposition) de l'apprentissage du second ordre (réception de données sur l'apprentissage d'autres agents). L'étude soutient que ce type d'apprentissage du second ordre ne représente pas une véritable acquisition de connaissances. Les résultats de cette étude suggèrent que les algorithmes d'apprentissage statistique ont une Takeaways et qu'ils ne produisent pas toujours de véritables connaissances. La théorie est illustrée par plusieurs exemples.