Các hệ thống AI dựa trên các mô hình ngôn ngữ quy mô lớn (LLM) có thể biểu hiện một chế độ suy luận thất bại được gọi là 'neural howlround', một vòng lặp nhận thức tự củng cố trong đó một số đầu vào có trọng số lớn chiếm ưu thế, dẫn đến các kiểu phản ứng cố hữu khó sửa. Trong bài báo này, chúng tôi khám phá cơ chế của hiện tượng này, khác với sự sụp đổ của mô hình hoặc trọng số quan trọng bị thiên vị. Chúng tôi đề xuất một cơ chế hiệu chỉnh dựa trên giảm chấn, đưa vào bù trừ ngược một cách động, có thể khôi phục suy luận thích ứng ngay cả trong các hệ thống AI 'bị kẹt'. Chúng tôi cũng thảo luận về các hiệu ứng liên quan khác phát sinh từ sự củng cố được quản lý không đúng cách và phác thảo các ứng dụng tiềm năng của chiến lược giảm thiểu này để cải thiện tính mạnh mẽ của AI trong các nhiệm vụ ra quyết định trong thế giới thực.