대규모 언어 모델(LLM)은 방대한 텍스트 데이터를 통해 자연어 처리 능력을 향상시키지만, 성별 편향과 같은 사회적 편향을 내포할 위험이 있습니다. 파인 튜닝과 같은 파라미터 수정 방식은 편향을 완화하지만, 자원 집약적이고, 폐쇄형 모델에 적합하지 않으며, 변화하는 사회적 규범에 대한 적응성이 부족합니다. 지시 기반 접근 방식은 유연성을 제공하지만, 종종 작업 성능을 저하시킵니다. 이러한 한계를 해결하기 위해, 본 논문은 $\textbf{FaIRMaker}$를 제안합니다. 이는 $\textbf{자동 검색 및 개선}$ 패러다임을 사용하여 입력 쿼리에 통합되어 성별 편향을 줄이고 응답 품질을 향상시키는 Fairwords를 적응적으로 생성하는 자동화된 모델 독립적 프레임워크입니다. 광범위한 실험을 통해 FaIRMaker가 Fairwords를 자동으로 검색하고 동적으로 개선하여 성별 편향을 효과적으로 완화하는 동시에 작업의 무결성을 유지하고 API 기반 및 오픈 소스 LLM 모두와 호환됨을 입증합니다.