사용자와 상호작용에서 스스로 반문하거나 오류 가능성을 경고하는 구조 탐재 → 끊임없는 자기객관화
◦
구글 : 검색 기반 생성(RAG) 바탕으로 AI 오버뷰와 검색 결합하는 자구책 마련
▪
최신 자료 바탕 답변 ▵ 검증되지 않은 정보 제공 우려
▪
코파일럿, 메타 라마인덱스 등 또한 RAG 활용해 환각 현상 개선
◦
퍼플렉시티 : RAG, 항시 출처 공개
▪
모든 응답에 출처 링크 표기 → AI가 답을 어디서 가져왔는지 투명성 확보
◦
미세 조정
▪
기존 언어모델을 특정 목적이나 품질 기준에 맞게 추가 학습 시키는 과정
▪
법률, 의료 등 정확성이 중요한 일부 분야의 경우 AI 모델에 정확한 응답 패턴을 반복 학습시켜 환각 개선
▪
모르는 경우 → 모른다, 추가 정보가 필요하다는 답변 ▵ 비용 및 시간 소요
◦
실시간 교정 메커니즘 활용
▪
문장 생성 도중 해당 내용이 사실인지 동시에 검증・수정
▪
문장 하나하나가 사실 기반으로 생성되는지 확인, 오류 탐지 즉시 수정 및 생성 중단
◦
환각 현상 이유 → AI의 본질적 구조에서 찾고자 하는 시도도 존재
(출처 : 매일경제)
검색 기반 생성 (RAG)
외부 문서를 검색해 그 결과를 바탕으로 AI가 응답 생성. 자체 파라미터에 저장된 지식만으로 답하는 것이 아닌 실시간으로 정보를 찾아본 뒤 해당 내용을 반영해 답변 → LLM이 학습한 정보를 갱신해 환각에 빠지는 것을 줄여줌
핵심 문장
•
환각 문제를 줄이기 위해 RAG, 미세조정, 실시간 교정 매커니즘 등이 적극 활용됨
인사이트
•
정확성 = 사용자 경험의 핵심, 정직한 응답이 오히려 사용자 경험을 개선할 수 있음
환각을 줄이려는 방향성, 클로드와 같이 정직한 응답을 택하는 설계 = 투명성, 심리적 신뢰감 형성 응답 완성도보다는 사용자 중심 설계
•
신뢰 기반 AI 사용 경험 = 경쟁력
기술 수준 만큼이나 사용자가 믿고 쓸 수 있는지가 AI의 차별화 요소로 꼽힘, 브랜드 신뢰도와 연결
실무 적용 방안 / 추가 학습
•
신뢰 기반 인터페이스 설계
사용자가 AI를 맹신하지 않도록 돕는 출처 제공, 정확도 표시, 불확실성 경고 등 표현 방식 사용자가 내용의 진위 여부를 스스로 판단할 수 있는 신뢰 프레임 제공
•
프롬프트 유도형 UI - 사용자의 질문 품질 향상 지원
법률 관련 질문인지? 최근 뉴스를 포함할 것인지? 등... 환각을 유발하는 잘못된 입력을 최소화할 수 있도록 입력단계에서부터 정교한 가이던스 UX 필요
•
RAG 기반 AI 응답 인터페이스
콘텐츠 카드형? 각 문단 옆 원문 출처, 더보기, 요약 등 필요 - 사용자의 맥락 파악과 신뢰 구축을 동시에 유도해야함 구글, 빙, 퍼플렉시티 등에서 어떻게 응답을 함께 보여주는지 조사하기
•
응답 과정의 시각화 - 생성형 AI에 대한 신뢰도 상승 가능
응답을 생성 중이다 ~ 사실 검증 중이다 ~ 출처 정리중이다 ~ 생성 시간이 걸리더라도 과정을 노출해 기다림에 대한 불안 등 부정적 감성 완화 전략
•
신뢰를 만드는 방식
마이크로 소프트, 구글, IBM 등 AI 윤리 UX 설계 사례 조사 → 투명성, 책임감, 편향 방지 중심 설계 이해 Explainable AI를 시각화하는 인터페이스 패턴 AI 환각 감지, 재신뢰 유도를 위한 마이크로 UX 디자인 전략 → 잘못된 정보 발생시 대처 전략, 오류 복구 메세지 유형, CTA 리디렉션 전략 등..