Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Benchmarking LLM Privacy Recognition for Social Robot Decision Making

Created by
  • Haebom

저자

Dakota Sullivan, Shirley Zhang, Jennica Li, Heather Kirkorian, Bilge Mutlu, Kassem Fawaz

개요

본 논문은 대규모 언어 모델(LLM) 기반 로봇과의 향상된 인간-로봇 상호작용(HRI)을 위해, 가정 환경과 같은 사적인 환경에서 작동하는 로봇이 수집하는 오디오, 고해상도 이미지, 비디오 및 위치 정보 등의 민감한 개인 정보 처리에 대한 문제를 다룬다. Contextual Integrity(CI) 프레임워크를 사용하여 개발된 일련의 프라이버시 관련 시나리오를 통해 사용자의 프라이버시 선호도를 조사하고(N=450), 최첨단 LLM(N=10)의 응답과 비교 분석하여 인간과 LLM 간의 프라이버시 인식 수준의 차이를 밝혔다. 나아가, LLM의 프라이버시 제어 능력을 향상시키기 위한 네 가지 추가적인 프롬프팅 전략을 구현하고 그 결과를 비교 분석하였다. 결과적으로, LLM의 프라이버시 인식 수준이 아직 미흡함을 보여주었으며, AI 프라이버시 인식의 HRI에서의 의미와 잠재력을 논의한다.

시사점, 한계점

시사점:
LLM 기반 로봇의 프라이버시 문제를 심층적으로 분석하고, 사용자의 프라이버시 선호도와 LLM의 응답 간의 차이를 명확히 제시.
LLM의 프라이버시 제어 능력 향상을 위한 다양한 프롬프팅 전략의 효과성을 평가하고, 향후 연구 방향 제시.
LLM 기반 로봇의 윤리적 개발 및 배포를 위한 중요한 시사점 제공.
한계점:
사용자 설문조사의 표본 크기(N=450) 및 LLM 수(N=10)의 제한.
특정 프롬프팅 전략에 국한된 분석으로, 더욱 다양한 프롬프팅 기법의 연구 필요성.
실제 로봇 시스템에 대한 실험이 아닌, 시나리오 기반의 분석으로 실제 상황 적용의 제한.
특정 LLM에 국한된 결과로, 모델 종류에 따른 일반화의 어려움.
👍