AI Delegates with a Dual Focus: Ensuring Privacy and Strategic Self-Disclosure
Created by
Haebom
저자
Zhiyang Zhang, Xi Chen, Fangkai Yang, Xiaoting Qin, Chao Du, Xi Cheng, Hangxin Liu, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang
개요
본 논문은 대규모 언어 모델(LLM) 기반 AI 대리인이 사용자를 대신하여 다양한 작업을 수행하는 데 점차 활용됨에 따라 발생하는 프라이버시 위험, 특히 사회적 상호작용 시 발생하는 프라이버시 유출 가능성에 대한 문제를 제기한다. 기존 연구는 AI 대리인의 민감한 사용자 정보 접근을 제한하여 프라이버시를 보호하는 데 초점을 맞추었지만, 많은 사회적 상황에서는 원하는 사회적 목표를 달성하기 위해 개인 정보를 공개해야 하므로 프라이버시 보호와 정보 공개 사이의 균형이 필요하다. 이러한 문제를 해결하기 위해, 연구진은 다양한 사회적 관계와 작업 시나리오에서 AI 대리인에 대한 사용자 인식을 조사하는 파일럿 연구를 수행하고, 프라이버시를 중시하는 자기 공개를 가능하게 하는 새로운 AI 대리인 시스템을 제안한다. 사용자 연구는 제안된 AI 대리인이 다양하고 역동적인 사회적 상호작용에서 전략적으로 프라이버시를 보호함을 보여준다.
시사점, 한계점
•
시사점:
◦
LLM 기반 AI 대리인의 프라이버시 위험에 대한 새로운 관점 제시
◦
프라이버시 보호와 정보 공개의 균형을 위한 새로운 AI 대리인 시스템 제안
◦
다양한 사회적 상황에서 AI 대리인의 프라이버시 보호 전략의 효과성 입증
◦
사용자 인식 조사를 통한 AI 대리인 설계 및 개발에 대한 실질적인 통찰력 제공
•
한계점:
◦
파일럿 연구의 규모가 제한적일 수 있음. 더 큰 규모의 연구가 필요할 수 있음.
◦
제안된 시스템의 일반화 가능성에 대한 추가 연구 필요. 다양한 사회적 상황과 사용자에게 적용 가능한지 검증 필요.