Sign In

GOD model: Privacy Preserved AI School for Personal Assistant

Created by
  • Haebom
Category
Empty

저자

PIN AI Team, Bill Sun, Gavin Guo, Regan Peng, Boliang Zhang, Shouqiao Wang, Laura Florescu, Xi Wang, Davide Crapis, Ben Wu

개요

개인 인공지능 비서(예: 애플 인텔리전스, 메타 AI)는 일상적인 작업을 단순화하는 사전 예측적 권장 사항을 제공하지만, 민감한 사용자 데이터에 대한 의존성으로 인해 개인 정보 보호 및 신뢰에 대한 우려가 제기됩니다. 이러한 과제를 해결하기 위해 본 논문은 개인 기기에서 직접 AI 비서를 학습하고 평가하기 위한 안전하고 개인 정보 보호를 준수하는 프레임워크인 Guardian of Data (GOD)를 소개합니다. GOD 모델은 기존 벤치마크와 달리 사용자 데이터와 자율성을 보호하면서 선물 제안과 같은 사용자의 요구를 얼마나 잘 예측하는지 측정합니다. AI 학교처럼 작동하여 사용자 쿼리를 시뮬레이션하고 교육 과정 기반 접근 방식을 사용하여 각 비서의 성능을 개선함으로써 콜드 스타트 문제를 해결합니다. 신뢰할 수 있는 실행 환경(TEE) 내에서 실행되어 강화 학습 및 모방 학습을 적용하여 AI 권장 사항을 개선하는 동시에 사용자 데이터를 보호합니다. 토큰 기반 인센티브 시스템은 사용자가 데이터를 안전하게 공유하도록 장려하여 지속적인 개선을 주도하는 데이터 플라이휠을 만듭니다. 구체적으로 사용자는 자신의 데이터로 채굴하며, 채굴률은 GOD가 쇼핑, 소셜 상호 작용, 생산성, 거래 및 Web3와 같은 범주에서 AI 비서가 사용자를 얼마나 잘 이해하는지 평가하여 결정됩니다. GOD 모델은 개인 정보 보호, 개인화 및 신뢰를 통합하여 개인 AI 비서를 발전시키기 위한 확장 가능하고 책임감 있는 경로를 제공합니다. 커뮤니티 협업을 위해 프레임워크의 일부는 https://github.com/PIN-AI/God-Model에서 오픈소스로 제공됩니다.

시사점, 한계점

시사점:
개인 정보 보호를 보장하면서 개인 AI 비서의 성능을 향상시키는 새로운 프레임워크(GOD) 제시.
콜드 스타트 문제 해결을 위한 교육 과정 기반 접근 방식과 사용자 데이터를 활용한 지속적인 개선.
토큰 기반 인센티브 시스템을 통한 사용자 참여 유도 및 데이터 플라이휠 구축.
개인 정보 보호, 개인화, 신뢰를 통합한 책임감 있는 AI 개발 방향 제시.
오픈소스를 통한 커뮤니티 협업 지원.
한계점:
GOD 모델의 실제 효과 및 확장성에 대한 추가적인 실험 및 평가 필요.
TEE의 보안 및 신뢰성에 대한 의존성.
토큰 기반 인센티브 시스템의 효율성 및 공정성에 대한 검토 필요.
다양한 사용자 및 상황에 대한 일반화 가능성 확인 필요.
오픈소스로 공개된 부분의 범위 및 제한 사항 명확히 할 필요.
👍