Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Analyse comparative de la reconnaissance de la confidentialité des LLM pour la prise de décision des robots sociaux

Created by
  • Haebom

Auteur

Dakota Sullivan, Shirley Zhang, Jennica Li, Heather Kirkorian, Bilge Mutlu, Kassem Fawaz

Contour

Cet article aborde la question du traitement des données personnelles sensibles, telles que les fichiers audio, les images haute résolution, les vidéos et les informations de localisation, collectées par des robots opérant dans des environnements privés, comme le domicile, pour une interaction homme-robot (IH) améliorée avec des modèles de langage à grande échelle (MLH). En utilisant le cadre d'intégrité contextuelle (IC), nous avons développé une série de scénarios liés à la confidentialité afin d'étudier les préférences des utilisateurs en matière de confidentialité (N = 450). Nous avons comparé les réponses à celles d'un LLM de pointe (N = 10), révélant des différences de sensibilisation à la confidentialité entre les humains et les LLM. De plus, nous avons mis en œuvre quatre stratégies d'incitation supplémentaires pour améliorer les capacités de contrôle de la confidentialité du LLM et comparé les résultats. Nos conclusions démontrent que la sensibilisation à la confidentialité du LLM est encore insuffisante, et nous discutons des implications et du potentiel de la sensibilisation à la confidentialité de l'IA pour l'IH.

Takeaways, Limitations

Takeaways:
Nous analysons en profondeur les problèmes de confidentialité des robots basés sur LLM et présentons clairement les différences entre les préférences de confidentialité des utilisateurs et les réponses de LLM.
ÉValuer l’efficacité de diverses stratégies d’incitation pour améliorer les capacités de contrôle de la confidentialité du LLM et suggérer de futures orientations de recherche.
Fournir des lignes directrices importantes Takeaways pour le développement et le déploiement éthiques de robots basés sur LLM.
Limitations:
Limitations de la taille de l’échantillon (N=450) et du nombre de LLM (N=10) de l’enquête auprès des utilisateurs.
L’analyse s’est limitée à une stratégie d’incitation spécifique, soulignant la nécessité de recherches sur un éventail plus large de techniques d’incitation.
Applicabilité limitée aux situations du monde réel en raison d'une analyse basée sur des scénarios plutôt que d'expériences sur des systèmes robotiques réels.
Résultats limités à un LLM spécifique, ce qui rend la généralisation difficile entre les types de modèles.
👍