Daily Arxiv

Esta página recopila y organiza artículos sobre inteligencia artificial publicados en todo el mundo.
La información aquí presentada se resume utilizando Google Gemini y el sitio se gestiona sin fines de lucro.
Los derechos de autor de los artículos pertenecen a sus autores y a las instituciones correspondientes; al compartir el contenido, basta con citar la fuente.

FedMentor: Privacidad diferencial con reconocimiento de dominio para LLM federados heterogéneos en salud mental

Created by
  • Haebom

Autor

Nobin Sarwar, Shubhashis Roy Dipta

FedMentor: Adaptación de modelos de lenguaje a gran escala para la privacidad

Describir

Este artículo presenta un estudio sobre la adaptación de modelos lingüísticos a gran escala (LLM) para preservar la privacidad en dominios sensibles (p. ej., salud mental). Para equilibrar la utilidad del modelo, la seguridad y la estricta confidencialidad, proponemos FedMentor, un marco de ajuste fino federado que integra la Adaptación de Bajo Rango (LoRA) y la privacidad diferencial (PD) con reconocimiento de dominio. FedMentor permite a cada cliente (dominio) aplicar una escala de ruido de PD personalizada, proporcional a la sensibilidad de sus datos, y el servidor reduce el ruido adaptativamente cuando la utilidad cae por debajo de un umbral. Experimentos con tres conjuntos de datos de salud mental demuestran que FedMentor mejora la seguridad y reduce la toxicidad, manteniendo la utilidad en comparación con el aprendizaje federado (FL) estándar. El marco escala a una red troncal con hasta 1700 millones de parámetros en un solo cliente de GPU, requiriendo menos de 173 MB de comunicación por ronda.

Takeaways, Limitations

Takeaways:
FedMentor proporciona un marco basado en el aprendizaje federado que mejora la seguridad y la facilidad de uso de los LLM y al mismo tiempo mantiene la privacidad.
Presentamos formas prácticas de distribuir de forma segura títulos de LLM en campos que manejan datos confidenciales, como la salud mental.
La combinación de LoRA y DP logra efectivamente un equilibrio entre la usabilidad del modelo y la privacidad.
Los resultados experimentales muestran que FedMentor aumenta la relación de salida segura, reduce la toxicidad y mantiene la usabilidad cerca de la línea de base privada y el límite superior centralizado.
Admite modelos a gran escala en un entorno de GPU única con bajos costos de comunicación.
Limitations:
Sólo se presentan resultados experimentales para un conjunto de datos específico (relacionado con la salud mental), lo que requiere una mayor validación de la generalización a otros dominios sensibles.
Quizás se necesiten más investigaciones para encontrar el equilibrio óptimo entre el rendimiento del modelo y la privacidad.
Se necesita más análisis sobre la pérdida de usabilidad debido a la aplicación de DP.
Se necesita más investigación sobre las interacciones y optimizaciones específicas de LoRA y DP.
👍