Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

Combien de patients pourrions-nous sauver avec des antécédents de LLM ?

Created by
  • Haebom

Auteur

Shota Arai, David Selby, Andrew Vargo, Sebastian Vollmer

Contour

Nous présentons un nouveau cadre pour la modélisation bayésienne hiérarchique des événements indésirables dans les essais cliniques multicentriques, en exploitant les modèles de langage à grande échelle (MLL). Contrairement aux approches d'augmentation des données qui génèrent des points de données synthétiques, cette étude dérive des distributions paramétriques a priori directement du modèle. À l'aide de LLM pré-entraînés, nous dérivons systématiquement des distributions a priori informatives pour les hyperparamètres du modèle bayésien hiérarchique, intégrant directement l'expertise clinique externe à la modélisation bayésienne de la sécurité. Des analyses complètes de sensibilité à la température et une validation croisée rigoureuse sur des données d'essais cliniques réels démontrent que les distributions a priori dérivées des LLM améliorent systématiquement les performances prédictives par rapport aux approches méta-analytiques existantes. Cette méthodologie ouvre la voie à une conception d'essais cliniques plus efficace et plus éclairée par les experts, réduisant considérablement le nombre de patients nécessaires pour obtenir des évaluations de sécurité solides et transformant potentiellement la surveillance de la sécurité des médicaments et la prise de décision réglementaire.

Takeaways, Limitations_

Takeaways:
Tirer parti du LLM pour présenter de nouvelles possibilités de réduction du nombre de patients dans les essais cliniques et d’augmentation de l’efficacité.
Développement d'un cadre de modélisation de sécurité bayésien basé sur LLM qui démontre des performances prédictives améliorées par rapport aux méta-analyses existantes.
Contribuer à l’amélioration de la surveillance de la sécurité des médicaments et des processus décisionnels réglementaires.
Présentation des moyens d’intégrer efficacement l’expertise externe.
Limitations:
Dépendance à la performance du LLM. Des biais ou des erreurs du LLM peuvent affecter les résultats.
Des recherches supplémentaires sont nécessaires pour déterminer la généralisabilité aux contextes cliniques réels.
Il est nécessaire de garantir la transparence et l’explicabilité du processus d’extraction de distribution préalable à l’aide de LLM.
La généralisabilité à divers types d’événements indésirables et à diverses conceptions d’essais cliniques doit être vérifiée.
👍