Un outil d'IA générative privé et sécurisé soutient les opérations et la recherche dans un centre de cancérologie

Un outil d'IA générative privé et sécurisé soutient les opérations et la recherche dans un centre de cancérologie

Accueil » Psychologie » Troubles mentaux » Adulte » Un outil d'IA générative privé et sécurisé soutient les opérations et la recherche dans un centre de cancérologie

Le Dana-Farber Cancer Institute a mis en œuvre une application d’intelligence artificielle (IA) destinée à un usage général dans un centre médical ou un hôpital. Le système, appelé GPT4DFCI, est autorisé à des fins opérationnelles, administratives et de recherche, mais interdit dans le cadre des soins cliniques directs. Le système est déployé dans les locaux numériques de Dana-Farber, de sorte que toutes les opérations, invites et réponses se produisent au sein d'un réseau privé. L'application est privée, sécurisée, conforme à la HIPAA et vérifiable.

L'application a été déployée par étapes au cours de l'année dernière auprès d'un nombre croissant d'utilisateurs. GPT4DFCI a été déployé avec des conseils détaillés ; par exemple, il est rappelé aux utilisateurs qu'ils sont directement responsables de l'exhaustivité, de la véracité et de l'équité de tout produit final et qu'ils doivent vérifier le contenu généré par GPT car il peut être incomplet, biaisé ou factuellement faux.

Le déploiement de cet outil et de la politique associée a été guidé par le comité de gouvernance de l'IA générative Dana-Farber, qui comprend une large représentation des groupes constitutifs du DFCI, notamment la recherche, les opérations, les aspects juridiques, la confidentialité, la sécurité de l'information, la bioéthique, la conformité, la propriété intellectuelle et les patients. .

Une fois l’utilisation en soins cliniques exclue, une enquête auprès des utilisateurs initiaux a montré que les utilisations principales les plus signalées consistaient à extraire ou à rechercher des informations dans des notes, des rapports ou d’autres fichiers et à répondre à des questions de culture générale. D'autres utilisations signalées comprenaient la synthèse de documents ou de documents de recherche et la rédaction ou l'édition de lettres, de procès-verbaux de réunions ou de présentations. Les préoccupations les plus fréquemment signalées concernaient les résultats inexacts ou faux, ainsi que l'éthique et/ou le respect des politiques.

Il existe un potentiel important pour l’IA générative en matière de soins de santé, associé à des risques importants de biais, d’inexactitude, d’incomplétude et d’utilisation abusive. Malgré ces risques, l’équipe Dana-Farber a décidé que l’interdiction généralisée des outils d’IA générative entraverait l’apprentissage et l’innovation, qui sont au cœur de la mission de Dana-Farber.

Pour gérer les risques et faire progresser la découverte, un organe de gouvernance multidisciplinaire et largement représentatif a guidé les décisions techniques, éthiques et politiques derrière cette mise en œuvre. L'expérience et le matériel technique ont été partagés pour informer d'autres établissements de soins de santé envisageant des efforts similaires.

Les résultats sont publiés dans la revue NEJM IA.

Publications similaires