L’intelligence artificielle (IA) générative pourrait révolutionner les soins de santé, en facilitant par exemple la mise au point de médicaments ou en accélérant le dépistage de maladies, mais l’Organisation mondiale de la santé OMS estime qu’il faut faire plus attention aux risques.
Dans un document publié jeudi, l’OMS analyse les dangers et les avantages de l’utilisation des grands modèles multimodaux (dits LMM) – un type de technologie d’IA générative à croissance rapide – en matière de santé. Ces LMM peuvent utiliser plusieurs types de données, y compris du texte, des images et des vidéos, et générer des résultats qui ne sont pas limités au type de données introduites dans l’algorithme.
À lire aussiPourquoi l’intelligence artificielle est loin de remplacer le radiologue
«On prévoit que les LMM seront largement utilisés et appliqués dans les soins de santé, la recherche scientifique, la santé publique et la mise au point de médicaments», indique l’OMS. L’organisation définit cinq domaines qui pourraient utiliser cette technologie: le dépistage, par exemple pour répondre aux demandes écrites des patients; la recherche scientifique et le développement de médicaments; l’enseignement médical et infirmier; les tâches administratives; et l’usage par les patients, par exemple pour l’examen des symptômes.
Bien que cette technologie présente un grand potentiel, l’OMS souligne qu’il a aussi été montré que ces LMM peuvent produire des résultats faux, inexacts, biaisés, ou incomplets, ce qui pourrait évidemment avoir des conséquences fâcheuses. «Alors que les LMM sont de plus en plus utilisés dans les soins de santé et la médecine, les erreurs, les mauvais usages et, en fin de compte, les préjudices causés aux individus sont inévitables», relève l’OMS.
À lire aussiQuelle éthique pour l’utilisation de l’intelligence artificielle dans la santé?
Le document présente également de nouvelles orientations sur l’éthique et la gouvernance des LMM, formulant plus de 40 recommandations à l’intention des gouvernements, des entreprises technologiques et des prestataires de soins de santé sur la manière de tirer parti de cette technologie en toute sécurité. «Les technologies d’IA générative ont le potentiel d’améliorer les soins de santé mais seulement si ceux qui développent, réglementent et utilisent ces technologies identifient et prennent pleinement en compte les risques associés, souligne le scientifique en chef de l’OMS, Jeremy Farrar. Nous avons besoin d’informations et de politiques transparentes pour gérer la conception, le développement et l’utilisation des LMM afin d’obtenir de meilleurs résultats en matière de santé et pour surmonter les inégalités persistantes en matière de santé.»
L’OMS lance un appel à la mise en place de règles en matière de responsabilité pour «garantir que les usagers lésés par un LMM soient correctement indemnisés ou disposent d’autres formes de recours». Elle souligne également que la conformité des LMM avec les réglementations existantes, notamment en matière de protection des données, suscite aussi des inquiétudes.
À lire aussiKent Walker (Google) : «L’intelligence artificielle est trop importante pour ne pas être bien régulée»
Par ailleurs, le fait que les LMM soient souvent développés et déployés par les géants de la technologie risque d’asseoir la domination de ces entreprises, selon l’OMS. L’organisation recommande donc que les LMM soient développés non seulement par les scientifiques et les ingénieurs, mais aussi par les professionnels de la santé et les patients. L’OMS met également en garde contre la vulnérabilité des LMM aux risques en matière de cybersécurité, qui pourraient mettre en péril les informations relatives aux patients, voire la fiabilité des soins de santé.
Enfin, elle conclut que les gouvernements devraient charger des autorités de régulation d’approuver l’utilisation des LMM dans les soins de santé, et demande la mise en place d’audits afin d’évaluer l’impact de cette technologie.