Les conclusions figurent dans un audit de l’Inspection générale des activités en santé (IGAS), auquel l’agence Lusa a eu aujourd’hui accès, indiquant que « la mise en œuvre de l’intelligence artificielle dans le Service national de santé (SNS) est à un stade initial et hétérogène ».
L’audit visait à évaluer si les entités hospitalières du SNS – 39 unités locales de santé et trois instituts d’oncologie – assurent que cette technologie contribue à l’amélioration de la qualité des soins de santé, garantissent la protection des droits des usagers et promeuvent une gestion efficace, éthique et sécurisée des ressources publiques.
En pratique, l’IGAS conclut que seulement 12 des entités auditées possèdent une stratégie définie pour l’IA, 10 étant en cours de développement, tandis que 14 n’ont aucune stratégie.
En ce qui concerne les compétences et connaissances spécialisées, l’inspection générale a constaté que 14 entités ont des plans de formation en intelligence artificielle, mais 60% ne favorisent pas la littératie numérique dans ce domaine pour les professionnels de santé ou pour les usagers.
« Il a été constaté la nécessité d’une plus grande capacitation pour un usage sûr et éthique de l’intelligence artificielle », indique le rapport.
Une autre des conclusions indique que 21 entités ont adopté des mesures pour garantir des droits tels que la confidentialité et la non-discrimination, mais seules trois informent les usagers lorsqu’ils interagissent avec l’intelligence artificielle, par exemple via des assistants virtuels.
« Sur le plan éthique, bien que la majorité des entités adoptent des mesures pour garantir des droits tels que la confidentialité, la transparence est limitée : seules trois informent les usagers qu’ils interagissent avec un système d’intelligence artificielle », alerte l’IGAS, qui a également constaté une faible évaluation systématique des avantages et des risques de l’IA.
En matière de sécurité, l’audit a permis de constater que 16 entités du SNS ont adopté des mesures spécifiques de cybersécurité pour l’IA, 15 ont des plans de gestion des risques, mais beaucoup sont encore en développement, et les préoccupations critiques dans ce domaine sont liées aux risques de cyberattaques et d’accès non autorisé.
Concernant le financement, il a été observé une dépendance externe, avec peu de capacité d’autofinancement, plusieurs ULS recourant à des sources comme le Plan de Relance et de Résilience (PRR), le Programme Innovation et Transition Digitale (Compete 2020) et le programme Horizon Europe, rapporte l’IGAS.
« L’audit a démontré que l’IA dans le SNS est à une phase initiale, avec des avancées dans certaines entités, mais manque de coordination et d’investissement dans les domaines critiques », souligne le document, qui considère que les conclusions peuvent servir « comme un outil supplémentaire pour orienter la mise en œuvre éthique, sûre et efficace de l’intelligence artificielle dans le domaine de la santé ».
Étant un audit de caractère exploratoire, centré sur la période de 2024 et le premier trimestre de 2025, l’IGAS n’a émis aucune recommandation formelle aux unités locales de santé et aux instituts d’oncologie.
