Anacom disponible pour travailler avec les autorités dans des cas d’IA.

Anacom disponible pour travailler avec les autorités dans des cas d'IA.

Sandra Maximiano s’exprimait lors de la conférence de l’Anacom « Intelligência Artificial: Os Desafios da Inovação e da Regulação », qui se déroule au Musée de l’Orient, à Lisbonne.

L’Anacom « est prête à travailler avec les autorités compétentes et avec l’écosystème pour accueillir des cas d’utilisation de l’IA dans les réseaux et services de communications électroniques, par exemple, l’automatisation intelligente des réseaux, l’allocation dynamique des ressources, la protection de l’utilisateur et la détection d’anomalies et de cybermenaces, promouvant ainsi la mise en œuvre de normes ouvertes, l’interopérabilité et la gouvernance des données de manière responsable », a déclaré la responsable.

De cette manière, « elle contribuera au développement fiable de l’IA, avec des bénéfices tangibles pour les citoyens et les entreprises, tout en cohérence avec le cadre européen », a-t-elle souligné, mentionnant que, sur le plan entrepreneurial, l’IA « ouvre une opportunité sans précédent ».

La présidente de l’Anacom a également souligné que la coopération internationale « est essentielle » et que c’est à l’entité de « participer activement à ce dialogue multilatéral », contribuant avec son expérience, défendant le contexte national et apprenant des autres pays.

Elle a rappelé que le règlement sur l’IA (IA Act) « impose des obligations et des exigences pour les systèmes d’IA différenciés par le niveau de risque sous-jacent, posant un défi pour la régulation, celui d’assurer que les entités publiques et privées comprennent, s’adaptent et respectent ces exigences ».

Parallèlement, « la technologie innovante que l’intelligence artificielle potentialise nous oblige à réfléchir sur comment nous pouvons suivre le rythme accéléré du changement ».

Pour la responsable, « il est essentiel » de promouvoir des environnements de tests réglementaires, des standards ouverts et l’interopérabilité, les ‘sandboxes’ d’IA qui testent de nouvelles solutions dans des conditions de confiance et de sécurité.