L’intelligence théorique (IA) a considérablement progressé depuis le début de la théorisation lors de la conférence de Dartmouth dans les années 1950.
Aujourd’hui, nous le trouvons dans diverses utilisations quotidiennes en raison de certains facteurs tels que le développement technique dans divers domaines technologiques tels que les services cloud. L’intelligence artificielle compose des chansons, reconnaît notre voix, anticipe nos besoins, conduit notre voiture et surveille notre santé…
Le développement de l’intelligence artificielle suscite naturellement de nombreuses craintes chez les citoyens.
On observe le plus souvent, par exemple, que l’intelligence artificielle fait de mauvais choix qui conduisent à des situations dangereuses (voitures autonomes) ou viole des données personnelles qu’elle peut manipuler (principalement la peur causée par des scandales qui explosent autour des principaux acteurs du marché).
En l’absence d’une réglementation claire sur l’intelligence artificielle, afin d’anticiper les besoins futurs, Wavestone a surtout voulu enquêter sur qui est à la pointe des textes sur la gestion de l’intelligence artificielle, quels sont ces textes, quelles idées y sont développées et quels effets. peut être attendu sur la sécurité des systèmes d’intelligence artificielle.
Ces textes sont transmis par deux types d’acteurs, possédant parfois connaissances différentes en cybersécurité.
Ces textes sont généralement diffusés par deux types d’acteurs :
- Décideurs. Toute organisation qui vise à formaliser les règles et les exigences auxquelles un système d’IA doit répondre.
- Influents. Autrement dit, les institutions/organisations qui ont une certaine autorité dans le domaine de l’intelligence artificielle.
Au niveau de l’UE, les décideurs politiques tels que la Commission européenne ou les influenceurs tels que l’ENISA jouent un rôle important dans l’établissement de normes ou de meilleures pratiques pour le développement de l’IA.
Quel est l’avenir de la réglementation de l’IA et de la cybersécurité ?
Ces dernières années, de nombreux articles ont été publiés sur la réglementation des systèmes d’intelligence artificielle. Bien qu’il n’y ait pas encore de textes législatifs, nous voyons toujours la pression monter sur de nombreux textes, comme en témoigne la proposition de loi sur l’intelligence artificielle de l’Union européenne. Ces propositions décrivent les exigences en matière de stratégies de développement de l’IA, d’éthique et de cybersécurité.
Pour ces derniers, les exigences portent principalement sur des sujets tels que la gestion du risque cyber, la surveillance, la gouvernance et la protection des données. De plus, le premier règlement proposerait certainement une approche basée sur les risques et modifierait les exigences en fonction du niveau de risque.
En termes d’analyse de la situation, Wavestone ne peut qu’encourager le développement d’une démarche telle que celle proposée dans la démarche d’audit interne en adoptant une approche par les risques. Cela signifie identifier les risques liés au projet et mettre en œuvre les mesures de sécurité appropriées.
Cela permet d’entrer vraiment dans l’ordre des actions et d’éviter la conformité après coup…