- Les intelligences artificielles (IA) participent de plus en plus aux décisions de notre quotidien, mais soulèvent des enjeux pratiques et éthiques.
- Il faut distinguer la notion d’interprétabilité de l’IA (son fonctionnement) de la notion de rendu de compte (le degré de responsabilité du créateur/utilisateur).
- Un projet de réglementation européenne devrait aboutir en 2023 à classer les IA selon différents niveaux de risque.
- L’IA peut libérer l’humain de tâches chronophages et répétitives et lui permettre de se concentrer sur des tâches plus importantes.
- La France a tout intérêt à investir dans ce type d’IA pour la réalisation des très gros chantiers car elle a accès à des quantités colossales de données à traiter.
Source : Quels enjeux quand les algorithmes remplacent l’humain ? – Polytechnique Insights
Voir également : « AI Act », comment l’Europe veut réguler les machines
– L’IA n’est pas une zone de non-droit, la réglementation existante s’y applique déjà, que ce soit le RGPD pour les données à caractère personnel, ou des réglementations sectorielles dans le domaine de la santé, la finance, ou l’automobile.
– En Machine Learning (ML), les algorithmes se créent eux-mêmes et fonctionnent de façon probabiliste.
– Leurs résultats sont exacts la plupart du temps, mais le risque d’erreurs est une caractéristique inévitable de ces modèles.
– Le défi pour l’avenir sera d’entourer de garde-fous ces systèmes probabilistes très performants pour des tâches comme la reconnaissance d’images.
– Le projet de règlement européen sur l’IA va exiger des tests de conformité et un marquage « CE » pour tout système d’IA à haut risque mis sur le marché en Europe.
https://www.polytechnique-insights.com/dossiers/digital/les-nouveaux-enjeux-de-lia/ai-act-comment-leurope-veut-reguler-les-machines/