Software Heritage, la bibliothèque d’Alexandrie des logiciels lancée par l’Inria avec l’Unesco

Baptisée Software Heritage, elle a pour vocation d’archiver l’intégralité des codes source de la planète et de les rendre accessibles à tous.

Source : Software Heritage, la bibliothèque d’Alexandrie des logiciels lancée par l’Inria avec l’Unesco – Sciencesetavenir.fr

Voir aussi : Million lines of code

Voitures autonomes: par quoi serez-vous choqués ?

Quels risques êtes-vous prêts à accepter à bord d’un véhicule autonome ? Pour vous-même, les autres passagers et les passants ? Préférez-vous qu’une voiture renverse cinq piétons d’âge mûr plutôt qu’un bébé ? Un homme qu’une femme ? Votre voiture devrait-elle sacrifier votre vie pour sauver une femme enceinte, même si elle traverse au rouge ?

Nous travaillons avec des chercheurs du MIT1, de Harvard, et de l’université de Californie2 sur le simulateur Moral Machine qui permet de collecter les préférences morales des gens dans ces situations où une voiture autonome doit choisir entre plusieurs accidents inévitables. Ce test disponible en dix langues, mis en ligne en juin 2016, rassemble près de 4 millions d’utilisateurs et a déjà permis de récolter 37 millions de réponses dans une centaine de pays3.

Un cas unique en intelligence artificielle

Les dilemmes éthiques de nos simulations ne sont pas entièrement nouveaux : ils se rapportent au fameux dilemme du tramway, expérience de pensée décrite dès 1967. Elle consiste à imaginer ce que devrait faire une personne qui a la possibilité de détourner de sa route un tramway, pour l’empêcher de tuer un groupe de cinq individus, mais ne peut que le rediriger vers quelqu’un d’autre qui mourra alors à leur place. Beaucoup de philosophes considèrent qu’il est impossible de faire un choix moralement irréprochable dans cette situation. Cette volonté de ne pas choisir est légitime tant que l’on reste dans une expérience de pensée. Mais le dilemme du tramway va concrètement se poser quand les voitures autonomes seront déployées sur les routes, et nous ne pourrons plus alors nous permettre de ne pas choisir.

Le simulateur Moral Machine propose différents scénarios en cas d’accident inévitable. Ici, il faut par exemple choisir entre sacrifier une femme, deux hommes et deux jeunes filles sur la chaussée ou bien trois femmes et deux hommes âgés à bord d’une voiture autonome.
Le cas du véhicule autonome est unique en intelligence artificielle en ce qui concerne les décisions à caractère moral. D’abord, parce qu’avec les voitures autonomes nous confions à une machine une décision que nous n’avons nous-même jamais prise de façon réfléchie : en cas d’accident, nos réactions relèvent de réflexes et d’impulsions imprévisibles. Ensuite, parce que les autres domaines (comme le médical ou le judiciaire) permettent un temps de réflexion avant d’accepter ou non le verdict de la machine, ce qu’une situation d’accident ne permet pas.

Risque relatif et risque absolu

Le projet Moral Machine ne prétend pas déterminer ce qui est éthique ou moral. Mais il nous semble qu’avant de légiférer et mettre ces voitures sur les routes, il convient pour les pouvoirs publics et les constructeurs de savoir quelles sont les solutions les plus acceptables socialement aux yeux de la population.

Ainsi, nous savons déjà grâce à nos premiers résultats qu’en cas d’accident inévitable, un consensus moral se forme pour minimiser le nombre de morts ou de blessés, qu’ils soient piétons ou passagers. Mais lorsque l’on demande aux utilisateurs quelle voiture ils achèteraient, ils préfèrent largement une voiture qui privilégie leur propre sécurité en tant que passager, aux dépens de celle des piétons.

Cette préférence peut amener des comportements peu rationnels. Ainsi, en tant qu’acheteur potentiel d’une voiture autonome, nous pouvons nous montrer trop sensibles aux risques relatifs (c’est-à-dire la façon dont les risques sont distribués entre nous et les autres en cas d’accident). Et, à l’inverse, nous oublions facilement la notion de risque absolu (c’est-à-dire la probabilité qu’un accident survienne en premier lieu). Or ce risque absolu pourrait être jusqu’à dix fois inférieur pour une voiture autonome que pour un conducteur humain4. Cette difficulté à intégrer les deux types de risque, et surtout leur importance respective, est problématique. Des consommateurs pourraient en effet être rebutés par un risque relatif plus élevé (c’est-à-dire le fait que la voiture ne les protège pas toujours en cas de dilemme) sans réaliser que la voiture autonome diminue énormément la probabilité qu’une telle situation se produise !

À l’issue de la simulation, Moral Machine affiche quelques résultats statistiques sur vos choix en les comparant avec ceux de la moyenne des gens ayant aussi répondu aux questions.
Errare humanum est…

À cette difficulté s’ajoute celle de maintenir la confiance des utilisateurs dans un système autonome alors que celui-ci commettra immanquablement des erreurs. En effet, les gens perdent plus vite confiance si une machine dotée d’intelligence artificielle fait une erreur, même petite, alors qu’ils pardonnent facilement une erreur commise par un autre être humain5. Nous pardonnons leurs erreurs aux humains car nous supposons qu’ils s’efforcent de ne pas les reproduire. Mais si un algorithme fait une erreur, alors la méfiance s’installe sur la façon dont il est programmé. Cette sévérité n’est pas toujours fondée (car les algorithmes peuvent apprendre de leurs erreurs et s’améliorer au fil de leur utilisation), mais elle sera un paramètre important à considérer avant la mise en circulation des voitures autonomes6.

Même si nous parvenons à clarifier dans l’esprit du public les notions de risque relatif et absolu, et à dissiper certaines idées fausses sur les capacités des algorithmes, le débat sur l’éthique des voitures autonomes sera loin d’être tranché. Ainsi, le ministère des Transports allemand a présenté en septembre 2017 un rapport réalisé par des experts en intelligence artificielle, en droit et en philosophie, concluant qu’il serait moralement inacceptable pour une voiture de choisir qui elle doit sauver sur la base de caractéristiques telles que l’âge ou le sexe. Interdiction, donc, de sauver un enfant au prix de la vie d’un adulte. Fort bien. Notre rôle n’est pas de débattre des mérites éthiques de cette recommandation. Mais notre projet Moral Machine permet de comprendre ce à quoi les gens s’attendent et ce qui risque de les scandaliser. Et au vu de nos résultats, il est par exemple fort probable que l’opinion soit scandalisée le jour où un enfant sera sacrifié pour ne pas risquer la vie d’un adulte. Il faut comprendre que même si des décisions ont été prises sur des critères éthiques parfaitement respectables, elles conduiront à certains accidents qui généreront un outrage public et qui compromettront l’acceptabilité et l’adoption des voitures autonomes. Il s’agit donc pour nous d’anticiper ces mouvements d’opinions et d’en mesurer les risques, et non de peser sur les législateurs afin qu’ils collent à la volonté des gens telle qu’elle est mesurée avec notre simulateur.

Source : Voitures autonomes: par quoi serez-vous choqués ? | CNRS Le journal