La Moral Machine en question
Est-ce qu’une voiture sans conducteur remplie de jeunes filles devrait se crasher pour éviter d’écraser des chiots sur un passage piétons ? Est-il normal de rouler sur deux criminels pour sauver un docteur ? Depuis plusieurs années maintenant, de nombreux constructeurs automobiles (Audi, Toyota, Renault, Nissan, ou encore Google) se penchent sur la question de la voiture autonome, et plusieurs prototypes ont vu le jour.
Toutefois, il y a 2 mois, l’accident entraînant le décès d’un des conducteurs de Tesla a posé de nouvelles questions sur l’intelligence, et surtout la prise de décisions de la voiture sans conducteur. Les ingénieurs du MIT ont donc mis au point un test appelé Moral Machine qui vous permet de décider quelle sera la réponse au fameux « trolley problem » (dilemme du tramway en français).
Il devient de plus en plus important de penser à de telles questions avec l’émergence des IA (intelligence artificielle) et des véhicules autonomes. Les ingénieurs font face à de véritables casse-têtes : qui devrait être responsable de ces décisions ? Le passager, la compagnie qui a conçu la voiture, ou personne ? La Moral Machine pose des choix basiques mais essentiels : est-ce que l’IA devrait intervenir si on peut sauver plus de vies ? Ou devrait-elle rester passive et ne pas influencer le cours des choses ? Mais certains scénarios sont encore plus élaborées et plus nuancés : devrait-on sauver 4 piétons qui traversent la route au détriment de deux femmes enceintes passagères de la voiture ?
Et si vous pensez que ces questions sont dures, imaginez les problèmes qui peuvent survenir pour la voiture en fonction de l’état des routes (qui peuvent parfois être chaotiques). Pour les anglophones, vous pouvez aussi contribuer à la recherche en vous rendant sur ce lien : http://moralmachine.mit.edu.