Google DeepMind et FHI : une collaboration pour neutraliser l’IA
Matrix
Les romans et films de science-fiction l’ont déjà mis en avant à plusieurs reprises, l’intelligence artificielle développée par l’Homme pourrait devenir autonome et représenter une menace. Rassurez-vous, si l’on ne parle pas ici d’une hostilité envers l’humanité, l’automatisation de certains procédés couplés à l’apprentissage par la machine pourraient donner lieu à des décisions parfois étrange et dont l’Homme ne devrait pas perdre le contrôle.
À ce titre, le programme Google DeepMind et l’université d’Oxford Future of Humanité Institute s’associent afin de rendre l’intelligence artificielle plus sûre. Les travaux, qui seront présentés à l’occasion d’une conférence à New York du 25 au 29 juin prochain, expliqueront une méthode afin de faire en sorte que l’apprentissage par la machine puisse être interrompu à de multiples reprises par un agent (humain, ou bot), et ce, en toute sécurité grâce à un mécanisme d’urgence. De fait, en désolidarisant ce mécanisme, la machine ne devrait pas être en mesure d’éviter ou apprendre à le contourner.