in

Les risques liés à l’intelligence artificielle enfin pris au sérieux !

Crédits : iStock

Les craintes que peut inspirer l’intelligence artificielle atteignent désormais les scientifiques. En 2014, une lettre d’avertissement avait été diffusée à propos du potentiel risque de scénario similaire à ce qui est visible dans la saga Terminator. Suite à cela, des chercheurs ont longtemps réfléchi sur la question et ont récemment donné leur analyse constructive dans une parution.

L’avènement de robots dotés d’une intelligence artificielle qui prendraient le pouvoir face aux humains est une perspective faisant très peur au physicien Stephen Hawking, mais pas seulement : le célèbre passionné Elon Musk avait déclaré avoir déboursé la somme de 10 millions de dollars afin de financer la recherche scientifique contre l’intelligence artificielle. Même le patron du géant Microsoft, Bill Gates, évoquait ses craintes :

« Je suis de ceux qui s’inquiètent de la super-intelligence. Dans un premier temps, les machines accompliront de nombreuses tâches à notre place et ne seront pas super-intelligentes. Cela devrait être positif si nous gérons ça bien. Plusieurs décennies plus tard cependant, l’intelligence sera suffisamment puissante pour poser des problèmes. Je suis d’accord avec Elon Musk et d’autres, et je ne comprends pas pourquoi les gens ne sont pas inquiets. »

Cet élan de catastrophisme a au moins eu le mérite de déterminer des chercheurs à se pencher réellement sur la question. Ces derniers proviennent des universités de Berkeley et de Stanford (États-Unis) ainsi que de la firme Google, avec la collaboration d’OpenAI, une association de recherche à but non lucratif en intelligence artificielle, basée à San Francisco.

Ensemble, les chercheurs ont écrit un article relatant leurs réflexions faisant office de feuille de route pour le futur de l’IA, dont un résumé est lisible sur le blog de Google. Dans cette publication, sont listés cinq risques d’accident classés en trois catégories. Les auteurs donnent des exemples simples, mais il semble que ces accidents peuvent toucher n’importe quelle machine équipée d’une intelligence artificielle.

1. Les accidents peuvent être la cause d’une mauvaise programmation de l’IA. Les chercheurs donnent l’exemple d’un robot-nettoyeur donc la « fonction objectif » est de faire disparaitre les saletés et la poussière. Une mauvaise programmation pourrait par exemple permettre au robot de jeter des objets non destinés à l’être. En effet, cette action accélère et rend le nettoyage plus efficace pour la machine. Il s’agirait de ce que l’on appelle des « effets secondaires négatifs ». Et que penser d’un éventuel robot infirmier dont la fonction serait de veiller sur le repos d’un malade ? Techniquement, lui injecter des somnifères régulièrement obtiendrait un résultat positif penserait la machine, mais en réalité non.

2. Il existe une autre source de conflit, à savoir les « effets de saturation ». Cela pourrait arriver si par exemple, le robot-nettoyeur s’active pour chaque moindre poussière sur le sol, ou si le robot-infirmier sollicite trop le patient ayant besoin de repos, afin de sans cesse lui demander s’il a besoin de quelque chose. De telles dérives pourraient contraindre les humains à rejeter leur machine.

3. Et si les IA pouvaient être mal éduquées ? Au-delà de ce qu’elles auraient appris durant leur phase d’apprentissage, les IA sont tout de même programmées pour explorer les solutions possibles afin de résoudre un problème de la façon la plus efficace possible. C’est ce qui leur permet de varier leur comportement. Mais pouvez-vous imaginer votre robot-nettoyeur qui utiliserait de l’eau pour nettoyer votre ordinateur et votre console de jeux de la même manière qu’il nettoierait le sol ?

Les exemples pris sont volontairement simples, mais les dangers de l’intelligence artificielle semblent très réels, surtout que certaines sociétés se spécialisent dans des IA pour interagir dans l’espace public et même servir l’armée.

Sources : Sciences et VieL’ExpressTranshumanisme Magazine