in

Stephen Hawking suggère une forme de “gouvernement mondial” pour contrôler les robots

Crédits : iStock

Dans une interview accordée au Times, le célèbre astrophysicien britannique Stephen Hawking évoque le développement de l’intelligence artificielle, estimant nécessaire de créer une forme de gouvernement mondial pour maintenir la robotique sous contrôle.

« La race humaine s’élèvera pour relever les défis » provoqués par le développement de l’intelligence artificielle, déclare l’astrophysicien britannique Stephen Hawking dans une interview accordée au Times ce mardi 7 mars 2017. Mis à part les problèmes d’extinction massive des espèces, l’intelligence artificielle incontrôlable et le réchauffement climatique catastrophique, Stephen Hawking se dit toutefois optimiste quant à l’avenir.

« Depuis le début de la civilisation, l’agressivité de l’espèce humaine a été utile dans la mesure où elle procurait de nets avantages en termes de survie », précise-t-il. « L’agressivité est programmée dans nos gènes par l’évolution darwinienne. Cependant, la technologie a progressé à un tel rythme que cette agressivité peut désormais conduire l’humanité à sa destruction par la guerre nucléaire ou biologique. Nous avons besoin de contrôler cet instinct hérité de notre logique et de notre raison ».

Alors, pour maintenir cet instinct et l’évolution dans la bonne direction, Stephen Hawking préconise la formation « d’une forme de gouvernement mondial » qui pourrait superviser le développement de la puissance de l’intelligence artificielle (IA). « Mais cela pourrait devenir une tyrannie. Tout cela peut sembler de mauvais augure, mais je suis un optimiste. Je pense que la race humaine s’élèvera pour relever ces défis », a-t-il ajouté.

Le développement de l’intelligence artificielle est au cœur des préoccupations de l’astrophysicien qui intervient régulièrement sur le sujet. En 2016, il mettait déjà en garde sur un avenir où IA et humains évolueraient ensemble. « Je ne pense pas que le développement de l’intelligence artificielle soit forcément pour le mieux. Quand les machines auront atteint une étape critique et évolueront indépendamment, on ne pourra pas prédire si elles auront les mêmes objectifs que nous » déclarait-il alors.

Selon lui, le réel danger soulevé par l’intelligence artificielle n’est pas l’éventuelle malveillance, mais la compétence. Cela pourrait être « la meilleure ou la pire chose qui soit arrivée à l’humanité », d’où la nécessité de gérer cela correctement bien en amont.