Alors que l’intelligence artificielle prend de plus en plus de place dans nos vies, certains craignent que cette révolution technologique nous amène à un asservissement des humains par les machines. Mais une IA pourrait-elle réellement dominer notre espèce, de sa propre volonté ?
Les systèmes d’intelligence artificielle ont intégré nos vies, qu’il s’agisse des domaines de la médecine, de la sécurité informatique, de la conduite autonome ou de la surveillance des foules (et bien d’autres). Le fait est que les machines apprennent vite, deviennent surpuissantes. Alors forcément, une question se pose : une IA pourrait-elle un jour, d’elle-même, prendre le contrôle des humains ? Ce genre de scénario dramatique, les films d’Hollywood nous y ont habitués. Dans Terminator, par exemple, un système de défense informatique – Skynet – prend conscience de lui et déclenche une guerre nucléaire, anéantissant une grande partie de l’humanité. Mais est-ce pour autant plausible ? Non, répond Anthony Zador, neuroscientifique au laboratoire de Cold Spring Harbor.
L’IA non soumise à la sélection naturelle
Cette vision du futur, dit-il, reflète une véritable incompréhension de ce que représente une intelligence artificielle. « Nous surestimons considérablement la menace d’une prise de contrôle accidentelle de l’IA, car nous avons tendance à associer l’intelligence à la volonté de parvenir à la domination, explique le chercheur. Cette confusion est compréhensible : au cours de notre histoire évolutive, l’intelligence était la clé de la domination sociale. Or l’intelligence en soi ne génère pas de but en soi – comme la volonté de domination. C’est simplement un moyen de l’atteindre ».
À côté de ça, tous les êtres vivants se caractérisent par leur « intelligence naturelle ». Tous ont, grâce à la sélection naturelle, développé un tas de stratégies visant à perpétuer leur espèce. Cet objectif – rester en vie – est profondément câblé dans le système nerveux de tous les organismes, même les plus simples. Mais les systèmes d’IA n’ont jamais été concernés la sélection naturelle. Ils n’ont ainsi pas eu besoin de développer d’instinct de survie qui mène à l’impulsion de vouloir dominer les autres.
Une intelligence artificielle ne pourra donc pas, d’elle-même, prendre la décision d’asservir une autre espèce dans le simple but de survivre à tout prix. Elle ne pourra le faire que si une entité (une personne, une entreprise) lui demande de le faire.
Se concentrer sur les véritables risques
Pour le chercheur, cette inquiétude vis-à-vis de cette potentielle « prise » de contrôle des machines nous distrait des véritables risques de l’IA. Dans un futur proche, si ce n’est pas déjà fait, certains systèmes intelligents seront transformés en armes autonomes. Quand d’autres, en remplaçant nos emplois, auront le pouvoir de perturber toute une économie en place depuis des décennies. L’accessibilité limitée à ces systèmes pourrait également creuser davantage les inégalités sociales. Sans oublier les débordements imprévus. Tous ces problèmes sont plus inquiétants qu’une prise de contrôle par les robots.
Mais ces risques, néanmoins, peuvent être contenus si nous en prenons rapidement conscience. Et ce qui nous faisait autrefois peur pourrait en réalité être tourné à notre avantage. Des armes plus puissantes et intelligentes pourraient effectivement avoir des effets dissuasifs. L’intelligence artificielle pourrait également stimuler l’économie en étant plus productive, mais aussi nous libérer des emplois les plus contraignants pour en créer de nouveaux, plus accessibles et agréables. Quant aux inégalités, de nouvelles politiques budgétaires peuvent être mises en place.
Au final, il ne fait aucun doute que l’IA va orienter de profondes mutations au cours des prochaines décennies. Mais nous aurons toujours la main dessus. C’est donc à nous de savoir ce que nous voulons (et allons) en faire.
Articles liés :