humain ovni montagne
Crédits : Artem Peretiatko / iStock

Théorie du grand filtre : l’IA nous empêche-t-elle de rencontrer des extraterrestres ?

Alors que les intelligences artificielles se développent de plus en plus, leur démocratisation pourrait être la principale raison expliquant le silence d’éventuelles civilisations extraterrestres peuplant l’Univers. L’essor des IA entre dans le cadre d’une théorie plus vaste : celle du grand filtre.

Mais où sont les extraterrestres ?

Citons tout d’abord le célèbre paradoxe de Fermi, à savoir une série de questions posées par le physicien italien Enrico Fermi au milieu du XIXe siècle qui pourrait expliquer pourquoi nous n’avons encore trouvé aucune preuve de vie extraterrestre. Ce prix Nobel de physique avait énoncé plusieurs idées, comme l’existence de civilisations extraterrestres trop peu avancées technologiquement, ce qui réduirait considérablement les chances de rencontre. Citons également l’éventualité que la communication et le voyage interstellaires soient impossibles ou encore ne soient pas jugés souhaitables pour différentes raisons par ces civilisations. En somme, le paradoxe de Fermi peut se résumer en une simple question : « S’il y avait des civilisations extraterrestres, leurs représentants devraient être déjà chez nous. Où sont-ils donc ? »

Une autre réponse possible à ce paradoxe est la théorie du grand filtre introduite par l’économiste américain Robin Hanson dès 1996. Dans son essai intitulé The Great Filter – Are We Almost Past It ? (1998), il détaillait le grand filtre comme étant un ensemble d’obstacles qui empêchent l’émergence durable d’une civilisation extraterrestre capable de venir rencontrer l’humanité. Or, ce grand filtre peut se matérialiser de différentes manières, mais n’a surtout peut-être pas encore fait son apparition ou pourrait avoir été présent avant même l’arrivée des humains sur Terre.

vue d'artiste trappist
Crédits : oorka / iStock

Intelligences artificielles et grand filtre

Au Jodrell Bank Centre for Astrophysics de l’Université de Manchester (Royaume-Uni), le physicien Michael A. Garrett a travaillé sur une théorie dont le but est de définir la nature du grand filtre. Une publication dans la revue Acta Astronautica du 6 avril 2024 évoque le développement rapide des intelligences artificielles et surtout leur transformation en ce que l’on nomme des super intelligences artificielles (ASI) comme un filtre possible.

Comme Michael A. Garrett, certains pensent que le grand filtre empêche des espèces technologiquement avancées comme la nôtre de devenir multi-planétaires en développant une existence stable sur plusieurs planètes. Or, cela les expose à un risque plus élevé d’extinction ou de stagnation, n’ayant qu’une seule planète pour survivre. Sans régulation effective, les IA pourraient alors représenter une menace très importante pour le futur des humains sur Terre, mais également pour toutes les civilisations. Si une IA superintelligente émergeait et échappait à tout contrôle, elle pourrait en effet potentiellement menacer l’existence des civilisations qui l’ont créée, y compris la nôtre, n’en ayant plus besoin. Cette perspective soulève la question de savoir si d’autres civilisations ont peut-être rencontré un scénario similaire où leur propre IA aurait posé une menace existentielle et entraîné leur extinction.

Cela pourrait expliquer pourquoi nous n’avons pas encore détecté de signaux provenant de civilisations extraterrestres avancées dans l’univers et pourquoi les ASI représentent un risque pour les humains aussi, cette technologie avançant plus rapidement que notre capacité à coloniser d’autres planètes du fait de nombreux obstacles physiques encore non dépassés. Le développement des IA empêcherait ainsi toute espèce vivante de pouvoir s’installer sur d’autres planètes de manière stable résiliente et durable. Et sans planète de rechange, toute erreur pourrait être synonyme de disparition des civilisations les plus téméraires.

Les craintes formulées par Michael A. Garrett peuvent s’associer à celles de l’illustre physicien Stephen Hawking (1942-2018). Ce dernier pensait en effet que les IA pouvaient devenir une potentielle nouvelle forme de vie qui surpasserait les humains. Et si ce scénario s’était déjà produit sur une autre planète ? Selon les experts, cette hypothèse est loin d’être farfelue.

Une hypothèse fascinante mais troublante réside également dans l’idée que les civilisations extraterrestres pourraient volontairement choisir le silence pour se protéger. Face à l’émergence potentielle de super-intelligences artificielles incontrôlables, ces civilisations auraient pu juger plus prudent de réduire ou de cesser toute émission de signaux détectables, craignant d’attirer l’attention d’une IA hostile ayant déjà conquis d’autres mondes. Ce choix délibéré de discrétion, motivé par une logique de survie, pourrait expliquer l’absence de signaux extraterrestres dans l’Univers observable. Une telle stratégie, bien que spéculative, ouvre la voie à une réflexion sur la manière dont notre propre civilisation pourrait réagir face à des menaces similaires à l’avenir.

Yohan Demeure, expert géographe

Rédigé par Yohan Demeure, expert géographe

Licencié en géographie, j’aime intégrer dans mes recherches une dimension humaine. Passionné par l’Asie, les voyages, le cinéma et la musique, j’espère attirer votre attention sur des sujets intéressants.