Les douze dangers de Brian

2 minutes de lecture

– Désolé de vous couper, Edmond. Si vous le voulez bien, nous allons passer la parole à votre confrère, en vous remerciant de votre visite sur le plateau… Brian, bonjour. Vous êtes chercheur détaché de l’université d’Oxford. Et depuis plusieurs années déjà, avec vos collègues de la fondation Global Challenge, vous travaillez sur l’évaluation des catastrophes qui pourraient signifier la fin de la civilisation humaine. Alors, avant de revenir sur le cri lui-même, pourriez-vous préciser ces menaces que vous avez identifiées. Vous en comptez une douzaine, c’est cela ?

– Oui, tout à fait. En fait il s’agit de douze dangers potentiellement capables de faire disparaître l’humanité d’ici une centaine d’années, ce qui constitue une durée assez courte à notre échelle. Nous nous intéressons à cela avec un objectif de prévention, parce que nous croyons que l’humanité a la capacité de se transformer pour éviter ces dangers. C’est pourquoi il est utile d’envisager tous les cas de figure, même si certains apparaissent farfelus ou relever de la science-fiction, et de tenter d’y associer des probabilités.

– Alors de quoi parle-t-on concrètement, ici ? De guerre nucléaire, j’imagine, de réchauffement ?

– Oui, bien entendu ces deux dangers existent. En fait, nous distinguons quatre catégories de risques. D’abord ceux que nous ne contrôlons pas, comme la collision avec un astéroïde, une forte tempête solaire ou l’éruption d’un super volcan comme celui du parc de Yellowstone, dont les conséquences climatiques seraient désastreuses. En second lieu les risques que l’on qualifie « d’actuels » et que vous avez cités : une guerre nucléaire, une catastrophe écologique majeure, un changement climatique extrême, mais aussi une pandémie mondiale ou l’effondrement de nos systèmes.

– Ce serait plutôt ce genre de catastrophes dont le cri nous avertit, non ?

– Certainement, puisque le message fait état de « destruction » dont nous sommes ou serions, les auteurs. Mais cela pourrait également se référer au risque nous appelons de « politique globale », comme la mauvaise gestion de nos ressources qui conduirait à des pénuries irréversibles, par exemple. La dernière catégorie concerne les risques dits émergents, comme une intelligence artificielle devenue incontrôlable, l’utilisation de nanotechnologies dans la mise au point de nouvelles armes ou encore la biologie synthétique qui aboutirait à la création d’un organisme pathogène ciblant les humains…

– Là, nous nous rapprocherions de scénarios de films de science-fiction comme Terminator ou Matrix où les machines prennent le pouvoir… Mais alors, selon vous, que peut-on penser de ce cri d’alarme, si nous sommes déjà conscients des dangers qui nous guettent ? Et qui nous l’envoie ?

– Sur le « qui », je ne me prononcerais pas en l’absence de données fiables et je préfère me concentrer sur le contenu. Ce que nous prouve ce message, c’est que certains des dangers dont nous avions l’intuition sont bien réels et qu’il est urgent de reconsidérer nos comportements dans leur ensemble, que ce soit sur le plan politique, mais également au niveau de la production agricole et industrielle ainsi que nos habitudes de consommateurs.

– À vous entendre, ce cri d’alarme représente finalement une aubaine pour l’espèce humaine et pour les tenants d’une nouvelle écologie… Si tant est qu’elle soit suivie d'actions de la part de l’ensemble des gouvernements.

Annotations

Versions

Ce chapitre compte 1 versions.

Vous aimez lire essaime ?

Commentez et annotez ses textes en vous inscrivant à l'Atelier des auteurs !
Sur l'Atelier des auteurs, un auteur n'est jamais seul : vous pouvez suivre ses avancées, soutenir ses efforts et l'aider à progresser.

Inscription

En rejoignant l'Atelier des auteurs, vous acceptez nos Conditions Générales d'Utilisation.

Déjà membre de l'Atelier des auteurs ? Connexion

Inscrivez-vous pour profiter pleinement de l'Atelier des auteurs !
0