vendredi 16 mars 2012

L’humanité sous-estime-t-elle le risque de sa disparition?


Revue de web: Nick Bostrom, philosophe suédois, souligne les risques que le développement des biotechnologies en particulier fait courir, avec la création bientôt facilitée de virus.
Journaliste scientifique et ancien du Monde, où il tient un blog, Passeur de sciences, Pierre Barthélémy publie un billet sur une question vitale pour qui s’intéresse à l’environnement: « L’humanité sous-estime-t-elle le risque de sa propre extinction? »
En introduction, il rapproche « quelques pièces de puzzle » qui « s’emboîtaient plutôt bien »: échec de la réunion de Durban fin 2011, création d’un virus mutant de la grippe aviaire, avancée vers minuit (à 23h55) de l’horloge de la fin du monde du Bulletin of the Atomic Scientists, acidité record des océans…
Citant l’incroyable prolifération éditoriale des bouquins sur les pseudo-prophéties mayas de fin du monde en 2012 (« les hommes jouant à se faire peur en sachant très bien qu’il s’agit de billevesées, on balaie sous le tapis les vraies raisons de s’inquiéter »),  Pierre Barthélémy consacre ensuite l’essentiel de son billet au Suédois Nick Bostrom, qui vient de donner une grande interview à The Atlantic.
Ce philosophe atypique (formation en physique, en neurosciences et en philosophie des sciences) considère que le développement rapide des biotechnologies, notamment, crée des risques nouveaux:
« Nous sommes en train d’acquérir la capacité à créer des agents pathogènes modifiés et les plans de plusieurs organismes pathogènes sont dans le domaine public: vous pouvez télécharger sur Internet la séquence génétique du virus de la variole ou de celui de la grippe espagnole. Jusqu’ici, le citoyen ordinaire n’a que leur représentation graphique sur l’écran de son ordinateur, mais nous développons aussi des machines synthétisant l’ADN de plus en plus performantes, qui peuvent prendre un de ces plans numériques et fabriquer de véritables brins d’ARN ou d’ADN. Bientôt, ces machines seront suffisamment puissantes pour recréer ces virus. »
Loin d’être technophobe (il est transhumaniste), Nick Bostrom estime aussi que le développement de l’intelligence artificielle « nous fera entrer dans  une zone de risque majeur », et s’inquiète aussi de futurs contrôles des populations, « des choses comme la surveillance et la manipulation psychologique à l’aide de médicaments ».
SourceL’humanité sous-estime-t-elle le risque de sa propre extinction? – LeMonde.fr
Photo: US Department of Energy / Wikipédia, dans le domaine public

Par Thierry Noisette
Smartplanet


Scoop it

Aucun commentaire:

Enregistrer un commentaire