Amenaza planetaria
- nieveluisapln2
- 26 dic 2022
- 3 Min. de lectura
Actualizado: 27 dic 2022
La noción de riesgo catastrófico global o riesgo de desastre global es introducida en 2008 por el filósofo Nick Bostrom para designar un evento futuro hipotético que tenga el potencial de degradar el bienestar de la mayorÃa de la humanidad, por ejemplo, destruyendo la civilización moderna. También habÃa propuesto, ya en 2002, llamar riesgo existencial a un evento que podrÃa causar la extinción de la humanidad o una pérdida permanente del potencial futuro de la humanidad.
Entre las posibles catástrofes globales se incluyen no solo el cambio climático, las pandemias y guerras nucleares, sino también los riesgos relacionados con la nanotecnologÃa o una absorción por parte de una inteligencia artificial hostil, y los eventos originados en el espacio tales como los impactos de meteoritos.
Clasificaciones
Riesgos mayores
Un riesgo mayor es un evento incierto cuya realización a menudo no es muy probable, pero cuyos efectos negativos son considerables. Los geógrafos y muchos especialistas después de ellos dividen esta noción en tres términos:
el peligro, que es el evento incierto en sà mismo,
los riesgos, que son los valores socioeconómicos o ecológicos sujetos a los efectos del peligro cuando ocurre, y
la vulnerabilidad, que establece el grado en mayor o menor grado de la destrucción de los logros por estos efectos.
Por ejemplo, en el caso del riesgo de inundación de un rÃo, el peligro es la inundación del curso de agua, los riesgos son las personas y los bienes expuestos a la inundación, y finalmente, la vulnerabilidad se mide en particular teniendo en cuenta la altura, resistencia y estanqueidad de los edificios en cuestión.
Riesgo de catástrofe global y riesgo existencial
El filósofo Nick Bostrom introdujo en 2002 la noción de riesgo existencial; y en 2008, la noción de riesgo catastrófico global, en relación con una clasificación de riesgo según su extensión e intensidad. Sus rangos van desde la escala individual hasta la afectación de generaciones futuras, y la intensidad de "imperceptible" hasta "máximo".
En esta escala, se define un "riesgo de catástrofe global" como aquel que afecta a la mayorÃa de los seres humanos; y de "mayor" intensidad: que afecta el bienestar de las personas durante un perÃodo prolongado.
Un "riesgo existencial" se define como "transgeneracional"; y "máximo",como irreversible y fatal a corto plazo.
De este modo, un riesgo existencial destruye a la humanidad (o incluso a todas las formas de vida superior) o al menos no deja ninguna posibilidad de la reaparición de una civilización, mientras que una catástrofe global, incluso si matara a la mayorÃa de los humanos, dejarÃa una oportunidad para sobrevivir y reconstruir a los otros.
Bostrom considera, por lo tanto, que los riesgos existenciales son mucho más significativos; también señala que la humanidad no podrÃa haber considerado un riesgo existencial antes de 1950, y que todas las estrategias diseñadas para reducir los riesgos de catástrofe global son ineficaces frente a las amenazas de extinción completas.
Conmoción o ruina total
En Catastrophe: Risk and Response, Richard Posner, en 2004, agrupó los eventos que traen "conmoción o ruina total" a escala global , considerándolos merecedores de especial atención, en términos de análisis costo-beneficio, porque podrÃan, directa o indirectamente, poner en peligro la supervivencia de la humanidad en su conjunto.
Entre los eventos que analiza Posner se encuentran los impactos cósmicos, el calentamiento global desbocado, las heladas, el bioterrorismo y los accidentes en los aceleradores de partÃculas.
Clasificación según los escenarios
Bostrom identifica cuatro tipos de escenarios de catástrofes globales.
Las "explosiones" son desastres brutales (accidentales o deliberadas); los ejemplos más probables son la guerra nuclear, el uso agresivo (y fuera de control) de la biotecnologÃa o nanotecnologÃa, y los impactos cósmicos.
Los "colapsos" son escenarios de degradación progresiva de las estructuras sociales en las que la humanidad sobrevive, pero la civilización se destruye irremediablemente. Por ejemplo, por el agotamiento de los recursos naturales.
Los "alaridos" son escenarios de futuros distópicos, como los regÃmenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana.
Los "gemidos" son declives graduales en los valores, y, en consecuencia, de la civilización.
Nick Bostrom considera que los últimos tres tipos de escenarios impiden (más o menos definitivamente) que la humanidad se dé cuenta de su potencial. Sin embargo, Francis Fukuyama piensa que este argumento no es suficiente en sà mismo para clasificar a todos como riesgos de catástrofe global.