Desperdicio Astronómico:

Daviddelauba
11 min readMay 25, 2022

--

El Coste de Oportunidad del Retraso en el Desarrollo Tecnológico.

NICK BOSTROM

Oxford University

http://www.nickbostrom.com

RESUMEN: Con una tecnología muy avanzada, se podría mantener una población muy grande de personas que vivieran felices en la región accesible del universo. Por cada año que se retrasa el desarrollo de tales tecnologías y la colonización del universo, existe, por tanto, un coste de oportunidad: un bien potencial, unas vidas que merecen ser vividas, no se está realizando. Dados algunos supuestos plausibles, este coste es extremadamente grande. Sin embargo, la lección para los utilitaristas no es que debamos maximizar el ritmo del desarrollo tecnológico, sino que debemos maximizar su seguridad, es decir, la probabilidad de que la colonización se produzca finalmente.

I. EL RITMO DE PÉRDIDA DE VIDAS POTENCIALES

Mientras escribo estas palabras, los soles iluminan y calientan espacios vacíos, la energía no utilizada es arrojada por los agujeros negros y nuestra gran dotación común de negentropía se degrada irreversiblemente en entropía a escala cósmica. Se trata de recursos que una civilización avanzada podría haber utilizado para crear estructuras de valor, como seres sensibles que viven vidas que valen la pena.

El ritmo de este desperdicio nos deja perplejos. Un artículo reciente especula, utilizando consideraciones teóricas poco precisas basadas en la tasa de aumento de la entropía, que la pérdida de vidas humanas potenciales en nuestro propio supercúmulo galáctico es de al menos ~10⁴⁶ por siglo de colonización retrasada[1] Esta estimación supone que toda la entropía perdida podría haberse utilizado con fines productivos, aunque ningún mecanismo tecnológico actualmente conocido es ni remotamente capaz de hacerlo. Dado que la estimación pretende ser un límite inferior, esta suposición radicalmente poco conservadora no es deseable.

Sin embargo, podemos obtener un límite inferior de forma más sencilla contando el número de estrellas de nuestro supercúmulo galáctico y multiplicando este número por la cantidad de potencia de cómputo que los recursos de cada estrella podrían generar utilizando tecnologías cuya viabilidad ya ha sido demostrada. A continuación, podemos dividir este total con la cantidad estimada de potencia de cómputo necesaria para simular una vida humana.

Como aproximación, digamos que el supercúmulo de Virgo contiene 10¹³ estrellas. Una estimación de la potencia de cómputo extraíble de una estrella y con una estructura computacional asociada del tamaño de un planeta, utilizando nanotecnología molecular avanzada[2], es de 10⁴² operaciones por segundo[3] Una estimación típica de la potencia de cómputo del cerebro humano es de aproximadamente 10¹⁷ operaciones por segundo o menos. [4] No parece que se necesite mucho más para simular las partes relevantes del entorno con el suficiente detalle como para que las mentes simuladas tengan experiencias indistinguibles de las típicas experiencias humanas actuales[5] Teniendo en cuenta estas estimaciones, se deduce que el potencial de aproximadamente 10³⁸ vidas humanas se pierde cada siglo que se retrasa la colonización de nuestro supercúmulo local; o lo que es lo mismo, unas 10²⁹ vidas humanas potenciales por segundo.

Aunque esta estimación es conservadora en el sentido de que asume sólo mecanismos computacionales cuya implementación ha sido al menos esbozada en la literatura, es útil tener una estimación aún más conservadora que no asuma una instanciación no biológica de las personas potenciales. Supongamos que alrededor de 10¹⁰ humanos biológicos podrían sostenerse alrededor de una estrella media. Entonces el Supercúmulo de Virgo podría contener 10²³ humanos biológicos. Esto corresponde a una pérdida de potencial igual a unas 10¹⁴ vidas humanas potenciales por segundo de colonización retrasada.

Lo que importa para los fines actuales no son las cifras exactas, sino el hecho de que son enormes. Incluso con la estimación más conservadora, suponiendo una implantación biológica de todas las personas, se pierde el potencial de cien mil millones (100,000,000,000) de seres humanos potenciales por cada segundo de aplazamiento de la colonización de nuestro supercúmulo[6].

II. EL COSTE DE OPORTUNIDAD DEL RETRASO DE LA COLONIZACIÓN

Desde una perspectiva utilitaria, esta enorme pérdida de vidas humanas potenciales constituye una correspondiente enorme pérdida de valor potencial. Asumo aquí que las vidas humanas que podrían haberse creado habrían valido la pena. Dado que se suele suponer que incluso las vidas humanas actuales suelen valer la pena, se trata de una suposición débil. Cualquier civilización lo suficientemente avanzada como para colonizar el supercúmulo local probablemente también tendría la capacidad de establecer al menos las condiciones mínimamente favorables necesarias para que las vidas futuras merezcan la pena.

El efecto sobre el valor total, por tanto, parece mayor para las acciones que aceleran el desarrollo tecnológico que para prácticamente cualquier otra acción posible. El avance de la tecnología (o de los factores que la hacen posible, como la productividad económica), incluso en una cantidad tan ínfima que lleve a la colonización del supercúmulo local sólo un segundo antes de lo que habría sucedido de otro modo, supone la consecución de más de 10²⁹ vidas humanas (o 10¹⁴ vidas humanas si utilizamos el límite inferior más conservador) que no habrían existido de otro modo. Pocas otras causas filantrópicas podrían aspirar a igualar ese nivel de beneficio utilitario.

Los utilitaristas no son los únicos que deberían oponerse firmemente al desperdicio astronómico. Hay muchos puntos de vista sobre lo que tiene valor que coincidirían con la apreciación de que el ritmo actual de desperdicio constituye una enorme pérdida de valor potencial. Por ejemplo, podemos adoptar una concepción del bienestar humano más amplia de lo que suelen suponer los utilitaristas (ya sean de tendencia hedonista, experiencialista o de satisfacción del deseo), como una concepción que sitúe el valor también en el florecimiento humano, las relaciones significativas, el carácter noble, la expresión individual, la apreciación estética, etc. Mientras la función de evaluación sea agregativa (no cuente menos el bienestar de una persona sólo porque haya muchas otras personas en la existencia que también disfruten de vidas felices) y no se relativice a un punto particular en el tiempo (sin descuento temporal), la conclusión se mantendrá.

Estas condiciones pueden relajarse aún más. Incluso si la función de bienestar no es perfectamente agregativa (tal vez porque uno de los componentes del bien es la diversidad, cuya tasa marginal de producción podría disminuir con el aumento del tamaño de la población), todavía puede producir un resultado final similar siempre que al menos algún componente significativo del bien sea suficientemente agregativo. Del mismo modo, se podría dar cabida a cierto grado de descuento de bienes futuros en el tiempo sin cambiar la conclusión[7].

III. EL PRINCIPAL OBJETIVO DE LOS UTILITARISTAS DEBERÍA SER REDUCIR EL RIESGO EXISTENCIAL

A la luz de la discusión anterior, puede parecer que un utilitarista debería centrar sus esfuerzos en acelerar el desarrollo tecnológico. La recompensa de un éxito, aunque sea mínimo, en esta tarea es tan enorme que empequeñece la de casi cualquier otra actividad. Parece que tenemos un argumento utilitario para la mayor urgencia posible del desarrollo tecnológico.

Sin embargo, la verdadera lección es otra. Si lo que nos preocupa es (algo así como) maximizar el número esperado de vidas que valen la pena que vamos a crear, entonces además del coste de oportunidad de la colonización retrasada, tenemos que tener en cuenta el riesgo de no colonizar en absoluto. Podríamos ser víctimas de un riesgo existencial, uno en el que un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría su potencial de forma permanente y drástica[8]. Dado que la vida de las galaxias se mide en miles de millones de años, mientras que la escala de tiempo de cualquier retraso al que pudiéramos afectar de forma realista se mediría más bien en años o décadas, la consideración del riesgo supera a la del coste de oportunidad. Por ejemplo, un solo punto porcentual (0,01) de reducción de los riesgos existenciales valdría (desde el punto de vista de la utilidad esperada utilitaria) un retraso de más de 10 millones de años.

Por lo tanto, si nuestras acciones tienen el más mínimo efecto sobre la probabilidad de una eventual colonización, éste será mayor que su efecto sobre el momento en que ésta se produzca. Para los utilitaristas estándar, la prioridad número uno, dos, tres y cuatro debería ser, en consecuencia, reducir el riesgo existencial. El imperativo utilitario “ Maximizar la utilidad agregada esperada” puede simplificarse al de “Minimizar el riesgo existencial”.

IV. IMPLICACIONES PARA LOS PUNTOS DE VISTA PERSONA-AFECTIVO AGREGATIVOS

El argumento anterior presupone que nuestra preocupación es maximizar la cantidad total de bienestar. Supongamos, en cambio, que adoptamos una versión del utilitarismo “persona-afectivo”, según la cual nuestras obligaciones son principalmente hacia las personas que existen en la actualidad y hacia las personas que llegarán a existir[9]. Según este punto de vista persona-afectivo, la extinción humana sería mala sólo porque empeora las vidas pasadas o en curso, no porque constituye una pérdida de vidas potenciales que merecen la pena. ¿Qué debería hacer alguien que adopte esta doctrina? ¿Debería hacer énfasis en la velocidad o la seguridad, o en otra cosa?

Para responder a esto, debemos considerar algunas cuestiones adicionales. Supongamos que uno piensa que la probabilidad de que cualquier persona existente sobreviva lo suficiente como para llegar a utilizar una parte significativa de los recursos astronómicos accesibles, que, como se ha descrito en la sección inicial de este documento, se están desperdiciando gradualmente. Entonces, la razón para minimizar el riesgo existencial es que una extinción repentina recortaría una media de, digamos, 40 años de cada una de las actuales (seis mil millones, más o menos) vidas humanas[10] Aunque esto sería ciertamente un gran desastre, está en el mismo ámbito de grandes tragedias humanas en curso, como la pobreza mundial, el hambre y la enfermedad. En este caso, un utilitarista persona-afectivo debería considerar la reducción del riesgo existencial como una preocupación muy importante, pero no completamente dominante. En este caso no habría una respuesta fácil a lo que debería hacer. Dónde debería centrar sus esfuerzos dependería de cálculos detallados sobre qué área de la actividad filantrópica estaría mejor situada para hacer una contribución.

Sin embargo, se podría decir que deberíamos asignar una probabilidad no despreciable a que algunas personas actuales sobrevivan lo suficiente como para cosechar los beneficios de una diáspora cósmica. La llamada “singularidad” tecnológica podría producirse durante nuestro tiempo de vida natural[11], o podría producirse un gran avance en la prolongación de la vida, provocado, quizás, por la nanotecnología en fase de máquina que nos daría un control sin precedentes sobre los procesos bioquímicos de nuestro cuerpo y nos permitiría detener e invertir el proceso de envejecimiento[12]. [Muchos tecnólogos y pensadores futuristas de primera línea dan una probabilidad bastante alta a que estos desarrollos se produzcan en las próximas décadas[13] Incluso si se es escéptico sobre sus pronósticos, hay que tener en cuenta el pobre historial de las previsiones tecnológicas. Teniendo en cuenta la falta de fiabilidad de muchos de estos pronósticos, no parece justificado confiar tanto en la predicción de que los avances necesarios no se producirán en nuestra época como para dar a la hipótesis de que se produzcan una probabilidad inferior a, por ejemplo, el 1%.

La utilidad esperada de un 1% de posibilidades de realizar un bien astronómico podría ser también astronómica. Pero, ¿hasta qué punto sería bueno para (algún subconjunto sustancial de) las personas actualmente vivas tener acceso a cantidades astronómicas de recursos? La respuesta no es obvia. Por un lado, se podría reflexionar sobre el hecho de que, en el mundo actual, la utilidad marginal de los recursos materiales para un individuo disminuye con bastante rapidez una vez satisfechas sus necesidades básicas. El nivel de bienestar de Bill Gates no parece superar dramáticamente el de muchas personas de medios mucho más modestos. Por otro lado, las tecnologías avanzadas, como las que probablemente se utilizarán cuando podamos colonizar el supercúmulo local, pueden proporcionar nuevas formas de convertir los recursos en bienestar. En particular, los recursos materiales podrían utilizarse para ampliar enormemente nuestras capacidades mentales y prolongar indefinidamente nuestra vida subjetiva. Y no está en absoluto claro que la utilidad marginal de la prolongación de la duración de la salud y del aumento de las capacidades mentales deba disminuir bruscamente por encima de cierto nivel. Si no hay tal declive en la utilidad marginal, tenemos que concluir que la utilidad esperada para los individuos actuales de una colonización exitosa de nuestro supercúmulo es astronómicamente grande, y esta conclusión se mantiene incluso si uno da una probabilidad bastante baja a ese resultado. Puede que sea una posibilidad remota, pero para un maximizador de la utilidad esperada, el beneficio de vivir durante quizás miles de millones de años subjetivos con capacidades muy ampliadas bajo condiciones fantásticamente favorables podría compensar con creces las remotas perspectivas de éxito.

Ahora bien, si se dan estos supuestos, ¿qué se deduce de cómo debe actuar un utilitarista persona-afectivo? Evidentemente, evitar las calamidades existenciales es importante, no sólo porque reduciría la vida natural de unos seis mil millones de personas, sino también -y dados los supuestos esta es una consideración aún más importante- porque extinguiría la posibilidad que tienen las personas actuales de cosechar los enormes beneficios de una eventual colonización. Sin embargo, a diferencia del utilitarista total, el utilitarista persona-afectivo tendría que equilibrar este objetivo con otro desiderátum igualmente importante, a saber, el de maximizar las posibilidades de que las personas actuales sobrevivan para beneficiarse de la colonización. Para el utilitarista persona-afectivo, no basta con que la humanidad sobreviva para colonizar; es crucial que las personas existentes se salven. Esto debería llevarla a enfatizar la velocidad del desarrollo tecnológico, ya que la rápida llegada de tecnología avanzada sería seguramente necesaria para ayudar a la gente actual a mantenerse con vida hasta que se puedan recoger los frutos de la colonización. Si el objetivo de la velocidad entra en conflicto con el de la seguridad global, el utilitarista total debería optar siempre por maximizar la seguridad, pero el utilitarista persona-afectivo tendría que equilibrar el riesgo de que las personas mueran de viejas con el riesgo de que sucumban en una catástrofe que destruya la especie[14].

[1] M. Cirkovic, ‘Cosmological Forecast and its Practical Significance, Journal of Evolution and Technology, xii (2002), http://www.jetpress.org/volume12/CosmologicalForecast.pdf.

[2] K. E. Drexler, Nanosystems: Molecular Machinery, Manufacturing, and Computation, New York, John Wiley & Sons, Inc., 1992.

[3] R. J. Bradbury, ‘Matrioshka Brains’, Manuscript, 2002, http://www.aeiveos.com/~bradbury/MatrioshkaBrains/MatrioshkaBrains.html

[4] N. Bostrom, ‘How Long Before Superintelligence?’, International Journal of Futures Studies ii (1998); R. Kurzweil, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York, Viking, 1999. The lower estimate is in H. Moravec, Robot: Mere Machine to Transcendent Mind, Oxford, 1999.

[5] N. Bostrom, ‘Are You Living in a Simulation?’, Philosophical Quarterly, liii (211). See also http://www.simulation-argument.com.

[6] The Virgo Supercluster contains only a small part of the colonizable resources in the universe, but it is sufficiently big to make the point. The bigger the region we consider, the less certain we can be that significant parts of it will not have been colonized by a civilization of non-terrestrial origin by the time we could get there.

[7] Utilitarians commonly regard time-discounting as inappropriate in evaluating moral goods (see e.g. R. B. Brandt, Morality, Utilitarianism, and Rights, Cambridge, 1992, pp. 23f.). However, it is not clear that utilitarians can avoid compromising on this principle in view of the possibility that our actions could conceivably have consequences for an infinite number of persons (a possibility that we set aside for the purposes of this paper).

[8] N. Bostrom, ‘Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards’, Journal of Evolution and Technology, ix (2002), http://www.jetpress.org/volume9/risks.html.

[9] This formulation of the position is not necessarily the best possible one, but it is simple and will serve for the purposes of this paper.

[10] Or whatever the population is likely to be at the time when doomsday would occur.

[11] See e.g. V. Vinge, ‘The Coming Technological Singularity’, Whole Earth Review, Winter issue (1993).

[12] R. A. Freitas Jr., Nanomedicine, Vol. 1, Georgetown, Landes Bioscience, 1999.

[13] E.g. Moravec, Kurzweil, and Vinge op. cit.; E. Drexler, Engines of Creation, New York, Anchor Books, 1986.

[14] I’m grateful for the financial support of a British Academy Postdoctoral Award.

--

--