Déchets astronomiques: le coût d’opportunité d’un développement technologique retardé

NICK BOSTROM
L’université d’Oxford
http://www.nickbostrom.com

                         [Utilitas Vol. 15, n ° 3 (2003): pp. 308-314] [pdf] [traductions: russe, portugais]

                     ABSTRAIT. Avec une technologie très avancée, une très grande population de personnes vivant une vie heureuse pourrait être maintenue dans la région accessible de l’univers. Pour chaque année où le développement de ces technologies et la colonisation de l’univers sont retardés, il y a donc un coût d’opportunité: un bien potentiel, des vies qui valent la peine d’être vécues, ne se réalise pas. Compte tenu de certaines hypothèses plausibles, ce coût est extrêmement élevé. Cependant, la leçon pour les utilitaristes n’est pas que nous devons maximiser le rythme du développement technologique, mais plutôt que nous devons maximiser sa sécurité, c’est-à-dire la probabilité que la colonisation finisse par se produire.

                 I. LE TAUX DE PERTE DE VIES POTENTIELLES

Au moment où j’écris ces mots, les soleils illuminent et chauffent les pièces vides, l’énergie inutilisée est évacuée dans les trous noirs, et notre grande dotation commune de néguentropie se dégrade irréversiblement en entropie à l’échelle cosmique. Ce sont des ressources qu’une civilisation avancée aurait pu utiliser pour créer des structures de valeur, telles que des êtres vivants vivant des vies valables.

Le rythme de cette perte étourdit l’esprit. Un article récent spécule, en utilisant des considérations théoriques lâches basées sur le taux d’augmentation de l’entropie, que la perte de vies humaines potentielles dans notre propre superamas galactique est au moins ~ 10 ^ 46 par siècle de colonisation retardée. [1] Cette estimation suppose que toute l’entropie perdue aurait pu être utilisée à des fins productives, bien qu’aucun mécanisme technologique actuellement connu ne soit même capable à distance de le faire. Étant donné que l’estimation est censée être une borne inférieure, cette hypothèse radicalement non conservatrice n’est pas souhaitable.

Nous pouvons, cependant, obtenir une limite inférieure plus simplement en comptant simplement le nombre ou les étoiles dans notre superamas galactique et en multipliant ce nombre par la quantité de puissance de calcul que les ressources de chaque étoile pourraient être utilisées pour générer en utilisant des technologies dont la faisabilité est forte. l’affaire a déjà été présentée. Nous pouvons ensuite diviser ce total par la quantité estimée de puissance de calcul nécessaire pour simuler une vie humaine.

À titre approximatif, disons que le Superamas Vierge contient 10 ^ 13 étoiles. Une estimation de la puissance de calcul pouvant être extraite d’une étoile et avec une structure de calcul de taille planétaire associée, utilisant la nanotechnologie moléculaire avancée [2], est de 10 ^ 42 opérations par seconde. [3] Une estimation typique de la puissance de traitement du cerveau humain est d’environ 10 ^ 17 opérations par seconde ou moins. [4] Il ne semble pas nécessaire d’en faire beaucoup plus pour simuler les parties pertinentes de l’environnement avec suffisamment de détails pour permettre aux esprits simulés d’avoir des expériences qui ne se distinguent pas des expériences humaines actuelles typiques. [5] Compte tenu de ces estimations, il s’ensuit que le potentiel d’environ 10 ^ 38 vies humaines est perdu chaque siècle que la colonisation de notre superamas local est retardée; ou de manière équivalente, environ 10 ^ 29 vies humaines potentielles par seconde.

Bien que cette estimation soit conservatrice en ce qu’elle suppose uniquement des mécanismes de calcul dont la mise en œuvre a été au moins décrite dans la littérature, il est utile d’avoir une estimation encore plus conservatrice qui ne suppose pas une instanciation non biologique des personnes potentielles. Supposons qu’environ 10 ^ 10 humains biologiques puissent être maintenus autour d’une étoile moyenne. Le Superamas Vierge pourrait alors contenir 10 ^ 23 humains biologiques. Cela correspond à une perte de potentiel égale à environ 10 ^ 14 vies humaines potentielles par seconde de colonisation retardée.

Ce qui importe aux fins actuelles n’est pas les chiffres exacts mais le fait qu’ils sont énormes. Même avec l’estimation la plus conservatrice, en supposant une implémentation biologique de toutes les personnes, le potentiel de cent mille milliards d’êtres humains potentiels est perdu pour chaque seconde de report de la colonisation de notre superamas. [6]

II. LE COÛT D’OPPORTUNITÉ DE LA COLONISATION RETARDÉE

D’un point de vue utilitaire, cette énorme perte de vies humaines potentielles constitue une énorme perte de valeur potentielle. Je suppose ici que les vies humaines qui auraient pu être créées en auraient valu la peine. Puisqu’il est communément admis que même les vies humaines actuelles valent généralement la peine, c’est une hypothèse faible. Toute civilisation suffisamment avancée pour coloniser le superamas local aurait probablement également la capacité d’établir au moins les conditions minimales favorables requises pour que des vies futures valent la peine d’être vécues.

L’effet sur la valeur totale semble donc plus important pour les actions qui accélèrent le développement technologique que pour pratiquement toute autre action possible. L’avancement de la technologie (ou de ses facteurs habilitants, tels que la productivité économique), même en si petite quantité qu’elle conduit à la colonisation du superamas local juste une seconde plus tôt que ce qui se serait produit autrement, fait plus de 10 ^ 29 vies humaines (ou 10 ^ 14 vies humaines si nous utilisons la borne inférieure la plus conservatrice) qui n’existerait pas autrement. Peu d’autres causes philanthropiques pourraient espérer atteindre ce niveau de rentabilité utilitaire.

Les utilitaristes ne sont pas les seuls à s’opposer fermement aux déchets astronomiques. Il existe de nombreux points de vue sur ce qui a de la valeur qui concordent avec l’évaluation selon laquelle le taux actuel de gaspillage constitue une énorme perte de valeur potentielle. Par exemple, nous pouvons prendre une conception plus épaisse du bien-être humain que celle généralement supposée par les utilitaristes (qu’ils soient hédonistes, expérientiels ou satisfaits du désir), telle qu’une conception qui situe la valeur également dans l’épanouissement humain, les relations significatives, le caractère noble, expression individuelle, appréciation esthétique, etc. Tant que la fonction d’évaluation est agrégative (ne compte pas le bien-être d’une personne pour moins simplement parce qu’il existe de nombreuses autres personnes qui jouissent également d’une vie heureuse) et n’est pas relativisée à un moment donné (pas d’actualisation du temps), la conclusion tiendra.

Ces conditions peuvent être encore assouplies. Même si la fonction de bien-être n’est pas parfaitement agrégative (peut-être parce qu’une des composantes du bien est la diversité, dont le taux de production marginal pourrait diminuer avec l’augmentation de la population), elle peut quand même produire un résultat similaire à condition qu’au moins une partie significative la composante du bien est suffisamment agrégative. De même, un certain degré de remises temporelles sur les biens futurs pourrait être accepté sans changer la conclusion. [7]

III. L’OBJECTIF EN CHEF POUR LES UTILITAIRES DEVRAIT ETRE DE REDUIRE LES RISQUES EXISTENTIELS

À la lumière de la discussion ci-dessus, il peut sembler qu’une utilitariste devrait concentrer ses efforts sur l’accélération du développement technologique. Le bénéfice, même d’un très léger succès dans cette entreprise, est si énorme qu’il éclipse celui de presque toutes les autres activités. Nous semblons avoir un argument utilitaire pour la plus grande urgence possible du développement technologique.

Cependant, la vraie leçon est différente. Si ce qui nous préoccupe est (quelque chose comme) de maximiser le nombre escompté de vies utiles que nous créerons, alors en plus du coût d’opportunité d’un retard de colonisation, nous devons prendre en compte le risque d’échec de la colonisation. Nous pourrions être victimes d’un risque existentiel, celui où un résultat défavorable anéantirait la vie intelligente originaire de la Terre ou réduirait de façon permanente et drastique son potentiel. [8] Parce que la durée de vie des galaxies est mesurée en milliards d’années, alors que l’échelle de temps de tout retard que nous pourrions raisonnablement affecter serait plutôt mesurée en années ou en décennies, la prise en compte du risque l’emporte sur la prise en compte du coût d’opportunité. Par exemple, un seul point de pourcentage de réduction des risques existentiels vaudrait (d’un point de vue utilitaire attendu d’utilité) un retard de plus de 10 millions d’années.

Par conséquent, si nos actions ont le moindre effet sur la probabilité d’une colonisation éventuelle, cela l’emportera sur leur effet sur le moment de la colonisation. Pour les utilitaristes standard, la priorité numéro un, deux, trois et quatre devrait donc être de réduire le risque existentiel. L’impératif utilitaire «Maximiser l’utilité globale attendue!» Peut être simplifié en la maxime «Minimiser le risque existentiel!».

IV. IMPLICATIONS POUR LES VUES AGRÉGATOIRES TOUCHANT LA PERSONNE

L’argument ci-dessus présuppose que notre souci est de maximiser la quantité totale de bien-être. Supposons plutôt que nous adoptions une version utilitariste «affectant la personne», selon laquelle nos obligations sont principalement envers les personnes actuellement existantes et envers les personnes qui viendront à exister [9]. Dans une telle vision de la personne, l’extinction humaine ne serait mauvaise que parce qu’elle aggrave les vies passées ou en cours, et non pas parce qu’elle constitue une perte de vies potentiellement utiles. Que doit faire quelqu’un qui embrasse cette doctrine? Doit-il mettre l’accent sur la vitesse, la sécurité ou autre chose?

Pour y répondre, nous devons examiner d’autres questions. Supposons que l’on pense que la probabilité est négligeable qu’une personne existante survive assez longtemps pour arriver à utiliser une partie importante des ressources astronomiques accessibles, qui, comme décrit dans la section d’ouverture de ce document, vont progressivement se perdre. Ensuite, l’une des raisons pour minimiser le risque existentiel est que l’extinction soudaine couperait en moyenne, disons, 40 ans de chacune des vies humaines actuelles (environ six milliards) [10]. Bien que ce serait certainement une grande catastrophe, elle se situe dans le même stade que les autres tragédies humaines en cours, telles que la pauvreté, la faim et la maladie dans le monde. Dans cette hypothèse, un utilitariste affectant la personne devrait donc considérer la réduction du risque existentiel comme une préoccupation très importante mais pas complètement dominante. Dans ce cas, il n’y aurait pas de réponse facile à ce qu’il devrait faire. Là où il devrait concentrer ses efforts, cela dépendrait de calculs détaillés sur le domaine d’activité philanthropique auquel il se trouverait le mieux placé pour apporter une contribution.

On peut cependant soutenir que nous devrions attribuer une probabilité non négligeable à certaines personnes actuelles qui survivent assez longtemps pour profiter des avantages d’une diaspora cosmique. Une soi-disant «singularité» technologique pourrait se produire dans notre vie naturelle [11], ou il pourrait y avoir une percée dans l’extension de la vie, provoquée, peut-être, à la suite de la nanotechnologie en phase machine qui nous donnerait un contrôle sans précédent sur la biochimie processus dans notre corps et nous permettent d’arrêter et d’inverser le processus de vieillissement. [12] De nombreux technologues et penseurs futuristes de premier plan accordent une probabilité assez élevée à ces développements au cours des prochaines décennies [13]. Même si vous êtes sceptique quant à leurs pronostics, vous devriez considérer le mauvais bilan des prévisions technologiques. Compte tenu du manque de fiabilité bien établi de nombreuses prévisions de ce type, il semble injustifié d’avoir une telle confiance dans ses prévisions que les percées nécessaires ne se produiront pas à notre époque au point de donner l’hypothèse qu’elles auront une probabilité de moins que, disons, 1%.

L’utilité attendue d’une chance de 1% de réaliser un bien astronomiquement grand pourrait encore être astronomique. Mais à quel point serait-il bon (pour un sous-ensemble substantiel) de personnes vivant actuellement d’avoir accès à des quantités astronomiques de ressources? La réponse n’est pas évidente. D’une part, on pourrait penser que dans le monde d’aujourd’hui, l’utilité marginale pour un individu des ressources matérielles diminue assez rapidement une fois ses besoins essentiels satisfaits. Le niveau de bien-être de Bill Gates ne semble pas dépasser de façon spectaculaire celui de nombreuses personnes aux moyens beaucoup plus modestes. D’un autre côté, des technologies avancées de la sorte qui seraient probablement déployées au moment où nous pourrions coloniser le superamas local pourraient bien fournir de nouvelles façons de convertir les ressources en bien-être. En particulier, les ressources matérielles pourraient être utilisées pour augmenter considérablement nos capacités mentales et prolonger indéfiniment notre durée de vie subjective. Et il n’est nullement clair que l’utilité marginale de la prolongation de la durée de vie et de l’augmentation des capacités mentales doit diminuer fortement au-dessus d’un certain niveau. S’il n’y a pas une telle baisse de l’utilité marginale, nous devons conclure que l’utilité attendue pour les individus actuels d’une colonisation réussie de notre superamas est astronomiquement grande, et cette conclusion tient même si l’on donne une probabilité assez faible à ce résultat. Cela peut être long, mais pour un maximiseur d’utilité attendu, l’avantage de vivre peut-être des milliards d’années subjectives avec des capacités considérablement accrues dans des conditions fantastiquement favorables pourrait plus que compenser les perspectives éloignées de succès.

Maintenant, si ces hypothèses sont faites, que suit sur la façon dont un utilitaire affectant la personne devrait agir? De toute évidence, il est important d’éviter les calamités existentielles, non seulement parce que cela tronquerait la durée de vie naturelle d’environ six milliards de personnes, mais aussi – et compte tenu des hypothèses, c’est une considération encore plus importante – car cela éteindrait la chance que les personnes actuelles ont de récolter les énormes avantages d’une éventuelle colonisation. Cependant, contrairement à l’utilitariste total, l’utilitariste affectant la personne devrait équilibrer cet objectif avec un autre desideratum tout aussi important, à savoir celui de maximiser les chances de survie des personnes actuelles de bénéficier de la colonisation. Pour l’utilitariste affectant la personne, il ne suffit pas que l’humanité survive pour coloniser; il est crucial que les personnes existantes soient sauvées. Cela devrait l’amener à mettre l’accent sur la vitesse du développement technologique, car une technologie avancée à arrivée rapide serait sûrement nécessaire pour aider les gens actuels à rester en vie jusqu’à ce que les fruits de la colonisation puissent être récoltés. Si le but de la vitesse entre en conflit avec le but de la sécurité mondiale, l’utilitaire total devrait toujours opter pour maximiser la sécurité, mais l’utilitaire affectant la personne devrait équilibrer le risque de décès de personnes âgées avec le risque de succomber dans une espèce. catastrophe destructrice. [14]


[1] M. Cirkovic, «Cosmological Forecast and its Practical Significance», Journal of Evolution and Technology, xii (2002), http://www.jetpress.org/volume12/CosmologicalForecast.pdf.
[2] K. E. Drexler, Nanosystems: Molecular Machinery, Manufacturing, and Computation, New York, John Wiley & Sons, Inc., 1992.
[3] R. J. Bradbury, ‘Matrioshka Brains’, Manuscrit, 2002, http://www.aeiveos.com/~bradbury/MatrioshkaBrains/MatrioshkaBrains.html
[4] N. Bostrom, «Combien de temps avant la superintelligence?», International Journal of Futures Studies ii (1998); R. Kurzweil, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York, Viking, 1999. L’estimation la plus basse se trouve dans H. Moravec, Robot: Mere Machine to Transcendent Mind, Oxford, 1999.
[5] N. Bostrom, «Vivez-vous dans une simulation?», Philosophical Quarterly, liii (211). Voir également http://www.simulation-argument.com.
[6] Le Superamas de la Vierge ne contient qu’une petite partie des ressources colonisables de l’univers, mais il est suffisamment grand pour faire le point. Plus la région que nous considérons est grande, moins nous pouvons être certains que des parties importantes de celle-ci n’auront pas été colonisées par une civilisation d’origine non terrestre au moment où nous pourrions y arriver.
[7] Les utilitaristes considèrent généralement que l’actualisation du temps est inappropriée dans l’évaluation des biens moraux (voir par exemple R. B. Brandt, Morality, Utilitarianism, and Rights, Cambridge, 1992, pp. 23f). Cependant, il n’est pas clair que les utilitaristes puissent éviter de transiger sur ce principe étant donné la possibilité que nos actions puissent avoir des conséquences concevables pour un nombre infini de personnes (possibilité que nous mettons de côté aux fins du présent document).
[8] N. Bostrom, «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards», Journal of Evolution and Technology, ix (2002), http://www.jetpress.org/volume9/risks.html.
[9] Cette formulation de la position n’est pas nécessairement la meilleure possible, mais elle est simple et servira aux fins du présent document.
[10] Ou quelle que soit la population susceptible d’être au moment où le Jugement Dernier se produirait.
[11] Voir par exemple V. Vinge, «The Coming Technological Singularity», Whole Earth Review, numéro d’hiver (1993).
[12] R. A. Freitas Jr., Nanomedicine, vol. 1, Georgetown, Landes Bioscience, 1999.
[13] Par exemple. Moravec, Kurzweil et Vinge op. cit .; E. Drexler, Engines of Creation, New York, Anchor Books, 1986.
[14] Je suis reconnaissant du soutien financier d’un prix postdoctoral de la British Academy.


Source de la page: https://www.nickbostrom.com/astronomical/waste.html
Traduit par Jean-Etienne Bergemer

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *