Parte 2: Società e Politica
Le nuove tecnologie andranno a beneficio solo dei ricchi e dei potenti?
Si potrebbe affermare che il cittadino medio di un paese sviluppato oggi ha un tenore di vita più elevato rispetto a qualsiasi re di cinquecento anni fa. Il re poteva avere un’orchestra di corte, ma ci si può permettere un lettore CD che permette di ascoltare i migliori musicisti quando si vuole. Quando il re ha avuto la polmonite avrebbe potuto anche morire, ma si possono prendere antibiotici. Il re potrebbe avere una carrozza con sei cavalli bianchi, ma si può avere una macchina più veloce e più comoda. E probabilmente hai la televisione, l’accesso a Internet e una doccia con acqua calda; puoi parlare al telefono con i parenti che vivono in un paese diverso; e sai più cose sulla Terra, la natura e il cosmo di qualsiasi monarca medievale.
Il modello tipico con le nuove tecnologie è che diventano più economiche con il passare del tempo. In campo medico, ad esempio, le procedure sperimentali sono di solito disponibili solo per i soggetti di ricerca e per i più ricchi. Man mano che queste procedure diventano di routine, i costi diminuiscono e più persone possono permettersele. Anche nei paesi più poveri, milioni di persone hanno beneficiato dei vaccini e della penicillina. Nel campo dell’elettronica di consumo, il prezzo dei computer e di altri dispositivi che erano all’avanguardia solo un paio di anni fa scende precipitosamente con l’introduzione di nuovi modelli.
È chiaro che tutti possono trarre grande beneficio dal miglioramento della tecnologia. Inizialmente, tuttavia, i maggiori vantaggi andranno a coloro che hanno le risorse, le competenze e la volontà di imparare a utilizzare nuovi strumenti. Si può ipotizzare che alcune tecnologie possano causare l’aumento delle disuguaglianze sociali. Per esempio, se una qualche forma di amplificazione dell’intelligenza diventa disponibile, può essere all’inizio così costosa che solo i più ricchi possono permettersela. Lo stesso potrebbe accadere quando impariamo a migliorare geneticamente i nostri figli. Coloro che sono già benestanti diventerebbero più intelligenti e farebbero ancora più soldi. Questo fenomeno non è nuovo. I genitori ricchi mandano i loro figli in scuole migliori e forniscono loro risorse come i contatti personali e la tecnologia informatica che potrebbero non essere disponibili per i meno privilegiati. Tali vantaggi portano a maggiori guadagni più tardi nella vita e servono ad aumentare le disuguaglianze sociali.
Cercare di vietare l’innovazione tecnologica su queste basi, tuttavia, sarebbe fuorviante. Se una società giudica inaccettabili le disuguaglianze esistenti, un rimedio più saggio sarebbe la tassazione progressiva e la fornitura di servizi finanziati dalla comunità, come l’istruzione, l’accesso alle tecnologie dell’informazione nelle biblioteche pubbliche, i miglioramenti genetici coperti dalla sicurezza sociale, e così via. Il progresso economico e tecnologico non è un gioco a somma zero; è un gioco a somma positiva. Il progresso tecnologico non risolve il vecchio e difficile problema politico di quale grado di ridistribuzione del reddito sia auspicabile, ma può aumentare notevolmente la dimensione della torta da dividere.
I transumanisti sostengono l’eugenetica?
L’eugenetica in senso stretto si riferisce al movimento precedente alla seconda guerra mondiale in Europa e negli Stati Uniti per sterilizzare involontariamente i “geneticamente inadatti” e incoraggiare l’allevamento dei soggetti geneticamente avvantaggiati. Queste idee sono del tutto contrarie ai principi umanistici e scientifici tolleranti del transumanesimo. Oltre a condannare la coercizione che tali politiche comportano, i transumanisti rifiutano fortemente i presupposti razzisti e classisti su cui si basavano, insieme all’idea che i miglioramenti eugenetici potrebbero essere realizzati in un lasso di tempo praticamente significativo attraverso l’allevamento umano selettivo.
I transumanisti sostengono i principi dell’autonomia corporea e della libertà procreativa. I genitori devono poter scegliere da soli se e come riprodursi, come riprodursi e quali metodi tecnologici utilizzare per la loro riproduzione. L’uso della medicina genetica o dello screening embrionale per aumentare le probabilità di un bambino sano, felice e di talento è un’applicazione responsabile e giustificabile della libertà riproduttiva dei genitori.
Al di là di questo, si può sostenere che i genitori hanno la responsabilità morale di utilizzare questi metodi, supponendo che siano sicuri ed efficaci. Così come sarebbe sbagliato che i genitori venissero meno al loro dovere di procurarsi le migliori cure mediche disponibili per il proprio figlio malato, sarebbe sbagliato non prendere ragionevoli precauzioni per garantire che il futuro bambino sia il più sano possibile. Questo, tuttavia, è un giudizio morale che è meglio lasciare alla coscienza individuale piuttosto che essere imposto dalla legge. Solo in casi estremi e insoliti può essere giustificata una violazione della libertà procreativa. Se, per esempio, un aspirante genitore volesse intraprendere una modificazione genetica che sarebbe chiaramente dannosa per il bambino o ne ridurrebbe drasticamente le possibilità di vita, allora la legge dovrebbe impedire a questo aspirante genitore di farlo. Questo caso è analogo a quello dello Stato che prende in custodia un bambino in situazioni di grave negligenza dei genitori o di abuso di minori.
Questa difesa della libertà procreativa è compatibile con l’idea che gli stati e gli enti di beneficenza possono sovvenzionare la salute pubblica, le cure prenatali, la consulenza genetica, la contraccezione, l’aborto e le terapie genetiche in modo che i genitori possano prendere decisioni riproduttive libere e informate che si traducano in meno disabilità nella prossima generazione. Alcuni attivisti della disabilità definirebbero queste politiche eugenetiche, ma la società può avere un legittimo interesse a che i bambini nascano sani o disabili, il che la porta a sovvenzionare la nascita di bambini sani, senza in realtà bandire o imporre particolari modifiche genetiche.
Quando si discute della moralità dei miglioramenti genetici, è utile essere consapevoli della distinzione tra i miglioramenti che sono intrinsecamente benefici per il bambino o la società da un lato, e, dall’altro, i miglioramenti che forniscono un vantaggio meramente posizionale al bambino. Ad esempio, la salute, le capacità cognitive e il benessere emotivo sono apprezzati dalla maggior parte delle persone per il loro stesso bene. È semplicemente bello essere sani, felici e poter pensare bene, indipendentemente da qualsiasi altro vantaggio derivante dal possesso di questi attributi. Al contrario, tratti come l’attrattiva, l’abilità atletica, l’altezza e l’assertività sembrano conferire vantaggi che sono per lo più di tipo posizionale, cioè vanno a beneficio di una persona rendendola più competitiva (ad esempio nello sport o come potenziale compagno), a scapito di coloro con cui gareggerà, che subiranno un corrispondente svantaggio dal suo miglioramento. I potenziamenti che hanno solo vantaggi posizionali dovrebbero essere sminuiti, mentre i potenziamenti che creano benefici netti dovrebbero essere incoraggiati.
A volte si sostiene che l’uso di tecnologie di scelta germinale porterebbe ad una indesiderata uniformità della popolazione. Un certo grado di uniformità è auspicabile e atteso se siamo in grado di rendere tutti congenitamente sani, forti, intelligenti e attraenti. Pochi sostengono che dovremmo preservare la fibrosi cistica per il suo contributo alla diversità. Ma altri tipi di diversità sono sicuri di prosperare in una società con scelta germinale, soprattutto una volta che gli adulti sono in grado di adattare il proprio corpo secondo i propri gusti estetici. Presumibilmente la maggior parte dei genitori asiatici sceglierà comunque di avere figli con caratteristiche asiatiche, e se alcuni genitori scelgono geni che incoraggiano l’atletismo, altri possono scegliere geni che si correlano con l’abilità musicale.
È improbabile che i miglioramenti genetici della linea germinale abbiano un grande impatto sul mondo. Ci vorranno almeno quaranta o cinquant’anni prima che le tecnologie necessarie siano sviluppate, testate e ampiamente applicate e che un numero significativo di individui potenziati nasca e raggiunga l’età adulta. Prima che ciò accada, saranno probabilmente disponibili metodi più potenti e diretti per migliorare se stessi, basati sulla nanomedicina, l’intelligenza artificiale, il caricamento o la terapia genica somatica. (L’eugenetica tradizionale, basata sulla selezione di chi è autorizzato a riprodursi, avrebbe ancora meno prospettive di evitare l’obsolescenza preventiva, poiché ci vorrebbero molte generazioni per ottenere i suoi presunti miglioramenti).
Queste tecnologie del futuro non sono molto rischiose? Potrebbero anche causare la nostra estinzione?
Sì, e questo implica un’urgente necessità di analizzare i rischi prima che si concretizzino e di adottare misure per ridurli. Le biotecnologie, le nanotecnologie e l’intelligenza artificiale comportano rischi particolarmente gravi di incidenti e abusi. (Vedi anche “Se queste tecnologie sono così pericolose, devono essere vietate?)
Si può distinguere tra, da un lato, i rischi sopportabili o limitati, come gli incidenti automobilistici, la fusione dei reattori nucleari, le sostanze inquinanti cancerogene nell’atmosfera, le inondazioni, le eruzioni vulcaniche e così via, e, dall’altro, i rischi esistenziali — eventi che causerebbero l’estinzione della vita intelligente o ne paralizzerebbero in modo permanente e drastico il potenziale. Anche se i rischi sopportabili o limitati possono essere gravi — e possono effettivamente essere fatali per le persone immediatamente esposte — sono recuperabili; non distruggono le prospettive a lungo termine dell’umanità nel suo complesso. L’umanità ha una lunga esperienza con i rischi sopportabili e una varietà di meccanismi istituzionali e tecnologici sono stati impiegati per ridurre la loro incidenza. I rischi esistenziali sono un tipo diverso di bestia. Per la maggior parte della storia umana non ci sono stati rischi esistenziali significativi, o almeno nessuno che i nostri antenati potessero fare qualcosa. Per definizione, naturalmente, non si è ancora verificato alcun disastro esistenziale. Come specie possiamo quindi essere meno preparati a comprendere e gestire questo nuovo tipo di rischio. Inoltre, la riduzione del rischio esistenziale è un bene pubblico globale (tutti beneficiano necessariamente di tali misure di sicurezza, a prescindere dal fatto che contribuiscano o meno al loro sviluppo), creando un potenziale problema di free-rider, cioè la mancanza di sufficienti incentivi egoistici per le persone a fare sacrifici per ridurre un rischio esistenziale. I transumanisti riconoscono quindi il dovere morale di promuovere gli sforzi per ridurre i rischi esistenziali.
I rischi esistenziali più gravi che ci attendono nei prossimi decenni saranno di nostra competenza. Tra questi vi sono:
Usi distruttivi della nanotecnologia. Il rilascio accidentale di un nanobot auto-replicante nell’ambiente, dove procederebbe a distruggere l’intera biosfera, è noto come “scenario grigio goo”. Poiché la nanotecnologia molecolare farà uso dell’assemblaggio posizionale per creare strutture non biologiche e per aprire nuovi percorsi di reazione chimica, non c’è ragione di supporre che i controlli e gli equilibri ecologici che limitano la proliferazione delle autoreplicatrici organiche contengano anche nano-replicatrici. Eppure, mentre il grigio goo è certamente una preoccupazione legittima, sono state descritte salvaguardie ingegneristiche relativamente semplici che renderebbero la probabilità di un tale contrattempo quasi arbitrariamente piccola (Foresight 2002). Molto più grave è la minaccia posta dai nanobot deliberatamente progettati per essere distruttivi. Un gruppo terroristico o anche uno psicopatico solitario, avendo ottenuto l’accesso a questa tecnologia, potrebbe fare danni estesi o addirittura annientare la vita sulla terra a meno che non siano state sviluppate in precedenza efficaci tecnologie difensive (Center for Responsible Nanotechnology 2003). Una corsa agli armamenti instabile tra gli stati nanotecnologici potrebbe anche portare alla nostra eventuale scomparsa (Gubrud 2000). Gli sforzi anti-proliferazione saranno complicati dal fatto che la nanotecnologia non richiede materie prime difficili da ottenere o grandi impianti di produzione, e dalla funzionalità a doppio uso di molti dei componenti di base della nanomacchina distruttiva. Mentre un sistema di difesa nanotecnologico (che fungerebbe da sistema immunitario globale in grado di identificare e neutralizzare i replicatori canaglia) sembra essere possibile in linea di principio, potrebbe rivelarsi più difficile da costruire di un semplice replicatore distruttivo. Questo potrebbe creare una finestra di vulnerabilità globale tra la potenziale creazione di replicatori pericolosi e lo sviluppo di un sistema immunitario efficace. È fondamentale che i nano-assemblatori non cadano nelle mani sbagliate durante questo periodo.
Guerra biologica. I progressi nell’ingegneria genetica porteranno non solo a miglioramenti nella medicina, ma anche alla capacità di creare armi biologiche più efficaci. È agghiacciante pensare a cosa sarebbe successo se l’HIV fosse stato contagioso come il virus che causa il comune raffreddore. L’ingegneria di tali microbi potrebbe diventare presto possibile per un numero crescente di persone. Se la sequenza RNA di un virus viene pubblicata su Internet, allora chiunque abbia una certa esperienza di base e l’accesso a un laboratorio sarà in grado di sintetizzare il virus reale da questa descrizione. Una dimostrazione di questa possibilità è stata offerta da un piccolo team di ricercatori della New York University di Stony Brook nel 2002, che ha sintetizzato il virus della poliomielite (la cui sequenza genetica si trova su Internet) da zero e lo ha iniettato in topi che successivamente sono rimasti paralizzati e sono morti.
Intelligenza artificiale. Nessuna minaccia per l’esistenza umana è rappresentata dai sistemi di intelligenza artificiale di oggi o dai loro successori a breve termine. Ma se e quando verrà creata la superintelligenza, sarà di fondamentale importanza che essa sia dotata di valori a misura d’uomo. Una superintelligence progettato in modo imprudente o malizioso, con obiettivi che equivalgono all’indifferenza o all’ostilità verso il benessere umano, potrebbe causare la nostra estinzione. Un’altra preoccupazione è che la prima superintelligence, che potrebbe diventare molto potente per la sua superiore capacità di pianificazione e per le tecnologie che potrebbe sviluppare rapidamente, sarebbe costruito per servire solo una singola persona o un piccolo gruppo (come i suoi programmatori o la società che lo ha commissionato). Anche se questo scenario potrebbe non comportare l’estinzione letteralmente di tutta la vita intelligente, costituisce comunque un rischio esistenziale perché il futuro che ne deriverebbe sarebbe un futuro in cui gran parte del potenziale dell’umanità sarebbe stato definitivamente distrutto e in cui al massimo una piccolissima frazione di tutti gli esseri umani avrebbe potuto godere dei benefici della post-umanità. (Vedi anche “I postumi o le macchine superintelligenti rappresenteranno una minaccia per gli esseri umani che non sono aumentati?)
Guerra nucleare. Gli arsenali nucleari di oggi probabilmente non sono sufficienti a causare l’estinzione di tutti gli esseri umani, ma le future corse agli armamenti potrebbero portare ad accumuli ancora più grandi. È anche ipotizzabile che una guerra nucleare a tutto campo porti al collasso della civiltà moderna, e non è del tutto certo che i sopravvissuti riescano a ricostruire una civiltà capace di sostenere la crescita e lo sviluppo tecnologico.
Qualcosa di sconosciuto. Tutti questi rischi erano sconosciuti un secolo fa e molti di essi sono stati compresi chiaramente solo negli ultimi due decenni. È possibile che ci siano minacce future di cui non siamo ancora consapevoli.
Per una discussione più approfondita di questi e di molti altri rischi esistenziali, si veda Bostrom (2002).
La valutazione della probabilità totale che qualche disastro esistenziale ci distrugga prima di avere l’opportunità di diventare postumani può essere effettuata con vari metodi diretti o indiretti. Anche se ogni stima include inevitabilmente un grande fattore soggettivo, sembra che fissare la probabilità a meno del 20% sarebbe eccessivamente ottimistico, e la migliore stima può essere notevolmente più alta. Ma a seconda delle azioni che intraprendiamo, questa cifra può essere aumentata o diminuita.
Riferimenti:
⦁ Nick Bostrom, ⦁ “Rischi esistenziali: Analizzare gli scenari di estinzione umana e i pericoli correlati”, Journal of Evolution and Technology Vol. 9 (2002)
⦁ Centro per la nanotecnologia responsabile, ⦁ “Pericoli della produzione molecolare” (2003)
⦁ Foresight Institute, ⦁ “Foresight Guidelines on Molecular Nanotechnology, versione 3.7” (2000)
⦁ Mark Avrum Gubrud, ⦁ “Nanotecnologia e sicurezza internazionale”, Quinta conferenza di previsione sulla nanotecnologia molecolare (1997)
⦁ Eckard Wimmer et al., “Chemical Synthesis of Poliovirus cDNA: Generation of Infectious Virus in the Absence of Natural Template”, Science Vol. 257, №5583, (2002), 1016–1018
Se queste tecnologie sono così pericolose, devono essere vietate?
Cosa si può fare per ridurre i rischi?
La posizione secondo cui dovremmo abbandonare la ricerca sulla robotica, l’ingegneria genetica e le nanotecnologie è stata sostenuta in un articolo di Bill Joy (2000). Joy ha sostenuto che alcune delle future applicazioni di queste tecnologie sono così pericolose che la ricerca in questi campi dovrebbe essere fermata ora. In parte a causa delle sue precedenti credenziali tecnofile (era un progettista di software e un co-fondatore della Sun Microsystems), il suo articolo, apparso sulla rivista Wired, ha attirato molta attenzione.
Molte delle risposte all’articolo di Joy hanno sottolineato che non c’è una prospettiva realistica di un divieto mondiale di queste tecnologie; che esse hanno enormi benefici potenziali a cui non vorremmo rinunciare; che le persone più povere possono avere una maggiore tolleranza al rischio in sviluppi che potrebbero migliorare la loro condizione; e che un divieto può effettivamente aumentare i pericoli piuttosto che ridurli, sia ritardando lo sviluppo di applicazioni protettive di queste tecnologie, sia indebolendo la posizione di coloro che scelgono di rispettare il divieto rispetto a gruppi meno scrupolosi che lo sfidano.
Un’alternativa più promettente di un divieto generalizzato è lo sviluppo tecnologico differenziale, in cui cercheremmo di influenzare la sequenza in cui le tecnologie si sono sviluppate. Su questo approccio, ci sforzeremmo di ritardare lo sviluppo delle tecnologie dannose e delle loro applicazioni, accelerando al contempo lo sviluppo delle tecnologie benefiche, soprattutto quelle che offrono protezione contro quelle dannose. Per le tecnologie che hanno applicazioni militari decisive, a meno che non possano essere vietate in modo verificabile, potremmo cercare di garantire che siano sviluppate a un ritmo più rapido nei paesi che consideriamo responsabili rispetto a quelli che consideriamo potenziali nemici. (Il fatto che un divieto sia verificabile e applicabile può cambiare nel tempo a causa degli sviluppi del sistema internazionale o della tecnologia di sorveglianza).
Nel caso delle nanotecnologie, l’auspicabile sequenza di sviluppo è che i sistemi immunitari nanotecnologici e altre misure difensive vengano impiegati prima che le capacità offensive diventino disponibili per molte potenze indipendenti. Una volta che una tecnologia è condivisa da molti, diventa estremamente difficile impedire un’ulteriore proliferazione. Nel caso delle biotecnologie, dovremmo cercare di promuovere la ricerca su vaccini, farmaci antivirali, dispositivi di protezione, sensori e diagnostica, e di ritardare il più a lungo possibile lo sviluppo e la proliferazione di agenti di guerra biologica e i mezzi per la loro arma. Per l’intelligenza artificiale, un grave rischio emergerà solo quando le capacità si avvicineranno o supereranno quelle degli esseri umani. A quel punto si dovrebbe cercare di promuovere lo sviluppo di IA amichevole e di prevenire sistemi di IA poco amichevoli o inaffidabili.
La superintelligence è un esempio di una tecnologia che sembra particolarmente degna di essere promossa perché può contribuire a ridurre un’ampia gamma di minacce. I sistemi superintelligenti potrebbero consigliarci sulla politica e rendere più ripida la curva di progresso delle nanotecnologie, accorciando così il periodo di vulnerabilità tra lo sviluppo di pericolosi nanoreplicatori e lo spiegamento di difese efficaci. Se abbiamo una scelta, sembra preferibile che il superintelligence sia sviluppato prima delle nanotecnologie avanzate, in quanto il superintelligence potrebbe contribuire a ridurre i rischi delle nanotecnologie, ma non viceversa. Altre tecnologie che hanno ampi usi per ridurre i rischi includono l’aumento dell’intelligenza, la tecnologia dell’informazione e la sorveglianza. Queste possono renderci più intelligenti individualmente e collettivamente o rendere più fattibile l’applicazione delle normative necessarie. Esiste quindi un forte motivo prima facie per perseguire queste tecnologie nel modo più vigoroso possibile. Inutile dire che dovremmo anche promuovere sviluppi non tecnologici che siano vantaggiosi in quasi tutti gli scenari, come la pace e la cooperazione internazionale.
Nell’affrontare l’idra dei rischi esistenziali, limitati e sopportabili, che ci guardano dal futuro, è improbabile che un solo proiettile d’argento possa fornire una protezione adeguata. Sarà invece necessario un arsenale di contromisure per poter affrontare i vari rischi su più livelli.
Il primo passo per affrontare un rischio è riconoscere la sua esistenza. È necessaria una maggiore ricerca, e i rischi esistenziali, in particolare quelli esistenziali, devono essere individuati per la loro gravità e per la natura particolare delle sfide che pongono. Sorprendentemente poco lavoro è stato fatto in questo campo (ma si veda ad esempio Leslie (1996), Bostrom (2002) e Rees (2003) per alcune esplorazioni preliminari). Le dimensioni strategiche delle nostre scelte devono essere prese in considerazione, dato che alcune delle tecnologie in questione hanno importanti ramificazioni militari. Oltre agli studi scientifici sulle minacce e sulle loro possibili contromisure, occorre sensibilizzare l’opinione pubblica per consentire un dibattito più informato sulle nostre opzioni a lungo termine.
Alcuni dei rischi esistenziali minori, come l’impatto apocalittico di un asteroide o lo scenario altamente speculativo che comporta qualcosa come lo sconvolgimento di uno stato di vuoto metastabile in un futuro esperimento con acceleratore di particelle, potrebbero essere sostanzialmente ridotti a costi relativamente contenuti. I programmi per realizzare questo — ad esempio un sistema di rilevamento precoce di pericolosi oggetti vicini alla Terra su un potenziale percorso di collazione con la Terra, o la messa in funzione di una revisione avanzata tra pari di esperimenti di fisica delle alte energie pianificati — sono probabilmente efficaci in termini di costi. Tuttavia, questi rischi minori non devono distogliere l’attenzione dalla più seria preoccupazione sollevata dai più probabili disastri esistenziali (vedi “Queste tecnologie future non sono molto rischiose? Potrebbero addirittura causare la nostra estinzione?”).
Alla luce di quanto possano essere sovrabbondanti i benefici umani della tecnologia in ultima analisi, non importa che si ottengano tutti questi benefici nella loro forma ottimale, ma che se ne ottengano di più. Per molti scopi pratici, ha senso adottare la regola empirica secondo cui dobbiamo agire in modo da massimizzare la probabilità di un risultato accettabile, in cui raggiungiamo una certa (ragionevolmente ampia) realizzazione del nostro potenziale; o, per dirla in termini negativi, che dobbiamo agire in modo da minimizzare il rischio esistenziale netto.
Riferimenti:
⦁ Nick Bostrom, ⦁ “Rischi esistenziali: Analizzare gli scenari di estinzione umana e i pericoli correlati”, Journal of Evolution and Technology Vol. 9 (2002)
⦁ Bill Joy, ⦁ “Perché il futuro non ha bisogno di noi”. Cablato 8:04 (2000)
⦁ John Leslie, La fine del mondo: La scienza e l’etica dell’estinzione umana (Londra: Routledge, 1996)
⦁ Martin Rees, la nostra ultima ora: L’avvertimento di uno scienziato (New York: Basic Books, 2003)
Non dovremmo concentrarci sui problemi attuali?
come migliorare la situazione dei poveri, piuttosto che mettere i nostri sforzi nel pianificare il “lontano” futuro?
Dovremmo fare entrambe le cose. Concentrarci solo sui problemi attuali ci lascerebbe impreparati alle nuove sfide che incontreremo.
Molte delle tecnologie e delle tendenze di cui parlano i transumanisti sono già realtà. Le biotecnologie e le tecnologie dell’informazione hanno trasformato grandi settori delle nostre economie. La rilevanza dell’etica transumanista si manifesta in questioni contemporanee come la ricerca sulle cellule staminali, le colture geneticamente modificate, la terapia genetica umana, lo screening degli embrioni, le decisioni sulla fine della vita, la medicina del miglioramento, i mercati dell’informazione e le priorità di finanziamento della ricerca. L’importanza delle idee transumaniste è destinata ad aumentare man mano che le opportunità di valorizzazione umana proliferano.
Le tecnologie transumane tenderanno a lavorare bene insieme e a creare sinergie con altre parti della società umana. Ad esempio, un fattore importante per una sana aspettativa di vita è l’accesso a una buona assistenza medica. I miglioramenti nell’assistenza medica prolungheranno la durata della vita sana e attiva — “l’aspettativa di vita” — e la ricerca sull’estensione dell’aspettativa di vita in buona salute andrà probabilmente a beneficio dell’assistenza ordinaria. Il lavoro sull’amplificazione dell’intelligenza ha ovvie applicazioni nell’educazione, nel processo decisionale e nella comunicazione. Una migliore comunicazione faciliterebbe il commercio e la comprensione tra le persone. Man mano che sempre più persone hanno accesso a Internet e sono in grado di ricevere trasmissioni radiotelevisive via satellite, i dittatori e i regimi totalitari potrebbero trovare più difficile mettere a tacere le voci di dissenso e controllare il flusso di informazioni nelle loro popolazioni.
E con Internet e la posta elettronica, le persone scoprono di poter stringere facilmente amicizie e partnership commerciali all’estero. Un ordine mondiale caratterizzato dalla pace, dalla cooperazione internazionale e dal rispetto dei diritti umani migliorerebbe di molto le probabilità che le applicazioni potenzialmente pericolose di alcune tecnologie future possano essere controllate e libererebbe anche le risorse attualmente spese per gli armamenti militari, alcune delle quali potrebbero poi, si spera, essere dirottate verso il miglioramento delle condizioni dei poveri. La produzione nanotecnologica promette di essere sia economicamente redditizia che rispettosa dell’ambiente. I transumanisti non hanno una soluzione brevettata per raggiungere questi risultati, più di chiunque altro, ma la tecnologia ha un ruolo enorme da svolgere.
Si può sostenere che il modo più efficiente per contribuire a rendere il mondo migliore è quello di partecipare al progetto transumanista. Questo perché la posta in gioco è enorme — l’intero futuro dell’umanità può dipendere da come gestire le prossime transizioni tecnologiche — e perché al momento attuale sono relativamente poche le risorse dedicate agli sforzi transumanisti. Anche una persona in più può ancora fare la differenza.
L’allungamento della vita peggiorerà i problemi di sovrappopolazione?
L’aumento della popolazione è un problema che alla fine dovremmo affrontare anche se non ci fosse un sano prolungamento della vita. Lasciare che le persone muoiano è una soluzione inaccettabile.
Una popolazione numerosa non dovrebbe essere vista semplicemente come un problema. Un altro modo di vedere la stessa cosa è che significa che molte persone ora godono di una vita che non sarebbe stata vissuta se la popolazione fosse stata più piccola. Si potrebbe chiedere a coloro che si lamentano della sovrappopolazione esattamente quale vita avrebbero preferito che non fosse condotta. Sarebbe stato davvero meglio se miliardi di persone del mondo non fossero mai esistite e se non ci fossero state altre persone al loro posto? Naturalmente, questo non significa negare che una crescita troppo rapida della popolazione può causare affollamento, povertà e l’esaurimento delle risorse naturali. In questo senso ci possono essere problemi reali che devono essere affrontati.
Quante persone la Terra può sostenere ad un livello di vita confortevole è una funzione dello sviluppo tecnologico (così come del modo in cui le risorse sono distribuite). Le nuove tecnologie, dal semplice miglioramento dell’irrigazione e della gestione, alle migliori tecniche di estrazione mineraria, ai macchinari per la produzione di energia più efficienti, alle colture geneticamente modificate, possono continuare a migliorare la produzione mondiale di risorse e cibo, riducendo al tempo stesso l’impatto ambientale e la sofferenza degli animali.
Gli ambientalisti hanno ragione ad insistere sul fatto che lo status quo è insostenibile. Per una questione di necessità fisica, le cose non possono rimanere così come sono oggi all’infinito, o addirittura per molto tempo. Se continuiamo ad esaurire le risorse al ritmo attuale, senza trovare altre risorse o imparare ad usare nuovi tipi di risorse, allora ci troveremo ad affrontare gravi carenze verso la metà di questo secolo. I verdi profondi hanno una risposta a questo: ci suggeriscono di tornare indietro nel tempo e di tornare a un’epoca preindustriale idilliaca per vivere in armonia sostenibile con la natura.
Il problema di questa visione è che l’era preindustriale era tutt’altro che idilliaca. Era una vita di povertà, miseria, malattie, pesanti fatiche manuali dall’alba al tramonto, paure superstiziose e campanilismo culturale. Né è stata una vita ecologicamente sana — come testimoniano la deforestazione dell’Inghilterra e della regione mediterranea, la desertificazione di gran parte del Medio Oriente, l’impoverimento del suolo da parte degli Anasazi nella zona del Glen Canyon, la distruzione dei terreni agricoli nell’antica Mesopotamia attraverso l’accumulo di sali minerali provenienti dall’irrigazione, la deforestazione e la conseguente erosione del suolo da parte degli antichi Maya messicani, la caccia grossa quasi ovunque, e l’estinzione del dodo e di altri grandi uccelli senza piume nel Pacifico meridionale. Inoltre, è difficile vedere come più di qualche centinaio di milioni di persone possano essere mantenute a un livello di vita ragionevole con metodi di produzione preindustriali, per cui circa il novanta per cento della popolazione mondiale dovrebbe in qualche modo scomparire per facilitare questo nostalgico ritorno.
I transumanisti propongono un’alternativa molto più realistica: non ritirarsi in un passato immaginato, ma andare avanti il più intelligentemente possibile. I problemi ambientali che la tecnologia crea sono problemi di tecnologia intermedia e inefficiente, di insufficiente priorità politica alla protezione dell’ambiente e di mancanza di conoscenze ecologiche. Le industrie tecnologicamente meno avanzate dell’ex blocco sovietico inquinano molto più delle loro controparti occidentali avanzate. L’industria ad alta tecnologia è in genere relativamente benigna. Una volta sviluppata la nanotecnologia molecolare, non solo avremo una produzione pulita ed efficiente di quasi tutti i prodotti di base, ma saremo anche in grado di ripulire gran parte del disordine creato dai metodi di fabbricazione grezzi di oggi. Questo fisserebbe uno standard per un ambiente pulito che gli ambientalisti tradizionali di oggi potrebbero a malapena sognare.
La nanotecnologia renderà anche più economico colonizzare lo spazio. Da un punto di vista cosmico, la Terra è una macchiolina insignificante. A volte è stato suggerito di lasciare lo spazio intatto nella sua gloria incontaminata. Questo punto di vista è difficile da prendere sul serio. Ogni ora, attraverso processi interamente naturali, grandi quantità di risorse — milioni di volte più della somma totale di ciò che la specie umana ha consumato nel corso della sua carriera — vengono trasformate in sostanze radioattive o sprecate come radiazioni che fuoriescono nello spazio intergalattico. Non possiamo pensare a un modo più creativo di usare tutta questa materia ed energia?
Anche con la colonizzazione spaziale a pieno regime, tuttavia, la crescita della popolazione può continuare ad essere un problema, e questo anche se si suppone che un numero illimitato di persone possa essere trasportato dalla Terra nello spazio. Se la velocità della luce fornisce un limite superiore alla velocità di espansione, allora la quantità di risorse sotto il controllo umano crescerà solo polinomialmente (~ t3). La popolazione, d’altra parte, può facilmente crescere esponenzialmente (~ et). Se ciò accade, allora, poiché un fattore che cresce in modo esponenziale finirà per superare qualsiasi fattore che cresce polinomialmente, il reddito medio alla fine scenderà ai livelli di sussistenza, costringendo la crescita della popolazione a rallentare. Quanto presto ciò accadrà dipende principalmente dai tassi di riproduzione. Un cambiamento nella durata della vita media non avrebbe un grande effetto. Anche una tecnologia notevolmente migliorata può solo rimandare questa inevitabilità per un periodo di tempo relativamente breve. L’unico metodo a lungo termine per assicurare una crescita continua del reddito medio è una qualche forma di controllo della popolazione, spontaneo o imposto, che limiti il numero di nuove persone create all’anno. Ciò non significa che la popolazione non possa crescere, solo che la crescita dovrebbe essere polinomiale piuttosto che esponenziale.
Alcuni punti aggiuntivi da considerare:
Nei paesi tecnologicamente avanzati, le coppie tendono ad avere meno figli, spesso al di sotto del tasso di sostituzione. Come generalizzazione empirica, dare alle persone un maggiore controllo razionale sulla loro vita, soprattutto attraverso l’educazione delle donne e la partecipazione al mercato del lavoro, fa sì che le coppie abbiano meno figli.
Se si prendeva sul serio l’idea di controllare la popolazione limitando la durata della vita, perché non essere più attivi al riguardo? Perché non incoraggiare il suicidio? Perché non giustiziare chiunque raggiunga i 75 anni?
Se rallentare l’invecchiamento fosse inaccettabile perché potrebbe portare a un aumento del numero di persone, che ne sarebbe degli sforzi per curare il cancro, ridurre i decessi dovuti al traffico o migliorare la sicurezza dei lavoratori? Perché usare due pesi e due misure?
Quando i transumanisti dicono di voler allungare la durata della vita, ciò che intendono è che vogliono allungare la durata della salute. Ciò significa che gli anni-persona in più sarebbero produttivi e aggiungerebbero valore economico alla società. Possiamo essere tutti d’accordo sul fatto che non avrebbe molto senso vivere dieci anni in più in uno stato di demenza.
Il tasso di crescita della popolazione mondiale è in calo da diversi decenni. Nel 1970 ha raggiunto un picco del 2,1%. Nel 2003 era dell’1,2%; e si prevede che scenderà al di sotto dell’1,0% intorno al 2015. (Nazioni Unite 2002). Le previsioni del giorno del giudizio del cosiddetto “Club di Roma” dei primi anni Settanta si sono sempre rivelate errate.
Più persone ci sono, più cervelli lavoreranno per inventare nuove idee e soluzioni.
Se le persone possono aspettarsi una vita sana e attiva più lunga, avranno un interesse personale in futuro e si spera che si preoccuperanno maggiormente delle conseguenze a lungo termine delle loro azioni.
Riferimenti:
⦁ Nazioni Unite, ⦁ Le prospettive demografiche mondiali: La revisione del 2002 (Nazioni Unite: New York, 2002)
C’è uno standard etico…
…con quali transumanisti giudicano il “miglioramento della condizione umana”?
Il transumanesimo è compatibile con una varietà di sistemi etici, e gli stessi transumanisti hanno molti punti di vista diversi. Tuttavia, quanto segue sembra costituire un nucleo comune di accordo:
Secondo i transumanisti, la condizione umana è stata migliorata se sono state migliorate le condizioni dei singoli esseri umani. In pratica, gli adulti competenti sono di solito i migliori giudici di ciò che è buono per se stessi. Pertanto, i transumanisti sostengono la libertà individuale, in particolare il diritto di coloro che lo desiderano di usare la tecnologia per estendere le loro capacità mentali e fisiche e per migliorare il loro controllo sulla propria vita.
Da questo punto di vista, un miglioramento della condizione umana è un cambiamento che offre maggiori opportunità agli individui di plasmare se stessi e la loro vita secondo i loro desideri consapevoli. Si noti la parola “informato”. È importante che le persone siano consapevoli di ciò che scelgono. L’educazione, la discussione, il dibattito pubblico, il pensiero critico, l’esplorazione artistica e, potenzialmente, i potenziatori cognitivi sono mezzi che possono aiutare le persone a fare scelte più informate.
I transumanisti sostengono che le persone non sono usa e getta. Salvare vite (di coloro che vogliono vivere) è eticamente importante. Sarebbe sbagliato lasciar morire inutilmente le persone esistenti per sostituirle con nuove persone “migliori”. L’estensione della salute e la crionica sono quindi in cima alla lista delle priorità transumaniste. L’obiettivo transumanista non è quello di sostituire gli esseri umani esistenti con una nuova razza di super-essere, ma piuttosto di dare agli esseri umani (quelli esistenti oggi e quelli che nasceranno in futuro) la possibilità di svilupparsi in persone postumane.
La non disponibilità delle persone è in parte responsabile di un certo senso di urgenza che è comune tra i transumanisti. In media, 150.000 uomini, donne e bambini muoiono ogni giorno, spesso in condizioni miserabili. Per dare al maggior numero possibile di persone la possibilità di un’esistenza postumana — o anche solo di un’esistenza umana decente — è fondamentale che lo sviluppo tecnologico, almeno in alcuni campi, sia perseguito con la massima rapidità. Quando si tratta dell’estensione della vita e delle sue varie tecnologie abilitanti, un ritardo di una sola settimana equivale a un milione di morti premature evitabili — un fatto importante che chi sostiene il divieto o la moratoria farebbe bene a considerare con attenzione. (L’ulteriore fatto che l’accesso universale sarà probabilmente in ritardo rispetto alla disponibilità iniziale non fa che aumentare il motivo per cercare di affrettare le cose).
I transumanisti rifiutano lo specismo, l’opinione (razzista umana) che lo status morale sia fortemente legato all’appartenenza a una particolare specie biologica, nel nostro caso l’homo sapiens. Ciò che determina esattamente lo status morale è oggetto di dibattito. Fattori come l’essere una persona, essere senziente, avere la capacità di scelta morale autonoma, o forse anche essere un membro della stessa comunità del valutatore, sono tra i criteri che possono combinarsi per determinare il grado dello status morale di qualcuno (Warren 1997). Ma i transumanisti sostengono che, in questo contesto, l’identità della specie dovrebbe essere disincentivata. I transumanisti insistono sul fatto che tutti gli esseri che possono provare dolore hanno un certo status morale, e che le persone postumane potrebbero avere almeno lo stesso livello di status morale che hanno gli esseri umani nella loro forma attuale.
Riferimenti:
⦁ Mary Anne Warren, Stato morale: Obblighi verso persone e altre cose viventi (Oxford: Oxford University Press, 1997)
In che tipo di società vivrebbero i postumani?
Al momento non sono disponibili informazioni sufficienti per fornire una risposta completa a questa domanda. In parte, però, la risposta è: “Decidi tu”. Il risultato può essere influenzato dalle scelte che facciamo ora e nei prossimi decenni. Da questo punto di vista, la situazione è la stessa delle epoche precedenti che non avevano possibilità transumane: impegnandoci nelle lotte politiche contro i mali e le ingiustizie sociali di oggi, possiamo contribuire a rendere migliore la società di domani.
Il transumanesimo, tuttavia, ci informa su nuovi vincoli, possibilità e questioni, e mette in evidenza numerosi punti di leva importanti per l’intervento, dove una piccola applicazione di risorse può fare una grande differenza a lungo termine. Per esempio, una questione che si sposta in primo piano è la sfida di creare una società in cui esseri con ordini di capacità molto diversi (come le persone postumane e gli esseri umani che non sono ancora stati creati) possano vivere insieme in modo felice e pacifico. Un’altra preoccupazione che diventa fondamentale è la necessità di costruire un ordine mondiale in cui si possano prevenire pericolose corse agli armamenti e in cui la proliferazione delle armi di distruzione di massa possa essere soppressa o almeno ritardata fino a quando non siano state sviluppate difese efficaci (vedi “Non sono molto rischiose queste tecnologie future? Potrebbero anche causare la nostra estinzione?”).
L’organizzazione sociale ideale può essere quella che prevede la possibilità per coloro che lo desiderano di formare società indipendenti e volontariamente isolate dal resto del mondo, al fine di perseguire modi di vita tradizionali o di sperimentare nuove forme di vita comune. Raggiungere un equilibrio accettabile tra i diritti di tali comunità per l’autonomia, da un lato, e le preoccupazioni di sicurezza delle entità esterne e le giuste richieste di protezione degli individui vulnerabili e oppressi all’interno di queste comunità, dall’altro, è un compito delicato e una sfida familiare nella filosofia politica.
In quale tipo di società vivranno i postumi dipende da quali tipi di postumi si svilupperanno alla fine. Si possono proiettare vari possibili percorsi di sviluppo (vedi “Che cos’è un postumo?”) che possono portare a tipi molto diversi di esseri umani postumi, transumani e non, che vivono in società molto diverse. Nel cercare di immaginare un tale mondo, dobbiamo tenere presente che è probabile che le nostre aspettative si basino sulle esperienze, sui desideri e sulle caratteristiche psicologiche degli esseri umani. Molte di queste aspettative potrebbero non corrispondere alle persone postume. Quando la natura umana cambia, nuovi modi di organizzare una società possono diventare fattibili. Possiamo sperare di formare una comprensione più chiara di quali siano queste nuove possibilità mentre osserviamo lo sviluppo dei semi della transumanità.
I postumi o le macchine superintelligenti rappresenteranno una minaccia per gli esseri umani che non sono aumentati?
La società umana è sempre a rischio a causa di un gruppo che decide di considerare un altro gruppo di esseri umani come adatto alla schiavitù o al massacro. Per contrastare tali tendenze, le società moderne hanno creato leggi e istituzioni, dotandole di poteri esecutivi, che agiscono per impedire che gruppi di cittadini si aggrediscano l’un l’altro. L’efficacia di queste istituzioni non dipende dal fatto che tutti i cittadini abbiano le stesse capacità. Le società moderne e pacifiche hanno un gran numero di persone con capacità fisiche o mentali ridotte insieme a molte altre persone che possono essere eccezionalmente forti fisicamente o in salute o intellettualmente talentuose in vari modi. L’aggiunta di persone con capacità tecnologicamente avanzate a questa già ampia distribuzione di capacità non necessariamente farebbe a pezzi la società o scatenerebbe un genocidio o una riduzione in schiavitù.
Una preoccupazione comune è che modifiche genetiche ereditarie o altre tecnologie di miglioramento umano porterebbero a due specie distinte e separate e che le ostilità si svilupperebbero inevitabilmente tra di loro. Le ipotesi alla base di questa previsione dovrebbero essere messe in discussione. È un tema comune nella finzione a causa delle opportunità di conflitti drammatici, ma non è la stessa cosa della plausibilità sociale, politica ed economica nel mondo reale. Sembra più probabile che ci sarebbe un continuum di individui diversamente modificati o potenziati, che si sovrapporrebbero al continuum di esseri umani non ancora potenziati. Lo scenario in cui “i potenziati” formano un patto e poi attaccano “i naturali” rende entusiasmante la fantascienza, ma non è necessariamente il risultato più plausibile. Ancora oggi, il segmento che contiene il 90 per cento più alto della popolazione potrebbe, in linea di principio, riunirsi e uccidere o rendere schiavo il decile più corto. Il fatto che ciò non accada suggerisce che una società ben organizzata può tenere insieme anche se contiene molte possibili coalizioni di persone che condividono qualche attributo tale che, se unificate sotto un unico vessillo, le renderebbe capaci di sterminare il resto.
Notare che il caso estremo di una guerra tra persone umane e postumane non è lo scenario più probabile è non dire che non ci sono legittime preoccupazioni sociali sui passi che ci possono portare più vicini all’umanità postumana. L’iniquità, la discriminazione e la stigmatizzazione — contro o per conto di persone modificate — potrebbero diventare questioni serie. I transumanisti sostengono che questi (potenziali) problemi sociali richiedono rimedi sociali. (Un caso di studio di come la tecnologia contemporanea può cambiare aspetti importanti dell’identità di qualcuno è la riassegnazione del sesso. Le esperienze dei transessuali mostrano che alcune culture hanno ancora del lavoro da fare per diventare più accondiscendenti verso la diversità). Questo è un compito che possiamo cominciare ad affrontare ora, favorendo un clima di tolleranza e di accettazione verso coloro che sono diversi da noi. Possiamo anche agire per rafforzare quelle istituzioni che prevengono la violenza e proteggono i diritti umani, per esempio costruendo tradizioni e costituzioni democratiche stabili e ampliando lo stato di diritto sul piano internazionale.
Che ne è dell’ipotetico caso in cui qualcuno intenda creare, o trasformare se stesso in un essere dalle capacità così radicalmente potenziate che un singolo o un piccolo gruppo di tali individui sarebbe in grado di conquistare il pianeta? È chiaro che non si tratta di una situazione che potrebbe verificarsi in un futuro imminente, ma si può immaginare che, forse tra qualche decennio, la creazione prospettica di macchine superintelligenti potrebbe suscitare questo tipo di preoccupazione. L’aspirante creatore di una nuova forma di vita con tali capacità di superamento avrebbe l’obbligo di assicurarsi che l’essere proposto sia libero da tendenze psicopatiche e, più in generale, che abbia inclinazioni umane. Per esempio, si dovrebbe costruire un superintelligence con una chiara struttura di obiettivi che abbia come obiettivo principale la cordialità verso gli esseri umani. Prima di avviare un programma di questo tipo, i costruttori di un superintelligence dovrebbero essere obbligati a sostenere con forza che lanciarlo sarebbe più sicuro rispetto a linee d’azione alternative.
Riferimenti:
⦁ Eliezer Yudkowsky, ⦁ Creazione di un’IA 1.0 amichevole: L’analisi e la progettazione di architetture con obiettivi benevoli (2001)
CONTINUA — — — — — — — —