FAQ TRANSUMANISTA PT.3



Parte 3: Tecnologie e proiezioni

Biotecnologia, ingegneria genetica, cellule staminali e clonazione

Cosa sono e a cosa servono?
 La biotecnologia è l’applicazione di tecniche e metodi basati sulle scienze biologiche. Essa comprende imprese diverse come la produzione di birra, la produzione di insulina umana, l’interferone e l’ormone della crescita umano, la diagnostica medica, la clonazione cellulare e la clonazione riproduttiva, la modificazione genetica delle colture, la bioconversione dei rifiuti organici e l’uso di batteri geneticamente modificati per la pulizia delle fuoriuscite di petrolio, la ricerca sulle cellule staminali e molto altro ancora. L’ingegneria genetica è il settore della biotecnologia che si occupa dell’alterazione diretta del materiale genetico.
 La biotecnologia ha già innumerevoli applicazioni nell’industria, nell’agricoltura e nella medicina. È un focolaio di ricerca. Il completamento del progetto sul genoma umano — una “bozza” dell’intero genoma umano è stata pubblicata nel 2000 — è stata una pietra miliare scientifica per tutti gli standard. La ricerca si sta ora spostando verso la decodifica delle funzioni e delle interazioni di tutti questi diversi geni e verso lo sviluppo di applicazioni basate su queste informazioni.
 I potenziali benefici medici sono troppi da elencare; i ricercatori stanno lavorando su ogni malattia comune, con diversi gradi di successo. I progressi non riguardano solo lo sviluppo di farmaci e la diagnostica, ma anche la creazione di strumenti e metodologie di ricerca migliori, che a loro volta accelerano il progresso. Quando si considerano gli sviluppi probabili a lungo termine, è necessario tenere conto di tali miglioramenti nel processo di ricerca stesso. Il progetto sul genoma umano è stato completato prima del previsto, soprattutto perché le previsioni iniziali hanno sottovalutato il grado di miglioramento della tecnologia della strumentazione nel corso del progetto. Allo stesso tempo, bisogna guardarsi dalla tendenza ad anticipare ogni più recente progresso. Inoltre, anche nei casi in cui la promessa iniziale viene mantenuta, di solito ci vogliono dieci anni per passare dalla prova del concetto alla commercializzazione di successo.
 Le terapie genetiche sono di due tipi: somatica e germinale. Nella terapia genica somatica, un virus è tipicamente usato come vettore per inserire materiale genetico nelle cellule del corpo del ricevente. Gli effetti di tali interventi non si ripercuotono sulla generazione successiva. La terapia genetica germinale viene eseguita su sperma o ovuli, o sullo zigote precoce, e può essere ereditaria. (Anche lo screening embrionale, in cui gli embrioni vengono testati per individuare difetti genetici o altre caratteristiche e poi impiantati selettivamente, può essere considerato una sorta di intervento germinale). La terapia genica umana, ad eccezione di alcune forme di screening embrionale, è ancora sperimentale. Tuttavia, è promettente per la prevenzione e la cura di molte malattie, così come per gli usi nella medicina di potenziamento. Il potenziale della medicina genetica è vasto: praticamente tutte le malattie e tutti i tratti umani — intelligenza, estroversione, coscienza, aspetto fisico, ecc. — comportano predisposizioni genetiche. I disturbi del singolo gene, come la fibrosi cistica, l’anemia falciforme e il morbo di Huntington sono probabilmente tra i primi obiettivi dell’intervento genetico. Tratti e disturbi poligenici, quelli in cui più di un gene è implicato, possono seguire in seguito (anche se anche le condizioni poligeniche possono a volte essere influenzate in una direzione benefica puntando un singolo gene).

La ricerca sulle cellule staminali, un’altra frontiera scientifica, offre grandi speranze per la medicina rigenerativa. Le cellule staminali sono cellule indifferenziate (non specializzate) che possono rinnovarsi e dare origine a uno o più tipi di cellule specializzate con funzioni specifiche nell’organismo. Crescendo tali cellule in coltura, o guidando la loro attività nel corpo, sarà possibile far crescere tessuti sostitutivi per il trattamento di disturbi degenerativi, tra cui malattie cardiache, Parkinson, Alzheimer, diabete, e molti altri. Può anche essere possibile far crescere interi organi da cellule staminali per l’uso nei trapianti. Le cellule staminali embrionali sembrano essere particolarmente versatili e utili, ma sono in corso anche ricerche sulle cellule staminali adulte e sulla “riprogrammazione” delle cellule ordinarie in modo che possano essere ritrasformate in cellule staminali con capacità pluripotenti.
 Il termine “clonazione umana” copre sia gli usi terapeutici che riproduttivi. Nella clonazione terapeutica, un embrione preimpianto (noto anche come “blastocisti” — una palla cava composta da 30–150 cellule indifferenziate) viene creato attraverso la clonazione, da cui si possono estrarre le cellule staminali embrionali e utilizzarle per la terapia. Poiché queste cellule staminali clonate sono geneticamente identiche al paziente, i tessuti o gli organi che produrrebbero potrebbero essere impiantati senza provocare una risposta immunitaria dal corpo del paziente, superando così un grosso ostacolo nella medicina dei trapianti. La clonazione riproduttiva, invece, significherebbe la nascita di un bambino geneticamente identico al genitore clonato: in effetti, un gemello più giovane e identico.
 Tutti riconoscono il beneficio per i pazienti malati e le loro famiglie che deriva dalla cura di specifiche malattie. I transumanisti sottolineano che, per prolungare seriamente la durata della vita in buona salute, occorre anche sviluppare modi per rallentare l’invecchiamento o per sostituire le cellule e i tessuti senescenti. La terapia genica, la ricerca sulle cellule staminali, la clonazione terapeutica e altre aree della medicina che hanno il potenziale per fornire questi benefici meritano un’alta priorità nell’assegnazione dei fondi per la ricerca.
 Le biotecnologie possono essere viste come un caso particolare delle capacità più generali che le nanotecnologie forniranno alla fine (vedi “Cos’è la nanotecnologia molecolare?”).

Cos’è la nanotecnologia molecolare?
 La nanotecnologia molecolare è una tecnologia di fabbricazione anticipata che permetterà di costruire strutture tridimensionali complesse in base a specifiche atomiche utilizzando reazioni chimiche dirette da macchinari non biologici. Nella produzione molecolare, ogni atomo andrebbe in un luogo selezionato, legandosi con altri atomi in un modo precisamente designato. La nanotecnologia promette di darci un controllo completo della struttura della materia.
 Poiché la maggior parte delle cose intorno a noi e dentro di noi è composta da atomi e trae le sue proprietà caratteristiche dalla collocazione di questi atomi, la capacità di controllare la struttura della materia su scala atomica ha molte applicazioni. Come ha scritto K. Eric Drexler in Engines of Creation, il primo libro sulla nanotecnologia (pubblicato nel 1986):
 Carbone e diamanti, sabbia e chip di computer, cancro e tessuti sani: nel corso della storia, le variazioni nella disposizione degli atomi hanno distinto il poco costoso dal caro, il malato dal sano. Disposti in un modo, gli atomi costituiscono il suolo, l’aria e l’acqua disposti in un altro, costituiscono le fragole mature. Disposti in un modo, compongono le case e l’aria fresca; disposti in un altro modo, compongono la cenere e il fumo.
 La nanotecnologia, rendendo possibile la riorganizzazione degli atomi in modo efficace, ci permetterà di trasformare il carbone in diamanti, la sabbia in supercomputer e di rimuovere l’inquinamento dell’aria e i tumori dai tessuti sani.

Al centro della visione di Drexler sulla nanotecnologia c’è il concetto di assemblatore. Un assemblatore sarebbe un dispositivo di costruzione molecolare. Avrebbe uno o più bracci robotici submicroscopici sotto il controllo del computer. I bracci sarebbero in grado di trattenere e posizionare i composti reattivi in modo da controllare in posizione il punto preciso in cui avviene una reazione chimica. I bracci assemblatori afferrerebbero una molecola (ma non necessariamente singoli atomi) e la aggiungerebbero ad un pezzo in lavorazione, costruendo un oggetto atomicamente preciso passo dopo passo. Un assemblatore avanzato sarebbe in grado di realizzare quasi ogni struttura chimicamente stabile. In particolare, sarebbe in grado di fare una copia di se stesso. Poiché gli assemblatori potrebbero replicarsi, sarebbero facili da produrre in grandi quantità.

Esiste un parallelo biologico all’assemblatore: il ribosoma. I ribosomi sono le minuscole macchine da costruzione (alcune migliaia di nanometri cubici) delle nostre cellule che producono tutte le proteine utilizzate in tutti gli esseri viventi della Terra. Lo fanno assemblando gli amminoacidi, uno per uno, in sequenze determinate con precisione. Queste strutture si ripiegano poi a formare una proteina. Il progetto che specifica l’ordine degli amminoacidi, e quindi indirettamente la forma finale della proteina, è chiamato RNA messaggero. L’RNA messaggero è determinato dal nostro DNA, che può essere visto (un po ‘semplicisticamente) come un nastro di istruzioni per la sintesi proteica. La nanotecnologia generalizzerà la capacità dei ribosomi in modo che praticamente qualsiasi struttura chimicamente stabile possa essere costruita, compresi dispositivi e materiali che non assomigliano a nulla in natura.

La nanotecnologia matura trasformerà la produzione in un problema di software. Per costruire qualcosa, tutto ciò che serve è un disegno dettagliato dell’oggetto che si vuole realizzare e una sequenza di istruzioni per la sua costruzione. Materie prime rare o costose sono generalmente inutili; gli atomi necessari per la costruzione della maggior parte dei tipi di dispositivi nanotecnologici esistono in abbondanza in natura. La sporcizia, ad esempio, è piena di atomi utili.
 Lavorando in grandi squadre, gli assemblatori e le nanomacchine più specializzate saranno in grado di costruire rapidamente oggetti di grandi dimensioni. Di conseguenza, mentre le nanomacchine possono avere caratteristiche sulla scala di un miliardesimo di metro — un nanometro — i prodotti potrebbero essere grandi come veicoli spaziali o anche, in un futuro più lontano, come pianeti.

Poiché gli assemblatori saranno in grado di copiare se stessi, i prodotti nanotecnologici avranno bassi costi di produzione marginali — forse nello stesso ordine di prodotti familiari provenienti da macchinari molecolari auto-riproduttori della natura come la legna da ardere, il fieno o le patate. Assicurandosi che ogni atomo sia posizionato correttamente, gli assemblatori fabbricherebbero prodotti di alta qualità e affidabilità. Le molecole rimaste sarebbero soggette a questo rigoroso controllo, rendendo il processo di fabbricazione estremamente pulito.
 La velocità con cui possono essere sviluppati i progetti e le liste di istruzioni per la realizzazione di oggetti utili determinerà la velocità di avanzamento dopo la creazione del primo assemblatore completo. Un potente software per la modellazione e la progettazione molecolare accelererà lo sviluppo, possibilmente assistito da un’IA di ingegneria specializzata.

Un altro accessorio che potrebbe essere particolarmente utile nelle fasi iniziali dopo l’assembler-breakthrough è il disassemblatore, un dispositivo che può smontare un oggetto creando una mappa tridimensionale della sua configurazione molecolare. Lavorando di concerto con un assemblatore, potrebbe funzionare come una sorta di macchina 3D Xerox: un dispositivo per realizzare repliche atomicamente esatte di quasi tutti gli oggetti solidi esistenti a portata di mano.

La nanotecnologia molecolare permetterà in ultima analisi di costruire sistemi di calcolo compatti che eseguano almeno 1021 operazioni al secondo; parti di macchine di qualsiasi dimensione fatte di diamante quasi impeccabile; macchine per la riparazione delle cellule che possono entrare nelle cellule e riparare la maggior parte dei tipi di danni, con ogni probabilità anche il congelamento (vedi “Cos’è la crionica? La probabilità di successo non è troppo piccola?”); 
 apparecchi di produzione e riciclaggio personali; e sistemi di produzione automatizzati che possono raddoppiare il capitale sociale in poche ore o meno. È anche probabile che renda possibile il caricamento (vedi “Che cos’è il caricamento?”).
 Una sfida fondamentale nella realizzazione di queste prospettive è il problema del bootstrap: come costruire il primo assemblatore. Ci sono diversi percorsi promettenti. Uno è quello di migliorare l’attuale tecnologia delle sonde prossimali. Un microscopio a forza atomica può trascinare singoli atomi lungo una superficie. Due fisici della IBM Almaden Labs in California lo hanno illustrato nel 1989, quando hanno usato un microscopio di questo tipo per disporre 35 atomi di xeno, per scrivere il marchio “I-B-M”, creando il logo più piccolo del mondo. Le future sonde prossimali potrebbero avere più gradi di libertà e la capacità di raccogliere e depositare composti reattivi in modo controllato.

Un’altra via verso il primo assemblatore è la chimica sintetica. Blocchi di costruzione chimici sapientemente progettati potrebbero essere realizzati per autoassemblarsi in fase di soluzione in parti di macchine. L’assemblaggio finale di queste parti potrebbe poi essere fatto con una sonda prossimale.

Un’altra via è la biochimica. Potrebbe essere possibile utilizzare i ribosomi per realizzare assemblatori di capacità più generiche. Molte biomolecole hanno proprietà che potrebbero essere esplorate nelle prime fasi della nanotecnologia. Per esempio, strutture interessanti, come rami, loop e cubi, sono state realizzate dal DNA. Il DNA potrebbe anche servire come “tag” su altre molecole, facendole legare solo a composti designati che mostrano un tag complementare, fornendo così un certo grado di controllo su quali complessi molecolari si formeranno in una soluzione.

Naturalmente sono possibili anche combinazioni di questi approcci. Il fatto che ci siano molteplici percorsi promettenti aumenta la probabilità che alla fine si raggiunga il successo.
 Che gli assemblatori di capacità generali siano coerenti con le leggi della chimica è stato dimostrato da Drexler nel suo libro tecnico Nanosystems nel 1992. Questo libro ha anche stabilito alcuni limiti inferiori alle capacità delle nanotecnologie mature. Le applicazioni mediche della nanotecnologia sono state esplorate in dettaglio per la prima volta da Robert A. Freitas Jr. nella sua monumentale opera Nanomedicina, il cui primo volume è uscito nel 1999. Oggi la nanotecnologia è un campo di ricerca molto caldo. Nel 2002 il governo degli Stati Uniti ha speso più di 600 milioni di dollari per la sua National Nanotechnology Initiative. Altri Paesi hanno programmi simili, e gli investimenti privati sono abbondanti. Tuttavia, solo una piccola parte dei finanziamenti va a progetti di diretta rilevanza per lo sviluppo delle nanotecnologie basate sull’assembler; la maggior parte di essi è destinata a obiettivi più semplici e a breve termine.

Mentre sembra abbastanza assodato che la nanotecnologia molecolare sia in linea di principio possibile, è più difficile determinare quanto tempo ci vorrà per svilupparsi. Una supposizione comune tra i conoscenti è che il primo assembler potrebbe essere costruito intorno all’anno 2018, più o meno un decennio, ma c’è ampio spazio per opinioni divergenti sul lato superiore di tale stima.

Poiché le ramificazioni della nanotecnologia sono immense, è imperativo che si rifletta seriamente su questo argomento ora. Se si abusasse delle nanotecnologie le conseguenze potrebbero essere devastanti. La società deve prepararsi alla svolta dell’assemblatore e fare una pianificazione anticipata per minimizzare i rischi ad essa associati (vedi ad esempio “Non sono molto rischiose queste tecnologie del futuro? Potrebbero anche causare estinzione?”). Diverse organizzazioni stanno lavorando per preparare il mondo alla nanotecnologia, la più antica e la più grande delle quali è il Foresight Institute.
 Riferimenti:
 K. Eric Drexler, Motori della Creazione: The Coming Era of Nanotechnology, (New York: Anchor Books, 1986)
 K. Eric Drexler, Nanosystems: Macchinari molecolari, produzione e calcolo, (New York: John Wiley & Sons, Inc., 1992)
 Robert A. Freitas Jr., Nanomedicina, Volume I: Capacità di base. (Georgetown, Texas: Landes Bioscience, 1999)

Cos’è lasuper-intelligence?
 
Un intelletto superintelligente (una super-intelligenza, a volte chiamata “ultraintelligenza”) è un intelletto che ha la capacità di superare radicalmente i migliori cervelli umani praticamente in ogni campo, compresa la creatività scientifica, la saggezza generale e le abilità sociali.
 A volte si fa una distinzione tra la super-intelligenza debole e la super-intelligenza forte. La super-intelligenza debole è ciò che si otterrebbe se si potesse far funzionare un intelletto umano a una velocità di clock accelerata, ad esempio caricandolo su un computer veloce (vedi “Che cos’è il caricamento?”).

Se la velocità di clock del caricamento fosse mille volte superiore a quella di un cervello biologico, percepirebbe la realtà come rallentata di un fattore mille. Penserebbe mille volte di più pensieri in un dato intervallo di tempo rispetto alla sua controparte biologica.
 La super intelligenza forte si riferisce a un intelletto che non solo è più veloce di un cervello umano, ma anche più intelligente in senso qualitativo. Non importa quanto si acceleri il cervello del proprio cane, non si otterrà l’equivalente di un intelletto umano. Analogamente, ci potrebbero essere tipi di intelligenza che non sarebbero accessibili anche a cervelli umani molto veloci, date le loro attuali capacità. Qualcosa di semplice come l’aumento delle dimensioni o della connettività delle nostre reti neuronali potrebbe fornirci alcune di queste capacità. Altri miglioramenti potrebbero richiedere una riorganizzazione all’ingrosso della nostra architettura cognitiva o l’aggiunta di nuovi livelli di cognizione oltre a quelli vecchi.

Tuttavia, la distinzione tra super-intelligenza debole e forte potrebbe non essere chiara. Un essere umano sufficientemente longevo, che non ha commesso errori e che ha a portata di mano una pila sufficiente di carta di scarto, potrebbe in linea di principio calcolare qualsiasi funzione computabile di Turing. (Secondo la tesi di Church, la classe delle funzioni computabili di Turing è identica alla classe delle funzioni computabili fisicamente).
 Molti, ma non tutti i transumanisti si aspettano che nella prima metà di questo secolo si crei una super-intelligenza. La super-intelligenza richiede due cose: hardware e software.
 I produttori di chip che pianificano la prossima generazione di microprocessori si basano comunemente su una ben nota regolarità empirica nota come Legge di Moore.

Nella sua originale formulazione del 1965 del co-fondatore di Intel Gordon Moore, Gordon Moore, affermava che il numero di componenti di un chip raddoppiava ogni anno. Nell’uso contemporaneo, la “legge” è comunemente intesa come riferita più in generale al raddoppio della potenza di calcolo, o della potenza di calcolo per dollaro. Negli ultimi due anni, il tempo di raddoppio è oscillato tra i 18 mesi e i due anni.
 La potenza di elaborazione del cervello umano è difficile da determinare con precisione, ma le stime comuni vanno da 1014 istruzioni al secondo (IPS) fino a 1017 IPS o più. La stima inferiore, derivata dal professore di robotica Carnegie Mellon Hans Moravec, si basa sulla potenza di calcolo necessaria per replicare l’elaborazione del segnale eseguita dalla retina umana e presuppone un grado significativo di ottimizzazione del software. La stima di 1017 IPS si ottiene moltiplicando il numero di neuroni in un cervello umano (~100 miliardi) per il numero medio di sinapsi per neurone (~1.000) e con il tasso di picco medio (~100 Hz), e assumendo ~10 istruzioni per rappresentare l’effetto su un’azione potenziale che attraversa una sinapsi. Una stima ancora più elevata si otterrebbe, ad esempio, se si supponesse che l’elaborazione funzionalmente rilevante e computazionalmente intensiva si verifichi all’interno di compartimenti di un albero di dendriti.

La maggior parte degli esperti, compreso Moore, pensa che la potenza di calcolo continuerà a raddoppiare ogni 18 mesi circa per almeno altri due decenni. Questa aspettativa si basa in parte sull’estrapolazione del passato e in parte sulla considerazione degli sviluppi attualmente in corso nei laboratori. Il computer più veloce in costruzione è il Blue Gene/L di IBM, che, quando sarà pronto nel 2005, dovrebbe eseguire ~2*1014 IPS. Sembra quindi molto probabile che l’hardware equivalente all’uomo sarà stato realizzato in non più di un paio di decenni.
 Quanto tempo ci vorrà per risolvere il problema del software è più difficile da stimare. Una possibilità è che il progresso delle neuroscienze computazionali ci insegni l’architettura computazionale del cervello umano e quali regole di apprendimento utilizza. Possiamo quindi implementare gli stessi algoritmi su un computer. In questo approccio, la super-intelligenza non sarebbe completamente specificata dai programmatori, ma dovrebbe invece crescere imparando dall’esperienza come fa un neonato umano. Un approccio alternativo sarebbe quello di utilizzare algoritmi genetici e metodi dell’IA classica. Questo potrebbe portare a una super-intelligenza che non ha alcuna somiglianza con il cervello umano. All’estremo opposto, potremmo cercare di creare una super-intelligenza caricando un intelletto umano e poi accelerandolo e potenziandolo (vedi “Che cos’è il caricamento?”). Il risultato di questo potrebbe essere una super-intelligenza che è una versione radicalmente migliorata di una particolare mente umana.

L’arrivo della super-intelligence infliggerà chiaramente un duro colpo alle visioni del mondo antropocentriche. Molto più importante delle sue implicazioni filosofiche, tuttavia, sarebbero i suoi effetti pratici. La creazione della super-intelligenza potrebbe essere l’ultima invenzione che l’uomo dovrà mai fare, poiché le super-intelligenze potrebbero esse stesse occuparsi dell’ulteriore sviluppo scientifico e tecnologico. Lo farebbero in modo più efficace degli esseri umani. L’umanità biologica non sarebbe più la forma di vita più intelligente del blocco.
 La prospettiva della super-intelligenza solleva molte grandi questioni e preoccupazioni a cui dovremmo pensare profondamente in anticipo rispetto al suo effettivo sviluppo. La domanda fondamentale è: cosa si può fare per massimizzare le possibilità che l’arrivo della super-intelligenza ci avvantaggi e non ci danneggi? La gamma di competenze necessarie per affrontare questa domanda va ben oltre la comunità dei ricercatori di IA. Neuroscienziati, economisti, scienziati cognitivi, informatici, filosofi, eticisti, sociologi, scrittori di fantascienza, strateghi militari, politici, legislatori e molti altri dovranno mettere insieme le loro conoscenze se vogliamo affrontare con saggezza quello che potrebbe essere il compito più importante che la nostra specie dovrà mai affrontare.
 Molti transumanisti vorrebbero diventare essi stessi superintelligenti. Questo è ovviamente un obiettivo a lungo termine e incerto, ma potrebbe essere raggiungibile sia attraverso il caricamento e il successivo potenziamento, sia attraverso il graduale aumento dei nostri cervelli biologici, per mezzo di futuri nootropici (farmaci per il potenziamento cognitivo), tecniche cognitive, strumenti informatici (ad esempio computer indossabili, agenti intelligenti, sistemi di filtraggio delle informazioni, software di visualizzazione, etc.), interfacce neurali-computer, o impianti cerebrali.
 Riferimenti:
 
Hans Moravec, Mind Children (Harvard: Harvard University Press, 1989)
 Nick Bostrom, “How Long Before Super¬intelligence?”, International Journal of Futures Studies Vol. 2. (1998)

Cos’è la crionica? 
 La probabilità di successo non è troppo bassa?

 La crionica è una procedura medica sperimentale che cerca di salvare vite umane mettendo in deposito a bassa temperatura persone che non possono essere curate con le attuali procedure mediche e che sono state dichiarate legalmente morte, nella speranza che il progresso tecnologico permetta alla fine di rianimarle.
 Affinché la crionica funzioni oggi, non è necessario che attualmente possiamo rianimare i pazienti crioconservati (cosa che non possiamo fare). Tutto ciò che serve è che possiamo preservare i pazienti in uno stato sufficientemente intatto da permettere ad alcune possibili tecnologie, sviluppate in futuro, di riparare un giorno i danni da congelamento e di invertire la causa originaria della deanimazione. Solo metà della procedura crionica completa può essere esaminata oggi; l’altra metà non può essere eseguita fino al (forse lontano) futuro.

Quello che sappiamo ora è che è possibile stabilizzare le condizioni di un paziente raffreddandolo in azoto liquido (- 196 C°). Il processo di congelamento provoca un notevole danno alle cellule. Questa lesione può essere minimizzata seguendo i protocolli di sospensione che prevedono di soffocare il corpo deanimato con crioprotettori. La formazione di cristalli di ghiaccio dannosi può anche essere soppressa del tutto in un processo noto come vetrificazione, in cui il corpo del paziente viene trasformato in una specie di vetro. Questo potrebbe sembrare un trattamento improbabile, ma lo scopo della crionica è quello di preservare la struttura della vita piuttosto che i processi della vita, perché i processi vitali possono in linea di principio essere riavviati, a condizione che le informazioni codificate nelle proprietà strutturali del corpo, in particolare del cervello, siano sufficientemente conservate. Una volta congelato, il paziente può essere conservato per millenni praticamente senza ulteriore degradazione dei tessuti.

Molti esperti di nanotecnologia molecolare ritengono che nella sua fase di maturità la nanotecnologia consentirà la rinascita dei pazienti crionici. Pertanto, è possibile che i pazienti sospesi possano essere rianimati in pochi decenni da oggi. L’incertezza sulla fattibilità tecnica definitiva della rianimazione può essere molto probabilmente attenuata dall’incertezza di altri fattori, come la possibilità che tu ti disanimi nel modo sbagliato (per esempio, se ti perdi in mare, o se il contenuto informativo del cervello viene cancellato dal morbo di Alzheimer), che la tua azienda di crionica fallisca, che la civiltà crolli, o che la gente in futuro non sia interessata a rianimarti. Quindi, un contratto di crionica è ben lungi dall’essere una garanzia di sopravvivenza. Come dice un detto crionicista, essere crionicamente sospeso è la seconda cosa peggiore che ti può capitare.

Se consideriamo le procedure che sono di routine oggi e come avrebbero potuto essere viste nel (diciamo) 1700, possiamo cominciare a vedere quanto sia difficile fare un’argomentazione fondata che la futura tecnologia medica non sarà mai in grado di invertire le lesioni che si verificano durante la sospensione crionica. Al contrario, le possibilità di un ritorno a questo mondo se si opta per uno dei popolari trattamenti alternativi — come la cremazione o la sepoltura — sono pari a zero. Vista sotto questa luce, l’iscrizione alla crionica, che di solito viene effettuata facendo di una ditta di crionica uno dei beneficiari della vostra assicurazione sulla vita, può sembrare una polizza assicurativa ragionevole. Se non funzionasse, sareste comunque morti. Se funziona, potrebbe salvarvi la vita. La vostra vita salvata sarebbe allora probabilmente estremamente lunga e in buona salute, visto quanto deve essere avanzato lo stato della medicina per rianimarvi.

Non tutti i transumanisti sono iscritti alla crionica, ma una parte significativa ritiene che, per loro, un’analisi costi-benefici giustifichi la spesa. Diventare crionicisti, tuttavia, richiede coraggio: il coraggio di affrontare la possibilità della propria morte, e il coraggio di resistere alla pressione della grande parte della popolazione che attualmente sposa i valori deathisti e sostiene l’autocompiacimento di fronte a una continua e massiccia perdita di vite umane.
 Riferimenti:
 
Ralph C. Merkle, “The Molecular Repair of the Brain”, Cryonics Magazine Vol. 15, No’s 1 & 2. (1994)

Cosa significa “caricare”?
 Il caricamento (a volte chiamato “download”, “mind uploading” o “ricostruzione cerebrale”) è il processo di trasferimento di un intelletto da un cervello biologico a un computer.
 
Un modo per farlo potrebbe essere quello di scansionare prima la struttura sinaptica di un particolare cervello e poi di implementare gli stessi calcoli in un mezzo elettronico. Una scansione cerebrale di sufficiente risoluzione potrebbe essere prodotta smontando l’atomo cerebrale per atomo mediante la nanotecnologia. Sono stati proposti anche altri approcci, come l’analisi di pezzi di cervello fetta per fetta in un microscopio elettronico con elaborazione automatica delle immagini. Oltre a mappare il modello di connessione tra i 100 miliardi di neuroni, la scansione dovrebbe probabilmente registrare anche alcune delle proprietà funzionali di ciascuna delle interconnessioni sinaptiche, come l’efficacia della connessione e la sua stabilità nel tempo (ad esempio se è potenziata a breve o a lungo termine). Anche i modulatori non locali, come le concentrazioni dei neurotrasmettitori e gli equilibri ormonali, possono avere bisogno di essere rappresentati, anche se tali parametri contengono probabilmente molti meno dati rispetto alla rete neuronale stessa.

Oltre ad una buona mappa tridimensionale di un cervello, il caricamento richiederà progressi nelle neuroscienze per sviluppare modelli funzionali di ogni specie di neurone (come mappano gli stimoli di input ai potenziali di azione in uscita e come le loro proprietà cambiano in risposta all’attività di apprendimento). Richiederà anche un potente computer per eseguire l’upload, e un modo per l’upload di interagire con il mondo esterno o con una realtà virtuale. (Fornire un input/output o una realtà virtuale per l’upload appare facile rispetto alle altre sfide).
 Un ipotetico metodo alternativo di upload procederebbe in modo più graduale: un neurone potrebbe essere sostituito da un impianto o da una simulazione in un computer esterno al corpo. Poi un altro neurone, e così via, fino a quando alla fine l’intera corteccia viene sostituita e il pensiero della persona viene implementato su un hardware completamente artificiale. (Per fare questo per tutto il cervello sarebbe quasi certamente necessaria la nanotecnologia).

A volte si fa una distinzione tra il caricamento distruttivo, in cui il cervello originale viene distrutto nel processo, e il caricamento non distruttivo, in cui il cervello originale viene conservato intatto accanto alla copia caricata. Si discute a quali condizioni l’identità personale verrebbe preservata nel caricamento distruttivo. Molti filosofi che hanno studiato il problema pensano che, almeno in alcune condizioni, un upload del tuo cervello saresti tu. Una posizione ampiamente accettata è che si sopravvive finché si conservano certi modelli di informazione, come i ricordi, i valori, gli atteggiamenti e le disposizioni emotive, e finché c’è continuità causale, in modo che le fasi iniziali di se stessi contribuiscano a determinare le fasi successive di se stessi. Le opinioni divergono sull’importanza relativa di questi due criteri, ma possono essere entrambe soddisfatte nel caso di caricamento. Per la continuazione della personalità, da questo punto di vista, poco importa se si è implementati su un chip di silicio all’interno di un computer o in quel grumo grigio all’interno del cranio, supponendo che entrambe le implementazioni siano coscienti.

I casi difficili si presentano, tuttavia, se immaginiamo che diverse copie simili siano fatte della vostra mente caricata. Quale di queste è lei? Sono tutti te o nessuno di loro è te? Chi è il proprietario della vostra proprietà? Chi è sposato con il vostro coniuge? Le sfide filosofiche, legali ed etiche abbondano. Forse queste diventeranno questioni politiche molto dibattute nel corso di questo secolo.
 Un malinteso comune riguardo agli upload è che sarebbero necessariamente “disincarnate” e che ciò significherebbe che le loro esperienze si impoverirebbero. Il caricamento secondo questo punto di vista sarebbe l’evasione definitiva, quella che solo i nevrotici che si sentono tentati da un corpo-piumino nevrotico. Ma l’esperienza di un upload potrebbe in linea di principio essere identica a quella di un umano biologico. Un upload potrebbe avere un corpo virtuale (simulato) che dà le stesse sensazioni e le stesse possibilità di interazione di un corpo non simulato. Con la realtà virtuale avanzata, gli upload potrebbero godere di cibo e bevande, e il sesso in upload potrebbe essere gloriosamente disordinato come si potrebbe desiderare. E gli upload non dovrebbero limitarsi alla realtà virtuale: potrebbero interagire con le persone all’esterno e persino noleggiare corpi robotici per lavorare o esplorare la realtà fisica.

Le inclinazioni personali per quanto riguarda l’upload sono diverse. Molti transumanisti hanno un atteggiamento pragmatico: il fatto che vogliano o meno caricare o meno dipende dalle precise condizioni in cui vivrebbero come upload e da quali siano le alternative. (Alcuni transumanisti potrebbero anche dubitare della possibilità di effettuare l’upload):
 Gli upload non sarebbero soggetti a senescenza biologica.

Si potrebbero creare regolarmente copie di backup degli upload, in modo da poter essere riavviati in caso di problemi. (Così la vostra vita sarebbe potenzialmente lunga quanto quella dell’universo).
 Potenzialmente potresti vivere molto più economicamente come upload, poiché non avresti bisogno di cibo fisico, alloggio, trasporto, ecc.
 Se si corre su un computer veloce, si potrebbe pensare più velocemente che in un’implementazione biologica. Per esempio, se si corre su un computer mille volte più potente di un cervello umano, allora si penserebbe mille volte più velocemente (e il mondo esterno ti sembrerebbe rallentato di un fattore mille). In questo modo si arriva a sperimentare un tempo più soggettivo, e a vivere di più, in un giorno qualsiasi.
 Si potrebbe viaggiare alla velocità della luce come un modello di informazione, che potrebbe essere conveniente in una futura era di insediamenti spaziali su larga scala.
 I miglioramenti cognitivi radicali sarebbero probabilmente più facili da implementare in un upload che in un cervello organico.

Un paio di altri punti sull’upload:
 Il caricamento dovrebbe funzionare per i pazienti crionici, a condizione che il loro cervello sia conservato in uno stato sufficientemente intatto.
 I caricamenti potrebbero riprodursi estremamente rapidamente (semplicemente facendo copie di se stessi). Ciò implica che le risorse potrebbero diventare molto rapidamente scarse a meno che la riproduzione non sia regolata.

Cos’è la singolarità?
 Alcuni pensatori ipotizzano che ci sarà un momento nel futuro in cui il ritmo dello sviluppo tecnologico diventerà così rapido che la curva di avanzamento diventerà quasi verticale. In un tempo molto breve (mesi, giorni, o anche solo ore), il mondo potrebbe trasformarsi quasi senza riconoscimento. Questo ipotetico punto viene definito come la singolarità. La causa più probabile di una singolarità sarebbe la creazione di una qualche forma di intelligenza superiore a quella umana che si auto-alimenta rapidamente.

Il concetto di singolarità è spesso associato a Vernor Vinge, che lo considera uno degli scenari più probabili per il futuro. (Inchimazioni precedenti della stessa idea si possono trovare ad esempio in John von Neumann, come parafrasato da Ulam 1958, e in I. J. Good 1965). A condizione che si riesca ad evitare di distruggere la civiltà, Vinge pensa che una singolarità possa verificarsi come conseguenza dei progressi dell’intelligenza artificiale, dei grandi sistemi di computer in rete, dell’integrazione computer-uomo, o di qualche altra forma di amplificazione dell’intelligenza. In questo scenario, l’amplificazione dell’intelligenza porterà, a un certo punto, a un ciclo di feedback positivo: i sistemi più intelligenti possono progettare sistemi ancora più intelligenti, e possono farlo più rapidamente dei progettisti umani originali.

Questo effetto di feedback positivo sarebbe abbastanza potente da provocare un’esplosione di intelligenza che potrebbe portare rapidamente alla nascita di un sistema superintelligente di capacità superiori.
 L’ipotesi della singolarità è talvolta accoppiata con l’affermazione che è impossibile per noi prevedere ciò che viene dopo la singolarità. Una società post-singolarità potrebbe essere così aliena che non possiamo saperne nulla. Un’eccezione potrebbe essere rappresentata dalle leggi fondamentali della fisica, ma anche lì si suggerisce a volte che ci possano essere leggi sconosciute (per esempio, non abbiamo ancora una teoria della gravità quantistica accettata) o conseguenze mal comprese di leggi conosciute che potrebbero essere sfruttate per permettere cose che normalmente penseremmo fisicamente impossibili, come la creazione di wormhole attraversabili, la creazione di nuovi universi “sotterranei” o il viaggio a ritroso nel tempo.

Tuttavia, l’imprevedibilità è logicamente distinta dalla repentinità dello sviluppo e dovrebbe essere argomentata separatamente.
 I transumanisti differiscono molto nella probabilità che assegnano allo scenario di Vinge. Quasi tutti coloro che pensano che ci sarà una singolarità credono che accadrà in questo secolo, e molti pensano che sia probabile che accada entro diversi decenni.
 Riferimenti:
 
I. J. Good, “Speculations Concerning the First Ultraintelligent Machine”, in Advances in Computers Vol. 6, ed. Franz L. Alt e Morris Rubinoff (Academic Press, 1965), 31–88
 Vernor Vinge, “The Coming Technological Singularity”, numero invernale di Whole Earth Review (1993)
 Stanislaw Ulam, “Tributo a John von Neumann”, Bollettino della Società Matematica Americana Vol. 64, Nr. 3, Parte II, 1–49 (1958)

CONTINUA — — — — — — — —

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *