Libros: “La catedral de Turing. Los orígenes del universo digital” (George Dyson)

Publicado: 20/03/2017 en IA, libros
Etiquetas:, , , , , , , , ,

Maravilloso libro sobre los orígenes (y las implicaciones presentes y futuras) de la computación.

“Es posible inventar una sola máquina que pueda utilizarse para computar cualquier secuencia computable”, anunció en 1936 un joven Alan Turing de veinticuatro años.

El libro es un ‘must read’ desde el principio hasta el final con referencias biográficas y referencias científicas sobre gente como NILS AALL BARRICELLI (1912-1993): matemático, biólogo y especialista en genética viral italo-noruego; JULIAN HIMELY BIGELOW (1913-2003): ingeniero electrónico estadounidense y cofundador en 1943, junto con Norbert Wiener, del Grupo de Cibernética; ingeniero jefe del Proyecto de Computador Electrónico (ECP, por sus siglas en inglés) del IAS, 1946-1951; FREEMAN J. DYSON (n. 1923): físico y matemático anglo-estadounidense; llegó al IAS con una beca de investigación de la Commonwealth en septiembre de 1948 (padre del autor); JOHN PRESPER ECKERT (1919-1995): ingeniero electrónico estadounidense, desarrollador del ENIAC y cofundador, junto con John Mauchly, de la Electronic Control Company, fabricante del BINAC y el UNIVAC.; RICHARD P. FEYNMAN (1918-1988): físico estadounidense y miembro del grupo de computación de Los Alamos durante la guerra.; KURT GÖDEL (1906-1978): lógico austríaco de origen moravo; llegó al IAS en 1933.; IRVING JOHN (JACK) GOOD (nacido como Isidore Jacob Gudak, 1916-2009): estadístico anglo-estadounidense especializado en estadística bayesiana, pionero de la inteligencia artificial, criptógrafo y ayudante de Alan Turing en el desciframiento de códigos por parte de los británicos durante la Segunda Guerra Mundial.; BENOIT MANDELBROT (1924-2010): matemático franco-estadounidense de origen polaco; invitado por Von Neumann al IAS en 1953 para estudiar las distribuciones de frecuencia de las palabras.; NICHOLAS CONSTANTINE METRÓPOLIS (1915-1999): matemático e informático greco-estadounidense, uno de los primeros impulsores del método de Montecarlo y jefe del grupo de computación de Los Álamos.; BERNETTA MILLER (1884-1972): pionera de la aviación; auxiliar administrativa en el IAS en 1941-1948.; OSKAR MORGENSTERN (1902-1977): economista austríaco-estadounidense, coautor, junto con John von Neumann, de Theory of Qames and Economic Behavior (1944).; J. ROBERT OPPENHEIMER (1904-1967): físico, director del Laboratorio Nacional de Los Álamos durante la Segunda Guerra Mundial y director del IAS en 1947-1966.; JAN RAJCHMAN (1911-1989): ingeniero electrónico polaco-estadounidense; inventor del almacenamiento de matriz de resistencias y del tubo de memoria Selectrón de la RCA.; HEDVIG (HEDÍ; de soltera LIEBERMANN) SELBERG (1919-1995): profesora de matemáticas y física de origen transilvano; esposa de Atle Selberg, colaboradora de Martin Schwarzschild y principal codificadora del ECP del IAS.; CLAUDE ELWOOD SHANNON (1916-2001): matemático e ingeniero electrotécnico estadounidense, pionero de la teoría de la información; miembro visitante del IAS (1940-1941) y colaborador de Norbert Wiener, John von Neumann y Alan Turing.; EDWARD TELLER (1908-2003): físico húngaro-estadounidense y principal defensor de la bomba de hidrógeno (o «superbomba»).; ALAN MATHISON TURING (1912-1954): lógico y criptógrafo británico; autor de «On Computable Numbers» («Sobre números computables», 1936).; STANISLAW MARCIN ULAM (1909-1984): matemático polaco-estadounidense y protegido de John von Neumann.; OSWALD VEBLEN (1880-1960): matemático estadounidense, sobrino de Thorstein Veblen y primer profesor del IAS desde 1932.; JOHN VON NEUMANN (nacido como Neumann János, 1903-1957): matemático húngaro-estadounidense; cuarto profesor del IAS desde 1933; fundador del ECP del IAS.; NORBERT WIENER (1894-1964): matemático estadounidense; cofundador, junto con Julian Bigelow y John von Neumann, del Grupo de Cibernética.; … y otras.

Algunas notas ‘parciales’.


GÖDEL (una de mis ‘fijaciones personales) Y TURING

“El panorama matemático de comienzos del siglo XX estaba dominado desde Gotinga por David Hilbert, que creía que, a partir de un conjunto de axiomas estrictamente limitado, se podía llegar a todas las verdades matemáticas por una secuencia de pasos lógicos bien definidos. El reto de Hilbert, que Von Neumann aceptó, llevaría directamente tanto a los resultados de Kurt Gódel sobre la incompletitud de los sistemas formales en 1931 como a los de Alan Turing sobre la existencia de funciones no computables (y de la computación universal) en 1936. Von Neumann preparó el camino para estas dos revoluciones, pero no atinó a dar los pasos decisivos por sí mismo.

Gódel demostró que, dentro de cualquier sistema formal lo suficientemente potente como para incluir la aritmética corriente, siempre habrá enunciados «indecidibles» de los que no se puede demostrar su verdad, pero tampoco su falsedad. Turing demostró que, dentro de cualquier sistema formal (o mecánico), no solo hay funciones de las que se puede dar una descripción finita pero que no pueden ser computadas por ninguna máquina finita en una cantidad de tiempo finita, sino que además no hay ningún método definido para distinguir las funciones computables de las no computables por adelantado. Esa es la mala noticia. La buena es que, como sugería Leibniz, y como demuestra el éxito práctico de la computación digital, parece que vivimos en el mejor de todos los mundos posibles, donde las funciones computables hacen la vida lo bastante predecible como para poder sobrevivir, mientras que las no computables hacen la vida (y la verdad matemática) lo bastante impredecible como para seguir siendo interesante por muchos caballos de fuerza computacional de los que disponga el frente de Hilbert.”

[…]

Gódel y Turing ponían fin al programa de Hilbert mientras la purga hitleriana de las universidades alemanas ponía fin a la posición de Gotinga como centro del mundo matemático. Eso dejó un vacío que llenarían la Cambridge de Turing y la Princeton de Von Neumann.
BARRICELLI.

“Barricelli formuló la clasificación, más general, de simbioorganismo, definido como cualquier «estructura autorreproductora construida por la asociación simbiótica de varias entidades autorreproductoras de cualquier clase». Esta definición era lo bastante amplia como para incluir organismos tanto bioquímicos como digitales, sin empantanarse en la cuestión de si estaban (o estarían alguna vez) «vivos».

La evolución de los organismos digitales se producía en menos tiempo que el que se tarda en describirla. «Incluso en la limitadísima memoria de un computador de alta velocidad pueden surgir por azar, en unos segundos, un gran número de simbioorganismos —informaba Barricelli—. Es solo cuestión de minutos que todos los biofenómenos descritos puedan ser observados.» Los primitivos organismos numéricos pronto quedaban atascados en máximos locales a los que resultaba «imposible cambiarles un solo gen sin obtener organismos más débiles», lo cual interrumpía la evolución. Dado que «solo los reemplazos de al menos dos genes pueden conducir de un relativo máximo de aptitud a otro organismo con mayor vitalidad», resultaba evidente que, aun en los universos más simples, era el cruzamiento de secuencias genéticas, y no las mutaciones arbitrarias en posiciones aisladas, lo que constituía el modo de avanzar.

Si queremos obtener información sobre la fase precelular de la evolución biológica, probablemente la mejor forma de hacerlo sea tratar de identificar virus que nunca han formado parte del material genético de una célula

Entre sus dudas sobre la evolución darwiniana y sus dudas sobre la prueba de Gódel, Barricelli logró ofender tanto a los biólogos como a los matemáticos

[…]

Barricelli veía la inteligencia natural y la artificial como fenómenos colectivos, mientras que tanto la evolución biológica como la numérica constituían «un potente mecanismo de inteligencia (o cerebro genético) que, en muchos aspectos, puede ser comparable o superior al cerebro humano en lo que atañe a la capacidad de resolver problemas». Establecía un paralelismo entre la evolución del código informático y la de las secuencias genéticas, con el desarrollo de lenguajes interpretativos que conducen a un proceso que se vuelve más inteligente y complejo. «Si hay o no formas de comunicarse con los cerebros genéticos de los diferentes simbioorganismos, por ejemplo, utilizando su propio lenguaje genético, es una cuestión a la que solo el futuro podrá responder», afirmó.

[…]

El advenimiento de la comunicación de secuencias genéticas mediada por ordenador constituye una violación de la doctrina neodarwiniana ortodoxa, que afirma que la información genética se adquiere por herencia de los propios antepasados, y por ningún otro medio. Sin embargo, la transferencia genética horizontal ha sido durante mucho tiempo el procedimiento habitual para la vida terrestre. Los virus insertan constantemente secuencias de ADN extrañas en sus anfitriones. A pesar de los evidentes peligros que ello entraña, la mayoría de las células han conservado la capacidad de leer secuencias genéticas transferidas desde fuera de ellas, una vulnerabilidad que es explotada por virus malévolos. ¿Por qué mantener, entonces, una capacidad que tiene tales costes?

Una razón para ello es la de facilitar la adquisición de nuevos genes útiles que, de lo contrario, seguirían siendo propiedad exclusiva de otros. «El poder de la transferencia genética horizontal es tan grande que constituye un verdadero rompecabezas entender por qué el mundo eucariótico habría de volver la espalda a tan maravillosa fuente de novedad e innovación genética —explicaron Cari Woese y Nigel Goldenfeld, de la Universidad de Illinois, sesenta años después de las conferencias pronunciadas en 1949 por Von Neumann sobre autorreproducción—. La apasionante respuesta, que aflora a través de décadas de prejuicio dogmático, es que no lo ha hecho. Hoy está fehacientemente documentada la transferencia genética horizontal en eucariotas, no solo en plantas, protistas y hongos, sino también en animales (incluidos mamíferos).»

[…]

La transferencia genética horizontal fue explotada tanto por los patógenos farmacorresistentes —«Declaramos la guerra a los microbios y la perdimos», añadió Goldenfeld— como por los ingenieros genéticos. Pero ¿quién explota a quién? El motor que impulsa la revolución genómica es nuestra capacidad de almacenar, replicar y manipular información genética fuera de la célula. La biología ha estado haciendo eso mismo desde el principio. La vida ha evolucionado, hasta ahora, haciendo uso de la nube viral como fuente de copias de seguridad y una vía para intercambiar rápidamente código genético. Puede que la vida esté mejor adaptada al universo digital de lo que creemos. «Las pautas culturales son en cierto sentido una solución al problema de tener una forma de herencia que no requiera matar a individuos para evolucionar», observó Barricelli en 1966. Ya hemos externalizado gran parte de nuestra herencia cultural en internet, y estamos externalizando también nuestra herencia genética. «La supervivencia de los más aptos es un método lento para evaluar ventajas —sostenía Turing en 1950—. El experimentador, mediante el ejercicio de su inteligencia, debería ser capaz de acelerarlo.»

Recientemente, el inquieto genetista George Church anunció, en relación con el éxito de la biotecnología en el laboratorio: «Podemos programar esas células como si fueran una extensión del ordenador»; a lo que la vida, con tres mil millones de años de éxito en el hábitat natural, podría responder: «Podemos programar esos ordenadores como si fueran una extensión de la célula».

LA CATEDRALDE TURING.

El universo digital debe sus comienzos a los profetas del Antiguo Testamento (encabezados por Leibniz), que proporcionaron la lógica, y a los profetas del Nuevo Testamento (encabezados por Von Neumann), que construyeron las máquinas. Alan Turing surgió en medio de unos y otros.

[…]

la máquina de Turing encarna la relación entre una matriz de símbolos en el espacio y una secuencia de acontecimientos en el tiempo. Se ha eliminado todo rastro de inteligencia.

[…]

«Sobre números computables» (en lugar de «Sobre funciones computables») señalaba un cambio fundamental. Antes de Turing se hacían cosas con números; después de él, los números empezaron a hacer cosas. Al demostrar que una máquina se podía codificar como un número, y que un número se podía decodificar como una máquina, «Sobre números computables» desembocaba en unos números que resultaban «computables» de una forma enteramente nueva.

[…]

El enfoque de Turing en materia de inteligencia mecánica estaba tan libre de trabas como su enfoque acerca de los números computables diez años antes. Una vez más, partía del punto donde se había quedado Gódel. ¿Limitaba la incompletud de los sistemas formales las capacidades de los computadores para duplicar la inteligencia y la creatividad de la mente humana? Turing resumía la esencia (y la debilidad) de este intrincado argumento en 1947, afirmando que «en otras palabras, pues, si se espera que una máquina sea infalible, entonces no puede ser también inteligente». En lugar de tratar de construir máquinas infalibles, deberíamos desarrollar máquinas falibles capaces de aprender de sus errores.

[…]

«Lo que queremos es una máquina capaz de aprender de la experiencia —escribía Turing—. La posibilidad de dejar que la máquina altere sus propias instrucciones proporciona el mecanismo para ello.»

Lyn Newman recordaba largas discusiones entre Max Newman y Turing en torno a cómo construir máquinas que modificaran su propia programación y aprendieran de sus errores. «Cuando oí a Alan decir lo siguiente acerca de las nuevas posibilidades: “Lo que ocurrirá en esa etapa es que no entenderemos cómo lo hace, habremos perdido la pista”, realmente me pareció una perspectiva de lo más inquietante»

[…]

Hace sesenta y tantos años, los organismos bioquímicos empezaron a montar ordenadores digitales. Hoy los ordenadores digitales empiezan a montar organismos bioquímicos. Visto con cierta perspectiva, esto parece formar parte de un ciclo vital. Pero ¿qué parte? ¿Son los organismos bioquímicos la fase embrionaria de los ordenadores digitales? ¿O son los ordenadores digitales la fase embrionaria de los organismos bioquímicos?

[…] la vida extraterrestre podría estar aquí ya… ¿y por qué tendríamos forzosamente que saberlo? Si hay vida en el universo, la forma de vida que resulte tener más éxito a la hora de propagarse será la vida digital; esta adoptará una forma que será independiente de la química local, y emigrará de un lugar a otro como una señal electromagnética mientras haya un mundo digital —una civilización que haya descubierto la máquina universal de Turing— que colonizar cuando llegue. Y fue por eso por lo que ustedes, Von Neumann y los demás marcianos, nos hicieron construir todos estos ordenadores: a fin de crear un hogar para esa clase de vida. (G. Dyson)

(EL MÉTODO MONTECRALO)

El método de Montecarlo fue invocado como un medio de emplear instrumentos estadísticos probabilísticos para identificar soluciones aproximadas a problemas físicos resistentes al enfoque analítico.

Dado que los fenómenos físicos subyacentes en realidad son estadísticos y probabilísticos, la aproximación de Montecarlo a menudo suele estar más cerca de la realidad que las soluciones analíticas que inicialmente se requirió que Montecarlo abordara. El direccionamiento basado en patrones y la codificación por frecuencia de impulsos resultan parecidamente cercanos al modo en que funciona en verdad el mundo, y, como Montecarlo, darán un mayor rendimiento que los métodos que requieran que las referencias direccionales o las secuencias de instrucciones sean exactas. El poder del código genético, que tanto Barricelli como Von Neumann supieron reconocer de inmediato, radica en su ambigüedad: transcripción exacta, pero expresión redundante. Ahí reside el futuro del código digital.

Google trató de calibrar lo que la gente pensaba, y se convirtió en lo que pensaba la gente. Facebook trató de cartografiar el grafo social, y se convirtió en el propio grafo social. Los algoritmos desarrollados para simular las fluctuaciones de los mercados financieros se hicieron con el control de dichos mercados, dejando atrás a los operadores humanos.

¿Y qué hay de la pregunta de Von Neumann acerca de si las máquinas empezarían a reproducirse? Hemos dado a los ordenadores digitales la capacidad de modificar sus propias instrucciones codificadas, y ahora están empezando a ejercer la capacidad de modificar las nuestras. ¿Estamos utilizando los ordenadores digitales para secuenciar, almacenar y replicar mejor nuestro propio código genético, optimizando así a los seres humanos, o bien los ordenadores digitales están optimizando nuestro código genético —y nuestra forma de pensar— de modo que podamos ayudarlos mejor a replicarse? ¿Y si el precio de las máquinas pensantes fueran personas ya incapaces de pensar sin máquinas? ¿Y si el precio de las máquinas capaces de reproducirse fuera el sustento de quienes ya no fueran necesarios para reproducir máquinas?

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s