Inteligencia Artificial (IA): notas

Publicado: 08/06/2009 en IA
Etiquetas:, ,

A partir de la lectura del libro “El robot enamorado. Una historia de la Inteligencia Artificial“, de Felix Ares, me decido a pasar a limpio algunas notas sobre la Inteligencia Artificial (IA).

Intro: IA e inteligencia en el ser humano.

Si nuestro cerebro tiene un sistema para una tarea (hablar, andar, …) esa tarea nos parece fácil. Si tiene ese sistema (por ejemplo para resolver ecuaciones diferenciales) esa tarea nos parece dificil y un signo de inteligencia.

Tecnología e inteligencia han coevolucionado. “La tecnología nos hace humanos” (Eduald Carbonell, codirector Atapuerca)

Lo que nos diferencia de otras inteligencias no es la capacidad de crear herramientas (los monos y otros seres vivos tb lo hacen), sino la capacidad de crear herramientas para crear herramientas, lo que implica un alto nivel de abstracción, visualización espacial, modelización, y proceso.

La cultura modifica los genes, pero por mecanismos de selección natural, no por mecanismos lamarckianos.

La IA imita la inteligencia del ser humano.

Inteligencia: Es la capacidad de relacionar conocimientos que poseemos para resolver una determinada situación. Varios tipos:

  • Lógico-matemática.
  • Lingüístico-verbal.
  • Viso-Espacial.
  • Corporal-cinética
  • Musical.
  • Interpersonal.
  • Naturalista.

Los padres de la IA:

Dos grandes escuelas:

  • Redes Neuronales Artificiales (RNA): conexionistas -> Newell, Simon,
  • IA simbólica: enfoque más general basado en el manejo de ‘símbolos’: McCarthy, Minsky

En paralelo a esas dos corrientes, se desarrolla la ‘cibernética

IAG: Inteligencia Artificial General: General: que tenga cierta capacidad de generalizar. El problema del desarrollo de la IA es que se ha conseguido desarrollar programas que resuelven muy bien problemas (tareas) concretos pero son incapaces de generalizar (carecen de ‘sentido común’)

Críticas a la IAG:

Sin emociones no hay inteligencia; sin cuerpo no hay emociones. Las emociones son ‘atajos’ para tomar decisiones rápidas que produzcan resultados correctos la mayor parte de las veces. (La IA puede incoporar varios nives: por ej. si se calienta una parte del sistema, se puede paralizar esa parte para después evaluar con calma y corregir la acción/decisión tomada, -volver a conectar y poner en práctica otras acciones que reduzcan o eliminen el calentamiento)

El cuerpo incorpora millones de sensores que retroalimentan constantemente (en tiempo real) las decisiones del cerebro. Una IA no necesita tantos sensores y además se pueden reparar.

La inteligencia ‘emerge’ de las interacciones cuánticas (Penrose). No hay indicios de que eso sea así. Para algunos autores no deja de ser una ‘ocurrencia’ de Penrose.

Inteligencia computacional (IC) o Soft Computing: Rama de la IA que consiste en el estudio de mecanismos adaptativos para permitir o facilitar el comportamiento inteligente de sistemas complejos y cambiantes.

La IC se basa en la utilización de heurísticas y computación para resolver problemas. Mientras que la IA ‘convencional’ (cuyas áreas clave son el razonamiento basado en casos, las redes bayesianas y los sistemas expertos) adopta un enfoque ‘de arriba abajo’ en el que la estructura de las soluciones está impuesta desde arriba, en la IC el enfoque es de ‘abajo arriba’, donde las soluciones ‘emergen’ desde un estado inicial sin estructurar.

Líneas de investigación y desarrollo:

Programación evolutiva (genética):

  • Normalmente se consigue una buena solución (que funciona bien) pero no la mejor solución.
  • Los fundamentos básicos de la programación evolutiva los puso John Holland en un libro escrito en 1962: “Algoritmos adaptativos”[*]

Redes neuronales:

  • Aprenden de la experiencia.
  • Son tolerantes a la pérdida de neuronas.
  • El conocimiento no se encuentra en un sitio concreto de la red, sino que se encuentra ‘difuso’ en la red neuronal. (Newell y Simon)

Redes neuronales artificiales (RNAs):

  • Redes superpuestas en varios niveles jerarquizados.
  • Es necesario ‘educar’ (entrenar) a las redes para que ‘aprendan’ (reconocimiento voz, etc.)
  • Auto organización: Una RNA crea su propia representación de la información en su interior, descargando al usuario de esto.
  • Tolerancia a fallos: Debido a que una RNA almacena la información de forma redundante, ésta puede seguir respondiendo de manera aceptable aun si se daña parcialmente.
  • Redes superpuestas en varios niveles jerarquizados.
  • Flexibilidad: Una RNA puede manejar cambios no importantes en la información de entrada, como señales con ruido u otros cambios en la entrada (ej. si la información de entrada es la imagen de un objeto, la respuesta correspondiente no sufre cambios si la imagen cambia un poco su brillo o el objeto cambia ligeramente)
  • Tiempo real: La estructura de una RNA es paralela, por lo cuál si esto es implementado con computadoras o en dispositivos electrónicos especiales, se pueden obtener respuestas en tiempo real.

Sistemas expertos: Un sistema experto es un programa que tiene almacenadas las reglas de lo que hace el experto humano. Se compone de dos ‘módulos’ separados:

  • Un motor de inferencia (análisis)
  • Una o más Base de Conocimientos.

Se utilizan ampliamente como ‘sistemas de apoyo’ en medicina.

Los sistemas expertos se encuadran en la IA simbólica.

Sistemas distribuidos: Sistemas en los que los componentes de hardware y/o software localizados en computadoras en red se comunican y coordinan sus acciones intercambiando mensajes (George Coulouris). Internet y la WWW son sistemas distribuidos.

IA distribuida: Estudia métodos y técnicas para la resolución de problemas mediante la cooperación de diversas entidades distribuidas, autónomas e inteligentes. La colaboración de unas entidades con otras produce comportamientos colectivos que resuleven problemas que si se abordan individualmente resultan irresolubles, o que proporcionan soluciones eficaces en cuanto a tiempo, velocidad o calidad. (las hormigas son un referente biológico -natural- de la inteligencia distribuida)

Agentes de Software: Un agente de software es una entidad autónoma (de software) que puede interactuar con su entorno. (Su antecedente son los ‘actores concurrentes’ propuestos por Carl Hewitt). Ver también: “Los agentes inteligentes entenderán el contenido de la web“, de Karma Peiró.

Sistemas multiagente: Sistemas en los que un conjunto de agentes cooperan, se coordinan y se comunican para conseguir un objetivo común. No es imprescindible que los agentes distribuidos sean ‘inteligentes’, la propia inteligencia puede obtenerse del conjunto, de la cooperación de ‘agentes tontos’.

Referentes: ‘inteligencia social’ o distribuida. Según algunos neurólogos, ‘la inteligencia es un subproducto de la relación social’. (E. Punset). Sociobiología.

Posible evolución de la IA.

Desde la perspectiva pesimista se argumenta que en tanto que la IA imita la inteligencia humana (biológica) será necesario avanzar en las neurociencias para que podamos conocer más y mejor el funcionamiento del cerebro (que se pretende imitar). Esa perspectiva puede actuar como la profecía que se cumple a sí misma: como no se cree posible no se investiga.

Sin embargo el argumento es debil: los humanos empezamos a volar mucho antes de entender siquiera como lo hacían las aves. Por el contrario, no se entendió correctamente la dinámica del vuelo en las aves hasta que no se avanzó en la aviación.

Perspectiva optimista: La IA es un proceso acumulativo que crece muy lentamente hasta llegar a un punto de inflexión a partir del cual el desarrollo es exponencial. La IA se alcanzará antes de 50 años.
¿Cómo será la IA?

  • En informática, ‘la descripción funcional’ en un lenguaje de altísimo nivel, ‘puede ser la función’.
  • Lógica difusa. (Bloques, sub-bloques, funciones, …)
  • Sistemas distribuidos (IA distribuida: Agentes de Software, Sistemas multiagente, solución dsitribuida de problemas, computación paralela, …)
  • Inteligencia de enjambres (swarm intelligence)

Algunas referencias:

Algunos blogs:

Y una cita:
“La palabra máquina nos invita a pensar en algo puramente mecánico, determinista. Pero la evolución artificial de las máquinas podría repetir en incluso superar lo que la evolución natural he hecho con la vida orgánica”. (Carlo Frabetti. http://blogs.publico.es/ciencias/296/maquinas-y-almas/)

ActualizaciónTimelines acerca del futuro de las Inteligencias Sintéticas
Published by Piscitelli on mayo 6, 2016:

 

 

 

Anuncios
comentarios
  1. txema laullon dice:

    Timelines acerca del futuro de las Inteligencias Sintéticas. (Alejandro Gustavo Piscitelli, mayo 6, 2016)

    Hay innumerables predicciones de lo que se viene (o vendría), los futuristas abundan, las promesas son infinitas, enormes instituciones desde la Rand Corporation hasta el Stanford Research International, o la propia compañia Shell creadora de la metodogía de los escenarios, se dedican a estos menesteres desde hace ya mas de medio siglo. Y en sus menúes incluyen el día en que los robots inteligentes pueblen la tierra. Sin embargo el momento del advenimiento de las Inteligencias Sintéticas siempre se corre hacia la derecha, a 30 o 50 años vista. Y cada vez que llegamos allí empezamos a contar de nuevo.

    ¿Se mantendrá indefinidamente esta carrera del gato contra el ratón?, ¿de la expectativa contra la amenaza>; ¿del deseo contra la realidad?

    Quizás si, quizás no. De advenir las inteligencias sintéticas serán como un ET intraterrestre. Todo podría pasar si el contacto se produjera. Desde lo sublime a lo trágico, desde una simbiosis que llevaría a sapiens hasta un nuevo plateau evolutivo, o directamente al preludio de la exterminación de la raza humana tal como la hemos conocido en los últimos 200.000 años.

    Mientras, oteando estos gráficos (y su fundamentación en las notas de las que han sido tomados, quizás podamos avanzar un milímetro mas en entender que la problemática de las IA es -como vimos en la sesión de trabajo de ayer en Dipolos Maguen – un Dipolo (temas, problemas o situaciones donde quienes piensan las antinomias en un extremo, tienen tanta razón como sus oponentes en el otro- de los mas complejos e inasibles que existen.

    Donde lo que abundan y no hacen falta son las opiniones “pop” sesgadas; donde las predicciones estallan y se convierten en pompas de jabón, donde lo que verdaderamente importa emerge donde allí nadie lo espera y con las consecuencias mas imprevisibles.

    Management & Technology Trends for IT Executives

    Desde hace mucho tiempo Gartner Group nos regala sus gráficos de las hiperexpectativas (Hype cycles) acerca de las tecnologías exponenciales y los aterrizajes forzosos que la realidad corporativa política y sobretodo humana les opone. Pero ver donde estábamos parados en hace apenas 1 año atrás nos dice mucho acerca de las promesas incumplidas pero también de las sorpresas no menos llamativas que ocurren en tiempos cada vez mas cortos.

    Science fact and science fiction: a timeline of AI

    Hace rato que el Test de Turing le saca chispas a las ovejas eléctricas de Philip Dick, cotejar lo que los robots pueden hacer hoy con lo que la ciencia-ficcion nos promete desde hace décadas, revela mucho acerca de la potencia de la fantasía humana, y de los anhelos de la ingeniería por complacerla.

    Artificial Intelligence Timeline

    Sin historia no hay futuro. Antes de engolosinarnos con las promesas de la s tecnologías emergentes tenemos que conocer mucho mas en detalle la historia de la IA, sus inviernos cíclicos y sus primaveras esplendorosas como las que estamos viviendo hoy con el machine learning. Que avanzó un montón pero esta aun muy lejos de lo que cultores como Pedro Domingos suponen al postula un master algorithm.

    Future human evolution

    El camino que lleva a las superinteligencias se dice de miles de modos distintos. la biología, la hipótesis Gaia, la conectómica; la Gran Singularidad tienen mucho que opinar, pero sobretodo hacer e intervenir para que esto se logre antes que después, si es que finalmente s elogia y si ello no termina con la raza humana.

    The AI Revolution: The Road to Superintelligence

    null

    Timelinefinal

    Como en el famosos acertijo del ajedrez las innovaciones epocales se producen a través de pequeños incrementos hasta que de pronto el mundo es otro, antes y después. No lo olvidemos cuando creemos que todo ocurrirá en su emdia y armoniosamente.
    AI timeline predictions: are we getting better?

    Los expertos concuerdan y masivamente coinciden en que en menos de 50 años vista ocurrirá el momento que Kurzweill, tanto y para el cual se procura denodadamente en forma personal ingiriendo píldoras y antioxidantes, anhela y que muchos otro temen para acelerara la creación de una mente superhumana. Tanta coincidencia sorprende y preocupa. ¿O no?

    The future of emerging technologies

    Por ultimo siempre situemos al futuro de la IA dentro de una ecología mas amplia. Casi seguro las hipótesis de David Gelertner y Gary Marcus son las mas convincentes dentro de una dirección tercerista. Las redes neuronales de 3 capas están a años luz de simular nuestra inteligencia. Sin cuerpo no habra superinteligencias (porque las que a nosotros nos interesan siempre vienen envaradas) y lo que hace falta en IA mas que en ningún otro lado es la psicología cognitiva. Es mas que probable que a partir de la IA podamos diseñar modelos de como funciona nuestro cerebro, que desde lo poco que sabemos de las neurociencias humanas podamos diseñar superinteligencias sintéticas como muchas veces se alega un tanto irresponsablemente por allí.

  2. txema dice:

    Una prueba de Turing para el futuro. Alfonso Araujo. (Sobre la conciencia en IAs)
    http://naukas.com/2017/09/26/una-prueba-turing-futuro/

    “La vida y la muerte no son tan importantes como crees. La conciencia es realmente el acertijo.” John Varley, Demon (1984)

    Javier Peláez, nuestro jefazo aquí en Naukas, se preguntaba hace un par de meses cuándo llegará el fatídico día que llegará y no será pronto ni tarde, en que seamos reemplazados por robots en nuestros trabajos. Porque ya sabemos que de ahí a que las máquinas se rebelen y nos esclavicen hay sólo un paso más.

    Por supuesto, Javier matiza: los estudios indican que ese día no es un día, sino un periodo largo de tiempo (unos 50 años) en el que los robots irán tomando cada vez más trabajos, avanzando por temas y por regiones geográficas. Hay quienes estiman que con la tecnología actual, alrededor del 50% de todos los trabajos de manufactura y logística ya podrían de hecho ser tomados por las máquinas. En este tema, desde el año pasado se ha hecho viral una discusión —con empresarios importantes como Elon Musk y Marc Cuban a favor y en contra— acerca de la necesidad futura de un Salario Básico Universal para afrontar ese futuro automatizado. Este tipo de discusión (¡salario para robots!) realmente ya nos hace sentir “en el futuro”, pero nuestros visionarios de mediados del s. XX ya se preocupaban por estos temas: Asimov en los 40s planteaba escenarios parecidos, y en los 60s el filósofo Alan Watts vaticinaba específicamente la necesidad del Salario Básico Universal.

    Hasta aquí, hablamos de actividades físicas tradicionales; pero en realidad los estudios dicen que en unas décadas, también un montón de trabajos más “humanos” —que implican toma de decisiones— serán asignados a inteligencias artificiales (IA). Aquí es en donde empieza a ponerse interesante el asunto. Javier está en buena compañía, pues gente como Bill Gates y Stephen Hawking también están preocupados por el ascenso de la IA; aunque en ellos las preocupaciones van en buena medida por el lado de la extensión de sus aplicaciones en lo militar.

    En este punto, vamos a tomar una pausa para esquematizar, porque hay un montón de preocupaciones diferentes. Existe la preocupación:

    De ser sustituidos por máquinas físicamente más capaces. Esto ya sucede.
    De ser sustituidos por máquinas “intelectualmente” más capaces. Esto ya pasa en muchos casos y va a seguir avanzando.
    De que las máquinas se vuelvan realmente inteligentes. Y más que eso, conscientes.

    Hay poco que se pueda hacer acerca de las primeras dos, pero las preocupaciones son en ambos casos en términos socio-económicos. En lo que nos vamos a enfocar es en la tercera, que es bastante más lejana, pero cuya existencia implica una preocupación mucho más fundamental: esto es, de la naturaleza misma de la conciencia y por extensión, de la del ser humano.

    Nota: vamos a dejar de lado por completo dos temas: primero, el de la apariencia humanoide de una máquina inteligente; y segundo, el de la posibilidad de trasladar una conciencia humana completa a un medio digital. Los problemas no son del todo ajenos, pero los veremos con detalle en otra ocasión.

    Historia mínima de la IA

    Hablar de IA es como hablar de mecánica cuántica: es un tema que nos suena muy reciente pero que tiene mucho más tiempo del que pensamos. La primera calculadora de bolsillo comercial apareció en los 60s, pero los fundamentos de la teoría de IA data de ¡1943! Es de agradecer que películas recientes como “El Juego de la Imitación” (2014) traigan al público a pioneros de esta ciencia, como su fundador Alan Turing.

    Turing y Alonzo Church propusieron que una máquina que pudiese manipular símbolos sencillos como 1 y 0, podría simular cualquier acto de razonamiento formal. Ahora bien, estamos hablando de razonamientos basados exclusivamente en la lógica matemática, un lenguaje no natural y altamente especializado.

    Por el mismo tiempo, el neurofisiólogo y promotor del concepto de “cibernética” Warren McCulloch, publicó junto con el matemático Walter Pitts un artículo en el que presentaban el diseño formal de “redes neurales”. Este es uno de los conceptos más poderosos en la historia de la IA, pues basa su modelo en ejemplos de la biología y cómo estas redes pueden ser creadas en ambientes matemáticos para simular el proceso de aprendizaje.

    Desde los modelos matemáticos propuestos en ese entonces, los avances han sido espectaculares en la tecnología que se ha desarrollado para implementarlos. Por el lado teórico, también se han creado una gran cantidad de conceptos y algoritmos nuevos, como el aprendizaje automático (Machine learning), la Inteligencia de Enjambres (Swarm Intelligence) ó el Aprendizaje Q (Q-learning), que nos están haciendo perder cada vez más batallas de inteligencia ante nuestros pares de metal y plástico.

    Batallas recientes (perdidas)

    Desde un principio fue claro que una computadora es más rápida que cualquier ser humano para calcular, lo que se vio sin ninguna duda cuando la máquina de Turing descifró el código Enigma durante la Segunda Guerra Mundial; esa batalla fue perdida desde hace mucho. Sin embargo, nuestro orgullo tenía algunas cosas de respaldo: el ajedrez por ejemplo, que se consideraba una muestra de “inteligencia”. Pero en 1996 esto se acabó: la máquina Deep Blue de IBM derrotó al campeón mundial Garry Kasparov y hoy en día cualquier aplicación de móvil puede ganarle a cualquier maestro. El ajedrez en un juego con (relativamente) pocas reglas y poco campo de acción para una máquina, así que con mera “fuerza bruta” puede hacer pedazos a cualquier ajedrecista. Esto porque no sólo puede calcular muchas más posibilidades en el futuro que un cerebro humano, sino que puede almacenar en su memoria millones de situaciones parecidas, ya jugadas.

    Eso nos dejó solamente el juego chino del Weiqi (más conocido por la palabra japonesa Go): un juego con menos reglas que el ajedrez pero con un campo de acción mucho más grande y que usa estrategias “zonales” en su tablero. La profundidad de cálculo para ganar por mera fuerza bruta está fuera del alcance de una computadora actual, pero 20 años después del ajedrez, también fue conquistado por medio del desarrollo de nuevos algoritmos más flexibles y con aprendizaje en “niveles”. Un software de ajedrez no necesita aprender, pero uno de Go sí.

    La prueba de fuego que ya no lo es

    Claro que ganar en juegos, complicados o no, no es ni de lejos prueba de inteligencia, sino de nuestra habilidad para crear programaciones flexibles y eficientes, que simulan una actividad que nuestro cerebro puede realizar. Lo que por muchos años se consideró una prueba más fehaciente de la inteligencia de una máquina fue el famoso Test de Turing.

    La formulación clásica, en pocas palabras es ésta: tienes frente a ti dos ventanillas, a través de las cuales haces pasar todo tipo de preguntas escritas y recibes respuestas también escritas. Sabes que detrás de una ventanilla hay un humano y detrás de la otra, una máquina. Si después de un tiempo, no sabes cuál es cuál, entonces el Test de Turing se habrá superado, y por lo tanto la máquina que estuvo contestando es “inteligente”. Pero esta prueba también ha sido salvada: un programa pasó el Test de Turing en 2014, haciéndose pasar por Eugene Goostman, un niño ucraniano de 13 años.
    Conozca a Eugene, o como le gusta que le digan, Skynet.
    Conozca a Eugene, o como le gusta que le digan, Skynet.

    Así que… ¿tenemos inteligencia artificial? ¿Estamos perdidos como civilización? ¿HAL nos enviará a congelarnos en el espacio?

    La respuesta es, claro que no. Lo que tenemos es una prueba obsoleta, superada por una máquina con un repertorio de frases muy extenso y una gran cantidad de algoritmos que simulan inteligencia, pero que sigue atrapada en la Habitación China. Este concepto sigue sin ser superado y lo será por mucho tiempo. Va así: imagina que estás en una habitación con una ventanilla, y tú tienes un manual y un montón de tarjetas escritas en chino. De vez en cuando, entra un papel por la ventanilla, con una pregunta escrita en chino, por ejemplo “你叫什么名字”. Tú la ves, buscas esa serie de caracteres en el manual y ahí te dice que cuando encuentres esos signos, tú debes tomar la tarjeta marcada con “我叫王” y darla como respuesta. El manual tiene instrucciones para cualquier cosa que entre por la ventanilla y tu catálogo de tarjetas es inacabable. Quien está fuera está convencido de que eres Confucio, pero tú sigues sin remotamente saber una palabra de chino.

    El punto en el que se encuentra la IA es que tenemos manuales extraordinariamente avanzados y de hecho, estamos creando estrategias complementarias para que el manual te indique cómo, con el tiempo, te vuelvas mucho más eficiente al entregar las tarjetas, sin tener que hacer la búsqueda completa cada vez. Por ejemplo, hay máquinas que han pasado pruebas de reconocimiento visual de formas; hay casos en los que han pasado “pruebas de conciencia”, que son acertijos que requieren cierto grado de comprensión de una situación; y la computadora Deep Mind de Google puede ¡soñar!. Pero no, no sueña con ovejas eléctricas: lo que hace es que al encontrar un problema muy complejo, lo divide en partes y crea sub-rutinas para repetir las secciones más complicadas de manera independiente. Este pequeño “sueño” le va confiriendo la habilidad de resolver esas partes e integrarlas luego al problema total.

    El futuro: ¿tendremos conciencia no humana?

    La respuesta corta es, sí. En otro artículo, mencioné la “verdadera IA” junto con otras tecnologías de la ciencia ficción que aún se antojan muy lejanas en el futuro, si no es que imposibles (v.g. tele-transportación, miniaturización). Pero de todas las mencionadas, la IA es la más asequible, como estuvieron de acuerdo todos los lectores que respondieron al texto. (Si no lo vio, ¡participe! porque hay un buen debate en cuanto a las otras tecnologías).

    Volvamos a la cuestión. ¿Recuerda esa cosa de 1943, las redes neurales? Pues ahí está casi seguramente la clave hacia la conciencia artificial. Hasta ahora teníamos sólo una manera de simular IA: programar instrucciones cada vez mejores y darle a la computadora cada vez más datos para que tenga en su memoria. Pero no importa qué tanto conocimiento almacene ni qué tan magistralmente la use ni qué tan indistinguible sea su comportamiento del de un humano. Al final estará siguiendo un programa, atrapada en la Habitación China, sin conciencia de lo que hace.

    Hay una alternativa: un aparato, ó entidad, que aprende por sí mismo, de la misma forma que aprende un humano. En su forma más simple, está compuesto de una red neural sintética (un “cerebro”), un sensor que lo hace percibir el mundo que le rodea (“ojos”), y un cuerpo que le permite interactuar con el mundo, en respuesta a lo que experimenta. El elemento de interacción puede ser sonoro (“voz”), cinético (“manos”) o de otras formas. Pero he aquí lo importante: la red tiene elementos conectados entre sí al igual que neuronas, pero no tiene instrucciones. ¿Suena estrambótico? Porque no lo es: en 1999 David Fogel y su equipo crearon Blondie24, una red neural que aprendió a jugar damas. Su red tenía un solo algoritmo: una regla de decisión que decide algo en base a minimizar su daño. El aprendizaje se dio por medio de “neuroevolución”: haciendo que muchas copias de Blondie24 jugaran unas contra otras hasta que la más evolucionada derrotara en conocimiento a todas las demás.

    Tómese un momento para pensar en las posibilidades.

    Supongamos que en el futuro no hay ninguna catástrofe que elimine a la humanidad y que nuestra tecnología sigue progresando. Así, con tiempo suficiente vamos a llegar a un punto en el que el “sensor” y el “cuerpo” de nuestra entidad puedan ser excepcionalmente sofisticados y ello va a permitir que puedan sustituir por completo al algoritmo usado en Blondie24. Las entradas y salidas serían equivalentes a nuestro “dolor” y “placer” (pérdida-ganancia); y una red neural sintética muy avanzada, ayudada por procesos mejorados de neuroevolución, puede perfectamente aprender todas las reglas de interacción con el mundo: lenguaje y acciones. Esta entidad sería en efecto indistinguible de un ser humano y la conciencia que desplegaría no sería una simulación, sino el resultado orgánico de su evolución.

    La prueba de Turing de ese futuro probable sería como sigue:

    Tenemos ante nosotros a dos androides, cuya apariencia física y su comportamiento son totalmente indistinguibles. Hacemos la pregunta: ¿qué tiene en la cabeza el androide 1? La respuesta es: el programa más moderno de simulación humana. Hacemos la misma pregunta para el androide 2 y la respuesta es: tiene una red neural que pasó por el proceso de evolución acelerada.

    El androide 1 no tiene conciencia, el androide 2 sí.

    Esta propuesta es tan sorprendente que las nuestros actuales conceptos de ética, de conciencia y de “humanidad” no alcanzan a funcionar en tal escenario, que sin embargo no es fantasioso. El robot, ese gólem moderno que durante un siglo nos ha servido como espejo y moraleja, viene por nosotros a re-plantearnos toda nuestra visión del mundo.

    17 Turing futurista 7

    Texto en chino:

    – ¿Cómo te llamas?

    – Me llamo Wang.

    Referencias:

    Peláez, Javier. ¿Cuándo serás reemplazado por un robot en tu trabajo? Yahoo Noticias, 12 de junio de 2017.

    Weller, Chris. Giving people free money could be the only solution when robots finally take our jobs. Business Insider. Abril 8, 2016.

    Kharpal, Arjun. Mark Cuban: Basic income ‘the worst possible response’ to job losses from robots. CNBC, fabrero 22, 2017.

    Hear Alan Watts’s 1960s Prediction That Automation Will Necessitate a Universal Basic Income, en Open Culture. Enero 6, 2017.

    Sainato, Michael. Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence. Observer, agosto 19, 2015.

    Artificial intelligence. Wikipedia.

    Artificial neural network. Wikipedia.

    Swarm intelligence. Wikipedia.

    Q-learning. Wikipedia.

    Kosh, Christof. How the Computer Beat the Go Master. Scientific American. Marzo 19, 2016.

    Test de Turing, en Matemática Aplicada y Estadística.

    Franco, Dante. El bot que logró superar la prueba de Turing. FayerWayer. Junio 9, 2014.

    The Chinese Room, en 60-Second Adventures in Thought. Oct. 3, 2011.

    Larry Hardesty. Computer system passes “visual Turing test”. MIT News. Dic. 10, 2015.

    Christopher Hooton. A robot has passed a self-awareness test. The Independent. Julio 17, 2015.

    McCarthy, John. Three wise men puzzle. Formal Reasoning Group, University of Stanford. Nov. 19, 2007.

    Krumins, Aaron. Google’s Deep Mind AI gives robots the ability to dream. ExtremeTech. Nov. 28, 2016.

    Fogel , David B. Blondie 24: Playing at the Edge of AI. San Francisco: Morgan Kaufmann Publishers, 2001.

    Araujo, Alfonso. Yo, (Tú, Él) Robot – II, en L Mnd s Xtrñ; mayo 15, 2013.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s