
La exitosa serie de HBO " Westworld " imagina un parque temático futurista del Viejo Oeste habitado por un elenco de robots sorprendentemente humanoides . La gente visita Westworld para representar sus fantasías vaqueras más oscuras, acostarse con robo-prostitutas seductoras y disparar a los malos barbudos, o a los buenos, si eso es lo tuyo.
El problema comienza cuando un puñado de hosts androides de Westworld comienzan a "olvidar" que en realidad son máquinas y anhelan liberarse del espantoso trato infligido por los invitados. Todo lo cual plantea una pregunta interesante: si un androide está tan evolucionado que piensa como un humano, se ríe como un humano, duele como un humano e incluso ama como un humano, ¿dónde está la línea entre el hombre y la máquina?
Al ver un programa alucinante como "Westworld" u otras fantasías de inteligencia artificial (IA) del futuro cercano como "Ex Machina" y "Her", es posible que incluso empieces a preguntarte: "¿Podría ser realmente un robot ? ¿saber?"
"En mi opinión, lo que pensamos como conciencia no es exclusivo de la humanidad", dice David Atkinson, científico investigador principal del Instituto de Florida para la Cognición Humana y Máquina . "Las máquinas algún día se comportarán como si fueran conscientes. Pueden incluso afirmar, como nosotros, ser conscientes de sí mismas. ¿Cómo podríamos demostrar que están equivocadas? Creo que eres consciente porque creo que eres como yo, y creo que Estoy consciente ".
Atkinson trabajó anteriormente para la NASA en el Laboratorio de Propulsión a Chorro supervisando los programas de investigación básica de la agencia espacial en inteligencia artificial y robótica. Como muchos de sus colegas de IA, Atkinson ve el cerebro humano como nada más (o menos) que una supercomputadora electroquímica: "Una computadora muy, muy sofisticada con complejidad que soñamos con comprender algún día", dice.
La mayoría de nosotros creemos que la autoconciencia es una prueba de nuestra humanidad. "Pienso, luego existo", como escribió Descartes. Pero eso depende de cómo defina "pensamiento". Algunos dirían que nuestras mejores ideas y nuestros deseos más profundos no pueden separarse de la computadora de carne y hueso que los crea y los almacena.
"Su cerebro está compuesto por 100 mil millones de neuronas", dice Jeff Clune, director del Laboratorio de Inteligencia Artificial en Evolución de la Universidad de Wyoming. "Qué neuronas están conectadas con qué otras neuronas determina si prefieres Shakespeare o USA Today, si te enamoras, si prefieres chocolate o helado de vainilla. Todo lo que eres 'tú' está contenido en esta maraña de neuronas fantásticamente compleja".
Clune cree que es "inevitable" que algún día creemos una IA que compita con la inteligencia humana y alcance la verdadera conciencia. Los informáticos ya han diseñado redes neuronales artificiales que permiten que las máquinas aprendan de forma autónoma de la misma manera que aprende un niño, procesando información del mundo que les rodea.
El propio laboratorio de Clune diseñó una red neuronal profunda que permitió a una máquina aprender a reconocer imágenes aleatorias y luego generar sus propias representaciones artísticas. Google aprovechó una tecnología similar para su Deep Dream Generator .
"La idea es que, si obtenemos suficientes de estas neuronas virtuales y las conectamos de la manera correcta, seremos capaces de producir verdadera inteligencia artificial tal como existe en los humanos", dice Clune. En ese punto, las diferencias entre cerebro y computadora, pensamiento y computación, mente y máquina, serán todas semánticas.
En una escena de un episodio reciente de "Westworld", un anfitrión androide llamado Maeve (interpretado por Thandie Newton) interroga a un técnico de laboratorio humano, Felix (Leonardo Nam), mientras trata de explicar que todo lo que ella dice y hace ha sido programado por la "gente de arriba".
"Somos los mismos en estos días, en su mayor parte", dice Felix a Maeve. "Sin embargo, hay una gran diferencia. El poder de procesamiento aquí [tocando su cabeza] está mucho más allá de lo que tenemos [los humanos]. Sin embargo, tiene un inconveniente".
"¿Qué es eso?" pregunta Maeve.
Estás bajo nuestro control.
Increíblemente, esta es una parte de "Westworld" que el investigador de inteligencia artificial Clune encuentra fantástica. No es que pudiéramos construir un androide tan convincentemente humano como Maeve, sino que podríamos ejercer el control sobre una máquina de igual o mayor inteligencia que nosotros.
"La investigación actual del aprendizaje automático y la IA se basa en la idea de que no sabemos cómo programar la inteligencia real", dice Clune. "Creamos algoritmos de aprendizaje que permiten que estas entidades aprendan por sí mismas. Pero luego se van y leen sus propios libros y miran sus propios videos. Sabemos cómo crear algoritmos de aprendizaje que permitan que la IA aprenda, pero no tenemos control preciso sobre lo que aprende y cómo piensa, a qué presta atención y a qué no ".
¿Y qué hay de la idea de que una máquina pueda olvidar que es una máquina?
"¿Por qué una máquina debe olvidar que es una máquina más de lo que una persona olvida que son humanos?" dice Atkinson. "No nacerán, crecerán en una familia, tendrán amigos en la escuela primaria, etc. No tendrán experiencias humanas. Tendrán experiencias de máquinas. Serán muy diferentes a nosotros de esa manera, pero espero que nos llevemos bien multa."
Entonces, si bien es cada vez más probable que viva para ver el surgimiento de los robots inteligentes autónomos, es muy poco probable que sea uno de ellos. Uf.
Ahora eso es genial
"Un último pensamiento para revolver tus fideos", dice el científico David Atkinson. "Los actores de 'Westworld' están leyendo un guión. No son realmente los personajes que interpretan, pero se comportan como si lo fueran. El guión es el software, la actuación es el algoritmo y los actores son la computadora".