
Ser humano es mucho más fácil que construir un humano.
Tome algo tan simple como jugar a la pelota con un amigo en el jardín delantero. Cuando se descompone esta actividad en las funciones biológicas discretas necesarias para llevarla a cabo, no es nada simple. Necesita sensores, transmisores y efectores. Debe calcular la fuerza del lanzamiento en función de la distancia entre usted y su compañero. Debe tener en cuenta el resplandor del sol, la velocidad del viento y las distracciones cercanas. Debe determinar con qué firmeza agarrar la pelota y cuándo apretar el guante durante una recepción. Y debe poder procesar una serie de escenarios hipotéticos: ¿Qué pasa si la pelota pasa por encima de mi cabeza? ¿Y si se tira a la calle? ¿Qué pasa si se estrella contra la ventana de mi vecino?
Estas preguntas demuestran algunos de los desafíos más apremiantes de la robótica y preparan el escenario para nuestra cuenta regresiva. Hemos compilado una lista de las 10 cosas más difíciles de enseñar a los robots ordenadas aproximadamente de "más fácil" a "más difícil": 10 cosas que tendremos que conquistar si alguna vez vamos a cumplir las promesas hechas por Bradbury, Dick , Asimov, Clarke y todos los demás narradores que han imaginado un mundo en el que las máquinas se comportan como personas.
- Abrir un camino
- exhibir destreza
- Mantener una conversacion
- Adquirir nuevas habilidades
- Practica el engaño
- Anticiparse a las acciones humanas
- Coordinar actividades con otro robot
- Hacer copias de sí mismo
- Actuar Basado en Principio Ético
- sentir emociones
10: abre un camino

Pasar del punto A al punto B suena muy fácil. Los humanos lo hacemos todo el día, todos los días. Sin embargo, para un robot, la navegación , especialmente a través de un solo entorno que cambia constantemente o entre entornos que nunca antes había encontrado, puede ser un asunto complicado. Primero, el robot debe poder percibir su entorno y luego debe poder dar sentido a los datos entrantes.
Los especialistas en robótica abordan el primer problema armando sus máquinas con una variedad de sensores, escáneres, cámaras y otras herramientas de alta tecnología para evaluar su entorno. Los escáneres láser se han vuelto cada vez más populares, aunque no se pueden usar en ambientes acuáticos porque el agua tiende a interrumpir la luz y reduce drásticamente el alcance del sensor. La tecnología de sonda ofrece una opción viable en robots submarinos, pero en aplicaciones terrestres es mucho menos precisa. Y, por supuesto, un sistema de visión que consta de un conjunto de cámaras estereoscópicas integradas puede ayudar a un robot a "ver" su paisaje.
La recopilación de datos sobre el medio ambiente es solo la mitad de la batalla. El mayor desafío consiste en procesar esos datos y usarlos para tomar decisiones. Muchos investigadores hacen que sus robots naveguen usando un mapa preespecificado o construyendo un mapa sobre la marcha. En robótica, esto se conoce como SLAM ( localización y mapeo simultáneos ) . El mapeo describe cómo un robot convierte la información recopilada con sus sensores en una representación dada. La localización describe cómo un robot se posiciona en relación con el mapa. En la práctica, estos dos procesos deben ocurrir simultáneamente, creando un enigma del huevo y la gallina que los investigadores han podido superar con computadoras más potentes y algoritmos avanzados que calculan la posición en función de las probabilidades.
9: Exhibir destreza

Los robots han estado recogiendo paquetes y piezas en fábricas y almacenes durante años. Pero generalmente evitan a los humanos en estas situaciones, y casi siempre trabajan con objetos de formas consistentes en ambientes libres de desorden. La vida está mucho menos estructurada para cualquier robot que se aventura más allá de la fábrica. Si una máquina de este tipo alguna vez espera funcionar en hogares u hospitales, necesitará un sentido del tacto avanzado capaz de detectar personas cercanas y seleccionar un elemento de una colección desordenada de cosas.
Estas son habilidades difíciles de aprender para un robot. Tradicionalmente, los científicos evitaban tocar por completo, programando sus máquinas para que fallaran si hacían contacto con otro objeto. Pero en los últimos cinco años más o menos, ha habido avances significativos en diseños compatibles y piel artificial. El cumplimiento se refiere al nivel de flexibilidad de un robot. Las máquinas altamente flexibles son más compatibles; las máquinas rígidas lo son menos.
En 2013, los investigadores de Georgia Tech construyeron un brazo robótico con resortes para las articulaciones, lo que permite que el apéndice se doble e interactúe con su entorno más como un brazo humano. A continuación, cubrieron todo con una "piel" capaz de sentir la presión o el tacto. Algunas pieles de robots contienen placas de circuito hexagonales entrelazadas, cada una con sensores infrarrojos que pueden detectar cualquier cosa que se acerque a menos de un centímetro. Otros vienen equipados con "huellas dactilares" electrónicas: superficies elevadas y estriadas que mejoran el agarre y facilitan el procesamiento de señales.
Combine estos brazos de alta tecnología con sistemas de visión mejorados y obtendrá un robot que puede ofrecer una caricia tierna o alcanzar los gabinetes para seleccionar un artículo de una colección más grande.
8: Mantener una conversación

Alan M. Turing , uno de los fundadores de las ciencias de la computación, hizo una audaz predicción en 1950: algún día, las máquinas podrán hablar con tanta fluidez que no podremos distinguirlas de los humanos. Por desgracia, los robots (incluso Siri ) no han estado a la altura de las expectativas de Turing, todavía. Esto se debe a que el reconocimiento de voz es muy diferente al procesamiento del lenguaje natural : lo que hace nuestro cerebro para extraer el significado de las palabras y oraciones durante una conversación.
Inicialmente, los científicos pensaron que sería tan simple como conectar las reglas de la gramática en los bancos de memoria de una máquina. Pero codificar una base gramatical para cualquier idioma ha resultado imposible. Incluso proporcionar reglas sobre los significados de palabras individuales ha hecho que el aprendizaje de idiomas sea una tarea desalentadora. ¿Necesitas un ejemplo? Piense en "nuevo" y "sabía" o "banco" (un lugar para poner dinero) y "banco" (el lado de un río). Resulta que los humanos dan sentido a estas idiosincrasias lingüísticas al confiar en las capacidades mentales desarrolladas durante muchos, muchos años de evolución, y los científicos no han podido dividir estas capacidades en reglas discretas e identificables.
Como resultado, muchos robots hoy en día basan su procesamiento de lenguaje en estadísticas. Los científicos les dan de comer enormes colecciones de texto, conocidas como corpus , y luego dejan que sus computadoras dividan el texto más largo en fragmentos para descubrir qué palabras se juntan a menudo y en qué orden. Esto le permite al robot "aprender" un lenguaje basado en análisis estadísticos. Por ejemplo, para un robot, la palabra "murciélago" acompañada de la palabra "mosca" o "ala" se refiere al mamífero volador, mientras que "murciélago" seguido de "pelota" o "guante" se refiere al deporte de equipo.
7: Adquirir nuevas habilidades

Digamos que alguien que nunca ha jugado al golf quiere aprender a hacer swing con un palo . Podría leer un libro sobre el tema y luego intentarlo, o podría ver a un golfista experimentado hacer los movimientos correctos, un enfoque más rápido y fácil para aprender el nuevo comportamiento.
Los robóticos enfrentan un dilema similar cuando intentan construir una máquina autónoma capaz de aprender nuevas habilidades. Un enfoque, como en el ejemplo del golf, es dividir una actividad en pasos precisos y luego programar la información en el cerebro del robot. Esto supone que todos los aspectos de la actividad se pueden diseccionar, describir y codificar, lo que resulta que no siempre es fácil de hacer. Hay ciertos aspectos del swing de un palo de golf, por ejemplo, que podría decirse que no se pueden describir, como la interacción de la muñeca y el codo. Estos detalles sutiles se pueden comunicar mucho más fácilmente mostrándolos en lugar de contarlos.
En los últimos años, los investigadores han tenido cierto éxito enseñando a los robots a imitar a un operador humano. Llaman a esto aprendizaje por imitación o aprendizaje por demostración ( LfD ), y lo logran armando sus máquinas con conjuntos de cámaras de gran angular y zoom . Este equipo permite que el robot "vea" a un maestro humano actuando en un proceso o actividad específica. Luego, los algoritmos de aprendizaje procesan estos datos para producir un mapa de funciones matemáticas que conecta la entrada visual con las acciones deseadas. Por supuesto, los robots en los escenarios de LfD deben poder ignorar ciertos aspectos del comportamiento de su maestro, como rascarse una picazón, y lidiar con problemas de correspondencia, que se refieren a las formas en que la anatomía de un robot difiere de la de un humano.
6: Practica el engaño

El fino arte del engaño ha evolucionado para ayudar a los animales a tomar ventaja sobre sus competidores y evitar ser devorados por los depredadores. Con la práctica, la habilidad puede convertirse en un mecanismo de supervivencia muy efectivo.
Para los robots, aprender a engañar a una persona oa otro robot ha sido un desafío (y eso podría estar bien para ti). El engaño requiere imaginación, la capacidad de formar ideas o imágenes de objetos externos que no están presentes para los sentidos, que es algo de lo que normalmente carecen las máquinas (consulte el siguiente elemento de nuestra lista). Son excelentes para procesar la entrada directa de sensores, cámaras y escáneres, pero no tanto para formar conceptos que existen más allá de todos esos datos sensoriales.
Sin embargo, los futuros robots pueden estar mejor versados en los trucos. Los investigadores de Georgia Tech han podido transferir algunas habilidades engañosas de las ardillas a los robots en su laboratorio. Primero, estudiaron a los roedores peludos, que protegen sus escondites de comida enterrada al llevar a los competidores a escondites viejos y sin usar. Luego codificaron esos comportamientos en reglas simples y las cargaron en los cerebros de sus robots. Las máquinas pudieron usar los algoritmos para determinar si el engaño podría ser útil en una situación determinada. Si es así, pudieron proporcionar una comunicación falsa que alejó a un bot compañero de su escondite.
5: Anticiparse a las acciones humanas

En "Los Supersónicos", Rosie, la criada robot , pudo mantener conversaciones, cocinar, limpiar la casa y satisfacer las necesidades y deseos de George, Jane, Judy y Elroy. Para entender el desarrollo avanzado de Rosie, considere esta escena del primer episodio de la primera temporada: el Sr. Spacely, el jefe de George, viene a cenar a la casa de los Supersónicos. Después de la comida, el Sr. Spacely saca un cigarro y se lo pone en la boca, lo que hace que Rosie se apresure a acercarse con un encendedor. Esta simple acción representa un comportamiento humano complejo: la capacidad de anticipar lo que viene a continuación en función de lo que acaba de suceder.
Al igual que el engaño, anticipar la acción humana requiere que un robot imagine un estado futuro. Debe poder decir: "Si observo a un humano haciendo x, entonces puedo esperar, según la experiencia previa, que probablemente seguirá con y". Este ha sido un desafío serio en robótica, pero los humanos están progresando. En la Universidad de Cornell, un equipo ha estado trabajando para desarrollar un robot autónomo que pueda reaccionar en función de cómo un compañero interactúa con los objetos del entorno. Para lograr esto, el robot utiliza un par de cámaras 3-D para obtener una imagen del entorno. A continuación, un algoritmo identifica los objetos clave de la habitación y los aísla del desorden de fondo. Luego, utilizando una gran cantidad de información reunida en sesiones de capacitación anteriores, el robot genera un conjunto de probables anticipaciones basadas en el movimiento de la persona y los objetos que toca. El robot hace una mejor suposición de lo que sucederá a continuación y actúa en consecuencia.
Los robots de Cornell todavía adivinan mal algunas veces, pero están haciendo un progreso constante, especialmente a medida que mejora la tecnología de las cámaras.
4: Coordinar actividades con otro robot

Construir una sola máquina a gran escala, un androide, por así decirlo, requiere inversiones significativas de tiempo, energía y dinero. Otro enfoque consiste en desplegar un ejército de robots más pequeños y simples que luego trabajan juntos para realizar tareas más complejas.
Esto trae un conjunto diferente de desafíos. Un robot que trabaja dentro de un equipo debe poder posicionarse con precisión en relación con sus compañeros de equipo y debe poder comunicarse de manera efectiva, con otras máquinas y con operadores humanos. Para resolver estos problemas, los científicos recurrieron al mundo de los insectos, que exhiben un comportamiento de enjambre complejo para encontrar comida y completar tareas que benefician a toda la colonia. Por ejemplo, al estudiar hormigas, los investigadores saben que las personas usan feromonas para comunicarse entre sí.
Los robots pueden usar esta misma "lógica de feromonas", aunque dependen de la luz, no de los productos químicos, para comunicarse. Funciona así: un grupo de pequeños bots se dispersa en un área confinada. Al principio, exploran el área al azar hasta que un individuo se encuentra con un rastro de luz dejado por otro bot. Sabe seguir el rastro y lo hace, dejando su propia huella de luz a medida que avanza. A medida que se refuerza el rastro, más y más bots lo encuentran y se unen a la caravana. Algunos investigadores también han tenido éxito usando chirridos audibles. El sonido se puede usar para asegurarse de que los bots individuales no se alejen demasiado o para atraer a los compañeros de equipo a un elemento de interés.
3: hacer copias de sí mismo

Dios le dijo a Adán y Eva: "Fructificad y multiplicaos, y henchid la tierra". Un robot que recibiera el mismo comando se sentiría desconcertado o frustrado. ¿Por qué? Porque la autorreplicación ha resultado difícil de alcanzar. Una cosa es construir un robot, otra cosa es completamente construir un robot que pueda hacer copias de sí mismo o regenerar componentes perdidos o dañados .
Curiosamente, es posible que los robots no vean a los humanos como modelos reproductivos. Tal vez hayas notado que en realidad no nos dividimos en dos partes idénticas. Los animales simples, sin embargo, hacen esto todo el tiempo. Los parientes de las medusas conocidas como hidras practican una forma de reproducción asexual conocida como gemación : un pequeño saco se hincha hacia afuera del cuerpo del padre y luego se rompe para convertirse en un nuevo individuo genéticamente idéntico.
Los científicos están trabajando en robots que puedan llevar a cabo este procedimiento básico de clonación . Muchos de estos robots están construidos a partir de elementos repetitivos, generalmente cubos, que contienen maquinaria idéntica y el programa de autorreplicación. Los cubos tienen imanes en sus superficies para que puedan unirse y separarse de otros cubos cercanos. Y cada cubo está dividido en dos piezas a lo largo de una diagonal para que cada mitad pueda girar de forma independiente. Un robot completo, entonces, consta de varios cubos dispuestos en una configuración específica. Siempre que haya un suministro de cubos disponible, un solo robot puede agacharse, quitar cubos de su "cuerpo" para sembrar una nueva máquina y luego recoger bloques de construcción del alijo hasta que dos robots completamente formados estén uno al lado del otro.
2: Actuar Basado en el Principio Ético

A medida que interactuamos con las personas a lo largo del día, tomamos cientos de decisiones. En cada uno, sopesamos nuestras elecciones contra lo que está bien y lo que está mal, lo que es justo e injusto. Si queremos que los robots se comporten como nosotros, necesitarán una comprensión de la ética.
Al igual que el lenguaje, codificar el comportamiento ético es un desafío enorme, principalmente porque no existe un conjunto general de principios éticos universalmente aceptados. Las diferentes culturas tienen diferentes reglas de conducta y diferentes sistemas de leyes . Incluso dentro de las culturas, las diferencias regionales pueden afectar la forma en que las personas evalúan y miden sus acciones y las acciones de quienes las rodean. Tratar de escribir un manual de ética relevante a nivel mundial que los robots puedan usar como herramienta de aprendizaje sería prácticamente imposible.
Dicho esto, los investigadores recientemente han podido construir robots éticos al limitar el alcance del problema. Por ejemplo, una máquina confinada a un entorno específico (una cocina, por ejemplo, o la habitación de un paciente en un centro de vida asistida) tendría muchas menos reglas que aprender y tendría un éxito razonable al tomar decisiones éticamente sólidas. Para lograr esto, los ingenieros de robots ingresan información sobre opciones consideradas éticas en casos seleccionados en un algoritmo de aprendizaje automático. Las opciones se basan en tres criterios de escala móvil: cuánto bien resultaría una acción, cuánto daño evitaría y una medida de equidad. Luego, el algoritmo genera un principio ético que puede ser utilizado por el robot cuando toma decisiones. Usando este tipo de inteligencia artificial, su robot doméstico del futuro podrá determinar quién en la familia debe lavar los platos y quién puede controlar el control remoto del televisor durante la noche.
1: Siente Emociones

"Las cosas mejores y más bellas del mundo no se pueden ver ni tocar. Deben sentirse con el corazón". Si esta observación de Helen Keller es cierta, entonces los robots estarían destinados a perderse lo mejor y más hermoso. Después de todo, son excelentes para sentir el mundo que los rodea, pero no pueden convertir esos datos sensoriales en emociones específicas. No pueden ver la sonrisa de un ser querido y sentir alegría, o registrar la mueca de un extraño en la sombra y temblar de miedo.
Esto, más que nada en nuestra lista, podría ser lo que separa al hombre de la máquina. ¿Cómo puedes enseñarle a un robot a enamorarse ? ¿Cómo se puede programar la frustración, el asco, el asombro o la lástima? ¿Vale la pena intentarlo?
Algunos científicos creen que sí. Creen que los futuros robots integrarán ambos sistemas de emociones cognitivas y que, como resultado, podrán funcionar mejor, aprender más rápido e interactuar de manera más efectiva con los humanos. Lo crea o no, ya existen prototipos que expresan una gama limitada de emociones humanas. Nao, un robot desarrollado por un equipo de investigación europeo, tiene las cualidades afectivas de un niño de 1 año. Puede mostrar alegría, ira, miedo y orgullo, todo combinando posturas con gestos. Estas acciones de visualización, derivadas de estudios de chimpancés y bebés humanos, están programadas en Nao, pero el robot decide qué emoción mostrar en función de su interacción con las personas y los objetos cercanos. En los próximos años, es probable que los robots como Nao trabajen en una variedad de entornos: hospitales,
Mucha más información
Nota del autor: 10 cosas más difíciles de enseñar a los robots
El robot de "Perdidos en el espacio" (la serie de televisión de la década de 1960, no la horrible película de 1998) vagaba por mi imaginación mientras escribía este artículo. Fue difícil escribir sobre humanos interactuando con máquinas y no escuchar la advertencia icónica de The Robot: "¡Peligro, Will Robinson, peligro!" -- haciendo eco en mis pensamientos.
Artículos relacionados
- 10 robots malvados empeñados en destruir a la humanidad
- 10 robots con trabajos sucios
- ¿Qué hace que los robots realistas sean tan espeluznantes?
- ¿Cómo dirige un robot una sinfonía?
- ¿Qué es un nano quadrotor?
Fuentes
- Ackerman, Evan. "Cornell enseñando a los robots a usar su imaginación al organizar sus cosas". Espectro IEEE. 21 de junio de 2012. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/cornell-teaching-robots-to-use-their-imaginations-when-organizing-your- cosa
- Ackerman, Evan. "Georgia Tech Robots aprende comportamientos engañosos de las ardillas". Espectro IEEE. 3 de diciembre de 2012. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/robots-learn-deceptive-behaviors-from-squirrels
- Ackerman, Evan. "Por qué es importante enseñar a un robot a buscar una taza de café". Espectro IEEE. 9 de mayo de 2013. (4 de noviembre de 2013) http://spectrum.ieee.org/automaton/robotics/robotics-software/pr2-robot-fetches-cup-of-coffee
- Anderson, Michael y Susan Leigh Anderson. "Robot, sé bueno". Científico americano. octubre de 2010.
- Batalin, Maxim A., Gaurav S. Sukhatme y Myron Hattig. "Navegación de robot móvil usando una red de sensores". Conferencia Internacional IEEE sobre Robótica y Automatización. 26 de abril de 2004. (4 de noviembre de 2013) http://robotics.usc.edu/publications/media/uploads/pubs/367.pdf
- Bonabeau, Eric y Guy Théraulaz. "Inteligencia del enjambre". Informes científicos americanos. Edición especial sobre robótica. 2008.
- Breazeal, Cynthia y Rodney Brooks. "Emoción del robot: una perspectiva funcional". Grupo de Robótica Personal. 2005. (4 de noviembre de 2013) http://robotic.media.mit.edu/pdfs/other/Breazeal-Brooks-03.pdf
- Carroll, Chris. "Enseñar a los robots a anticipar las acciones humanas". Noticias geográficas nacionales. 31 de mayo de 2013. (4 de noviembre de 2013) http://news.nationalgeographic.com/news/2013/05/130531-personal-robot-beer-microsoft-kinect-saxena-science/
- Dillow, Clay. "Mejorar los sentidos del tacto de los robots dándoles huellas dactilares similares a las humanas". Ciencia popular. 21 de septiembre de 2011. (4 de noviembre de 2013) http://www.popsci.com/technology/article/2011-09/enhancing-robots-senses-touch-giving-them-human-fingerprints
- Durrant- Whyte, Hugh y Tim Bailey. "Localización y mapeo simultáneos (SLAM): Parte I Los algoritmos esenciales". Revista de Robótica y Automatización. 2006. (4 de noviembre de 2013) http://www-personal.acfr.usyd.edu.au/tbailey/papers/slamtute1.pdf
- Englert, Peter, Alexandros Paraschos, Jan Peters y Marc Peter Deisenroth. "Aprendizaje por imitación basado en modelos por coincidencia de trayectorias probabilísticas". Actas de la Conferencia Internacional IEEE sobre Robótica y Automatización. 2013. (4 de noviembre de 2013) http://www.is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/2013/Englert_ICRA_2013.pdf
- Grifo, Catalina. "Científicos del MIT crean robots autoensamblables M-Cube: transformadores del mundo real". Informe mundial de la ciencia. 4 de octubre de 2013. (4 de noviembre de 2013) http://www.scienceworldreport.com/articles/9948/20131004/mit-scientists-create-m-cube-self-assembling-robots-real-world.htm
- Halverson, Nic. "La piel electrónica le da a los robots un sentido del tacto". Noticias de descubrimiento. 1 de julio de 2011. (4 de noviembre de 2013) http://news.discovery.com/tech/robotics/electronic-skin-gives-robots-sense-touch-110701.htm
- Handwerk, Brian. "¿Revolución de los robots? Los científicos enseñan a los robots a aprender". Noticias geográficas nacionales. 18 de julio de 2013. (4 de noviembre de 2013) http://news.nationalgeographic.com/news/2013/07/130719-robot-lfd-pr2-artificial-intelligence-crowdsourcing-robotics-machine-learning/
- Dureza, Larry. "Robots de enseñanza del pensamiento lateral". Noticias del MIT. 25 de febrero de 2013. (4 de noviembre de 2013) http://web.mit.edu/newsoffice/2013/teaching-robots-lateral-thinking-0225.html
- Hartshorne, Joshua K. "¿Dónde están los robots que hablan?" Mente científica americana. Marzo/Abril 2011.
- Hicks, Jennifer. "Enseñar a los robots a engañar". Forbes. 30 de diciembre de 2012. (4 de noviembre de 2013) http://www.forbes.com/sites/jenniferhicks/2012/12/30/teaching-robots-to-deceive/
- Jaja, Alok. "Se presenta el primer robot capaz de desarrollar y mostrar emociones". El guardián. 8 de agosto de 2010. (4 de noviembre de 2013) http://www.theguardian.com/technology/2010/aug/09/nao-robot-develop-display-emotions
- Jones, Joshua, científico investigador, Instituto de Tecnología de Georgia. Correspondencia por correo electrónico. 11 de noviembre de 2013. http://www.cc.gatech.edu/~jj187/
- Korn, Jon. "Un bestiario 'bot: la tradición robótica en la ciencia ficción". LitReactor. 13 de julio de 2012. (4 de noviembre de 2013) http://litreactor.com/columns/a-bot-bestiary-the-robotic-tradition-in-science-fiction
- Markoff, John. "Los investigadores ponen el sentido del tacto al alcance de los robots". Los New York Times. 28 de abril de 2013. (4 de noviembre de 2013) http://www.nytimes.com/2013/04/28/science/researchers-put-sense-of-touch-in-reach-for-robots.html? _r=0
- OpenSLAM.org. "¿Qué es SLAM?" (4 de noviembre de 2013) http://www.openslam.org/
- Ratlif, Nathan D., J. Andrew Bagnell y Siddhartha Srinivasa. "Aprendizaje por imitación para locomoción y manipulación". Instituto de Robótica, Universidad Carnegie Mellon. Diciembre de 2007. (4 de noviembre de 2013) http://www.ri.cmu.edu/pub_files/pub4/ratliff_nathan_2007_4/ratliff_nathan_2007_4.pdf
- Rieland, Randy. "Los robots adquieren el toque humano". Revista Smithsonian. 10 de noviembre de 2011. (4 de noviembre de 2013) http://blogs.smithsonianmag.com/ideas/2011/11/robots-get-the-human-touch/
- Schultz, Colin. "Este nuevo robot tiene sentido del tacto". Revista Smithsonian. 29 de abril de 2013. (4 de noviembre de 2013) http://blogs.smithsonianmag.com/smartnews/2013/04/this-new-robot-has-a-sense-of-touch/
- Sipper, Moshe y James A. Reggia. "Ir adelante y replicar". Informes científicos americanos. Edición especial sobre robótica. 2008.
- Steele, Bill. "Los investigadores construyen un robot que puede reproducirse". Crónica de Cornell. 25 de mayo de 2005. (4 de noviembre de 2013) http://www.news.cornell.edu/stories/2005/05/researchers-build-robot-can-reproduce
- Verano, Jay. Correspondencia por correo electrónico. 22 de noviembre de 2013. http://www.summet.com/
- Tofel, Kevin C. "MIT: Estamos un paso más cerca de los objetos autorreplicantes". Gigaom. 3 de abril de 2012. (4 de noviembre de 2013) http://gigaom.com/2012/04/03/mit-were-one-step-closer-to-self-replicating-objects/
- Wadsworth, Derek. "Robótica Adaptativa". Laboratorio Nacional de Idaho. (4 de noviembre de 2013) https://inlportal.inl.gov/portal/server.pt/community/robotics_and_intelligence_systems/455