10 cose più difficili da insegnare a un robot

Nov 25 2013
Se mai vivremo in un mondo in cui le macchine si comportano come le persone, noi umani abbiamo qualche insegnamento da fare. Ma come attesta questo robot di scrittura, non siamo così lontani come potresti pensare.
Ehi, i robot possono giocare a palla. Il robot Justin, un sistema umanoide a due bracci, sviluppato dall'agenzia aerea e spaziale tedesca, Deutsches Zentrum fur Luft- und Raumfahrt, può svolgere autonomamente determinati compiti come raccogliere palline o servire il caffè. Guarda altre immagini di robot.

Essere un essere umano è molto più facile che costruire un essere umano.

Prendi qualcosa di semplice come giocare a palla con un amico in giardino. Quando scomponi questa attività nelle discrete funzioni biologiche necessarie per realizzarla, non è affatto semplice. Hai bisogno di sensori, trasmettitori ed effettori. Devi calcolare quanto è difficile lanciare in base alla distanza tra te e il tuo compagno. È necessario tenere conto dell'abbagliamento del sole, della velocità del vento e delle distrazioni nelle vicinanze. Devi determinare con che fermezza afferrare la palla e quando stringere il guanto durante una presa. E devi essere in grado di elaborare una serie di scenari ipotetici: cosa succede se la palla mi passa sopra la testa? E se rotola in strada? E se si schianta contro la finestra del mio vicino?

Queste domande dimostrano alcune delle sfide più urgenti della robotica e preparano il terreno per il nostro conto alla rovescia. Abbiamo compilato un elenco delle 10 cose più difficili da insegnare ai robot ordinate approssimativamente dal "più facile" al "più difficile" -- 10 cose che dovremo conquistare se vogliamo realizzare le promesse fatte da Bradbury, Dick , Asimov, Clarke e tutti gli altri narratori che hanno immaginato un mondo in cui le macchine si comportano come le persone.

Contenuti
  1. Apri un sentiero
  2. Mostra Destrezza
  3. Tieni una conversazione
  4. Acquisisci nuove abilità
  5. Pratica l'inganno
  6. Anticipare le azioni umane
  7. Coordinare le attività con un altro robot
  8. Fare copie di se stesso
  9. Agire in base al principio etico
  10. Prova le emozioni

10: Apri un sentiero

L'ultimo test di navigazione per un robot: Marte! Finora, Curiosity si è dimostrato piuttosto abile.

Spostarsi dal punto A al punto B sembra così facile. Noi umani lo facciamo tutto il giorno, tutti i giorni. Per un robot, tuttavia, la navigazione , specialmente attraverso un singolo ambiente che cambia costantemente o tra ambienti mai incontrati prima, può essere un affare complicato. In primo luogo, il robot deve essere in grado di percepire il suo ambiente, quindi deve essere in grado di dare un senso ai dati in arrivo.

I robotici affrontano il primo problema armando le loro macchine con una serie di sensori, scanner, fotocamere e altri strumenti ad alta tecnologia per valutare l'ambiente circostante. Gli scanner laser sono diventati sempre più popolari, anche se non possono essere utilizzati in ambienti acquatici perché l'acqua tende a disturbare la luce e riduce drasticamente la portata del sensore. La tecnologia sonar offre un'opzione praticabile nei robot subacquei, ma nelle applicazioni terrestri è molto meno precisa. E, naturalmente, un sistema di visione costituito da una serie di telecamere stereoscopiche integrate può aiutare un robot a "vedere" il suo paesaggio.

La raccolta di dati sull'ambiente è solo metà della battaglia. La sfida più grande riguarda l'elaborazione di quei dati e il loro utilizzo per prendere decisioni. Molti ricercatori fanno navigare i loro robot utilizzando una mappa prespecificata o costruendo una mappa al volo. In robotica, questo è noto come SLAM - localizzazione e mappatura simultanee . La mappatura descrive come un robot converte le informazioni raccolte con i suoi sensori in una data rappresentazione. La localizzazione descrive come un robot si posiziona rispetto alla mappa. In pratica, questi due processi devono avvenire simultaneamente, creando un enigma dell'uovo e della gallina che i ricercatori sono stati in grado di superare con computer più potenti e algoritmi avanzati che calcolano la posizione in base alle probabilità.

9: Mostra la destrezza

Twendy-One, un robot volto ad aiutare le persone anziane e disabili in casa, dimostra la sua capacità di tenere oggetti delicati manipolando una cannuccia tra le dita alla Waseda University di Tokyo l'8 gennaio 2009.

I robot raccolgono da anni pacchi e parti nelle fabbriche e nei magazzini. Ma generalmente evitano gli esseri umani in queste situazioni e lavorano quasi sempre con oggetti dalla forma coerente in ambienti privi di disordine. La vita è molto meno strutturata per qualsiasi robot che si avventura oltre la fabbrica. Se una macchina del genere spera mai di funzionare nelle case o negli ospedali, avrà bisogno di un avanzato senso del tatto in grado di rilevare le persone vicine e selezionare un oggetto da una raccolta disordinata di cose.

Queste sono abilità difficili da imparare per un robot. Tradizionalmente, gli scienziati evitavano del tutto il contatto, programmando che le loro macchine si guastassero se entrassero in contatto con un altro oggetto. Ma negli ultimi cinque anni circa, ci sono stati progressi significativi nei design conformi e nella pelle artificiale. La conformità si riferisce al livello di flessibilità di un robot. Le macchine altamente flessibili sono più conformi; le macchine rigide lo sono meno.

Nel 2013, i ricercatori della Georgia Tech hanno costruito un braccio robotico con molle per le articolazioni, che consente all'appendice di piegarsi e interagire con l'ambiente in modo più simile a un braccio umano. Successivamente, hanno ricoperto il tutto con una "pelle" in grado di percepire la pressione o il tatto. Alcune skin di robot contengono circuiti esagonali ad incastro, ciascuno dotato di sensori a infrarossi in grado di rilevare qualsiasi cosa si avvicini a meno di un centimetro. Altri sono dotati di "impronte digitali" elettroniche: superfici rialzate e increspate che migliorano la presa e facilitano l'elaborazione del segnale.

Combina questi bracci high-tech con sistemi di visione migliorati e otterrai un robot che può offrire una carezza tenera o raggiungere gli armadietti per selezionare un articolo da una collezione più ampia.

8: Tieni una conversazione

L'ingegnere meccatronico Ben Schaefer interagisce con il barista robot umanoide Carl mentre prepara un drink al Robots Bar and Lounge in Germania il 26 luglio 2013. Sviluppato da Schaefer, Carl può anche interagire con i clienti in piccole conversazioni.

Alan M. Turing , uno dei fondatori dell'informatica, fece una previsione audace nel 1950: le macchine un giorno sarebbero state in grado di parlare così fluentemente che non saremmo in grado di distinguerle dagli umani. Purtroppo, i robot (persino Siri ) non sono stati all'altezza delle aspettative di Turing, ancora. Questo perché il riconoscimento vocale è molto diverso dall'elaborazione del linguaggio naturale : ciò che fa il nostro cervello per estrarre significato da parole e frasi durante una conversazione.

Inizialmente, gli scienziati pensavano che sarebbe stato semplice come inserire le regole della grammatica nei banchi di memoria di una macchina. Ma l'hardcoding di un primer grammaticale per una data lingua si è rivelato impossibile. Anche fornire regole sui significati delle singole parole ha reso l'apprendimento delle lingue un compito arduo. Hai bisogno di un esempio? Pensa a "nuovo" e "sapeva" o "banca" (un posto dove mettere soldi) e "banca" (la sponda di un fiume). Si scopre che gli esseri umani danno un senso a queste idiosincrasie linguistiche facendo affidamento sulle capacità mentali sviluppate in molti, molti anni di evoluzione, e gli scienziati non sono stati in grado di scomporre queste capacità in regole discrete e identificabili.

Di conseguenza, molti robot oggi basano la loro elaborazione del linguaggio su statistiche. Gli scienziati forniscono loro enormi raccolte di testo, note come corpus , e quindi lasciano che i loro computer scompongano il testo più lungo in blocchi per scoprire quali parole spesso si uniscono e in quale ordine. Ciò consente al robot di "imparare" una lingua in base all'analisi statistica. Ad esempio, per un robot, la parola "pipistrello" accompagnata dalla parola "volare" o "ala" si riferisce al mammifero volante, mentre "pipistrello" seguito da "palla" o "guanto" si riferisce allo sport di squadra.

7: Acquisisci nuove abilità

Un robot mostra le sue capacità di scrittura durante un concorso di robot intelligenti creato da studenti universitari presso l'Università cinese di scienza e tecnologia di Anhui il 16 novembre 2012.

Diciamo che qualcuno che non ha mai giocato a golf vuole imparare a far oscillare una mazza . Potrebbe leggere un libro sull'argomento e poi provarlo, oppure potrebbe guardare un golfista esperto eseguire i movimenti corretti, un approccio più rapido e semplice all'apprendimento del nuovo comportamento.

I robotici affrontano un dilemma simile quando cercano di costruire una macchina autonoma in grado di apprendere nuove abilità. Un approccio, come nell'esempio del golf, è quello di scomporre un'attività in passaggi precisi e quindi programmare le informazioni nel cervello del robot. Ciò presuppone che ogni aspetto dell'attività possa essere analizzato, descritto e codificato, cosa che, a quanto pare, non è sempre facile da fare. Ci sono alcuni aspetti dell'oscillazione di una mazza da golf, ad esempio, che probabilmente non possono essere descritti, come l'interazione di polso e gomito. Questi dettagli sottili possono essere comunicati molto più facilmente mostrando piuttosto che raccontando.

Negli ultimi anni, i ricercatori hanno avuto un certo successo insegnando ai robot a imitare un operatore umano. Chiamano questa imitazione apprendimento o apprendimento dalla dimostrazione ( LfD ) e ci riescono armando le loro macchine con array di telecamere grandangolari e zoom . Questa attrezzatura consente al robot di "vedere" un insegnante umano che esegue un processo o un'attività specifici. Gli algoritmi di apprendimento elaborano quindi questi dati per produrre una mappa di funzioni matematiche che collega l'input visivo alle azioni desiderate. Naturalmente, i robot negli scenari LfD devono essere in grado di ignorare alcuni aspetti del comportamento del suo insegnante - come grattarsi un prurito - e affrontare problemi di corrispondenza, che si riferiscono ai modi in cui l'anatomia di un robot differisce da quella di un essere umano.

6: Pratica l'inganno

Gli scoiattoli sono praticati nell'arte dell'inganno, quindi i ricercatori si sono rivolti a questi astuti roditori per alcune idee sull'insegnamento del comportamento ingannevole dei robot.

L'arte dell'inganno si è evoluta per aiutare gli animali a tenere un vantaggio sui loro concorrenti ed evitare di essere mangiati dai predatori. Con la pratica, l'abilità può diventare un meccanismo di sopravvivenza altamente efficace.

Per i robot, imparare a ingannare una persona o un altro robot è stato impegnativo (e potrebbe andar bene per te). L'inganno richiede immaginazione - la capacità di formare idee o immagini di oggetti esterni non presenti ai sensi - che è qualcosa che le macchine tipicamente mancano (vedi il prossimo elemento della nostra lista). Sono bravissimi nell'elaborare input diretti da sensori, fotocamere e scanner, ma non così bravi a formare concetti che esistono al di là di tutti quei dati sensoriali.

Tuttavia, i futuri robot potrebbero essere più esperti di inganno. I ricercatori della Georgia Tech sono stati in grado di trasferire alcune abilità ingannevoli degli scoiattoli ai robot nel loro laboratorio. In primo luogo, hanno studiato i roditori pelosi, che proteggono i loro depositi di cibo sepolto portando i concorrenti a vecchi depositi inutilizzati. Quindi hanno codificato quei comportamenti in semplici regole e li hanno caricati nel cervello dei loro robot. Le macchine sono state in grado di utilizzare gli algoritmi per determinare se l'inganno potrebbe essere utile in una determinata situazione. In tal caso, sono stati quindi in grado di fornire una falsa comunicazione che ha portato un robot compagno lontano dal suo nascondiglio.

5: Anticipare le azioni umane

Se gli umani trascorreranno molto tempo con i robot, come questo umanoide soprannominato ROBOY, le macchine dovranno migliorare un po' nel prevedere cosa faranno gli umani apparentemente imprevedibili in seguito.

In "The Jetsons", Rosie la cameriera robot è stata in grado di tenere conversazioni, cucinare pasti, pulire la casa e soddisfare i bisogni e i desideri di George, Jane, Judy ed Elroy. Per comprendere lo sviluppo avanzato di Rosie, considera questa scena del primo episodio della prima stagione: Mr. Spacely, il capo di George, viene a cena a casa dei Jetson. Dopo il pasto, il signor Spacely tira fuori un sigaro e se lo mette in bocca, il che spinge Rosie a correre con un accendino. Questa semplice azione rappresenta un comportamento umano complesso: la capacità di anticipare ciò che verrà dopo in base a ciò che è appena accaduto.

Come l'inganno, anticipare l'azione umana richiede che un robot immagini uno stato futuro. Deve essere in grado di dire: "Se osservo un essere umano che fa x, allora posso aspettarmi, sulla base dell'esperienza precedente, che probabilmente lo seguirà con y". Questa è stata una seria sfida nella robotica, ma gli esseri umani stanno facendo progressi. Alla Cornell University, un team ha lavorato per sviluppare un robot autonomo in grado di reagire in base a come un compagno interagisce con gli oggetti nell'ambiente. A tal fine, il robot utilizza una coppia di telecamere 3D per ottenere un'immagine dell'ambiente circostante. Successivamente, un algoritmo identifica gli oggetti chiave nella stanza e li isola dal disordine sullo sfondo. Quindi, utilizzando una vasta gamma di informazioni raccolte da precedenti sessioni di formazione, il robot genera una serie di probabili anticipazioni basate sul movimento della persona e sugli oggetti che tocca. Il robot fa un'ipotesi migliore su cosa accadrà dopo e agisce di conseguenza.

I robot Cornell continuano a sbagliare qualche volta, ma stanno facendo progressi costanti, soprattutto con il miglioramento della tecnologia delle telecamere.

4: coordinare le attività con un altro robot

Primo piano di un membro della squadra di calcio robotica della Columbia. Uno dei campionati di RoboCup Soccer presenta più robot completamente autonomi che lavorano insieme per praticare questo sport. Un'altra lega include robot umanoidi!

Costruire una singola macchina su larga scala - un androide, se vuoi - richiede investimenti significativi di tempo, energia e denaro. Un altro approccio prevede il dispiegamento di un esercito di robot più piccoli e più semplici che poi lavorano insieme per svolgere compiti più complessi.

Ciò comporta una serie diversa di sfide. Un robot che lavora all'interno di una squadra deve essere in grado di posizionarsi con precisione rispetto ai compagni di squadra e deve essere in grado di comunicare in modo efficace, con altre macchine e con operatori umani. Per risolvere questi problemi, gli scienziati si sono rivolti al mondo degli insetti, che mostrano complessi comportamenti brulicanti per trovare cibo e completare compiti a beneficio dell'intera colonia. Ad esempio, studiando le formiche, i ricercatori sanno che gli individui usano i feromoni per comunicare tra loro.

I robot possono utilizzare questa stessa "logica dei feromoni", sebbene si basino sulla luce, non sulle sostanze chimiche, per comunicare. Funziona così: un gruppo di minuscoli robot è disperso in un'area ristretta. All'inizio, esplorano l'area in modo casuale finché un individuo non incontra una traccia di luce lasciata da un altro robot. Sa seguire il sentiero e lo fa, lasciando la propria traccia di luce mentre procede. Man mano che il sentiero viene rafforzato, sempre più robot lo trovano e si uniscono alla carovana. Alcuni ricercatori hanno anche riscontrato successo usando i cinguettii udibili. Il suono può essere utilizzato per assicurarsi che i singoli bot non si allontanino troppo o per attirare i compagni di squadra verso un oggetto di interesse.

3: fare copie di se stesso

Un'idra mostra la sua capacità di auto-replicazione, che ad alcuni robotocisti non dispiacerebbe incorporare nelle loro macchine.

God told Adam and Eve, "Be fruitful and multiply, and replenish the earth." A robot that received the same command would feel either flummoxed or frustrated. Why? Because self-replication has proven elusive. It's one thing to build a robot -- it's another thing entirely to build a robot that can make copies of itself or regenerate lost or damaged components .

Interestingly, robots may not look to humans as reproductive role models. Perhaps you've noticed that we don't actually divide into two identical pieces. Simple animals, however, do this all of the time. Relatives of jellyfish known as hydra practice a form of asexual reproduction known as budding: A small sac balloons outward from the body of the parent and then breaks off to become a new, genetically identical individual.

Scientists are working on robots that can carry out this basic cloning procedure. Many of these robots are built from repeating elements, usually cubes, that contain identical machinery and the program for self-replication. The cubes have magnets on their surfaces so they can attach to and detach from other cubes nearby. And each cube is divided into two pieces along a diagonal so each half can swivel independently. A complete robot, then, consists of several cubes arranged in a specific configuration. As long as a supply of cubes is available, a single robot can bend over, remove cubes from its "body" to seed a new machine and then pick up building blocks from the stash until two fully formed robots are standing side by side.

2: Act Based on Ethical Principle

If you build lethal autonomous robots that don’t require human operators, how exactly would you program ethics?

As we interact with people throughout the day, we make hundreds of decisions. In each one, we weigh our choices against what's right and wrong, what's fair and unfair. If we want robots to behave like us, they'll need an understanding of ethics.

Like language, coding ethical behavior is an enormous challenge, mainly because a general set of universally accepted ethical principles doesn't exist. Different cultures have different rules of conduct and varying systems of laws . Even within cultures, regional differences can affect how people evaluate and measure their actions and the actions of those around them. Trying to write a globally relevant ethics manual robots could use as a learning tool would be virtually impossible.

With that said, researchers have recently been able to build ethical robots by limiting the scope of the problem. For example, a machine confined to a specific environment -- a kitchen, say, or a patient's room in an assisted living facility -- would have far fewer rules to learn and would have reasonable success making ethically sound decisions. To accomplish this, robot engineers enter information about choices considered ethical in selected cases into a machine-learning algorithm. The choices are based on three sliding-scale criteria: how much good an action would result in, how much harm it would prevent and a measure of fairness. The algorithm then outputs an ethical principle that can be used by the robot as it makes decisions. Using this type of artificial intelligence, your household robot of the future will be able to determine who in the family who should do the dishes and who gets to control the TV remote for the night.

1: Feel Emotions

Along with his emotive abilities, Nao clearly knows how to chill.

"The best and most beautiful things in the world cannot be seen or even touched. They must be felt with the heart." If this observation by Helen Keller is true, then robots would be destined to miss out on the best and beautiful. After all, they're great at sensing the world around them, but they can't turn that sensory data into specific emotions. They can't see a loved one's smile and feel joy, or record a shadowy stranger's grimace and tremble with fear.

This, more than anything on our list, could be the thing that separates man from machine. How can you teach a robot to fall in love ? How can you program frustration, disgust, amazement or pity? Is it even worth trying?

Alcuni scienziati la pensano così. Credono che i futuri robot integreranno entrambi i sistemi di emozioni cognitive e che, di conseguenza, saranno in grado di funzionare meglio, imparare più velocemente e interagire in modo più efficace con gli esseri umani. Che ci crediate o no, esistono già prototipi che esprimono una gamma limitata di emozioni umane. Nao, un robot sviluppato da un gruppo di ricerca europeo, ha le qualità affettive di un bambino di 1 anno. Può mostrare felicità, rabbia, paura e orgoglio, il tutto combinando le posizioni con i gesti. Queste azioni di visualizzazione, derivate da studi su scimpanzé e bambini umani, sono programmate in Nao, ma il robot decide quale emozione mostrare in base alla sua interazione con persone e oggetti vicini. Nei prossimi anni, robot come Nao funzioneranno probabilmente in una varietà di contesti: ospedali,

Molte più informazioni

Nota dell'autore: 10 cose più difficili da insegnare ai robot

Il robot di "Lost in Space" (la serie TV degli anni '60, non l'orribile film del 1998) ha vagato per la mia immaginazione mentre scrivevo questo articolo. È stato difficile scrivere di esseri umani che interagiscono con le macchine e non ascoltare l'iconico avvertimento di The Robot: "Pericolo, Will Robinson, pericolo!" -- echeggiando nei miei pensieri.

articoli Correlati

  • 10 robot malvagi intenzionati a distruggere l'umanità
  • 10 robot con lavori sporchi
  • Cosa rende i robot realistici così inquietanti?
  • Come fa un robot a condurre una sinfonia?
  • Che cos'è un nano quadrotor?

Fonti

  • Ackerman, Evan. "Cornell insegna ai robot a usare la loro immaginazione quando organizzano le tue cose." Spettro IEEE. 21 giugno 2012. (4 novembre 2013)http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/cornell-teaching-robots-to-use-their-imaginations-when-organizing-your- cose
  • Ackerman, Evan. "I robot Georgia Tech imparano comportamenti ingannevoli dagli scoiattoli". Spettro IEEE. 3 dicembre 2012. (4 novembre 2013)http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/robots-learn-deceptive-behaviors-from-squirrels
  • Ackerman, Evan. "Perché insegnare a un robot a prendere una tazza di caffè è importante." Spettro IEEE. 9 maggio 2013. (4 novembre 2013)http://spectrum.ieee.org/automaton/robotics/robotics-software/pr2-robot-fetches-cup-of-coffee
  • Anderson, Michael e Susan Leigh Anderson. "Robot, sii buono." Scientifico americano. ottobre 2010.
  • Batalin, Maxim A., Gaurav S. Sukhatme e Myron Hattig. "Navigazione di robot mobili utilizzando una rete di sensori". Conferenza internazionale IEEE sulla robotica e l'automazione. 26 aprile 2004. (4 novembre 2013)http://robotics.usc.edu/publications/media/uploads/pubs/367.pdf
  • Bonabeau, Eric e Guy Théraulaz. "Intelligenza dello sciame". Rapporti scientifici americani. Edizione speciale sulla robotica. 2008.
  • Breazeal, Cynthia e Rodney Brooks. "Emozione robotica: una prospettiva funzionale". Gruppo di robotica personale. 2005. (4 novembre 2013)http://robotic.media.mit.edu/pdfs/other/Breazeal-Brooks-03.pdf
  • Carroll, Chris. "Insegnare ai robot ad anticipare le azioni umane". Notizie dal National Geographic. 31 maggio 2013. (4 novembre 2013)http://news.nationalgeographic.com/news/2013/05/130531-personal-robot-beer-microsoft-kinect-saxena-science/
  • Dillow, Clay. "Migliorare il senso del tatto dei robot fornendo loro impronte digitali simili a quelle umane". Scienza popolare. 21 settembre 2011. (4 novembre 2013)http://www.popsci.com/technology/article/2011-09/enhancing-robots-senses-touch-giving-them-human-fingerprints
  • Durrant-Whyte, Hugh e Tim Bailey. "Localizzazione e mappatura simultanee (SLAM): parte I Gli algoritmi essenziali". Rivista di robotica e automazione. 2006. (4 novembre 2013) http://www-personal.acfr.usyd.edu.au/tbailey/papers/slamtute1.pdf
  • Englert, Peter, Alexandros Paraschos, Jan Peters e Marc Peter Deisenroth. "Apprendimento dell'imitazione basato su modello mediante corrispondenza della traiettoria proabilistica". Atti della IEEE International Conference on Robotics and Automation. 2013. (4 novembre 2013)http://www.is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/2013/Englert_ICRA_2013.pdf
  • Grifone, Caterina. "Gli scienziati del MIT creano robot autoassemblanti M-Cube: trasformatori del mondo reale". Rapporto sul mondo della scienza. 4 ottobre 2013. (4 novembre 2013)http://www.scienceworldreport.com/articles/9948/20131004/mit-scientists-create-m-cube-self-assembling-robots-real-world.htm
  • Halverson, Nic. "La skin elettronica dà ai robot un senso del tatto." Notizie di scoperta. 1 luglio 2011. (4 novembre 2013)http://news.discovery.com/tech/robotics/electronic-skin-gives-robots-sense-touch-110701.htm
  • Handwerk, Brian. "Rivoluzione dei robot? Gli scienziati insegnano ai robot a imparare". Notizie dal National Geographic. 18 luglio 2013. (4 novembre 2013)http://news.nationalgeographic.com/news/2013/07/130719-robot-lfd-pr2-artificial-intelligence-crowdsourcing-robotics-machine-learning/
  • Duro, Larry. "Insegnare ai robot il pensiero laterale". Notizie del MIT. 25 febbraio 2013. (4 novembre 2013)http://web.mit.edu/newsoffice/2013/teaching-robots-lateral-thinking-0225.html
  • Hartshorne, Joshua K. "Dove sono i robot parlanti?" Mente scientifica americana. marzo/aprile 2011.
  • Hick, Jennifer. "Insegnare ai robot a ingannare". Forbes. 30 dicembre 2012. (4 novembre 2013)http://www.forbes.com/sites/jenniferhicks/2012/12/30/teaching-robots-to-deceive/
  • Ja, Alok. "Viene presentato il primo robot in grado di sviluppare e mostrare emozioni". Il guardiano. 8 agosto 2010. (4 novembre 2013)http://www.theguardian.com/technology/2010/aug/09/nao-robot-develop-display-emotions
  • Jones, Joshua, ricercatore, Georgia Institute of Technology. Corrispondenza e-mail. 11 novembre 2013. http://www.cc.gatech.edu/~jj187/
  • Korn, Jon. "Un 'bestiario di bot: la tradizione robotica nella fantascienza". LitReactor. 13 luglio 2012. (4 novembre 2013)http://litreactor.com/columns/a-bot-bestiary-the-robotic-tradition-in-science-fiction
  • Markoff, John. "I ricercatori mettono il senso del tatto a portata di mano per i robot". Il New York Times. 28 aprile 2013. (4 novembre 2013)http://www.nytimes.com/2013/04/28/science/researchers-put-sense-of-touch-in-reach-for-robots.html? _r=0
  • OpenSLAM.org. "Cos'è SLAM?" (4 novembre 2013)http://www.openslam.org/
  • Ratlif, Nathan D., J. Andrew Bagnell e Siddhartha Srinivasa. "Apprendimento dell'imitazione per la locomozione e la manipolazione". Istituto di robotica, Carnegie Mellon University. Dicembre 2007. (4 novembre 2013)http://www.ri.cmu.edu/pub_files/pub4/ratliff_nathan_2007_4/ratliff_nathan_2007_4.pdf
  • Rieland, Randy. "I robot ottengono il tocco umano". Rivista Smithsonian. 10 novembre 2011. (4 novembre 2013)http://blogs.smithsonianmag.com/ideas/2011/11/robots-get-the-human-touch/
  • Schultz, Colin. "Questo nuovo robot ha un senso del tatto." Rivista Smithsonian. 29 aprile 2013. (4 novembre 2013)http://blogs.smithsonianmag.com/smartnews/2013/04/this-new-robot-has-a-sense-of-touch/
  • Sipper, Moshe e James A. Reggia. "Vai avanti e replica". Rapporti scientifici americani. Edizione speciale sulla robotica. 2008.
  • Steele, Bill. "I ricercatori costruiscono un robot in grado di riprodursi". Cronaca di Cornell. 25 maggio 2005. (4 novembre 2013) http://www.news.cornell.edu/stories/2005/05/researchers-build-robot-can-reproduce
  • Summit, Jay. Corrispondenza e-mail. 22 novembre 2013. http://www.summet.com/
  • Tofel, Kevin C. "MIT: Siamo un passo più vicini agli oggetti autoreplicanti". Gigam. 3 aprile 2012. (4 novembre 2013)http://gigaom.com/2012/04/03/mit-were-one-step-closer-to-self-replicating-objects/
  • Wadsworth, Derek. "Robotica adattiva". Laboratorio nazionale dell'Idaho. (4 novembre 2013)https://inlportal.inl.gov/portal/server.pt/community/robotics_and_intelligence_systems/455