
Ein Mensch zu sein ist viel einfacher, als einen Menschen aufzubauen.
Nehmen Sie etwas so Einfaches wie Fangen spielen mit einem Freund im Vorgarten. Wenn Sie diese Aktivität in die einzelnen biologischen Funktionen zerlegen, die zu ihrer Durchführung erforderlich sind, ist das alles andere als einfach. Sie brauchen Sensoren, Sender und Effektoren. Sie müssen berechnen, wie schwer Sie werfen müssen, basierend auf der Entfernung zwischen Ihnen und Ihrem Begleiter. Sie müssen Sonnenblendung, Windgeschwindigkeit und Ablenkungen in der Nähe berücksichtigen. Sie müssen bestimmen, wie fest Sie den Ball greifen und wann Sie den Fausthandschuh während eines Fangs zusammendrücken müssen. Und Sie müssen in der Lage sein, eine Reihe von Was-wäre-wenn-Szenarien zu verarbeiten: Was ist, wenn der Ball über meinen Kopf fliegt? Was, wenn es auf die Straße rollt? Was ist, wenn es durch das Fenster meines Nachbarn kracht?
Diese Fragen zeigen einige der dringendsten Herausforderungen der Robotik und bilden die Grundlage für unseren Countdown. Wir haben eine Liste der 10 Dinge zusammengestellt, die Robotern am schwersten beizubringen sind , grob geordnet von „am einfachsten“ bis „am schwierigsten“ – 10 Dinge, die wir überwinden müssen, wenn wir jemals die Versprechen von Bradbury, Dick, erfüllen wollen , Asimov, Clarke und all die anderen Geschichtenerzähler, die sich eine Welt vorgestellt haben, in der sich Maschinen wie Menschen verhalten.
- Bahnen Sie eine Spur
- Zeige Geschicklichkeit
- Eine Unterhaltung führen
- Erwerben Sie neue Fähigkeiten
- Täuschung üben
- Antizipieren menschlicher Handlungen
- Koordinieren Sie Aktivitäten mit einem anderen Roboter
- Machen Sie Kopien von sich selbst
- Handeln Sie nach ethischen Grundsätzen
- Gefühle fühlen
10: Eine Spur bahnen

Von Punkt A nach Punkt B zu kommen, klingt so einfach. Wir Menschen tun es den ganzen Tag, jeden Tag. Für einen Roboter kann die Navigation jedoch – insbesondere durch eine einzelne Umgebung, die sich ständig ändert, oder zwischen Umgebungen, denen er noch nie zuvor begegnet ist – eine knifflige Angelegenheit sein. Zunächst muss der Roboter in der Lage sein, seine Umgebung wahrzunehmen, und dann muss er in der Lage sein, die eingehenden Daten zu verstehen.
Robotiker gehen das erste Problem an, indem sie ihre Maschinen mit einer Reihe von Sensoren, Scannern, Kameras und anderen Hightech-Werkzeugen ausstatten, um ihre Umgebung zu erfassen. Laserscanner werden immer beliebter, obwohl sie nicht in aquatischen Umgebungen verwendet werden können, da Wasser dazu neigt, das Licht zu stören und die Reichweite des Sensors drastisch zu verringern. Die Sonartechnologie bietet eine praktikable Option für Unterwasserroboter, aber in landgestützten Anwendungen ist sie weitaus ungenauer. Und natürlich kann ein Sichtsystem, das aus einer Reihe integrierter stereoskopischer Kameras besteht , einem Roboter helfen, seine Landschaft zu „sehen“.
Das Sammeln von Umweltdaten ist nur die halbe Miete. Die größere Herausforderung besteht darin, diese Daten zu verarbeiten und für Entscheidungen zu verwenden. Viele Forscher lassen ihre Roboter anhand einer vorgegebenen Karte navigieren oder eine Karte im laufenden Betrieb erstellen. In der Robotik ist dies als SLAM bekannt – simultane Lokalisierung und Kartierung . Mapping beschreibt, wie ein Roboter mit seinen Sensoren gesammelte Informationen in eine gegebene Darstellung umwandelt. Die Lokalisierung beschreibt, wie sich ein Roboter relativ zur Karte positioniert. In der Praxis müssen diese beiden Prozesse gleichzeitig ablaufen, was zu einem Henne-Ei-Rätsel führt, das Forscher mit leistungsfähigeren Computern und fortschrittlichen Algorithmen überwinden konnten, die die Position auf der Grundlage von Wahrscheinlichkeiten berechnen.
9: Zeige Geschicklichkeit

Roboter holen seit Jahren Pakete und Teile in Fabriken und Lagern ab. Aber sie meiden Menschen in diesen Situationen im Allgemeinen und arbeiten fast immer mit einheitlich geformten Objekten in aufgeräumten Umgebungen. Das Leben ist für jeden Roboter, der sich über die Fabrikhalle hinaus wagt, weit weniger strukturiert. Wenn eine solche Maschine jemals in Haushalten oder Krankenhäusern eingesetzt werden soll, benötigt sie einen fortgeschrittenen Tastsinn, der in der Lage ist, Menschen in der Nähe zu erkennen und einen Gegenstand aus einer unordentlichen Sammlung von Dingen herauszupicken.
Diese Fähigkeiten sind für einen Roboter schwer zu erlernen. Traditionell vermieden Wissenschaftler Berührungen vollständig und programmierten ihre Maschinen so, dass sie versagten, wenn sie mit einem anderen Objekt in Kontakt kamen. Aber in den letzten fünf Jahren gab es bedeutende Fortschritte bei konformen Designs und künstlicher Haut. Compliance bezieht sich auf die Flexibilität eines Roboters. Hochflexible Maschinen sind konformer; starre Maschinen sind es weniger.
Im Jahr 2013 bauten Forscher von Georgia Tech einen Roboterarm mit Federn für Gelenke, der es dem Glied ermöglicht, sich zu beugen und mit seiner Umgebung zu interagieren, ähnlich wie ein menschlicher Arm. Als nächstes bedeckten sie das Ganze mit "Haut", die Druck oder Berührung wahrnehmen konnte. Einige Roboter-Skins enthalten ineinandergreifende sechseckige Leiterplatten, die jeweils Infrarotsensoren tragen, die alles erkennen können, was näher als einen Zentimeter kommt. Andere sind mit elektronischen „Fingerabdrücken“ ausgestattet – erhabene und geriffelte Oberflächen, die den Halt verbessern und die Signalverarbeitung erleichtern.
Kombinieren Sie diese Hightech-Arme mit verbesserten Sichtsystemen, und Sie erhalten einen Roboter, der Sie zärtlich streicheln oder in Schränke greifen kann, um einen Artikel aus einer größeren Sammlung auszuwählen.
8: Führen Sie ein Gespräch

Alan M. Turing , one of the founders of computer science, made a bold prediction in 1950: Machines would one day be able to speak so fluently that we wouldn't be able to tell them apart from humans. Alas, robots (even Siri ) haven't lived up to Turing's expectations -- yet. That's because speech recognition is much different than natural language processing -- what our brains do to extract meaning from words and sentences during a conversation.
Initially, scientists thought it would be as simple as plugging the rules of grammar into a machine's memory banks. But hard-coding a grammatical primer for any given language has turned out to be impossible. Even providing rules around the meanings of individual words has made language learning a daunting task. Need an example? Think "new" and "knew" or "bank" (a place to put money) and "bank" (the side of a river). Turns out humans make sense of these linguistic idiosyncrasies by relying on mental capabilities developed over many, many years of evolution, and scientists haven't been able to break down these capabilities into discrete, identifiable rules.
Infolgedessen stützen viele Roboter ihre Sprachverarbeitung heute auf Statistiken. Wissenschaftler füttern sie mit riesigen Textsammlungen, die als Korpus bezeichnet werden, und lassen dann ihre Computer den längeren Text in Stücke zerlegen, um herauszufinden, welche Wörter häufig zusammenkommen und in welcher Reihenfolge. Dadurch kann der Roboter auf der Grundlage statistischer Analysen eine Sprache „lernen“. Zum Beispiel bezieht sich für einen Roboter das Wort „Fledermaus“, begleitet von dem Wort „Fliege“ oder „Flügel“, auf das fliegende Säugetier, wohingegen „Fledermaus“, gefolgt von „Ball“ oder „Handschuh“, sich auf den Mannschaftssport bezieht.
7: Erwerben Sie neue Fähigkeiten

Nehmen wir an, jemand, der noch nie Golf gespielt hat, möchte lernen, wie man einen Schläger schwingt . Er könnte ein Buch darüber lesen und es dann ausprobieren, oder er könnte einem geübten Golfer dabei zusehen, wie er die richtigen Bewegungen durchführt, eine schnellere und einfachere Herangehensweise an das Erlernen des neuen Verhaltens.
Robotiker stehen vor einem ähnlichen Dilemma, wenn sie versuchen, eine autonome Maschine zu bauen, die in der Lage ist, neue Fähigkeiten zu erlernen. Ein Ansatz besteht darin, wie beim Golfspiel, eine Aktivität in präzise Schritte zu zerlegen und die Informationen dann in das Gehirn des Roboters zu programmieren. Dies setzt voraus, dass jeder Aspekt der Aktivität seziert, beschrieben und kodiert werden kann, was, wie sich herausstellt, nicht immer einfach ist. Es gibt zum Beispiel bestimmte Aspekte beim Schwingen eines Golfschlägers, die wohl nicht beschrieben werden können, wie das Zusammenspiel von Handgelenk und Ellbogen. Diese subtilen Details können viel einfacher kommuniziert werden, indem man sie zeigt, anstatt sie zu erzählen.
In den letzten Jahren hatten Forscher einigen Erfolg damit, Robotern beizubringen, einen menschlichen Bediener nachzuahmen. Sie nennen dies Nachahmungslernen oder Lernen durch Demonstration ( LfD ) und ziehen es durch, indem sie ihre Maschinen mit Reihen von Weitwinkel- und Zoomkameras bewaffnen . Diese Ausrüstung ermöglicht es dem Roboter, einen menschlichen Lehrer zu „sehen“, der einen bestimmten Prozess oder eine bestimmte Aktivität vorführt. Lernalgorithmen verarbeiten diese Daten dann, um eine mathematische Funktionskarte zu erstellen, die visuelle Eingaben mit gewünschten Aktionen verbindet. Natürlich müssen Roboter in LfD-Szenarien in der Lage sein, bestimmte Aspekte des Verhaltens ihres Lehrers zu ignorieren – wie z.
6: Täuschung üben

Die hohe Kunst der Täuschung hat sich entwickelt, um Tieren dabei zu helfen, ihren Konkurrenten einen Schritt voraus zu sein und zu vermeiden, von Raubtieren gefressen zu werden. Mit etwas Übung kann die Fertigkeit zu einem hochwirksamen Überlebensmechanismus werden.
Für Roboter war es eine Herausforderung zu lernen, wie man eine Person oder einen anderen Roboter täuscht (und das könnte für Sie in Ordnung sein). Täuschung erfordert Vorstellungskraft – die Fähigkeit, Ideen oder Bilder von externen Objekten zu bilden, die den Sinnen nicht präsent sind – was Maschinen normalerweise fehlt (siehe nächster Punkt auf unserer Liste). Sie sind großartig darin, direkte Eingaben von Sensoren, Kameras und Scannern zu verarbeiten, aber nicht so gut darin, Konzepte zu bilden, die jenseits all dieser sensorischen Daten existieren.
Zukünftige Roboter können sich jedoch besser mit Tricks auskennen. Forscher der Georgia Tech konnten einige täuschende Fähigkeiten von Eichhörnchen auf Roboter in ihrem Labor übertragen. Zuerst untersuchten sie die Fuzzy-Nagetiere, die ihre Verstecke mit vergrabenem Essen schützen, indem sie Konkurrenten zu alten, ungenutzten Verstecken führen. Dann kodierten sie diese Verhaltensweisen in einfache Regeln und luden sie in die Gehirne ihrer Roboter. Die Maschinen konnten die Algorithmen verwenden , um festzustellen, ob Täuschung in einer bestimmten Situation nützlich sein könnte. Wenn dies der Fall war, konnten sie dann eine falsche Kommunikation bereitstellen, die einen Begleiter-Bot von ihrem Versteck wegführte.
5: Antizipieren menschlicher Handlungen

In „The Jetsons“ konnte Rosie, das Robotermädchen , Gespräche führen, Mahlzeiten kochen, das Haus putzen und sich um die Bedürfnisse und Wünsche von George, Jane, Judy und Elroy kümmern. Um Rosies fortgeschrittene Entwicklung zu verstehen, betrachten Sie diese Szene aus der ersten Folge der ersten Staffel: Mr. Spacely, Georges Chef, kommt zum Abendessen ins Jetson-Haus. Nach dem Essen nimmt Mr. Spacely eine Zigarre heraus und steckt sie in seinen Mund, was Rosie dazu veranlasst, mit einem Feuerzeug herüberzueilen. Diese einfache Aktion repräsentiert ein komplexes menschliches Verhalten – die Fähigkeit, basierend auf dem, was gerade passiert ist, vorauszusehen, was als Nächstes kommt.
Wie bei der Täuschung erfordert die Antizipation menschlicher Handlungen einen Roboter, um sich einen zukünftigen Zustand vorzustellen. Es muss in der Lage sein zu sagen: „Wenn ich einen Menschen dabei beobachte, wie er x tut, dann kann ich aufgrund früherer Erfahrungen erwarten, dass er wahrscheinlich mit y fortfahren wird.“ Dies war eine ernsthafte Herausforderung in der Robotik, aber der Mensch macht Fortschritte. An der Cornell University hat ein Team daran gearbeitet, einen autonomen Roboter zu entwickeln, der basierend darauf reagieren kann, wie ein Begleiter mit Objekten in der Umgebung interagiert. Dazu verwendet der Roboter ein Paar 3-D-Kameras, um ein Bild der Umgebung zu erhalten. Als Nächstes identifiziert ein Algorithmus die Schlüsselobjekte im Raum und isoliert sie vom Hintergrundrauschen. Verwenden Sie dann eine Fülle von Informationen, die aus früheren Schulungssitzungen gesammelt wurden, Der Roboter generiert eine Reihe wahrscheinlicher Vorwegnahmen basierend auf der Bewegung der Person und den Objekten, die sie berührt. Der Roboter schätzt am besten, was als Nächstes passieren wird, und handelt entsprechend.
Die Cornell-Roboter liegen manchmal immer noch falsch, aber sie machen stetige Fortschritte, insbesondere da sich die Kameratechnologie verbessert.
4: Aktivitäten mit einem anderen Roboter koordinieren

Der Bau einer einzigen großen Maschine – eines Androiden, wenn Sie so wollen – erfordert erhebliche Investitionen an Zeit, Energie und Geld. Ein anderer Ansatz besteht darin, eine Armee kleinerer, einfacherer Roboter einzusetzen, die dann zusammenarbeiten, um komplexere Aufgaben zu erfüllen.
Dies bringt andere Herausforderungen mit sich. Ein Roboter, der in einem Team arbeitet, muss in der Lage sein, sich in Bezug auf Teamkollegen genau zu positionieren und effektiv zu kommunizieren – mit anderen Maschinen und mit menschlichen Bedienern. Um diese Probleme zu lösen, haben sich Wissenschaftler der Welt der Insekten zugewandt, die ein komplexes Schwarmverhalten zeigen , um Nahrung zu finden und Aufgaben zu erledigen, von denen die gesamte Kolonie profitiert. Durch die Untersuchung von Ameisen wissen Forscher beispielsweise, dass Individuen Pheromone verwenden, um miteinander zu kommunizieren.
Roboter können dieselbe „Pheromon-Logik“ verwenden, obwohl sie zur Kommunikation auf Licht und nicht auf Chemikalien angewiesen sind. Das funktioniert so: Eine Gruppe winziger Bots ist auf engstem Raum verteilt. Zunächst erkunden sie das Gebiet zufällig, bis eine Person auf eine Lichtspur stößt, die von einem anderen Bot hinterlassen wurde. Es weiß, dass es der Spur folgen muss, und hinterlässt dabei seine eigene Lichtspur. Während die Spur verstärkt wird, finden immer mehr Bots sie und schließen sich dem Waggonzug an. Einige Forscher haben auch Erfolg mit hörbaren Zwitschern gefunden. Ton kann verwendet werden, um sicherzustellen, dass sich einzelne Bots nicht zu weit entfernen, oder um Teamkollegen auf ein interessantes Objekt aufmerksam zu machen.
3: Erstellen Sie Kopien von sich selbst

Gott sagte zu Adam und Eva: „Seid fruchtbar und mehrt euch und füllt die Erde.“ Ein Roboter, der denselben Befehl erhielt, wäre entweder verwirrt oder frustriert. Wieso den? Weil sich die Selbstreplikation als schwer fassbar erwiesen hat. Es ist eine Sache, einen Roboter zu bauen – es ist eine ganz andere Sache, einen Roboter zu bauen, der Kopien von sich selbst erstellen oder verlorene oder beschädigte Komponenten regenerieren kann .
Interestingly, robots may not look to humans as reproductive role models. Perhaps you've noticed that we don't actually divide into two identical pieces. Simple animals, however, do this all of the time. Relatives of jellyfish known as hydra practice a form of asexual reproduction known as budding: A small sac balloons outward from the body of the parent and then breaks off to become a new, genetically identical individual.
Scientists are working on robots that can carry out this basic cloning procedure. Many of these robots are built from repeating elements, usually cubes, that contain identical machinery and the program for self-replication. The cubes have magnets on their surfaces so they can attach to and detach from other cubes nearby. And each cube is divided into two pieces along a diagonal so each half can swivel independently. A complete robot, then, consists of several cubes arranged in a specific configuration. As long as a supply of cubes is available, a single robot can bend over, remove cubes from its "body" to seed a new machine and then pick up building blocks from the stash until two fully formed robots are standing side by side.
2: Act Based on Ethical Principle

As we interact with people throughout the day, we make hundreds of decisions. In each one, we weigh our choices against what's right and wrong, what's fair and unfair. If we want robots to behave like us, they'll need an understanding of ethics.
Like language, coding ethical behavior is an enormous challenge, mainly because a general set of universally accepted ethical principles doesn't exist. Different cultures have different rules of conduct and varying systems of laws . Even within cultures, regional differences can affect how people evaluate and measure their actions and the actions of those around them. Trying to write a globally relevant ethics manual robots could use as a learning tool would be virtually impossible.
With that said, researchers have recently been able to build ethical robots by limiting the scope of the problem. For example, a machine confined to a specific environment -- a kitchen, say, or a patient's room in an assisted living facility -- would have far fewer rules to learn and would have reasonable success making ethically sound decisions. To accomplish this, robot engineers enter information about choices considered ethical in selected cases into a machine-learning algorithm. The choices are based on three sliding-scale criteria: how much good an action would result in, how much harm it would prevent and a measure of fairness. The algorithm then outputs an ethical principle that can be used by the robot as it makes decisions. Using this type of artificial intelligence, your household robot of the future will be able to determine who in the family who should do the dishes and who gets to control the TV remote for the night.
1: Feel Emotions

"The best and most beautiful things in the world cannot be seen or even touched. They must be felt with the heart." If this observation by Helen Keller is true, then robots would be destined to miss out on the best and beautiful. After all, they're great at sensing the world around them, but they can't turn that sensory data into specific emotions. They can't see a loved one's smile and feel joy, or record a shadowy stranger's grimace and tremble with fear.
This, more than anything on our list, could be the thing that separates man from machine. How can you teach a robot to fall in love ? How can you program frustration, disgust, amazement or pity? Is it even worth trying?
Some scientists think so. They believe that future robots will integrate both cognitive emotion systems, and that, as a result, they'll be able to function better, learn faster and interact more effectively with humans. Believe it or not, prototypes already exist that express a limited range of human emotion. Nao, a robot developed by a European research team, has the affective qualities of a 1-year-old child. It can show happiness, anger, fear and pride, all by combining postures with gestures. These display actions, derived from studies of chimpanzees and human infants, are programmed into Nao, but the robot decides which emotion to display based on its interaction with nearby people and objects. In the coming years, robots like Nao will likely work in a variety of settings -- hospitals, homes and schools -- in which they will be able to lend a helping hand and a sympathetic ear.
Viele weitere Informationen
Anmerkung des Autors: Die 10 schwierigsten Dinge, die man Robotern beibringen kann
Der Roboter aus „Lost in Space“ (die Fernsehserie der 1960er Jahre, nicht der schreckliche Film von 1998) durchstreifte meine Vorstellungskraft, als ich diesen Artikel schrieb. Es war schwierig, über Menschen zu schreiben, die mit Maschinen interagieren, ohne die ikonische Warnung des Roboters zu hören – „Gefahr, Will Robinson, Gefahr!“ - Echo in meinen Gedanken.
Zum Thema passende Artikel
- 10 böse Roboter, die darauf aus sind, die Menschheit zu zerstören
- 10 Roboter mit schmutzigen Jobs
- Was macht realistische Roboter so gruselig?
- Wie dirigiert ein Roboter eine Symphonie?
- Was ist ein Nano-Quadrotor?
Quellen
- Ackermann, Evan. "Cornell bringt Robotern bei, ihre Vorstellungskraft beim Organisieren Ihrer Sachen zu nutzen." IEEE-Spektrum. 21. Juni 2012. (4. Nov. 2013)http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/cornell-teaching-robots-to-use-their-imaginations-when-organizing-your- Sachen
- Ackermann, Evan. "Georgia Tech Robots lernen irreführendes Verhalten von Eichhörnchen." IEEE-Spektrum. 3. Dez. 2012. (4. Nov. 2013) http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/robots-learn-deceptive-behaviors-from-squirrels
- Ackermann, Evan. "Warum es wichtig ist, einem Roboter beizubringen, eine Tasse Kaffee zu holen." IEEE-Spektrum. 9. Mai 2013. (4. Nov. 2013)http://spectrum.ieee.org/automaton/robotics/robotics-software/pr2-robot-fetches-cup-of-coffee
- Anderson, Michael und Susan Leigh Anderson. "Roboter, sei brav." Wissenschaftlicher Amerikaner. Oktober 2010.
- Batalin, Maxim A., Gaurav S. Sukhatme und Myron Hattig. "Mobile Roboternavigation mit einem Sensornetzwerk." Internationale IEEE-Konferenz für Robotik und Automatisierung. 26. April 2004. (4. Nov. 2013)http://robotics.usc.edu/publications/media/uploads/pubs/367.pdf
- Bonabeau, Eric und Guy Theraulaz. "Schwarm-Smarts." Wissenschaftliche amerikanische Berichte. Sonderausgabe zur Robotik. 2008.
- Breazeal, Cynthia und Rodney Brooks. "Roboteremotion: Eine funktionale Perspektive." Persönliche Robotik-Gruppe. 2005. (4. November 2013)http://robotic.media.mit.edu/pdfs/other/Breazeal-Brooks-03.pdf
- Caroll, Chris. "Roboter beibringen, menschliche Handlungen zu antizipieren." National Geographic Nachrichten. 31. Mai 2013. (4. November 2013)http://news.nationalgeographic.com/news/2013/05/130531-personal-robot-beer-microsoft-kinect-saxena-science/
- Dilow, Ton. "Verbesserung des Tastsinns von Robotern durch menschenähnliche Fingerabdrücke." Populärwissenschaft. 21. Sept. 2011. (4. Nov. 2013)http://www.popsci.com/technology/article/2011-09/enhancing-robots-senses-touch-giving-them-human-fingerprints
- Durrant-Whyte, Hugh und Tim Bailey. "Simultane Lokalisierung und Zuordnung (SLAM): Teil I Die wesentlichen Algorithmen." Zeitschrift für Robotik und Automatisierung. 2006. (4. Nov. 2013)http://www-personal.acfr.usyd.edu.au/tbailey/papers/slamtute1.pdf
- Englert, Peter, Alexandros Paraschos, Jan Peters und Marc Peter Deisenroth. "Modellbasiertes Nachahmungslernen durch proabilistische Trajektorienanpassung." Tagungsband der IEEE International Conference on Robotics and Automation. 2013. (4.11.2013)http://www.is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/2013/Englert_ICRA_2013.pdf
- Greif, Katharina. "Wissenschaftler des MIT entwickeln M-Cube-Roboter, die sich selbst zusammenbauen: echte Transformatoren." Wissenschaftsweltbericht. 4. Okt. 2013. (4. Nov. 2013)http://www.scienceworldreport.com/articles/9948/20131004/mit-scientists-create-m-cube-self-assembling-robots-real-world.htm
- Halverson, Nic. "Elektronische Haut verleiht Robotern einen Tastsinn." Entdeckungsnachrichten. 1. Juli 2011. (4. Nov. 2013) http://news.discovery.com/tech/robotics/electronic-skin-gives-robots-sense-touch-110701.htm
- Handwerk, Brian. "Roboterrevolution? Wissenschaftler bringen Robotern das Lernen bei." National Geographic Nachrichten. 18. Juli 2013. (4. Nov. 2013)http://news.nationalgeographic.com/news/2013/07/130719-robot-lfd-pr2-artificial-intelligence-crowdsourcing-robotics-machine-learning/
- Härte, Larry. "Roboter Querdenken beibringen." MIT-Nachrichten. 25. Feb. 2013. (4. Nov. 2013)http://web.mit.edu/newsoffice/2013/teaching-robots-lateral-thinking-0225.html
- Hartshorne, Joshua K. "Wo sind die sprechenden Roboter?" Wissenschaftlicher amerikanischer Geist. März/April 2011.
- Hicks, Jennifer. "Roboter das Täuschen beibringen." Forbes. 30. Dez. 2012. (4. Nov. 2013)http://www.forbes.com/sites/jenniferhicks/2012/12/30/teaching-robots-to-deceive/
- Ja, Alok. "Der erste Roboter, der Emotionen entwickeln und zeigen kann, wird vorgestellt." Der Wächter. 8. Aug. 2010. (4. Nov. 2013)http://www.theguardian.com/technology/2010/aug/09/nao-robot-develop-display-emotions
- Jones, Joshua, Forschungswissenschaftler, Georgia Institute of Technology. Email Verkehr. 11. November 2013. http://www.cc.gatech.edu/~jj187/
- Korn, Jon. "Ein 'Bot-Bestiarium: Die Robotertradition in der Science-Fiction." LitReactor. 13. Juli 2012. (4. November 2013)http://litreactor.com/columns/a-bot-bestiary-the-robotic-tradition-in-science-fiction
- Markoff, John. "Forscher bringen Tastsinn in die Reichweite von Robotern." Die New York Times. 28. April 2013. (4. Nov. 2013)http://www.nytimes.com/2013/04/28/science/researchers-put-sense-of-touch-in-reach-for-robots.html? _r=0
- OpenSLAM.org. "Was ist SLAM?" (4. Nov. 2013)http://www.openslam.org/
- Ratlif, Nathan D., J. Andrew Bagnell und Siddhartha Srinivasa. "Nachahmungslernen für Fortbewegung und Manipulation." Robotik-Institut, Carnegie Mellon University. Dezember 2007. (4. Nov. 2013)http://www.ri.cmu.edu/pub_files/pub4/ratliff_nathan_2007_4/ratliff_nathan_2007_4.pdf
- Rieland, Randy. "Roboter bekommen die menschliche Note." Smithsonian-Magazin. 10. Nov. 2011. (4. Nov. 2013)http://blogs.smithsonianmag.com/ideas/2011/11/robots-get-the-human-touch/
- Schulz, Colin. "Dieser neue Roboter hat einen Tastsinn." Smithsonian-Magazin. 29. April 2013. (4. Nov. 2013)http://blogs.smithsonianmag.com/smartnews/2013/04/this-new-robot-has-a-sense-of-touch/
- Sipper, Moshe und James A. Reggia. "Geh hinaus und repliziere." Wissenschaftliche amerikanische Berichte. Sonderausgabe zur Robotik. 2008.
- Stahl, Bill. "Forscher bauen einen Roboter, der sich reproduzieren kann." Cornell Chronik. 25. Mai 2005. (4. November 2013)http://www.news.cornell.edu/stories/2005/05/researchers-build-robot-can-reproduce
- Summet, Jay. Email Verkehr. 22. November 2013. http://www.summet.com/
- Tofel, Kevin C. "MIT: Wir sind selbstreplizierenden Objekten einen Schritt näher gekommen." Gigaom. 3. April 2012. (4. Nov. 2013) http://gigaom.com/2012/04/03/mit-were-one-step-closer-to-self-replicating-objects/
- Wadsworth, Derek. "Adaptive Robotik." Idaho National Laboratory. (4. November 2013) https://inlportal.inl.gov/portal/server.pt/community/robotics_and_intelligence_systems/455