
Wir Menschen maskieren unsere Absichten mit Lügen, Irreführung und Fehlinformationen. Aber einer der aussagekräftigsten Aspekte der zwischenmenschlichen Kommunikation sind nicht Worte. Es ist Körpersprache . Einige Forscher sagen, dass mehr als die Hälfte unserer Kommunikation über Körpersprache erfolgt; Tonfall und gesprochene Worte waren eine entfernte zweite bzw. dritte [Quelle: Thompson ].
These days, it's not just people reading body language. Machines are picking up on those nonverbal cues, too, to the point where some can even read our emotions.
Take the SHORE Human Emotion Detector, which is an app (or "glassware") for Google Glass , a wearable computer from Google. A German organization called the Fraunhofer Institute initially created SHORE for object recognition. SHORE stands for Sophisticated High-Speed Object Recognition Engine.
To a computer, your face is ultimately just another object, albeit one with all sorts of unique contours and shifting topography. When performing its calculations, all SHORE needs is a simple digital camera like the one found on Google Glass. At around 10 frames per second, it analyzes incoming image data and compares it against a database of 10,000 faces that were used to calibrate the software.
Using those comparisons, along with on-the-fly measurements of your face, SHORE can make a pretty good guess as to whether you're happy, sad, surprised or angry. About 94 percent of the time, SHORE knows if you're male or female. It'll take a stab guessing your age, too.
Das Google Glass-Display kann einen kontinuierlichen Feed mit visuellen Updates mit allen Daten liefern, die SHORE produziert, und wenn Sie möchten, sind auch Audiohinweise verfügbar. Was Sie aus diesen Erkenntnissen machen, liegt ganz bei Ihnen. Vielleicht steht der Typ wirklich auf dich. Oder vielleicht ist er der geekige Typ, der wirklich nur Ihre Google Glass in die Hände bekommen möchte.
Spaß beiseite, Fraunhofer möchte, dass Verbraucher und Unternehmen verstehen, dass SHORE einige ernsthafte Anwendungen hat. Menschen mit Erkrankungen wie Autismus und Asperger haben oft Schwierigkeiten, emotionale Hinweise von anderen zu interpretieren. Echtzeit-Feedback von Software wie SHORE kann ihnen helfen, ihre eigene emotionale Toolbox zu verfeinern, um das zwischenmenschliche Geben und Nehmen besser zu verstehen.
Autohersteller könnten SHORE in ihre Fahrzeuge integrieren, um die Müdigkeit des Fahrers zu erkennen. In dieser Anwendung würde ein Alarm Fahrer aufwecken, die vom Steuer abdriften könnten.
Medizinisches Personal könnte SHORE nutzen, um körperliche Schmerzen bei Patienten besser zu erkennen. SHORE kann sogar psychische Belastungen wie Depressionen erkennen, die bei vielen Menschen notorisch schwer zu erkennen sind. In Situationen des betreuten Wohnens könnte SHORE die Patienten unermüdlich im Auge behalten, um sicherzustellen, dass sie sicher sind.
Und natürlich hat SHORE auch eine geldverdienende Seite. Marketingunternehmen aller Art können diese App einsetzen, um die Reaktionen der Verbraucher auf beispielsweise einen Produktwerbespot oder einen Filmtrailer zu beurteilen und so eine bessere Vorstellung davon zu bekommen, wie effektiv ihre Werbekampagne sein könnte.
Einige gute Facetime

All of SHORE's calculations happen on the local device. And it all starts with face detection. SHORE detects faces correctly approximately 91.5 percent of the time. It recognizes whether your face is forward, rotated or pointed to one side in profile. It tracks the movement of your eyes, nose, lips and other facial features and checks the position of each against its face database. The system works best when your subject is facing you and within 6 feet (2 meters) or so.
Die Software verwendet bewährte Algorithmen, um den emotionalen Zustand jedes Ziels abzuleiten. Weil es so schnell arbeitet, kann es sogar Mikroausdrücke erfassen , jenes Aufflackern von Gesichtsausdrücken, das Sekundenbruchteile andauert und sogar Menschen verrät, die ihre Körpersprache hervorragend kontrollieren können.
SHORE ist am besten darin, wirklich offensichtliche Emotionen zu lesen. Menschen, die wirklich glücklich sind, haben nicht nur ein breites, breites Grinsen – sie lächeln auch in die Augen. Menschen, die schockiert sind, haben normalerweise die gleichen großen Augen und großen Mund. SHORE nimmt diese Hinweise leicht auf, ist aber nicht ganz so genau, wenn es um andere Emotionen wie Traurigkeit oder Wut geht.
It's easy to be a little (or a lot) freaked out by SHORE. If a piece of software can accurately detect your mood, age and gender, why can't it identify you by name? The answer is, well, it probably could. Governments and companies have been using facial recognition technologies for years now to spot terrorists and criminals.
But SHORE doesn't share the images it captures. It doesn't even need a network connection to perform its magic. Instead, it simply uses the Glass's onboard CPU to do its work. That means none of the images go into the cloud or online where they could be used for either good or nefarious purposes. It also means SHORE won't identify people, which in theory, alleviates a major concern about privacy.
Although Fraunhofer chose to showcase SHORE on Google Glass, other devices can use SHORE. Any computer with a simple camera, such as a smartphone or tablet, may eventually be able to install SHORE for emotion detection purposes.
Because of its partnership with Google, SHORE may be one of the most visible emotion detection applications, but it certainly isn't the only one. Many other companies see value in automated emotion identification, and because there's a lot of room for improvement, the competition is tough. Every company has to deal with challenges like poor lighting, CPU processing speeds, device battery life and similar restrictions.
But just as voice recognition software has improved by immeasurably in recent years, you can expect that emotion recognition will improve, too. The emotional computing age is coming. Let's hope our machines handle all of our human frailty with the concern and caring that we deserve.
Lots More Information
Author's Note: How could Google Glass detect people's emotions?
Mit der Weiterentwicklung von Anwendungen zur Emotionserkennung wird sich Software aller Art auf seltsame und wunderbare Weise verändern. Ihr Smartphone wird Sie sehen, wenn Sie traurig sind, und Bilder von lustigen Bildern von Welpen und Kätzchen anzeigen. Wenn Sie wütend sind, zeigt es beruhigende Bilder der Natur und wählt automatisch Ihren Therapeuten. Wenn Sie ein bisschen beschwipst aussehen, ruft es nach Pizza, damit Sie nicht selbst fahren müssen, um sie abzuholen. Oder vielleicht ist Ihr Smart-Gerät für Ihre Bedürfnisse eher taub, ähnlich wie Ihr Ex. Wie auch immer, Sie können darauf wetten, dass clevere Programmierer alle möglichen Wege finden werden, um die Emotionserkennung in kommende Apps zu integrieren, im Guten wie im Schlechten.
Zum Thema passende Artikel
- Wie Gesichtserkennungssysteme funktionieren
- Funktionsweise der Spracherkennung
- Funktionsweise von Interactive Voice Response (IVR).
- 5 nützliche sprachaktivierte Befehle für Ihr Auto
Quellen
- Anthony, Sebastian. "Real-Time Emotion Detection with Google Glass an Awesome, Creepy Taste of the Future of Wearable Comptuers." ExtremeTech. Sept. 4, 2014. (Oct. 2, 2014) http://www.extremetech.com/extreme/189259-real-time-emotion-detection-with-google-glass-an-awesome-creepy-taste-of-the-future-of-wearable-computers
- Diep, Francie. "A Google Glass App that Detects People's Emotions." Popular Science. Sept. 2, 2014. (Oct. 2, 2014) http://www.popsci.com/article/technology/google-glass-app-detects-peoples-emotions
- Dutton, Jack. "This App Lets People Wearing Google Glass See Your True Emotions." Business Insider. Sept. 1, 2014. (Oct. 2, 2014) http://www.businessinsider.com/new-app-lets-google-glass-detect-emotion-2014-9
- Fraunhofer press release. "A Visionary World Premier: Fraunhofer IIS Presents World's First Emotion Detection App on Google Glass." Aug. 27, 2014. (Oct. 2, 2014) http://www.iis.fraunhofer.de/en/pr/2014/20140827_BS_Shore_Google_Glas.html
- Fraunhofer corporate site. "SHORE Software Solutions for Various Applications." (Oct. 2, 2014) http://www.iis.fraunhofer.de/en/ff/bsy/bran/branchen_shore.html
- Lavars, Nick. "Fraunhofer's Google Glass App Detects Human Emotions in Real Time." Gizmag. Aug. 27, 2014. (Oct. 2, 2014) http://www.gizmag.com/fraunhofer-shore-google-glass-human-emotion/33568/
- O'Neil, Lauren. "Could a Google Glass App That Detects Human Emotion Help Those with Autism?" CBC News. Sept. 2, 2014. (Oct. 2, 2014) http://www.cbc.ca/newsblogs/yourcommunity/2014/09/could-a-google-glass-app-that-detects-hum an-emotion-help-those-with-autism.html
- Thompson, Jeff. "Is Nonverbal Communication a Numbers Game?" Beyond Words in Psychology Today. Sept. 30, 2011. (Oct. 2, 2014) http://www.psychologytoday.com/blog/beyond-words/201109/is-nonverbal-communication-numbers-game
- Truong, Alice. "This Google Glass App will Detect Your Emotions, Then Relay Them Back to Retailers." Fast Company. March 6, 2014. (Oct. 2, 2014) http://www.fastcompany.com/3027342/fast-feed/this-google-glass-app-will-detect-your-emotions-then-relay-them-back-to-retailers