
Nós, humanos, mascaramos nossas intenções com mentiras, desorientação e desinformação. Mas um dos aspectos mais reveladores da comunicação interpessoal não são as palavras. É linguagem corporal . Alguns pesquisadores dizem que mais da metade de nossa comunicação acontece por meio da linguagem corporal; o tom de voz e as palavras faladas foram um segundo e terceiro distantes, respectivamente [fonte: Thompson ].
Hoje em dia, não são apenas as pessoas que lêem a linguagem corporal. As máquinas também estão captando essas pistas não verbais, a ponto de algumas até conseguirem ler nossas emoções.
Pegue o SHORE Human Emotion Detector, que é um aplicativo (ou "vidro") para o Google Glass , um computador vestível do Google. Uma organização alemã chamada Fraunhofer Institute criou inicialmente o SHORE para reconhecimento de objetos. SHORE significa Sophisticated High-Speed Object Recognition Engine.
Para um computador, seu rosto é, em última análise, apenas outro objeto, embora com todos os tipos de contornos únicos e topografia variável. Ao realizar seus cálculos, tudo o que o SHORE precisa é de uma câmera digital simples como a encontrada no Google Glass. Em cerca de 10 quadros por segundo, ele analisa os dados de imagem recebidos e os compara com um banco de dados de 10.000 rostos que foram usados para calibrar o software.
Usando essas comparações, juntamente com medições instantâneas do seu rosto, o SHORE pode fazer uma boa estimativa se você está feliz, triste, surpreso ou com raiva. Cerca de 94 por cento do tempo, SHORE sabe se você é homem ou mulher. Vai ser difícil adivinhar sua idade também.
A tela do Google Glass pode fornecer um feed contínuo de atualizações visuais com todos os dados que o SHORE produz e, se você quiser, também estão disponíveis dicas de áudio. O que você faz com esses insights é com você. Talvez esse cara realmente goste de você. Ou talvez ele seja do tipo nerd que realmente só quer colocar as mãos no seu Google Glass.
Brincadeiras à parte, Fraunhofer quer que consumidores e empresas entendam que existem alguns usos sérios para o SHORE. Pessoas com condições como autismo e Asperger muitas vezes lutam para interpretar os sinais emocionais dos outros. O feedback em tempo real de softwares como o SHORE pode ajudá-los a ajustar sua própria caixa de ferramentas emocional para entender melhor o dar e receber interpessoal.
Os fabricantes de automóveis podem integrar o SHORE em seus veículos para detectar a sonolência do motorista. Nesta aplicação, um alarme despertaria os motoristas em perigo de derivar ao volante.
O pessoal médico poderia usar o SHORE para identificar melhor a dor física nos pacientes. O SHORE pode até detectar sofrimento psicológico como a depressão, que é notoriamente difícil de detectar em muitas pessoas. Em situações de vida assistida, a SHORE pode manter um olho incansável nos pacientes para garantir que eles estejam seguros.
E, claro, há um lado lucrativo no SHORE. Empresas de marketing de todos os tipos podem implantar esse aplicativo para avaliar as reações dos consumidores a, digamos, um comercial de produto ou trailer de filme e, assim, ter uma ideia melhor de quão eficaz sua campanha publicitária pode ser.
Algum bom tempo de rosto

Todos os cálculos do SHORE acontecem no dispositivo local. E tudo começa com a detecção de rosto. O SHORE detecta rostos corretamente em aproximadamente 91,5% das vezes. Ele reconhece se seu rosto está para frente, girado ou apontado para um lado no perfil. Ele rastreia o movimento de seus olhos, nariz, lábios e outras características faciais e verifica a posição de cada um em seu banco de dados de rosto. O sistema funciona melhor quando o assunto está de frente para você e dentro de 6 pés (2 metros) ou mais.
O software usa algoritmos testados e comprovados para deduzir o estado emocional de cada alvo. Por funcionar tão rapidamente, ele pode até captar microexpressões , aqueles lampejos de expressões faciais que duram uma fração de segundo e traem até mesmo pessoas que são excelentes em controlar sua linguagem corporal.
SHORE é melhor em ler emoções realmente óbvias. As pessoas que são verdadeiramente felizes não só têm grandes sorrisos cheios de dentes – elas também sorriem nos olhos. As pessoas que ficam chocadas normalmente têm as mesmas reações de olhos arregalados e boca arregalada. SHORE capta esses sinais facilmente, mas não é tão preciso quando se trata de outras emoções, como tristeza ou raiva.
É fácil ficar um pouco (ou muito) assustado com o SHORE. Se um software pode detectar com precisão seu humor, idade e sexo, por que não pode identificá-lo pelo nome? A resposta é, bem, provavelmente poderia. Governos e empresas vêm usando tecnologias de reconhecimento facial há anos para identificar terroristas e criminosos.
Mas a SHORE não compartilha as imagens que captura. Ele nem precisa de uma conexão de rede para realizar sua mágica. Em vez disso, ele simplesmente usa a CPU integrada do Glass para fazer seu trabalho. Isso significa que nenhuma das imagens vai para a nuvem ou online, onde podem ser usadas para fins bons ou nefastos. Isso também significa que o SHORE não identificará pessoas, o que, em teoria, alivia uma grande preocupação com a privacidade.
Embora a Fraunhofer tenha escolhido exibir o SHORE no Google Glass, outros dispositivos podem usar o SHORE. Qualquer computador com uma câmera simples, como um smartphone ou tablet, pode eventualmente instalar o SHORE para fins de detecção de emoções.
Por causa de sua parceria com o Google, o SHORE pode ser um dos aplicativos de detecção de emoções mais visíveis, mas certamente não é o único. Muitas outras empresas veem valor na identificação automatizada de emoções e, como há muito espaço para melhorias, a concorrência é dura. Toda empresa tem que lidar com desafios como pouca iluminação, velocidades de processamento da CPU, duração da bateria do dispositivo e restrições semelhantes.
Mas, assim como o software de reconhecimento de voz melhorou imensamente nos últimos anos, você pode esperar que o reconhecimento de emoções também melhore. A era da computação emocional está chegando. Vamos torcer para que nossas máquinas lidem com toda a nossa fragilidade humana com a preocupação e carinho que merecemos.
Muito Mais Informações
Nota do autor: Como o Google Glass pode detectar as emoções das pessoas?
À medida que os aplicativos de reconhecimento de emoções avançam, softwares de todos os tipos se transformarão de maneiras estranhas e maravilhosas. Seu smartphone o verá quando estiver triste e exibirá fotos engraçadas de cachorrinhos e gatinhos. Quando você estiver com raiva, ele mostrará imagens relaxantes da natureza e ligará automaticamente para o seu terapeuta. Quando você parecer um pouco embriagado, ele pedirá pizza para que você não dirija para buscá-la. Ou talvez seu dispositivo inteligente seja realmente surdo às suas necessidades, muito parecido com seu ex. De qualquer forma, você pode apostar que programadores inteligentes encontrarão todos os tipos de maneiras de integrar a detecção de emoções em aplicativos futuros, para melhor ou para pior.
Artigos relacionados
- Como funcionam os sistemas de reconhecimento facial
- Como funciona o reconhecimento de fala
- Como funciona a resposta de voz interativa (IVR)
- 5 comandos úteis ativados por voz para o seu carro
Origens
- Antônio, Sebastião. "Detecção de emoções em tempo real com o Google Glass, um sabor incrível e assustador do futuro dos computadores portáteis." ExtremeTech. 4 de setembro de 2014. (2 de outubro de 2014) http://www.extremetech.com/extreme/189259-real-time-emotion-detection-with-google-glass-an-awesome-creepy-taste-of -o-futuro-dos-computadores-vestíveis
- Diep, Francie. "Um aplicativo do Google Glass que detecta as emoções das pessoas." Ciência popular. 2 de setembro de 2014. (2 de outubro de 2014) http://www.popsci.com/article/technology/google-glass-app-detects-peoples-emotions
- Duton, Jack. "Este aplicativo permite que as pessoas que usam o Google Glass vejam suas verdadeiras emoções." Insider de Negócios. 1º de setembro de 2014. (2 de outubro de 2014) http://www.businessinsider.com/new-app-lets-google-glass-detect-emotion-2014-9
- Comunicado de imprensa de Fraunhofer. "Uma estreia mundial visionária: Fraunhofer IIS apresenta o primeiro aplicativo de detecção de emoções do mundo no Google Glass." 27 de agosto de 2014. (2 de outubro de 2014) http://www.iis.fraunhofer.de/en/pr/2014/20140827_BS_Shore_Google_Glas.html
- Site corporativo Fraunhofer. "Soluções de software SHORE para várias aplicações." (2 de outubro de 2014) http://www.iis.fraunhofer.de/en/ff/bsy/bran/branchen_shore.html
- LAVAR, Nick. "O aplicativo Google Glass da Fraunhofer detecta emoções humanas em tempo real." Gizmag. 27 de agosto de 2014. (2 de outubro de 2014) http://www.gizmag.com/fraunhofer-shore-google-glass-human-emotion/33568/
- O'Neil, Lauren. "Um aplicativo do Google Glass que detecta emoções humanas pode ajudar pessoas com autismo?" CBC Notícias. 2 de setembro de 2014. (2 de outubro de 2014) http://www.cbc.ca/newsblogs/yourcommunity/2014/09/could-a-google-glass-app-that-detects-hum an-emotion- ajuda-aqueles-com-autismo.html
- Thompson, Jeff. "A comunicação não-verbal é um jogo de números?" Além das Palavras na Psicologia Hoje. 30 de setembro de 2011. (2 de outubro de 2014) http://www.psychologytoday.com/blog/beyond-words/201109/is-nonverbal-communication-numbers-game
- Truong, Alice. "Este aplicativo do Google Glass detectará suas emoções e as transmitirá aos varejistas." Empresa Rápida. 6 de março de 2014. (2 de outubro de 2014) http://www.fastcompany.com/3027342/fast-feed/this-google-glass-app-will-detect-your-emotions-then-relay-them- de volta aos varejistas