
Als Siri, der virtuelle Assistent von Apple iOS, Ende 2011 zum ersten Mal auf iPhones auftauchte, wurde die fröhliche Frauenstimme des Programms schnell zu einer Sensation. Es war nicht nur so, dass Siri die gesprochenen Anweisungen seiner Besitzer verstehen und Fragen beantworten, Telefonnummern wählen, einen Wetterbericht erstellen, Wegbeschreibungen zu einem Ziel nachschlagen oder sogar das beste thailändische Restaurant in einer Nachbarschaft finden und eine Reservierung vornehmen konnte. Wie Schauspieler John Malkovich in einer Reihe von cleveren Apple-Werbespots wie diesem demonstrierte , konnte Siri sogar scheinbar Smalltalk machen, als wäre sie - hoppla, es - eine echte Person.
Siri - dessen Name für Sprachinterpretations- und Erkennungsschnittstelle steht - wurde schließlich von Konkurrenten wie Microsoft Cortana und der Google Now- App des Android-Betriebssystems unterstützt , die keine Persönlichkeit haben, aber dennoch Fragen von Benutzern in natürlicher Sprache verstehen und mit gesprochenen Antworten antworten können Antworten. Es gibt auch Alexa, den virtuellen Assistenten, der mit der Amazon Echo-Haushaltsgerät geliefert wird, die alles von der Musikwiedergabe bis zum Ein- und Ausschalten der Lichter basierend auf Sprachbefehlen erledigt. Und Verbraucher, die Unternehmen anrufen, stellen heutzutage normalerweise fest, dass sie mit IVR-Systemen (Interactive Voice Response) mit Spracherkennung anstelle eines tatsächlichen menschlichen Bedieners sprechen .
Sag es wie es ist
Aber wie Benutzer festgestellt haben, gibt es eine Sache, bei der solche Software Probleme hat - jemanden zu verstehen, der Englisch mit einem starken regionalen oder ausländischen Akzent spricht. Es dauerte nicht lange, bis Siris iPhone-Besitzer sich beschwerten, dass der virtuelle Assistent ihre Brogues nicht entziffern könne.
Ein YouTube-Nutzer namens James McDonald hat beispielsweise dieses Video gepostet, in dem Siri versucht , seine Anweisung zu übersetzen, um "eine Erinnerung zu erstellen". Benutzer, die Englisch mit indischen und philippinischen Akzenten sprachen, beklagten sich auch darüber, dass ihre Telefone sie nicht verstehen könnten.
Seitdem scheint sich die Fähigkeit der virtuellen Assistenten, Englisch mit Akzenten zu verstehen, fairerweise erheblich verbessert zu haben. Laut der Support-Website von Apple versteht das Programm jetzt Akzente und Dialekte in Englisch und 15 anderen Sprachen. Wie Dan Moren , ein ehemaliger MacWorld-Journalist, der jetzt für SixColors.com schreibt, im vergangenen Herbst feststellte, verknüpft Siri Sprache und Ort nicht mehr so streng wie früher, so dass selbst wenn Sie es so einstellen, dass es in britischem Englisch spricht kann es jemanden verstehen, der diesen Akzent nicht hat.
Einige regionale Akzente scheinen jedoch immer noch die Spracherkennungssoftware auszulösen. Wie die amerikanische Südstaatlerin Julia Reed kürzlich in einem Artikel für Garden & Gun feststellte, weigerten sich Smartphone- und Computer-Diktier-Apps immer noch, so ziemlich alles zu verstehen, was ich zu sagen hatte, als ein gebrochener Arm sie am Tippen hinderte.
Code-Umschaltung für einen Fix
Dieses Dilemma könnte irgendwann der Vergangenheit angehören, wenn virtuelle Assistenten und Spracherkennungssoftware uns schließlich dabei helfen, Englisch auf die gleiche Weise zu sprechen. Lars Hinrichs, außerordentlicher Professor für englische Sprache und Linguistik an der Universität von Texas in Austin, führt das Beispiel einer Freundin an, die ihren jamaikanischen Sprechstil fallen lassen und "einen US-Akzent vortäuschen" muss, um Siri dazu zu bringen, ihre Anweisungen zu verstehen. Eine andere Freundin, eine gebürtige Inderin, die seit 15 Jahren in den USA lebt, muss ebenfalls ihre Sprache ändern, um mit dem Programm zu kommunizieren.
"Einige [Sprach-] Merkmale verwirren Siri mehr als andere", erklärt er. "Jamaikanisches Englisch und indisches Englisch sprechen normalerweise Wörter wie Auto oder Vogel ohne 'r'-Ton aus. Das ist wirklich schwierig, wenn ein Sprachverarbeitungsgerät auf amerikanisches Englisch trainiert wird, da im amerikanischen Englisch das' r 'ausgesprochen wird."
Viele von uns haben bereits eine "Maschinenstimme" mit einer anderen Trittfrequenz, Tonhöhe und Aussprache entwickelt. Alan Black, Professor am Language Technologies Institute der Carnegie Mellon University, erklärte kürzlich in einem Artikel im Guardian, einer britischen Zeitung: "Wenn Sie neben jemandem auf einem Flughafen oder an einer Bushaltestelle oder so etwas stehen, können Sie dies normalerweise tun." Sagen Sie, wann sie mit einer Maschine sprechen, anstatt mit einer Person. "
Wissenschaftler, die die Entwicklung des Englischen untersuchen, sagen, dass eine solche Standardisierung, die sie Dialektnivellierung nennen, bereits seit Jahrzehnten stattfindet, angetrieben durch den Einfluss des Fernsehens und anderer Massenmedien. In den USA, wo die Menschen mehr als in der Vergangenheit in verschiedene Teile des Landes ziehen, beginnen die regionalen Unterschiede in der Art und Weise, wie wir sprechen, zu schwinden. Robin Dodsworth , Associate Professor für Linguistik an der North Carolina State University , der Aufzeichnungen von Hunderten von Reden von Bewohnern von Raleigh, NC, studiert hat, hat herausgefunden, dass die einzigartigen Vokale, die üblicherweise mit der Sprache des Südens verbunden sind, in Raleigh jetzt schwieriger zu finden sind.
Sprechen Sie in die Maschine
Hinrichs sieht in Siri und anderen Spracherkennungsprogrammen einen Beitrag zu diesem Trend. "Ich würde sagen, dass Siri et al. Die Konsequenz haben können, dass Einzelpersonen gezwungen werden, mit einem Standardakzent zu sprechen", sagt er.
Hinrichs stellt fest, dass auch andere Arten der elektronischen Kommunikation, wie beispielsweise Videokonferenzen, zur Standardisierung beitragen. "Individuen leben ihr Leben in immer komplexeren sozialen Netzwerken und sind infolgedessen einer immer größeren Anzahl unterschiedlicher Sprechweisen ausgesetzt: Sie hören mehr verschiedene Sprachen, mehr verschiedene ausländische Akzente und mehr verschiedene Muttersprachler Akzente auf Englisch ", erklärt er.
"Wenn Sie in einem Ingenieurbüro in Amarillo arbeiten und eine Skype-Konferenz mit einer Person in New York und einer anderen Person in Neu-Delhi abhalten, sind Sie einem ähnlichen Druck ausgesetzt", sagt er. "Sie werden sich geneigt fühlen, am verständlichsten zu sprechen, und das bedeutet normalerweise: in Ihrem Standardakzent mit dem geringsten lokalen Klang."
Trotzdem glaubt Hinrichs, dass Akzente trotz des standardisierenden Einflusses der Technologie nicht vollständig verschwinden werden. Ein Grund dafür ist, dass die Spracherkennung bei der Entschlüsselung regionaler Unterschiede wahrscheinlich immer ausgefeilter wird. "Ich kenne auch eine Reihe anderer Leute, von denen einer für Google arbeitet und die ihre Karriere damit verbringen, Computern beizubringen, Sprache und Schreiben mit lokalen oder nicht standardmäßigen Sprachformen zu verstehen", sagt er.
Wenn Spracherkennungs-Apps Menschen dazu zwingen, ihre Sprache zu ändern, erinnern sie uns auch daran, was uns auszeichnet. "Einzelpersonen und Gemeinschaften werden sich immer bewusster, dass ihre lokale Identität etwas Besonderes ist oder sich von anderen unterscheidet, und sie entwickeln einen stärkeren Wunsch als zuvor, ihre Lokalität zu bewahren und auszuführen", sagt er. Infolgedessen rechne er nicht damit, dass die lokalen Dialekte bald verschwinden würden.
Das ist interessant
Die meisten computergestützten Stimmen auf Gadgets sind weiblich, da Untersuchungen gezeigt haben, dass Menschen Frauenstimmen im Allgemeinen angenehmer finden als Männerstimmen. Eine Ausnahme bildete Deutschland, wo BMW in den 1990er Jahren ein Autonavigationssystem überarbeiten musste, nachdem sich männliche Fahrer darüber beschwert hatten, von einer Frau Anweisungen erhalten zu müssen.