×
×
        Über uns
WAP/PAD
Startseite>>Wissenschaft und Technik

Apples Siri lernt Shanghaier Dialekt

(German.china.org.cn)
Mittwoch, 15. März 2017
Folgen Sie uns auf
Schriftgröße

In der letzten Woche wurde Google Assistant auf breiter Front veröffentlicht - womit der Krieg der Stimmen-Assistenten voll entbrannt ist. Daneben bieten noch die Firmen Apple Inc, Amazon.com Inc, Microsoft Corp und nun auch Alphabet Inc's Google elektronische Assistenten an, welche Befehle entgegennehmen.

Bei Siri handelt es sich um die älteste Assistentin. Wissenschaftler wie Oren Etzioni, der Geschäftsführer am Allen-Institut für Künstliche Intelligenz in Seattle sagte, Apple hätte seinen Vorsprung eingebüßt, wenn es um das Verstehen der Sprache und die Beantwortung von Fragen geht. Aber es gibt zumindest eine Sache, welche Siri kann und die anderen Assistenten nicht: Sie spricht 21 Fragen, die für 36 Länder lokalisiert sind. Das ist eine sehr wichtige Fähigkeit in einem Smartphone-Markt, in dem die meisten Geräte außerhalb der USA verkauft werden.

Microsoft Cortana hat im Gegensatz dazu acht Sprachen für 13 Länder. Googles Assistent, der auf dem Pixel-Phone begonnen hat und nun zu anderen Android-Angeboten gewandert ist, spricht vier Sprachen. Amazonss Alexa hat überhaupt nur Englisch und Deutsch. Siri hingegen wird bald damit beginnen, den speziellen Shanghai-Dialekt zu lernen, der von den Wu-Chinesen nur um die Region Shanghai gesprochen wird. Das Sprachproblem zeigt, welche Hürden die digitalen Assistenten meistern müssen, wenn sie zu einem unersetzlichen Tool auf elektronischen Geräten werden wollen. Bei Microsoft arbeitet ein Redakteursteam von 29 Menschen daran, Cortana für lokale Märkte anzupassen. Google und Amazon sagten, sie würden mehr Sprachen für ihre Assistenten planen, doch sie hätten es abgelehnt, die Frage weiter zu kommentieren.

Bei Apple startet die Firma beim Erarbeiten der neuen Sprache damit, dass Menschen Passagen in verschiedenen Akzenten und Dialekten vorlesen. Diese werden dann von Hand zum Computer verarbeitet, sagte Alex Acero, Vorstand des Sprachenteams von Apple. Apple fängt auch eine Bandbreite an Geräuschen und Änderungen der Stimmen ein. Dann baut ein akustisches Modell die Wortsequenzen ein. Daraufhin startet Apple den „Diktatmodus“, ein Übersetzer in der neuen Sprache, wie Acero sagte. Wenn die Kunden den Diktatmodus verwendet, sammelt Apple einen kleinen Prozentteil der Aufnahmen und macht sie anonym. Die Aufnahmen werden mit dem Hintergrundgeräuschen und den gemurmelten Wörtern kombiniert. Dadurch wird die Fehlerrate halbiert. Nachdem genügend Daten gesammelt wurden, wird Siri von Apple mit Antworten auf Fragen ergänzt, von denen Apple annimmt, dass diese häufig vorkommen, sagte Acero. Alle zwei Wochen wird das Programm upgedatet.

Doch das Schreiben von Programmen reicht nicht aus, sagte Charles Jolley, der Programmierer eines intelligenten Assistenten mit dem Namen Ozlo. „Man kann nicht genügend Programmierer anheuern, wenn das System in jeder Sprache laufen soll. Man muss die Antworten der künstlichen Intelligenz anpassen“, sagte er. Bis dahin dauert es noch Jahre. An dieser Aufgabe arbeiten die Gründer von Viv, ein Start-up Unternehmen, das von den ursprünglichen Erschaffern von Siri gegründet wurde. Samsung hat das Programm im letzten Jahr gekauft. „Viv wurde entwickelt, um intelligente Assistenten beim Skalierungsproblem zu unterstützen“, sagte Dag Kittlaus, der Geschäftsgründer und Co-Gründer von Vivi. „Man muss das System öffnen und die gesamte Welt daran arbeiten lassen.“

Folgen Sie uns auf Facebook und Twitter !
German.people.cn, die etwas andere China-Seite.
Copyright by People's Daily Online. All Rights Reserved.