22.11.2017


Home  >  Bibliothek

Dokumentationen: allgemeine

Spezifikationen und Referenzen

Hier finden Sie die alle Standards und Spezifikationen, die von den relevanten Institutionen für das Entwickeln von Sprachanwendungen vereinbart wurden oder die aus angrenzenden Bereichen stammen und unter bestimmten Umständen auch bei Sprachlösungen verwendet werden.

Markup Sprachen

Voice Extensible Markup Language (VoiceXML) 3.0 Requirements
W3C Working Draft, 08.08.2008
Die Voice Browser Working Group hat den ersten öffentlichen Working Draft für die Voice Extensible Markup Language (VoiceXML) 3.0 Requirements veröffentlicht. VoiceXML 2.0 ist dafür entwickelt worden, Audiodialoge zu gestalten, die Synthetische Sprachausgabe, digitalisierte Audios, Spracherkennung oder DTMF-Input, Aufnahmen von gesprochener Sprache, Telefonie und Mixed-Initiative-Konveresationen nutzen. VoiceXML 3.0 ist der offizielle Nachfolger von VoiceXML 2.0. Die Zielsetzung der neuen Version ist es, neue, leistungsstarke Dialogfunktionalitäten für fortschrittliche Sprachanwendungen zu ermöglichen und die einfache, problemlose Integration in andere W3C-Sprachen.
W3C VXML 3.0

W3C veröffentlicht neue Empfehlung für Speech Synthesis Markup Language (SSML), Version 1.1
W3C, 12.11.2008
Die Voice Browser Working Group empfiehlt die Speech Synthesis Markup Language (SSML), Version 1.1 als Standard. Die Speech Synthesis Markup Language Specification wurde entwickelt, um eine reiche, XML-basierte Markup Language zur Unterstützung von synthetischer Sprache im Web und in anderen Anwendungen. Die wichtigste Aufgabe dieser Markup Language ist, Autoren synthetisierbarer Inhalte eine standardisierte Möglichkeit zu bieten, Aspekte von Sprache wie Aussprache, Lautstärke, Pitch, etc. auf verschiedenen Synthese-Plattformen zu vereinheitlichen.
... mehr

Speech Synthesis Markup Language (SSML) Version 1.1
W3C Working Draft, 20.06.2008
Die Speech Synthesis Markup Language wurde entwickelt, um mit einer umfassenden, XML-basierten Auszeichnungssprache die Generierung synthetischer Sprache im Web und anderen Anwendungen zu unterstützen. Ihre wesentliche Aufgabe ist es, Autoren synthetisierbarer Inhalte einen Standard zu geben, mit dem sie synthetische Sprache hinsichtlich Betonung, Aussprache, Lautstärke, Stimmung, etc. über verschiedene Synthese fähige Plattformen steuern können. Der aktuelle Working Draft zielt vor allem auf die Internationalisierung der SSML ab und berücksichtigt Spezifika von Sprachen aus Osteuropa, dem Mittleren Osten und Asien.
W3C SSML 1.1

State Chart extensible Markup Language (SCXML)
W3C Working Draft, 16.05.2008
Die W3C Voice Browser Working Group hat einen weiteren neuen Arbeitsbericht für State Chart XML (SCXML) herausgegeben: „State Machine Notation for Control Abstraction“. SCXML ist eine flexible Sprache für Zustandsautomaten, die die Konzepte von CCXML mit den State Tables von Harel kombiniert. Die wesentlichen Unterschiede zur Vorgängerversion sind 1. die Modularisierung der Sprache, 2. die Einführung von Profilen und 3. eine Revision des Algorithmus zur Dokumenteninterpretation.
W3C SCXML

Synthesis Markup Language (SSML) Version 1.1
W3C Working Draft, 17.03.2008
Die Speech Synthesis Markup Language Specification ist einer dieser Standards und wurde entwickelt, um mit einer umfassenden, XML-basierten Markup Language die Generierung synthetischer Sprache im Web und anderen Anwendungen zu unterstützen. Die wesentliche Aufgabe dieser Markup Language ist es, Autoren synthetisierbarer Inhalte einen Standard zu geben, mit dem sie Speech hinsichtlich Betonung, Aussprache, Lautstärke, Stimmung, etc. über verschiedene Synthese-fähige Plattformen steuern können. Der neue Working Draft zielt vor allem auf die Internationalisierung der SSML ab, damit auch Länder wie China, Japan und Indien Berücksichtigung finden.
W3C SSML 1.1

Extensible MultiModal Annotation (EMMA) Markup Language
Candidate Recommendation, 11.12.2007
EMMA ist ein Datentransferformat für das Interface zwischen Eingabeprozessoren und Interaction Management-Systemen innerhalb von multimodalen Architekturen und Interfaces. EMMA definiert außerdem Mittel zur Annotation applikationsspezifischer Informationen, wie z.B. Confidence Scores, Time Stamps, Eingabeart, alternative Erkennungshypothesen und partielle Erkennungsresultate.
W3C EMMA ML

Voice Extensible Markup Language (VoiceXML) 2.1
W3C Recommendation 19.06.2007
Die W3C Voice Browser Working Group hat ihre Arbeiten am VXML 2.0 Nachfolger abgeschlossen und ihn zur "Empfehlung" ernannt: "VoiceXML 2.1 spezifiziert Features, die häufig in Voice Extensible Markup Language Plattformen implementiert werden. Diese Spezifikation ist vollständig down-kompatibel mit VoiceXML 2.0." (aus dem Abstract des W3C-Dokuments)
W3C VoiceXML 2.1

State Chart extensible Markup Language (SCXML)
W3C Working Draft, 21.02.2007
Die W3C Voice Browser Working Group hat einen neuen Arbeitsbericht für State Chart XML (SCXML) herausgegeben: „State Machine Notation for Control Abstraction“. SCXML ist eine flexible Sprache für Zustandsautomaten, die die Konzepte von CCXML mit den State Tables von Harel kombiniert. SCXML erweitert das grundlegende Konzept der Zustandsautomaten um solch leistungsfähige Konzepte wie Übergangszustände und verschachtelte bzw. parallele Zustände. SCXML kann u.a. Anwendung als zukünftige Version der W3C Call Controll Language (CCXML) finden oder als Möglichkeit, die in VoiceXML enthaltenen Sprachmodule zu steuern (Voice Formulare, Voice Picklist, etc.).
W3C SCXML

Multimodale Architekturen and Interfaces
W3C Arbeitsbericht, 14.04.2008
"Dieses Dokument beschreibt eine lose zusammenhängende Architektur für multimodale User Interfaces, die kooperierende und verteilte Implementierungen erlaubt und fokussiert auf Markup und Scripting und die Nutzung genau definierter Interfaces zwischen den Bestandteilen." (aus dem Abstract des Dokuments)
W3C MAI WD 14.04.2008

Call Control Extensible Markup Language (CCXML) 1.0
CCXML Version 1.0, Arbeitsbericht vom 22.11.2006
"Dieses Dokument beschreibt CCXML, die Call Control eXtensible Markup Language. CCXML wurde entwickelt, um Telefonie-Call Control Support für VoiceXML oder andere Sprachanwendungen zu ermöglichen. Obwohl CCXML mit jedem Dialogsystem genutzt werden kann, das Medien verarbeitet, wurde CCXML entwickelt, um VoiceXML Interpreter zu ergänzen und zu integrieren. Daher gibt es in CCXML viele Hinweise zu den Möglichkeiten und Begrenzungen von VoiceXML sowie zur Integration von VoiceXML und CCXML. Dennoch sollte festgehalten werden, dass es sich hier um zwei unterschiedliche Sprachen handelt, die nicht notwendigerweise ineinander integriert oder eingebunden werden müssen. Zum Beispiel könnte CCXML integriert werden mit einem eher traditionellen Interactive Voice Response (IVR) System oder einer 3GPP Media Resource Function (MRF). VoiceXML oder andere Dialogsysteme könnten ebenso mit anderen Call Control-Systemen integriert werden." (aus dem Abstract des Dokuments)
W3C CCXML WD 22.11.2006

State Chart extensible Markup Language (SCXML)
W3C Working Draft, 24.01.2006
„Die Erwartungen an SCXML (State Chart extensible Markup Language) sind vielfältig: nicht nur soll sie die zum Zweck der Kontrolle von Telefoniefunktionen geschaffene Sprache CCXML ersetzen, sondern auch in friedlicher Koexistenz mit VoiceXML die Schwächen überwinden, die letztere insbesondere bei der Implementierung komplexer Dialogabläufe - Stichwort 'NLU' - aufweist. Darüber hinaus stellt man sich vor, SCXML auch zur Implementierung multimodaler Anwendungen einzusetzen, so diese denn einmal auch außerhalb der 'angewandten' Forschung Interesse finden.“ (Jörn Kreutel, Moderator des Diskussionsforums 'SCXML – zu abstrakt für VOICE?', in ebd.)
W3C SCXML

XML Inclusions (XInclude) Version 1.0
W3C Recommendation, 20.12.2004
Seit 2005 berät Dr. Ingo Bors Unternehmen bei der Optimierung von Prozessen zur Verbesserung des Kundenservices. Zuvor war er im Bereich des Kundenbeziehungsmanagements (CRM) tätig und verantwortete u.a. Produkteinführungen, Roadshows und vertriebliche Weiterbildungen. Effizienzsteigerungen im Contact Center und Automatisierung über Sprachportale gehören zu seinen Spezialgebieten. Einen weiteren Schwerpunkt bildet die enge Kooperation mit SAP zur Multikanal-Integration für mySAP CRM. Nach dem Studium der Physik, Astrophysik und Chinakunde setzte Herr Dr. Bors seine Laufbahn bei der Siemens AG fort und war als technischer Projektleiter verantwortlich für die Einführung eines der ersten Pre-Paid Dienste im Mobilfunk. >Fon: +49 178 478 62 39 W3C XInclude 1.0

Voice Extensible Markup Language (VoiceXML) 2.1
W3C Working Draft 28.07.2004
"VoiceXML 2.1 spezifiziert Features, die häufig in Voice Extensible Markup Language Plattformen implementiert werden. Diese Spezifikation ist vollständig down-kompatibel mit VoiceXML 2.0." (aus dem Abstract des W3C-Dokuments)
W3C VoiceXML 2.1

Voice Extensible Markup Language (VoiceXML) 2.0
W3C Recommendation 16.03.2004
"Dieses Dokument spezifiziert die Voice Extensible Markup Language VoiceXML. VoiceXML wurde entwickelt zur Herstellung von Audiodialogen, die Sprachsynthese, digitalisiertes Audio, Sprach- und Tonwahl-Steuerung, Aufnahme von Spracheingaben, Telefonie und gemischte Konversation beinhalten. Ziel dieses Dokumentes ist es, die Vorteile webbasierter Entwicklung und webbasierter Contentdistribution für interaktive Sprachanwendungen nutzbar zu machen." (aus dem Abstract des W3C-Dokuments)
W3C VoiceXML 2.0

Voice Extensible Markup Language 2.0 Document Type Definition
W3C Document Type Definition 13.12.2003
Die W3C konforme Document Type Definition für VoiceXML-Anwendungen.
W3C VoiceXML 2.0 DTD

Voice Extensible Markup Language (VoiceXML) 1.0
W3C Recommendation 07.03.2000
"Dieses Dokument spezifiziert die Voice Extensible Markup Language VoiceXML. VoiceXML wurde entwickelt zur Herstellung von Audiodialogen, die Sprachsynthese, digitalisiertes Audio, Sprach- und Tonwahl-Steuerung, Aufnahme von Spracheingaben, Telefonie und gemischte Konversation beinhalten. Ziel dieses Dokumentes ist es, die Vorteile webbasierter Entwicklung und webbasierter Contentdistribution für interaktive Sprachanwendungen nutzbar zu machen." (aus dem Abstract des W3C-Dokuments)
W3C VoiceXML 1.0

Deutsche VoiceXML Referenz
Udo Glaeser
Die bisher einzige öffentlich zugängliche deutsche Referenz für die VoiceXML Tags stellt Ihnen VOICE Community Experte Udo Glaeser hier zur Verfügung!
VoiceXML Tutorial

Speech Synthesis Markup Language (SSML) 1.0
W3C Recommendation 07.09.2004
"Die W3C-Arbeitsgruppe Voice Browser versucht Standards zu entwickeln, die das Web der Sprachsteuerung erschließen. Die Speech Synthesis Markup Language Specification ist einer dieser Standards und wurde entwickelt, um mit einer umfassenden, XML-basierten Markup Language die Generierung synthetischer Sprache im Web und anderen Anwendungen zu unterstützen. Die wesentliche Aufgabe dieser Markup Language ist es, Autoren synthetisierbarer Inhalte einen Standard zu geben, mit dem sie Speech hinsichtlich Betonung, Aussprache, Lautstärke, Stimmung, etc. über verschiedene Synthese-fähige Plattformen steuern können." (aus dem Abstract des W3C-Dokuments)
W3C SSML 1.0

SSML 1.0 Attribut-Werte
W3C Note, 26.05.2005
SSML 1.0 definiert nicht die Werte der Attribute des Elements. Die W3C Voice Browser Working Group hat nun ein Dokument veröffentlicht, das Definitionen für Attribute, die die meisten Anwendungsfälle dieses Elements beschreiben, enthält.
W3C SSML 1.0 say-as Attribute Values

Multimodal Architecture and Interfaces
W3C Working Draft, 22.04.2005
"Dieses Dokument beschreibt eine lose zusammenhängene Architektur für multimodale User Interfaces, die cooperierende und verteilte Implementierungen erlaubt und fokussiert auf Markup und Scripting und die Nutzung genau definierter Interfaces zwischen den Bestandteilen." (aus dem Abstract des Dokuments)
W3C MMAI

Multimodal Requirements for Voice Markup Languages
W3C Working Draft, 10.07.2000
"Multimodale Browser erlauben Nutzern das Interagieren mit einer Kombination verscheidener Ein- und Ausgabemedien wie zum Beispiel Spracherkennung und -synthese, Bildschirme, Tastaturen oder Zeigeinstrumenten. Die Voice Browser Arbeitsgruppe ist daran interessiert, Voice Brwosern multimodale Möglichkeiten zu verschaffen. Dieses Dokument legt eine priorisierte Liste von Erfordernissen für eine multimodale Dialog-Interaktion, die jede mögliche Markup Sprache (oder Erweiterung einer solchen Markupsprache) adressieren sollte." (aus dem Abstract des W3C-Dokuments)
W3C MRVML

Extensible MultiModal Annotation Markup Language (EMMA)
W3C Working Draft 16.09.2005
Die W3C Multimodal Interaction Arbeitsgruppe entwickelt Spezifikationen, die Internetzugang per multimodaler Interaktion ermöglichen.
Dieses Dokument ist Teil einer Gruppe von Spezifikationen für multimodale Systeme, und es liefert Details einer XML Markup Sprache zur Interpretation von Nutzereingaben.
W3C EMMA

Call Control Extensible Markup Language (CCXML) 1.0
CCXML Version 1.0, Working Draft vom 11.05.2005
"Dieses Dokument beschreibt CCXML, die Call Control eXtensible Markup Language. CCXML wurde entwickelt, um Telefonie-Call Control Support für VoiceXML oder andere Sprachanwendungen zu ermöglichen. Obwohl CCXML mit jedem Dialogsystem genutzt werden kann, das Medien verarbeitet, wurde CCXML entwickelt, um VoiceXML Interpreter zu ergänzen und zu integrieren. Daher gibt es in CCXML viele Hinweise zu den Möglichkeiten und Begrenzungen von VoiceXML sowie zur Integration von VoiceXML und CCXML. Dennoch sollte festgehalten werden, dass es sich hier um zwei unterschiedliche Sprachen handelt, die nicht notwenigerweise ineinander integriert oder eingebunden werden müssen. Zum Beispiel könnte CCXML integriert werden mit einem eher traditionellen Interactive Voice Response (IVR) System oder einer 3GPP Media Resource Function (MRF). VoiceXML oder andere Dialogsysteme könnten ebenso mit anderen Call Control-Systemen integriert werden." (Abstract des W3C)
CCXML 1.0

Call Control Extensible Markup Language (CCXML) 1.0
W3C Working Draft, 30.04.2004
(älteres Working Draft der oben beschriebenen Spezifikation)
W3C CCXML 1.0

ECMAScript for XML (E4X)
ECMA-Standard, Dezember 2005
"Dieser Standard definiert die Syntax und Semantik des ECMAScript for XML (E4X)." (aus dem Abstract des ECMA-Dokuments)
ECMAScript for XML

Grammatik / Semantik

Pronunciation Lexicon Specification (PLS) Version 1.0
W3C Candidate Recommendation, 12.12.2007
Dieses Dokument definiert die Syntax zur Spezifizierung von Aussprache-Lexika für Speech Recognition- und Speech Synthesis-Engines in Voice Browser-Anwendungen.
W3C PLS 1.0

Semantic Interpretation for Speech Recognition (SISR) Version 1.0
W3C Recommendation 05.04.2007
"Dieses Dokument definiert den Prozess semantischer Interpretation von Spracherkennung und die Syntax und Semantik der Befehle für die semantische Interpretation. Diese wird den Grammatiken von Spracherkennern hinzugefügt, um Informationen für die Rückgabe an eine Anwendung auf Basis von Regeln und Tokens aufzubereiten, die der Spracherkenner verarbeiten kann. Im Besonderen werden die Syntax und die Semantik von Befehlsinhalten der Speech Recognition Grammar Specification definiert.
Die Ergebnisse semantischer Interpretation beschreiben die Bedeutung einer natürlichsprachlichen Äußerung. Die vorliegende Spezifikation stellt diese Information als ein ECMAScript Objekt dar und definiert einen Mechanismus, um das Ergebnis in XML auszugeben." (aus dem Abstract des W3C-Dokuments)
W3C SISR 1.0

Pronunciation Lexicon Specification (PLS) Version 1.0
3C Working Draft, 14.02.2005
Dieses Dokument definiert die Syntax zur Spezifizierung von Aussprache-Lexika für Speech Recognition- und Speech Synthesis-Engines in Voice Browser-Anwendungen.
W3C PLS 1.0

Speech Recognition Grammar Specification (SRGS) 1.0
W3C Recommendation, 16.03.2004
"Dieses Dokument definiert die Syntax, mit der Grammatiken für den Einsatz in der Spracherkennung beschrieben werden, so dass Entwickler Worte und Wortfolgen spezifizieren können, die ein Spracherkenner identifizieren soll. Die Syntax der Grammatik wird dargestellt in zwei Formen, einer erweiterten BNF Form und einer XML Form." (aus dem Abstract des W3C-Dokuments)
W3C SRGS 1.0

Semantic Interpretation for Speech Recognition
W3C Working Draft, 08.11.2004
"Dieses Dokument definiert den Prozess semantischer Interpretation von Spracherkennung und die Syntax und Semantik der Befehle für die semantische Interpretation. Diese wird den Grammatiken von Spracherkennern hinzugefügt, um Informationen für die Rückgabe an eine Anwendung auf Basis von Regeln und Tokens aufzubereiten, die der Spracherkenner verarbeiten kann. Im Besonderen werden die Syntax und die Semantik von Befehlsinhalten der Speech Recognition Grammar Specification definiert.
Die Ergebnisse semantischer Interpretation beschreiben die Bedeutung einer natürlichsprachlichen Äußerung. Die vorliegende Spezifikation stellt diese Information als ein ECMAScript Objekt dar und definiert einen Mechanismus, um das Ergebnis in XML auszugeben." (aus dem Abstract des W3C-Dokuments)
W3C SISR

Protokolle

Media Ressource Control Protocol Version 2 (MRCPv2)
IETF Working Draft, 05.03.2007
Das MRCPv2 versetzt Client Hosts in die Lage, Ressourcen von Medien Services, z.B. Sprachsynthesizer, -erkennung, -prüfung sowie –identifizierung, zu steuern, die sich auf Servern im Netz befinden. MRCPv2 ist dabei kein „Stand-alone“ Protokoll, sondern beruht auf einem Session Management Protokoll wie SIP (Session Initiation Protocol), das die Kontroll-Session des MRCPv2 zwischen Client und Server herstellt und überwacht. (aus dem abstract des IETF Working Draft)
MRCPv2

SALT - Speech Application Language Tags

Speech Application Language Tags
SALT Forum 1.0 Specification, 15.07.2002
"Die Speech Application Language Tags (SALT) 1.0 sind eine Erweiterung von HTML und anderen Markup Sprachen (cHTML, XHTML, WML, etc.), die diesen ein Sprach- und Telephonie-Interface für Webanwendungen und -dienste (sowohl für "voice only" (z.B. Telephon) und multimodale Browser).
Dieses Dokument führt SALT ein und umreißt die typischen Anwendungsszenarien, für die es eingesetzt werden kann, die Prinzipien, die dem SALT-Design zugrunde liegen sowie Ressourcen, auf die sich die Spezifikation bezieht." (aus dem Abstract des SALT Forum Dokuments)
SALT 1.0

SALT Programmer's Reference
Microsoft
Sprachgesteuerte Webseiten können auf zwei verschiedene Weisen realisiert werden. Der erste Ansatz baut auf Web Forms Server Controls auf, meist Web Server Controls genannt. Der zweite Ansatz baut auf textuelle Programmierung ähnlich wie es auch bei html gemacht wird. Dieser Ansatz nutzt Speech Application Language Tags (SALT), eine Erweiterung von HTML, und führt zahlreiche neue high-level Tags ein. Dieses Dokument beschreibt kurz den ersten Ansatz. Zudem bietet es eine detaillierte Übersicht über SALT und warum SALT wichtig ist für die Entwicklung von Sprachapplikationen.
SALT Programmer's Reference

SALT Adopters Agreement
SALT Forum
Der Vertrag, der die lizenzfreie Nutzung des SALT Standards regelt und von Anwendern des Standards ausgefüllt und an das SALT Forum gesandt werden muss.
SALT Adopters Agreement

Various

Allgemeine Vorschläge des W3C zur Entwicklung multimodaler Benutzer-Interfaces
W3C Working Group Note, 11.09.2006
Die Arbeitsgruppe Multimodal Interaction hat eine W3C-Mitteilung veröffentlicht, die die gesammelte Erfahrung von mehreren Jahren der Entwicklung multimodaler Anwendungen beschreibt. Sie bietet eine Sammlung allgemeiner Ratschläge für Entwickler von multimodalen Benutzer-Interfaces.
W3C Developing Suggestions
Name:
Kennwort:
Anmeldung speichern
jetzt registrieren!
Spezifikationen gesucht
...und nicht gefunden?
... mehr
| | | |
© VOICE Community 2004 bis 2017 - Alle Rechte vorbehalten