Open stefanFarnetani opened 2 years ago
Die Funktion Untertitel vorlesen zu lassen ist für Nutzende mit Seh- oder Leseschwäche.
Geben die Untertitel das gesprochene Wort der Tonspur wieder, können Menschen, welche nur unter einer Seh- und Leseschwäche leiden, doch die ursprüngliche Tonspur nutzen, oder nicht? 🤨
Daneben gibt es Situationen in denen die Sprachqualität schlecht ist und man sich lieber die Untertitel anzeigen lassen will.
Dann wäre es nachhaltiger eine wahrnehmbare Audioqualität zu definieren (oh weh 😬), da ohne eine solche Vorgabe die Tonqualität der Untertitelausgabe ebenso unverständlich sein könnte – insbesondere zugemischt zum Originalton.
Und zu guter Letzt Nutzende die die Sprache nicht so gut verstehen und deshalb lieber die englischen oder spanischen Untertitel vorgelesen haben wollen.
Dann wäre es konsequent zu fordern, dass Sprachalternativen sowohl schriftlich als auch auf der Tonspur verfügbar sein müssen.
Für mich stellt sich die Frage bei Web-Angeboten: Wie erfolgt das Vorlesen? Da ein Teil der profitierenden Nutzenden keinen Screenreader nutzen, muss der Inhalt vom Video-Player vorgelesen werden. Und die Lautstärke der Audio muss auf jeden Fall separat steuerbar bzw. abschaltbar sein.
Sehr richtig, aber aus Usability-Sicht halte ich das für unrealistisch. Es macht die Bedienelemente zu komplex. Genaugenommen müsste es dann für jede zuschaltbare Tonspur Lautstärke-Regler geben, die wahrscheinlich alle in Kombination von mir zu justieren sind – neben der Eigentlichen Aktivierung von Untertiteln. Das gibt kein wünschenswertes Nutzerlebnis 😟
Hat irgendjemand einen Web-Videoplayer in freier Wildbahn gesehen, der das kann/unterstützt?
Nein, ein Grund dafür wird auch die in Punkt 4 genannte Komplexität der Bedienelemente sein.
Ich muss zugeben dass die EN wenig hilfreich ist, wenn es um das Erklären der Erfolgskriterien geht. Oder gibt es irgendwo sowas wie die "Understanding documents" der WCAG auch für die EN Erfolgskriterien.
Da stimme ich vollständig zu. Erklärende Nebendokumente dazu habe ich leider nicht gefunden und Eigeninterpretationen sind eben nur das, eigene Interpretationen. Nehmen wir mal die IBM-Dokumentation zu dieser Anforderung:
IBM unterscheidet Captions von Subtitles und sagt, letzteres ist der übersetzte, angezeigte Text zu fremdsprachigen Videoinhalten, welcher auch auf der Tonspur verfügbar sein sollte.
Ich glaube das ist eine grundlegend gute Idee, könnte aber mit der Audiodeskription abgefrühstückt werden.
Die EN selbst verwendet die Begriffe Captions und Subtitles offensichtlich Synonym, wie man caption in 3.1 Terms entnehmen kann. Zudem spricht auch die EN in der Anforderung selbst (verlinkt und zitiert im folgenden Punkt 8) nur in der Überschrift von Subtitles, besagt dann aber, man solle Captions ausgeben. Die Interpretation von IBM ist damit falsch.
Aktuell muss ich bei der EN an eine Textzeile der Band Kettcar denken: Das Gegenteil von 'gut' ist 'gut gemeint'
oder das englische Äquivalent The road to hell is paved with good intentions.
Die EN ist zu komplex und übernimmt sich total. Sie will auf der einen Seite möglichst alles beschreiben, erklärt aber nichts (und vor allem wenig Zusammenhänge) vollständig und schreckt am Ende Entwickler und Co einfach nur ab. Ich habe noch niemanden getroffen, der die EN für eine grundlegend gelungene Sache hält, alle kämpfen sich da irgendwie mit einem doch eher ablehnendem Gefühl durch 😩
Schauen wir noch mal in die EN zu Spoken subtitles:
Where ICT displays video with synchronized audio, it shall have a mode of operation to provide a spoken output of the available captions, except where the content of the displayed captions is not programmatically determinable.
NOTE 1: Being able to manage speech output range for spoken subtitles independently from general ICT speech is preferable for most users. That is possible when the audio file with spoken subtitle is delivered in a separate audio track and mixed in the end users device.
NOTE 2: Presenting the separate audio track with spoken subtitles in synchronization with the displayed subtitles/captions improves understandability of the subtitles.
NOTE 3: Providing subtitles/captions as separate text-streams, facilitates converting the respective texts into audio.
NOTE 4: Subtitles that are bitmap images are examples where the content of the displayed captions will not be programmatically determinable.
Übersetzt:
Wenn die Informations- und Kommunikationstechnologie Video mit synchronisiertem Ton anzeigt, muss sie über einen Betriebsmodus verfügen, um eine gesprochene Ausgabe der verfügbaren Untertitel bereitzustellen, es sei denn, der Inhalt der angezeigten Untertitel ist nicht programmgesteuert bestimmbar.
ANMERKUNG 1: Die Möglichkeit, den Sprachausgabebereich für gesprochene Untertitel unabhängig der allgemeinen Sprache der Informations- und Kommunikationstechnologie zu verwalten, ist für die meisten Benutzer vorzuziehen. Das ist möglich, wenn die Audiodatei mit gesprochenem Untertitel in einer separaten Audiospur geliefert und im Gerät des Endbenutzers gemischt wird.
ANMERKUNG 2: Präsentieren der separaten Audiospur mit gesprochenen Untertiteln synchron mit der angezeigten Untertitel/Untertitel verbessert die Verständlichkeit der Untertitel.
ANMERKUNG 3: Das Bereitstellen von Untertiteln/Beschriftungen als separate Textströme erleichtert das Umwandeln der jeweiligen Texte in Audio.
ANMERKUNG 4: Untertitel, die Bitmap-Bilder sind, sind Beispiele, bei denen der Inhalt der angezeigten Untertitel nicht programmgesteuert bestimmbar ist.
If you miss getting into heaven, why miss it by inches?
, also warum die Mühe machen, wenn es am Ende ohnehin nie reicht. So motiviert man niemanden, das Thema ernst zu nehmen und die Anforderungen gerne umzusetzen. Wirklich ärgerlich.Danke für die ausführlichen Überlegungen, @Michael-Detmers Ich sehe hier derzeit auch keine technische Lösung und finde auch, es gibt kein Problem. Dass die original-Tonspur vielleicht schlecht verständlich ist, hat nichts mit Barrierefreiheit zu tun. Wenn ein Sprecher nuschelt, wird der nunmal von niemandem verstanden. Das Nutztererlebnis ist mies für alle, egal ob man Einschränkungen hat oder nicht. Laute Hintergrundgeräusche können auch ein Stilmittel sein - gerade im Film kann es beabsichtigt sein, dass jemand nicht verstanden wird. Es kann auch die Ursache für einen dargestellten Unfall sein, weil der im Film angesprochene eine Warnung nicht gehört hat. Es gibt freilich auch ein SC, das in die Überlegungen hineingespielt haben könnte, allerdings ist das Level AAA (https://www.w3.org/WAI/WCAG21/Understanding/low-or-no-background-audio) und ich kann nicht verstehen, warum man eigentlich konsequent auf Level AA setzt und dann so etwas fordert. Selbst hier wird nur ein bestimmter Schwellenwert gefordert und keine Anpassbarkeit. Mir scheint das nicht ausgereift, nicht begründbar, nicht umsetzbar und schließe mich der Forderung nach "zivilem Ungehorsam" an. Ich schlage vor eine sachliche Begründung zu formulieren, die erläutert, warum dieser Prüfschritt bis auf weitere Klärung immer auf nicht anwendbar zu setzen ist. - Oder besser noch wir haben hier eine Option "nicht getestet". Das sieht der EU-Prüfbericht ja auch ausdrücklich als Möglichkeit vor. (Manche Tests machen davon leider exzessiven Gebrauch, aber das ist ein anderes Thema...)
@stefanFarnetani @Michael-Detmers @MarcHaunschild Die Klärung mit den Verantwortlichen bei der EN hat ergeben, dass der Prüfschritt für Fälle gedacht ist, wo der Ton fremdsprachig ist. Wir haben jetzt in der Prüfschrittanleitung von 7.1.5:
Der Prüfschritt ist anwendbar:
- wenn der Original-Ton des Videos fremdsprachig ist (d.h. er entspricht nicht der Hauptsprache des Webauftritts)
- und Untertitel in der Hauptsprache des Webauftritts bereitgestellt werden
- und wenn es keine Version des Videos mit einer Tonspur in der Hauptsprache des Webauftritts gibt.
Die Klärung mit den Verantwortlichen bei der EN hat ergeben, dass der Prüfschritt für Fälle gedacht ist, wo der Ton fremdsprachig ist.
Wenn die obige Klärung richtig ist, dann ist natürlich auch dieser Commit richtig: https://github.com/BIK-BITV/BIK-Web-Test/commit/f6caaa16b90e611636f7dc131c51accfbaf7a79b
Die meisten Nutzer deutscher Websites werden deutschsprachig sein, daher wird dieser Test trotz der Einschränkung vielen Nutzern helfen.
Ich sehe jedoch nichts im normativen Text von 7.1.5, der den Abschnitt nur auf Untertitel in der Hauptsprache beschränkt. Ich verstehe 7.1.5 einfach so, dass alle Untertitel gesprochen werden müssen. Die einzige Ausnahme bilden Untertitel, die in derselben Sprache wie die Hauptaudiospur sind, nur weil die Hauptaudiospur bereits das entsprechende Audio bietet.
Ein konkretes Beispiel: Die Hauptsprache dieser Webseite ist Deutsch. Der Videoinhalt ist auf Deutsch und die Videountertitel sind auf Thai. Warum würden die meisten Thai-Sprecher willkommen sein, aber nicht die mit Behinderungen?
https://www.make-it-in-germany.com/de/ueber-uns/make-it-in-germany
@mitchellevan Danke, das ist ein guter Hinweis. Ich habe das an einen der Verantwortlichen für die EN weitergeleitet, mit der Bitte, dort ein Issue zur Klärung anzulegen.
Ich korrigiere meine Antwort nochmal, weil ich die Frage falsch verstanden hatte.
Die Argumentation war glaube ich damals, blinde Nutzende, die fremdsprachige Videos nicht gut verstehen können, wohl aber die Hauptsprache der Seite (und damit die Seite an sicht nutzen können), sollen nicht benachteiligt sein gegenüber Sehenden, die die deutschen Untertitel (in ihrer Sprache = Hauptsprache der Seite) lesen können und damit das fremdsprachige Video verstehen.
Ich würde das als Mindestanforderung verstehen, wie es das bei anderen Anforderungen auch gibt (mehr ist besser, aber mach zumindest dies...) Aber mal sehen, was bei dem Issue rauskommt, das @detlevhfischer angeregt hat.
Wir muessen die Anwendbarkeit des Pruefschritts m.E. etwas erweitern. Der Pruefschritt ist, wie schon von Stefan Farnetani anfangs gesagt, fuer Nutzer mit Seh- und Leseschwaeche gedacht. Das Problem tritt immer dann auf, wenn Untertitel dazu benutzt werden, um gesprochene Informationen im Videoton zu uebersetzen. Statt nur fuer "fremdsprachige" Untertitel sollte dieser Pruefschritt fuer alle Untertitel anwendbar sein, die der Uebersetzung der Tonspur in eine andere Sprache dienen.
@gzimmermann wir hatten damals unter anderem bei einem Verantwortlichen der EN nachgefragt, und empfinden die Lage immer noch als unklar. Als Ergebnis unseres Team-Meetings würden dich daher bitten - auch wegen der schwierigen Umsetzbarkeit - noch einmal als Issue in dem EN-Repository zu formulieren.
Aufgrund der mangelnden Player-Lösungen wird die Anforderung dazu führen, dass Anbieter mit ihrer Website Konformität nicht erreichen können, oder wahrscheinlicher, dass sie einfach die Subtitles in anderen Sprachen entfernen werden. Kann das gewollt sein?
Ich habe derzeit eine Website einer kleinen Hochschule in der QS, die ein deutschsprachiges Video mit deutschen Captions und englischen Subtitles anbietet und auf einer anderen Seite ein englisch-sprachiges Video mit deutschen und englischen Untertiteln. Genutzt wird ein YouTube-Player.
Dieser Kunde hätte, Stand Technik heute, nur die Möglichkeit ein weiteres Video mit einem Audio in der anderen Sprache anzubieten (ähnlich wie Audiodeskription). Das wären aber nicht wirklich "Spoken Subitles", man umgeht den Prüfschritt eher.
Was empfehlt ihr eueren Kunden?
Ich empfehle den Able Player. Der kann die Subtitle und die Transkription schon seit vielen Jahren ausgeben. Screenreader können das dann vorlesen und Menschen mit Leseschwäche können die Darstellung der Texte wie gewohnt an ihre Bedürfnisse anpassen. Auch lässt sich der gesamte Text ausgeben, so dass der in beliebigen Häppchen und beliebiger Geschwindigkeit gelesen werden kann. Da der Text auch noch anklickbar ist, lässt sich auch jederzeit vor und zurückspringen im Video, so dass intuitiv und leicht jede Stelle beliebig oft wiederholt werden kann. Im Text wird zudem hervorgehoben, wo sich das Video gerade befindet, es findet also eine synchrone Hervorhebung statt. Hier ein Beispiel (Transkription einschalten!): https://ableplayer.github.io/ableplayer/demos/local-de.html Da alles plain HTMl ist, was ausgegeben wird, lässt sich der Player an jedes CD anpassen.
@MarcHaunschild Wie kann ich mir dort bei dem englischen Video deutsche Subtitles vorlesen lassen? Ich sehe hier nur eine Möglichkeit mir die Audiodescription ausgeben zu lassen und die Transkription kann ich mir vorlesen lassen. Aber Subtitles? Übersehe ich etwas?
@sweckenmann Die sind ja identisch (Transkript und Subtitles). Die Transkription hat nur den Unterschied, dass diese immer vollständig zu sehen ist, wenn ich das richtig versteh, während die Untertitel nur häppchenweise angezeigt werden. Für beides ist die VTT-Datei die Grundlage.
Alle Inhalte sind also per Screenreader zugänglich. Ich würde das als ausreichend für ein pass ansehen. Liege ich da falsch? Was ich aus der Anleitung nicht herauslesen kann (oder übersehen habe) ist, ob es möglich ist, die Übersetzung synchron zum Video zu haben. Man kann sicher den Player, bzw die Ausgabe anpassen mit live-region oder wie auch immer Synchronität herstellen, aber vielleicht ist das ja auch so schon möglich.
Redaktionell lässt sich ja noch eine ausführlichere/ leicht anders lautende Transkription als reines HTML direkt nach dem Video oder hinter einem Link anbieten, wenn der Text aus dem VTT-File für die synchrone Screenreader-Ausgabe gedacht ist. Allerdings kann ich mir es schwer vorstellen zwei Tonspuren gleichzeitig zu hören und zu verstehen, weshalb ich hier eine synchrone Ausgabe für weniger wichtig erachten würde und die ist ja auch nicht gefordert.
Die Forderung nach synchronen Untertiteln wird de facto ja erfüllt. Lässt wie gesagt vielleicht mittels live-regions auch bauen, aber ob das dann nicht mehr Nachteile als Vorteile hat? - Vielleicht ist die absichtlich nicht dabei.
Übrigens lassen sich Ausgaben zu bestimmten Zeiten bereits mit den eingebauten Mitteln des Players über das textbasierte Audio-Deskription umsetzen.
Die Anleitung sagt dazu:
Supports text-based audio description, also using WebVTT. At designated times, the description text is read aloud by browsers, or by screen readers for browsers that don’t support the Web Speech API. Users can optionally set their player to pause when audio description starts in order to avoid conflicts between the description and program audio.
Alles in allem scheinen mir die Möglichkeiten umfangreich und vielversprechend. Leider ist der AblePlayer bei Entwicklern nicht sehr beliebt, so dass ich keine Beispiele habe abgesehen von den Demos auf der Herstellerseite. Diese Anforderung ist ja noch neu und ich habe noch keinen Test gehabt, wo die anwendbar wäre.
@MarcHaunschild Meine Kollegin hat nochmal recherchiert:
Zielgruppe: Laut nachfolgend genannter Norm sind Spoken Subtitles wohl nicht nur für Screenreader-Nutzende gedacht, siehe Hinweis von @JohannesFischer: Die Begriffsdefinition der EN im Kapitel 3 verweist auf eine Norm https://www.iso.org/standard/69060.html die sich laut Beschreibung mit der auditiven Darstellung von Text aus Videos (inkl. Untertiteln) beschäftigt. Wörtlich heißt es in der Beschreibung:
ISO/IEC TS 20071-25:2017 applies to making captions/subtitles and other on-screen text accessible to users with various needs, including but not limited to people with learning and reading disabilities, people with cognitive disabilities, people who are blind or have low vision, older people, and non-native language speakers. It does not apply to captions/subtitles or other on-screen text whose content is already provided in the soundtrack in a language and a way users can access.
Synchronität: Eine Transkription ist unserer Ansicht keine Lösung zur Erfüllung dieser Anforderung, u.a. ist Synchronität nicht gegeben. Richtig ist, eine synchrone Ausgabe würde man wohl nur verstehen, wenn der Original-Ton heruntergeregelt wird.
In Note 2 von 7.1.5 steht:
NOTE 2: Presenting the separate audio track with spoken subtitles in synchronization with the displayed subtitles/captions improves understandability of the subtitles.
In einer Präsentation der ZHAW (PDF) findet man folgende Infos:
- AST as the aurally rendered and recorded version of the subtitles of a film
- AST are read, sometimes acted out, by one or more voice actors or by TTS software.
- AST is recorded as a form of voice-over. The original dialogues can be heard briefly before the heard briefly before the translation starts.
- Sometimes it is recorded in a semi-dubbed form. Original dialogues are substituted by a form of dubbing
Vielen Dank für die Informationen.
im Player kann man auch die Lautstärken einstellen. Ich bin mir aber nicht wirklich sicher, ob das wirklich für ein pass reicht. Dazu müsste man es wirklich mal umgesetzt sehen.
würde mich freuen, wenn jemand hier ein Beispiel hätte, aber dann hätten wir das vermutlich bereits hier im thread…?
Bezug auf @mitchellevan weiter oben:
Ich sehe jedoch nichts im normativen Text von 7.1.5, der den Abschnitt nur auf Untertitel in der Hauptsprache beschränkt. Ich verstehe 7.1.5 einfach so, dass alle Untertitel gesprochen werden müssen. Die einzige Ausnahme bilden Untertitel, die in derselben Sprache wie die Hauptaudiospur sind, nur weil die Hauptaudiospur bereits das entsprechende Audio bietet.
Ein konkretes Beispiel: Die Hauptsprache dieser Webseite ist Deutsch. Der Videoinhalt ist auf Deutsch und die Videountertitel sind auf Thai. Warum würden die meisten Thai-Sprecher willkommen sein, aber nicht die mit Behinderungen?
https://www.make-it-in-germany.com/de/ueber-uns/make-it-in-germany
Ich hatte zu dem Thema mit den gesprochenen Untertiteln in dem Pull-Request zu 7.1.5 am Ende eine Anmerkung gemacht. Demnach wäre die Prüfung anwendbar, wenn die Tonspur schwer verständlich ist (Dialekt, Nuscheln o. ä.) oder wenn die Untertitel in einer anderen Sprache als die Tonspur sind.
Bezogen auf das Thai-Beispiel: Die Untertitel in dem Video müssten gesprochen werden können, weil die thai-sprachigen Nutzer die Tonspur nicht verstehen, die Untertitel aber auch in einer Audioversion wahrnehmen können sollen.
Mir ist nach dem Durchlesen der Kommentare bzw. der Prüfanleitung noch nicht ganz klar, wo der Bezug zur EN ist und warum die Anforderung nur für Untertitel gilt, die nicht der Hauptsprache entsprechen. Es ist einleuchtend, dass Untertitel, die der Tonspur entsprechen, die Anforderung erfüllt, da ja alle Informationen auditiv vermittelt werden. Für alle anderen Szenarien, bei denen sich Tonspur und Untertitel unterscheiden, sehe ich zumindest in der EN keinen Hinweis darauf, dass der Prüfpunkt nicht anwendbar ist. Vielleicht verstehe ich da auch etwas komplett falsch. Würde mich freuen, wenn wir das klären könnten. Vielleicht gibt es ja mittlerweile schon neue Informationen dazu.
Soweit ich mich daran erinnere, ist die aktuelle Prüfschrittbeschreibung das Ergebnis einer Anfrage bei den EN-Autorinnen...
Im ETSI Gitlab gibt es einen neueren Beitrag von Pär Lannerö über die aktuellen Schwierigkeiten bei der Implementierung: https://labs.etsi.org/rep/HF/en301549/-/issues/199
Die Funktion Untertitel vorlesen zu lassen ist für Nutzende mit Seh- oder Leseschwäche. Daneben gibt es Situationen in denen die Sprachqualität schlecht ist und man sich lieber die Untertitel anzeigen lassen will. Und zu guter Letzt Nutzende die die Sprache nicht so gut verstehen und deshalb lieber die englischen oder spanischen Untertitel vorgelesen haben wollen. Das sind die wichtigsten Situationen, die ich durch Internet-Recherche in Erfahrung gebracht habe, bei denen diese Funktion helfen soll.
Für mich stellt sich die Frage bei Web-Angeboten: Wie erfolgt das Vorlesen? Da ein Teil der profitierenden Nutzenden keinen Screenreader nutzen, muss der Inhalt vom Video-Player vorgelesen werden. Und die Lautstärke der Audio muss auf jeden Fall separat steuerbar bzw. abschaltbar sein.
Hat irgendjemand einen Web-Videoplayer in freier Wildbahn gesehen, der das kann/unterstützt?
Ich muss zugeben dass die EN wenig hilfreich ist, wenn es um das Erklären der Erfolgskriterien geht. Oder gibt es irgendwo sowas wie die "Understanding documents" der WCAG auch für die EN Erfolgskriterien.