Live-Untertitelung per AR-Brille: Hilfreiches Tool oder nur eine Spielerei?

Live-Untertitelung per AR-Brille: Hilfreiches Tool oder nur eine Spielerei?

15.07.24

Mit Untertitelungsbrillen sollen hörbehinderte Studierende der Lehre barrierefreier folgen können. Im Praxistest an der Hochschule Mainz haben sich Vorteile, aber auch neue Herausforderungen herausgestellt. Alessandra Ress und Daniel Bayer erläutern in diesem Gastbeitrag, inwiefern der Einsatz von Untertitelungsbrillen tatsächlich zur barrierefreien Lehre beitragen kann.

Nicht untertitelte Videos, fehlende Transkripte oder Präsenzlehre in schlecht gegen Störgeräusche isolierten Räumen: Barrieren für Studierende mit Hörbeeinträchtigung existieren viele im Hochschulalltag. Auch wenn es inzwischen einige Lichtblicke gibt – der aktuellen Best3-Studie zufolge ist diese Personengruppe unter den Studierenden mit studienerschwerender Beeinträchtigung mit ca. 56 % vergleichsweise zufrieden – ist hier noch deutlich Luft nach oben, um Barrieren abzubauen.

Barrieren mit Technologien abbauen

Im Kompetenzzentrum Lehre testen wir technologische und didaktische Entwicklungen auf ihre Praxistauglichkeit an der Hochschule Mainz. Bei unserer Recherche sind wir auf XRAI aufmerksam geworden, den Anbieter der Augmented-Reality-App XRAI Glass, der explizit einen Einsatz in Lehr-/Lernsettings bewirbt. Konkret sollen mithilfe von Live-Untertitelung über eine Augmented-Reality-Brille Untertitel direkt unterhalb der sprechenden Personen eingeblendet und damit ein Abbau von Barrieren für hörbeeinträchtigte Personen möglich gemacht werden.

Die App wird auf einem handelsüblichen, mit einer AR-Brille verbundenen Smartphone installiert. Als wir Ende 2022 in Kontakt zum Entwickler der App getreten sind, haben wir zunächst Zugang zur Beta-Version der App erhalten, die lediglich auf Android nutzbar war. Inzwischen ist XRAI Glass auch für iOS verfügbar. 

Das Setup im Live-Kontext umfasst folgende Komponenten:

  • Ein Smartphone mit den darauf installierten Apps „Nebula“ und „XRAI Glass“
  • Die Brille inkl. Kabel (in unserem Falle das Modell „XREAL Air“)
  • Ein Bluetooth-Mikrofon
Die AR-Brille wird mit der Apps Apps „Nebula“ und „XRAI Glass“ am Smartphone verbunden. Bildquelle: Hochschule Mainz.

Nur ein Disability Dongle?

Uns ist bewusst, dass solche Tools nicht unumstritten sind. Raul Krauthausen etwa hat AR-Brillen im Zusammenhang mit Disability Dongles besprochen, einem von Liz Jackson eingeführten Begriff für Designs und Technologien, die von nicht-behinderten Personen wirklichkeitsfern als vermeintliche Lösung für reale oder angenommene Probleme behinderter Personen entwickelt wurden.

Eingebettet in andere Maßnahmen, wollten wir XRAI Glass dennoch in der Praxis ausprobieren, zumal wir Potenzial bei verschiedenen Studierendengruppen gesehen haben: Getestet haben wir die Brille zum einen mit Studierenden mit Hörbeeinträchtigung, zum anderen mit internationalen Studierenden ohne Deutsch als Muttersprache, die ein besonderes Augenmerk auf die ebenfalls im Rahmen von XRAI Glass mögliche Live-Übersetzung der Untertitel geworfen haben. 

Wie sind die Tests und Rückmeldungen nun verlaufen? Ein Überblick in drei Themenblöcken:

1) Umgang mit Technik, App und Datenschutz

Vor der Kür kommt die Pflicht: Ehe es an die tatsächliche Praxis ging, haben wir die Studierenden jeweils in die oben genannte Hard- und Software eingeführt, welche von uns zur Verfügung gestellt wurde. Obwohl nicht alle Teilnehmenden vorher schon mit AR gearbeitet hatten, lief die Einarbeitung weitgehend problemlos: Nach einer ersten Demonstration konnten die Studierenden Apps und Brille selbstständig nutzen. Lediglich die XRAI-App selbst stellte sich als etwas schwergängig heraus, manchmal braucht es mehrere Anläufe, um sie zu starten oder die AR-Ansicht auf die gewünschte Höhe im Sichtfeld zu bringen.

Eine größere Hürde als die technische Komponente hat das Großthema Datenschutz dargestellt. Theoretisch stehen über die App mehrere Anbieter für Untertitel und Übersetzungen zur Verfügung, um eine Speicherung in der Cloud zu vermeiden, haben wir jedoch nur Vosk verwendet.

Die hiermit erzeugten Untertitel werden zwar nur lokal gespeichert, aber sofern in der aufgenommenen Unterhaltung persönliche Daten preisgegeben werden, tauchen diese im Transkript auf. Ein Beispiel: Ein Student nutzt die XRAI-App in einem Seminar, in dem eine Diskussion stattfindet. Die Teilnehmenden nennen dabei die Namen ihrer Kommiliton:innen. Im Transkript würden diese Informationen dann entsprechend lokal als Teil des Gesprächs gespeichert.  

Unsere Lösung: Für Lehrveranstaltungen, in denen die Brille zum Einsatz kommen soll, bieten wir an, vorab allen Teilnehmenden, d. h. auch den „Passivnutzer:innen“, Nutzen und Funktionsweise zu erklären. Die Person, die die XRAI verwendet, verpflichtet sich schriftlich, die gespeicherten Daten zeitnah zu löschen. Das stellt auch einen Kompromiss gegenüber einzeln geäußerten Bedenken dar, wonach die Transkriptionen einen Vorteil in Prüfungssituationen bieten würden – ein Aspekt, bei dem uns noch einmal deutlich wurde, dass das Prinzip des Nachteilsausgleichs nicht bei allen präsent ist. 

2) Bewertung der Untertitelung

Sind die bürokratischen und technischen Hürden genommen, kann es an die tatsächliche Nutzung gehen. Wer schon einmal eine automatische Untertitelung verwendet hat, weiß, dass diese nicht perfekt und die Wortwahl teils durchaus kreativ ist – da wird die „digitale Lehre“ z. B. schon mal zur „Gitarrenlehre“. Trotzdem fiel das Urteil hierzu von den Studierenden mit Hörbehinderung optimistisch aus, durch den jeweiligen Kontext war jeweils auch bei Fehlern klar, worum es ging. In Fällen, in denen die Studierenden in Seminaren bislang eine automatische Transkription auf dem Bildschirm haben mitlaufen lassen, wurde außerdem der AR-Aspekt positiv hervorgehoben: Durch diesen muss man nicht mehr ständig zwischen Folien an der Wand und einem Bildschirm mit Untertitelung hin- und herschauen.

Die Live-Untertitelungsbrille im Praxistest. Bildquelle: Hochschule Mainz.

Die internationalen Studierenden waren deutlich kritischer, was wir auf verschiedene Gründe zurückführen: So verwenden sie seltener automatisch generierte Untertitel und haben dadurch ggf. eine geringere Fehlertoleranz. Zum anderen variiert die Zuverlässigkeit je nach Sprache.

3) Gesamteindruck

In einer Umfrage haben die internationalen Studierenden vorwiegend angegeben, dass sie die XRAI App nicht nutzen würden. Ihre stärksten Bedenken gelten dabei der ihnen zu auffälligen Optik.

Unter den Studierenden mit Hörbehinderung fällt das Fazit verträglicher aus. „Am Anfang mag [die Brille] etwas umständlich sein, aber mit der Zeit wird sie besser handhabbar. Zu bedenken ist aber, dass es ohne Hilfsmittel noch umständlicher ist“, lautet etwa das Fazit von Nick Massing, einem Digital-Media-Studenten, der an einem der Tests teilgenommen hat. Eine andere Studentin lobt die Untertitelung, kritisiert jedoch, dass das Gestell nicht besonders flexibel und das Tragen über einen längeren Zeitraum daher unangenehm ist – umso mehr gilt das bei Personen, die zusätzlich eine normale Brille tragen. 

Das Gestell von Ar-Brillen ist leider nicht dafür geeignet, über einen längeren Zeitraum getragen zu werden. Bildquelle: Hochschule Mainz.

Unser Fazit und Ausblick

Eine Untertitelungsbrille wie die XRAI ist kein Selbstläufer, das ist uns nach den Tests in den vergangenen Monaten durchaus bewusst. In Bezug auf Fremdsprachen betrachten wir sie inzwischen vornehmlich als Mittel, um Studierenden die grundsätzlichen Möglichkeiten und Funktionsweisen von AR praktisch näherzubringen.

Im Barrierefreiheits-Kontext sehen wir in der Brille eine solide Ergänzung bei kurzfristigen Einsätzen wie z. B. Vorträgen. Klar ist aber auch, dass sie die Lehrenden nicht aus der Verantwortung nimmt, anderweitig Barrieren abzubauen, z. B. indem sie Transkripte oder Notizen zur Verfügung stellen. Zudem ist die Gruppe der Studierenden mit Hörbehinderung zu heterogen, um ein generelles Urteil über ihren Nutzen zu fällen.

Die Tests und die Rückmeldungen von nicht betroffenen Personen haben uns außerdem gezeigt, dass das Bewusstsein für Barrierefreiheit noch immer ausbaufähig ist. Insbesondere muss Lehrenden und anderen Veranstaltungsverantwortlichen bewusst sein, dass Barrierefreiheit kein „nice to add“ ist, sondern rechtliche Verpflichtungen bestehen und assistive Technologien Nachteile ausgleichen. Wo sich Datenschutz und Barrierefreiheit oder Prüfungsregeln und Barrierefreiheit im Wege stehen, braucht es die Bereitschaft, praxisorientierte Lösungen zu finden.

Weiterhin werden wir die Augen nach hilfreichen Technologien offenhalten – vor allem aber im Austausch mit den betroffenen Studierenden bleiben, um Bedarfe auch da zu erkennen, wo sie uns im ersten Moment nicht bewusst sind, und Barrieren wo immer möglich abzubauen.

Autor:innen

Daniel Bayer

Daniel Bayer ist Leiter des Kompetenzzentrum Lehre, das der zentrale Ansprechpartner an der Hochschule Mainz zur Lehrgestaltung und -entwicklung ist. Gemeinsam mit seinem Team beschäftigt er sich u.a. mit der Frage, wie neuartige Technologien in Lehr- und Lernprozesse didaktisch sinnvoll integriert werden können.

Alessandra Reß

Seit 2018 arbeitet Alessandra Reß im E-Learning-Support verschiedener rheinland-pfälzischer Hochschulen, zuletzt als Referentin für Digitale Lehre an der Hochschule Mainz. Ihre Schwerpunkte liegen in den Bereichen OER und digitale Barrierefreiheit. Daneben ist sie als Autorin und Redakteurin tätig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert