Wie baue ich AI Literacy auf? Ein Interview
Wie baue ich AI Literacy auf? Ein Interview
23.03.26
Das Hochschulforum Digitalisierung begleitet die TU Berlin mit einer Blogreihe über mehrere Monate bei der Entwicklung ihrer Prozesse für eine nachhaltige AI Literacy. Mit den jeweiligen Momentaufnahmen werfen wir einen Blick auf Dynamiken, Herausforderungen, Rollenverteilungen und praktische Fragen.
Dr. Katharina Kowalska und ihre Kollegin Dr. Alexandra Schulz von der TU Berlin haben 2025 am ersten KI-LAB des Hochschulforums Digitalisierung teilgenommen. In kollegialen Fallberatungen reflektierten sie dort für ihre Hochschule die Entwicklung von AI Literacy zwischen Autonomie und Steuerung. Das hatte Wirkung, wie Kowalska berichtet:
„Aus dem KI-LAB 2025 sind wir mit strategischen Kernmaßnahmen herausgegangen, die uns zu einer AI Literacy an der TU Berlin systematisch vorantreiben. Dazu gehört beispielsweise die Einrichtung einer Taskforce AI Literacy. Gleichzeitig haben wir eine konkrete Roadmap definiert. Durch die Zusammenarbeit mit dem Hochschulforum Digitalisierung konnten wir zudem zeitliche Verbindlichkeiten für die Strukturierung des Jahres 2026 entwickeln. Wichtig war uns dabei, Strategie, Governance und Kompetenzaufbau nicht getrennt, sondern systemisch zu denken.”
Mit unserer Interviewreihe begleiten wir diesen Prozess über das Jahr hinweg. Im ersten Gespräch geben Katharina Kowalska und Adrian Siebing aus der Taskforce AI Literacy Einblick in den aktuellen Stand, erste Erfolge, Zielkonflikte und kommende Herausforderungen. In einigen Wochen folgt der zweite Teil.
Malte Miram: Frau Kowalska, Herr Siebing, Sie sind beide Mitglieder der Taskforce AI Literacy. Welche Rolle haben Sie an der TU Berlin?
Kowalska: Ich bin Programmleiterin für KI und Nachhaltigkeit im CIO Office, das dem Präsidium zugeordnet ist. Neben meiner Verantwortung für das Handlungsfeld Digitalisierung und Nachhaltigkeit in der Digitalisierungsstrategie der TU ist es meine Aufgabe, bestehende KI-Initiativen zu bündeln, gezielt weiterzuentwickeln sowie neue Initiativen strategisch auszurichten Das tue ich in enger Abstimmung mit der Vizepräsidentin für Digitalisierung und Nachhaltigkeit sowie dem Vizepräsidenten für Studium und Lehre und dem CIO
Siebing: Ich arbeite als Dozent für neue Webtechnologien. In meinem Kurs entwickeln Studierende Open-Source-Webanwendungen für die digitale Lehre. Das können Lernhelfer sein, Plattformen oder ein Online-Quiz. Zusammen mit einem Kollegen betreue ich ihre Gruppenarbeiten und programmiere teilweise selbst mit. Gleichzeitig besuche ich auch selbst noch Kurse an der Uni. Dadurch haben meine Kolleg:innen und ich ein gutes Gespür für die Perspektive der Studierenden. Diese beiden Blickwinkel möchte ich in die Taskforce AI Literacy einbringen.
Malte Miram: Was ist die Aufgabe der Taskforce?
Kowalska: Die Taskforce entwickelt Leitsätze als strategischen Orientierungsrahmen, auf dem später Leitlinien und konkrete Handlungsangebote aufbauen. Gleichzeitig verbinden wir diese Leitsätze mit bestehenden Aktivitäten, etwa mit Kompetenzbildungsprogrammen oder der KI-Handreichung. Wichtig ist uns dabei eine interdisziplinäre und statusübergreifende Besetzung der Task Force, damit unterschiedliche Perspektiven zusammenkommen. In den ersten Gesprächen sind bereits Zielkonflikte deutlich geworden. Unsere Aufgabe ist es, daraus eine gemeinsame Linie zu entwickeln.
Malte Miram: Was waren die ersten Schritte und wo steht die TU Berlin gegenwärtig?
Kowalska: Zunächst haben wir das Mandat und die Rückendeckung des Präsidiums eingeholt. Anschließend wurden die Mitglieder der Taskforce nominiert – teils auf Empfehlungen aus der Universität, teils auf Vorschlag des Präsidiums. Wir haben Personen aus Forschung, Lehre und zentraler Verwaltung, Studierende sowie Beauftragte aus dem Personalrat und dem Datenschutz dabei. Mit diesen Mitgliedern haben wir Interviews geführt und erste Leitsätze erarbeitet, die wir anschließend dem Präsidium vorlegen. Aktuell haben wir die Antworten und die verschiedenen Perspektiven zusammengeführt und konsolidiert.
Zum Beispiel waren einige Leitsätze anfangs noch zu regulierend formuliert, weil wir uns zunächst an bestehenden Regelungsansätzen orientiert haben.
Aber wir haben nun bewusst nachjustiert und stärker in Richtung einer positiven Vision ausgerichtet. Themen wie Datenschutz, Personalrecht oder Urheberrecht bündeln wir daher stärker und betonen hier die unterstützende Rolle der TU im Umgang mit der damit verbundenen Komplexität, während wir zugleich Experimentierräume und eine offene Innovationskultur in den Leitsätzen gezielt stärken.
Den überarbeiteten Entwurf haben wir im Workshop mit der Taskforce intensiv diskutiert, die Leitsätze einzeln geprüft, priorisiert und in der Gesamtschau konsolidiert. Die stärker visionär und transformationsorientiert ausgerichtete Fassung hat dabei breite Zustimmung gefunden.
Siebing: Als ich die Einladung zur Mitarbeit bekam, war für mich schnell klar, dass ich mich einbringen möchte. Im ersten Schritt haben wir uns an meinem Fachgebiet zusammengesetzt und sind die ausgearbeiteten Leitsätze durchgegangen. Vieles war schon in eine gute Richtung entwickelt. Ein zentrales Anliegen war für uns, KI in der Lehre nicht zu verteufeln, sondern einen sinnvollen Umgang zu finden und Orientierung für Lehrende zu geben.
Malte Miram: Was bedeutet AI Literacy für Sie?
Siebing: Hochschulen haben als Bildungseinrichtung eine Vorbildfunktion und als Forschungseinrichtung sollen sie Antworten auf zentrale gesellschaftliche Fragen finden. Die Entwicklung von KI gehört sicher dazu. Eine Frage kommt mir persönlich oft zu kurz: Wo kommt die KI eigentlich her? Wir nutzen Systeme wie OpenAI und programmieren damit, aber der Lebenszyklus der Modelle wird selten thematisiert. Gerade hier sehe ich die Rolle und die Stärken der Universität. Vielleicht können wir an der TU Berlin beim verantwortungsvollen Umgang mit KI eine Vorreiterrolle einnehmen.
Kowalska: In der Diskussion um die Leitsätze der AI Literacy ging es auch darum, wie wir in der Taskforce Kompetenzen für einen kompetenten und verantwortungsvollen Umgang mit KI konkret ausbuchstabieren. Schnell hat sich herauskristallisiert, dass im Zentrum das Zusammenspiel von technischer Kompetenz, rechtlichem und ethischem Bewusstsein sowie kritischer Reflexionsfähigkeit steht.
Bei der Betonung der ethischen Dimension im Kontext von AI Literacy beziehen wir uns bewusst auf unsere TU-internen KI-Umfragen. Sie haben gezeigt, dass Umweltbewusstsein und soziale Verantwortung für viele Hochschulangehörige zentrale Themen sind – oder breiter gefasst: die verschiedenen Dimensionen der Sustainable Development Goals. Diese greifen daher nicht nur in dem Entwurf der AI Literacy Leitsätze auf, sondern auch in der kürzlich vom Präsidium verabschiedeten Digitalisierungsstrategie und stimmen sie miteinander ab. Konkret verbinden wir diese Themen beispielsweise mit einem Programm zur digitalen Suffizienz sowie mit Maßnahmen zur Stärkung SDG-bezogener Kompetenzen – und damit auch mit der Frage, wann und wie der Einsatz von KI sinnvoll und angemessen ist. AI Literacy bedeutet für uns, sich mit allen Ebenen kritisch auseinanderzusetzen: technisches Know-how, reflektierte Anwendung, ökologische und gesellschaftliche Auswirkungen von KI.
Malte Miram: KI wird kontrovers und teilweise sehr emotional diskutiert. Wie kommunizieren Sie das Thema und wie funktioniert die Beteiligung?
Kowalska: Durch unsere KI-Umfragen wissen wir, dass Künstliche Intelligenz aktuell sehr unterschiedlich wahrgenommen und praktiziert wird – zwischen bereits routinierter und noch zögerlicher Nutzung, großen Erwartungen und einem wachsenden Bedarf an Orientierung und Regulierung. Deshalb nehmen wir diese Spannungen bewusst auf und schaffen Räume für eine sachliche, reflektierte Auseinandersetzung.
Solche Resonanzräume entstehen zum einen in den Fakultäten, etwa durch Experimentierräume, zum anderen in status- und organisationseinheitenübergreifenden Formaten, in denen zentrale Universitätsverwaltung und Fakultäten gemeinsam an Themen wie KI und Digitalisierung arbeiten. Darüber hinaus im Rahmen der Taskforce selbst. Ihr erster Auftrag ist, Leitsätze zu entwickeln, die in den universitären Gremien und im Präsidium diskutiert und verabschiedet werden.
Idealerweise entstehen zunächst Visionen, das heißt Leitsätze, darauf aufbauend Leitlinien und schließlich eine Handreichung mit praktischen Orientierungshilfen. In der Praxis laufen diese Schritte jedoch teilweise parallel. An der TU gibt es bereits eine Handreichungsentwurf mit Checklisten, auch schon lebendige Leitlinien für Studium und Lehre. Wir arbeiten also ein Stück weit bewusst im Gegenstrom. Bestehende Angebote entwickeln wir weiter, während wir gleichzeitig neue strategische Leitplanken und Initiativen erarbeiten.
Wichtig ist dabei unter anderem, Studium und Lehre in den Leitsätzen zu KI-Kompetenz ausdrücklich zu adressieren, auch wenn der AI Act Hochschulen dazu nicht direkt verpflichtet.
Unsere Strategiearbeit zur AI Literacy ist eng verknüpft mit der Digitalisierungsstrategie der TU, in der wir den Kurs für eine gute digitale Transformation festlegen. In beiden Prozessen haben wir gute Erfahrungen gemacht, frühzeitig zu öffnen und transparent zu arbeiten. Formate wie Retreats, Infoveranstaltungen und Umfragen helfen uns, unterschiedliche Perspektiven einzubeziehen und Akteur:innen zu erreichen, mit denen wir bisher weniger Kontakt hatten. So kam übrigens auch der Kontakt mit Adrian Siebing zustande.
Siebing: Ich bin damals über eine Rundmail auf eine Infoveranstaltung des Präsidiums zur Digitalisierung aufmerksam geworden. Solche Prozesse laufen oft im Hintergrund, sodass man sie aus der Distanz nicht immer unmittelbar wahrnimmt. Umso hilfreicher war es, dass es diese offene Veranstaltung gab. Wenn die Verantwortlichen dann transparent machen: Da stehen wir gerade, das fehlt noch – dann hat man wirklich das Gefühl, teilhaben zu können. Das fand ich sehr gut.
Die Bereitschaft, sich an KI-Regeln zu beteiligen und eigene Vorstellungen einzubringen, ist durchaus da. Die Herausforderung liegt eher darin, diese Dynamik in die Arbeit der Taskforce zu übersetzen. Denn sie kann nur eine kleine, ausgewählte Gruppe sein. Umso wichtiger ist es, sie status- und organisationseinheitenübergreifend aufzustellen und durch die von Frau Kowalska genannten Formate zu ergänzen.
Malte Miram: Die TU Berlin hat über 40.000 Hochschulangehörige, rund 8.000 Mitarbeitende und etwa 35.000 Studierende. Wie fügt sich die Taskforce hier ein?
Kowalska: An einer Universität unserer Größe passieren viele Dinge parallel – das gehört zur Autonomie, führt auch zu einer großen Vielfalt . Umso wichtiger ist es, diese Entwicklungen zusammenzuführen und die Institution als Ganzes im Blick zu behalten. So etwa in der Zusammenarbeit in der Task Force. Gleichzeitig ist entscheidend, dass Hochschulangehörige den Eindruck haben, etwas bewirken zu können. Wenn Bedarfe sichtbar werden, etwa zu Schulungen in Compliance oder zu ethischen Fragen und wir daraufhin passende Angebote entwickeln, stärkt das die Akzeptanz– und vielleicht sogar die Begeisterung zur Mitgestaltung.
Um diese Perspektiven einzuholen, haben wir verschiedene Kanäle genutzt: Rundmails, Hinweise über das Präsidium, das Intranet oder auch Plakate im Haus. Die Beteiligung war hoch, vor allem bei den Umfragen – höher als erwartet. Das zeigt, dass die
Themen KI und AI Literacy viele Menschen ansprechen. Auch die weiterführende Kommunikation ist wichtig. Wir haben transparent gemacht, was mit den Ergebnissen passiert: Die Resultate der KI-Umfrage wurden veröffentlicht, und wir haben aufgegriffen, welche Themen besonders interessieren, etwa Compliance, Datenschutz oder ethische Fragen. Für die KI-Handreichung überlegen wir aktuell eine Art Roadshow mit Präsentationen in Gremien oder kurzen Slots in Weiterbildungsformaten. Entscheidend ist für uns, diese positive Dynamik aufzugreifen und in strukturierte Prozesse zu überführen.
Malte Miram: Wo bestehen im Moment die größten strukturellen Hürden?
Kowalska: Wenn man AI Literacy eng an Kompetenzvermittlung knüpft, gibt es dafür bereits viele Strukturen: Weiterbildungsangebote, Mittel der Fakultäten für eigene Formatentwicklung sowie zahlreiche externe Angebote. Eine Herausforderung liegt daher weniger im Aufbau von Kompetenzen als in der Verankerung und nachhaltigen Integration in bestehende Prozesse: z.B. in einer Abstimmung mit den Leitsätzen oder zukünftig KI-Leitlinien – bei der Konsolidierung unterstütze –sowie durch Dokumentation in Moodle-Zertifikaten oder in Personalgesprächen.
Besondere Aufmerksamkeit richten wir momentan auf die Governance-Strukturen. Denn zur AI Literacy gehört auch die andere Seite: die ordnungsgemäße Beschaffung von KI-Tools und ihr rechtkonformer Einsatz. Starten wir mit Letzterem. Hier versuchen wir zunächst mit einer KI-Handreichung Orientierung zu geben etwa dazu, mit welchen KI-Tools und mit welchen Anwendungsszenarien man sich rechtssicher bewegt. Teilweise ist die die Handreichung Hilfe zur Selbsthilfe gedacht, etwa durch hilfreiche Checklisten.
Die weitergehende Frage ist jedoch, wie tragfähige Strukturen aussehen,, wenn diese Erstorientierung nicht ausreicht. Zwar gibt es etablierte Stellen wie den Datenschutz und das Justitiariat, zugleich ist die Vielfalt an Tools und Anwendungsszenarien so groß, dass sich die praktische Frage stellt, ob jede Anwendung zentral bewertet werden kann. Daraus ergibt sich die die grundlegende Frage nach Zuständigkeiten: Welche Verantwortung kann dezentral getragen werden und wo braucht es zentrale Unterstützung?“
Wir würden an der TU Berlin gerne eine Methodik zur Evaluierung unserer Governance-Fähigkeit im KI-Kontext entwickeln. Ziel ist es, ein schlankes, übertragbares Verfahren zu entwickeln, mit dem systematisch geprüft werden kann, ob bestehende Governance-Strukturen Anforderungen aus KI-Verordnung, Datenschutz, Informationssicherheit, Personalvertretung und institutionellen Leitsätzen zuverlässig tragen.
Siebing: Wenn ich auf die aktuelle Situation blicke, – also darauf, wer eigentlich etwas bereitstellt und was genutzt werden kann – sitze ich ehrlich gesagt ein bisschen auf heißen Kohlen. In meinem Kurs entwickeln zum Beispiel Studierende KI-Apps. Daran haben sie großen Spaß daran, sie können sich ausprobieren. Das Problem ist nur: An der Universität fehlt bislang eine Struktur. Es gibt keine zentrale Stelle, über die wir KI-Ressourcen bekommen könnten. Stattdessen entwickeln die Fachgebiete eigene Lösungen. Manche haben Hardware, andere gar nicht – und wenn es Hardware gibt, wird sie meist für die Forschung genutzt. In der Praxis gehen Studierende deshalb zu OpenAI, Mistral oder Anthropic und nutzen deren proprietäre Systeme, oft einfach das Erstbeste oder Billigste. Das ist nachvollziehbar, aber in gewisser Weise auch das Gegenteil von AI Literacy. Deshalb stellt sich für mich die Frage, ob wir unsere Kräfte nicht stärker bündeln und eine Struktur schaffen sollten, die solche Ressourcen zentral zugänglich macht. Eine zentrale Einrichtung, die KI-Ressourcen hostet und bereitstellt, eine Infrastruktur, die der Universität selbst gehört. Den dezentralen Ansatz verstehe ich, aber langfristig halte ich es nicht für sinnvoll, wenn jedes Fachgebiet eigene Hardware anschafft,
Kowalska: Hier zeigt sich ein typisches Spannungsfeld: die vergleichsweise langsame Funktionsweise einer Institution auf der einen Seite und die enorme Geschwindigkeit technologischer Entwicklungen auf der anderen. Wir sehen, dass einzelne Bereiche schon eigene Lösungen entwickeln, die Umfragen zeigen aber auch, dass sich viele mehr Orientierung und Rechtssicherheit wünschen. Wenn eine Universität selbst in die Anbieterrolle geht, muss sie rechtliche Anforderungen erfüllen und klare Prozesse etablieren: Was wird dokumentiert? Wie funktioniert das Monitoring? Wer trägt welche Verantwortung? Solange diese Fragen nicht geklärt sind, kann eine Institution solche Angebote nicht einfach bereitstellen. Deshalb haben wir den AI-Literacy-Prozess gestartet.
Malte Miram: Wo wollen Sie langfristig hin?
Siebing: Als Lehrender würde ich gern wissen, welche KI-Systeme unter welchen Voraussetzungen genutzt werden sollten – und wo ihr Einsatz vielleicht nicht sinnvoll ist.Eine zentrale Frage bleibt: Wie balancieren wir den Ressourcenverbrauch von KI mit dem gesellschaftlichen Mehrwert, den sie bringen kann? Vielleicht – das ist jetzt ein etwas naiver Wunsch – könnte sich auch die TU Berlin stärker positionieren, unabhängiger von großen Anbietern machen und selbst an alternativen Modellen forschen. Das hätte den Vorteil, dass man mehr Souveränität über die Systeme hätte – etwa beim Ressourcenverbrauch oder bei den Einsatzbereichen. Ein Stück weit passiert das ja bereits. Ich glaube, die Hochschulen sind da auf einem guten Weg.
Kowalska: Plan ist, dass Ende 2026 die Taskforce ihre Arbeit geleistet hat: Die Leitsätze sind definiert, unser strategischer Kompass ist ausgerichtet, die KI-Handreichung umgesetzt und die Themen sind stärker in der Universität verankert – etwa über Intranet und Gremien. Auch die Verzahnung mit der Digitalisierungsstrategie steht. Aber all das ist letztlich nur ein Mittel zum Zweck. Es geht darum, dass wir als Universität verantwortungsvoll und kompetent mit KI umgehen. Mein eigentliches Zielbild wäre, dass wir in ein paar Jahren gar nicht mehr von „AI Literacy“ als Projekt sprechen, weil sie Teil unserer Organisationskultur geworden ist. Denn KI ist kein Selbstzweck – sie soll uns dabei unterstützen die Kernaufgaben der Hochschule besser zu erfüllen: gute Lehre und ein gutes Studium, exzellente Forschung und unsere gesellschaftliche Verantwortung.

Adrian Siebing ist Dozent für Neue Webtechnologien an der Technischen Universität Berlin und leitet das Institut für Digitale Lehre. Er befasst sich mit Prozessoptimierung, Privatsphäre sowie strategischer Digitalisierung im Bildungssektor. Siebing ist stellvertretender Vorsitzender des unyt.org demokratische freie Netzwerktechnologien e.V.

Dr. Katharina Kinga Kowalska promovierte im Bereich Transformations- und Wissenschaftsforschung. Seit rund fünfzehn Jahren ist sie im Wissenschaftsmanagement und in der Organisationsentwicklung tätig. Sie ist Sprecherin der Task Force „AI Literacy der TU Berlin“ und erarbeitet KI-Maßnahmen in enger Abstimmung mit dem Präsidialbereich.
Das Interview führte

Dr. Malte Miram ist Programmmanager beim Stifterverband. Im Hochschulforum Digitalisierung entwickelt und koordiniert er Qualifizierungsangebote für Lehrende, Mitarbeitende in Unterstützungsstrukturen von Lehre und Infrastruktur sowie Wissenschaftsmanager:innen.
Mauritz Danielsson 
Peter van der Hijden 
Annalisa Biehl 