Digitale Souveränität im KI-Zeitalter: Eine strategische Herausforderung für Hochschulen

Digitale Souveränität im KI-Zeitalter: Eine strategische Herausforderung für Hochschulen

09.12.25

Die rasante Entwicklung generativer KI hat Hochschulen mit einer beschleunigten Phase digitaler Transformation konfrontiert. Chatbots, automatisierte Text- und Bildgeneratoren sowie neue Analysewerkzeuge finden in Forschung, Lehre und Verwaltung immer häufiger Anwendung. Gleichzeitig wächst das Bewusstsein dafür, dass die Nutzung dieser Technologien auch neue Fragen aufwirft – etwa zur Kontrolle über Daten, zur Transparenz von Modellen und zur Abhängigkeit von wenigen globalen Tech-Anbietern. Weitere interessante Artikel zum Thema „Generative KI“ finden Sie in der sechsten Ausgabe des HFD-Magazins „strategie digital“!

Vor dem Hintergrund dieser Entwicklungen gewinnt ein Begriff zunehmend an Bedeutung: Digitale Souveränität. Gemeint ist damit – wohlgemerkt hinsichtlich der Perspektive hochschulstrategischer Entscheider:innen – nicht nur die technische Fähigkeit, eigene Infrastrukturen zu betreiben, sondern auch die rechtliche, politische und ethische Kontrolle über die Bedingungen der digitalen Wissensproduktion und -vermittlung. Besonders bei der Nutzung großer KI-Modelle – sogenannter Large Language Models (LLMs) – wird deutlich, wie abhängig viele Hochschulen heute bereits von proprietären Plattformen sind oder weiter werden könnten. Umso dringlicher wird die Frage: Wie können Hochschulen KI nutzen, ohne dabei ihre Gestaltungsautonomie aufzugeben?

Souveräne KI-Infrastrukturen – mehr als nur Rechenzentren

Von 2022 bis 2024 beschäftigte sich die Arbeitsgruppe „Digitale Souveränität“ des Hochschulforums Digitalisierung (HFD) intensiv mit dieser Frage. Aufbauend auf früheren Forderungen (u. a. auf der HFDcon 2019) nach öffentlich getragenen Infrastrukturen hat die Arbeitsgruppe in einer Reihe von Formaten untersucht, was Hochschulen brauchen, um im Umgang mit generativer KI nicht nur reaktiv, sondern strategisch handlungsfähig zu sein

Aus den AG-Ergebnissen und der drängenden Herausforderung durch generative KI leitete das HFD seit Herbst 2024 das Themenfeld „Digital souveräner KI-Infrastrukturen” ab. Besonders zentral war dabei die zweiteilige Expert:innenanhörung im Winter 2024 und Frühjahr 2025, bei der zahlreiche Fachleute aus Forschung, IT-Infrastruktur, Verwaltung und Politik ihre Perspektiven eingebracht haben. Die erste Runde („Was brauchen die Hochschulen?“) widmete sich den Bedarfen, Potenzialen und Leitbildern souveräner KI-Infrastruktur. Die zweite Runde („Wie kommt man dahin?“) fokussierte sich auf die konkreten Umsetzungsmöglichkeiten – von technischen Lösungen über rechtliche Rahmenbedingungen bis hin zu möglichen Finanzierungsmodellen.

Zentrale Begriffe rund um KI und digitale Souveränität

Digitale Souveränität

Meint eine Vielzahl von Aspekten des idealtypisch souveränen und mündigen Verhältnisses zu eigenen und vertrauten Daten. Die konkrete Ausgestaltung hängt von der Zielgruppe und dem Kontext ab. Im hiesigen Zusammenhang der vornehmlich strategischen Infrastrukturebene der Hochschulen meint sie die Fähigkeit, digitale Technologien selbstbestimmt und unter Wahrung eigener rechtlicher, ethischer und technischer Standards zu nutzen – ohne (oder mit überschaubarer) Abhängigkeit von proprietären oder außereuropäischen Anbietern.

Datensouveränität

Die Kontrolle über die eigenen Daten und darüber, wer wie auf sie zugreifen, sie verarbeiten und speichern darf – insbesondere relevant beim Einsatz von Cloud-Diensten oder KI-Systemen.

Proprietäre Anbieter/Systeme

Profitorientierte (private oder außereuropäische staatliche) Technologieunternehmen, deren Software oder Infrastruktur nicht offen zugänglich oder veränderbar ist. Die Nutzung erfolgt zumeist unter kommerziellen Lizenzbedingungen, ohne Transparenz über Funktionsweise oder Datenverarbeitung.

Open-Source-Modell/Open-Weight-Modell

KI-Modelle, deren Quellcode (und im Fall von Open-Weight teils auch die trainierten Modellparameter) öffentlich zugänglich sind. Sie können geprüft, weiterentwickelt und an eigene Bedürfnisse angepasst werden. Im Falle von Open-Weight-Modellen bleiben aber Ergebnisfindungsprozesse meist nicht nachvollziehbar.

Erkenntnisse aus der HFD-Expert:innenanhörung

Die beiden Anhörungsrunden haben zentrale Herausforderungen und Handlungsperspektiven sichtbar gemacht. Eine zentrale Erkenntnis ist: Keine einzelne Hochschule wird allein in der Lage sein, souveräne KI-Infrastrukturen in vollem Umfang aufzubauen. Es wird deutlich, dass Kooperationen nicht nur auf nationaler, sondern auch auf europäischer Ebene erforderlich sind. Die benötigten Ressourcen drängen überdies die Hochschulen und besonders die politische Entscheidungsebene eher zu wachsenden Kooperationsstrukturen, was kompetitive Verteilmechanismen und Antragslogiken eher infrage stellen dürfte.

Dabei sind verschiedene Modelle denkbar: von regionalen Hochschulnetzwerken über bundesweite Verbünde bis hin zu europäischen Initiativen. Wichtig ist, dass diese Kooperationen nicht zur Zentralisierung von Expertise führen sollen, sondern idealerweise die dezentrale Kompetenzentwicklung unterstützen. Nur so kann eine digitale Souveränität entstehen, die in der Breite der Hochschullandschaft verankert und akzeptiert ist.

Neben Fragen der institutionellen Rahmenbedingungen standen auch technologische und ethische Aspekte im Mittelpunkt der Anhörungen. Mehrere Expert:innen hoben hervor, dass die Abhängigkeit von proprietären Anbietern nicht nur ein finanzielles Risiko darstelle, sondern auch mit einem Verlust an Verhandlungsmacht, Transparenz und Innovationsfreiheit einhergehe. Auch ethische Aspekte spielen eine Rolle: Die Nutzung von Systemen, die mit fragwürdigen Datenpraktiken trainiert wurden, dürfte schwer mit den öffentlichen Werten von Hochschulen vereinbar sein. Die Alternative sind eigene, offen lizenzierte und bedarfsgerecht skalierte Lösungen (s. Abb. 1). Diese bieten die Chance, langfristig nicht nur Kosten zu kontrollieren, sondern auch Kompetenzen aufzubauen und Hochschulen als handlungsfähige Akteure im KI-Bereich zu etablieren. Dazu gehört die Möglichkeit, eigene Systeme rechtskonform und datensouverän zu betreiben, gerade in Forschung, Lehre und Verwaltung. Für Hochschulen bedeutet dies, langfristige Strategien zur digitalen Souveränität zu entwickeln, anstatt sich auf kurzfristige Lizenzmodelle zu verlassen.

Ein wiederkehrendes Thema in beiden Anhörungen war der Mangel an qualifiziertem Personal. Ob Betrieb, Entwicklung oder Support: Der Aufbau und die Pflege souveräner KI-Infrastrukturen erfordern interdisziplinäre Expertise. Hochschulen sind nur dann konkurrenzfähige Arbeitgeber, wenn sie auch attraktive Arbeitsbedingungen bieten. Hier sind auch Politik und Förderinstitutionen gefragt: Befristete Projektlogiken verhindern den nachhaltigen Kompetenzaufbau. Notwendig sind langfristige Strategien zur Personalbindung sowie Möglichkeiten zur Weiterbildung und interinstitutionellen Vernetzung.

Die folgenden zwei Interviews geben Ihnen einen aktuellen Einblick in die Diskussion: Die Interviews wurden aus redaktionellen Gründen inhaltlich und sprachlich gekürzt. Prof. Dr. Ramin Yahyapour und Prof. Dr. Andreas Hotho brachten ihre Perspektiven bereits in der HFD-Expert:innenanhörung ein. Im Gespräch mit Uwe Reckzeh-Stein geben sie nun erneut Einschätzungen zu den infrastrukturellen, forschungsbezogenen und didaktischen Herausforderungen im Umgang mit generativer KI und zeigen auf, welche Voraussetzungen Hochschulen brauchen, um digitale Souveränität aktiv zu gestalten.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Digitale Souveränität braucht tragfähige Infrastrukturen

Was bedeutet digitale Souveränität im Zeitalter generativer KI und welche Voraussetzungen müssen Hochschulen dafür schaffen? Prof. Dr. Ramin Yahyapour ist Geschäftsführer der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) und Chief Information Officer der Georg-August-Universität Göttingen. Im Interview spricht er über aktuelle Engpässe bei KI-Hardware, die Notwendigkeit verlässlicher öffentlicher Versorgungsstrukturen und die Chancen kleinerer, selbstbetriebener Modelle. Er macht deutlich: Wer digitale Souveränität sichern will, muss nicht nur über rechtliche oder ethische Fragen sprechen, sondern vor allem über strategisch gedachte Infrastrukturen. Als langjähriger Leiter eines Rechenzentrums kennt er die Herausforderungen digitaler Infrastruktur aus erster Hand.

Uwe Reckzeh-Stein

Herr Yahyapour, was verstehen Sie unter digitaler Souveränität und wie bewerten Sie die aktuelle Infrastruktur-Landschaft deutscher Hochschulen im Hinblick auf generative KI?

Ramin Yahyapour

Es ist leichter festzustellen, wenn keine digitale Souveränität gegeben ist. Dies ist insbesondere dann der Fall, wenn man von externen Anbietern so abhängig ist, dass man auf Kostensteigerungen oder andere Änderungen der Rahmenbedingen nicht glaubhaft mit einem Anbieterwechsel reagieren kann und diesen letztlich zustimmen muss. Bei KI-Infrastruktur kann man aktuell diverse Abhängigkeiten erkennen: Zum einen sind Verfügbarkeit und steigende Preise von GPU-Karten limitierend, ebenso stellen uns die kommerziellen Cloud-Angebote immer wieder vor neue Herausforderungen. Erfreulicherweise gibt es im Bereich der Software Angebote, die man frei nutzen kann. Zudem gibt es einige größere wissenschaftliche Rechenzentren, die hier bereits Angebote für die Wissenschaft bereitstellen. Beispielsweise stellt die GWDG mit dem bundesgeförderten KI-Servicezentrum KISSKI mit ChatAI Dienste zur Verfügung, die deutschlandweit von über 340 Einrichtungen genutzt werden und Zugriff auf kommerzielle als auch selbst-gehostete Sprachmodelle bieten. Von einer guten Versorgungslage sind wir jedoch noch relativ weit entfernt.

Uwe Reckzeh-Stein

Wo sehen Sie die Grenzen (und Chancen) des Eigenbetriebs großer KI-Modelle durch einzelne Hochschulen oder Verbünde?

Ramin Yahyapour

Der Eigenbetrieb von KI-Ressourcen schließt externe Dienste nicht aus. Im Bereich Eigenbetrieb sehen wir bei geeigneter Skalierung häufig günstigere Kosten als bei kommerziellen Angeboten. Ebenso sind diese in Bezug auf Datensouveränität, Datenschutz und Umgang mit sensiblen Daten eher geeignet. So muss man nicht bangen, ob die langfristige Gültigkeit von europäischen Standards bei externen Anbietern rechtlich und faktisch gegeben bleibt. Dennoch kann man auch bei externen Anbietern interessante Lösungen finden, die wissenschaftsinterne Angebote gut ergänzen können. Aufgrund der großen Investments und dynamischen Entwicklung bei generativer KI wird es bei großen Cloud-Anbietern Lösungen geben, die man nutzen möchte. Letztlich geht es um den Aufbau und Erhalt von Alternativen, aus denen man bedarfsorientiert wählen kann. Es ist offensichtlich, dass solche Systeme nicht an jeder Hochschule ökonomisch betrieben werden können und es hier ein konsolidiertes Versorgungskonzept geben muss, bei denen man übergreifende Versorgungsstrukturen schafft.

Abb. 1: Unterschiedliche Zugangsmöglichkeiten für Hochschulen zu generativen KI-Modellen. (Quelle: Peter Salden)

Uwe Reckzeh-Stein

Welche Rolle könnten europäische oder staatlich unterstützte Cloud-Lösungen spielen?

Ramin Yahyapour

Es wäre sehr wünschenswert, wenn es im Markt mehr europäische Angebote gäbe, die nicht im Rahmen von geopolitischen Krisen ein Risiko sind. Bisher waren die Ansätze halbherzig – sowohl bei der Industrie als auch bei der Politik. Dies ist bedauerlich, wenn man sieht, dass Europa und insbesondere Deutschland im Bereich der KI-Forschung kompetitiv sind, es aber an den großen IT-Partner fehlt, die die daraus folgende Wertschöpfungskette abbilden. Es wäre eine Hilfe, wenn zumindest Bund und Länder als gutes Beispiel vorangehend auf solche europäischen oder staatlichen Lösungen setzen würden. Die aktuellen Initiativen zu den Europäischen AI-Factories und Gigafactories können hier wichtige Impulse setzen, bei denen Wissenschaft und Wirtschaft zusammenkommen. Es wäre dazu wichtig, wenn sich die Politik und die öffentliche Verwaltung auch klar zu europäischen Lösungen in der Verwendung bekennen würden.

Uwe Reckzeh-Stein

Wie ließe sich eine tragfähige Kooperationsstruktur für souveräne KI-Infrastrukturen gestalten? Gibt es Vorbilder, auf die man zurückgreifen könnte?

Ramin Yahyapour

Wenn man den Vergleich zum nationalen Hoch- und Höchstleistungsrechnen anschaut, dann hat sich dort eine Versorgungsstruktur bewährt, die auf mehreren Ebenen – von Spitzenforschung bis Grundversorgung – Infrastruktur als nationale Aufgabe betreibt und bereitstellt. Durch eine Bund-Länder-Finanzierung wird sichergestellt, dass die Wissenschaft unabhängig vom Standort Zugang zu dieser Infrastruktur samt Beratung hat und gleichzeitig Synergien existieren, in denen diese Zentren eine kritische Größe haben und kooperativ die Versorgung übernehmen. Diese langfristig angelegte Struktur fehlt bisher für KI. Parallel braucht es ein Ökosystem für die Entwicklung und Pflege von Software. Auch wenn es hier diverse Förderprogramme gibt, fehlt eine abgestimmte Perspektive, wie man mit erfolgreichen Lösungen langfristig umgeht.

Uwe Reckzeh-Stein

Welche Herausforderungen sehen Sie aktuell bei der Beschaffung von KI-tauglicher Hardware?

Ramin Yahyapour

Die Verfügbarkeit und die hohen Kosten von KI-Hardware sind ein Problem. Bei großen Beschaffungen findet man meist noch Wege, um geeignete Angebote zu erhalten. Dennoch ist zu wünschen, dass es hier einen breiteren Markt mit mehr Anbietern gibt. Der Blick in die Zukunft macht einem durchaus Hoffnung. Dazu müssen aber auch die Software-Lösungen auf andere Hardware-Architekturen portiert werden.

Uwe Reckzeh-Stein

Wären kleinere Modelle eine realistische Übergangslösung?

Ramin Yahyapour

Erfreulicherweise gibt es ja diverse KI-Modelle, die zur Verfügung stehen, sodass man hier beispielsweise nicht allein auf ChatGPT angewiesen ist. Aus den Erfahrungen aus dem ChatAI-Angebot sehen wir, dass hier viele freie Modelle gute Ergebnisse liefern. Ebenso sind abhängig vom Anwendungsfall häufig auch kleinere Modelle völlig ausreichend. Dazu braucht es jedoch Beratung der Nutzenden, um das richtige Modell zu finden oder anzupassen.

Uwe Reckzeh-Stein

Welche politischen und finanziellen Rahmenbedingungen bräuchte es, um souveräne KI-Infrastrukturen an Hochschulen realistisch aufzubauen?

Ramin Yahyapour

Für die Bereitstellung von KI-Infrastruktur braucht es eine stabile und langfristige Finanzierungsperspektive, bei der eine begrenzte Anzahl von Zentren eine arbeitsteilige Versorgung sicherstellen, analog zu den Modellen im Supercomputing durch NHR (Nationales Hochleistungsrechnen) und GCS (Gauss Centre for Super Computing). Auch wenn es eine andere Zielgruppe ist, sind die Anforderungen an die Rechenzentren, das Datenmanagement oder die Betriebs- und Supportstruktur sehr ähnlich. Dies werden Hochschulen nicht alleine leisten können – und es wäre ökonomisch auch nicht sinnvoll. Ein solches langfristig angelegtes Förderprogramm würde wahrscheinlich 100–200 Mio. Euro pro Jahr erfordern. Hier würde man sich ein Bund-Länder-Programm wünschen, das sich in die bisherigen Initiativen zu Nationaler Forschungsdateninfrastruktur, Nationalen Hochleistungsrechnen und KI-Zentren integriert. Die Zukunft wird auch darin liegen, wie man dies stärker mit kommerzieller Nutzung verbindet und so weitere Synergien zwischen Wissenschaft und Wirtschaft schafft. Hierzu sind die entsprechenden politischen Rahmenbedingungen zu schaffen.

Lehre, Forschung und Verantwortung – KI im Hochschulalltag neu denken

Wie verändern generative KI-Modelle die Forschung und Lehre an Hochschulen und welche Anforderungen ergeben sich daraus für eine verantwortungsvolle Anwendung? Prof. Dr. Andreas Hotho ist Informatiker an der Universität Würzburg und erforscht den Einsatz von KI insbesondere im Kontext interdisziplinärer Anwendungen. Im Interview spricht er über Potenziale und Risiken neuer Technologien, über die Bedeutung offener Modelle und europäischer Infrastrukturen – und über die Notwendigkeit, KI-Kompetenzen in der Lehre zu verankern, ohne dabei grundlegende Fähigkeiten zu vernachlässigen.

Uwe Reckzeh-Stein

Herr Hotho, wie verändert generative KI aus Ihrer Sicht die Hochschullehre und -forschung? Welche Potenziale sehen Sie und wo liegen Grenzen oder gar Gefahren?

Andreas Hotho

Aus eigener Erfahrung ließe sich die Technologie für viele Aufgabenbereiche als bemerkenswert effektiv beschreiben, insbesondere bei der Identifizierung von Aufgaben und Aktionspunkten. Diese Entwicklungen sind sowohl faszinierend als auch potenziell beunruhigend und verweisen unübersehbar auf die Verantwortung des Menschen im Umgang mit diesen neuen Technologien. Etwa zeigen sich Chancen für personalisierte Lernempfehlungen und automatisierte Kursmaterial-Erstellung, gleichzeitig muss man aber auch auf Risiken wie Halluzinationen der KI hinweisen, die die Verlässlichkeit für wirkliche Arbeitserleichterungen in beispielsweise der Forschung noch infrage stellen. Andererseits lässt sich in der Forschung großes Potenzial für effizientere Recherche und interdisziplinäre Perspektiven bereits erkennen, wenn KI-Tools helfen, über den Tellerrand zu blicken und verschiedene wissenschaftliche Perspektiven zusammenzuführen. Im Bereich der Studienverwaltung oder Learning-Management und -Analytics könnten derweil Projekte zur Entwicklung eines KI-gestützten Empfehlungs- und Beratungssystems für Studierende initiiert werden, die bei der Auswahl von Kursen und Programmen unterstützen oder Lernfortschritte begleiten und optimieren. Das geschieht ja auch bereits an verschiedenen Stellen.

Auch das Nachhalten und Organisieren von Kursmaterialien kann durch KI-Anwendungen optimiert werden. Ein griffiges Beispiel, an dem auch neue Herausforderungen durch KI-Tools entstehen, lässt sich etwa in der Ausbildung von Studierenden, insbesondere im Bereich Programmieren, darstellen. Hier bleibt es entscheidend, grundlegende Fähigkeiten zu erlernen, um KI-generierte Lösungen verstehen und bewerten zu können. Programmieren durch Prompten abzulösen, wäre in der Ausbildungsphase fatal. Ich schlage vor, KI als Lernhilfe zu nutzen, betone aber die Notwendigkeit, Studierende dazu zu bringen, erst einmal ohne KI-Unterstützung programmieren zu lernen. Dafür braucht es natürlich die richtigen Konzepte und eine angepasste Propädeutik. Vielleicht sogar in den meisten Fächern.

Uwe Reckzeh-Stein

Welche Rolle spielt die Frage der Datenhoheit im Lehrkontext? Können Open-Weight-Modelle hier eine Lösung sein? Welche Rolle spielt Open Source für die Zukunft souveräner KI-Nutzung?

Andreas Hotho

Zuerst einmal wäre die Notwendigkeit zu betonen, eigene KI-Modelle in Europa zu entwickeln und zu kontrollieren, um Abhängigkeiten von ausländischen Unternehmen zu vermeiden. Beim Training von Sprachmodellen, insbesondere hinsichtlich der benötigten Datenmengen und Rechenkapazitäten, zeigen sich die Schwierigkeiten, wenn Hochschulen, oder einzelne Verbünde oder Bundesländer auch nur etwas annähernd für die Forschung Geeignetes aufstellen wollen. Natürlich geht die Entwicklung weiter und zeigt die Wichtigkeit, diese Technologien an deutschen Universitäten und Forschungseinrichtungen voranzutreiben. Open-Weight-Modelle haben schon gezeigt, dass vieles mit weniger Ressourcen möglich wäre. Das berühmte Beispiel von DeepSeek zeigt aber eben auch, dass die benötigten Ressourcen für Bildungs- und Forschungseinrichtungen dennoch erheblich sein dürften. Außerdem hat gerade dieses Beispiel verdeutlicht, dass auch solch ein Modell nicht gänzlich durchdrungen werden kann, wir also auch hier am Ende nicht wissen, warum das Modell auf dieses oder jenes Ergebnis kommt. Eigenentwicklung bleibt also der Schlüssel. Dabei wäre ein offenes, also ein Open-Source-Modell für den deutschen, besser noch den europäischen Raum das erstrebenswerteste. Aufgrund begrenzter Ressourcen ist eine effektive Nutzung durch das Teilen von Ergebnissen und Erfahrungen m. E. die logische Konsequenz. Also wären wir wieder bei einem Open-Source-Ansatz oder der Bündelung von Ressourcen in einem zentralen europäischen KI-Forschungszentrum. Eine Art CERN für die KI. Das würde Ressourcen effektiver nutzen und Fortschritte beschleunigen.

Das braucht aber politischen Willen und Unterstützung und Anreize für Hochschulen, um diese Zusammenarbeit zu fördern. Sonst wird ein Schritthalten mit amerikanischen Großkonzernen gänzlich aussichtslos. Finanzierungsmodelle und Anreize für kooperative KI-Forschung und -Entwicklung sollten dabei auf Bundes- und Landesebene geschaffen werden, natürlich unter Teilhabe der Hochschulen.

Uwe Reckzeh-Stein

Sie arbeiten selbst mit KI-Modellen – wie könnte der Wissenstransfer zwischen Forschung, Infrastrukturplanung und Anwendung besser gestaltet werden?

Andreas Hotho

So wie eben vorgeschlagen: Ein kollaboratives, kooperatives und zugängliches Projekt, dessen Hoheit und Ausrichtung aus Europa kommt und in Europa bleibt, wäre ein denkbarer und wünschenswerter Weg. Ich betone dabei die Notwendigkeit europäischer Kontrolle über KI-Unternehmen und -Daten sowie die Bedeutung von Partnerschaften zwischen Industrie und Forschungsinstitutionen. Ich selbst wirke ja an der Schnittstelle zwischen KI-Modellen und verschiedenen Fachdisziplinen, insbesondere im medizinischen Bereich, weshalb ich auch die Wichtigkeit der Anpassung von KI-Modellen an spezifische Fachgebiete für effektive Anwendungen nochmals hervorheben würde. Dann ließe sich übrigens auch überlegen, wie leistungsfähig ein Modell überhaupt sein muss. Für interdisziplinäres Forschen werden wir die KI-Modelle aber nicht sehr beschneiden können. In der Fähigkeit, die meisten Fachgebiete zusammenzubringen, liegt ja auch einer der großen Vorteile der Forschung mit KI-Unterstützung.

Uwe Reckzeh-Stein

Wie wichtig ist es, dass Hochschulen die Funktionsweise der eingesetzten KI verstehen und kontrollieren können? Was müsste passieren, damit auch kleinere Modelle zuverlässig und transparent einsetzbar sind?

Andreas Hotho

Wie gesagt wäre fraglich, inwiefern kleinere Modelle nicht auch gleichzeitig den eigentlichen Reiz für die Arbeit und Forschung in vielen Fächern untergraben würden. Vielleicht wäre das eher im Bereich der Studierendenberatung ein Ansatz. Aber da die Fähigkeiten der Modelle mit ihrer Größe zunehmen und weiter zunehmen werden, erklären sich einerseits die Herausforderungen bei der Entwicklung kleinerer, aber leistungsfähiger Modelle, andererseits aber auch, warum kleinere Modelle in Planung und Beschaffung nicht unbedingt attraktiv sein werden. Trotzdem darf grundsätzlich diskutiert werden, wie verschiedene Fachbereiche, nehmen wir einmal die vielfältigen Geisteswissenschaften, von KI-Tools profitieren können, wobei ich betonen will, dass ein grundlegendes Verständnis der Möglichkeiten und Grenzen dieser Systeme wichtig ist. Dabei sollte man sich auch mit dem Gedanken anfreunden, dass ein gewisses Maß an Programmierkenntnissen nützlich sein kann, um KI-Tools für spezifische Forschungsfragen anzupassen, auch ohne dass man ein:e Vollzeit-Programmierer:in werden muss. Das zeigt wieder die Notwendigkeit interdisziplinärer Ansätze, wie beispielsweise die Entwicklung von Studiengängen, die Fachwissenschaften mit grundlegenden IT-Kenntnissen verbinden und zwischen der technischen Seite, der Fachspezifischen und gegebenenfalls der Öffentlichkeit vermitteln können.

Am 16. Dezember ist Uwe Reckzeh-Stein gemeinsam mit Jonas Leschke (Zentrum für Wissenschaftsdidaktik, Ruhr-Universität Bochum) im CHEtalk feat. Hochschulforum Digitalisierung zu Gast und diskutieren die Frage: Wie können Hochschulen generative KI souverän und verantwortungsvoll nutzen?

Event
16
Dezember

CHEtalk feat HFD: Generative KI als Gamechanger?! – Souveräne KI-Infrastrukturen gestalten

Autor

Profilbild von Uwe Reckzeh-Stein

Uwe Reckzeh-Stein ist katholischer und ökumenischer Theologe, gelernter Informatiker und seit 2019 Referent der Hochschulrektorenkonferenz im Projekt HFD. Er ist vornehmlich für Netzwerkprozesse und die Koordination verschiedener HFD-Think-Tanks zuständig. Organisatorisch und inhaltlich begleitet er zahlreiche Formate und AGs des Hochschulforums.

Im Gespräch mit

Prof. Dr. Ramin Yahyapour ist Geschäftsführer der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen. Er ist außerdem seit 2014 Chief Information Officer der Universität und Universitätsmedizin Göttingen und seit 2011 Professor für Praktische Informatik an der Universität Göttingen.

Prof. Dr. Andreas Hotho ist Professor für Data Science an der Universität Würzburg und Gründungssprecher des Center for Artificial Intelligence and Data Science. Seine Forschungsschwerpunkte liegen in der Entwicklung neuer Data-Science-Algorithmen und Machine-Learning-Modelle für vielfältige interdisziplinäre Projekte, u. a. zur Analyse von Umwelt und Klimadaten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert