Ringvorlesung – Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme

Am 18. Juni endete unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ mit einem Fazit der Vorträge über die nicht-operationalen Anforderungen an Maschinelles Lernen und einem Ausblick auf die Zukunft der Künstlichen Intelligenz. 🔚

Die Vorlesung wurde von Herr Prof. Dr. Stefan Kramer, der Sprecher des TOPML-Projekts, eröffnet. Er ging auf die Inhalte der vergangenen Vorträge zu nicht-operationalen Anforderungen an Maschinelles Lernen und KI-Systeme ein, welche im Rahmen der Ringvorlesung gehalten wurden.

Im Anschluss gab Herr Prof. Dr. Steffen Staab vom SimTech-Exzellenzcluster der Universität Stuttgart einen Ausblick auf anzunehmende Entwicklungen künstlicher Intelligenz in naher Zukunft. Hierbei erörterte er insbesondere die Integration von Knowledge in operative Prozesse künstlicher Intelligenz als Faktor zur Weiterentwicklung von KI-Entwicklungsprozessen, welche aktuell nahezu ausschließlich aus Data-Engineering bestehen.

 

Wir bedanken uns bei allen, die bei der Ringvorlesung vorgetragen und zugehört haben und freuen uns auf die zukünftigen Veranstaltungen von TOPML.

Nach sechs interessanten und informativen Vorlesungen kommt unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am 18. Juni zu einem Ende. 💻

In der abschließenden Veranstaltung werden TOPML-Projektleiter Prof. Dr. Stefan Kramer und Prof. Dr. Steffen Staab von der Universität Stuttgart ein Fazit der Eindrücke der vorherigen Vorlesungen ziehen sowie einen Blick auf künftige Entwicklungen im Bereich der KI und deren Anforderungen werfen.

Wir freuen uns auf einen spannenden Abschluss unserer Vorlesungsreihe! 🥳

Unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ widmete sich am 11. Juni der Deutschen Perspektive von und auf KI-Systeme.

In seinem remote Vortrag sprach Dr. Nicolas Flores-Herr vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme über die Entwicklungen von europäischen KI-Modellen. Hierbei erklärte er insbesondere die Chancen des open source Projekts OpenGPT-X, welches vom Fraunhofer-Institut entwickelt wird. Anhand dessen beleuchtete er auch die verschiedenen Herausforderungen bei der Konzeptionalisierung und Umsetzung multilingualer Sprachmodelle.

Frau Vivien Bender von der Springer Nature Group erörterte die Anwendungsfälle von Künstlicher Intelligenz im Verlagssektor und beleuchtete, wie KIs die einzelnen Schritte des Schreibprozesses bei non-fiction Büchern unterstützen können. Dabei berichtete Sie unter anderem von einem Projekt an der JGU Mainz, in welchem Springer Nature gemeinsam mit Studierenden am Lehrstuhl von Professor Doktor Christoph Bläsi ein ganzes Buch von einer KI schrieben ließen.

Die Vielseitigkeit der Deutschen Perspektive auf Künstliche Intelligenz wurde in den beiden Vorträgen zum Ausdruck gebracht und durch Beispiele aus verschiedenen Branchen veranschaulicht.

Nachdem in den letzten Wochen alle vier nicht-funktionalen Anforderungen an KI-Systeme betrachtet wurden, wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am 11. Juni thematisch übergreifend der deutschen Perspektive auf dieses interessante Feld zu.

Dr. Nicolas Flores-Herr vom Fraunhofer Institut wird das Thema remote aus Forschungsperspektive beleuchten und sich dabei auf das Projekt OpenGPT-X beziehen, mit Schwerpunkt auf Themen wie die Bewertung der Modelle insbesondere innerhalb von Anwendungen sowie Open Source. Vivien Bender wiederum widmet sich der Praxisperspektive: Als Executive Editor und AI Product Manager bei Springer Gabler befasst sie sich mit KI als Partner im Verlagswesen und thematisiert in ihrem Vortrag die transformative Kraft von GPT für Autor:innen, Verlage und Wissenschaft.

Die Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ befasste sich am 4. Juni mit dem Thema „Transparenz“ als nicht-funktionale Anforderung an KI-Systeme.

Herr René Heinitz von Deloitte Consulting GmbH behandelte in seinem Vortrag aktuelle ethische Fragestellungen, wobei er sich auf bekannte Beispiele aus den Nachrichten bezog. Er erklärte, welche Verantwortung die Akteure aus Politik, Wirtschaft und Forschung übernehmen können und welche ethischen Leitlinien zur Nutzung von KI-Systemen bereits vorhanden sind.

Dr. Patrick Schramowski von der Technischen Universität Darmstadt erklärte in seinem Vortrag die technischen Grundlagen zur besseren Kuration von KI-Inhalten, insbesondere im Kontext KI-generierter Bilder. Er gab einen Ausblick auf mögliche Lösungen und stellte das Projekt LlavaGuard vor, welches der Erstellung unangemessener Visualisierungen durch Künstliche Intelligenz vorbeugt.

Beide Vorträge hoben die Relevanz ethischer Fragen im Kontext künstlicher Intelligenz hervor. Die Kombination aus theoretischer und praktischer Perspektive boten einen tiefgreifenden Einblick in aktuelle ethische Fragen rund um die KI-Nutzung.

Am 04. Juni wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ mit der Transparenz der letzten nicht-funktionalen Anforderung an KI-Systeme zu. 💻

Dr. Patrick Schramowski von der Technischen Universität Darmstadt betrachtet Transparenz aus Forschungsperspektive unter Einbezug der ethischen Fragen, die an KI-Systeme gestellt werden. René Heinitz von Deloitte Consulting GmbH wird als Experte für die Übersetzung von Werten in digital-ethische Prinzipien seine weitreichende Praxiserfahrung zum Thema beisteuern; u.a. hat er federführend eine Analyse über die Veröffentlichungen von digital-ethischen Leitlinien erstellt.

 

Bei Ressourcen-Effizienz handelt es sich um eine weitere nicht-funktionale Anforderung, die am 21. Mai im Fokus unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ stehen wird. 💻

Prof. Dr. Sarah Neuwirth, die an der Johannes Gutenberg-Universität Mainz eine Professur für Nationales Hochleistungsrechnen und dessen Anwendungen innehat, beleuchtet die Anforderung der Ressourcen-Effizienz aus Forschungsperspektive. Enver Solan steuert seine Praxiserfahrungen bei GEMESYS im Bereich der Effizienzsteigerung von KI-Systemen bei.

RECAP

Am 14. Mai stand Fairness als nicht-funktionale Anforderung an KI-Systeme im Zentrum unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“.

Sehr anschaulich und unter reger Publikumsbeteiligung wurde Fairness als wichtige, aber auch anspruchsvolle Anforderung von Dr. Mattia Cerrato von TOPML und Prof. Dr. Christian Wolff von der Universität Regensburg betrachtet: Cerrato veranschaulichte anhand verschiedener Praxis- und Theoriebeispiele Fairness in der KI als inter- und transdisziplinäre Studie von sozialen Einflüssen auf KI-Systeme und dem Umgang mit ihnen. Wolff lieferte in seinem Vortrag einen Überblick über den Einsatz von KI im Bereich der Rechtsinformatik und die Rolle, die Fairness in Programmierung und Einsatz von KI-Systemen besonders im Rechtswesen spielt.

 

 

 

 

Mit dem Thema Fairness wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am 14. Mai einer weiteren nicht-funktionalen Anforderung an KI-Systeme zu. 💻

Dr. Mattia Cerrato, der bei TOPML an der Fairness von KI-Systemen forscht, stellt das interessante Themenfeld aus theoretischer Perspektive vor. Prof. Dr. Christian Wolff von der Universität Regensburg wiederum wird in seinem Vortrag praktische Erfahrungen mit Fairness im Bereich der Rechtsinformatik beisteuern.

RECAP

Am 07. Mai hat sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ unter dem Thema Datenschutz der ersten nicht-funktionalen Anforderung an KI-Systeme gewidmet.

Mit einem sehr differenzierten Einblick über Chancen und Risiken von KI-basierten Anwendungen führte der Vortrag „Künstliche Intelligenz – Ein Kreislauf von Daten und Datenschutz?“ von Prof. Dr. Kristian Kersting von der Technischen Universität Darmstadt in das sensible Thema Datenschutz ein.

Dr. Torsten Panholzer, Leiter der Abteilung Medizinische Informatik an der Universitätsmedizin Mainz erweiterte die Thematik durch seinen interessanten Vortrag „Datenschutz“, in dem er die Möglichkeiten, Schwierigkeiten und Hürden der medizinischen Forschung unter Einhaltung der Datenschutzgesetze herausarbeitete.

Dass es sich bei Datenschutz – besonders auch im Hinblick auf medizinische Forschung – um ein sowohl sensibles wie relevantes Thema handelt, verdeutlichte auch die rege Publikumsbeteiligung in der anschließenden offenen Diskussionsrunde.

RECAP

Am 07. Mai wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ der ersten nicht-funktionalen Anforderung an KI-Systeme zu: dem Datenschutz. 💻

Prof. Dr. Kristian Kersting von der Technischen Universität Darmstadt und Dr. Torsten Panholzer, Leiter der Abteilung Medizinische Informatik an der Universitätsmedizin Mainz stellen ihre Blickpunkte auf diese sensible Anforderung vor.

RECAP

Wir freuen uns über einen gelungenen Start unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am Dienstag, den 30. April! 🥳

Nach einleitenden Worten von Prof. Dr. Christoph Bläsi führte TOPML-Projektleiter Prof. Dr. Stefan Kramer die Anwesenden die Vorlesungsreihe ein, beleuchtete die Notwendigkeit von nicht-funktionalen Anforderungen an KI-Systeme aus aktueller und Praxis-Perspektive sowie den Forschungsansatz von TOPML. Zudem lieferte Kramer einen Überblick darüber, was sich hinter den nicht-funktionalen Anforderungen Datenschutz, Fairness, Ressourcen-Effizienz und Transparenz verbirgt. Diese werden in den kommenden Wochen von unseren Sprecher:innen sowohl aus Forschungs- als auch aus Praxisperspektive näher beleuchtet werden.

Prof. Dr. Nina Christine Hubig, die remote aus den USA zugeschaltet war, bereicherte die Vorlesung durch ihren Vortrag zum Thema „Transparency and Machine Learning Model Explainability“.

 

 

 

Das interdisziplinäre Forschungsprojekt TOPML (Trading off Non-Functional Properties of Machine Learning) untersucht die komplexen Wechselwirkungen und Abhängigkeiten zwischen verschiedenen nicht-funktionalen Anforderungen an das maschinelle Lernen, wie beispielsweise Transparenz und Datensicherheit.

Die Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?" im Sommersemester 2024, organisiert von TOPML, richtet sich an die universitäre Öffentlichkeit und interessierte Studierende (siehe unten). Sie präsentiert die zentralen Fragestellungen des Projekts – Datenschutz, Fairness, Ressourcen-Effizienz und Transparenz – sowie einen Blick auf die Thematik aus deutscher Perspektive und wird von einer einführenden bzw. abschließenden Vorlesung eingerahmt.

Jedes Thema wird von zwei Referent:innen sowohl aus Forschungs- als auch aus Praxisperspektive beleuchtet und bietet Raum für anschließende, weiterführende Diskussionen.

Den interdisziplinären Anspruch von TOPML entsprechend richtet sich die Vorlesung an interessierte Studierende aller Studiengänge der JGU und HS Mainz sowie an Teilnehmende des Q+-Programms. Auch Gasthörer:innen sind herzlich willkommen. Für Informatik-Studierende der JGU und Studierende des M.A. Buchwissenschaft ist die Vorlesung anrechenbar – wenden Sie sich bei Fragen bitte an Ihr jeweiliges Studienbüro. Um eine Anmeldung via E-Mail an topml-management@uni-mainz.de wird gebeten.

 

Veröffentlicht am | Veröffentlicht in Allgemein