Ringvorlesung – Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme

Bei Ressourcen-Effizienz handelt es sich um eine weitere nicht-funktionale Anforderung, die am 21. Mai im Fokus unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ stehen wird. 💻

Prof. Dr. Sarah Neuwirth, die an der Johannes Gutenberg-Universität Mainz eine Professur für Nationales Hochleistungsrechnen und dessen Anwendungen innehat, beleuchtet die Anforderung der Ressourcen-Effizienz aus Forschungsperspektive. Enver Solan steuert seine Praxiserfahrungen bei GEMESYS im Bereich der Effizienzsteigerung von KI-Systemen bei.

RECAP

Am 14. Mai stand Fairness als nicht-funktionale Anforderung an KI-Systeme im Zentrum unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“.

Sehr anschaulich und unter reger Publikumsbeteiligung wurde Fairness als wichtige, aber auch anspruchsvolle Anforderung von Dr. Mattia Cerrato von TOPML und Prof. Dr. Christian Wolff von der Universität Regensburg betrachtet: Cerrato veranschaulichte anhand verschiedener Praxis- und Theoriebeispiele Fairness in der KI als inter- und transdisziplinäre Studie von sozialen Einflüssen auf KI-Systeme und dem Umgang mit ihnen. Wolff lieferte in seinem Vortrag einen Überblick über den Einsatz von KI im Bereich der Rechtsinformatik und die Rolle, die Fairness in Programmierung und Einsatz von KI-Systemen besonders im Rechtswesen spielt.

 

 

 

 

Mit dem Thema Fairness wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am 14. Mai einer weiteren nicht-funktionalen Anforderung an KI-Systeme zu. 💻

Dr. Mattia Cerrato, der bei TOPML an der Fairness von KI-Systemen forscht, stellt das interessante Themenfeld aus theoretischer Perspektive vor. Prof. Dr. Christian Wolff von der Universität Regensburg wiederum wird in seinem Vortrag praktische Erfahrungen mit Fairness im Bereich der Rechtsinformatik beisteuern.

RECAP

Am 07. Mai hat sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ unter dem Thema Datenschutz der ersten nicht-funktionalen Anforderung an KI-Systeme gewidmet.

Mit einem sehr differenzierten Einblick über Chancen und Risiken von KI-basierten Anwendungen führte der Vortrag „Künstliche Intelligenz – Ein Kreislauf von Daten und Datenschutz?“ von Prof. Dr. Kristian Kersting von der Technischen Universität Darmstadt in das sensible Thema Datenschutz ein.

Dr. Torsten Panholzer, Leiter der Abteilung Medizinische Informatik an der Universitätsmedizin Mainz erweiterte die Thematik durch seinen interessanten Vortrag „Datenschutz“, in dem er die Möglichkeiten, Schwierigkeiten und Hürden der medizinischen Forschung unter Einhaltung der Datenschutzgesetze herausarbeitete.

Dass es sich bei Datenschutz – besonders auch im Hinblick auf medizinische Forschung – um ein sowohl sensibles wie relevantes Thema handelt, verdeutlichte auch die rege Publikumsbeteiligung in der anschließenden offenen Diskussionsrunde.

RECAP

Am 07. Mai wendet sich unsere Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ der ersten nicht-funktionalen Anforderung an KI-Systeme zu: dem Datenschutz. 💻

Prof. Dr. Kristian Kersting von der Technischen Universität Darmstadt und Dr. Torsten Panholzer, Leiter der Abteilung Medizinische Informatik an der Universitätsmedizin Mainz stellen ihre Blickpunkte auf diese sensible Anforderung vor.

RECAP

Wir freuen uns über einen gelungenen Start unserer Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?“ am Dienstag, den 30. April! 🥳

Nach einleitenden Worten von Prof. Dr. Christoph Bläsi führte TOPML-Projektleiter Prof. Dr. Stefan Kramer die Anwesenden die Vorlesungsreihe ein, beleuchtete die Notwendigkeit von nicht-funktionalen Anforderungen an KI-Systeme aus aktueller und Praxis-Perspektive sowie den Forschungsansatz von TOPML. Zudem lieferte Kramer einen Überblick darüber, was sich hinter den nicht-funktionalen Anforderungen Datenschutz, Fairness, Ressourcen-Effizienz und Transparenz verbirgt. Diese werden in den kommenden Wochen von unseren Sprecher:innen sowohl aus Forschungs- als auch aus Praxisperspektive näher beleuchtet werden.

Prof. Dr. Nina Christine Hubig, die remote aus den USA zugeschaltet war, bereicherte die Vorlesung durch ihren Vortrag zum Thema „Transparency and Machine Learning Model Explainability“.

 

 

 

Das interdisziplinäre Forschungsprojekt TOPML (Trading off Non-Functional Properties of Machine Learning) untersucht die komplexen Wechselwirkungen und Abhängigkeiten zwischen verschiedenen nicht-funktionalen Anforderungen an das maschinelle Lernen, wie beispielsweise Transparenz und Datensicherheit.

Die Ringvorlesung „Transparenz, Datensicherheit & Co.: Umsetzbare Anforderungen an KI-Systeme?" im Sommersemester 2024, organisiert von TOPML, richtet sich an die universitäre Öffentlichkeit und interessierte Studierende (siehe unten). Sie präsentiert die zentralen Fragestellungen des Projekts – Datenschutz, Fairness, Ressourcen-Effizienz und Transparenz – sowie einen Blick auf die Thematik aus deutscher Perspektive und wird von einer einführenden bzw. abschließenden Vorlesung eingerahmt.

Jedes Thema wird von zwei Referent:innen sowohl aus Forschungs- als auch aus Praxisperspektive beleuchtet und bietet Raum für anschließende, weiterführende Diskussionen.

Den interdisziplinären Anspruch von TOPML entsprechend richtet sich die Vorlesung an interessierte Studierende aller Studiengänge der JGU und HS Mainz sowie an Teilnehmende des Q+-Programms. Auch Gasthörer:innen sind herzlich willkommen. Für Informatik-Studierende der JGU und Studierende des M.A. Buchwissenschaft ist die Vorlesung anrechenbar – wenden Sie sich bei Fragen bitte an Ihr jeweiliges Studienbüro. Um eine Anmeldung via E-Mail an topml-management@uni-mainz.de wird gebeten.

 

Veröffentlicht am | Veröffentlicht in Allgemein