Research

Methoden aus dem Bereich der Künstlichen Intelligenz sind oft nicht transparent und ihre Entscheidungen in der Regel schwer nachvollziehbar. Beim Einsatz von Algorithmen und Modellen kann jedoch je nach Anwendungsbereich durch Gesetze oder Richtlinien sichergestellt werden, dass diese weder diskriminierend noch undurchsichtig sein dürfen. Das Teilprojekt untersucht, wie Methoden, die verschiedene Definitionen von Fairness verwenden, vollständig interpretierbar bzw. transparent gemacht werden können.

Können maschinelle Lernalgorithmen die Privatsphäre wahren und fair sein? Mit dem Zusammenspiel und den Trade-offs dieser beiden Konzepte befasst sich das Teilprojekt „Fairness vs. Privacy“. Einerseits wollen wir dabei erreichen, dass in maschinell gelernten Modellen verschiedene gesellschaftliche Gruppen gerecht berücksichtigt werden (Fairness). Andererseits sollen innerhalb eines Lernalgorithmus keine Daten an Dritte weitergegeben werden und auch die Ausgabe des Lernalgorithmus keine Rückschlüsse auf die verwendeten Trainingsdaten zulassen (Privacy).
Ziel des Teilprojektes ist es dabei, sowohl die Kombination beider Konzepte theoretisch zu untersuchen, als auch neue Ansätze für die Praxis zu entwickeln.

Was kostet der Schutz der Privatsphäre beim maschinellen Lernen? Mit dieser Frage beschäftigt sich das Teilprojekt "Privacy vs. Resource Efficiency". Ziel des Teilprojektes ist es kryptographische Verfahren auf ihre Kosten, wie Rechenaufwand und Kommunikation, zu untersuchen und effiziente Methoden und Implementierungen zu entwickeln.

Der Wunsch nach erklärbaren und transparenten Modellen im Bereich maschinelles Lernen mit zugleich guter Vorhersagekraft ist aktuell stärker denn je. Insbesondere durch heutige Technologien werden Daten kontinuierlich generiert und übertragen. Um diesen Anforderungen gerecht zu werden, erstrebt das Teilprojekt „Ressourceneffizienz vs. Transparenz“ die Entwicklung effizienter und zugleich transparenter Lernverfahren im Datenstrom-Setting.

Methoden des maschinellen Lernens, insbesondere neuronale Netze, sind bekannt dafür, große Mengen sowohl an Rechenressourcen als auch an Daten zu benötigen. Um das zu ändern, wurden verschiedene Ansätze entwickelt, um die Ressourceneffizienz maschinellen Lernens zu erhöhen. Allerdings ist weitestgehend unklar, wie sich diese auf die Fairness der resultierenden Modelle auswirken. Das Ziel dieses Teilprojektes ist es, diese Frage zu untersuchen, sowie Methoden entwickeln, die sowohl Ressourceneffizienz als auch Fairness erhöhen.

Teilprojekt 6 betrifft die Aspekte Transparenz vs. Privacy. Hinsichtlich des Transparenz-Aspekts sollen verständliche Wissensbasen aus Daten erlernt werden. Als Werkzeug hierfür dient die bestehende InteKRator-Toolbox. Mit Fokus auf den Privacy-Aspekt soll betrachtet werden, inwiefern solche gelernten Wissensbasen Datenschutzkriterien genügen – insbesondere in (unsicheren) verteilten Umgebungen, wo z.B. die Datenquellen liegen können. Darüber hinaus soll untersucht werden, wie verteilte Ansätze zur Verbesserung von InteKRator eingesetzt werden können (z.B. zur Steigerung der Lern-Performance), um Wissensbasen für medizinische Anwendungen aus Daten zu lernen (beispielsweise für medizinische Expertensysteme).

Um relevante KI-Forschung zu betreiben, ist es heute dringend erforderlich, ebenso ethische und rechtliche Rahmenbedingungen zu bedenken. Daher ist ein strategisches Ziel, Expertise von Ethik und Recht auf der einen Seite und KI-Forschung in der Informatik auf der anderen Seite in einem Projekt und langfristig aneinander zu binden.
Ein weiteres Feature von TOPML ist ein KI-Lab, das die Erkenntnisse aus den Teilprojekten einerseits in Anwendungen an der JGU selbst bringen, aber auch in die industrielle Praxis tragen soll. Das KI-Lab selbst soll aufgrund der Nähe zur regionalen und überregionalen Industrie an der Hochschule Mainz angesiedelt werden. Das Projekt wird somit eine Vorreiterstellung in der Kooperation zwischen der JGU und der Hochschule Mainz auf einem technischen Gebiet einnehmen.
Im Bereich Nachwuchsförderung und Gleichstellung soll in den ersten drei Jahren des Projektes mithilfe der Programme Q+ und Ada-Lovelace technisch versierte wie gesellschaftlich verantwortungsvolle Nachwuchswissenschaftler:innen als studentische Hilfskräfte herangezogen werden, die im späteren Projektverlauf als Doktorand:innen eingestellt werden können.