Können maschinelle Lernalgorithmen die Privatsphäre wahren und fair sein? Mit dem Zusammenspiel und den Trade-offs dieser beiden Konzepte befasst sich das Teilprojekt „Fairness vs. Privacy“. Einerseits wollen wir dabei erreichen, dass in maschinell gelernten Modellen verschiedene gesellschaftliche Gruppen gerecht berücksichtigt werden (Fairness). Andererseits sollen innerhalb eines Lernalgorithmus keine Daten an Dritte weitergegeben werden und auch die Ausgabe des Lernalgorithmus keine Rückschlüsse auf die verwendeten Trainingsdaten zulassen (Privacy).
Ziel des Teilprojektes ist es dabei, sowohl die Kombination beider Konzepte theoretisch zu untersuchen, als auch neue Ansätze für die Praxis zu entwickeln.
Was kostet der Schutz der Privatsphäre beim maschinellen Lernen? Mit dieser Frage beschäftigt sich das Teilprojekt "Privacy vs. Resource Efficiency". Ziel des Teilprojektes ist es kryptographische Verfahren auf ihre Kosten, wie Rechenaufwand und Kommunikation, zu untersuchen und effiziente Methoden und Implementierungen zu entwickeln.
Der Wunsch nach erklärbaren und transparenten Modellen im Bereich maschinelles Lernen mit zugleich guter Vorhersagekraft ist aktuell stärker denn je. Insbesondere durch heutige Technologien werden Daten kontinuierlich generiert und übertragen. Um diesen Anforderungen gerecht zu werden, erstrebt das Teilprojekt „Ressourceneffizienz vs. Transparenz“ die Entwicklung effizienter und zugleich transparenter Lernverfahren im Datenstrom-Setting.
Methoden des maschinellen Lernens, insbesondere neuronale Netze, sind bekannt dafür, große Mengen sowohl an Rechenressourcen als auch an Daten zu benötigen. Um das zu ändern, wurden verschiedene Ansätze entwickelt, um die Ressourceneffizienz maschinellen Lernens zu erhöhen. Allerdings ist weitestgehend unklar, wie sich diese auf die Fairness der resultierenden Modelle auswirken. Das Ziel dieses Teilprojektes ist es, diese Frage zu untersuchen, sowie Methoden entwickeln, die sowohl Ressourceneffizienz als auch Fairness erhöhen.
Teilprojekt 6 betrifft die Aspekte Transparenz vs. Privacy. Hinsichtlich des Transparenz-Aspekts sollen verständliche Wissensbasen aus Daten erlernt werden. Als Werkzeug hierfür dient die bestehende InteKRator-Toolbox. Mit Fokus auf den Privacy-Aspekt soll betrachtet werden, inwiefern solche gelernten Wissensbasen Datenschutzkriterien genügen – insbesondere in (unsicheren) verteilten Umgebungen, wo z.B. die Datenquellen liegen können. Darüber hinaus soll untersucht werden, wie verteilte Ansätze zur Verbesserung von InteKRator eingesetzt werden können (z.B. zur Steigerung der Lern-Performance), um Wissensbasen für medizinische Anwendungen aus Daten zu lernen (beispielsweise für medizinische Expertensysteme).