Erklärbarkeit und Transparenz des Maschinellen Lernens und der Künstlichen Intelligenz
Erklärbarkeit und Transparenz von KI-Verfahren sind zentrale Forschungsziele der Bundesregierung. Zukünftige Projekte müssen weit über die bisherigen Ansätze und Herangehensweisen hinausgehen, um den Anforderungen einer digitalisierten Gesellschaft gerecht zu werden. Aktuell sind graphische Werkzeuge ein wichtiger Bestandteil dieser Bemühungen, allerdings ist dieser Ansatz bei Weitem nicht ausreichend. Für ein Verständnis von KI-Systemen ist eine Kombination von neuartigen Ansätzen aus verschiedenen Gebieten wie Physik, Mathematik, aber auch Kognitionswissenschaften notwendig. Das BMBF wird deshalb mit dieser Bekanntmachung Vorhaben fördern, die eine Nachvollziehbarkeit, Erklärbarkeit und Transparenz des ML bzw. der KI, vor allem im Hinblick auf praxisrelevante Anwendungen, zum Ziel haben.
CogXAI |
KI trainieren und verstehen mit Methoden aus den kognitiven Neurowissenschaften Im Vorhaben CogXAI werden etablierte neurowissenschaftliche Verfahren auf Künstliche neuronale Netze (KNNs) übertragen. Dadurch werden auch deren Lernprozesse besser nachvollziehbar. So ist gelerntes Fehlverhalten schon im Entstehen erkennbar und es können entsprechende Gegenmaßnahmen ergriffen werden. Darüber hinaus bieten die kognitiven Neurowissenschaften auch viele Erkenntnisse über das Lernverhalten des menschlichen Gehirns. Dieser Erfahrungsschatz wird im Projekt CogXAI genutzt, um neuartige kognitiv inspirierte KNN-Architekturen zu designen. Diese Übertragung kognitiver Konzepte auf KNNs wird ebenso die Nachvollziehbarkeit von KNN-basierten Systemen verbessern. Ansprechpartner: |
DADLN |
Dynamik und adaptive Dekomposition lernender Netzwerke |
DAIKIRI |
Erklärbare Diagnostische KI für industrielle Daten Im Projekt soll eine Lösung entwickelt werden, die das Verständnis der Funktion von konkreten ML-Modellen für die Endanwender verbessert. Dazu soll auf Verfahren aufgesetzt werden, die unter dem Begriff „symbolisches ML“ diskutiert werden und auf einer bestimmten Form der Darstellung bzw. Repräsentation von Wissen, den Wissensgraphen, basieren. Da diese Wissensgraphen mit einer formalen Sprache (sogenannte Ontologien) beschrieben werden, können hieraus natürlichsprachliche Beschreibungen der Wissensgebiete erzeugt und damit eine für Menschen verständliche Rückmeldung zu den Inhalten der Wissensgraphen gegeben werden. Dies soll für die Erklärbarkeit von ML-Modellen im Bereich des Maschinen- und Anlagenbaus genutzt werden. Projektpartner: Ansprechpartner: |
DeepDoubt |
Weiterentwicklung von Unsicherheitsmaßen zur Erhöhung der Transparenz und Nachvollziehbarkeit im Deep Learning und deren Anwendung auf optische Systeme |
EML4U |
Erklärbares Maschinelles Lernen für interaktive episodische Updates von Modellen |
KOSMOX |
Entwicklung einer neuartigen lokalen kontrafaktischen Erklärungsmethode und -Schnittstelle unter Berücksichtigung kognitiver Modellierungsansätze Ziel des Projektvorhabens KOSMOX ist die Entwicklung eines ganzheitlichen Erklärungssys-tems, das Entscheidungen von KI-Systemen im Nachhinein verständlich darstellt. Es soll ein System geschaffen werden, das Ansätze regel- und simulationsbasierter Erklärungen vereint. Zusätzlich werden relevante Techniken aus dem Bereich der Komplexen Systeme eingesetzt. Außerdem soll eine Erklärungsschnittstelle konzipiert und realisiert werden, die auf Erkenntnissen aus den Kognitionswissenschaften basiert und eine interaktive Kommunikation zwischen den Anwendern und den eingesetzten KI-Techniken ermöglicht. In einem inter-disziplinären Team aus Forschern und Industrieexperten werden zu diesem Zweck auch Herangehensweisen aus den Organisationswissenschaften, der Mensch-Computer-Interaktion sowie der Verhaltensökonomie herangezogen. Indem der Mehrwert der Zusammenarbeit von Mensch und Künstlicher Intelligenz herausgestellt wird, soll Vertrauen in KI-basierte Anwendungen aufgebaut werden. Im Fokus steht dabei, den Anwendern die Ergebnisse Maschineller Lernverfahren und anderer KI-Techniken für den Entscheidungsfindungs-prozess transparent darzustellen und zu erklären. Projektpartner: Ansprechpartner: |
NEUPA |
Neue Erklärbarkeit unterstützt durch Weltmodelle zur Prädiktion beim Autonomen Fahren Beim Autonomen Fahren kommen Künstliche Neuronale Netze (KNN) zum Einsatz, z. B. um Fußgänger oder Radfahrer zu erkennen, deren Verhalten zu antizipieren und entsprechend zu reagieren. Insbesondere bei diesen sicherheitskritischen Systemen ist es notwendig, dass die Funktionsweise nachvollziehbar ist und sie damit zertifizierbar sind. Im Vorhaben NEUPA soll die Erklärbarkeit der KNN erhöht werden, um so mittelfristig Zertifizierungen prinzipiell zu ermöglichen. Zu diesem Zweck werden im Rahmen des Projekts zwei Ansätze verfolgt: Zum einen werden Prädiktionsmodelle, die für gegebene sensorische Eingaben das zu erwartende Systemverhalten vorhersagen, gemeinsam mit lernenden KNN für das jeweilige Verhalten trainiert. Diese werden dann genutzt, um das Verhalten der KNN selbst zu erklären und besser zu verstehen. Beim zweiten Ansatz werden mit Methoden der statistischen Physik und des kollektiven Entscheidens das vielfältige Zusammenspiel der vernetzten künstlichen Neuronen und deren Entscheidungsfindung analysiert. Dabei werden in mehreren Iterationen Gruppen von künstlichen Neuronen ihrer Funktionalität folgend zu größeren Modulen zusammengefasst, um das KNN dann Modul für Modul in seiner Wirkweise verstehen zu können. Projektpartner: Ansprechpartner: |
PlexPlain |
Erklärende KI für Komplexe Lineare Programme am Beispiel intelligenter Energiesysteme |
RenormalizedFlows |
RenormalizedFlow - Transparentes Tiefes Lernen mit Renormalisierten Flows Das interdisziplinäre Vorhaben RenormalizedFlow vereint Neurowissenschaften, Informatik, statistische Physik und Medizin, um grundlegende Fortschritte für die Transparenz und Inter-pretierbarkeit tiefer neuronaler Netzwerke zu liefern. Diese Netzwerke bestehen aus einer Hintereinanderschaltung vieler Schichten von Neuronen, die eingehende Daten, Schritt für Schritt, in Ihre zugrundeliegenden Ursachen zerlegen. Diese Zerlegung ist jedoch so komplex, dass sie für einen Menschen nicht direkt nachvollziehbar ist. Projektpartner: Ansprechpartner: |
XAPS |
Erklärbare KI für automatisierte Produktionssysteme Ziel des Projektes ist es, mit Methoden des maschinellen Lernens komplexe Abhängigkeiten zwischen Fehlern und Bearbeitung frühzeitig zu entdecken und sie wiederum mit KI-Methoden so zu erklären, dass der Betreiber sein automatisiertes Produktionssystem (aPS) effizient und effektiv optimieren kann. Dazu verknüpft XAPS digitale Beschreibungen der Fabrik und des Produkts (digitaler Zwilling) aus dem Manufacturing Execution System (MES) mit maschinellem Lernen (ML) und innovativen Methoden der formalen Argumentation. Die Modelle der formalen Argumentation verwenden insbesondere Ansätze, die sich mit der Repräsentation und Interaktion von Argumenten und Gegenargumenten befassen. So liefert die Methode ein Argument, welches ein Fehlverhalten erklärt und durch den menschlichen Bearbeiter interpretiert und, wenn es nicht zutrifft, wiederlegt werden kann, wodurch die XAPS-Plattform nach einer neuen Begründung für den Fehler sucht. Dies ergibt die Grundlage für ein ganzheitliches Lösungsportfolio zur Steuerung und Überwachung von aPS. Projektpartner: Ansprechpartner: |