CogXAI: KI trainieren und verstehen mit Methoden aus den kognitiven Neurowissenschaften
Im Vorhaben CogXAI werden etablierte neurowissenschaftliche Verfahren auf Künstliche neuronale Netze (KNNs) übertragen. Dadurch werden auch deren Lernprozesse besser nachvollziehbar. So ist gelerntes Fehlverhalten schon im Entstehen erkennbar und es können entsprechende Gegenmaßnahmen ergriffen werden. Darüber hinaus bieten die kognitiven Neurowissenschaften auch viele Erkenntnisse über das Lernverhalten des menschlichen Gehirns. Dieser Erfahrungsschatz wird im Projekt CogXAI genutzt, um neuartige kognitiv inspirierte KNN-Architekturen zu designen. Diese Übertragung kognitiver Konzepte auf KNNs wird ebenso die Nachvollziehbarkeit von KNN-basierten Systemen verbessern.
Ansprechpartner:
Otto-von-Guericke-Universität Magdeburg
Projektblatt
DADLN: Dynamik und adaptive Dekomposition lernender Netzwerke
Künstliche Intelligenz (KI) – für kaum eine andere Schlüsseltechnologie werden Chancen und mögliche Gefahren im gesellschaftlichen Diskurs aktuell so kontrovers diskutiert. Unbestritten ist, dass die zu erwartenden Veränderungen und Auswirkungen dieser Technologie nahezu alle Lebens- und Wirtschaftsbereiche betreffen werden. Damit einhergehend stellt sich für die Entwickler neuer KI-Algorithmen eine ganz wesentliche Herausforderung: Wie können wir Methoden und Modelle dazu bringen, eine gestellte Aufgabe nicht nur bestmöglich im Sinne des eigentlichen Optimierungsziels sondern gleichzeitig auch transparent und erkenntnisbringend für den Anwender zu lösen? Je stärker selbstlernende Algorithmen in industrielle, wissenschaftliche und die Öffentlichkeit betreffende Prozesse und Systeme integriert werden, desto zentraler ist es, die trainierten Modelle nicht als bloße „Black-Box“-Lösungen zu begreifen. Besonders beliebt im Bereich KI sind künstliche neuronale Netze (KNNs): selbst-lernende Systeme, die an den Aufbau natürlicher Gehirne angelehnt sind. Die Komplexität dieser Netze erschwert es auch, ihre inneren Prozesse und Entscheidungen nachzuvollziehen und vor allem ihre Dynamik zu verstehen. Im Vorhaben DADLN werden etablierte Verfahren und Methoden aus der Theorie komplexer, dynamischer Systeme auf KNNs übertragen. In dynamischen Systemen sind insbesondere das Wachstum von Störungen sowie die Richtungen, entlang denen sich diese Störungen ausbreiten, oder schrumpfen interessant. Dadurch werden auch die Lernprozesse des KNNs besser nachvollziehbar.
Ansprechpartner:
Hochschule für Angewandte Wissenschaften Hamburg
Projektblatt
DAIKIRI: Erklärbare Diagnostische KI für industrielle Daten
Im Projekt soll eine Lösung entwickelt werden, die das Verständnis der Funktion von konkreten ML-Modellen für die Endanwender verbessert. Dazu soll auf Verfahren aufgesetzt werden, die unter dem Begriff „symbolisches ML“ diskutiert werden und auf einer bestimmten Form der Darstellung bzw. Repräsentation von Wissen, den Wissensgraphen, basieren. Da diese Wissensgraphen mit einer formalen Sprache (sogenannte Ontologien) beschrieben werden, können hieraus natürlichsprachliche Beschreibungen der Wissensgebiete erzeugt und damit eine für Menschen verständliche Rückmeldung zu den Inhalten der Wissensgraphen gegeben werden. Dies soll für die Erklärbarkeit von ML-Modellen im Bereich des Maschinen- und Anlagenbaus genutzt werden.
Projektpartner:
USU Software AG, Universität Paderborn, AI4BD Deutschland GmbH, PMOne Analytics GmbH
Ansprechpartner:
USU Software AG
Projektblatt
DeepDoubt: Weiterentwicklung von Unsicherheitsmaßen zur Erhöhung der Transparenz und Nachvollziehbarkeit im Deep Learning und deren Anwendung auf optische Systeme
Im Rahmen des Vorhabens werden Methoden für Transparenz, Nachvollziehbarkeit und Erklärbarkeit entwickelt. Das Hauptziel ist, die Modellgenauigkeit oder -unsicherheit im Rahmen von neuronalen Netzen zu quantifizieren und dem Nutzer über ein Werkzeug zur Verfügung zu stellen. Dem Nutzer wird nicht nur das Ergebnis sondern auch die Wahrscheinlichkeit dieses Ergebnisses mitgeteilt. Er erhält dann beispielsweise als Ergebnis einer Bilderkennung: dies ist zu 87% eine Katze. Diese zusätzliche Information über die Modellunsicherheit hilft dem Benutzer, das Ergebnis einzuordnen. Darüber hinaus soll am Beispiel optischer Systeme erforscht werden, wie eine transparente Entscheidungsfindung auch bei großen Datenmengen effizient zu modellieren ist. Die Nutzung von Unsicherheitsmaßen kann auch für andere Maschinelle Lernverfahren wie beispielsweis im Active-Learning angewendet werden, bei dem ein Lernalgorithmus mit dem Benutzer interagieren kann. Dafür ist über die reine Methodenentwicklung hinaus eine grafische Schnittstelle erforderlich, um diese Methoden für Anwender verfügbar zu machen. Dies ist insbesondere im Bereich der Qualitätssicherung, Produkthaftung sowie Nutzung von KI im medizinischen Umfeld wichtig, um Fehlentscheidungen effektiv zu verhindern.
Projektpartner:
Hochschule Konstanz Technik, Wirtschaft und Gestaltung, KNIME GmbH
Ansprechpartner:
Hochschule Konstanz Technik, Wirtschaft und Gestaltung
Projektblatt
EML4U: Erklärbares Maschinelles Lernen für interaktive episodische Updates von Modellen
Mit Maschinellem Lernen (ML) lassen sich anhand von Daten komplexe Zusammenhänge modellieren. Somit können aufwändige und oft grob vereinfachte mathematische Modellierungen bestimmter Gegebenheiten umgangen werden. Außerdem eröffnet sich zudem eine neuartige Funktionalität: ML-Modelle können datengetrieben an geänderte Anforderungen und Bedingungen angepasst werden. Um eine regelmäßige Anpassung zu erreichen, werden Daten während des Gebrauchs eines Modells gesammelt und das Modell unter Berücksichtigung dieser Information neu trainiert, es findet also ein episodisches Update des ML-Modells statt.
Projektpartner:
Universität Bielefeld, Universität Paderborn, Semalytix GmbH
Ansprechpartner:
Universität Bielefeld
Projektblatt
KOSMOX: Entwicklung einer neuartigen lokalen kontrafaktischen Erklärungsmethode und -Schnittstelle unter Berücksichtigung kognitiver Modellierungsansätze
Ziel des Projektvorhabens KOSMOX ist die Entwicklung eines ganzheitlichen Erklärungssys-tems, das Entscheidungen von KI-Systemen im Nachhinein verständlich darstellt. Es soll ein System geschaffen werden, das Ansätze regel- und simulationsbasierter Erklärungen vereint. Zusätzlich werden relevante Techniken aus dem Bereich der Komplexen Systeme eingesetzt. Außerdem soll eine Erklärungsschnittstelle konzipiert und realisiert werden, die auf Erkenntnissen aus den Kognitionswissenschaften basiert und eine interaktive Kommunikation zwischen den Anwendern und den eingesetzten KI-Techniken ermöglicht. In einem inter-disziplinären Team aus Forschern und Industrieexperten werden zu diesem Zweck auch Herangehensweisen aus den Organisationswissenschaften, der Mensch-Computer-Interaktion sowie der Verhaltensökonomie herangezogen. Indem der Mehrwert der Zusammenarbeit von Mensch und Künstlicher Intelligenz herausgestellt wird, soll Vertrauen in KI-basierte Anwendungen aufgebaut werden. Im Fokus steht dabei, den Anwendern die Ergebnisse Maschineller Lernverfahren und anderer KI-Techniken für den Entscheidungsfindungs-prozess transparent darzustellen und zu erklären.
Projektpartner:
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, Fraunhofer-Anwendungszentrum Industrial Automation des IOSB (INA), ContiTech AG
Ansprechpartner:
DFKI GmbH
Projektblatt
NEUPA: Neue Erklärbarkeit unterstützt durch Weltmodelle zur Prädiktion beim Autonomen Fahren
Beim Autonomen Fahren kommen Künstliche Neuronale Netze (KNN) zum Einsatz, z. B. um Fußgänger oder Radfahrer zu erkennen, deren Verhalten zu antizipieren und entsprechend zu reagieren. Insbesondere bei diesen sicherheitskritischen Systemen ist es notwendig, dass die Funktionsweise nachvollziehbar ist und sie damit zertifizierbar sind. Im Vorhaben NEUPA soll die Erklärbarkeit der KNN erhöht werden, um so mittelfristig Zertifizierungen prinzipiell zu ermöglichen. Zu diesem Zweck werden im Rahmen des Projekts zwei Ansätze verfolgt: Zum einen werden Prädiktionsmodelle, die für gegebene sensorische Eingaben das zu erwartende Systemverhalten vorhersagen, gemeinsam mit lernenden KNN für das jeweilige Verhalten trainiert. Diese werden dann genutzt, um das Verhalten der KNN selbst zu erklären und besser zu verstehen. Beim zweiten Ansatz werden mit Methoden der statistischen Physik und des kollektiven Entscheidens das vielfältige Zusammenspiel der vernetzten künstlichen Neuronen und deren Entscheidungsfindung analysiert. Dabei werden in mehreren Iterationen Gruppen von künstlichen Neuronen ihrer Funktionalität folgend zu größeren Modulen zusammengefasst, um das KNN dann Modul für Modul in seiner Wirkweise verstehen zu können.
Projektpartner:
Universität zu Lübeck, IAV GmbH Ingenieurgesellschaft Auto und Verkehr
Ansprechpartner:
Universität zu Lübeck
Projektblatt
PlexPlain: Erklärende KI für Komplexe Lineare Programme am Beispiel intelligenter Energiesysteme
In „PlexPlain“ wird zum einen grundlagenorientiert in Verhaltensstudien untersucht, wie Menschen lineare Programme verstehen. Zum anderen werden neue Methoden entwickelt, die lineare Programme (semi-)automatisch vereinfachen, in graphische Modelle übersetzen und Erklärungen erzeugen. In den Verhaltensstudien werden Versuchspersonen mit Planungsproblemen konfrontiert, die durch lineare Programme optimal gelöst werden können. Die beobachteten Lösungsstrategien und begleitende Erklärungen fließen in die Entwicklung der neuen Methoden ein, die ihrerseits zu überprüfende Hypothesen für verständlichere Erklärungen liefern. Insbesondere werden graphische Modelle aus komplexen Systemen extrahiert und zur Darstellung von verständlichen, qualitativen Wirkzusammenhängen genutzt.
Ansprechpartner:
Centre for Cognitive Science - Technische Universität Darmstadt
Projektblatt
RenormalizedFlows: Transparentes Tiefes Lernen mit Renormalisierten Flows
Das interdisziplinäre Vorhaben RenormalizedFlow vereint Neurowissenschaften, Informatik, statistische Physik und Medizin, um grundlegende Fortschritte für die Transparenz und Inter-pretierbarkeit tiefer neuronaler Netzwerke zu liefern. Diese Netzwerke bestehen aus einer Hintereinanderschaltung vieler Schichten von Neuronen, die eingehende Daten, Schritt für Schritt, in Ihre zugrundeliegenden Ursachen zerlegen. Diese Zerlegung ist jedoch so komplex, dass sie für einen Menschen nicht direkt nachvollziehbar ist.
Projektpartner:
Forschungszentrum Jülich GmbH, Institut für Neurowissenschaften und Medizin, Rheinisch-Westfälische Technische Hochschule Aachen, Institut für Theoretische Festkörperphysik, Universität Freiburg, Institut für Informatik und Universitätsklinikum, eemagine Medical Imaging Solutions GmbH
Ansprechpartner:
Forschungszentrum Jülich GmbH
Projektblatt
XAPS: Erklärbare KI für automatisierte Produktionssysteme
Ziel des Projektes ist es, mit Methoden des maschinellen Lernens komplexe Abhängigkeiten zwischen Fehlern und Bearbeitung frühzeitig zu entdecken und sie wiederum mit KI-Methoden so zu erklären, dass der Betreiber sein automatisiertes Produktionssystem (aPS) effizient und effektiv optimieren kann. Dazu verknüpft XAPS digitale Beschreibungen der Fabrik und des Produkts (digitaler Zwilling) aus dem Manufacturing Execution System (MES) mit maschinellem Lernen (ML) und innovativen Methoden der formalen Argumentation. Die Modelle der formalen Argumentation verwenden insbesondere Ansätze, die sich mit der Repräsentation und Interaktion von Argumenten und Gegenargumenten befassen. So liefert die Methode ein Argument, welches ein Fehlverhalten erklärt und durch den menschlichen Bearbeiter interpretiert und, wenn es nicht zutrifft, wiederlegt werden kann, wodurch die XAPS-Plattform nach einer neuen Begründung für den Fehler sucht. Dies ergibt die Grundlage für ein ganzheitliches Lösungsportfolio zur Steuerung und Überwachung von aPS.
Projektpartner:
Old World Computing GmbH, iTAC Software AG, HELLA GmbH & Co. KGaA, Universität Koblenz-Landau, Fraunhofer ISST
Ansprechpartner:
Old World Computing GmbH
Projektblatt