Was ist die erklärbare KI (XAI)?

Was ist die erklärbare KI (XAI)?

Was ist die erklärbare KI (XAI)?

Mit jedem neuen Fortschritt in der künstlichen Intelligenz und der damit verbundenen zunehmenden Komplexität wird dieses Gebiet immer komplizierter und weniger zugänglich. Dank der erfolgreichen Innovationen auf diesem Gebiet, insbesondere beim maschinellen Lernen, stößt die Forschung im Bereich der künstlichen Intelligenz auf großes Interesse. Die Entwicklung bis zu dem Punkt, dass Programme in der Lage sind, autonom zu lernen und Lösungen für schwierige Probleme zu finden, ist trotz ihrer zunehmenden Komplexität weiterhin einer der wichtigsten Forschungsbereiche. Noch wichtiger ist jedoch, dass die Entscheidungen und Ergebnisse der künstlichen Intelligenz so verständlich wie möglich sind.

Genau aus diesem Grund setzt es auf die erklärbare künstliche Intelligenz (XAI), da Benutzer verstehen wollen und müssen, wie künstliche Intelligenz in einem Programm funktioniert, und wissen, wie die erzielten Ergebnisse zu bewerten sind. Andernfalls wird keine Grundlage angegeben, die ein echtes Vertrauen in die Arbeit der Maschine ermöglicht. Die Transparenz, die die erklärbare KI bietet, ist daher für die Akzeptanz künstlicher Intelligenz unerlässlich. Was steckt hinter diesem Ansatz?

Index
  1. Was ist erklärbare künstliche Intelligenz (XAI)?
  2. Was ist der Zweck des XAI?
  3. Welche Methoden umfasst die erklärbare KI?
  4. Wo und wann wird künstliche Intelligenz erklärbar eingesetzt?
  5. Googles erklärbare KI

Was ist erklärbare künstliche Intelligenz (XAI)?

Erklärbare künstliche Intelligenz bedeutet auf Spanisch ” Erklärbare künstliche Intelligenz “. Es ist ein Neologismus, der seit 2004 in Forschungen und Debatten über maschinelles Lernen (auf Englisch maschinelles Lernen ) verwendet wird. Bis heute gibt es jedoch keine gültige allgemeine Definition dessen, was genau erklärbare KI ist . Das XAI-Programm der DARPA (US Defense Advanced Research Projects Agency) definiert die Ziele erklärbarer künstlicher Intelligenz mit den folgenden Anforderungen:

Erklärbare Modelle müssen angegeben werden, ohne auf eine hohe Lerneffizienz verzichten zu müssen . Ebenso muss es nachgeschalteten Anwendern möglich sein, die aufstrebende Generation von KI-Mitarbeitern zu verstehen , die ein gewisses Maß an Vertrauen in sie setzen und effizient damit arbeiten und sie verwalten können .

See also  FIND-Funktion in Excel

Definition: Erklärbare KI (XAI)

Unter erklärbarer KI (XAI) werden sowohl das Prinzip als auch die Funktionsweise und Arbeitsweise der künstlichen Intelligenz sowie die Darstellung der für den Benutzer möglichst verständlichen Ergebnisse verstanden.

Was ist der Zweck des XAI?

Künstliche Intelligenz ist nicht mehr nur eine Frage von Forschern und Wissenschaftlern, sondern Teil unseres täglichen Lebens. Deshalb ist es besonders wichtig, die Modularität der künstlichen Intelligenz nicht nur Trainern oder direkten Benutzern näher zu bringen . Der Betrieb künstlicher Intelligenz sollte für Entscheidungsträger so verständlich wie möglich gemacht werden, damit die Grundlage für das Vertrauen in diese Technologie geschaffen werden kann .

Es gibt gute Beispiele für einige bekannte Unternehmen: 2017 veröffentlichte die Nvidia- Gruppe einen Artikel in ihrem Unternehmensblog auf ihrer Website mit dem Titel Erklären, wie ein tiefes neuronales Netzwerk, das mit durchgängigem Lernen trainiert wird, ein Auto steuert . In diesem Artikel erklären vier Entwickler, wie die künstliche Intelligenz, die sie erstellen, lernt, autonom zu fahren. Das Unternehmen beschreibt seine Forschungsergebnisse transparent und zeigt anhand einiger leicht verständlicher Beispiele, wie künstliche Intelligenz selbstständig lernt.

Im selben Jahr veröffentlichte Accenture den Leitfaden Verantwortungsvolle KI: Warum wir einen erklärbaren KI benötigen , in dem dieser Technologieanbieter Themen wie Ethik und Vertrauen in die Beziehung zu Maschinen, insbesondere im Bereich des autonomen Fahrens, behandelt.

Welche Methoden umfasst die erklärbare KI?

Es gibt verschiedene Methoden und Ansätze, um die Transparenz und das Verständnis der künstlichen Intelligenz zu fördern. In den folgenden Abschnitten haben wir die wichtigsten zusammengefasst:

See also  Inkognito-Modus in Safari: Schritt-für-Schritt-Anleitung

Die schichtweise Relevanzausbreitung (LRP, erfolgreiche Bedeutungsdiffusion Schicht für Schicht) wurde erstmals 2015 beschrieben. Dies ist eine Technik zur Bestimmung der Eigenschaften der Eingangsvektoren, die am meisten zu den Ergebnissen eines neuronalen Netzwerks beitragen.

Die Counterfactual Method (counterfactual Methode) beschreibt , wie die Dateneingabe (Texte, Bilder, Grafiken, etc.) kann für einen bestimmten Zweck geändert werden , sobald ein Ergebnis erhalten wurde, das später zu beobachten , inwieweit die Veränderung des Ergebnisses erreicht.

Das Local Interpretable Model-Agnostic Explanations (LIME) ist ein Erklärungsmodell mit einem ganzheitlichen Zweck, das darauf abzielt, jeden automatischen Klassifikator und die daraus abgeleitete Prognose erklären zu können. Auf diese Weise müssen die Daten und Verfahren für Benutzer verständlich gemacht werden, die sich in dieser Angelegenheit nicht auskennen.

Die Rationalisierung ist eine Methode, die speziell bei Robotern verwendet wird, die auf künstlicher Intelligenz basieren. Somit ist die Maschine so konstruiert, dass sie ihre Handlungen selbst erklären kann.

Wo und wann wird künstliche Intelligenz erklärbar eingesetzt?

Künstliche Intelligenz wird bereits in vielen Sektoren und mit zunehmender Häufigkeit eingesetzt, insbesondere in einigen Industrie- und Dienstleistungsbranchen. Daher ist Transparenz von größter Bedeutung. Auch warum es die Verantwortung anspricht (auf Englisch wird der Begriff Verantwortlichkeit verwendet ).

Der Fokus der Aufmerksamkeit liegt insbesondere auf einigen Bereichen oder Bereichen:

  • Antennendesign
  • Hochfrequenzhandel (algorithmischer Handel)
  • Medizinische Diagnostik
  • Autonomes Fahren (Kraftfahrzeuge)
  • Bild des neuronalen Netzwerks
  • Militärstrategietraining

Jeder, der jemals den Parkassistenten benutzt hat, weiß, wie es von Skepsis und Stress hinter dem Lenkrad bis zum völligen Erstaunen geht, dass so etwas funktionieren kann. Im Allgemeinen möchten wir als Benutzer wissen, wie ein Auto sich selbst parken kann. Es ist daher mehr als verständlich, dass gerade in den oben genannten Bereichen ein besonderes Interesse an Transparenz und der Erklärung der Funktionsweise künstlicher Intelligenz besteht .

See also  Supply Chain Management (SCM): Bedeutung und Funktionen

Googles erklärbare KI

Google hat auch die wachsende Verantwortung in diesem Bereich erkannt. Der Riese verwendet viele seiner Ressourcen für die Erforschung künstlicher Intelligenz und nutzt sie auch für Suchmaschinen und viele andere Bereiche. Darüber hinaus ist das Unternehmen fest entschlossen , transparente Programme zu erstellen . Seit 2019 können mit dem Google Explainable AI-Modul integrative und interpretierbare Modelle für maschinelles Lernen erstellt werden . Das Paket kann bis zu 12 Monate kostenlos verwendet werden.

Dieses Google-Paket bietet unter anderem ein Tool namens Was-wäre-wenn , Dadurch kann das Verhalten eines Modells visualisiert werden. Die Vorhersagen dieses Tools können vollständig an Ihre eigenen Bedürfnisse angepasst werden. Mit den verschiedenen Demos und der grafischen Oberfläche ist es möglich, die verschiedenen Modelle des maschinellen Lernens genauer zu betrachten, ohne viel Code schreiben zu müssen . Zu diesem Zweck bietet Google verschiedene vorgefertigte Tools an: Neben einem Tool zur Schätzung des Alters oder zur Klassifizierung von Blumenarten gibt es auch eine Funktion, mit der verschiedene Porträts analysiert werden können. Zu diesem Zweck werden die Bilder unterteilt, je nachdem, ob die Person auf dem Foto lächelt oder nicht. Das Modul bietet auch verschiedene Parameter für Gesichtsmerkmale: Beispielsweise können Bilder basierend darauf ausgewählt werden, ob die Person einen Bart oder einen Pony hat.

Um Ihre Privatsphäre zu schützen, wird das Video nach dem Klicken hochgeladen.

Es gibt andere Unternehmen, die die Möglichkeiten der erklärbaren KI von Google nutzen. Beispielsweise nutzt das deutsche Fernsehsender Sky das Was-wäre-wenn-Tool für seine eigene Plattform für künstliche Intelligenz, um verständliche Erklärungen zu liefern und die Datenanalyse zu verbessern.

administrator

Leave a Reply

Your email address will not be published. Required fields are marked *