Der Blätterkatalog benötigt Javascript.
Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
The Blätterkatalog requires Javascript.
Please activate Javascript in your browser settings.
Explainable AI 10 -2 5 · w w w c o m p u t e r - a u t o m a t i o n d e | 17 • Erhöhtes Vertrauen Wenn Anwender und Entscheider verstehen wie KI-Systeme zu ihren Schlussfolgerungen kommen steigt das Vertrauen in die Technologie • Bessere Fehleranalyse Fehlfunktionen oder Fehlentscheidungen des KI-Systems lassen sich leichter identifizieren und beheben • Compliance Eine explizite Verpflichtung zur Verwendung von erklärbarer KI fehlt im EU AI Act Unternehmen können mit diesen Methoden jedoch gesetzliche Anforderungen effizient und nachvollziehbar erfüllen Das ist gerade für Hochrisiko-Anwendungen relevant sowie für den Nachweis nachvollziehbarer Erklärungen in Streitfällen oder bei Audits • Ethische Verantwortung Transparente KI-Systeme ermöglichen es potenzielle Verzerrungen oder unfaire Entscheidungen zu erkennen und zu korrigieren Erklärbarkeitsmethoden ermöglichen es Schwachstellen im Trainingsdatensatz gezielt zu identifizieren und zu beheben Konkret bedeutet das eine effizientere Weiterentwicklung Da die Entscheidungsprozesse mithilfe von XAI transparent sind ist es bedeutend leichter KI an neue Szenarien und neue aktualisierte Daten anzupassen etwa an veränderte Produktionsprozesse Praxisbeispiel Erklärbare KI in der Predictive Maintenance Ein anschauliches Beispiel ist die vorausschauende Wartung von Industrieanlagen Ein KI-System prognostiziert dass eine kritische Komponente in Kürze ausfallen wird Dann liefert ein erklärbares Modell neben dieser Vorhersage detaillierte Informationen über den Kontext und die Faktoren die zu dieser Prognose geführt haben zum Beispiel ungewöhnliche Vibrationsmuster in Kombination mit erhöhten Temperaturen und spezifischen Lastzyklen Diese Informationen ermöglichen es Wartungstechnikern die Dringlichkeit der Wartung besser einzuschätzen und gezielt nach den identifizierten Problemen zu suchen Zusätzlich hilft diese Art von Nachvollziehbarkeit zukünftig präventive Maßnahmen für ähnliche Komponenten zu ergreifen und das Wartungsprotokoll basierend auf den gewonnenen Erkenntnissen zu optimieren Damit auch Nicht-Experten die Ergebnisse und Erklärungen nachvollziehen können hilft eine grafische Aufbereitung Heatmaps erklären etwa Bildklassifikationen Bildsegmentierungen und Objekterkennung bei einer optischen Qualitätskontrolle Balkendiagramme zeigen die Bedeutung bestimmter Merkmale für den Lernprozess von auf tabellarischen Sensordaten trainierten Modellen auf und interaktive Dashboards ermöglichen nutzerfreundliche Erklärungen des Modellverhaltens Um das Verhalten komplexer KI-Modelle nachvollziehbar zu machen kommen dabei verschiedene XAI-Methoden zum Einsatz • Counterfactual Explanations zeigen welche minimalen Änderungen zu einer anderen Entscheidung geführt hätten • Feature Importance bewertet den Einfluss einzelner Merkmale auf die Modellentscheidung • LIME Local Interpretable Modelagnostic Explanations ersetzt komplexe durch einfache lokal verständliche Modelle • SHAP SHapley Additive exPlanations quantifiziert den relativen Beitrag jedes Merkmals zur Vorhersage • Grad-CAM Gradient Class Activation Mapping nutzt Gradienten im neuronalen Netzwerk um eine Heatmap zu erstellen die die Relevanz der unterschiedlichen Merkmale abbildet • LRP Layer-Wise Relevance Propagation Berechnet die Bedeutung einzelner Merkmale indem das neuronale Netzwerk schichtweise das Vorhersageverhalten rückpropagiert • Intrinsisch erklärbare Modelle Explainable by Design Verwenden klar nachvollziehbare Algorithmen zum Beispiel Entscheidungsbäume oder lineare Modelle In der Praxis können intrinsisch erklärbare Modelle etwa zur Auswertung von Sensordaten zum Einsatz kommen Dafür verwenden sie klare festgelegte Werte als Grundlage Während bei den Blackbox-Modellen schwer nachvollziehbare gewichtete Korrelationen zu den Entscheidungen führen dienen bei den Whitebox-Modellen klare Input-Werte als Leitplanken Dadurch lässt sich direkt nachvollziehen warum ein bestimmtes Ergebnis zustande kam etwa wegen eines überschrittenen Schwellenwerts oder dem Erfüllen bestimmter Bedingungen Die Zukunft gehört erklärbarer KI Erklärbare KI-Lösungen werden in Zukunft zum Standard in der industriellen Automatisierung werden Sie ermöglichen eine bessere Kontrolle einfachere Optimierung und höhere Akzeptanz von KI-Systemen Zudem positionieren sich Unternehmen die jetzt auf erklärbare Modelle setzen als Vorreiter und können das volle Potenzial von KI in der Automatisierung ausschöpfen Um das zu ermöglichen stehen diverse Schritte an - wie auf der folgenden Seite beschrieben FÜHRT IHR ZUM ZIEL AUF DER PLATTFORM IHRER WAHL CROSS-PLATFORM WAS FÜR MOBILE CONSUMER-ENDGERÄTE FUNKTIO-NIERT IST AUCH EIN MODELL FÜR DEN INDUSTRIELLEN MARKT APPS LAUFEN IM CONTAINER DIREKT AUF DER PLC ODER DEM EDGE-DEVICE WAHLWEISE UNTER WIN-DOWS ODER LINUX DIE INSTALLATION ERFOLGT GANZ EINFACH ÜBER EINEN APP STORE VISIWIN IST SOMIT HARDWAREUNABHÄNGIG EINSETZ-BAR UND VERSETZT DEN MASCHINENBAUER IN DIE LAGE SEINE PLATTFORM FREI ZU WÄHLEN ODER AUCH ETWAI-GE ENGPÄSSE KURZFRISTIG MIT LIEFERBAREN PRODUK-TEN ZU ÜBERBRÜCKEN WWW INOSOFT COM CROSS HM BESUCHEN SIE UNS AUF DER SPS IN NÜRNBERG HALLE 7 STAND 481