Der Blätterkatalog benötigt Javascript.
            Bitte aktivieren Sie Javascript in Ihren Browser-Einstellungen.
        The Blätterkatalog requires Javascript.
            Please activate Javascript in your browser settings.
     
    
        
                0 9 -2 5 · w w w c o m p u t e r - a u t o m a t i o n d e | 2 7 K I Sa f e t y Dr Patrik Feth ist Senior AI Safety Consultant bei NewTec KI-Sicherheitsbewertung bei industriellen Anwendungen Ein strukturierter KI-Sicherheitscheck wie der ‚KI-Safety-Check‘ von NewTec kann Herstellern helfen zu beurteilen ob ihre KI-Technologie funktionale Sicherheitsanforderungen und regulatorische Vorgaben erfüllt Der vom TÜV Rheinland unterstützte Service ist ein zentraler Bestandteil der KI-Services von NewTec Diese umfassen • Identifikation spezifischer Fehlermodi der verwendeten KI-Technologie • Analyse der möglichen Fehlerfortpflanzung entlang des Informationsflusses im Systemkontext • Analyse der durch mögliche KI-Ausfälle verursachten Risiken • Ableitung von Zielwerten für die funktionale Eignung der KI-Technologie z Bnotwendige Genauigkeit • Validierung der Zielwerte in Hinblick auf Erreichbarkeit mit der notwendigen Konfidenz • Hardwareanalyse zur Ermittlung der Wahrscheinlichkeit zufälliger Fehler • Analyse der spezifischen Entwicklungsprozesse der verwendeten KI-Technologie • Aufbereitung der erarbeiteten Inhalte und Vorbereitung einer Vorstellung vor Prüfstellen Aus der Grafik lässt sich ablesen dass die geforderte Genauigkeit von 95 % oder besser mit einer Wahrscheinlichkeit von höchstens 95 % erreicht wird für den Mittelwert von 97 5 % gilt nur ein Konfidenzniveau von 50 % Gemäß der Tabelle würde dies nur für Anwendungen mit mittlerem Risiko ausreichen Funktionale Sicherheit als Blaupause Methoden der funktionalen Sicherheit helfen bei der Festlegung und Prüfung eines „angemessenen Maßes an Genauigkeit“ für KI-Systeme in drei Schritten 1 Im Rahmen einer Systemanalyse wird ermittelt welche Genauigkeit für die Erfüllung der jeweiligen Aufgabe des Systems erforderlich ist 2 Die Risikobewertung liefert die Basis für das notwendige Maximum an akzeptabler Unsicherheit bzw das Mindestmaß an Vertrauen Konfidenz in die Funktion der KI 3 Die zur Verifizierung durchgeführten Tests müssen statistisch analysiert werden um zu prüfen dass das für einen bestimmten Gefährdungsgrad geforderte Konfidenzniveau erreicht wird Dieses Vorgehen hilft die Vorgaben des EU AI Act für ‚Hochrisiko-Systeme‘ umzusetzen der dafür nicht nur ‚Genauigkeit‘ sondern auch Risikomanagement fordert Art 9 KI-VO Es unterstützt zudem eine realistische Einschätzung der Einsatzmöglichkeiten von KI-Technologie auch im sicherheitsrelevanten Kontext ag