3 Gründe, warum Ihr Unternehmen externe Algorithmus-Assessoren benötigt

Von Satta Sarmah-Hightower

Führungskräfte aus der Wirtschaft schöpfen aus künstlicher Intelligenz (KI) den größtmöglichen Nutzen. Eine KPMG-Studie aus dem Jahr 2021 findet Eine Mehrheit der Führungskräfte aus Regierung, Industrie, Fertigung, Finanzdienstleistungen, Einzelhandel, Biowissenschaften und Gesundheitswesen gibt an, dass KI in ihren Organisationen zumindest mäßig funktioniert. Die Studie stellt auch fest, dass die Hälfte der Befragten angibt, dass ihre Organisation die Einführung von KI als Reaktion auf die Covid-19-Pandemie beschleunigt hat. In Organisationen, in denen KI eingeführt wurde, gibt mindestens die Hälfte an, dass die Technologie die Erwartungen übertroffen hat.

KI-Algorithmen sind zunehmend für eine Vielzahl heutiger Interaktionen und Innovationen verantwortlich – von personalisierten bis hin zu personalisierten Produktempfehlungen und KUNDENDIENST Erfahrungen zu Banken Kreditentscheidungen und sogar Reaktion der Polizei.

Aber trotz all der Vorteile, die sie bieten, bergen KI-Algorithmen große Risiken, wenn sie nicht effektiv überwacht und auf Belastbarkeit, Fairness, Erklärbarkeit und Integrität bewertet werden. Um Führungskräfte bei der Überwachung und Bewertung von KI zu unterstützen, zeigt die oben genannte Studie, dass a Eine wachsende Zahl von Wirtschaftsführern möchte, dass die Regierung KI reguliert, damit Unternehmen in die richtigen Technologien und Geschäftsprozesse investieren können. Für die notwendige Unterstützung und Aufsicht ist es ratsam, externe Bewertungen in Betracht zu ziehen, die von einem Dienstleister mit Erfahrung in der Bereitstellung solcher Dienste angeboten werden. Hier sind drei Gründe dafür.

1. Algorithmen sind „Black Boxes“

KI-Algorithmen – die aus Daten lernen, um Probleme zu lösen und Aufgaben zu optimieren – machen Systeme intelligenter und ermöglichen es ihnen, Erkenntnisse viel schneller zu sammeln und zu generieren, als es Menschen jemals könnten.

Einige Interessengruppen betrachten diese Algorithmen jedoch als „Black Boxes“, erklärt Drew Rosen, Audit Managing Director bei KPMG, einem führenden Unternehmen für professionelle Dienstleistungen. Insbesondere können bestimmte Stakeholder nicht verstehen, wie der Algorithmus zu einer bestimmten Entscheidung gekommen ist, und daher möglicherweise kein Vertrauen in die Fairness oder Genauigkeit dieser Entscheidung haben.

„Die aus dem Algorithmus gewonnenen Ergebnisse können anfällig für Verzerrungen und Fehlinterpretationen der Ergebnisse sein“, sagt Rosen. „Das kann auch zu einigen Risiken für das Unternehmen führen, da es diese Ergebnisse nutzt und [sie] mit der Öffentlichkeit und ihren Interessengruppen teilt.“

Ein Algorithmus, der beispielsweise fehlerhafte Daten verwendet, ist bestenfalls wirkungslos – und schlimmstenfalls schädlich. Wie könnte das in der Praxis aussehen? Stellen Sie sich einen KI-basierten Chatbot vor, der Benutzern die falschen Kontoinformationen bereitstellt, oder ein automatisiertes Sprachübersetzungstool, das Text ungenau übersetzt. Beide Fälle könnten zu schwerwiegenden Fehlern oder Fehlinterpretationen für staatliche Stellen oder Unternehmen sowie für die Bürger und Kunden führen, die sich auf die von diesen Algorithmen getroffenen Entscheidungen verlassen.

Ein weiterer Beitrag zum Black-Box-Problem ist, wenn inhärente Vorurteile in die Entwicklung von KI-Modellen eindringen und möglicherweise zu voreingenommenen Entscheidungen führen. Kreditgeber nutzen beispielsweise zunehmend KI, um die Kreditwürdigkeit potenzieller Kreditnehmer vorherzusagen, um Kreditentscheidungen zu treffen. Es kann jedoch ein Risiko entstehen, wenn wichtige Eingaben in die KI, wie z. B. die Kreditwürdigkeit eines potenziellen Kreditnehmers, einen Materialfehler hat, was dazu führt, dass diesen Personen Kredite verweigert werden.

Dies unterstreicht die Notwendigkeit eines externen Gutachters, der als unparteiischer Gutachter fungieren und auf der Grundlage akzeptierter Kriterien eine gezielte Bewertung der Relevanz und Zuverlässigkeit der historischen Daten und Annahmen, die einen Algorithmus antreiben, liefern kann.

2. Stakeholder und Regulatoren fordern Transparenz

Im Jahr 2022 gab es keine aktuellen Berichtspflichten für verantwortliche KI. Rosen sagt jedoch: „Genauso wie die Leitungsgremien die ESG-Vorschriften (Umwelt, Soziales und Unternehmensführung) eingeführt haben Bericht über bestimmte ESG-Metriken, ist es nur eine Frage der Zeit, bis wir zusätzliche regulatorische Meldepflichten für verantwortungsvolle KI sehen.“

In der Tat, mit Wirkung zum 1. Januar 2023, New York City Lokales Gesetz 144 erfordert, dass ein Bias-Audit für ein automatisiertes Instrument zur Einstellungsentscheidung durchgeführt wird, bevor es verwendet wird.

Und auf Bundesebene die National Artificial Intelligence Initiative Act von 2020– die auf a aufbaut 2019 Exekutivverordnung– konzentriert sich auf technische KI-Standards und Leitlinien. Zusätzlich die Gesetz zur algorithmischen Rechenschaftspflicht könnten Folgenabschätzungen automatisierter Entscheidungssysteme und erweiterter kritischer Entscheidungsprozesse erfordern. Und in Übersee, die Gesetz über künstliche Intelligenz wurde vorgeschlagen und bietet einen umfassenden Regulierungsrahmen mit spezifischen Zielen in Bezug auf KI-Sicherheit, Compliance, Governance und Vertrauenswürdigkeit.

Mit diesen Veränderungen stehen Organisationen unter einem Governance-Mikroskop. Ein Algorithmus-Assessor kann solche Berichte bereitstellen, die auf regulatorische Anforderungen eingehen und die Transparenz der Stakeholder verbessern, während er das Risiko vermeidet, dass Stakeholder falsch interpretieren oder falsch interpretieren irregeführt durch die Ergebnisse der Bewertung.

3. Unternehmen profitieren von langfristigem Risikomanagement

Steve Camara, Partner in der Technology Assurance Practice von KPMG, prognostiziert, dass die KI-Investitionen weiter zunehmen werden, wenn Unternehmen mit der Automatisierung von Prozessen fortfahren, Innovationen entwickeln, die das Kundenerlebnis verbessern, und die KI-Entwicklung auf Geschäftsfunktionen verteilen. Um wettbewerbsfähig und profitabel zu bleiben, benötigen Unternehmen effektive Kontrollen, die nicht nur die unmittelbaren Mängel der KI beheben, sondern auch alle langfristigen Risiken im Zusammenhang mit KI-gestützten Geschäftsabläufen reduzieren.

Hier kommen externe Gutachter als vertrauenswürdige, versierte Ressource ins Spiel. Da Unternehmen die KI-Integrität zunehmend als Business Enabler betrachten, wird die Partnerschaft möglicherweise weniger zu einem Ad-hoc-Service und eher zu einer konsistenten Zusammenarbeit, erklärt Camara.

„Wir sehen einen Weg in die Zukunft, bei dem eine kontinuierliche Beziehung zwischen Organisationen, die KI kontinuierlich entwickeln und operationalisieren, und einem objektiven externen Gutachter bestehen muss“, sagt er.

Ein Blick auf das, was als nächstes kommt

In Zukunft könnten Unternehmen externe Bewertungen eher zyklisch nutzen, wenn sie beispielsweise neue Modelle entwickeln, neue Datenquellen aufnehmen, Lösungen von Drittanbietern integrieren oder neue Compliance-Anforderungen steuern.

Wenn zusätzliche Vorschriften und Compliance-Anforderungen vorgeschrieben sind, können externe Gutachter möglicherweise Dienstleistungen erbringen, um direkt zu bewerten, wie gut eine Organisation KI in Bezug auf diese Anforderungen eingesetzt oder verwendet hat. Diese Assessoren wären dann am besten in der Lage, die Assessment-Ergebnisse auf klare und konsistente Weise auszutauschen.

Um aus der Technologie Kapital zu schlagen und sich gleichzeitig vor ihren Einschränkungen zu schützen, muss ein Unternehmen externe Gutachter suchen, die Berichte liefern, auf die es sich dann verlassen kann, um eine größere Transparenz beim Einsatz von Algorithmen zu demonstrieren. Von dort aus können sowohl die Organisation als auch die Stakeholder die Leistungsfähigkeit von KI besser verstehen – und ihre Grenzen.

Quelle: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/