Von Erika Fille T. Legara IN EINEM FRÜHEREN BusinessWorld-Artikel argumentierte ich, dass AI-Governance über die Überwachung einiger weniger Technologieprojekte hinausgeht und nun umfasstVon Erika Fille T. Legara IN EINEM FRÜHEREN BusinessWorld-Artikel argumentierte ich, dass AI-Governance über die Überwachung einiger weniger Technologieprojekte hinausgeht und nun umfasst

Was Vorstände von KI verlangen sollten: Bewertung, Audit und Sicherheit

2026/03/24 00:03
7 Min. Lesezeit
Bei Feedback oder Anliegen zu diesem Inhalt kontaktieren Sie uns bitte unter crypto.news@mexc.com

Von Erika Fille T. Legara

IN EINEM FRÜHEREN BusinessWorld-Artikel argumentierte ich, dass AI Governance über die Überwachung einiger weniger Technologieprojekte hinausgeht und nun die Sicherstellung umfasst, dass KI-gesteuerte Entscheidungen in der gesamten Organisation mit Strategie, Risikobereitschaft und ethischen Standards übereinstimmen. Eine natürliche Anschlussfrage für Vorstände lautet: Wie kann eine Organisation über das Festlegen von Erwartungen hinaus überprüfen, ob ihre KI-Systeme tatsächlich wie beabsichtigt, verantwortungsvoll und innerhalb definierter Grenzen funktionieren?

Die Antwort liegt in drei verwandten, aber unterschiedlichen Disziplinen: Risikobewertung von KI, KI-Audit und KI-Zusicherung. Vorstände, die mit Finanzaufsicht vertraut sind, werden die Logik intuitiv finden. Die Herausforderung und die Chance besteht darin, dieselbe Disziplin auf KI anzuwenden.

3 UNTERSCHIEDLICHE, ABER VERWANDTE KONZEPTE
Es hilft, präzise zu sein, was jeder Begriff bedeutet, da sie oft austauschbar verwendet werden, obwohl sie es nicht sein sollten.

Risikobewertung von KI ist der interne Prozess, durch den eine Organisation die mit ihren KI-Systemen verbundenen Risiken identifiziert, bewertet und priorisiert. Sie fragt, was schief gehen könnte, wie wahrscheinlich es ist und welche Auswirkungen es hätte. Dies ist die Grundlage, auf der alles andere ruht. Ohne glaubwürdige Risikobewertung haben weder Audit noch Zusicherung eine aussagekräftige Grundlage, von der aus sie arbeiten können. Wesentliche KI-Systeme existieren in jedem Sektor: ein Kreditbewertungsmodell in einer Bank, ein Patiententriage-Tool in einem Krankenhaus, ein Schülerleistungsprädiktor an einer Universität, ein Fallpriorisierungssystem in einer Regierungsbehörde. Was sie teilen, ist die Konsequenz, die Ergebnisse umfasst, die echte Menschen auf bedeutsame Weise beeinflussen.

Für jedes solche System sollte die Risikobewertung systematisch und dokumentiert sein und regelmäßig überarbeitet werden, wenn sich das Modell weiterentwickelt und sich das Betriebsumfeld ändert.

KI-Audit ist die unabhängige Prüfung, ob ein KI-System oder der es umgebende Governance-Rahmen definierten Standards, Richtlinien oder Anforderungen entspricht. Es ist ein evidenzbasierter Prozess, der von einer Partei durchgeführt wird, die ausreichend unabhängig von den für das zu prüfende System Verantwortlichen ist. Ein KI-Audit könnte bewerten, ob die KI-Managementpraktiken einer Organisation einem international anerkannten Standard entsprechen, wie ISO/IEC 42001, dem weltweit ersten KI-Managementsystemstandard, der 2023 veröffentlicht wurde, oder ob ein spezifisches Modell innerhalb genehmigter Parameter und ohne unbeabsichtigte Verzerrung funktioniert. Wichtig ist, dass der Standard, der die Prüfer selbst regelt, ISO/IEC 42006, veröffentlicht im Juli 2025, nun die Kompetenz und Sorgfalt festlegt, die von Stellen erforderlich ist, die KI-Managementsysteme prüfen und zertifizieren. Der Prüfungsberuf beginnt mit anderen Worten, seine eigene Verantwortlichkeit für KI-Engagements zu formalisieren.

KI-Zusicherung ist die formale, stakeholderorientierte Schlussfolgerung, die aus diesem Auditprozess hervorgeht. Es ist die professionelle Meinung, die von einer qualifizierten und unabhängigen Partei abgegeben wird und Vorständen, Regulierungsbehörden, Investoren und der Öffentlichkeit Vertrauen gibt, dass ein KI-System oder KI-Management-Framework einem definierten Standard entspricht. Zusicherung verwandelt eine interne Prüfung in ein glaubwürdiges externes Signal.

GRUNDLAGEN DER KI-ZUSICHERUNG
Das Konzept der unabhängigen Zusicherung ist für Vorstände nicht neu. Jedes Jahr prüfen externe Prüfer die finanziellen Abschlüsse einer Organisation und geben eine Meinung ab; eine Schlussfolgerung, die auf Beweisen beruht, nach international anerkannten Standards durchgeführt wird und auf der beruflichen Unabhängigkeit des Prüfers basiert. Diese Meinung hat Gewicht, gerade weil der sie regelnde Rahmen streng und gut etabliert ist. Diese Logik gilt unabhängig von der Branche; ob die Organisation eine Bank, ein Krankenhaus, ein Konglomerat oder eine öffentliche Institution ist, die finanzielle Prüfung ist ein vertrauter und bewährter Mechanismus.

Dieselbe Logik gilt nun für KI. Wenn eine Organisation eine öffentliche oder regulatorische Behauptung über ihre KI-Systeme aufstellt – dass sie fair, transparent, mit einem definierten Standard konform oder frei von wesentlicher Verzerrung sind – lautet die Frage: Wer validiert diese Behauptung unabhängig und unter welchem professionellen Rahmen?

Die Antwort für den Buchhaltungs- und Prüfungsberuf ist ISAE 3000, der International Standard on Assurance Engagements, herausgegeben vom International Auditing and Assurance Standards Board (IAASB). ISAE 3000 regelt Zusicherungsengagements zu anderen Angelegenheiten als historischen finanziellen Informationen und ist damit die natürliche Heimat für KI-Zusicherung. Nach diesem Standard kann ein Fachmann entweder ein angemessenes Zusicherungsengagement durchführen, den höheren Standard analog zu einer Finanzprüfung, oder ein begrenztes Zusicherungsengagement, das in der Tiefe eher einer Überprüfung ähnelt. Die Wahl des Niveaus ist wichtig und sollte bewusst erfolgen, kalibriert auf die Wesentlichkeit und das Risiko des fraglichen KI-Systems.

Ein naheliegendes zeitgenössisches Beispiel ist die Nachhaltigkeits- oder ESG-Zusicherung. Viele an philippinischen Börsen gelistete Unternehmen beauftragen bereits unabhängige Zusicherung für ihre Nachhaltigkeitsoffenlegungen, oft unter ISAE 3000. Die Mechanik ist genau dieselbe: ein unabhängiger Praktiker prüft eine Reihe von Behauptungen gegen definierte Kriterien und gibt eine formale Schlussfolgerung ab. Der Gegenstand unterscheidet sich; die professionelle Disziplin nicht.

WAS DIES FÜR VORSTÄNDE BEDEUTET
Drei praktische Implikationen ergeben sich aus diesem Rahmen.

Erstens sollten Vorstände fragen, ob ihre Organisationen strenge Risikobewertungen von KI für wesentliche Systeme durchgeführt haben. Nicht als einmalige Übung, sondern als lebendiger Prozess, der aktualisiert wird, wenn Modelle neu trainiert werden, Anwendungsfälle sich erweitern und sich das regulatorische Umfeld entwickelt. Die Qualität der nachgelagerten Audit- und Zusicherungsarbeit ist nur so gut wie die Risikobewertung, die ihr vorausgeht.

Zweitens sollten Vorstände zwischen internem und externem KI-Audit unterscheiden. Interne Auditfunktionen spielen eine entscheidende Rolle bei der Bereitstellung von Zusicherung, dass KI-Kontrollen wie vorgesehen funktionieren. Vorstände sollten jedoch auch erwägen, ob ein unabhängiges Drittanbieter-Audit wesentlicher KI-Systeme gerechtfertigt ist, insbesondere für Systeme, die Kunden, Mitarbeiter oder die Öffentlichkeit auf folgenreiche Weise betreffen. Wie bei der finanziellen Prüfung stärkt Unabhängigkeit die Glaubwürdigkeit.

Drittens, da Organisationen zunehmend öffentliche Verpflichtungen über ihre KI-Praktiken gegenüber Regulierungsbehörden, Investoren und den von ihnen bedienten Gemeinschaften eingehen, sollten Vorstände fragen, ob diese Verpflichtungen durch glaubwürdige Zusicherung unterstützt werden. Behauptungen ohne unabhängige Validierung sind bestenfalls ein Reputationsrisiko, das darauf wartet, sich zu materialisieren.

EIN BERUF, DER NOCH SEINE FÄHIGKEITEN AUFBAUT
Es wäre unvollständig, diese Landschaft darzustellen, ohne ihre aktuellen Einschränkungen anzuerkennen. Die Infrastruktur für KI-Zusicherung wird noch aufgebaut. Professionelle Standards entwickeln sich. Prüferkompetenzen in KI, die maschinelles Lernen, algorithmische Verzerrung, Daten-Governance und Modelltransparenz umfassen, sind noch nicht einheitlich im gesamten Beruf entwickelt. ISAE 3000 bietet den Zusicherungsrahmen, aber die KI-spezifischen Methoden, die darin liegen, reifen noch.

Für Organisationen, die noch nicht bereit sind, formale Zusicherung anzustreben, ist dies kein Grund, stillzustehen. Eine strukturierte, regelmäßige Bewertung wesentlicher KI-Systeme ist ein bedeutsamer und praktischer erster Schritt. Sie baut die interne Disziplin, Dokumentation und Governance-Gewohnheiten auf, die Zusicherungsbereitschaft letztendlich erfordert. Vorstände, die solche Bewertungen heute beauftragen, auch informell, entwickeln institutionelle Stärke, die wichtig sein wird, wenn regulatorische Erwartungen sich verhärten und die Prüfung durch Stakeholder sich intensiviert.

Diese Ansicht ist eine, die ich in Forschungsarbeiten, die ich mit Kollegen entwickle, tiefer untersucht habe, wobei wir generative KI-Governance in Volkswirtschaften untersuchen, in denen die Regulierung noch nicht mit der Technologie Schritt gehalten hat. Das zentrale Argument ist, dass Unternehmen bereits moralische Akteure mit bestehenden ethischen Verpflichtungen gegenüber ihren Stakeholdern sind; auf maßgeschneiderte KI-Gesetzgebung zu warten ist weder notwendig noch ausreichend für verantwortungsvolle Governance. Die Verpflichtung zum Handeln ist bereits da. Was benötigt wird, ist der organisatorische Wille, sie zu operationalisieren.

Dies ist kein Grund für Vorstände, auf die breitere Agenda zu warten. Es ist ein Grund, jetzt informierte Fragen zu stellen – an ihre externen Prüfer, ihre internen Auditfunktionen und ihre Managementteams – damit ihre Organisationen bereit sind, sich sinnvoll zu engagieren, wenn die Fähigkeiten des Berufs mit der Nachfrage Schritt halten.

Die Finanzprüfung entstand nicht vollständig ausgereift. Es dauerte Jahrzehnte der Standardsetzung, beruflichen Entwicklung und harten Lektionen aus Unternehmensinsolvenzen, bis die unabhängige Prüfung zu der glaubwürdigen Institution wurde, die sie heute ist. KI-Zusicherung befindet sich an einem vergleichbar frühen Wendepunkt. Vorstände, die sich jetzt damit befassen, schärfere Fragen an ihre Prüfer stellen, mehr als Managementbehauptungen verlangen und interne Fähigkeiten aufbauen, bevor Regulierungsbehörden sie dazu verpflichten, werden nicht nur ihr eigenes Risiko reduzieren. Sie werden helfen zu gestalten, wie verantwortungsvolle KI-Rechenschaftspflicht für philippinische Organisationen und die breitere Region aussieht.

Erika Fille T. Legara ist Physikerin, Pädagogin und Praktikerin im Bereich Data Science und KI, die in Regierung, Wissenschaft und Industrie arbeitet. Sie ist die erste Geschäftsführerin und Chief AI and Data Officer des Education Center for AI Research und außerordentliche Professorin und Aboitiz Chair in Data Science am Asian Institute of Management, wo sie von 2017 bis 2024 das erste MSc in Data Science-Programm des Landes gründete und leitete. Sie ist Mitglied in Unternehmensvorständen, Fellow des Institute of Corporate Directors, IAPP Certified AI Governance Professional und Mitgründerin von CorteX Innovations.

Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an crypto.news@mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.