Künstliche Intelligenz

KI und Ethik – Auf dem Papier sind Unternehmen vorbereitet

Humane vs. künstliche Intelligenz
Humane vs. künstliche Intelligenz © CCO

_ Der künftige Einsatz von Künstlicher Intelligenz in Unternehmen jeglicher Branchen gilt als unbestritten. Durch Phänomene wie ChatGPT, das von einer breiten Masse genutzt wird, erhält die Technologie schon heute Einzug in die Wirtschaft. So plant laut dem Bitkom aktuell jede sechste Firma den Einsatz von KI zur Textgenerierung. Doch die Risiken, die mit der Nutzung verbunden sind, und die Notwendigkeit ethischer Leitplanken sollten inmitten des Hypes nicht unterschätzt werden.

Die Deutsche Telekom gründete schon 2018 eine interdisziplinäre Arbeitsgruppe, um Ethik-Richtlinien im Umgang mit KI zu erarbeiten, die im gleichen Jahr veröffentlicht wurden. Im Februar 2023 folgte das jüngste Konzern-Manifest, das auch bitter nötig ist, schließlich setzt die Telekom bereits KI bei der Gestaltung ihrer Prozesse, zur Qualitätssteigerung von internen Dienstleistungsangeboten oder Verbesserung des Kundenservices ein. Der Software-Riese SAP hat indes ein 13-köpfiges „AI Ethics Steering Committee“ etabliert, in dem u. a. Chief Design Officer Benedikt Lehnert und Chief Sustainability Officer Daniel Schmid sitzen.

Wie so oft wird es aber auch auf Aufsichtsbehörden und sonstige Kontrollinstanzen ankommen, um zu überwachen, ob den Lippenbekenntnissen Folge geleistet wird. Die BaFin beschäftigt sich ebenso seit 2018 eingehend mit dem Thema. Die „grundsätzlich offene Haltung“ der Finanzaufsicht und der Bundesbank zu Big Data und KI-Methoden in Risikomodellen, so ein BaFin-Sprecher, wurde 2021 in einem Diskussionspapier dargestellt. In dem Jahr kam auch das aktuelle BaFin-Prinzipienpapier heraus. Weitere aufsichtsrechtliche Punkte in der Zukunft werden von EU-Leitlinien abhängen. ck

DER PLATOW Brief 4 Wochen gratis lesen

{{ name }} Chart
{{ name }} Aktie auf wallstreet:online

ARTIKEL DIESER AUSGABE