Zertifizierung von Künstlicher Intelligenz gefordert

„Artificial Intelligence“ ist ein Teilgebiet der Informatik und beschäftigt sich mit der Automatisierung von maschinellem Lernen. Das Ziel: Künstliche Intelligenz soll bestimmte Entscheidungsstrukturen des Menschen nachbilden, dh. Maschinen sollen das menschliche Denken nachahmen. Klingt komplex und ist es auch. Denn selbst die Entwickler von KI wissen nicht wirklich, was das Ergebnis des Maschinenlernens am Ende sein wird.

Detailaufnahme einer modernen Computertastatur und der dazugehörigen Mouse in weiß von Apple.

Deshalb hat der Europäische Wirtschafts- und Sozialausschluss nun vorgeschlagen, eine Zertifizierung für vertrauenswürdige KI-Anwendungen einzuführen. Diese soll von einer unabhängigen Behörde ausgestellt werden, die unter anderem die Belastbarkeit und Sicherheit der Anwendungen testen soll.

Ebenfalls untersucht werden soll, ob die KI Vorurteile hat oder ihre Anwender diskriminiert, das hatte eine Expertengruppe der Europäischen Kommission bereits im Dezember 2018 veranlasst, die damals einen ersten Entwurf für die ethischen Leitlinien zur Entwicklung von KI in Europa vorgelegt hatte.

Die geplante Zertifizierung soll das Vertrauen der Öffentlichkeit gegenüber KI in Europa stärken.