Bei der Auswahl von Bewerbern lassen sich Personaler immer häufiger von Künstlicher Intelligenz unterstützen. Diese kann etwa Kandidaten ohne die notwendigen Qualifikationen, mit zu hohen Gehaltsvorstellungen, zu wenig Erfahrung oder schlicht nicht passendem Zeitkontingent von vornherein aussortieren. Selbst bei Bewerbungsgesprächen reden mitunter schon Roboter mit. 

Allerdings können auch diese Fehler machen - etwa dann, wenn Programmierer bei ihrer Arbeit unbewusste oder bewusste Vorurteile einfließen lassen oder die Algorithmen doch nicht so optimal zugeschnitten sind. Das ist aus gleich zweifacher Hinsicht ärgerlich: Zum einen entgehen den Unternehmen dadurch möglicherweise aussichtsreiche Kandidaten, zum anderen haben sie gegebenenfalls Bewerber ungewollt in der Vorauswahl diskriminiert, wodurch Schadensersatzforderungen entstehen könnten. 

Die Betroffenen fehlerhafter Systeme will die EU nun besser schützen und damit zugleich das Vertrauen in die künstliche Intelligenz stärken. Denn wie eine repräsentative Umfrage der EU-Kommission aus dem Jahr 2020 ergeben hat, zählt die Haftung zu den drei größten Hindernissen für den Einsatz von KI durch europäische Unternehmen. Sie wurde mit 43 Prozent als wichtigstes externes Hindernis für Unternehmen genannt, die den Einsatz von KI planen, dies aber bisher nicht getan haben. Eine neue EU-Richtlinie des Europäischen Parlaments und des Rates soll das nun ändern.

Beweiserbringung wird einfacher

Bisher können Opfer von fehlerhaften KI-Systemen nur schwer Schadensersatz einklagen. Zu kompliziert ist es, ein diskriminierendes Verfahren detailliert nachzuweisen und eine Verbindung zu dem erlittenen Schaden herzustellen. Intransparent und kaum verständlich erklärbar sind Technik und Algorithmen. 

Künftig will die Kommission eine "Kausalitätsvermutung" einführen. Das bedeutet, dass "nach vernünftigem Ermessen von einem ursächlichen Zusammenhang mit der KI-Leistung ausgegangen werden kann", so heißt es in dem Entwurf der neuen Richtlinie. Darüber hinaus soll Betroffenen die Möglichkeit gegeben werden, Einblick in Informationen über das System zu erhalten. Es geht dabei etwa um die Herausgabe von Nutzerprotokollen, Angaben zum Qualitätsmanagement oder Daten, mit denen Entwickler Algorithmen trainierten. Dabei sollen Geschäftsgeheimnisse geschützt bleiben.

Die neue Richtlinie soll sowohl für Einzelpersonen wie für Unternehmen gelten, die in ganz unterschiedlichen Segmenten davon profitieren. Neben dem Recruiting ist das etwa die Einstufung einer Kreditwürdigkeit oder auch die Beurteilung von Gesundheitsdaten für Kostenübernahmen. 

So dürfte sich die KI stetig weiterentwickeln, um eines Tages zum vertrauenswürdigen und verlässlichen Partner in vielen Bereichen zu werden.