von Lisa Ritter, Ass. jur | 18.09.2025
Vom Bewerber-Scan über Leistungsanalysen bis hin zu Fortbildungsempfehlungen. Künstliche Intelligenz hält Einzug in die Personalabteilungen. Für Arbeitgeber hat dies enormes Potenzial, erfordert aber auch besondere rechtliche Sorgfalt.
Die EU hat mit dem AI Act erstmals ein umfassendes Regelwerk für den Einsatz von Künstlicher Intelligenz geschaffen. Besonders brisant: KI-Systeme im Personalwesen gelten als Hochrisiko-Anwendungen. Schon einfache Tools zur Bewerberauswahl oder Leistungsbewertung unterliegen damit strengen Anforderungen. Transparenz, menschliche Aufsicht und Risikoprüfungen sind mithin Pflicht.
Die größten rechtlichen Baustellen
1. Datenschutz
KI lebt von Daten. Doch im Arbeitsverhältnis ist die Verarbeitung sensibler Personaldaten nur eingeschränkt erlaubt. Einwilligungen sind problematisch, da wegen des Abhängigkeitsverhältnisses Zustimmungen von Arbeitnehmern oft nicht als freiwillig anerkannt werden. Arbeitgeber brauchen daher tragfähige Rechtsgrundlagen und müssen Datenminimierung, Zweckbindung und Transparenz gewährleisten.
2. Mitbestimmung
Nach § 87 BetrVG hat der Betriebsrat bei allen technischen Einrichtungen, die Verhalten oder Leistung überwachen können, ein Mitspracherecht. Viele KI-Systeme fallen direkt darunter. Wer den Betriebsrat übergeht, riskiert Unterlassungsansprüche und langwierige Auseinandersetzungen.
3. Transparenz
Viele KI-Systeme gelten als „Black Box“: Sie liefern Ergebnisse, ohne dass der Entscheidungsweg nachvollziehbar ist. Im Arbeitsrecht ist das nicht zulässig. Beschäftigte haben Anspruch darauf zu erfahren, wie eine Entscheidung zustande kommt, etwa bei einer Bewerbung oder Leistungsbewertung. Arbeitgeber sind daher verpflichtet, nur Systeme einzusetzen, die nachvollziehbare und überprüfbare Prozesse gewährleisten.
4. Diskriminierung
Algorithmen lernen aus Daten und können dabei auch unbewusste Vorurteile übernehmen. Wenn Bewerber oder Mitarbeitende dadurch benachteiligt werden, liegt ein Verstoß gegen das Allgemeine Gleichbehandlungsgesetz (AGG) vor. Die eingesetzte KI muss deshalb regelmäßig auf Bias und faire Ergebnisse geprüft werden. Schadensersatz- und Entschädigungsansprüche können andernfalls die Folge sein.
Praxisbeispiel: Bewerbungs-Algorithmus
Ein Unternehmen setzt eine KI ein, die Bewerbungen vorsortiert. Nach einiger Zeit fällt auf: Frauen werden systematisch seltener eingeladen.
Grund: Das System orientierte sich an historischen Daten, in denen Männer überrepräsentiert waren.
Folge: Die betroffenen Bewerberinnen könnten Entschädigung nach dem AGG verlangen. Der Fehler lag nicht bei der KI, sondern beim Arbeitgeber, der das System ohne ausreichende Prüfung einsetzte.
Was Arbeitgeber jetzt tun sollten
• Betriebsrat einbinden: Frühzeitige Abstimmung schafft Rechtssicherheit und Vertrauen.
• Datenschutz prüfen: Datenschutz-Folgenabschätzungen sind Pflicht, bevor Systeme eingeführt werden.
• Menschliche Kontrolle sicherstellen: KI darf keine endgültigen Entscheidungen über Einstellungen, Beförderungen oder Kündigungen treffen.
• Transparenz schaffen: Beschäftigte müssen wissen, wo KI eingesetzt wird und wie Ergebnisse überprüft werden.
• AGG-Konformität absichern: Externe Tests und Audits helfen, Diskriminierungsrisiken zu minimieren.
• Verträge prüfen: Mit Anbietern klare Haftungsregelungen vereinbaren.
Fazit: Balance zwischen Innovation und Rechtssicherheit
Der Einsatz von KI im Personalwesen bietet enormes Potential, wie schnellere Prozesse, vermeintliche Objektivität und neue Entwicklungswege. Doch Arbeitgeber müssen die rechtlichen Spielregeln genau beachten. Wer Datenschutz, Mitbestimmung und Diskriminierungsverbote ignoriert, riskiert teure Gerichtsverfahren und Imageschäden.
Die Devise lautet: KI nutzen, aber mit Augenmaß. Nur wer Systeme rechtssicher implementiert, profitiert langfristig und gewinnt gleichzeitig das Vertrauen von Mitarbeitenden und Bewerbern.