Bewerbungsverfahren werden zunehmend automatisiert. Arbeitgeber setzen Software ein, um Bewerbungen zu erfassen, Lebensläufe nach Stichworten zu durchsuchen, Kandidatinnen und Kandidaten zu bewerten, Bewerbungsunterlagen zu strukturieren oder Bewerbungen vorzusortieren. Solche Systeme werden häufig unter dem Begriff «KI» vermarktet, auch wenn es sich in der Praxis teilweise lediglich um regelbasierte Filter-, Matching- oder Ranking-Systeme (Abgleichs- oder Rangordnungssysteme) handelt.

Die arbeits- und datenschutzrechtlich relevante Frage lautet: Darf ein Arbeitgeber Bewerbungen mittels KI oder anderer automatisierter Systeme vorsortieren lassen?

Die kurze Antwort lautet: Ja, aber nicht voraussetzungslos. Entscheidend ist nicht, ob ein Tool (Softwarewerkzeug) als «KI» bezeichnet wird, sondern welche Personendaten bearbeitet werden, zu welchem Zweck dies geschieht, ob die Bearbeitung verhältnismässig ist, ob die Kriterien einen Bezug zur konkreten Stelle haben und ob die betroffene Person ausreichend informiert wird.

Im Bewerbungsverfahren sind insbesondere die datenschutzrechtlichen Grundsätze sowie die arbeitsrechtlichen Wertungen von Art. 328b OR zu beachten. Danach dürfen Arbeitgeber Personendaten nur bearbeiten, soweit sie die Eignung für das Arbeitsverhältnis betreffen oder zur Durchführung des Arbeitsvertrags erforderlich sind. Diese Wertung konkretisiert im arbeitsrechtlichen Kontext insbesondere den Grundsatz der Verhältnismässigkeit.

Für Bewerbungen bedeutet dies: Der Arbeitgeber darf automatisierte Hilfsmittel einsetzen, aber nicht beliebige Daten auswerten, beliebige Scores (Punktwerte oder Bewertungen) bilden oder Bewerbungen ohne transparente, sachliche und überprüfbare Kriterien aussortieren (Art. 6 DSG; Art. 328b OR).

 

Bewerbungsunterlagen enthalten Personendaten

Lebensläufe, Motivationsschreiben, Zeugnisse, Diplome, Referenzen, Assessment-Ergebnisse (Ergebnisse strukturierter Beurteilungs- oder Auswahlverfahren) und Interviewnotizen enthalten regelmässig Personendaten im Sinne des Datenschutzgesetzes (Art. 5 lit. a DSG).

Teilweise enthalten Bewerbungsunterlagen auch besonders schützenswerte Personendaten oder lassen Rückschlüsse darauf zu, etwa auf Gesundheit, religiöse oder politische Ansichten, ethnische Herkunft, gewerkschaftliches Engagement oder strafrechtliche Verfahren und Sanktionen (Art. 5 lit. c DSG).

Daneben können auch weitere Angaben wie Alter, Wohnort, Zivilstand, familiäre Situation, Nationalität, Foto, Ausbildungslaufbahn oder Lücken im Lebenslauf persönlichkeits- oder diskriminierungsrechtlich heikel sein, selbst wenn sie nicht in jedem Fall besonders schützenswerte Personendaten im engeren Sinn darstellen.

Auch im Bewerbungsverfahren gilt deshalb Zurückhaltung. Der Arbeitgeber darf nicht alles auswerten, was technisch möglich ist, sondern nur jene Informationen, die für die konkrete Stelle sachlich relevant sind. Dies folgt insbesondere aus dem Zweckbindungs- und Verhältnismässigkeitsprinzip des Datenschutzrechts sowie aus der arbeitsrechtlichen Schranke von Art. 328b OR (Art. 6 DSG; Art. 328b OR).

 

Zulässige automatisierte Vorsortierung

Eine automatisierte Vorsortierung kann zulässig sein, wenn sie sich auf objektiv nachvollziehbare, stellenbezogene und verhältnismässige Kriterien beschränkt.

Zulässig können etwa Filter sein nach:

  • erforderlicher Ausbildung;
  • zwingend verlangter Berufserfahrung;
  • notwendigen Sprachkenntnissen;
  • gesetzlich oder fachlich erforderlichen Bewilligungen;
  • nachweisbaren Spezialkenntnissen, die für die Stelle wesentlich sind;
  • zwingenden Mindestanforderungen, die bereits im Stellenprofil klar definiert wurden.

Beispiel: Wird für eine Stelle als Lastwagenchauffeur zwingend ein bestimmter Führerausweis benötigt, darf ein System Bewerbungen danach sortieren, ob dieser Ausweis vorhanden ist. Ein solches Kriterium steht in direktem Zusammenhang mit der Eignung für die konkrete Stelle (Art. 328b OR).

Ebenfalls denkbar ist ein System, das Bewerbungen nach formalen, sachlich begründeten Mindestanforderungen ordnet, etwa danach, ob ein bestimmtes Diplom, eine Berufszulassung oder eine klar definierte Fachqualifikation vorhanden ist.

Problematisch wird es hingegen, wenn das System Kriterien verwendet, die mit der Eignung für die Stelle nichts oder nur wenig zu tun haben. Dazu gehören etwa pauschale Rückschlüsse aus Alter, Geschlecht, Herkunft, Foto, Wohnort, familiärer Situation, Lücken im Lebenslauf ohne Kontext oder algorithmisch gebildete «Persönlichkeitsscores» (automatisch berechnete Werte zur Einschätzung von Persönlichkeitsmerkmalen), deren Aussagekraft unklar ist (Art. 6 DSG; Art. 28 ZGB; Art. 3 GlG; zu möglichen Rechtsfolgen siehe unten).

Je weiter sich ein System von objektiven Mindestanforderungen entfernt und je stärker es Persönlichkeitsmerkmale, Wahrscheinlichkeiten oder statistische Ähnlichkeiten zu früher erfolgreichen Mitarbeitenden bewertet, desto höher werden die rechtlichen Anforderungen.

 

Grenzen der Datenbearbeitung im Bewerbungsverfahren

Der Arbeitgeber darf Bewerbende nicht umfassend «durchleuchten». Das gilt unabhängig davon, ob die Auswertung manuell oder automatisiert erfolgt.

Nicht jede Information, die aus Bewerbungsunterlagen technisch extrahiert werden kann, darf auch verwendet werden. Ein KI-Tool (KI-gestütztes Softwarewerkzeug) darf beispielsweise nicht einfach sämtliche Angaben in einem Lebenslauf in ein umfassendes Persönlichkeits-, Risiko- oder Kulturfit-Profil (Profil zur angeblichen Passung zur Unternehmenskultur) umwandeln, wenn diese Bewertung für die konkrete Stelle nicht erforderlich ist.

Besonders heikel sind Systeme, die:

  • Social-Media-Profile (Profile in sozialen Netzwerken) auswerten;
  • Persönlichkeitsmerkmale aus Sprache, Video, Stimme oder Mimik ableiten;
  • Gesundheitsrisiken oder Belastbarkeit prognostizieren;
  • private Lebensumstände bewerten;
  • Bewerbende mit bestehenden Mitarbeitendenprofilen vergleichen;
  • statistische Korrelationen verwenden, ohne dass die Kriterien sachlich erklärbar sind.

Gerade bei Gesundheitsdaten ist im Bewerbungsverfahren besondere Zurückhaltung geboten. Solche Daten sind besonders schützenswert und dürfen nur bearbeitet werden, soweit dies für die konkrete Stelle erforderlich und verhältnismässig ist (Art. 5 lit. c DSG; Art. 6 DSG; Art. 328b OR).

 

Transparenzpflichten

Der Einsatz eines KI-, Screening- oder Ranking-Tools (Software zur Prüfung, Filterung oder Rangordnung von Bewerbungen) sollte gegenüber Bewerbenden transparent gemacht werden. Das gilt insbesondere dann, wenn das Tool (Softwarewerkzeug) einen erheblichen Einfluss darauf hat, ob jemand überhaupt in die nächste Runde kommt.

In der Datenschutzerklärung oder im Bewerbungsportal sollten mindestens die nach Art. 19 DSG erforderlichen Informationen enthalten sein. Dazu gehören insbesondere:

  • die Identität und Kontaktdaten des Verantwortlichen;
  • die Zwecke der Datenbearbeitung;
  • gegebenenfalls die Empfängerinnen und Empfänger oder Empfängerkategorien, insbesondere externe Recruiting- oder Softwareanbieter (Anbieter von Software für die Personalgewinnung);
  • wenn Personendaten nicht direkt bei den Bewerbenden beschafft werden: die Kategorien der bearbeiteten Personendaten;
  • bei allfälligen Datenbekanntgaben ins Ausland: der Staat oder das internationale Organ sowie gegebenenfalls die Garantien oder Ausnahmen, auf die sich die Bekanntgabe stützt;
  • gegebenenfalls ein Hinweis auf automatisierte Einzelentscheidungen im Sinne von Art. 21 DSG.

Weitere Angaben wie die Aufbewahrungsdauer oder die Kriterien für deren Festlegung, Hinweise auf Auskunfts-, Berichtigungs- und Löschungsrechte sowie eine Kontaktstelle für Datenschutzfragen sind je nach Ausgestaltung der Bearbeitung erforderlich oder jedenfalls empfehlenswert.

Diese Transparenz ist nicht nur formale Pflicht. Sie ist auch praktisch wichtig, weil Bewerbende nur dann nachvollziehen können, wie ihre Daten verwendet werden und welche Rolle automatisierte Systeme im Verfahren spielen.

Je stärker ein System in die Auswahlentscheidung eingreift, desto höher sind die Anforderungen an Transparenz, Nachvollziehbarkeit und Dokumentation (Art. 19 DSG; Art. 21 DSG).

 

Automatisierte Einzelentscheidung nach Art. 21 DSG

Besondere Vorsicht ist geboten, wenn eine Bewerbung ausschliesslich automatisiert abgelehnt wird.

Art. 21 DSG regelt die sogenannte automatisierte Einzelentscheidung. Danach muss der Verantwortliche die betroffene Person informieren, wenn eine Entscheidung ausschliesslich auf einer automatisierten Bearbeitung beruht und für die betroffene Person mit einer Rechtsfolge verbunden ist oder sie erheblich beeinträchtigt (Art. 21 Abs. 1 DSG).

Die betroffene Person kann auf Antrag ihren Standpunkt darlegen. Zudem muss ihr grundsätzlich die Möglichkeit eingeräumt werden, die Entscheidung durch eine natürliche Person überprüfen zu lassen (Art. 21 Abs. 2 DSG).

Dass Art. 21 DSG auch im Bewerbungsverfahren relevant sein kann, wird in der Praxis ausdrücklich anerkannt. So wird als Beispiel für eine automatisierte Einzelentscheidung ausdrücklich die «Selektion von Stellenbewerbern» genannt (economiesuisse, FAQ zur Künstlichen Intelligenz [KI], Ziff. 6). Noch näher am hier behandelten Fall liegt das dortige Fallbeispiel II zum Rekrutierungsprozess: Beschrieben wird ein KI-System, das eine KI-unterstützte Vorauswahl von Bewerbungen vornimmt, passende Profile vorschlägt und bei den übrigen Bewerbungen automatisch einen negativen Bescheid auslöst; dazu wird darauf hingewiesen, dass bei Datenbearbeitungen, die automatisierte Einzelentscheidungen beinhalten, unter Umständen besondere Vorgaben zu beachten sind, namentlich Informationspflichten sowie das Recht auf Stellungnahme beziehungsweise menschliche Überprüfung (economiesuisse, FAQ zur Künstlichen Intelligenz [KI], Fallbeispiel II (siehe hierzu: economiesuisse))

Daraus folgt nicht, dass jede automatisierte Unterstützung im Bewerbungsprozess bereits unter Art. 21 DSG fällt. Wird eine Bewerbung jedoch ausschliesslich automatisiert aussortiert und führt dies dazu, dass die betroffene Person ohne menschliche Prüfung eine Absage erhält, kann Art. 21 DSG zur Anwendung kommen.

Für den Bewerbungsprozess ist diese Bestimmung besonders wichtig, weil eine Absage Auswirkungen auf die beruflichen Chancen einer Person haben kann. Art. 21 DSG greift jedoch nicht bereits bei jedem Einsatz von KI oder Automatisierung. Entscheidend sind drei Elemente.

Erstens muss eine Entscheidung vorliegen. Eine blosse technische Unterstützung, etwa das Sortieren von Unterlagen, das Hervorheben bestimmter Qualifikationen, das Erstellen einer Zusammenfassung oder das Anzeigen fehlender Dokumente, ist noch nicht zwingend eine automatisierte Einzelentscheidung. Eine Entscheidung liegt eher vor, wenn das System verbindlich oder faktisch ausschlaggebend bestimmt, ob eine Person weiterkommt oder ausscheidet.

Zweitens muss die Entscheidung ausschliesslich auf automatisierter Bearbeitung beruhen. Das ist der Fall, wenn keine natürliche Person die Entscheidung inhaltlich prüft und verantwortet. Eine rein formale menschliche Bestätigung genügt dafür nicht unbedingt. Wenn eine HR-Mitarbeiterin (Mitarbeiterin der Personalabteilung) lediglich auf «Bestätigen» klickt, ohne die Bewerbung tatsächlich zu prüfen und ohne das Ergebnis des Systems hinterfragen zu können, bleibt die Entscheidung faktisch automatisiert.

Drittens muss die Entscheidung eine Rechtsfolge haben oder die betroffene Person erheblich beeinträchtigen. Eine Nichtanstellung ist nicht in jedem Fall gleich zu beurteilen wie etwa eine Kündigung eines bestehenden Arbeitsvertrags. Eine automatische Absage kann je nach Ausgestaltung des Bewerbungsverfahrens aber erheblich sein, wenn eine Person ohne menschliche Prüfung vom weiteren Bewerbungsverfahren ausgeschlossen wird. Das gilt insbesondere, wenn das System systematisch über berufliche Chancen entscheidet oder wenn Bewerbende keine realistische Möglichkeit haben, Fehler oder unvollständige Informationen korrigieren zu lassen.

Im Bewerbungsverfahren lassen sich deshalb verschiedene Konstellationen unterscheiden.

Ein System, das Bewerbungen nur nach Eingangsdatum sortiert oder fehlende Unterlagen markiert, führt in der Regel nicht zu einer automatisierten Einzelentscheidung.

Ein System, das Bewerbungen anhand klarer Mindestanforderungen vorstrukturiert, die Entscheidung über Absagen aber einer qualifizierten Person überlässt, ist ebenfalls weniger problematisch.

Ein System, das Bewerbungen anhand eines Scores (Punktwerts oder Bewertungswerts) bewertet und alle Bewerbungen unterhalb eines bestimmten Schwellenwerts automatisch ablehnt, kann dagegen unter Art. 21 DSG fallen, wenn keine substanzielle menschliche Prüfung erfolgt.

Besonders heikel ist eine Konstellation, in der Bewerbende automatisch eine Absage erhalten, weil das System sie als «nicht passend», «low fit» (geringe Passung) oder «low potential» (geringes Potenzial) bewertet, ohne dass nachvollziehbar ist, welche Kriterien verwendet wurden und ohne dass eine Person die konkrete Bewerbung überprüft hat.

Wird Art. 21 DSG ausgelöst, genügt es nicht, allgemein zu erwähnen, dass «digitale Tools» (digitale Softwarewerkzeuge) eingesetzt werden. Die betroffene Person muss darüber informiert werden, dass eine Entscheidung ausschliesslich automatisiert getroffen wurde. Zudem muss sie auf Antrag ihren Standpunkt darlegen können. Praktisch bedeutet dies, dass sie relevante Einwände vorbringen können muss, etwa dass ein Lebenslauf falsch ausgelesen wurde, ein Diplom nicht erkannt wurde, eine Berufserfahrung falsch kategorisiert wurde oder ein Kriterium unzutreffend angewendet wurde.

Zudem muss grundsätzlich eine Überprüfung durch eine natürliche Person möglich sein. Diese Überprüfung muss echt, qualifiziert und entscheidungsoffen sein. Die prüfende Person muss also in der Lage sein, das Ergebnis des Systems zu hinterfragen und in begründeten Fällen anders zu entscheiden.

Art. 21 DSG kennt zwar Ausnahmen, namentlich wenn die Entscheidung in unmittelbarem Zusammenhang mit dem Abschluss oder der Abwicklung eines Vertrags steht und dem Begehren der betroffenen Person stattgegeben wird, oder wenn die betroffene Person ausdrücklich eingewilligt hat (Art. 21 Abs. 3 DSG). Im Bewerbungsverfahren wird man sich auf diese Ausnahmen jedoch nicht leichthin verlassen können. Insbesondere ersetzt eine allgemeine Akzeptanz einer Datenschutzerklärung nicht ohne Weiteres eine tragfähige Grundlage für eine ausschliesslich automatisierte Ablehnung.

Für Arbeitgeber empfiehlt sich deshalb ein vorsichtiger Ansatz: KI sollte im Bewerbungsverfahren nicht als alleinige Entscheidungsinstanz eingesetzt werden. Sinnvoller ist ein Modell, bei dem die Software vorbereitet, strukturiert oder Hinweise liefert, die eigentliche Entscheidung aber durch eine qualifizierte Person getroffen und dokumentiert wird (Art. 21 DSG; Art. 328b OR).

 

Diskriminierungsrisiken

Ein zentrales Risiko liegt in der Diskriminierung. KI-Systeme lernen häufig aus bestehenden Daten. Wenn frühere Rekrutierungsentscheidungen unausgewogen waren, kann ein System solche Muster übernehmen oder sogar verstärken.

Ein Tool (Softwarewerkzeug) kann beispielsweise Bewerbungen abwerten, weil bestimmte Karrierewege, Ausbildungseinrichtungen, Wohnorte, Beschäftigungsunterbrüche oder Formulierungen statistisch mit früheren Absagen korrelieren. Auch scheinbar neutrale Kriterien können mittelbar diskriminierend wirken.

Rechtlich ist allerdings zu differenzieren. Eine Anstellungsdiskriminierung wird im schweizerischen Privatrecht nicht generell als solche sanktioniert. Es gibt kein allgemeines privatrechtliches Gleichbehandlungsgesetz, das jede diskriminierende Nichtanstellung umfassend erfassen würde.

Rechtliche Ansprüche kommen insbesondere dann in Betracht, wenn die Ablehnung eine widerrechtliche Persönlichkeitsverletzung darstellt oder wenn ein spezialgesetzlicher Schutz greift. Der zivilrechtliche Persönlichkeitsschutz schützt vor widerrechtlichen Persönlichkeitsverletzungen (Art. 28 ZGB). Das Gleichstellungsgesetz verbietet namentlich Diskriminierungen aufgrund des Geschlechts, auch bei der Anstellung (Art. 3 GlG).

Im Bereich des Gleichstellungsgesetzes kann eine Person, deren Bewerbung nicht berücksichtigt worden ist und die eine Diskriminierung geltend macht, eine schriftliche Begründung verlangen (Art. 8 GlG). Besteht die Diskriminierung in der Ablehnung einer Anstellung, besteht allerdings lediglich Anspruch auf eine Entschädigung; diese ist bei Anstellungsdiskriminierung auf drei Monatslöhne begrenzt (Art. 5 Abs. 2 und 4 GlG).

Für Arbeitgeber ist entscheidend: Die Verantwortung lässt sich nicht auf den Softwareanbieter verschieben. Wer ein Tool (Softwarewerkzeug) im Bewerbungsprozess einsetzt, sollte prüfen können, ob die verwendeten Kriterien sachlich gerechtfertigt, stellenbezogen und nicht persönlichkeitsverletzend oder geschlechterdiskriminierend sind (Art. 28 ZGB; Art. 3 GlG; Art. 328b OR).

Gerade bei KI-Systemen genügt es nicht, auf die angebliche Neutralität des Tools (Softwarewerkzeugs) zu vertrauen. Arbeitgeber sollten die Resultate regelmässig überprüfen, insbesondere darauf, ob bestimmte Gruppen systematisch benachteiligt werden.

 

Externe Anbieter, Auftragsbearbeitung und Datensicherheit

Viele Recruiting-Tools (Softwarewerkzeuge für die Personalgewinnung) werden von externen Anbietern betrieben. Dabei stellt sich die Frage, wohin Bewerbungsdaten übermittelt werden, wer darauf Zugriff hat, ob Unterauftragnehmer eingesetzt werden, ob Daten ins Ausland gelangen und ob die Daten allenfalls für Trainings- oder Produktverbesserungszwecke des Anbieters verwendet werden.

Besonders heikel ist es, Bewerbungsunterlagen ungeprüft in frei verfügbare KI-Tools (KI-gestützte Softwarewerkzeuge) hochzuladen. Solche Unterlagen enthalten regelmässig vertrauliche und personenbezogene Informationen. Arbeitgeber sollten deshalb sicherstellen, dass Bewerbungsdaten nicht für fremde Zwecke verwendet, nicht unkontrolliert weitergegeben und nicht zum Training allgemeiner Modelle (Verwendung der Daten zur Verbesserung oder Weiterentwicklung der KI) eingesetzt werden, sofern dafür keine klare Rechtsgrundlage besteht und die betroffenen Personen nicht ausreichend informiert wurden.

Wer einen externen Anbieter einsetzt, muss insbesondere die Vorgaben zur Auftragsbearbeitung beachten. Nach Art. 9 DSG darf die Bearbeitung von Personendaten einem Auftragsbearbeiter übertragen werden, wenn die Daten nur so bearbeitet werden, wie der Verantwortliche selbst es tun dürfte, und wenn keine gesetzliche oder vertragliche Geheimhaltungspflicht entgegensteht. Der Verantwortliche muss sich zudem vergewissern, dass der Auftragsbearbeiter die Datensicherheit gewährleisten kann (Art. 8 DSG; Art. 9 DSG).

Verträge mit Recruiting- oder KI-Anbietern (Anbietern von Software für die Personalgewinnung oder künstliche Intelligenz) sollten daher insbesondere regeln:

  • Zweck und Umfang der Datenbearbeitung;
  • Weisungsgebundenheit des Anbieters;
  • Verbot der Nutzung zu eigenen Zwecken;
  • Verbot oder klare Regelung von Trainingsnutzungen;
  • Einsatz von Unterauftragnehmern;
  • Speicherorte und Auslandbekanntgaben;
  • technische und organisatorische Sicherheitsmassnahmen;
  • Löschung oder Rückgabe der Daten nach Abschluss des Bewerbungsverfahrens;
  • Unterstützung bei Auskunfts-, Berichtigungs- und Löschungsbegehren;
  • Meldepflichten bei Datenschutzverletzungen.

Bei ausländischen Anbietern oder Cloud-Infrastrukturen (internetbasierten Speicher- und Rechenumgebungen) sind zusätzlich die Regeln über die Bekanntgabe von Personendaten ins Ausland zu beachten. Eine Bekanntgabe ins Ausland ist insbesondere dann zulässig, wenn im betreffenden Staat ein angemessener Datenschutz gewährleistet ist oder geeignete Garantien bestehen. Zudem sind die Informationspflichten bei Auslandbekanntgaben zu beachten (Art. 16 ff. DSG; Art. 19 Abs. 4 DSG).

 

Datenschutz-Folgenabschätzung

Je nach Ausgestaltung des Tools (Softwarewerkzeugs) kann eine Datenschutz-Folgenabschätzung erforderlich sein. Das ist dann zu prüfen, wenn die Bearbeitung ein hohes Risiko für die Persönlichkeit oder die Grundrechte der betroffenen Personen mit sich bringen kann (Art. 22 DSG).

Im Bewerbungsverfahren kann ein solches Risiko insbesondere bestehen, wenn ein System Bewerbende systematisch bewertet, Profile erstellt, Persönlichkeitseigenschaften prognostiziert, sensible Rückschlüsse zieht oder Personen automatisch vom weiteren Verfahren ausschliesst.

Eine Datenschutz-Folgenabschätzung sollte insbesondere klären:

  • welche Daten bearbeitet werden;
  • welche Kriterien das System verwendet;
  • ob besonders schützenswerte Daten betroffen sind;
  • ob Profiling (automatisierte Bewertung persönlicher Merkmale) oder Profiling mit hohem Risiko vorliegt;
  • welche Risiken für Bewerbende bestehen;
  • wie Diskriminierungsrisiken reduziert werden;
  • wie Transparenz sichergestellt wird;
  • wie menschliche Kontrolle ausgestaltet ist;
  • wie Fehler erkannt und korrigiert werden können;
  • wie lange Daten gespeichert werden;
  • welche technischen und organisatorischen Schutzmassnahmen bestehen.

Eine Datenschutz-Folgenabschätzung ist nicht bei jedem Einsatz eines Screening-Tools (Softwarewerkzeugs zur Prüfung oder Filterung von Bewerbungen) zwingend, aber bei systematischem Scoring (Bewertung anhand von Punktwerten), Profiling mit hohem Risiko, sensiblen Rückschlüssen oder automatisierter Aussortierung besonders sorgfältig zu prüfen.

Eine solche Prüfung ist nicht nur aus rechtlicher Sicht sinnvoll. Sie hilft auch, Fehlentscheide, Diskriminierungen und Reputationsrisiken zu vermeiden.

 

Blick in die EU

Auch wenn der EU AI Act (EU-Verordnung über künstliche Intelligenz) in der Schweiz nicht generell direkt gilt, ist er für Schweizer Arbeitgeber mit EU-Bezug relevant. Das kann insbesondere der Fall sein, wenn ein System in der EU angeboten oder genutzt wird, wenn eine Gruppengesellschaft in der EU betroffen ist oder wenn der Output (das Ergebnis oder die Ausgabe des Systems) in der EU verwendet wird.

Der EU AI Act (EU-Verordnung über künstliche Intelligenz) qualifiziert KI-Systeme, die für Rekrutierung oder Auswahl natürlicher Personen eingesetzt werden, insbesondere zur Platzierung gezielter Stellenanzeigen, zur Analyse und Filterung von Bewerbungen oder zur Bewertung von Kandidatinnen und Kandidaten, als Hochrisiko-KI-Systeme (Anhang III Ziff. 4 lit. a EU AI Act).

Für rein schweizerische Sachverhalte besteht derzeit keine spezifische schweizerische KI-Gesetzgebung, die den Einsatz von KI im Bewerbungsverfahren abschliessend regelt. Das bedeutet aber nicht, dass solche Systeme rechtsfrei wären. Massgebend bleiben insbesondere das Obligationenrecht, das Datenschutzgesetz, das Gleichstellungsgesetz sowie die allgemeinen persönlichkeitsrechtlichen Schranken (Art. 328b OR; Art. 6 DSG; Art. 19 DSG; Art. 21 DSG; Art. 22 DSG; Art. 28 ZGB; Art. 3 ff. GlG).

Der EU AI Act (EU-Verordnung über künstliche Intelligenz) zeigt zudem, wohin sich die regulatorischen Erwartungen entwickeln: mehr Transparenz, bessere Dokumentation, menschliche Aufsicht, Risikomanagement, Datenqualität und Kontrolle von Diskriminierungsrisiken.

 

Praktische Empfehlungen für Arbeitgeber

Arbeitgeber, die KI oder automatisierte Tools (Softwarewerkzeuge) im Bewerbungsprozess einsetzen, sollten mindestens folgende Punkte beachten:

  • Zweck definieren: Das Tool (Softwarewerkzeug) darf nur für klar bestimmte Rekrutierungszwecke eingesetzt werden (Art. 6 DSG).
  • Kriterien prüfen: Die verwendeten Kriterien müssen für die konkrete Stelle relevant, sachlich gerechtfertigt und verhältnismässig sein (Art. 6 DSG; Art. 328b OR).
  • Mindestanforderungen dokumentieren: Arbeitgeber sollten vor dem Einsatz des Tools (Softwarewerkzeugs) festlegen, welche Anforderungen zwingend sind und weshalb.
  • Transparenz schaffen: Bewerbende sollten verständlich über den Einsatz automatisierter Systeme informiert werden (Art. 19 DSG; Art. 21 DSG).
  • Art. 21 DSG prüfen: Wenn Bewerbungen ausschliesslich automatisiert abgelehnt werden, sind die Informationspflicht und die Rechte der betroffenen Person nach Art. 21 DSG besonders zu beachten.
  • Menschliche Kontrolle sicherstellen: Absagen sollten nicht blind und ausschliesslich durch ein System erfolgen. Die menschliche Prüfung muss echt, qualifiziert und entscheidungsoffen sein (Art. 21 DSG).
  • Diskriminierungsrisiken testen: Die Resultate sollten regelmässig auf mögliche Verzerrungen überprüft werden, insbesondere mit Blick auf Persönlichkeitsschutz und geschlechtsspezifische Diskriminierung (Art. 28 ZGB; Art. 3 GlG).
  • Anbieter sorgfältig auswählen: Verträge mit externen Dienstleistern müssen Datenschutz, Datensicherheit, Löschung, Zweckbindung, Unterauftragnehmer und allfällige Auslandbekanntgaben regeln (Art. 8 DSG; Art. 9 DSG; Art. 16 ff. DSG).
  • Keine unkontrollierte Nutzung frei verfügbarer KI-Tools: Bewerbungsunterlagen sollten nicht ohne Prüfung in allgemein zugängliche KI-Tools (KI-gestützte Softwarewerkzeuge) hochgeladen werden.
  • Datenschutz-Folgenabschätzung prüfen: Bei systematischem Scoring (Bewertung anhand von Punktwerten), Profiling (automatisierter Bewertung persönlicher Merkmale) oder automatisierter Aussortierung ist zu prüfen, ob eine Datenschutz-Folgenabschätzung erforderlich ist (Art. 22 DSG).
  • Dokumentation führen: Arbeitgeber sollten nachvollziehen können, weshalb ein Tool (Softwarewerkzeug) eingesetzt wird, welche Kriterien es berücksichtigt, wie es getestet wurde und wie Entscheidungen zustande kommen (Art. 6 DSG; Art. 21 DSG; Art. 22 DSG).

Fazit

Die automatische Vorsortierung von Bewerbungen ist in der Schweiz nicht per se verboten. Sie muss sich aber an den arbeits- und datenschutzrechtlichen Schranken messen lassen.

Zulässig ist der Einsatz von KI insbesondere dann, wenn er unterstützend erfolgt, auf stellenbezogene Kriterien beschränkt bleibt, transparent gemacht wird und die abschliessende Entscheidung nicht unkontrolliert der Maschine überlassen wird.

Besondere Vorsicht ist geboten, wenn Bewerbungen ausschliesslich automatisiert abgelehnt werden. In solchen Fällen kann Art. 21 DSG zur Anwendung kommen. Bewerbende müssen dann über die automatisierte Einzelentscheidung informiert werden und die Möglichkeit erhalten, ihren Standpunkt darzulegen sowie eine Überprüfung durch eine natürliche Person zu verlangen (Art. 21 DSG; economiesuisse, FAQ zur Künstlichen Intelligenz [KI], Ziff. 6 und Fallbeispiel II).

Je stärker ein System über berufliche Chancen entscheidet, desto höher sind die rechtlichen Anforderungen. Arbeitgeber sollten KI im Bewerbungsprozess deshalb nicht als Ersatz für menschliche Beurteilung verstehen, sondern höchstens als Hilfsmittel — und auch dann nur mit klaren Regeln, Kontrolle, Transparenz und Dokumentation.

 

Im vorliegenden Zusammenhang, insbesondere dem Datenschutz, sind auch die nachfolgenden Beiträge relevant:

 

 

Autor: Nicolas Facincani 

 

Weitere umfassende Informationen zum Arbeitsrecht finden Sie hier.

Umfassende Informationen zum Gleichstellungsgesetz finden Sie hier.

Oder folgen Sie uns auf YouTube.