Wróć do bloga

Wykrywanie treści AI w ATS: fałszywe alarmy to prawdziwe ryzyko

Narzędzia do wykrywania AI częściej oznaczają ludzki tekst jako generowany przez AI, niż przyznają dostawcy. Dlaczego fałszywe pozytywy powinny niepokoić zespół HR.

Czyste białe biurko z komputerem iMac, klawiaturą, myszą, lampką i drobnymi dekoracjami

Rozważasz dodanie detektora AI do lejka rekrutacyjnego. Narzędzie, które oznacza CV napisane przez ChatGPT, zanim zespół je przeczyta. Brzmi wydajnie. Brzmi odpowiedzialnie.

Prawdziwe ryzyko to nie „prześlizgnięcie się” CV z AI — to odrzucenie kwalifikowanych kandydatów, bo detektor się pomylił.

Luka między obietnicami a rzeczywistością

Dostawcy narzędzi do wykrywania AI publikują imponujące liczby. GPTZero podaje 99% trafności przy 0,24% fałszywych pozytywów. Originality.ai reklamuje 96% dokładności.

Niezależne testy mówią co innego. W ocenie PCWorld GPTZero osiągnął tylko ok. 62% trafności w realnych warunkach. Originality.ai w porównaniach zewnętrznych pokazywał 8–12% fałszywych pozytywów — czyli co dziesiąty raz oznaczał ludzki tekst jako AI.

Oba narzędzia dokumentowano flagujące Konstytucję USA i fragmenty „Kodu da Vinci” jako tekst z AI (Fritz.ai, 2026). Jeśli detektor nie rozpoznaje Konstytucji jako tekstu ludzkiego, co dzieje się z CV osoby piszącej po angielsku jako po drugim języku?

Co znaczą fałszywe pozytywy w rekrutacji

W akademickiej plagiacji fałszywy pozytyw to niedogodność. Student się odwołuje, prowadzący sprawdza, sprawa się wyjaśnia.

W rekrutacji fałszywy pozytyw jest niewidoczny. Kandydat się nie dowie. Zespół nie zobaczy CV. Kwalifikowana osoba znika z lejka, a stanowisko obsadzacie z tego, co zostało.

Dane słów kluczowych z DataForSEO Labs (USA, angielski) pokazują ok. 390 miesięcznych wyszukiwań na „ai resume screening”. Zespoły HR szukają sposobu na radzenie sobie z AI w aplikacjach. Większość wyników promuje detektory bez odpowiedzi na pytanie, co się dzieje, gdy się mylą.

Przy 200 CV na rolę i 10% fałszywych pozytywów to 20 osób błędnie oznaczonych. Część z nich mogła być najlepszymi kandydatami.

Problem stronniczości językowej

Detektory AI analizują styl — długość zdań, zróżnicowanie słownictwa, przewidywalność. To ma udokumentowaną słabość: pewne style pisania są karane częściej.

Osoby piszące po angielsku jako po drugim języku częściej używają prostszych zdań i powszechniejszego słownictwa. To dokładnie wzorce kojarzone z tekstem z maszyny. CV napisane starannym, prostym angielskim przez osobę, której pierwszym językiem jest mandaryński lub arabski, może wyglądać „podejrzanie” dla modelu uczącego się wykrywać output maszynowy.

To nie jest abstrakcja. Jeśli lejek odrzuca kandydatów na podstawie analizy stylu, wprowadzasz stronniczość skorelowaną z tłem językowym. Dla pracodawców w USA to kwestie etyczne i potencjalnie prawne.

Dlaczego samo wykrywanie nie poprawia wyników rekrutacji

Nawet idealny detektor — z zerem fałszywych pozytywów — nie powie nic użytecznego o jakości kandydatu. Wiedza, że CV powstało z pomocą AI, nie mówi, czy ktoś zrobi robotę.

W badaniu KraftCV z 2026 roku 70% poszukujących pracy używa AI do pisania CV. Jeśli odrzucisz wszystkich, odcinasz większość puli. Jeśli odrzucisz tylko tych, których „złapie” detektor, karzesz tych z mniej wyrafinowanymi narzędziami, a nagradzasz tych, którzy wystarczająco przerobili tekst.

Sygnał nie jest użyteczny. Nie rozdziela dobrych i słabych kandydatów — rozdziela wykrywalnych i niewykrywalnych użytkowników AI.

Co działa zamiast tego

Alternatywą nie jest „nic nie rób”. Trzeba screenować to, co naprawdę przewiduje wynik w pracy.

  • Udokumentuj kryteria przed screeningiem: twarde wymagania — zezwolenia do pracy, certyfikaty, konkretne umiejętności — jako pierwszy filtr. CriteriaMatch w kilka sekund sprawdza CV względem zdefiniowanych kryteriów. Styl CV nie ma znaczenia, jeśli kandydat nie spełnia warunków bez negocjacji.

  • Uwidocznij decyzje: przy przeglądzie kandydatów uzasadnienie powinno być zapisane. Collaborative Candidate Assessment trzyma wspólne komentarze, zadania i historię decyzji na profilu. Jeśli ktoś odpada, powód jest w systemie — i nigdy nie brzmi „detektor tak powiedział”.

  • Weryfikuj twierdzenia w rozmowie: najlepszy sposób na sprawdzenie CV to pytania. Dobra rozmowa szybciej wyłapuje przesady niż analiza stylu. Jeśli w CV jest „prowadziłem zespół 12 inżynierów”, dopytaj o szczegóły. Odpowiedź powie wszystko, czego detektor nie zobaczy.

Kąt regulacyjny

Unijne rozporządzenie o AI klasyfikuje systemy AI używane przy decyzjach zatrudnienia jako wysokiego ryzyka. Jeśli detektor AI wpływa na decyzję o zatrudnieniu, możesz musieć wykazać, że nie generuje dyskryminacyjnych skutków. Przy udokumentowanych problemach ze stronniczością językową to trudna sprawa.

W wielu stanach USA i miastach — m.in. Nowy Jork i Illinois — obowiązują już wymogi ujawniania i audytu zautomatyzowanych narzędzi w rekrutacji. Dodanie niesprawdzonej warstwy detekcji API od trzeciej strony zwiększa ryzyko compliance bez wartościowego sygnału screeningowego.

Szerszy obraz odpowiedzialnego użycia AI w rekrutacji znajdziesz w przewodniku odpowiedzialna AI w rekrutacji.

Uczciwy kompromis

Narzędzia do wykrywania AI kuszą prostym podziałem: AI albo nie AI. Rekrutacja tak nie działa — to seria ocen dopasowania, kompetencji i potencjału.

Pomiń detektor. Zbuduj proces, w którym dowody pochodzą ze zweryfikowanych kryteriów i prawdziwych rozmów, a nie z analizy stylu pisania.

Poznaj CriteriaMatch