Właśnie otworzyłeś panel ATS i połowa CV brzmi jakby redagował je ten sam edytor. Ta sama struktura. Ten sam pewny ton. Ta sama podejrzanie czysta forma. Zastanawiasz się: czy mój ATS naprawdę odróżnia, które napisało AI?
Krótka odpowiedź brzmi: nie. Większość systemów ATS, w tym Canvider, nie jest zbudowana po to, by wykrywać autorstwo AI — tylko po to, by filtrować dopasowanie. Ta różnica ma większe znaczenie, niż myślisz.
Pytanie, które zadaje każdy
Badanie KraftCV z 2026 roku wykazało, że 70% poszukujących pracy korzysta z narzędzi AI do pisania lub dopracowywania CV. Po stronie pracodawcy raport Forbes cytujący dane Robert Half pokazał, że 84% liderów HR mówi, że aplikacje generowane przez AI zwiększyły obciążenie rekrutacyjne.
Najnowsze dane z DataForSEO Labs (USA, angielski) pokazują około 140 miesięcznych wyszukań na „ai written resume” i około 390 na „ai resume screening”. Ludzie szukają odpowiedzi, bo stare sygnały — wysiłek, głos, konkret — są trudniejsze do odczytania.
Obawa jest uzasadniona. Ale proponowane rozwiązanie — wykrywanie autorstwa AI — to miejsce, w którym cała konstrukcja się sypie.
Dlaczego ATS nie wykrywa autorstwa AI
ATS parsuje, przechowuje i ocenia CV względem opisu stanowiska. Patrzy na umiejętności, doświadczenie, kwalifikacje i słowa kluczowe. Żaden z tych elementów nie mówi, czy zdania pisał człowiek, czy model językowy.
Niektóre firmy próbują dokleić do ATS API wykrywania AI. Te narzędzia analizują wzorce pisania, perplexity i „burstiness”, żeby zgadywać, czy tekst jest maszynowy. Problem w tym, że powstały pod plagiat akademicki, a nie pod rekrutację. Niosą wysokie ryzyko fałszywych pozytywów, które mogą wyeliminować prawdziwych kandydatów (zobacz też nasz tekst o odpowiedzialnym AI w rekrutacji).
A nawet gdyby detektor działał idealnie — co zrobisz z wynikiem? Kandydat, który użył ChatGPT do dopracowania CV, to nie to samo co kandydat, który zmyślił doświadczenie. Wykrywanie nie rozróżnia tych przypadków.
Prawdziwy problem to nie autorstwo AI
Rzeczywiste ryzyko nie polega na tym, że CV brzmi zbyt „dopieszczone”. Chodzi o to, że CV twierdzi o kwalifikacjach, których kandydat nie ma.
Badanie KraftCV wykazało, że 86% menedżerów rekrutujących uważa, że AI zbyt ułatwia przesadzanie umiejętności w CV. To problem wart rozwiązania. I istniał przed AI — kandydaci zawsze trochę „rozciągali” prawdę. AI tylko przyspiesza ten proces.
Wykrywanie skupia się na złej zmiennej. Pyta „kto to napisał?”, podczas gdy powinno pytać „czy ta osoba jest naprawdę kwalifikowana?”.
Co działa lepiej niż wykrywanie
Trzy rzeczy realnie obniżają ryzyko, że lśniące, ale puste CV przejdzie przez lejek:
-
Screening od kryteriów: Zdefiniuj twarde wymagania — uprawnienia do pracy, certyfikaty, znajomość języków, lata doświadczenia — i sprawdzaj je przed wszystkim innym. CriteriaMatch pozwala ustawić te kryteria raz i w kilka sekund sprawdzić każde CV przez AI. Bez zgadywania i czytania między wierszami.
-
Ocena dopasowania: Zamiast pytać, czy AI pisało CV, pytaj, czy kandydat pasuje do roli. AI Score ocenia CV względem faktycznego opisu pracy i zwraca ranking dopasowania ze wskazaniem mocnych i słabych stron. Dobrze napisane CV, które nie pasuje do roli, i tak dostaje niski wynik.
-
Test głębokości na rozmowie: Najlepszy filtr na przesadzone twierdzenia to ukierunkowana rozmowa. InterviewGen analizuje CV każdego kandydata względem opisu stanowiska, wskazuje luki i generuje pytania dokładnie tam, gdzie CV jest mgliste. Jeśli ktoś twierdzi, że ma pięć lat w Kubernetesie, rozmowa powinna to zweryfikować — a nie sprawdzać, czy użył Grammarly.
Paradoks 82%
Niewygodna prawda: według tych samych danych KraftCV 82% firm już używa AI do przeglądania CV. Pracodawcy stosują AI do oceny tych samych CV, które kandydaci pisali z AI.
Odrzucanie kandydata za użycie AI, gdy własny lejek działa na AI, to trudna pozycja do obrony. Lepsze podejście to screening oparty na weryfikowalnym dopasowaniu, a nie stylistycznych domysłach.
Kiedy wykrywanie ma sens
Jest jeden wąski przypadek, w którym wykrywanie AI dodaje wartość: role z dużym napływem, gdzie częścią aplikacji jest próbka pisemna. Jeśli prosicie o list motywacyjny konkretnie po to, by ocenić komunikację, a kandydat wysyła tekst wygenerowany przez AI, to mówi coś o podejściu do zadania.
Ale nawet wtedy sygnał jest słaby. Kandydat, który użył AI do szkicu i potem sensownie edytował, różni się od kogoś, kto wkleił output promptu bez czytania. I tak potrzebujecie kolejnego kroku, żeby to rozdzielić.
W większości procesów rekrutacyjnych wykrywanie odwraca uwagę od pracy, która naprawdę przewiduje sukces w roli.
Skup się na tym, co da się zweryfikować
Wzrost CV pisanych z AI to nie kryzys. To zmiana, która nagradza zespoły ze strukturalnym, opartym na kryteriach screeningiem, a nie te oparte na reakcjach „z brzucha” na styl CV.
Filtruj według dopasowania. Sprawdzaj kwalifikacje. Testuj głębię na rozmowie. Taki workflow się broni — niezależnie od tego, kto (lub co) pisało CV.