"Potrzebuję detektora GenAI."
Nie ma wiarygodnych. Ale potrzebujesz zrobić sobie namysł i wprowadzić zmiany w procesie oceniania.
Pisanie wspomagane przez AI staje się normą
To tzw. pisanie hybrydowe. Już teraz edytory tekstu w popularnych pakietach (np. Microsoft Office i Google Workplace) mają wbudowane narzędzia AI. Jest prawdopodobne, że prawie wszystko, co piszemy, będzie miało elementy generatywnej pomocy AI (w ten sam sposób, w jaki nasze pisanie jest już dziś algorytmicznie wspomagane przez sprawdzanie pisowni i sprawdzanie gramatyki). Przykłady kopiowania całej pracy wytworzonej przez AI bez edycji to skrajne przypadki.
Generatywne systemy wykrywania AI nie są obecnie i prawdopodobnie nie będą w stanie w przewidywalnej przyszłości wykrywać treści generowanych przez AI z wystarczającą dokładnością, aby można było na nich polegać w sprawach takich jak oszustwa akademickie.
Sprawdźmy, co mówią wyniki badań
Analiza skuteczności detektorów AI
Perkins et al. 2024
Analiza skuteczności detektorów AI (m.in. GPTZero, Turnitin, DetectGPT) wobec tekstów poddanych prostym modyfikacjom (parafraza, wstawianie synonimów, zmiana szyku zdań).Wyniki:
- dla czystych tekstów AI skuteczność detekcji wynosiła ok. 39,5%.
- Po zastosowaniu prostych technik „maskowania” spadła do 17,4%.
Wnioski: detektory są bardzo podatne na obejścia i nie mogą być traktowane jako narzędzia do decyzji o wysokiej wadze (np. oszustwa akademickie).
Analiza skuteczności detektorów AI
Weber-Wulff et al. 2023
Cel badańskuteczności detektorów AI: 12 narzędzi publicznych (m.in. GPTZero, Writer, Sapling) i 2 komercyjne (Turnitin, PlagiarismCheck).Wyniki
- detektory wykazują niską dokładność, częściej klasyfikują teksty AI jako „ludzkie” niż odwrotnie
- skuteczność spada drastycznie, gdy teksty są lekko parafrazowane lub „zamaskowane”
- narzędzia komercyjne (Turnitin, PlagiarismCheck) radziły sobie niewiele lepiej niż darmowe
Wnioski detektory nie nadają się do stosowania jako dowód w sprawach o wysokiej wadze (np. oszustwa akademickie)
Analiza skuteczności detektorów AI
Elkhatat et al. 2023
Cel badańocena skuteczności najpopularniejszych narzędzi do wykrywania treści generowanych przez AI (m.in. OpenAI Text Classifier, GPTZero, Copyleaks, Writer, CrossPlag).Wyniki
- skuteczność narzędzi silnie zróżnicowana (lepsza przy GPT-3.5, wyraźnie słabsza przy GPT-4)
- występowały liczne fałszywe alarmy: teksty ludzkie oznaczano jako „AI”.
- narzędzia często dawały niejednoznaczne klasyfikacje („prawdopodobnie AI”), co zmniejszało ich wartość praktyczną
Wnioski Detektory AI nie są wystarczająco rzetelne, aby opierać na nich decyzje akademickie lub zawodowe.
Analiza skuteczności detektorów AI
Popkov & Barrett 2024
Cel badańocena skuteczności popularnych detektorów AI na tekstach akademickich (100 artykułów pisanych przez ludzi oraz 200 tekstów generowanych przez modele językowe (ChatGPT, Claude). Porównano narzędzi darmowych i komercyjnych.Wyniki
- zarówno fałszywie dodatnie (teksty ludzkie oznaczane jako AI), jak i fałszywie ujemne
- niektóre detektory radziły sobie lepiej z prostymi esejami, ale zawodziły przy złożonych artykułach naukowych
- różnice w skuteczności były znaczne między narzędziami, ale żadne nie osiągnęło poziomu wiarygodnego
Wnioski Detektory AI są zawodne w kontekście naukowym i nie mogą być traktowane jako podstawa do stwierdzania plagiatu czy oszustwa.
Teksty human-origin i detektory AI
Saha & Feizi 2025
Cel badańocena skuteczności detektorów tekstów pisanych przez ludzi, które zostały jedynie „wygładzone” przez AI (np. poprawa gramatyki, stylu, płynności). Wyniki
- wiele narzędzi klasyfikowało teksty jako AI-generated, mimo że treść i argumentacja pochodziły od człowieka.
- granica między tym, co „ludzkie” a „AI” staje się bardzo płynna w przypadku pisania hybrydowego.
- wysoki poziom wyników fałszywie dodatnich podważa praktyczne zastosowanie detektorów
Wnioski Detektory nie są w stanie rozróżnić subtelnych przypadków współpracy człowieka z AI. Autorzy wskazują na konieczność nowych standardów oceny autentyczności.
Stanowisko ACM U.S. Technology Policy Committee dotyczące zasad tworzenia i używania systemów do wykrywania treści generowanych przez AI. Rosnąca dostępność i użycie AI (teksty, obrazy, audio) wywołały zapotrzebowanie na systemy, które potrafią wiarygodnie wykrywać, czy dane treści zostały w całości lub częściowo stworzone przez AI. Oczekiwania różnych sektorów: Edukacja: uczelnie chciałyby wiedzieć, czy prace studentów były przygotowane z pomocą AI. Pracodawcy: chcą wykrywać użycie AI w aplikacjach o pracę. Media: chcą odróżniać komentarze ludzkie od tych generowanych przez chatboty. Administracja publiczna: potrzebuje rozróżniać autentyczne listy i komentarze od treści generowanych algorytmicznie. Obecnie dostępne technologie detekcji nie są wystarczająco wiarygodne, by można było podejmować na ich podstawie decyzje krytyczne, wpływające na życie i karierę ludzi (np. karać studentów, odrzucać kandydatów do pracy czy uznawać oficjalne dokumenty za fałszywe).
poprzednie artykuły
Detektory AI
Jo
Created on July 26, 2025
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Project Roadmap Timeline
View
Step-by-Step Timeline: How to Develop an Idea
View
Artificial Intelligence History Timeline
View
Museum Escape Room
View
Momentum: Onboarding Presentation
View
Urban Illustrated Presentation
View
3D Corporate Reporting
Explore all templates
Transcript
"Potrzebuję detektora GenAI."
Nie ma wiarygodnych. Ale potrzebujesz zrobić sobie namysł i wprowadzić zmiany w procesie oceniania.
Pisanie wspomagane przez AI staje się normą
To tzw. pisanie hybrydowe. Już teraz edytory tekstu w popularnych pakietach (np. Microsoft Office i Google Workplace) mają wbudowane narzędzia AI. Jest prawdopodobne, że prawie wszystko, co piszemy, będzie miało elementy generatywnej pomocy AI (w ten sam sposób, w jaki nasze pisanie jest już dziś algorytmicznie wspomagane przez sprawdzanie pisowni i sprawdzanie gramatyki). Przykłady kopiowania całej pracy wytworzonej przez AI bez edycji to skrajne przypadki.
Generatywne systemy wykrywania AI nie są obecnie i prawdopodobnie nie będą w stanie w przewidywalnej przyszłości wykrywać treści generowanych przez AI z wystarczającą dokładnością, aby można było na nich polegać w sprawach takich jak oszustwa akademickie.
Sprawdźmy, co mówią wyniki badań
Analiza skuteczności detektorów AI
Perkins et al. 2024
Analiza skuteczności detektorów AI (m.in. GPTZero, Turnitin, DetectGPT) wobec tekstów poddanych prostym modyfikacjom (parafraza, wstawianie synonimów, zmiana szyku zdań).Wyniki:
- dla czystych tekstów AI skuteczność detekcji wynosiła ok. 39,5%.
- Po zastosowaniu prostych technik „maskowania” spadła do 17,4%.
Wnioski: detektory są bardzo podatne na obejścia i nie mogą być traktowane jako narzędzia do decyzji o wysokiej wadze (np. oszustwa akademickie).Analiza skuteczności detektorów AI
Weber-Wulff et al. 2023
Cel badańskuteczności detektorów AI: 12 narzędzi publicznych (m.in. GPTZero, Writer, Sapling) i 2 komercyjne (Turnitin, PlagiarismCheck).Wyniki
- detektory wykazują niską dokładność, częściej klasyfikują teksty AI jako „ludzkie” niż odwrotnie
- skuteczność spada drastycznie, gdy teksty są lekko parafrazowane lub „zamaskowane”
- narzędzia komercyjne (Turnitin, PlagiarismCheck) radziły sobie niewiele lepiej niż darmowe
Wnioski detektory nie nadają się do stosowania jako dowód w sprawach o wysokiej wadze (np. oszustwa akademickie)Analiza skuteczności detektorów AI
Elkhatat et al. 2023
Cel badańocena skuteczności najpopularniejszych narzędzi do wykrywania treści generowanych przez AI (m.in. OpenAI Text Classifier, GPTZero, Copyleaks, Writer, CrossPlag).Wyniki
- skuteczność narzędzi silnie zróżnicowana (lepsza przy GPT-3.5, wyraźnie słabsza przy GPT-4)
- występowały liczne fałszywe alarmy: teksty ludzkie oznaczano jako „AI”.
- narzędzia często dawały niejednoznaczne klasyfikacje („prawdopodobnie AI”), co zmniejszało ich wartość praktyczną
Wnioski Detektory AI nie są wystarczająco rzetelne, aby opierać na nich decyzje akademickie lub zawodowe.Analiza skuteczności detektorów AI
Popkov & Barrett 2024
Cel badańocena skuteczności popularnych detektorów AI na tekstach akademickich (100 artykułów pisanych przez ludzi oraz 200 tekstów generowanych przez modele językowe (ChatGPT, Claude). Porównano narzędzi darmowych i komercyjnych.Wyniki
- zarówno fałszywie dodatnie (teksty ludzkie oznaczane jako AI), jak i fałszywie ujemne
- niektóre detektory radziły sobie lepiej z prostymi esejami, ale zawodziły przy złożonych artykułach naukowych
- różnice w skuteczności były znaczne między narzędziami, ale żadne nie osiągnęło poziomu wiarygodnego
Wnioski Detektory AI są zawodne w kontekście naukowym i nie mogą być traktowane jako podstawa do stwierdzania plagiatu czy oszustwa.Teksty human-origin i detektory AI
Saha & Feizi 2025
Cel badańocena skuteczności detektorów tekstów pisanych przez ludzi, które zostały jedynie „wygładzone” przez AI (np. poprawa gramatyki, stylu, płynności). Wyniki
- wiele narzędzi klasyfikowało teksty jako AI-generated, mimo że treść i argumentacja pochodziły od człowieka.
- granica między tym, co „ludzkie” a „AI” staje się bardzo płynna w przypadku pisania hybrydowego.
- wysoki poziom wyników fałszywie dodatnich podważa praktyczne zastosowanie detektorów
Wnioski Detektory nie są w stanie rozróżnić subtelnych przypadków współpracy człowieka z AI. Autorzy wskazują na konieczność nowych standardów oceny autentyczności.Stanowisko ACM U.S. Technology Policy Committee dotyczące zasad tworzenia i używania systemów do wykrywania treści generowanych przez AI. Rosnąca dostępność i użycie AI (teksty, obrazy, audio) wywołały zapotrzebowanie na systemy, które potrafią wiarygodnie wykrywać, czy dane treści zostały w całości lub częściowo stworzone przez AI. Oczekiwania różnych sektorów: Edukacja: uczelnie chciałyby wiedzieć, czy prace studentów były przygotowane z pomocą AI. Pracodawcy: chcą wykrywać użycie AI w aplikacjach o pracę. Media: chcą odróżniać komentarze ludzkie od tych generowanych przez chatboty. Administracja publiczna: potrzebuje rozróżniać autentyczne listy i komentarze od treści generowanych algorytmicznie. Obecnie dostępne technologie detekcji nie są wystarczająco wiarygodne, by można było podejmować na ich podstawie decyzje krytyczne, wpływające na życie i karierę ludzi (np. karać studentów, odrzucać kandydatów do pracy czy uznawać oficjalne dokumenty za fałszywe).
poprzednie artykuły