Want to create interactive content? It’s easy in Genially!

Get started free

Detektory AI

Jo

Created on July 26, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Project Roadmap Timeline

Step-by-Step Timeline: How to Develop an Idea

Artificial Intelligence History Timeline

Museum Escape Room

Momentum: Onboarding Presentation

Urban Illustrated Presentation

3D Corporate Reporting

Transcript

"Potrzebuję detektora GenAI."

Nie ma wiarygodnych. Ale potrzebujesz zrobić sobie namysł i wprowadzić zmiany w procesie oceniania.

Pisanie wspomagane przez AI staje się normą

To tzw. pisanie hybrydowe. Już teraz edytory tekstu w popularnych pakietach (np. Microsoft Office i Google Workplace) mają wbudowane narzędzia AI. Jest prawdopodobne, że prawie wszystko, co piszemy, będzie miało elementy generatywnej pomocy AI (w ten sam sposób, w jaki nasze pisanie jest już dziś algorytmicznie wspomagane przez sprawdzanie pisowni i sprawdzanie gramatyki). Przykłady kopiowania całej pracy wytworzonej przez AI bez edycji to skrajne przypadki.

Generatywne systemy wykrywania AI nie są obecnie i prawdopodobnie nie będą w stanie w przewidywalnej przyszłości wykrywać treści generowanych przez AI z wystarczającą dokładnością, aby można było na nich polegać w sprawach takich jak oszustwa akademickie.

Sprawdźmy, co mówią wyniki badań

Analiza skuteczności detektorów AI

Perkins et al. 2024

Analiza skuteczności detektorów AI (m.in. GPTZero, Turnitin, DetectGPT) wobec tekstów poddanych prostym modyfikacjom (parafraza, wstawianie synonimów, zmiana szyku zdań).Wyniki:

  • dla czystych tekstów AI skuteczność detekcji wynosiła ok. 39,5%.
  • Po zastosowaniu prostych technik „maskowania” spadła do 17,4%.
Wnioski: detektory są bardzo podatne na obejścia i nie mogą być traktowane jako narzędzia do decyzji o wysokiej wadze (np. oszustwa akademickie).

Analiza skuteczności detektorów AI

Weber-Wulff et al. 2023

Cel badańskuteczności detektorów AI: 12 narzędzi publicznych (m.in. GPTZero, Writer, Sapling) i 2 komercyjne (Turnitin, PlagiarismCheck).Wyniki

  • detektory wykazują niską dokładność, częściej klasyfikują teksty AI jako „ludzkie” niż odwrotnie
  • skuteczność spada drastycznie, gdy teksty są lekko parafrazowane lub „zamaskowane”
  • narzędzia komercyjne (Turnitin, PlagiarismCheck) radziły sobie niewiele lepiej niż darmowe
Wnioski detektory nie nadają się do stosowania jako dowód w sprawach o wysokiej wadze (np. oszustwa akademickie)

Analiza skuteczności detektorów AI

Elkhatat et al. 2023

Cel badańocena skuteczności najpopularniejszych narzędzi do wykrywania treści generowanych przez AI (m.in. OpenAI Text Classifier, GPTZero, Copyleaks, Writer, CrossPlag).Wyniki

  • skuteczność narzędzi silnie zróżnicowana (lepsza przy GPT-3.5, wyraźnie słabsza przy GPT-4)
  • występowały liczne fałszywe alarmy: teksty ludzkie oznaczano jako „AI”.
  • narzędzia często dawały niejednoznaczne klasyfikacje („prawdopodobnie AI”), co zmniejszało ich wartość praktyczną
Wnioski Detektory AI nie są wystarczająco rzetelne, aby opierać na nich decyzje akademickie lub zawodowe.

Analiza skuteczności detektorów AI

Popkov & Barrett 2024

Cel badańocena skuteczności popularnych detektorów AI na tekstach akademickich (100 artykułów pisanych przez ludzi oraz 200 tekstów generowanych przez modele językowe (ChatGPT, Claude). Porównano narzędzi darmowych i komercyjnych.Wyniki

  • zarówno fałszywie dodatnie (teksty ludzkie oznaczane jako AI), jak i fałszywie ujemne
  • niektóre detektory radziły sobie lepiej z prostymi esejami, ale zawodziły przy złożonych artykułach naukowych
  • różnice w skuteczności były znaczne między narzędziami, ale żadne nie osiągnęło poziomu wiarygodnego
Wnioski Detektory AI są zawodne w kontekście naukowym i nie mogą być traktowane jako podstawa do stwierdzania plagiatu czy oszustwa.

Teksty human-origin i detektory AI

Saha & Feizi 2025

Cel badańocena skuteczności detektorów tekstów pisanych przez ludzi, które zostały jedynie „wygładzone” przez AI (np. poprawa gramatyki, stylu, płynności). Wyniki

  • wiele narzędzi klasyfikowało teksty jako AI-generated, mimo że treść i argumentacja pochodziły od człowieka.
  • granica między tym, co „ludzkie” a „AI” staje się bardzo płynna w przypadku pisania hybrydowego.
  • wysoki poziom wyników fałszywie dodatnich podważa praktyczne zastosowanie detektorów
Wnioski Detektory nie są w stanie rozróżnić subtelnych przypadków współpracy człowieka z AI. Autorzy wskazują na konieczność nowych standardów oceny autentyczności.

Stanowisko ACM U.S. Technology Policy Committee dotyczące zasad tworzenia i używania systemów do wykrywania treści generowanych przez AI. Rosnąca dostępność i użycie AI (teksty, obrazy, audio) wywołały zapotrzebowanie na systemy, które potrafią wiarygodnie wykrywać, czy dane treści zostały w całości lub częściowo stworzone przez AI. Oczekiwania różnych sektorów: Edukacja: uczelnie chciałyby wiedzieć, czy prace studentów były przygotowane z pomocą AI. Pracodawcy: chcą wykrywać użycie AI w aplikacjach o pracę. Media: chcą odróżniać komentarze ludzkie od tych generowanych przez chatboty. Administracja publiczna: potrzebuje rozróżniać autentyczne listy i komentarze od treści generowanych algorytmicznie. Obecnie dostępne technologie detekcji nie są wystarczająco wiarygodne, by można było podejmować na ich podstawie decyzje krytyczne, wpływające na życie i karierę ludzi (np. karać studentów, odrzucać kandydatów do pracy czy uznawać oficjalne dokumenty za fałszywe).

poprzednie artykuły