„Ciche poprawki” i wstyd wydawców. Sztuczna inteligencja coraz mocniej kompromituje naukę
W świecie nauki narasta cichy kryzys związany z nieujawnionym wykorzystaniem sztucznej inteligencji. Setki publikacji zawierają fragmenty wygenerowane przez ChatGPT, często bez wiedzy recenzentów i wydawców. Eksperci alarmują: bez pełnej transparentności zaufanie do badań może zostać poważnie podważone.

Fot. Pixabay
„Nature” alarmuje: ukryte użycie ChatGPT w badaniach
Skala wątpliwości dotyczących wykorzystywania sztucznej inteligencji w publikacjach naukowych rośnie. Jak podkreśla prof. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach, coraz lepiej widać, jak poważny jest to problem. Najnowsze ustalenia opublikowało prestiżowe czasopismo „Nature”.
Setki prac z chatbotowymi wstawkami
Dziennikarka „Nature”, Diana Kwon, ujawniła, że w setkach artykułów naukowych pojawiają się charakterystyczne zwroty chatbotów, jak „as an AI language model” czy „as of my last knowledge update”. Często są one wklejane bez żadnej deklaracji o użyciu narzędzi AI. To podważa wiarygodność procesu recenzji naukowej i sieje chaos w środowisku akademickim.
Prof. Strzelecki już w 2024 r. opisał podobne zjawisko na łamach „Learned Publishing”. Wykazał wtedy, że nieoznaczone fragmenty generowane przez AI pojawiają się nawet w prestiżowych czasopismach indeksowanych w bazie Scopus. W analizie znalazł aż 89 takich przypadków.
„Ciche korekty” i brak przejrzystości
Problem nie kończy się na nieujawnionym użyciu AI. „Nature” zwróciło uwagę na praktykę „cichej korekty” – usuwania podejrzanych fragmentów z opublikowanych już artykułów bez oficjalnych sprostowań.
– Wydawnictwa orientują się, że przepuściły błędy, ale zamiast poinformować o zmianach, po prostu poprawiają tekst – mówi prof. Strzelecki. – Udało mi się archiwizować oryginalne wersje takich prac, zanim zostały zmienione.
Efekt domina: fałszywe dane w cytowaniach
Nieujawnione wtręty AI są już cytowane przez kolejnych badaczy. To prowadzi do niebezpiecznego zjawiska – błędne informacje są powielane w literaturze naukowej.
– Jeśli praca powstała z pomocą AI, a jej fragmenty nie zostały oznaczone, kolejne osoby mogą uznać je za w pełni wiarygodne. A sztuczna inteligencja potrafi „zmyślać” – ostrzega profesor.
Wydawnictwa reagują, ale problem narasta
Redaktorzy „Nature” skontaktowali się z największymi wydawcami, takimi jak Springer Nature, Taylor & Francis czy IEEE. Wszyscy zapewnili, że sprawdzają wskazane prace. Jednak w wielu przypadkach polityki wydawnicze nadal nie wymagają ujawniania użycia AI, jeśli dotyczy ono wyłącznie korekty językowej.
Ekspert z USA, Alex Glynn, prowadzi nawet własny rejestr takich przypadków. Obejmuje on już ponad 700 publikacji.
Używać, ale świadomie
Prof. Strzelecki podkreśla: sztuczna inteligencja może być przydatnym narzędziem, zwłaszcza dla autorów nieanglojęzycznych. Jednak kluczowa jest przejrzystość.
– Nie pytajmy już, czy korzystać z AI, tylko jak to robić – mówi. – Tam, gdzie chodzi o pomoc w korekcie gramatyki czy stylistyki, można dopuścić użycie AI bez obowiązku deklaracji. Ale jeśli AI analizuje dane lub pomaga w pisaniu treści merytorycznych, autorzy powinni to jasno zaznaczać.
Nowa era publikacji naukowych
Środowisko naukowe stoi przed dużym wyzwaniem. Szybkie rozprzestrzenianie się narzędzi AI zmienia zasady gry. – Już dziś użytkownicy Google dostają wyniki wygenerowane przez sztuczną inteligencję zamiast surowych informacji – zauważa prof. Strzelecki.
Wnioski są jasne: pełna transparentność w wykorzystaniu AI w publikacjach to nie wybór, lecz konieczność, jeśli chcemy utrzymać zaufanie do nauki.

Kocham Warszawę, podróże i gastronomię i to właśnie o nich najczęściej piszę.