Analiza/ Kopiuj i wklej z ChatuGPT w publikacjach naukowych z górnej półki

Analiza/ Kopiuj i wklej z ChatuGPT w publikacjach naukowych z górnej półki

Nauka w Polsce
Pewne niezgrabne frazy charakterystyczne dla ChatuGPT pojawiają się w recenzowanych publikacjach w czasopismach naukowych - wynika z analizy prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach. Zdaniem badacza może to podkopywać zaufanie do procesu przygotowywania treści naukowych.

W odpowiedziach tworzonych przez ChatGPT pojawiają się pewne charakterystyczne, nie używane raczej przez ludzi struktury jak np. "Według mojej wiedzy na dzień ostatniej aktualizacji...", "Mam nadzieję, że to pomoże!", "Oczywiście! Tutaj jest/są ...", "Cieszę się, że mogę pomóc!", "Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!".

Dr hab. Artur Strzelecki, prof. Uniwersytetu Ekonomicznego w Katowicach postanowił sprawdzić, czy "nienaturalne" sformułowania tego typu zaczęły się częściej pojawiać w anglojęzycznych publikacjach naukowych. To zaś zdradza, że autorzy publikacji bezmyślnie przekopiowali do swojego artykułu naukowego fragment wypowiedzi ChatuGPT. A w dodatku nie zostało to zauważone przez współautorów, recenzentów, ani redaktorów czasopisma. [...]

#nauka #polska #publikacja #czasopisma #naukowcy #chatgpt #naukawpolsce
19

Komentarze (19)

Pieknie cała wiedza pojdzie w huj, jeszcze wrocimy do bibliotek bo w internecie nie będzie dało sie znależć coś konkrnetego przez nawał gówno treści AI :<

@konrad1 nie dosc, ze mamy fake newsy to bedziemy miec fake content

@konrad1 już z tym zaczyna być problem. Patrząc na wyniki wyszukiwań sprzed lat, a teraz to jest masakra.

@konrad1 już tak się powoli dzieje. Poczekajmy, aż AI do końca odpali tryb habsburga i zacznie festiwal kazirodczego podpierdalania sobie sztucznych wyników od siebie nawzajem to dopiero zobaczysz jaki pierdolnik się zrobi. Polecam https://www.zerogpt.com/ - wrzucasz tekst i się możesz zdziwić jak nawet te "gównonewsy" z jakichś agregatów bardzo są wynikami promptów, a cała praca nazwiska, pod którym to zostało opublikowane ogranicza się do drobnego przeredagowania niektórych zdań i przecinków.

@NiebieskiSzpadelNihilizmu wszystko fajnie, tylko automatyczne detektory tekstowe nie działają za dobrze i potrafią interpretować ludzki tekst jako wygenerowany i wcale nie zanosi się na to, żeby miało być lepiej, wykrywalność powinna tylko spadać.

@NiebieskiSzpadelNihilizmu NO jestem tego niezwykle ciekaw, gdy LLM zacznie uczyć się z promtów innyczh LLMów, czy dojdzie do kanibalizacji, kazirodztwa i spektakularnej implozji, czy zaczną wydawać coraz więcej i więcej na selekcjonowanie danych.

@Mr.Mars Problemem jest system recenzji, który jest nieodpłatny. czasopisma naukowe powinny sowicie opłacać swoich recenzentów, wszak to oni są gwarantem że to co wleci do czasopisma, jest wartościowe, tymczasem recenzent nie dostaje nic, a recenzja takiego artykułu może trwać długie godziny jak nie dni. Czemu to robią pytacie się? Bo mają nadzieje że dzięki temu ich artykuły ktoś zrecenzuje. A nad nimi siedzi takie Elsevie czy inny moloch i bierze pieniądze za wydanie artykułu, oraz za dostęp do niego. Finansowe perpetum mobile.

@Mr.Mars no ale przecież nikt przy zdrowych zmysłach nie kopiowałby do swego artykułu zwrotów typu "Mam nadzieję, że to pomoże!", "Oczywiście! Tutaj jest/są ...", "Cieszę się, że mogę pomóc!"? Nikt, prawda?

@rain Problem istnieje i narasta. Ostatnio widziałem reklamę aplikacji do pisani artykułów naukowych. Zawierała też "przełączniki" umożliwiające humanizację tekstu. Oczywiście oparta o SI - jedyne 69$ i dożywotnia licencja

@pacjent44 też widziałam taką reklamę, dosłownie dzisiaj. Trochę strach się bać co z tego wyjdzie.

@rain Stracą sens wszelkie artykuły pisane jako zbiór już dostępnej wiedzy. Na przykład magisterki

@pacjent44 akurat magisterki zazwyczaj nie miały sensu, bo mało który student byłby w stanie wymyślić coś sensownego, a później sensownie zaprojektować badanie i je zrealizować xD.

@BoJaProszePaniMamTuPrimaSorta pełna zgoda. Jednak jest masa prac naukowych, które zbierają punkty za publikację, a zbudowanych wg tego schematu.

Czyli dalszy rozwój sieci prowadzi do coraz większej glupoty

@kodyak tak bo absurd polega na tym, ze AI generuje już treści, które potem samo przetwarza więc uczy się własnych błędów i je powiela xD

@100mph a podaje wyniki uśrednione, zawsze obcinając ekstrema

Lem to jednak miał słuszne przemyślenia.

„Twierdził, że nadmiar treści, zwłaszcza w erze cyfrowej, prowadzi do powierzchownego przyswajania wiedzy, co może negatywnie wpływać na zdolność krytycznego myślenia. Lem mówił także o tym, jak codzienne życie podlega wpływowi technologii, która może ograniczać naszą samodzielność i zdolność refleksji.”

@Mr.Mars to nie jest aż tak oczywiste, bo zdarzają się już przypadki interpretowania tekstu jako tekst z GPT, który był napisany przez człowieka. Samo czytanie generowanych treści przez AI może wpływać na styl pisania, co może doprowadzać do błędów w wykrywaniu.


Z drugiej strony rozumiem, że mówimy o polskiej nauce, która sama ma mnóstwo problemów i raczej niską jakość. Nie jest więc dziwnym, że ludzie próbują jak mogą.

Jak od kołyski wszyscy będą korzystać z ai do generowania treści, to zgłupiejemy jako cywilizacja, bo będzie zanikać umiejętność pisania, myślenia i interpretacji. I będziemy lepszym materiałem do manipulowania przez treści ai.

Zaloguj się aby komentować