Sztuczna inteligencja wygenerowała aż 57 procent tekstów dostępnych w sieci

Sztuczna inteligencja wygenerowała aż 57 procent tekstów dostępnych w sieci

ITbiznes
Naukowcy opublikowali wyniki badań, które mogą mieć dalekosiężne konsekwencje dla przyszłości, w której otaczać nas będzie sztuczna inteligencja (AI). W badaniu opublikowanym w renomowanym czasopiśmie Nature dr Ilia Shumailov i jego zespół odkryli zjawisko nazwane „kolapsem modelu” (ang. model collapse). Pojawia się ono, gdy generatywne modele AI, takie jak duże modele językowe (LLM), uczą się na danych wyprodukowanych przez inne AI, zamiast na oryginalnych treściach stworzonych przez ludzi.

Kolaps modelu to proces degeneracyjny, w którym modele AI, ucząc się na danych, które wytworzyła inna sztuczna inteligencja, stopniowo tracą zdolność do poprawnego odwzorowania rzeczywistości. W miarę jak AI w kolejnych cyklach uczy się na treściach generowanych przez poprzednie wersje siebie samej, jej odpowiedzi stają się coraz mniej precyzyjne, a ostatecznie zupełnie oderwane od rzeczywistości. [...]

#technologia #sztucznainteligencja #chatgpt #informatyka #internet #nowetechnologie

Komentarze (23)

VonTrupka

a ile % prac licencjackich i magisterskich? (´・ᴗ・ ` )

NiebieskiSzpadelNihilizmu

@VonTrupka adekwatniejsze pytanie to ile % tekstów to nie są halucynacje

grymas-tysiaclecia

Symulakr to, według Baudrillarda, znak nieodsyłający do niczego poza samym sobą. Za powierzchnią obrazu nie stoi odniesienie, dzieło jest pozbawione aury (tak Benjamin nazywa związek dzieła z czasem i miejscem jego powstania), denotacja pozbawiona konotacji, signifié (element znaczony) – signifiant (element znaczący). Powierzchnia świata jest jego głębią, jest wszystkim, co istnieje.

(...)

W świecie symulakrów nie można odróżnić kopii (przedstawienia) od oryginału (świata jako takiego): w rezultacie rzeczywistość nie tyle znika, ile rozrasta się w nieskończoność odbijana przez kolejne przedstawienia. Kopie narzucają się społeczeństwu jako „oryginalne modele” [9]. Mnożą się formy zatrzymane w rozwoju, zagładzie ulega wszelka celowość. Efekt tej sytuacji jest zatrważający – nie mamy już możliwości ponownego odkrycia niezależnego i absolutnego poziomu rzeczywistości. Rzeczywistość umiera.

58b46168-a6fa-45a8-9392-348d0fed5c4a
GrindFaterAnona

Sztuczna inteligencja wygenerowała aż 57 procent tekstów dostępnych w sieci

@Mr.Mars ze niby w 2 lata podwoiła ilosc dostepnego w internecie tekstu?

VonTrupka

@GrindFaterAnona jak już sporo ludu zaczęło korzystać, to jest to jak najbardziej możliwe.

Chociażby patrząc na ilość nowopowstających przybytków w ecommerce wykorzystujących AI do generowania opisów i promocji.

LovelyPL

To samo było z Google Translator Musieli go cofać, bo zaczął być uczony na własnych tekstach

NatenczasWojski

Skad oni wiedzą które teksty są z AI? Jeśli można to rozpoznać to co za problem aby AI je rozpoznawały i pomijały w modelu uczenia się?

a jeśli nie można to jak to ustalili?

doki16

" Obecnie szacuje się, że około 57% tekstów dostępnych w sieci powstało przy użyciu algorytmów AI, a prognozy wskazują, że do 2025 roku liczba ta może wzrosnąć do 90%."- No to sprawdzam


Artykuł podaje link do jednej pracy naukowej, natomiast brak w niej informacji odnośnie ilości % tekstów wygenerowanych przez SI.


Źródła są jednak podane w tekście, na którym wzorował się autor:  

https://www.forbes.com.au/news/innovation/is-ai-quietly-killing-itself-and-the-internet/


Tekst ten powołuje się na badania amazona : https://arxiv.org/pdf/2401.05749, mówiące o tym że 57% TŁUMACZEŃ tekstów jest wykonanych za pomocą algorytmów wykorzystujących SI (chociaż tak naprawdę nawet tego nie mówi do końca). 


Natomiast w przypadku wartości 90% powołuje się na wypowiedź " Nina Schick, adviser, speaker, and A.I. thought leader " która oszacowała tę wartość w wywiadzie i może to być tak interpretowane. Chociaż według mnie chodziło jej o to, że 90% nowych treści będzie wygenerowanych przez SI. 


https://finance.yahoo.com/news/90-of-online-content-could-be-generated-by-ai-by-2025-expert-says-201023872.html?guccounter=1,

tom-hetman

Nawet logicznie myśląc ten cały artykuł to bzdury co do tytułu. Nawet nie stworzyła pewnie 5%

ChrissXRezner

Google mówiło o tym, że około 90% treści będzie do końca 2026 roku tworzonych przez AI. Co sugeruje i trochę obala ten największy mit AI, że on rozumie co analizuje.

matips

@ChrissXRezner Jaki niby mit? To chyba powszechna wiedza, że LLM (zwane potocznie AI) nie produkują nowych treści, a tylko parafrazują istniejące.

MajkelShuffle

@matips zupełnie jak większość ludzi, who cares?

ChrissXRezner

@matips W powszechnej świadomości inwestorów pojawiło się wiele historyjek o AI tworzącej własny język do komunikacji czy o półświadomości, która analitycznie i racjonalnie patrzy na dane. Gdyby tak było, nie byłoby to problemem.

kodyak

Nie wymyślono nic nowego w kwestii ai od lat 70. Nic się w tej kwestii nie zmieniło. To nawet nie jest ai tylko analizatory treści. Jest to głupie jak but. Pomoże ci wyszukać pomoże nakierować ale nie podejmie za ciebie decyzji.

TRPEnjoyer

@kodyak njemożliwe, a nVidia z wyceną większą niż cała niemiecka giełda to też normalne, haters gonna hate czy jakoś tak.

kodyak

@TRPEnjoyer klasycznie. Jest hype ceny idą w górę. Tak to wygląda jaka ludziom wmówi że wymyśliło się coś rewolucyjnego.


Absolutnie nie należy sie opierac na wycenie. Wycena oznacza tylko tyle że ludzie są w stanie za to zapłacić tyle.


Ot najbardziej spektakularny przypadek to nft. Ludzie uwierzyli że własność obrazka jest coś warte. xD


Sam technologia "ai" da się dosc łatwo spieniężyć np robiąc lodówki które ci powiedzą czego ci brakuje zdalnie, czy zgadza za ciebie światło, napiszą scenariusz, zadzwonią przedstawiając reklamę albo wyłącza wodę itd itp ale nie jest to absolutnie nic odkrywczego.

Tuniex

@Mr.Mars ten artykuł to też AI? Bo nie wiem czy zaliczać to do collapse czy jeszcze nie

TRPEnjoyer

A ja nie wiem, co głupsze: ej aj czy copywritter, jedno i drugie nie rozumie tego, co pisze, ale przynajmniej AI tańsze.

Zaloguj się aby komentować