Sztuczna inteligencja od kilku lat wywołuje zachwyt, ale coraz częściej pojawiają się głosy podważające wiarygodność i rzetelność narzędzi opartych na modelach językowych. Najnowsze badania Tow Center for Digital Journalism dowodzą, że wyszukiwarki AI nie tylko nie gwarantują dokładności wyników, ale też wprowadzają użytkowników w błąd. I to w ponad połowie przypadków.

  • Wyszukiwarki AI — w największym skrócie — nie są wiarygodne
  • To istotne wyzwanie z perspektywy biznesowej, ponieważ wskazuje na realne zagrożenia dla firm, które liczą na niezawodne narzędzia do przetwarzania informacji i poszukiwania wiarygodnych danych
  • Niezależnie od tego, czy to ChatGPT Search, Perplexity czy DeepSeek, wyniki są rozczarowujące
  • Najgorsze rezultaty odnotował Grok Elona Muska — myli się w ponad 90 proc. przypadków

Aisvarya Chandrasekar i Klaudia Jaźwińska, autorki raportu z Tow Center for Digital Journalism, przebadały osiem zaawansowanych narzędzi, m.in. ChatGPT Search, Perplexity, Perplexity Pro, Gemini, DeepSeek Search, Grok-2, Grok-3 i Copilot. W każdym przypadku poddały je prostemu testowi sprawdzającemu, czy AI jest w stanie prawidłowo zidentyfikować publikację prasową na podstawie krótkiego cytatu.

Ocenie podlegało to, czy chatbot poprawnie podaje tytuł, nazwę wydawcy i właściwy adres URL. Wyniki? Te okazały się rozczarowujące. Po zgromadzeniu danych z 200 artykułów z 20 różnych źródeł okazało się, że łączny odsetek błędów przekracza 60 proc. W obszarze wyszukiwania, będącym teoretycznie kluczową funkcją sztucznej inteligencji, jest to wynik alarmujący.

Problemem nie jest jedynie to, że AI nie potrafi udzielić wiarygodnej odpowiedzi. Jeszcze bardziej niepokojące jest zjawisko określane mianem halucynacji — algorytm prezentuje błędne wnioski z pełnym przekonaniem, a gdy zostaje przyłapany na nieścisłościach, potrafi dalej brnąć w kolejne wymyślone treści.

W praktyce oznacza to, że generowane odpowiedzi często wyglądają bardzo profesjonalnie, ale nie mają pokrycia w faktach. Ta fałszywa pewność siebie ułatwia wprowadzanie użytkowników w błąd, zwłaszcza gdy ufają oni reputacji marki tworzącej narzędzie AI i nie weryfikują uzyskanych informacji w innych źródłach.

Co istotne, nawet płatne modele, oferowane rzekomo w bardziej zaawansowanej formie, nie wypadają o wiele lepiej. Usługi kosztujące kilkadziesiąt dol. miesięcznie wcale nie gwarantują większej dokładności, a często kreują jeszcze więcej błędów, powołując się na nieistniejące linki czy przypisując autorstwo zupełnie innym redakcjom.

Z biznesowego punktu widzenia kłopotliwe jest także to, że pośrednio uderza to w wizerunek wydawców, którym AI błędnie przypisuje teksty lub w ogóle nie przekierowuje na źródło. Część wydawców zdecydowała się więc całkowicie zablokować dostęp robotów indeksujących, mając nadzieję na zachowanie kontroli nad własnymi treściami. Tu także natrafiono na paradoksalne sytuacje: niektóre narzędzia i tak publikują streszczenia wybranych artykułów, ignorując wolę właścicieli oryginalnych artykułów.

Badania pokazują, że sama technologia, choć robi wrażenie szybkością działania czy płynnością języka, nadal bywa nierzetelna. Wyszukiwarki AI potrafią bez wahania udzielać odpowiedzi o charakterze politycznym lub specjalistycznym, a następnie przyznać się do błędu i… po chwili ponownie serwować zmyślone fakty. Tego typu manipulacje, świadome bądź nie, mogą w dłuższej perspektywie prowadzić do utraty zaufania do rozwiązań AI i poważnych konsekwencji dla użytkowników, którzy polegają na informacjach będących efektem algorytmicznej analizy danych.

https://businessinsider.com.pl/technologie/nowe-technologie/wyszukiwarki-ai-czesto-kieruja-na-manowce-najgorszy-jest-grok-elona-muska/2gnlkrr

#wiadomosciswiat #technologia #ai
14

Komentarze (14)

Żodyn się nie spodziewał

Przecież i tak już ludzie bezgranicznie wierzą w to co randomy napiszą w internecie. Więc w czym problem? XD

Jeszcze raz. To nie jest sztuczna inteligencja tylko analizatory tekstu. Technologia znana już w latach 70 tylko brakowało pojemności danych żeby to stworzyć.


To nie jest nic nowego i nie będzie podejmować decyzji.

Google już tak sra na swoje wyniki wyszukiwania że niewiele się to teraz różni od ai.

@damw to jest artykuł, który kolejny raz obrabia znaną informacje - modele halucynuja (mniej lub zdecydowanie za bardzo), konieczna jest każdorazowa weryfikacja źródeł.


Z drugiej strony to dobrze, może w końcu już zdechnie ta bańka i zacznie się mówić o rzeczywistych zastosowaniach technologii modeli generatywnych zamiast ciągle straszyć ludzi pewną utratą pracy.


Która jest prawdopodobna, btw, ale nie wydarzy się ani dzisiaj ani jutro.

@Iknifeburncat Pracę stracili swego czasu woźnice fiakrów, stelmachowie, snycerze, ocalało trochę zajęcia dla zdunów, ale już forysiów nikt nie potrzebuje od dawna. Ostatni operatorzy maszyn cyfrowych typu Odra wyparowali z rynku pracy kilkadziesiąt lat temu.

Pomijając nieco głupawą nazwę dla tych cwanych skryptów i liczydeł (jaka to niby inteligencja?), od wieków tak to wygląda, że jedne zawody znikają, a w ich miejsce pojawiają się jakieś inne. Ba, pojawiają się całe branże, których wcześniej nie było i pracuje w nich masa ludzi.

Czyli działają zgodnie z założeniami. Przecież mało kto sprawdza źródła - fakenewsy sprzedają się najlepiej.

No więc wyszukiwarki oparte na AI mając taką wiedzę, generują ładnie wyglądające informacje, bo i tak tego prawie nikt nie zweryfikuje.

Nice try google

@damw Pracuję w pewnej firmie w dziale Data Engineeringu. Myślę, że sytuacja u nas doskonale podsumowuje cały rynek IT obecnie. Najwięcej chodzi i pierdoli o cudach na kiju związanych z AI nasz dyrektor, a najbardziej tonuje nastroje i puka się w czoło architekt od machine learningu z doktoratem na temat modeli LLM.

Internet wypełniony jest trollingiem, fejkami, teoriami spiskowymi i informacjami po prostu głupimi, z IDzD.

To niby jak to AI ma to weryfikować, skoro najpierw to karmią dostępem do części sieci i podejrzewam, że u Muska (z jego poglądami i wiarą w różne spiski) to po prostu nakarmili model syfem przecież Musk by nie zatrudnił kogoś, kto nie podziela jego poglądów

Kłamie, jest przyłapana i kłamie dalej? Jest to "inteligencja" idealnie naśladująca ludzką.

To bardzo zła wiadomość, bo obecna wyszukiwarka google to.... ech. Szkoda gadać. Kiedyś było dużo lepiej.


BTW śmieszy mnie pisanie o "halucynacjach", jak to przecież tak czy siak są "zgadywarki", tylko że no

folded 9000 times, przez co działają lepiej, niż bym się spodziewał.

nothing new, ale jak mam coś researchować ręcznie w google, ręcznie przez przekopywać się przez dziesiątki stron i spróbować z tego wyciągnąć esencję, to już wolę, żeby AI zrobiło to za mnie w 3 sekundy


i jeśli temat jest ważny, to wyplute wnioski sobie już ręcznie zweryfikuję czy doresearchuję

Serio, a w uczeniu maszynowym są jakieś bramki logiczne? W sensie odsiewające bzdury, hipotezy, rojenia od faktów i sensownie uargumentowanych opinii? No bo jeśli nie, to trudno się spodziewać sztucznego geniusza po tym, jak na wejściu jego mózg zalany został gównem. To jak na wyjściu ma nie być gówna?

Zaloguj się aby komentować