-
Wyszukiwarki AI — w największym skrócie — nie są wiarygodne
-
To istotne wyzwanie z perspektywy biznesowej, ponieważ wskazuje na realne zagrożenia dla firm, które liczą na niezawodne narzędzia do przetwarzania informacji i poszukiwania wiarygodnych danych
-
Niezależnie od tego, czy to ChatGPT Search, Perplexity czy DeepSeek, wyniki są rozczarowujące
-
Najgorsze rezultaty odnotował Grok Elona Muska — myli się w ponad 90 proc. przypadków
Aisvarya Chandrasekar i Klaudia Jaźwińska, autorki raportu z Tow Center for Digital Journalism, przebadały osiem zaawansowanych narzędzi, m.in. ChatGPT Search, Perplexity, Perplexity Pro, Gemini, DeepSeek Search, Grok-2, Grok-3 i Copilot. W każdym przypadku poddały je prostemu testowi sprawdzającemu, czy AI jest w stanie prawidłowo zidentyfikować publikację prasową na podstawie krótkiego cytatu.
Ocenie podlegało to, czy chatbot poprawnie podaje tytuł, nazwę wydawcy i właściwy adres URL. Wyniki? Te okazały się rozczarowujące. Po zgromadzeniu danych z 200 artykułów z 20 różnych źródeł okazało się, że łączny odsetek błędów przekracza 60 proc. W obszarze wyszukiwania, będącym teoretycznie kluczową funkcją sztucznej inteligencji, jest to wynik alarmujący.
Problemem nie jest jedynie to, że AI nie potrafi udzielić wiarygodnej odpowiedzi. Jeszcze bardziej niepokojące jest zjawisko określane mianem halucynacji — algorytm prezentuje błędne wnioski z pełnym przekonaniem, a gdy zostaje przyłapany na nieścisłościach, potrafi dalej brnąć w kolejne wymyślone treści.
W praktyce oznacza to, że generowane odpowiedzi często wyglądają bardzo profesjonalnie, ale nie mają pokrycia w faktach. Ta fałszywa pewność siebie ułatwia wprowadzanie użytkowników w błąd, zwłaszcza gdy ufają oni reputacji marki tworzącej narzędzie AI i nie weryfikują uzyskanych informacji w innych źródłach.
Co istotne, nawet płatne modele, oferowane rzekomo w bardziej zaawansowanej formie, nie wypadają o wiele lepiej. Usługi kosztujące kilkadziesiąt dol. miesięcznie wcale nie gwarantują większej dokładności, a często kreują jeszcze więcej błędów, powołując się na nieistniejące linki czy przypisując autorstwo zupełnie innym redakcjom.
Z biznesowego punktu widzenia kłopotliwe jest także to, że pośrednio uderza to w wizerunek wydawców, którym AI błędnie przypisuje teksty lub w ogóle nie przekierowuje na źródło. Część wydawców zdecydowała się więc całkowicie zablokować dostęp robotów indeksujących, mając nadzieję na zachowanie kontroli nad własnymi treściami. Tu także natrafiono na paradoksalne sytuacje: niektóre narzędzia i tak publikują streszczenia wybranych artykułów, ignorując wolę właścicieli oryginalnych artykułów.
Badania pokazują, że sama technologia, choć robi wrażenie szybkością działania czy płynnością języka, nadal bywa nierzetelna. Wyszukiwarki AI potrafią bez wahania udzielać odpowiedzi o charakterze politycznym lub specjalistycznym, a następnie przyznać się do błędu i… po chwili ponownie serwować zmyślone fakty. Tego typu manipulacje, świadome bądź nie, mogą w dłuższej perspektywie prowadzić do utraty zaufania do rozwiązań AI i poważnych konsekwencji dla użytkowników, którzy polegają na informacjach będących efektem algorytmicznej analizy danych.
https://businessinsider.com.pl/technologie/nowe-technologie/wyszukiwarki-ai-czesto-kieruja-na-manowce-najgorszy-jest-grok-elona-muska/2gnlkrr
#wiadomosciswiat #technologia #ai