W ostatnich dniach zdominowanych przez różnorakie wieści o #ai i w ogóle ogłoszeniu że 2025 będzie rokiem "sztucznej inteligencji" (ciekawe czy będzie to taki sam rok jak roki linuxa XD), chciałem też poruszyć ten temat, a mianowicie zapytać:

Czy zauważyliście spadek jakości #chatgpt w ostatnim czasie?

Bo ja zdecydowany, ale nie wiem na ile to problem jednostkowy a na ile globalny. Nie używam go super często (darmowa subskrypcja z reguły wystarcza), zacząłem jakoś w ale kiedyś mam wrażenie działał lepiej, a od dwóch dni to w ogóle jakbym rozmawiał z zupełnie innym modelem, mimo że w historii wszystko ma zapamiętane!. Opiszę swoje przykłady bo ciężko mi to zebrać w skrócie:

"Konsultuję się" z gpt w sprawie scenariuszy i fabuł, które przygotowuję na sesje D&D. Początkowo dość szybko złapał mój styl gry, pamiętał postacie, ich przygody, odwiedzone lokacje, jakieś większe koncepcje świata różniące się od tych z podręczników - i potrafił elegancko podpowiedzieć gdzie jakiego potwora można spotkać, jaka pułapka-zagadka byłaby dobra do rozwiązania przez konkretnego członka drużyny, wymyślić jakiś artefakt, zasugerować zaklęcie (i nawet podać podręcznik i stronę XD).
W poniedziałek poprosiłem go o to samo i wypluł mi jakąś generyczną odpowiedź, gdzie rzucał losowymi wymyślonymi nazwami, nie skojarzył wcale poprzednich gier ani "na czym skończyliśmy" chociaż wcześniej ogarniał to perfekcyjnie, sam wymyślał zaklęcia a logiki w jego uzupełnieniu do scenariusza nie można się było doszukać żadnej.

Czasem pytam czat o jakieś szczegóły związane z grą/serialem. Mówię w którym momencie fabuły jestem i proszę żeby nie spojlerował. I zawsze elegancko dostawałem odpowiedź bez spojlerów.
A dziś poprosiłem o wyjaśnienie jednej kwestii w grze, bez spojlerów bo jestem jeszcze na początkowym etapie, a nie wiem czy coś przeoczyłem czy później się tego dowiem - pytanie na które odpowiadasz tak albo nie. To mi jebaniutki opisał całe zakończenie wątku fabularnego zanim odpowiedział XD

No i w sumie temat do którego używam go najczęściej, prawie codziennie od października: bajki o "policyjnym tramwaju" XD Dzieciak poprosił o taką przed snem, opowiedziałem mu, spodobała się i chciał jeszcze - wtedy posiliłem się czatem, bo temat dość abstrakcyjny a miałem pustkę w głowie. I po kilku promptach doprecyzowujących miałem całe spójne uniwersum (na standardy bajek dla 3latków) XD Czasem podaję konkretnie o czym ma być następna historyjka, ale najczęściej piszę tylko "jeszcze" i ten ogarnia całą 'oryginalną' fabułę. Zawsze korzystam z tego samego czata, tj. wybieram w historii i mam wgląd na wszystkie poprzednie historyjki.
Od kilku dni bajki się powtarzają, albo zmienia w nich pojedyncze postacie i miejsca, a fabuła i dialogi są te same XD Jak proszę o poprawienie, to generuje jakąś bajkę którą już opowiadał, ale innymi słowami. Przedwczoraj to w ogóle po pierwszym prompcie od ponad 48h (bo tyle go nie używałem) wysypał error, nie odpowiedział i oznajmił że skończył mi się plan i żebym korzystał dalej to muszę wykupić (nie mogłem nawet korzystać z tej biedniejszej wersji modelu, jak to było kiedyś). A wczoraj jak poprosiłem o bajkę, to odpisał żebym podał mu tytuł o czym ma być XD Jak kazałem wymyślić mu samemu, to "wymyślił" ostatnią bajkę jaką mi wygenerował, po zwróceniu uwagi wymyślił nową, ale całkowicie pozmieniał imiona bohaterów a samą bajkę generować musiałem na 3 zapytania. Bo w samym środku akcji bajka kończyła się "Czy uda im się rozwiązać ten problem?" XD I co lepsze, jak prosiłem o kontynuację, to przepisywał ostatni akapit z poprzedniej odpowiedzi, ale go trochę zmieniał, w tym fabularnie.
A jak spytałem kiedy opowiedział mi pierwszą bajkę z tej serii, to dostałem odpowiedź, że nigdy mi takiej nie opowiadał XD

No generalnie czat mi ostatnio strasznie halucynuje i odstawia cyrki na kółkach, trochę słaba reklama w momencie jak już zacząłem bardzo poważnie rozważać przejście na premium XD

Ktoś też ma podobne problemy? Co może być alternatywą, deepseek legit czy scam?
Oczk userbar
26

Komentarze (26)

@Oczk - kolos na glinianych nogach utrzymywany przy życiu miliardami, które właśnie wysychają.

A to czego doświadczasz wygląda mi na optymalizację kosztów względem jakości.

Ale przyjdzie kolejna wersja i przez jakiś czas będzie wystarczająco dobra.

@koszotorobur pewnie ta optymalizacja kosztów związana z chińćzykami, którzy pokazali że da się taniej i teraz się managementowi nie zgadzają słupki w excelu XD

@Oczk czemu DeepSeek ma być scamem, skoro jest dostępny za darmo i możesz się nim pobawić praktycznie bez żadnego ryzyka?

@Oczk wysyłanie wrażliwych danych na choata jest głupie.

Nie ważne czy to chiński czy amerykański xD

@entropy_ no to oczywista oczywistość powinna być. Bardziej z pytaniem "legit czy scam" i takim wyciekiem miałem na myśli obawę, czy jakieś inne kwiatki nie wychodzą na jaw - o cenzurze dot. chin nie ma co nawet wspominać XD

@Oczk ok, Twoje bajki o tramwaju wypłyną xD. Jak nie używasz do jakichś wrażliwych danych to co możesz stracić?

@FoxtrotLima odpowiedzieliśmy w tym samym czasie


Bardziej z pytaniem "legit czy scam" i takim wyciekiem miałem na myśli obawę, czy jakieś inne kwiatki nie wychodzą na jaw


Nie zagłębiałem się w temat i po prostu nie wiem na ile otwarty jest deepseek i jak on tam sobie dokładnie działa, czy zbiera jakieś dane, cokolwiek

@Oczk no jasne, że zbiera, co to w ogóle za pytanie xD Tak jak mówię, do bajek o tramwajach moim zdaniem nie ma się czego bać i używałbym śmiało.

Jak chcesz to zawsze możesz sobie ściągnąć model i używać offline (jak masz wystarczająco dobre GPU). Wtedy w ogóle nie ma problemu z prywatnością i potencjalnymi wyciekami.

Jak chcesz to zawsze możesz sobie ściągnąć model i używać offline (jak masz wystarczająco dobre GPU). Wtedy w ogóle nie ma problemu z prywatnością i potencjalnymi wyciekami.

@FoxtrotLima a to nie wymaga właśnie jakiejś kosmicznej ilości ramu? Czy to o kompilację chodziło?


Nie mam zamiaru Cię obrazić, ale Twoje zrozumienie mojego pytania i obaw dotyczących nagłego pojawienia się modelu który rzekomo robi to samo tylko 100x taniej i za darmo, jest na podobnym poziomie co moja komunikacja z gpt w ostatnich dniach XD

@Oczk vramu owszem, dobry RTX z min. 10gb jest potrzebny.

Co do pytania, to ja je zrozumiałem tak, że masz obawy (słuszne) o prywatność. Więc moja odpowiedź była taka, że jeśli chcesz go używać do generowania bajek o tramwajach to jakie jest ryzyko, jeśli ktoś tego typu dane przechwyci? Co innego wysyłać tam wyniki swoich badań czy skany paszportu a co innego konwersować o bajkach. Konsekwencje w kwestii potencjalnego wycieku będą zgoła różne.

@Oczk RAM albo karta graficzna z VRAM. Ogólnie maks co Ci się włączy sumujesz RAM+VRAM - 2 = X no i to maks w gigabajtach co pobierzesz. Modele tupu 0.5, 1.5b też używam do zadania typu: mam 300 plików, chcę z nimi zrobić x, i mi generuje powershella albo pythona do zadania x.

Czasami 90% zadania to jest good enough

@FoxtrotLima nie jest 10gb potrzebne koniecznie. Ollama / vllm wrzucą tyle modelu w gpu ile dadzą radę a resztę na cpu. Na starym laptopie z 4gb vramu modele 8gb działają "akceptowalnie" (ale mam procesor z 18 wątkami)

@entropy_ o, to dobrze wiedzieć.

@FoxtrotLima no ollama i vllm dość dobrze sobie z tym radzą, ale niektóre modele mogą się włączyć 35% gpu 65%cpu mimo że teoretycznie więcej by się zmieściło na karcie. to zależy od wewnętrznej konstrukcji modelu niestety.

Jeszcze możesz zrobić klaster obliczeniowy z tego:

https://github.com/exo-explore/exo

@entropy_ hehe, ciekawy patent. W teorii wystarczy pc z jakimś przyzwoitym gpu plus kilka starych laptopów z jakąś przyzwoitą ilością ramu (ram zawsze można dokupić za grosze) i można bzikać w miarę sensownie.

@Oczk ja płacę, ale za api. Do takich zadań jak masz to chyba się nie opłaca premium kupować xD

Używam tego głównie do "cut de bulshit" w sensie informacji o x bez przebijania się przez gówno które seowcy wymysłili żeby uch google wybił i jako wyszukiwarka jest gorszy niż perplexity chyba.

A co do gier to jak dla mnie zawsze był za bardzo ocenzurowany żeby się do tego nadawał.

Używam tego głównie do "cut de bulshit" w sensie informacji o x bez przebijania się przez gówno które seowcy wymysłili żeby uch google wybił i jako wyszukiwarka jest gorszy niż perplexity chyba.

@entropy_ a zapomniałem o tym napisać, też używam do podawania źródeł bo szukanie czegoś w google to jest jebana katorga teraz


O premium myślałem bo czasem mi brakowało darmowych promtów jak się za bardzo rozgadałem, a na wieczór trzeba było bajeczki dostarczyć XD No i pewnie jakbym mógł to bym częściej korzystał, jak sobie coś prywatnie dłubię to czasem mi fajny kod podpowie

@Oczk co do fajnego kodu, R1 14b na moim laptopie dość dobrze sobie radzi. Daję mu moje pliki, zadanie i leć malutki.

W mojej prywatnej opinii Claude 3.5 zawsze był znacznie lepszym programistą niż chatgpt dowolny. Jakoś mniej problemów z nim miałem zawsze.

@entropy_ obecnie chyba to ctb nie za bardzo pyknie, bo od 24h nie działa wyszukiwanie na największych portalach, typu The Guardian. Sam używam go głównie do wyszukiwania źródeł do wpisów i czegoś, co mogłem pominąć, ale chyba przestało działać. No chyba, że to tylko mój problem.


@Oczk a przeglądasz zapisaną pamięć? Nie wiem czy jest do niej dostęp na komputerze, bo przynajmniej ja go nie znalazłem, ale na telefonie jest prosty. Jak za dużo jest tam "śmieci", to zacznie się gubić. Lepiej to wyłączyć i korzystać z menu projektów. Każdy z własnymi instrukcjami, które uaktualniasz po każdej "rozmowie". Co do reszty, to może być tak, jak piszą z tą optymalizacją, ale równie dobrze może być tak, jak w przypadku GPT3.5 gdzie przed wyjściem 4.0 sprawili, że był głupszy, żeby ten kolejny wywołał większy efekt wow. (Pomijam o1, bo to inny model trochę)

@Dziwen właśnie na telefonie czyściłem ostatnio pamięć ze śmieci, zostawiłem te same "istotne" rzeczy. Tak czy inaczej korzystam właśnie z projektów (nie wiedziałem że to się tak nazywa), i te problemy pojawiają się mimo korzystania z tych samych "okienek" w konkretnych tematach.


Tak czy inaczej mają chujowy marketing/model biznesowy XD

@Oczk też używam chata gpt do generowania bajek, tylko sam mówię jakie mają być postacie. U mnie jeszcze ogarnia główną postać, ale sama fabuła często się powtarza i bajka zawsze jest z tego samego schematu generowana.

Nie wiem jak było dużo wcześniej bo od niedawna korzystam

Ja mam płatną wersję i staram się korzystać w pracy - tak aby znać i uczyć się nowych narzędzi. Dobrze sprawdza się do tego aby mu wrzucić tekst i poprosić o korektę, propozycje poprawek etc. Spoko analizuje dane w tabelkach, zlicza itp.


Analiza tekstów - w moim wypadku prawnych - to jest loteria XD Zazwyczaj mówi o czym innym, skupia się na jakiś zupełnych, nieistotnych szczegółach. Jak mu wrzucę plik z orzeczeniami, które chce z nim omówić to mi ściemnia jakby wiedział co chce usłyszeć XD Wczoraj chciałem aby mi jeden wyrok TSUE omówił to wgl wymyślił coś zupełnie od czapy. Ofc można go korygować, prosić o doprecyzowania, inaczej zadawać pytania itp ale nie zmienia to ciągle faktu, że zaufać mu nie można.


Wniosek dla mnie jest taki - jest to fajne narzędzie ale to tylko narzędzie. Może wkrótce się jeszcze rozwinie ale póki co daleko nam do rewolucji. W tym miejscu pozdrawiam gadające głowy, które wieściły koniec świata w 6 miesięcy po uruchomieniu czata XD

O boże! Oczk!

@Oczk jedyne, co ai robi nieźle to śmieszne obrazki iporno

Zaloguj się aby komentować