Komentarze (6)
jak na ten moment działanie gpt-4 w bingu jest upośledzone. Chatbot obraża się gdy pytasz o tematy z poprawnością polityczną albo w połowie generowania odpowiedzi, ją kasuje i wypisuje żart
@MosznaGrodzkiej a to ciekawe, nie wiedzialem. Ja dalej z tego nie korzystalem, bo nie wiem o co chcialbym zapytac
@Niggauke za dużo kontrowersji było w poprzednich latach. Microsoft wprowadził na próbę swojego bota kilka lat temu i w ciągu kilku godzin 4chan tak bardzo go zradykalizował, że bot pisał "hitler did nothing wrong" itp. w kółko. Zanim projekt będzie funkcjonalny, Potrzebna będzie masa nakładu pracy, żeby bot nie radykalizował odbiorcy w którąkolwiek stronę polityczną, szury oczywiście obrażone, bo nie można pisać źle o prawakach / lewakach przez pewien okres czasu, stosując to narzędzie. W tych czasach wystarczą dwa incydenty i tuzin nagłówków z topowych mediów, żeby zszargać reputację do tego stopnia, że musisz zaorać cały projekt.
@Niggauke ja np znalazłem dzięki niemu część do irygatora, przez wyszukiwarkę google nie dało rady. No i kupiłem telefon, wpisałem co oczekuje i nawet bym nie pomyślał, że będę korzystał z motoroli
@MosznaGrodzkiej no jest dramat i ogólnie gpt używane przez MS jest kompletnie bezużyteczne dla mnie. Obraża się o wszystko, raz potrafi ułożyć, np playlistę, a później nie. Jak wytkniesz, że nie podał szczegółów lub ma rozwinąć odpowiedź, to potrafi zablokować i tyle.
za darmo?
Zaloguj się aby komentować