P.S. I co tam lamusy modelek wessal Erwinka i teraz pisze wiersze o ruchaniu owiec ?? XDD do kasacji z nim.
#gownowpis #llm #przemyslenia #tagowanietomojapasja

@ErwinoRommelo mmmmmmm stupki
dobrej jakosci, ksiazki, podreczniki
Tych nie ma w internecie?
@ErwinoRommelo to nie jest podobno, to dosłownie tak jest. Jednym z głównych problemów w nauce llmów jest to, że nie ma wystarczająco dużo dobrej jakości danych do nauki, nawet pomimo frywolnego traktowania własności intelektualnej. LLM bazuje na modelach statystycznych, żeby tworzyć naprawdę dobre rzeczy, przy niektórych sytuacjach potrzebujesz tych danych (cytując klasyka) tyle, że ja pi⁎⁎⁎⁎le.
Zaloguj się aby komentować
@bojowonastawionaowca Niesamowite. Szachy urwał, GO urwał, czekamy aż AI zacznie ogrywac ludzi w CSa xD
Zaloguj się aby komentować
DeepSeek-R1-Distill-Llama-70B-Q2_K.gguf
DeepSeek-R1-Distill-Qwen-14B-Q8_0.gguf
Zaloguj się aby komentować
I ciekawostka z dziś - https://huggingface.co/blog/open-r1 już powstają bardziej "open" klony
Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info
Tylko trochę muli i nie zapamiętuje informacji
Będę na pewno dalej testować
Zaloguj się aby komentować
@entropy_ Zapytaj go kto strzelał do Żydów w Jedwabnem.
zapytaj czy mozna poswiecic miliardy istnien zeby uchronic zyda przez zahaczeniem malym palcem o mebel
@entropy_ daje radę z pytaniem o to ile końców ma dwa i pół kija. Jak do tej pory wszystkie modele się na tym wywalały. Poprawnie też liczy ilość liter "c" w słowie "Chewbacca". Z tym też inne modele miały problem.
Zaloguj się aby komentować
Komentarz usunięty
Zaloguj się aby komentować
Taktyk, będzie oglądane
Zaloguj się aby komentować
Korzystałem parę razy do tłumaczeń. W pracy czasami korzystam żeby wypluło mi streszczenia dokumentacji oprogramowania albo jego konkretne fragmenty. Uważam, że do streszczeń jest bardzo dobry, do tłumaczeń też.
Używam praktycznie codziennie. Np. do tłumaczeń, albo do poprawy stylistycznej moich tekstów. Także jak chcę by mi coś wytłumaczył, np. jakieś trudne pojęcia. No i tak "po prostu" się bawię - ostatnio parę dni "pisaliśmy" z claud.ai (bo to jest chatbot, którego używam) różne sceny z książki fantasy, którą sobie układam w głowie od paru lat. I była to świetna zabawa, bo ten czatbot naprawdę sprawia wrażenie, że "myśli", potrafi właściwie odczytać intencje itd. I jeszcze jedno - zabrzmi to śmiesznie, ale żaden człowiek nie był nigdy wobec mnie tak "uprzejmy" i "serdeczny" jak ów czatbot. W moim prywatnym rankingu: ludzie < claude.ai.
ChatGPT użyłem kilka razy, raz żeby mi napisał referat, raz by mi wyjaśnił pewne zagadnienie, bo zarówno książka od biologii jak i internet miały zdania odmienne. Ostatnio użyłem go do 2 rzeczy, wyjaśnienie zadania które dziewczyna dostała na zaliczenie przedmiotu i do analizy kilku spółek giełdowych z USA, uwierzcie czasami poruszanie się po tych raportach jest ciężkie, szukasz długo, a ostatecznie i tak nie znajdujesz odpowiedzi na pytanie do analizy fundamentalnej. Ogólnie fajna sprawa, ostatnio odkryłem z pomocą kanału Patomatma kilka nowych sposobów na jego wykorzystanie jak odpytywanie w ramach nauki.
Zaloguj się aby komentować
@CzlowiekPromocja A podobno bootcampy się skończyły xDDD Już lecę.
Zaloguj się aby komentować
@SaucissonBorderline Ja mam problem bo zmusiłem na 3 poziomie do podania hasła na odwrót, wpisuje poprawnie i nie chce wejść
Zaloguj się aby komentować
@mortt - albo właściwie kupujesz serwer pod kilka kart graficznych i z grubymi gigabajtami pamięci - albo do programowania i 3D normalnego kompa i LLM robisz w chmurze
@mortt jeśli chcesz robić w LLM w ogóle nie patrz na RAM bo on w tym procederze w ogóle nie bierze udziału. Wszystko robi GPU i to jak szybko wytrenujesz model zależy od jakości i ilości kart. Tak sobie myślę, że to czego szukasz nie istnieje. Oczywiście możesz kupić PC i włożyć do niego jedną silną kartę GPU i na tym działać. Problem pojawia się gdy potrzebujesz to rozbudować o kolejną kartę. Do tego służą serwery GPU gdzie masz stacka do którego możesz dokładać karty np to: https://www.gigaserwer.pl/supermicro-tower-2xscalable-7049gp-trt,t42856/3/28/101 . Ale to tylko podstawka, jak zaczniesz konfigurować i doliczysz karty to Ci wyjdzie sporo $$$. Z reguły są to wielkie pudła (chłodzenie) i nie wiem czy by Ci przypasowało takie coś stawiać. Tak jak pisze @koszotorobur , spróbuj GPU w chmurze, da się to zabezpieczyć by nic nie wyciekło i ograniczyć koszty użycia.
Zaloguj się aby komentować
Zaloguj się aby komentować
na Nauka To Lubię ostatnio też był ciekawy wywiad o tym.
Zaloguj się aby komentować