Wesprzyj nas i przeglądaj Hejto bez reklam

Zostań Patronem

#nvidia

2
69
Udało mi się kupić wczoraj 5070ti w msrp. Tylko coś jakoś nie wysłali. Sprawdzam dzisiaj status zamówienia a tam "oczekiwanie na dostawę". Coś czuję, że potrzymają chujki kasę przez parę dni i anulują xD

Kocham papierowe premiery ( ͡~ ͜ʖ ͡°)

#pcmasterrace #komputery #nvidia
10

Zaloguj się aby komentować

Zaloguj się aby komentować

@bartek555 gdzie masz SL? O ile w ogóle jest

@bartek555 umówić Ci wizytę w salonie Bentleya? 😉

Yeah come back I teraz to the moon 🌙!

Zaloguj się aby komentować

Zostań Patronem Hejto i odblokuj dodatkowe korzyści tylko dla Patronów

  • Włączona możliwość zarabiania na swoich treściach
  • Całkowity brak reklam na każdym urządzeniu
  • Oznaczenie w postaci rogala , który świadczy o Twoim wsparciu
  • Wcześniejszy dostęp, do wybranych funkcji na Hejto
Zostań Patronem

Trzeba lubić hazard 😏

@bartek555 jesteśmy przeciwnymi biegunami. Ja mam za dużo instrumentów, a Ty za mało xD

Zaloguj się aby komentować

  1. bartek sprzedaje tmc z niezlym zyskiem, tmc spada
  2. bartek kupuje nvidie
  3. nvidia wypierdala sie na ryj w historycznie najwiekszej stracie na nasdaq
  4. tmc wypierdala do gory
  5. bartek placa pieniadze na konto, zeby kupic wiecej nvidii w dolku
  6. nvidia zapierdala do gory
  7. profit? nie znam typa

#gielda #inwestycje #nvidia #heheszki
25

Początki na morzu są ciężkie.

@bartek555 Też mam tą super moc, że kupuje na górce a sprzedaje w dołku.

Zaloguj się aby komentować

@bartek555 spadaj piękna nvidio spadaj, back to 50bucks a wtedy po same kulen

@bartek555 a wzrostów niVidu niSłychu

@bartek555 spadnie do 110 i wtedy wchodzę ja, cały na pińcet euro xD


EDIT: poczytałem recenzje nowej 5080, jednak nie wchodzę xD

Zaloguj się aby komentować

@Thereforee spokojnie zaraz ta cała enwidia pierdolnie przez chińczyków :v

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.

https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch

O co chodzi z #deepseek ? Już tłumaczę!

Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.
DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach
Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.
A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.
Rezultaty są oszałamiające:
- Koszt treningu: 100 mln $ → 5 mln $
- Liczba potrzebnych GPU: 100 000 → 2 000
- Koszty API: 95% taniej
- Może działać na gamingowych GPU zamiast sprzętu z centrów danych
„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.
Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.
Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.
To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.
Konsekwencje są ogromne:
- Rozwój AI staje się bardziej dostępny
- Konkurencja rośnie dramatycznie
- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże
- Wymagania sprzętowe (i koszty) gwałtownie spadają

Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.
AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.

#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka
AlvaroSoler userbar
12

Mam wrażenie że to już czytałem, i to nie na wypoku

Czyli w sumie to że USA ma nas w 2 kategorii nie ma takiego znaczenia?

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

To the sky 😁 Zielony zawsze miły oku.

Zaloguj się aby komentować

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.

Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.
Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).
Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.

Kluczowe innowacje DeepSeek:
- Efektywne zarządzanie pamięcią:
   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.
- System „multi-token”:
   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.
- System ekspertów (MoE - Mixture of Experts):
   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali

Rezultaty?
- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.
- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.
- Koszty API są niższe o 95%.
- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.

Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.

Dlaczego to ma znaczenie?
Demokratyzacja AI
   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.

Zagrożenie dla dużych firm
Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.

Nowa fala innowacji
Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.

Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”
Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI

#zajebaneztwittera #llm #sztucznainteligencja #nvidia
44b21698-808a-47e7-b141-99d03d3fc2f6
entropy_ userbar
76

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

#pc #pcmasterrace #gry #nvidia
Muszę Wam powiedzieć, że jestem pod dużym wrażeniem co Ngreedia zrobiła z tym nowym DLSS4 transformacyjnym. Niebo a ziemia gdzie w DLSS3 1080p + skalowanie na quality wyglądało jak gówno a teraz koła mi siadły, no rewelacja. Jest kilka niedoróbek jak na przykład mocny shimmering np. drzew i liści ale jak się ten ich superkomputer podszkoli to może być niemal idealnie. Spadek wydajności to tak z 10% u mnie na RTX 3060 12gb ale poprawa jakości obrazu i ostrości w ruchu to tak z 99%. Mowa oczywiście o Cyberbugu 2077 bo to pierwsza gierka w której to dali.
2

@Jim_Morrison myślałem, że dlss4 miało być ekskluzywne tylko dla serii rtx5000. Fajnie, że dziala ze starszymi generacjami.

Zaloguj się aby komentować

Szwajcaria tier 2? XD wtf

Jest nawet artykuł w reutersie

Wszedłem teraz na R i takie coś znalazłem. Komentarz pod tą mapką.

(tak łagodnie i grzecznie napisał, że Polska robi "everything to align with USA" 😛 )

ff1decbd-b864-49dc-9bd4-ee2bade8c6b2

Zaloguj się aby komentować

@Spider z dalszych informacji:


  • wymagane podpięcie pod gniazdko 3-fazowe

  • zalecany proszkowy system gaśniczy

  • wymagana mechaniczna wentylacja pomieszczenia


xD

kurde kiedyś to były komputery jeden wiatraczek nie licząc tego w zasilaczu i wszystko śmigało

Gdzie to ma górę a gdzie dół?!

Zaloguj się aby komentować

You can't polish a turd.

Nie, 120fps interpolowane z 30fps nie mają takiej responsywności jak prawdziwe 120fps tylko jak właśnie 30fps. Jedyna różnica to płynność ale wtedy tworzy się dysproporcja pomiędzy tym co widzimy a tym co czujemy. W czystej wydajności RTX5070 = 4070 super.

Zaloguj się aby komentować

No to mamy nowe RTX 5000,

Ceny sugerowane:
RTX 5090 - Od 10 299 złotych
RTX 5080 - Od 5199 złotych
RTX 5070 Ti - od 3899 złotych
RTX 5070 - od 2849 złotych

Co w paczce?
Delikatnie zwiększona rasteryzacja,
2x większa wydajność dla RT,
Multi frame generator,
Reflex 2.0,
Nowy DLSS4.0 który z wyjątkiem multi frame generatora będzie dostępny też dla starszych RTX,
Cena kosmos,
Niemal ten sam proces technologiczny co poprzednia generacja,
Nowe złącze zasilające 12V-2x6 (do 600W na jednej wtyczce),
Topowy model 5090 o poborze mocy 575W ༼ ͡° ͜ʖ ͡° ༽
Pierwsze testy po 21 stycznia.

#komputery #ai #pcmasterrace #kartygraficzne #nvidia #gry
3f094b95-7e56-4e64-ae17-927ce7ed9a95
82244433-f897-4fe9-9789-eef841730bc6
f3b42106-e83a-4aaa-ab50-0a4d9b10ea25
daed28df-5868-4a1d-91e5-17dc2fc0218b
16

@Marchew po co dwa złącza zasilania, skoro jedynie pół kilowat ciągnie? I ta cena... no prawie darmowe ogrzewanie do domu

Z tymi 26fps zwiększonymi do ponad 200 to oni tak na serio? Ultra performance dlss nawet przy 4k wygląda słabo a interpolacja z 26 do 235fps moim zdaniem nie będzie mogła zwyczajnie dać poczucia większej responsywności. Co mi po płynnośći 235fps kiedy input lag pozostanie na poziomie 26fps? To będzie imo uczucie jakby człowiek był najebany a do tego płynął łodzią. No jest płynnie ale kontrola, jaka kurwa kontrola? Sam czasem korzystam z framegen ale to nie ma zbyt wiele wspólnego z prawdziwym wysokim fps. Dysproporcja pomiędzy płynnością a responsywnością jest po prostu duża i czuć to mocno., nie ma się co czarować. NVIDIA reflex? Srefleks, kurwa bo to było dostępne od lat i zwyczajnie polegało na zmniejszeniu ilości pre renderowanych klatek a jak ustawiało się to na 0 to efektem często był micro stutter i inne takie co właśnie miało miejsce kiedy ostatnio grałem w Horizon FW. Cuda nie istnieją i zawsze jest coś za coś i żadne bajki opowiadane przez pana w kurteczce tego nie zmienią. Tak, framegen i DLSS są fajne ale zawsze będą gorsze niż zwyczajnie wysoki fps i wysoka natywna rozdzielczość z zajebistym anti aliasingiem (tutaj przyznam, że dlaa robi robotę choć niestety też rozmywa obraz za bardzo w ruchu). Także nie, ficzery fajne ale brutalna moc zawsze będzie lepsza.

W sumie dobrze jest wyjaśniony temat wydajności 4090 vs 5070 w tym filmie:

https://youtu.be/KbjhsBWp_YM?t=121&si=g_CHHnp8FWoG7oBp

Tak mniej więcej od 2:00 do 3:26

Zaloguj się aby komentować

Panie za tyle to mam trzy stimdeki

@NrmvY 32gb vram i 680tensorcores to się opłaca kupić za 10k

Populacja kryptokopaczy zwieksza się.

Zaloguj się aby komentować

Następna