#nvidia

2
72

Zaloguj się aby komentować

Jeśli planowaliście kupno nowych kart graficznych od #nvidia to lepiej dobrze się zastanówcie co robicie. Media zaczynają donosić o sporej ilości problemów:

Użytkownicy kart graficznych GeForce RTX 50 nadal skarżą się na problemy ze stabilnością swoich GPU, w tym na czarne ekrany i awarie systemu, a NVIDIA wciąż nie ma gotowej poprawki.

Oprócz tego:
Premiera serii GeForce RTX 50 jest jedną z najbardziej problematycznych w historii firmy. Gracze i entuzjaści PC muszą zmagać się nie tylko z niedostępnością GPU i wysokimi cenami, ale również z problemem topiących się 16-pinowych złączy zasilania. Dodatkowo pojawiły się wady sprzętowe, np. przypadki kart z mniejszą liczbą jednostek ROP, niż deklarował producent. Do tego wszystkiego wydajność grafik z rodziny Blackwell po prostu rozczarowuje, więc nie rysuje to dobrego obrazu serii RTX 50. 

Jeśli ktoś doczytał do tego miejsca to może się zacząć zastanawiać o co chodzi z mniejszą ilością ROP'ów. No to już odpowiadam:

Według licznych doniesień, niektóre modele tej serii mogą posiadać wadę produkcyjną, która prowadzi do scalania partycji ROP (Render Output Unit) w procesorze graficznym, co bezpośrednio wpływa na spadek wydajności urządzeń.

Użytkownik reddita przeprowadził testy swojego RTX 5080 w popularnym benchmarku 3DMark Time Spy. Wyniki okazały się niepokojące – karta osiągnęła wynik 28 118 punktów, podczas gdy sprawna jednostka uzyskuje aż 32 273 punktów. Różnica wynosząca 12% jest ogromna, szczególnie w kontekście urządzeń klasy premium.
https://ithardware.pl/aktualnosci/nvidia_problemy_bsod_rtx_50_poprawki-39245.html

https://ithardware.pl/aktualnosci/rtx_5080_rop_wydajnosc_wpadka_nvidia-39271.html

#gpu #kartygraficzne #technologia
0c870ffa-6edf-4358-886c-7761b72009c4
33
emdet

@damw no tak generalnie to do gier to nie ma co robić upgradów w ostatnich latach o ile gra się w hd.

Skończyły się dawno czasy kiedy z każdą generacją te przyrosty były ogromne a nowe gry działały tylko na nowych kartach.


Także cóż, z problematycznych kwestii to tylko na giełdzie zanurkowało znów

GitHub

A to dopiero początek zabawy :D

PanNiepoprawny

Intel się już wy⁎⁎⁎ał. Teraz pora na nvidię

Zaloguj się aby komentować

Problemów z nową generacją Gefore'ów ciąg dalszy (kolejne opóźnienia):

Jak podaje chiński serwis CTEE, jednym z powodów opóźnienia premiery kart graficznych GeForce RTX 5070 i RTX 5060 są problemy z wydajnością tych modeli. Układy rzekomo nadal wymagają dalszego debugowania. Dodatkowo sytuacji wcale nie ułatwiło niedawne trzęsienie ziemi w Tainan. W rezultacie masowa produkcja została ponoć opóźniona aż o cztery tygodnie, przy czym RTX 5070 ma być dostępny w połowie marca, natomiast RTX 5060 dopiero w połowie kwietnia. Mówiąc krótko, wiele wskazuje na to, że konsumenci będą mieli spore problemy z zakupem tych układów w okolicach premiery

https://www.purepc.pl/nvidia-geforce-rtx-5070-i-rtx-5060-masowa-produkcja-kart-miala-zostac-opozniona-z-powodu-problemow-z-wydajnoscia

#technologia #kartygraficzne #geforce #nvidia
1a035638-44c7-402e-ac3b-4409683a3029
12
Marchew

Tylko teraz są takie kwiatki czy może wcześniejsze generacje też robiły takie fikołki?

PanNiepoprawny

Jak ze wszystkim - nie kupuje się pierwszej wersji produkcyjnej tylko poliftową

hellgihad

@damw Premiera nowej generacji to zawsze dobra okazja na wymianę karty na coś ze starszej generacji xD

Zaloguj się aby komentować

Udało mi się kupić wczoraj 5070ti w msrp. Tylko coś jakoś nie wysłali. Sprawdzam dzisiaj status zamówienia a tam "oczekiwanie na dostawę". Coś czuję, że potrzymają chujki kasę przez parę dni i anulują xD

Kocham papierowe premiery ( ͡~ ͜ʖ ͡°)

#pcmasterrace #komputery #nvidia
10
ErwinoRommelo

Lepsze anulowane zamowienie niz grac na nvidi xd

damw

@Stashqo ale to w opisie nie miałeś info, że towar nie jest dostępny w magazynie?

MostlyRenegade

@Stashqo nie masz co zrobić z pieniędzmi?

Zaloguj się aby komentować

Zaloguj się aby komentować

ErwinoRommelo

Yeah come back I teraz to the moon 🌙!

Opornik

@bartek555 Kupuj, kupuj!

4d954a43-cdfd-42f5-b5bd-f74d2e505c4f

Zaloguj się aby komentować

Half_NEET_Half_Amazing

to już chyba czas na #bartektrejduje

Dzielny

Trzeba lubić hazard 😏

Budo

@bartek555 jesteśmy przeciwnymi biegunami. Ja mam za dużo instrumentów, a Ty za mało xD

Zaloguj się aby komentować

  1. bartek sprzedaje tmc z niezlym zyskiem, tmc spada
  2. bartek kupuje nvidie
  3. nvidia wypierdala sie na ryj w historycznie najwiekszej stracie na nasdaq
  4. tmc wypierdala do gory
  5. bartek placa pieniadze na konto, zeby kupic wiecej nvidii w dolku
  6. nvidia zapierdala do gory
  7. profit? nie znam typa

#gielda #inwestycje #nvidia #heheszki
25
kitty95

Początki na morzu są ciężkie.

Passpy

@bartek555 Też mam tą super moc, że kupuje na górce a sprzedaje w dołku.

Zaloguj się aby komentować

Sweet_acc_pr0sa

@bartek555 spadaj piękna nvidio spadaj, back to 50bucks a wtedy po same kulen

pierdonauta_kosmolony

@bartek555 a wzrostów niVidu niSłychu

Stashqo

@bartek555 spadnie do 110 i wtedy wchodzę ja, cały na pińcet euro xD


EDIT: poczytałem recenzje nowej 5080, jednak nie wchodzę xD

Zaloguj się aby komentować

Oczk

@Thereforee spokojnie zaraz ta cała enwidia pierdolnie przez chińczyków :v

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.

https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch

O co chodzi z #deepseek ? Już tłumaczę!

Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.
DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach
Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.
A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.
Rezultaty są oszałamiające:
- Koszt treningu: 100 mln $ → 5 mln $
- Liczba potrzebnych GPU: 100 000 → 2 000
- Koszty API: 95% taniej
- Może działać na gamingowych GPU zamiast sprzętu z centrów danych
„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.
Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.
Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.
To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.
Konsekwencje są ogromne:
- Rozwój AI staje się bardziej dostępny
- Konkurencja rośnie dramatycznie
- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże
- Wymagania sprzętowe (i koszty) gwałtownie spadają

Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.
AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.

#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka
AlvaroSoler userbar
12
serel

Mam wrażenie że to już czytałem, i to nie na wypoku

dez_

Czyli w sumie to że USA ma nas w 2 kategorii nie ma takiego znaczenia?

Gamtaro2

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Zaloguj się aby komentować

Zaloguj się aby komentować

DeepSeek – firma, która zrewolucjonizowała proces trenowania modeli AI, redukując koszty o ponad 95%, a jednocześnie osiągając wyniki porównywalne z najlepszymi modelami, takimi jak GPT-4 czy Claude.

Jak to zrobili? Przez całkowite przemyślenie dotychczasowych założeń i procesów.
Tradycyjne trenowanie modeli AI to koszmar pod względem kosztów. OpenAI czy Anthropic wydają ponad 100 milionów dolarów tylko na moc obliczeniową, wykorzystując ogromne centra danych z tysiącami drogich procesorów graficznych (GPU).
Tymczasem DeepSeek udowodnił, że można to zrobić za jedyne 5 milionów dolarów.

Kluczowe innowacje DeepSeek:
- Efektywne zarządzanie pamięcią:
   Tradycyjne modele AI przechowują dane na 32bitach, co wymaga ogromnych zasobów pamięci. DeepSeek zapytał: "Ale dlaczego 32? W zupełności wystarczy 8", pozwoliło to na zmniejszenie wymagań pamięci o 75%.
- System „multi-token”:
   Zamiast przetwarzać tekst słowo po słowie jak klasyczne LLM "Wróbel... siedział... na...", DeepSeek analizuje całe frazy na raz. To sprawia, że proces jest dwa razy szybszy przy zachowaniu 90% dokładności.
- System ekspertów (MoE - Mixture of Experts):
   Zamiast jednego ogromnego modelu uruchomionego CAŁY CZAS, DeepSeek wprowadził system wyspecjalizowanych modeli. Każdy z nich uruchamiany jest tylko wtedy, gdy jest potrzebny, co drastycznie zmniejsza ilość aktywnych parametrów (671 miliardów ale tylko 37 miliardów aktywnych na raz). Nie jest po pomysł nowy (używany wcześniej między innymi w modelach Mixtral) ale pierwszy raz zastosowany w tej skali

Rezultaty?
- Koszt trenowania spadł z 100 milionów do 5 milionów dolarów.
- Liczba potrzebnych GPU zmniejszyła się z 100 000 do 2 000.
- Koszty API są niższe o 95%.
- Modele mogą być uruchamiane na standardowych GPU dla graczy zamiast drogich GPU serwerowych.

Co ważne, DeepSeek postawił na otwartość. Kod i dokumentacja są publicznie dostępne, co otwiera drzwi dla mniejszych firm i indywidualnych innowatorów.

Dlaczego to ma znaczenie?
Demokratyzacja AI
   Dotychczas tylko najwięksi gracze z ogromnymi budżetami mogli trenować zaawansowane modele. Teraz proces ten staje się dostępny dla mniejszych podmiotów.

Zagrożenie dla dużych firm
Nvidia, dominujący dostawca GPU, może odczuć konsekwencje, gdyż ich model biznesowy opiera się na sprzedaży drogich procesorów z ogromną marżą.

Nowa fala innowacji
Mniejsze wymagania sprzętowe i finansowe oznaczają większą konkurencję, co może przyspieszyć rozwój całej branży.

Podsumowując, DeepSeek zadał pytanie: „Co, jeśli zamiast rzucać coraz więcej sprzętu, po prostu zoptymalizujemy proces?”
Odpowiedzią są przełomowe wyniki, spadek kursu NVIDIA na giełdzie i PANIKA w meta i OpenAI

#zajebaneztwittera #llm #sztucznainteligencja #nvidia
44b21698-808a-47e7-b141-99d03d3fc2f6
entropy_ userbar
76
kodyak

@entropy_ nigdy nie jest tak że ma się cudowne dziecko. O wadach tu nic nie ma. Natomiast tak. Będzie dochodzić do optymalizacji kosztów.


Nie ma żadnej paniki. Bez przesady. Większość spółek na gieldzie jest przeszacownych i to mocno. Szczególnie aktualnie nvidia

Shivaa

Ciekawa alternatywa, rozmawia sensownie, pisze kody, ma dostęp do info do 2023 ale może przeszukać net w poszukiwaniu info

Tylko trochę muli i nie zapamiętuje informacji

Będę na pewno dalej testować

Zaloguj się aby komentować

#pc #pcmasterrace #gry #nvidia
Muszę Wam powiedzieć, że jestem pod dużym wrażeniem co Ngreedia zrobiła z tym nowym DLSS4 transformacyjnym. Niebo a ziemia gdzie w DLSS3 1080p + skalowanie na quality wyglądało jak gówno a teraz koła mi siadły, no rewelacja. Jest kilka niedoróbek jak na przykład mocny shimmering np. drzew i liści ale jak się ten ich superkomputer podszkoli to może być niemal idealnie. Spadek wydajności to tak z 10% u mnie na RTX 3060 12gb ale poprawa jakości obrazu i ostrości w ruchu to tak z 99%. Mowa oczywiście o Cyberbugu 2077 bo to pierwsza gierka w której to dali.
2
Stashqo

@Jim_Morrison myślałem, że dlss4 miało być ekskluzywne tylko dla serii rtx5000. Fajnie, że dziala ze starszymi generacjami.

Zaloguj się aby komentować

Uuuuuuuuuu
Bantustan i kraj pośledni drugiej kategorii. To juz oficjalne.
Tu dla Ciebie pomarancza!
To tylko pokazuje, ze ciagle gramy w innej lidze sojusznikow USA, jesli komus zdawalo sie kiedykolwiek inaczej
#nvidia #technologia #ai #programowanie #geopolityka #ciekawostki
82bbd775-0438-4039-9e77-97f2f8889493
maly_ludek_lego userbar
12
libertarianin

Szwajcaria tier 2? XD wtf

maly_ludek_lego

Jest nawet artykuł w reutersie

KLH2

Wszedłem teraz na R i takie coś znalazłem. Komentarz pod tą mapką.

(tak łagodnie i grzecznie napisał, że Polska robi "everything to align with USA" )

ff1decbd-b864-49dc-9bd4-ee2bade8c6b2

Zaloguj się aby komentować

ErwinoRommelo

Oho widac boja sie, steam os za rogiem à tam weszystko gotowe pod amd, ha tfu korporacyjne swinie z nvidi, za pozno, o wiele za pozno. Niech wrwcaja do sprzedawania srednich kart za krocie gigantom od ai, ja umre jak zylem: czerwony!

Zaloguj się aby komentować

Wyciekły zdjęcia kolejnej generacji kart RTX 6090. Mnie przekonali tymi wiatraczkami odpuszczam serie 50xx.
#kartygraficzne #nvidia #heheszki #ai
2776f4bf-17d0-4878-8960-c2e09cc577d2
11
KierownikW10

@Spider z dalszych informacji:


  • wymagane podpięcie pod gniazdko 3-fazowe

  • zalecany proszkowy system gaśniczy

  • wymagana mechaniczna wentylacja pomieszczenia


xD

SuperSzturmowiec

kurde kiedyś to były komputery jeden wiatraczek nie licząc tego w zasilaczu i wszystko śmigało

sireplama

Gdzie to ma górę a gdzie dół?!

Zaloguj się aby komentować

Jim_Morrison

You can't polish a turd.

Nie, 120fps interpolowane z 30fps nie mają takiej responsywności jak prawdziwe 120fps tylko jak właśnie 30fps. Jedyna różnica to płynność ale wtedy tworzy się dysproporcja pomiędzy tym co widzimy a tym co czujemy. W czystej wydajności RTX5070 = 4070 super.

Zaloguj się aby komentować

Następna