Udało się to odpalić na 12GB VRAM, niestety generacja trwa około 240 sekund. Ciekawi mnie ile czasu zajmuje generacja na kartach posiadających 24GB VRAM. Jak by ktoś z was był tak uprzejmy sprawdzić, będę wdzięczny.
#aiart #stablediffusion
Foto
skąd można ściągnąć model ?
@dsol17 Zerknij tu https://www.youtube.com/watch?v=L8GSgundu2M
@caly_w_bigosie dziękuję.
@caly_w_bigosie Jeśli rozdzielczość, GPU i model są te same, to dokładnie tyle samo. Z większym VRAMem możesz użyć większej rozdzielczości co niestety pociągnie za sobą wolniejszą produkcję
@Amebcio Jasne, nie precyzyjnie napisałem, chodzi mi o testy posiadaczy karty RTX 4090/3090
@caly_w_bigosie Niestety nie mam Nvidii, używam innego toolkitu (invokeAi) oraz innych modeli, ale 240 sekund dla obrazu 1200x1200 to sporo.
Na moim radeonie 6900xt pierwszy obraz na zimnym starcie to ok. 100s a kolejne to ok. 40s w tej rozdziałce
ale 240 sekund dla obrazu 1200x1200 to sporo.
@Amebcio Jak na coś czego nie robisz sam i jak na własny komputer to jest raczej akceptowalne. 12 lat temu 5 minut to mi bardzo prosty (ale nieudolnie uklepany z gówna) skrypt VBA w Excelu sortował i przerabiał arkusze BOM w pracy więc...
moje 512MB wspoldzielonej pamieci na zintegrowanym z plytą GPU juz nie moze sie doczekac
@bucz heh. Tego się z reguły nie odpala lokalnie, ja tam się pytałem o pliki modelu głównie żeby zarchiwizować aktualną wersję "tak na wszelki wypadek",bo jednak wygenerowanie czegokolwiek użytecznego na karcie mającej kilka gb zajmie... no długo. Choć jakby się miało model samemu trenować to... o boże,o matko...
Z uruchamialnych lokalnie ciekawa jest też lokalna "alternatywa" dla gpt to jest gpt-j. Model jest ekwiwalentem gpt-2 no góra gpt-3 no ale nie można mieć wszystkiego. Nie testowałem
Zaloguj się aby komentować