Czy ktoś zna jakiś fork SD który umożliwia użycie multi-gpu do inferencji?
Nie chodzi mi o dzielenie batcha pomiędzy GPU bo to chyba potrafi StableSwarmUI tylko o generowanie jednego obrazu równolegle na >1 GPU.
#stablediffusion #ai #sztucznainteligencja #uczeniemaszynowe #bukmacherka#machinelearning #sztuka #grafika #sd
Nie chodzi mi o dzielenie batcha pomiędzy GPU bo to chyba potrafi StableSwarmUI tylko o generowanie jednego obrazu równolegle na >1 GPU.
#stablediffusion #ai #sztucznainteligencja #uczeniemaszynowe #bukmacherka#machinelearning #sztuka #grafika #sd
@NrmvY Nie jestem pewien czy to w ogóle da się zrobić. Firmy nie bawiłyby się w mega układy gdyby można było to zwyczajnie podzielić na kilka mniejszych
@Amebcio LLM się da, ale z tego co widziałem w SD nie ma takiej możliwości.
Zaloguj się aby komentować