Testowałem inpating i nie pomógł za bardzo.
Wygląda jakby było trochę za mało "steps". Pamiętasz na ile masz ustawione ?
@Bibr zwykle daje 30
@Swistunka Jeżeli nie usunąłeś pliku wynikowego to możesz spróbować spisać prompt i seed z nazwy. Potem odpal na dpm adaptive. Sampler sam dobierze ile potrzebuje "steps" żeby zrobić obraz
@Bibr plik miałem, ale negative prompt już nie. przynajmniej trochę dorosła.
@Swistunka hmmm. Możesz mi podać seed i prompt ? Spróbuje coś wyciągnąć z tego
@Bibr seed: 2187093564
prompt: market, loli, girl, face, collar, full body, nobility, spikes, military uniform, skirt, cat ears, wide smile, tail , Artgerm
negative prompt: nsfw, blurry, artist name, signature
model: waifu-diffusion 1.3
Z tego co czytałem na Reddit to waifu-diffusion po prostu sobie nie radzi z dłońmi i już.
@Swistunka Hmmm
popróbowałem coś. Nie ważne co zrobię to te dłonie średnio wychodzą
Przejrzałem prompt i chyba tam jest za dużo wpisane po prostu. Nie chciałem zbyt dużo ingerować na razie. Usunąłem "market", dodałem "()" do "loli" aby zwiększyć priorytet. Mam u siebie stable diffusion 1.4 z modelem novelAI. Z jakiegoś powodu bardzo lubił pomysł wstawienia 2 postaci w 1 obrazek
IMO na 1 zdjęciu wyszło najlepiej
@Bibr Dzięki. Teraz jak trzymam się jednego seeda to już mniej więcej ogarniam na ile długi może być prompt żeby jeszcze coś zdziałał.
Zaloguj się aby komentować