Podoba mi się fakt, że #midjourney nie tworzy obiektów 3D i ich nie raytracuje. Po prostu dostał miliony obrazów do nauki, i się "nauczył" co to odbicia, co to poświata, co to cienie. Zwykłe zależności pikseli na ekranie.
Ba, dla #midjourney to to nawet nie są piksele na ekranie. To po prostu dłuuuugie ciągi zer i jedynek. I się "nauczyło" zależności jednych ciągów w różnych miejscach.
Chociaż nauczyło to też złe określenie.
"Znalazło wzór który daje 'close enough' wyniki". To lepsze określenie.
A ustawiając nasze 'zezwolenie błędu', aka epsilon, na niskie wartości, dostajemy 'wzory' które dla reprezentowanych wartości dają akceptowalne wyniki, pomimo tego, że nie mają nic wspólnego z 'oryginalnymi/docelowymi' wzorami.
d32755eb-5061-4f84-aa1d-f6e18b0e1ac2
ad99e923-6d85-442b-92e8-f10ec2c088d0
LM317T

@Acrivec tak jak człowiek, też nie wykonuje miliardów obliczeń odbić a zdolny grafik ci namaluje

ZasilaczKomputerowy

Ale to trochę nie prawda że dla niego to ciąg 0 i 1. Algorytm uczący się operuje już na pixelach. Ma kodeki do różnych formatów graficznych, oraz algorytmy klasyczne do rozpoznawania różnych rzeczy.

PomidorovaLova

@Acrivec mi się marzy silnik renderujący do 3d maxa działający na zasadzie midjourney. Ależ to by było piękne.

70833a77-5506-4b0c-acd0-e5c16da2da06
Acrivec

@ZasilaczKomputerowy komputer pracuje na ciągach zer i jedynek, to że konfigurujemy go w taki sposób aby je na jakoś reprezentował to inna sprawa .

ZasilaczKomputerowy

@Acrivec Stary, ale to tak jakby mówić, że człowiek pracuje na syntezie ATP. No w gruncie rzeczy to prawda i nie zrobisz zadania z matmy bez syntezowania ATP, ale jednak sam proces nauki zachodzi w zupełnie innej warstwie abstrakcji.

Zaloguj się aby komentować