Ba, dla #midjourney to to nawet nie są piksele na ekranie. To po prostu dłuuuugie ciągi zer i jedynek. I się "nauczyło" zależności jednych ciągów w różnych miejscach.
Chociaż nauczyło to też złe określenie.
"Znalazło wzór który daje 'close enough' wyniki". To lepsze określenie.
A ustawiając nasze 'zezwolenie błędu', aka epsilon, na niskie wartości, dostajemy 'wzory' które dla reprezentowanych wartości dają akceptowalne wyniki, pomimo tego, że nie mają nic wspólnego z 'oryginalnymi/docelowymi' wzorami.
@Acrivec tak jak człowiek, też nie wykonuje miliardów obliczeń odbić a zdolny grafik ci namaluje
Ale to trochę nie prawda że dla niego to ciąg 0 i 1. Algorytm uczący się operuje już na pixelach. Ma kodeki do różnych formatów graficznych, oraz algorytmy klasyczne do rozpoznawania różnych rzeczy.
@Acrivec mi się marzy silnik renderujący do 3d maxa działający na zasadzie midjourney. Ależ to by było piękne.
@ZasilaczKomputerowy komputer pracuje na ciągach zer i jedynek, to że konfigurujemy go w taki sposób aby je na jakoś reprezentował to inna sprawa .
@Acrivec Stary, ale to tak jakby mówić, że człowiek pracuje na syntezie ATP. No w gruncie rzeczy to prawda i nie zrobisz zadania z matmy bez syntezowania ATP, ale jednak sam proces nauki zachodzi w zupełnie innej warstwie abstrakcji.
Zaloguj się aby komentować