Clown world
@Barta55ko co?
@solly bo mu się nie podoba, że ktoś robi coś i nie nie robi tego tak jakby chciał tj jak ludzie to sobie wyobrażali 40 lat temu jednocześnie nie przykładając palca do postępu.
@InstytutKonserwacjiMaryliRodowicz powiedz mi, że to jest jakiś większy żart i ja nie nadążam.
Od tych wskaźników DEI i ESG korporacje zakrzywiają obraz rzeczywistość a ty coś o rozwoju technologii mówisz?.. Gdzie nie bardzo rozumiem za bardzo o co ci chodzi, w sensie sugerujesz, że ten model AI do wytwarzania obrazów od Google - który już nadzwyczaj silnie ingerował w twórczość użytkowników aż do stopnia karykatury i jakby napisać 10 lat temu, że Google będzie dosłownie przemalowywać postaci historyczne na czarno z powodu zbyt mocnej gorliwości politycznej to przecież aż tak mocna ingerencja to była co najwyżej proponowana w satyrze...
Czy ty tutaj sugerujesz, że tylko takie zagrywki na rzecz ingerencji w kulturę można zajmować się tylko jeżeli się jest w tej nielicznej grupie ludzi którzy w większym stopniu przyczynili się do rozwoju technologii AI?
To się nie martw, bo modele AI brały dane z wielu miejsc w internecie i jakiś tam wkład miał w nie niemalże każdy.
@DiscoKhan ja bym bardziej sugerował że wyciągnięcie ze wszystkich osiągnięć takich jak;
- boty grające w StarCrafta (grę o niepełnej informacji)
- LLMy
- concept arty
- obrazki referencyjne dla ludzkich artystów
- zastąpienie stock image przez generated image w większości treści które oglądam
- customer support
- boty dzwoniące przez telefon i brzmiące jak człowiek
- deep fake wideo
- generowanie dowolnego tekstu mówionego czyimś głosem xD
No więc wyciągnięcie z nich jednego produktu który robi z ludzi białych ludzi czarnych, co jest oczywistym i niegroźnym błędem oprogramowania sugeruje;
- brak zrozumienia ograniczeń i kosztów alternatywnych technologii o której się mówi
- brak zrozumienia zastosowań biznesowych dla omawianej technologii
- brak zrozumienia wyzwań poza technologicznych (np. etycznych) związanych z postępem techniki.
Słowem: memik "hehe murzyn w AI" pokazuje że kultura człowieka powielającego takie treści może być bliżej małpy niż mu się wydaje.
@wombatDaiquiri hm?
Ten żart nie naśmiewa się wcale dosłownie z całego AI tylko z Gemini od Google.
Dziwne żeby naśmiewając się z jednego konkretnego przykładu ktoś nie użył jednego konkretnego przykładu.
Osobiście szczerze wątpię czy zachowanie Gemini to jest błąd, po prostu wprowadzone sztuczne wskaźniki od dodawanie ludzi różnych kolorów zostały zbyt mocno podkręcone. To akurat też nie jest jakaś tajemnica, że dozowanie osób różnych kolorów to jest zamierzony efekt. Tylko błąd bądź sabotaż od jednego z pracowników po prostu podkręcił te wskaźniki do absurdalnych poziomów.
No generalnie to ja nie czuję się trochę na siłach żeby tłumaczyć potencjalną intencje autora ale żarty opierają się czasem na serii luźniejszych powiązań i autor mema nawet nie musi być krytyczny wobec AI jako takiego, gdzie przecież nawet w cenie jest pokazane jako niegroźne...
Kwestia tych przekolorowań to nie jest stricte technologiczny problem a bardziej polityczny.
@wombatDaiquiri
Słowem: memik "hehe murzyn w AI" pokazuje że kultura człowieka powielającego takie treści może być bliżej małpy niż mu się wydaje.
Tylko że praktycznie cały internet ryje z tego Gemini, co w sumie nie znaczy że nie masz racji
Ja tam się cieszę że Google zalicza wtopę za wtopą bo ostatnio się robią tak pazerni i odklejeni od rzeczywistości że wręcz im się należy solidny kop w dupsko.
I oczywiście dokonań całej branży AI nie umniejszam bo jest to technologia która zmieni świat, i to raczej prędzej niż później.
@hellgihad based & true. Sorki trochę mnie poniosło z dopisywaniem intencji ale trudno mi domyślić się kto rozumie czemu memik jest śmieszny a kto jest ordynarnym śmieciem rasistą
@DiscoKhan a pamiętasz jak identyfikowało małpy jako murzynów albo odwrotnie? Musieli to jakoś załatać a jest to problem tak absurdalny że pewnie rozwiązanie jest równie głupie xD w sensie ten żart "w branży" jest ciekawy i śmieszny, ale mnie wkurwia jak się narodowcy debile podpinają z propagandą spisku żydomasonerii
@wombatDaiquiri ale jaki spisek. Wyżej ci te hasła wrzuciłem jak ESG, spisek to się robi po kryjomu a nie w jawny sposób.
Wykrywanie obiektów a dorzucanie inkulzuwnych elementów to są dwa zupełnie różne AI, nie ma jednego świętego AI od wszystkiego... Już pom
Ale spiskocepcja - robienie teorii spiskowych z publicznie dostępnych danych których nikt w żaden sposób nie ukrywa. Znaczy mi się też za bardzo nie chce detali na ten temat czytać ale już bez przesady żeby nawet pobieżnie tego nie kojarzyć.
Zaś to że to jest wpływ jakieś żydomasonerii to już sobie sam odpowiadasz, ja normalnie wskaźnikami rozmawiam ale trzeba zaraz Żydów wplątać w temat.
Inkluzuwność jest po prostu premiowana przez duże fundusze inwestycyjne i tyle, ani to sekret, ani spisek ani konspiracja. Zaraz mi powiesz, że używania wskaźników do kierowania się gdzie inwestować to jest teoria spiskowa, no błagam.
@DiscoKhan
Od tych wskaźników DEI i ESG korporacje zakrzywiają obraz rzeczywistość
Dobra to dawaj teorię skąd wniosek że to jest powód tego błędu aplikacji? Bo moim zdaniem z dupy i osobistych przekonań.
@wombatDaiquiri dosyć proste - mamy mnóstwo sprawnych modeli tworzenia obrazów, często nawet praktycznie amatorskich i one nie mają takich problemów. Ewidentnie trochę się sam bawię tymi obrazkami non stop i takiej popeliny co Google robi nie było.
Zaś za większe promowanie inkluzuwności ma się wyższe inwestycje.
Sprawa przesadnie skomplikowana nie jest, nie jest nigdzie ukrywana, a że ktoś coś tam o tym słyszał i sobie do tego masonów dodał... Jak w tym przykładzie z kanalizacją, do wszystkiego można ich dodać ale sprawna analizacja to chyba nie jest teoria spiskowa? xD
@DiscoKhan ktoś słyszał, wszyscy wiedzą, każdy widzi, ja robiłem podobne i mi inaczej wyszło. Myślę że nawet więcej śmiesznych błędów się z czasem znajdzie.
@wombatDaiquiri przyjmujesz zakłady?
Bo o ile przemalowanie wszystkich to jest błąd o tyle dodawanie inkluzywnych postaci do promptów wbrew woli użytkownika było nawet potwierdzone jako zamierzony efekt tylko za cholery mi się grzebać nie chce za tym znowu.
Mnie właśnie xastnawia czy jakiś podirytowany koder po prostu na złość nie dał 100% mocy przy tej inkluzywności.
Bo błąd to się zdarza ale jeżeli dosłownie każdy obrazek zakrzywiał rzeczywiść w taki specyficzny sposób to niby jak w ogóle taki błąd miał tam powstać? To nie jest możliwe jeżeli AI zamiast czerpać z ogólnych baz danych nie jest tak zaprogramowane żeby bez ingerencji użytkownika zmieniać kolor skóry postaci.
Sam koderem nie jestem ale sam robiłem za betatestera, kumpla mam który się tym mocniej zajmował i ma jakieś tam doświadczenie w programowaniu... Zaś praktyka życiowa uczy, że najczęściej najprostsze odpowiedzi są najbardziej słuszne. Nawet jeżeli nie poirytowany koder tylko po prostu wartość tej nadrzędnej od inkluzji z bardziej losowych powodów zwariowała tak ciężko mi sobie wyobrazić żeby taki specyficzny błąd mógł nastąpić jeżeli nie ma żadnej komendy która wymusza inkluzywność.
Kto słyszał, jacy wszyscy wiedzą, absolutnie nie każdy widzi i jak robiłeś podobnie i ci podobne błędy wychodziły na taką skalę przy użyciu różnych modeli do robienia obrazów to ja chętnie o tym posłucham, bo tyle co - bardzo pobieżnie, nie ukrywam - przeglądałem różne miejsca dyskutujące o generatorów obrazów AI to przypadke Gemini jest dosyć specyficzny.
Też nie rozumem czemu Google nagle miałony zmienić politykę firmy i nie piotytetyzować zwiększania tych wyżej wymienionych wskaźników zaś za zwiększanie inlulzywności w swoich produktach po prostu są dodatkowe punkty które przekładają się na większe inwestycje także też nie rozumiem czemu Google nie chciałoby dostać więcej grantów od funduszy inwestycyjnych na swoje modele AI ale trochę przedobrzyli i wyszło jak wyszło.
Już nie róbmy z tego zagadnienia jakiejś totalnej abstrakcji, bo o ile skala tych przekolorwań oczywiście nie była zamierzona przez osoby decyzyjne w firmie tak nie takie rzeczy widziałem przy zapewnieniu sobie grantów. Jeden znajomy już parę ładnych lat temu robił różne ekologiczne szkolenia które były dotowane z UE i o ile niektóre były sensowne o tyle niektóre to tylko budziły uśmiech na twarzy ale jakoś się udawało za nie brać pieniądze.
@DiscoKhan
To nie jest możliwe [...] Sam koderem nie jestem
A ja jestem i nawet pracowałem przy podobnych systemach, więc uważam że mam lepszy osąd tego co jest możliwe. A dowodów jak widać obaj mamy zero.
za zwiększanie inlulzywności w swoich produktach po prostu są dodatkowe punkty które przekładają się na większe inwestycje
To słuchaj weź mi to podeślij jak te punkty za inwestycje nabić to ja chętnie będę same trans rasowe Arabki zatrudniał. Moim zdaniem nie doceniasz inercji organizacji.
@wombatDaiquiri przecież ci dałem hasła do wyszukiwań, ESG i DEI. Tylko firma musi być notowana na giełdzie żeby to miało znaczenie.
Nie lubię linków wysyłać, bo zaraz że źródło złe czy coś, to jest powszechna wiedza to sobie możesz sam wyszukać i poczytać - chociaż oczywiście nie wszystko w tych wskaźnikach jest tylko o tej inkluzywności i trzeba trochę tekstu przemielić.
Zakładaj firmę, posiadaj na tyle dużą kapitalizację żeby być notowanym na giełdzie, wyszukuj wspólników do tego i jeszcze przy okazji rzeczywiście rób coś w miarę perspektywycznego to sobie sam zweryfikujesz. Możesz mnie na konsultanta wtedy zatrudnić to będę naganiać inwestorów i sobie już naprawdę solidnie wszystko z tej materii przeanalizuję. W sukienkę się wbiję i już będą na start ekstra punkty. Akurat inkluzywność wśród zatrudnienych też jest premiowane ale żeby to przeszło to jeszcze będę musiał się do jakiejś szkoły aktorskiej na chwilę zapisać żeby to przeszło.
Tak z ciekawości, ile razy miałeś podobny błąd do tego który się przytrafił u Google?
@DiscoKhan ani ESG ani DEI nie wpływają bezpośrednio na kontrakty. A inwestorzy do serii A/B to generalnie wszystko poza wykresem ilości użytkowników mają w dupie.
To że duże firmy muszą przyjmować juniorów, ludzi z marginesu i nietypowe umysły aby uniknąć hermetyzacji i śmierci nie wymaga regulacji tylko pomyślunku.
Tak z ciekawości, ile razy miałeś podobny błąd do tego który się przytrafił u Google?
Pisałem o małpach, przypomnę też AI Hitlera od Microsoftu. Technologia nie jest prosta, a jak dodasz do tego politykę i zarządzanie organizacją to w ogóle wychodzi niezły cyrk.
@wombatDaiquiri to ja się włączę, pracownicy działu odpowiedzialnego za Gemini wypowiadali się na ten temat i potwierdzali to, że w tym AI został celowo wprowadzony taki mechanizm, nikt z tego tajemnicy nie robi. Jako powód podawali, że z ich produktu korzystają ludzie z różnych części świata, a standardowo AI generujące obrazy ma bias w stronę pokazywania białych, bo istnieje nadreprezentacja takich wizerunków w zbiorze uczącym. Poszukaj sobie tych wypowiedzi, trudno nie jest bo temat głośny ostatnio. @DiscoKhan ma rację tutaj, widzę też że cierpliwie stara się tłumaczyć proste i oczywiste rzeczy, nie wiem czemu tak się upierasz żeby mu tej racji nie przyznać.
@PanPaweuDrugi ale racji w czym? Że jest to efekt uboczny tego jak działa ta technologia? Przecież to ja napisałem że może to jest po prostu rozwiązanie problemów ze AI identyfikowało czarnoskórych jako małpy xD A więc nawet podałem wymyślony przykład który się zgadza z tym co napisałeś.
Więc Twoim zdaniem z czym się nie zgadzam konkretnie w wypowiedziach kolegi?
@wombatDaiquiri to nie ma związku z tamtym błędem, to jest zupełnie inny mechanizm i inne AI. Rozpoznawanie obrazów to AI klasyfikujące, tutaj masz do czynienia z generatywnym typu Stable Diffusion.
Z czym się nie zgadzasz? No z tym, że to celowy "tweak" technologii w stronę przedstawiania jakiegoś obrazu rzeczywistości, a nie poprawa błędu, bo tam błędu żadnego nie ma. Spójrz sobie na midjourney albo na to AI od Binga albo na dowolne inne z dziesiątek AI generującego obrazy z promptów, to nie jest wcale jakaś nowa technologia i żadne takiego "problemu" nie miało. Tutaj chcieli dorzucić więcej diversity (co jest powszechnie wiadome) i za dużo im się posypało.
@PanPaweuDrugi ale małe diversity to jest obiektywnie problem - jeśli piszesz "human" i dostajesz ciągle białego/czarnego/mężczyznę/kobietę to jest to taki sam (jeśli chodzi o skutek nie o przyczynę) bias modelu tylko w drugą stronę.
małe diversity to jest obiektywnie problem
@wombatDaiquiri nie rozpędzałbym się tutaj ze sformułowaniem "obiektywnie". Myślę, że obiektywnie problem by był jeśli generowane obrazy nie odpowiadały promptom albo miały złą jakość w jakimś aspekcie, ale zgadzam się że nie powinno być tak, że AI ma bias w kierunku jakiejś rasy, a już zwłaszcza jeśli prowadzi to do fałszowania historii.
Tam się jednak coś więcej odwaliło, bo to AI odnawiało generowania białych jeśli zostało o to wprost poproszone (natomiast z generowaniem innych ras na bezpośrednią prośbę problemu już nie miało), więc wyraźnie zdradzało jakiś niezbyt etyczny trening lub filtr promptów.
@hellgihad George Friedchickenton, Albert Chilsupportein, Elon Rapeusk
Zaloguj się aby komentować