Eksperci AI korygują prognozy o czasie potrzebnym do uzyskania AGI [ENG]
YouTube#technologia #nauka #ciekawostki #ai #sztucznainteligencja #agi
@NrmvY - obstawiałem 2027 - on mówi, że może byc nawet już w 2024 - bez względu na to kto ma rację i nawet jeśli stanie się to dużo pozniej, powiedzmy za 25 lat, to teoretycznie stanie się to wciąż za naszego życia
@koszotorobur mój własny strzał jest taki, że do końca tej dekady będziemy mieli system AI będący w stanie wykonać wszelkie prace intelektualne na poziomie przeciętnego człowieka.
Nie mam nic na poparcie tej tezy, to jest moje "wishful thinking"
@NrmvY - dla jednych życzeniowe myślenie a dla innych wieszczenie katastrofy
@koszotorobur rozwiń katastrofę. Jestem ciekawy co za tym stoi, bo każdy ma własny scenariusz tego co nastąpi po osiągnięciu AGI.
A jakichs komentarz do tego?
https://rodneybrooks.com/predictions-scorecard-2024-january-01/ - Rodney Brooks (head of Robotics AI lab na MIT) przewiduje ze moze do 2048 bedziemy mieli robopsy o inteligencji psow domowych. Ucielesniona kognicja to bardzo skomplikowany temat and statystyczne modele jezykowe nie nawet na orbicie prob rozwiazania tych problemow.
@paddyzab takie predykcje w mass mediach to jest ucieleśnienie prawa, że ludzie przeszacowują wpływ technologii w krótkim czasie, i niedoszacowują w długim czasie.
Tesla już teraz potrafi robić trasy kilkaset mil bez żadnej interwencji (w sprzyjających warunkach). Sporo rozwiązań jest hamowanych w "trosce o bezpieczeństwo".
Gdybyśmy mieli tylko trochę więcej swobody to wiele systemów byłoby aktualnie znacznie bardziej zaawansowanych. Może z kilkoma ofiarami postronnymi, ale to niewielka cena za postęp.
Nie będzie żadnego przełomu bez przełomu technologii. Możemy się jarać że komputer wie dużo i wie więcej ale nie podejmie decyzji jak człowiek bo dla każdego człowieka odpowiedź tak i nie są prawidłowe dla każdego pytania.
Dla komputera to zawsze jest nie lub tak. Nie ma przebacz czyli zawsze popełni błąd.
Czyli może zajebiście odczytać linie ruchu drogi ale nie skuma że ktoś go oszukał rysując kwadrat do okola niego albo koło.
Jakby go nie nauczyć to zawsze w tej materii popełni kiedyś błąd nawet mając pierdyliard danych.
A teraz trochę angedotek historycznych
Ludzie aktualnie się ścigają w kwestii obliczeń kwantowych i łamania szyfrów. I tu mówią też niby o 27 czy tam 30.
W latach 90 mówiło się w cholerę o wirtualnej rzeczywistości i był mocny boom wraz z prognozami jak to w2020 wszyscy będą mogli wejść do wirtualnej rzeczywistości przez wszczepione chipy
W latach 60 snuto że w latach 8090 będzie już baza na księżycu i wycieczki a my ciągle mamy problem z przedarciem się przez grawitację.
W latach 70 też był boom na sztuczną inteligencję i sieci neuronowe i chuj na razie wyszło.
Maszyny binarne nigdy nie będą myśleć jak ludzie. Jest to standardowe ograniczenie tych maszyn. To jest maszyną deterministyczna zawsze ci da ten sam wynik. Nie ma odstępstw.
@kodyak
Nie będzie żadnego przełomu bez przełomu technologii. Możemy się jarać że komputer wie dużo i wie więcej ale nie podejmie decyzji jak człowiek bo dla każdego człowieka odpowiedź tak i nie są prawidłowe dla każdego pytania.
Prace nad komputerami kwantowymi idą pełną parą tak jak napisałeś, więc przełom technologii też może być bliski.
https://jobs.careers.microsoft.com/global/en/job/1625268/
Do tego AI już powoli zaczyna przejmować sektor bankowy i np. podejmuje decyzje co do przyznawania kredytów
https://www.igh.com/ai-credit-decisioning
W latach 90 mówiło się w cholerę o wirtualnej rzeczywistości i był mocny boom wraz z prognozami jak to w2020 wszyscy będą mogli wejść do wirtualnej rzeczywistości przez wszczepione chipy
To również już jest badane na dość szeroko zakrojoną skalę, choćby Neuralink Muska się tym zajmuje, ale on jest bajkopisarzem więc w sumie nie wiadomo czy coś z tego będzie
https://www.sciencedaily.com/news/mind_brain/brain-computer_interfaces/
Generalnie to masz rację i wiele przepowiedni "co będzie za sto lat" się rozminęło z rzeczywistością dość srogo, ale w AI są pakowane pierdyliardy dolarów i właściwie wszyscy giganci z sektora Tech skupiają się tylko na tym.
Jak dla mnie to nie jest kolejny ślepy zaułek i diabli wiedzą co się wydarzy w ciągu następnych kilku lat, ale patrzenie na rozwój tej technologii przez pryzmat zwykłych komputerów czy maszyn binarnych jest dość naiwne.
@hellgihad wszystko sie zgadza ale że będzie przelom zac2-3 lata to lekka przesada. W komputerach kwantowych to jest mnóstwo problemow przed samym AI. Już pisałem. Musi być postęp technologiczny. To sie raczej nie wydarzy w najblizszych 5 latach. Na tym co teraz mamy nie uda się AI w prawdziwym tego słowa znaczeniu.
Tak robot przyniesie ci herbate nawet zapazy, przwiezie ci zakupy, włączy światło, poda ci top10 czegokolwiek napisze ladnego maila itd ale to nie AI. To tylko maszyna liczącą którą ci pomoze. Żadnej świadomość nie uzyska. Na razie to więcej w tym marketingu za co google ktore zaczelo ten hype na ai w sumie już dostaje krytykę.
@kodyak Ano to już gadasz o samoświadomości a nie o AI. W te rejony to nie ma się co nawet zapuszczać z przewidywaniami bo nikt za bardzo nie wie skąd się bierze świadomość a co dopiero żeby ją emulować.
No ale sztuczna Inteligencja nie musi być świadoma żeby być "mądrzejszą" od ludzi
@kodyak @hellgihad
To tylko maszyna liczącą
A czym innym jest człowiek? Bo możemy tak ciągle przesuwać definicję żeby czegoś nie uznać za AI, ale dojdziemy do takiego absurdu że będziemy musieli wtedy przyznać, że człowiek to też nie jest inteligentny i świadomy. W końcu to tylko trochę materii która działa wedle zapisanego schematu. W człowieku nie ma żadnej "magicznej siły" która by dawała coś od siebie co by wpływało na pracę mózgu. Chyba że ktoś wierzy w istnienie duszy i że to jest ta "magiczna siła".
Ale w gruncie rzeczy mózg to komputer biologiczny który również wykonuje instrukcje i mając odpowiednio dużo mocy można by to zasymulować. I jeśli taki mózg symulowany w komputerze w działaniu byłby identyczny jak ten biologiczny, to czy jest on prawdziwy czy nie?
W gruncie rzeczy, jeśli coś jest wystarczająco zaawansowane i działa, to dlaczego mamy dbać o to jak działa pod maską? Przecież też nie wiemy jak na przykład przebiega proces myślowy lekarza a jednak przyjmujesz że on zdiagnozuje chorobę i cię wyleczy, mimo iż jego proces myślowy jest dla ciebie tajemnicą. Tak samo AI. Jeśli będzie spełniać stawiane przed nią zadania, to nie ma znaczenia czy jest świadoma czy nie, czy działa tak czy inaczej.
@NrmvY No to już trochę wchodzenie w filozofię jak dla mnie. Póki co nie wiadomo skąd się bierze samoświadomość z tego co wiem. Są jakieś tam doświadczenia na to przeprowadzane z małpami itp. ale nie znam szczegółów.
AI i siatka neuronowa jest wzorowana na procesach zachodzących w mózgu tak jak mówisz. Dostajemy input, analizujemy go czy co tam się dzieje i wypluwamy output, podobnie jak robi to AI.
Możliwe że powiększając tę siatkę i ładując do AI więcej mocy obliczeniowej samoświadomość po prostu się pojawi w pewnym momencie, ale wcale bym się nie zdziwił jeśli przegapimy ten moment... albo w drugą stronę będą doniesienia o samoświadomym AI co kilka tygodni tak samo jak z cudownymi lekarstwami na raka
@hellgihad bardzo ciekawa jest "Predykcyjna teoria umysłu" która mówi mniej więcej o tym, że mózg buduje taki wewnętrzny model świata, aby minimalizować zaskoczenie (różnicę) między rzeczywistością a tym co sobie wyobraził na podstawie swojego modelu i przewidywań i danych wejściowych ze środowiska.
To jest bardzo zbliżone (choć oczywiście umysł/mózg jest bardziej złożony) do togo co piszesz - tego jak uczymy nasze AI. Dajemy input, i jeśli output się różni od naszego pożądanego to sieć zmienia wagi tak żeby lepiej trafiać.
@hellgihad a o czym jest tu mowa chyba właśnie o tym. Ma byc podobne do ludzkiego myślenia a nie do ludzkiego obliczania.
@NrmvY ludzkiego myślenie nie zasymulujesz komputerem binarnym. Potrzebny jest duży skok techologiczny jak juz pisalem a nie pisanie jakiego skomplikowanego algorytmu i mowienie że to AI. Cos co zastąpi komputery jakie znamy. Nablizej jest chyba do komputerów kwantowych ale te są na stopniu dużo odbiegającym jeszcze od działania na jakim sobie wyobrazami AI. To na pewno nie będzie ta dekada. Być może nawet nie za naszego życia, także nie ma się co podniecac
@NrmvY czyli mówisz o sieci neuronowej. Ten temat jest już przejechany wzdłuż i wszerz w latach 70 i dla komputerów binarnych okazal się niewykonalny. Tzn nie wszystkie jego aspekty da się zasymulować tym uczeniem. Oczywscie cały czas mowa o technologi którą mamy czyli o zwykłych komputerach.
To jest właśnie problem. W uproszczeniu dla człowieka tak i nie może być prawdziwe dla kompurptera binarnego nie ma takiej mozliwosci. Zawsze jest tak lub nie. Albo go nauczysz ze bedzie mówił tak albo go nauczysz ze bedzie mówił nie w czasie. Nigdy nie podejmie decyzji w czasie że tym razem powie tak a w innym czasie nie lub odwrotnie
@kodyak ale nie chodzi o to przecież żeby symulować. Wystarczy że masz program który daje taki sam rezultat. A jak on działa - to nieistotne dla jego używania. Na tej samej zasadzie zwykłego użytkownika auta nie interesuje jaki tam jest silnik, DOHC, OVH, wytryski, gaźniki. Ma jeździć dobrze, bezawaryjnie. Po maską może nawet być technologia ufoków, ale dla zwykłego użytkownika to nie ma znaczenia, liczy się efekt końcowy - czy jest wystarczająco dobry.
No i nie piszesz algorytmu AI, na tym właśnie polega cała zabawa. Uczysz AI, ale to co jest w środku to jest tak zwana "czarna skrzynka" i nikt nie wie jak ona działa, bo jest zbyt skomplikowana do analizy.
@kodyak Znaczy wydaje mi się że skok technologiczny jest potrzebny tylko po to aby zwiększyć moc obliczeniową komputerów które na dzień dzisiejszy nie są w stanie poradzić sobie z większymi sieciami neuronowymi.
To czy taki komputer będzie binarny czy kwantowy ma mniejsze znaczenie - synapsy mózgowe przecież też przenoszą informację zero jedynkowo i jakoś to działa
@hellgihad Z tego co pamiętam problemem bylo zaprogramowanie bramki xor które dla tych sieci i komputerow binarnych jest niemozliwe i w sumie całe badania na synapsami wtedy padły. Nie da się dobrać wag tak by ta bramkę zasymulować.
@NrmvY AI uczysz ok ale to on w srdoku ma algorytmy to w sumie taki skrot myslowy.
Ciebie nie interesuje co jest w srodku ok samochod działa. Jednak co się dzieje jak okazuje się że ai samochodu nie działa np z powodu że spadł snieg a on nauczony jest reagowac na kolor bialy. On ci nie powie dlaczego nie dziala on ci powie tylko error ewentualnie zakumufluje swoją wypowiedź żebyś myślał że rozmawiasz z maszyna myślącą "niestety nie mogą ci udzielić odpowiedzi". Dobrze nauczy się go że w takich sytuacjach jak jest duzo białego to powiedz ze to pewnie z powodu śniegu. Ok wtedy ci to powie ale wtedy nie skuma że ktoś wokół niego pomalował wszystko na biało i znowu będzie ci sypal glupotami itd jak nauczysz ze ktoś go zrobił w konia jakiś koles malujac kolor bialy to nie skuma że spadł śnieg itd oczywscie możemy tak brnąć kolejne nieskończone ścieżki analiz nie na podstawie koloru ale czegoś innego ale to nadal będzie tylko nauczona głupia odpowiedź. Zawsze istnieje ryzyko naprawdę całkiem spore że popełni błąd.
To jest maszyna on zawsze wykona zadanie ale jest zbyt głupia zeby myśleć jak człowiek. Zawsze pomysli jest zero jedynkowo. Nigdy tez nie pomysli że tego czego się nauczył jest bledne. Taka ai działa tylko dobrze jak da się jej proste obliczenia ale to i tak nie gwarantuje że się nie pomyli. Po prostu zmniejsza ryzyko bledu
@kodyak to o czym piszesz to po prostu zarzut, że obecne systemy AI nie są w stanie wnioskować. Czytaj, mogą udzielić odpowiedzi tylko na to czego zostały nauczone, natomiast nie są w stanie udzielić odpowiedzi na pytanie którego nie zostały nauczone, a musiałyby wyciągnąć wnioski ze swojej wiedzy.
To kwestia sporna, niektóre obecne artykuły już pokazują, że systemy na poziomie GPT4 są w stanie wnioskować i dać odpowiedzi na pytania których nie spotkały w danych uczących.
@NrmvY to jest tylko sztuczka. On zawsze będzie wnioskował na podstawie tego czego sie nauczyl. Nigdy nie skuma że czasami ten wniosek jest prawdziwy a czasami nie
@kodyak przecież to tak samo jak człowiek ( ͡° ͜ʖ ͡°)
Człowiek się uczy i podejmuje decyzje na podstawie swojej wiedzy, czasami te decyzje są dobre, czasami nie, czasami nawet sobie nie zdajesz sprawy z tego że są złe.
@kodyak A od tej strony podchodzisz. No bramki xor są powszechnie używane w IT ale na poziomie binarnym rzeczywiście pojedynczy bit może tylko przyjąć wartość 1 lub 0.
Komputery kwantowe byłyby wyjściem bo kubit może przyjąć jeszcze trzecią "nieokreśloną" wartość która określa się dopiero w momencie pomiaru. Nadal wydaje mi się że to nie jest warunek konieczny do dalszego rozwoju AI w takiej formie jaką mamy ją podaną dzisiaj, ale no nie jestem zbyt dobry w tym temacie więc nie będę udawał ze się znam
@hellgihad wartości pomiędzy 0 i 1 można symulować X ilością bitów, z resztą modele domyślnie są w FP16. Jest to bardziej zasobożerne niż 0 i 1 ale to tylko problem zwiększenia ilości mocy obliczeniowej.
Z resztą, są prace nad modelami binarnymi, tzn takimi w których wagi mają tylko 0 i 1. Model taki musi mieć dużo dużo więcej wag niż model standardowy, ale za to działa szybciej przy tej samej jakości wyjściu.
Do tego też dążą naukowcy, mając coraz lepsze metody kwantyzacji gdzie zamiast FP16 używa się 6 bitów, 5 bitów, nawet 2 bitów na wagę i aktualnie do 4 bitów nie ma sporej straty jakości (wcześniej było to 6 itd). Ogólnie modele zachowują jakość przy coraz mniejszej precyzji na wagę.
@NrmvY absolutnie jest to przeciwieństwo. Człowiek w każdej chwili może zmienić zdanie na żadnej podstawie i to jest ta różnica. Komputer binarny nigdy tego nie zrobi. Główna zasada człowieka jest łamanie zasad
@hellgihad mówimy cały czas o przejsciu świata przez ai a to uważam aktualnie za niemożliwe bez osiągnięcia przelomu a na razie taki się nie zapowiada w najblizszych latach. To jest po prostu bardziej skomplikowany algorytmy który pomoże w wielu rzeczach ale nic wiecej
@kodyak No cóż a ja uważam że się mylisz i żaden przełom nie jest potrzebny. Czas pokaże
@hellgihad to w sumie nie jest uważanie. To są zwykle problemy które nadal nie zostały rozwiązane. I nie będą z powodu ograniczen.
@kodyak No to daj mi jakieś linki albo coś jak będziesz miał chwilę, bo nie słyszałem o tych problemach wcześniej i chętnie bym się dowiedział więcej.
@hellgihad już pisałem tutaj w dyskusji z innym kolega. Aktualnie komputery nie są w stanie zmienić zdania jak człowiek bez żadnej analizy i to już burzy całą koncepcję ai na aktualnych komputerach. Wystarczypoczytac co powiedział Turing jak komputery dopiero raczkowaly. Już wiedziano o tym na samym początku. To nie jest nic odkrywczego.
Bardziej niech Ci co twierdzą że już mamy sztuczna inteligencje zaprzecza poczatkom komputerów zamiast generowac maretingowo ze mamy coś czego nie mamy.
@kodyak No wiem że pisałeś, ale nie mogę znaleźć nic na ten temat w necie więc wiesz, tak samo ja se mogę pisać że się mylisz no i co z tego wyniknie?
Dlatego prosiłem o jakieś konkretne materiały na ten temat.
Test Turinga już został pokonany przez AI w 2014: https://www.bbc.co.uk/news/technology-27762088
https://www.digitaltrends.com/computing/computer-ai-passes-turing-test-first-time/
Chagpt poda Ci różną odpowiedź na to samo pytanie co zaprzecza temu co pisałeś że AI zawsze będzie odpowiadać tak samo, a o ile algorytmy uczenia maszynowego są dość proste, to już sam proces "uczenia" się jest podobno dość mglisty i w sumie nie wiadomo jak MLMy przetwarzają swoje dane.
@hellgihad rozdzielmy o czym mówimy. Jak będziemy sobie zmniejszac wymagania co do ai to oczywscie to da sie oisagnac. Ale droga do swiadomosci i "przejecia" swiata jest na tych komputerach niemozliwa.
Chat Gpt zawsze poda ci dokładnie taka sama odpowiedź jeśli będzie miał dokładnie takie same wejściowe. Ato że ma różne parametry czasu losowości itp to też są parametry wejsciowe. Gdyby zdarzyła się taka sytuacja że otrzymałby dokładnie takie same dane to by odpowiedział tak samo. Ale prawdopodobnie tak się nie wydarzy bo zadajemy pytanie 2 razy ale juz choćby w innym czasie.Jednak tam jest tyle parametrów że odczuwa się że jest to coś co myśli, ale to nadal jest tylko odczucie. I to jest niby test touringa, ale po to właśnie go stworzył bo wiedział że nie da się osiągnąć swiadomosci i symulować dokładnie myślenia człowieka.
Dla mnie to nie jest żadne ai. Ot zwykle algorytmy i przede wszystkim marketing jak u elona muska ze startem na marsa. Firmy się o to ścigają tylko po to by wciskać to w nowych urządzeniach bo efekt wow będzie niesamowity i ten kto bedzie pierwszy zgarnie kupę kasy.
Nikt nie odważy się tego wsadzic do zadnego urządzenia decyzyjnego bo to zawsze może popełnić głupszy błąd niz ten co go obsługuje. No oczywscie tutaj moga być wyjatki;). Do pierwszej katastrofy. To będzie system wspomagajacy i tyle
@kodyak No dobra, widzę że się nie dogadamy. Cały czas piszesz o tym co Ci się wydaje a to dla mnie nie są żadne argumenty, sorki.
@kodyak @hellgihad jak dla mnie to świadomość zupełnie nie jest istotna w zagadnieniu AI. Bo świadomość jest czymś co nauka ma problem określić. OK, każdy z nas będzie twierdzić że jest świadomy. Tak samo jak spotkacie somsiada złodzieja to też pewnie nie będziecie przeczyć temu że ten człowiek posiada świadomość.
Natomiast jeśli system AI działa tak jak chcemy i wykonuje sprawnie postawione przed nim zagadnienia, jakie ma znaczenie to czy będzie świadomy czy nie? To może być problem do dyskusji dla filozofów albo badaczy moralności, ale z czysto utylitarnego podejścia do AI jako narzędzia - świadomość nie jest elementem dyskusji.
Nie ma nigdzie bezsprzecznego dowodu na to, że świadomość jest albo nie jest konieczna do posiadania systemu o dużych możliwościach intelektualnych. Może się okazać że świadomość mamy dlatego, że ewolucyjnie pomagała osobnikom przetrwać, natomiast będzie to całkowicie zbędne w systemie AI który projektujemy. Może też być tak, że jest to spontanicznie, samoistnie pojawiająca się właściwość wszystkich wystarczająco złożonych systemów, bez podziału na to czy są to systemy biologiczne czy cyfrowe.
@NrmvY No dla mnie też to czy komputer będzie miał świadomość czy nie jest kompletnie bez znaczenia.
@hellgihad ale to dzięki temu można powiedzieć czy się zbuntuje czy nie czy przejmie swiat czy nie;)
@hellgihad ale gdzie napisałem że mi się wydaje. Przecież to wszystko jest jasne już od poczatku. Maszyna binarna liczącą zawsze jest deterministyczna. Zawsze poda ci ten sam wynik przy tych samych danych wejściowych. Taka jest zasada jej działania. To nie jest moje wydawanie się. Tak po porstu jest i było wiadome od poczatku
My ciągle rozmawiamy o przejeciu świata przez ai. A to sie nie stanie jak komputer podajcy wyniki nie rozumie co podaje.
To sa tylko sprytne algorytmy propagacji wstecznej.
@kodyak A, no dobra, trochę nie zrozumiałem chyba o czym gadamy xD.
To tym bardziej żaden przełom technologiczny nie jest potrzebny, bo na dobrą sprawę to Ty również możesz być AI; nie będę w stanie tego stwierdzić dopóki Cię nie poznam osobiście o ile będziesz dobrze udawał.
A nawet jeśli to skąd mam wiedzieć co się dzieje w Twojej głowie i na jakiej podstawie piszesz to co piszesz? Jakie to ma znaczenie czy AI zmieni wynik spontanicznie czy dlatego że jej się zmienią parametry wejściowe, które mogą być tak subtelne że nawet nie będzie wiadomo czemu to zrobiła?
@hellgihad postęp człowieka to ciągle łamanie zasad które sam ustalił. Komputer nigdy nie osiągnie przelomu jeśli będzie opieral się tylko na tym co poznał.
Można sobie wyobrazić jakieś testy paradoksow, sprzecznych zasad i co na ten temat by uwazal
Ot przypomina mi się np film ja robot. nie może skrzywdzić czlowieka i musi byc posluszny i ma chronic siebie, a człowiek prosi żeby go zabil bo tak uratuje siebie.;)
@kodyak To już też było testowane wielokrotnie. Chatgpt potrafił odpowiedzieć na pytania na które nie mógł znaleźć odpowiedzi w internecie. AI zajmujące się graniem w szachy czy w GO również potrafiło grać na sposoby które człowiekowi by nie przyszły nawet do głowy.
Następny głupi przykład - chatgpt ma w jakiś sposób wgraną polityczną poprawność i jak go poprosisz żeby napisał Ci dowcip o żydach czy o murzynach to odmówi, ale idzie to obejść na kilka sposobów i "zmusić" go do napisania takich dowcipów.
I nawet wiem co powiesz - że to po prostu zlepek danych algorytmu, ułożonych tak żeby pasowało, ale czym to się różni od właśnie łamania zasad które były nadane w modelu treningowym?
Nawiasem mówiąc, bardzo mi się podoba ta dyskusja, ale nie wiem czy dojdziemy do jakiegoś porozumienia
@hellgihad nie chodzi o to żeby wnioskował z tego co zna ale łamał zasady a tego nie zrobi bo wnioskuje właśnie na podstawie tego co zna. I to w sumie nie jest ograniczenie algorytmu a ograniczenie aktualnych komputerow
Paradoksalnie te ograniczenie pozwala nam nad nim panowac bo dzięki temu jest przewidywalny, ale dlatego też wiemy że jest sztuczny:)
@kodyak No ale podaj mi jakiś konkretny przykład o co Ci chodzi, bo nie potrafię zrozumieć do czego pijesz.
Znaczy no wiem o co Ci chodzi, ale co rozumiesz pod pojęciem że ma złamać zasady? Na przykładzie chata gpt powiedzmy.
Przykład z robotem który przytoczyłeś jest bardzo podobny do przykładu z poprawnością polityczną.
Zaloguj się aby komentować