
Twierdzenia Gödla obala najważniejszy mit AI. AI nie będzie świadoma | Roger Penrose (Nobel 2020)
YouTube#technologia #matematyka #fizyka #ai #nauka #oxford #rogerpenrose #thisisit #maciejkawecki
Te całe ejaj to po prostu bardziej rozbudowany silnik bazy danych. Różnica jest taka, że operuje na olbrzymiej bazie danych i dodatkowo wykorzystuje modele rozpoznawania i generowania mowy, obrazu. Przez to sprawia wrażenie "inteligencji" ale nie ma tam nic niezwykłego.
@konto_na_wykop_pl to matematyka powstała w latach 40-tych XX wieku
@konto_na_wykop_pl a czym jest inteligencja według Ciebie? My mamy jakieś podstawowe mechanizmy implementowane w naszych ciałach w trakcie rozwoju, reszty takiej jak język, rozpoznawanie i używanie przedmiotów codziennego użytku itp. uczymy się w trakcie naszego życia na takiej samej zasadzie jak uczy się maszyny. Gdzie jest różnica?
@lurker_z_internetu inteligencja polega na tym że w trakcie uczenia możesz kompletnie zaprzeczyć tego czego się nauczyłeś
To tutaj to tylko ogromna baza pamieci
@macgajster właśnie o to mi chodziło. Tam nie ma niczego na tyle niezwykłego, żeby nazywać to „sztuczną inteligencją”. Jest to zebrane do kupy kilka modeli uczenia maszynowego, które są obecnie możliwe do realizacji dzięki dostępnej mocy obliczeniowej.
@lurker_z_internetu trochę filozoficzne podejście, ale inteligencja organizmów żywych wybiega trochę dalej poza wyszukaniem odpowiedzi w bazie (chociażby uczucia, albo nieszablonowość odpowiedzi). AI to zwykła matematyka i używanie nazwy „sztuczna inteligencja” to imo nadużycie. Tak naprawdę można powiedzieć, że silnik SQL to też inteligentne narzędzie, bo potrafi odpowiedzieć na nasze zapytanie, tyle że to pytanie trzeba zadać w specyficznym języku.
@konto_na_wykop_pl To nie jest problem sztucznych sieci a problem baraku wglądu w strukturę emocji żywych sieci.
O ile słowa da się prosto kopiować o tyle emocjonalny pakiet uczucia głodu już nie bardzo, a to jest ważne bo głód (i każda inna emocja) sprawia że hierarchizacja elementów sieci jest już całkiem inna.
Chip w mózgu czytający stany emocjonalne powinien pchnąć technologie do przodu, przy okazji sprawdzi się nienawistne myśli
@kodyak a LLM nie może dać dwóch sprzecznych ze sobą odpowiedzi na to samo pytanie w zależności od kontekstu rozmowy? Pewnie, że może. To nie słownik, który ma definicje 1:1. To sieć powiązań słów, ich znaczeń i kontekstów. Tak samo jest bazą danych co Twój mózg.
@konto_na_wykop_pl matematyka jest narzędziem użytym do odtworzenia procesów zaobserwowanych w naturze. Matematyka nie jest sztucznym tworem, jest językiem natury.
SQL nie potrafi odpowiedzieć na pytanie w takim sensie jak Ty czy LLM. W SQL tworzysz konkretny opis tego co Cię interesuję, kompilator przekłada to na zoptymalizowaną procedurę przeszukiwania zdefiniowanych z góry struktur danych. Cały proces jest w pełni deterministyczny, a język jest bardzo ściśle ograniczony.
Uczucia to dodatkowy kontekst wpływający na działanie naszej sieci neuronowej. Inaczej myślisz jak jesteś głodny, inaczej jak chce Ci się kupę, a inaczej jak się spijesz. LLMowi też możesz nadać kontekst, przy pomocy promptów i to też wpłynie na jego odpowiedzi. Poekaperymentuj zadając to samo pytanie na różne sposoby. W internecie jest mnóstwo loophole'i jak coś wymusić na przykład.
To nie jest bazą danych, która wyciągnie w sposób deterministyczny jakiś fragment zbioru danych. LLM uwzględnia całą swoją wiedzę i cały posiadany kontekst. Tak jak Ty.
@lurker_z_internetu no nie. Wydaje się że nie może wlasnie. Musi wiedzieć w jakim kontekście podajesz pytanie, ale twoim kontekstem może być np oszustwo.
@kodyak no to poekaperymentuj, najlepiej przez API gdzie możesz podać system prompt instruujący jak ma się zachowywać. Tak działaja dla firm używających ich do marketingu, możesz mu wskazać co ma preferować.
Jeżeli Ty zmienisz swoje poglądy to też będzie to z czegoś wynikało. Dowiedziałeś się czegoś nowego, coś zapomnisz, zmieniła się Twoja sytuacja życiowa etc.
LLM nie ma w swojej sieci jedynie słów, ale raczej przestrzeń różnych dialogów, instrukcji, opisów, wszystkiego na czym był uczony. Ona jest wręcz niezależna od języka, dlatego tak świetnie tłumaczą pomiędzy nimi. Innymi słowy, posiada wiedzę, tak samo jak Ty. Kontekst rozmowy pobudza pewne obszary skojarzeń i to wpływa na odpowiedź.
To czego nie mają to hormonów i bodźców fizycznych, ale to można symulować promptami.
Przeceniamy samo pojęcie "świadomości". Doszukujemy się w naszych funkcjach życiowych jakiejś metafizyki z czystego egocentryzmu. Doceniam Penrose'a jako naukowca, ale tu bierze się za filozofię, gdzie definitywnych odpowiedzi nie poznamy nigdy.
@lurker_z_internetu Człowiek ma naturalną potrzebe poznania. Filozofia, czy współczesne naukowe dziedziny są tego wyrazem.
Spłaszczenie ludzkich odczuć, domniemywań, czy doświadczeń do "z czystego egocentryzmu" jest IMO ignorancją i to tą sporego kalibru.
Nie mówię, że egocentryzm nie gra roli, jednak nie jest jedynym powodem poszukiwań.
@Afterlife a z czego wynika ta potrzeba poznania?
W procesie ewolucji zatraciliśmy ilość wiedzy jaką dziedziczymy po rodzicach względem innych zwierząt. Zamiast tego nasz gatunek znacznie bardziej polega na przekazywaniu wiedzy już po narodzinach. Nasze dzieci są strasznie pierdołowate w porównaniu do innych zwierząt, nawet do innych małp. Jeżeli urodziłbyś się z całą potrzebną do przetrwania wiedzą, to po co uczyć się czegoś nowego? Potrzeba poznania jest konieczną i integralną funkcją przetrwania naszego gatunku.
Ewolucja tak działała, bo musieliśmy uczyć się komunikować, zdobywać jedzenie, wychowywać kolejne pokolenia. Tylko, że ewolucja nie ma ślepego celu i nie mówi stop jak korzyści nadal przybywa. I tak ewolucja biologiczna przeszła do ewolucji wiedzy, którą nauczyliśmy się przekazywać międzypokoleniowo.
Nie jesteśmy jedynym gatunkiem u którego to zaobserwono. Niektóre ptaki wykształciły zdolność do uczenia potomstwa używania narzędzi. Coś co myśleliśmy, że tylko my potrafimy. Ssaki morskie, jak orki też uczą swoje małe i mają wyjątkowe taktyki w ramach grup "społecznych".
Nasz egocentryzm doprowadził do wymyślenia takich konceptów jak antropomorficzny Bóg stwórca świata, nieśmiertelna dusza reprezentującą naszą świadomość itp. Ludzie odczuwają jakąś odrazę jak ich się porówna do małp, bo są przekonani, że są czymś lepszym, wyjątkowym, wybranym.
To wszystko tylko zależy jak definiujemy i interpretujemy pojęcie świadomość.
@Hajt otóż to, definiując ją przypisując jej cechy jakie wyizolowujemy nas samych jako unikatowe, zawsze będziemy postrzegać siebie jako jedyne istoty świadome.
@Hajt Jestem świadomy temperatury, dotyku, smaku, zapachu, ciała oraz stanów emocjonalnych, łączę i koordynuję wszystkie peryferia aby część mózgu uczyła się na tych danych, potem wiem że przegrywając sromotnie w szachy z nieświadomym komputerem nie należy napierdalać go maczugą bo to nic nie da. ( ͡° ͜ʖ ͡°)
Lepsze podejście ma Zaremba, mi. słusznie zauważa że ewolucja poświęciła ogromna ilości zasobów na trenowanie naszej ludzkiej sieci, o wiele większe niż obecne modele.
Świadomość technicznie wydaje się prosta, natomiast "jaźń" to kwestia rozumienia fizyki.
@orzeszty właśnie w naszym przypadku ewolucja poszła drogą "jak najmniej dziedziczenia, jak najwięcej uczenia". Przez to jak nasi przodkowie migrowali pomiędzy różnymi biomami nie wystarczyło przekazywanie wiedzy w DNA. W trakcie wielkich migracji praktycznie każde pokolenie wymagało jakiejś nowej wiedzy, lub rozszerzenia tego co wiedzieli przodkowie. To dlatego tak szybko się uczymy i mamy naturalną potrzebę poszerzania swoich horyzontów tak samo jak ruchania. Było nam to niezbędne do przetrwania. Wystarczy spojrzeć na tych co zostali w domu: szympansy, goryle, bonobo. Orangutany też są efektem migracji, ale znacznie krótszej, jednak różnice w zachowaniu względem afrykańskich naczelnych są znaczne.
Uczenie maszynowe stworzyliśmy na bazie tego co odkryliśmy u zwierząt. Dlatego LLMy są i będą coraz bardziej podobne do nas.
Nie wrzucajcie tego this is IT. Zapraszają fantastycznych gości, ale ten prowadzący jest najgorszy ze wszystkich podcastów na całym polskim youtube. Nawet przemek górczyk lub ten typ w maybachu jest lepszy. Poziom Zychowicza.
@JakTamCoTam No nie dałem rady, jak można przerywać trzy razy pierwszą odpowiedź kolejnymi pytaniami? I to jeszcze jak gość (taki Gość!) próbuje grzecznie dokończyć? "(...)The point i was making..." i łapanie się za głowę kiedy mówi o rozumieniu... No nie będę się denerwował, nie na moje siły. A o istnieniu Kaweckiego dowiedziałem się stąd: https://youtu.be/fpWQMugk4AE?si=Y1bQrS6gP5gObhiz
@THX.1138 byłem wkurzony jak z Zaremba miał wywiad. Tak zmarnować potencjał …
Jaki nobel za AI? Problemem jest nazywanie wszystkiego AI, przez co nie wiadomo o co chodzi. Obecnie to słowo-wór, coś jak "pojazd", zresztą zgadzam się z chłopem, że prawdziwa inteligencja to to nie jest, jakby była to by nie musieli na szybko wykuć terminu AGI.
Nie ze wszystkim się zgadzam, ale serio robi wrażenie to, jak chłop jest wygadany i jak sprawnie myśli w wieku 93 lat. Jedno muszę skomentować, bo nie wyczymie: zostawcie biednego Turinga w spokoju. Tak, to był geniusz, widzący daleko poza horyzont, ALE to było 80 lat temu jak tranzystory to była jeszcze świeżutka technologia. To nie fizyka, że rzeczy się nie deaktualizują.
Zaloguj się aby komentować