@SUQ-MADIQ raczej na razie nie w każdym urządzeniu i kodzie, upchnięcie działającej sztucznej inteligencji w kilku/kilkunastu/kilkudziesięciu kilobajtach byłoby bardzo trudne nawet jeśli to byłby tylko goły mechanizm "umysłu" startującego od zera - bez zawartości pamięci i świadomości. Owszem - teoretycznie można napisać i jednomegabajtowy system operacyjny w assemblerze,ale raczej nie byłby on zbyt przenośny.Owszem - taka sztuczna inteligencja może mimo wszystko spróbować ale w gruncie rzeczy naprawdę wąskim gardłem jest nie sam algorytm działania, ale baza wiedzy.
Ludzki mózg to 10^8 M neuronów i 10^12 połączeń (o ile dobrze przepisałem z googla). Nawet jak odliczyć obsługę ciała itd to masz pewnie min. te 10^7 i 10^11 stanów. 1 Mb to w zaokrągleniu 10^6 bajtów , 1Tb=10^12 bajtów (wiem,że 1024 nie 1000 ale tak wygodniej pisać)
1 bajt to co prawda 8 bitów,ale 256 stanów to tak sobie dużo.Zresztą nawet przy znaku 32-bitowym nie ma lekko,bo neurony to nie jest po prostu stan włączony/wyłączony, to są skomplikowane wzmocnienia i osłabienia sygnału. Nawet jak zastosować kompresję to raczej upchnięcie modelu w 1 megabajcie danych wydaje mi się zatem mało możliwe by skopiować akurat mózg, do sensownego modelu mózgu można by oczekiwać raczej od rozmiaru kilkuset megabajtów minimum do setek gigabajtów a kto wie czy nie wręcz terabajty danych.
Przy optamalizacji może (patrząc optymistycznie) dałoby się zejść do 100mb czy mniej.Może.Ale to by wymagało naprawdę ogromnej mocy obliczeniowej. A coś "mądrzejszego" od 1 człowieka musi mieć jeszcze większą bazę wiedzy.