ale... po co miałoby tworzyć lepsze modele?
szumnie nazywane AI, to nic innego jak skierowany graf asynchroniczny, czyli taka magiczna czarna skrzynka do której wkładamy liczby, i wyciągamy z nich inne liczby. Całą sztuką AI jest nauczenie się co powinno wypluwać na wyjściu, bazując na tym co zobaczyło na wejściu. Robi to przez dobieranie liczb jakie są wagami grafu.
.
.
.
Zasadniczo jestem bardziej niż przekonany, że taki chatgpt można zapisać w postaci skończonej liczby, skończonych macierzy (skończonych, ale zajebiście dużych) które potem można wydrukować na kartce, które przemnożone przez wektor na wejściu dadzą jakiś wektor na wyjściu, i jedyne co pozostanie to zdeszyfrować co oznaczało wejście i wyjście.
Żeby AI było w stanie "wymyślić" (a bardziej zgadnąć) lepszy model, trzeba zacząć od zdefiniowania, czym w ogóle będzie lepszy model? Po czym AI ma rozpoznać że model który wymyśliło jest lepszy? Jeżeli chcemy oceniać model w perspektywie tego jak sobie poradziło na danych testowych, to możemy wziąć jeden z gotowców dostarczanych przez sci-kit, I zaprogramować go żeby zmieniało parametry nowo tworzonego modelu, w zależności od tego jak ten sobie poradził na jakimś zbiorze testowym.
Scenariusz w którym AI będzie sie samo udoskonalało, nagle się zbuntuje, i zdecyduje się podbić ludzkość jest fizycznie niemożliwy jeżeli ktoś tak zakładł.