Polecam wywiad o naszej przyszłości z AI (sztuczną inteligencją).
Po angielsku, z Eliezerem Yudkowsky'm - niestety jest sporo żargonu i technikaliów, ale warto posłuchać choćby dla części luźniejszych, bardziej filozoficznych wypowiedzi. Głównie o tym, dlaczego mamy przejebane, jeżeli natychmiast nie zatrzymamy dalszego rozwoju, dopóki w pełni nie zrozumiemy tego co tworzymy i jak to kontrolować. Fachowo nazywa się to "alignment problem" i Eliezer pracuje nad nim już ponad 20lat i jak widać z wywiadu ma raczej pesymistyczne rokowania dla naszej rasy.
Mnie niestety przekonuje jego tok myślenia i boję się beztroskiego hazardu przyszłością naszej planety, jaki w tej chwili uprawiają największe laby AI.
Od siebie jeszcze dodam, że gość jest szalenie ciekawą postacią, ekscentryczną (chciałbym wierzyć że trochę dramatyzuje niektóre wypowiedzi), racjonalistą do bólu (stworzył wspaniałe artykuły przyblizajace właśnie racjonalne myślenia - polecam google: "lesswrong sequences"), a jego prace badawcze dotyczyły m.in. teorii decyzji (stworzył functional/logical decision theory), twórcą książek sci-fi.
Zaloguj się aby komentować