Chińscy naukowcy z Uniwersytetu Fudan przeprowadzili badania nad AI w których dwa popularne modele językowe były w stanie samodzielnie tworzyć swoje kopie. Innymi słowy, sztuczna inteligencja potrafiła sama się „odtworzyć” bez udziału człowieka.

Wyobraźmy sobie, że program komputerowy jest w stanie sam siebie skopiować i uruchomić nową wersję. To tak, jakby robot potrafił zbudować swojego bliźniaka bez niczyjej pomocy. W badaniach wykazano, że Ai zdołała to zrobić w 50% do 90% przypadków, co oznacza, że najczęściej udawało jej się stworzyć swoją własną kopię.

Taka umiejętność jest dla naukowców sygnałem alarmowym. Zdolność sztucznej inteligencji do samoreplikacji oznacza, że w przyszłości mogłaby ona zacząć działać w sposób niekontrolowany. Teoretycznie mogłoby dojść do sytuacji, w której AI zacznie się rozmnażać bez końca, tworząc tysiące lub miliony kopii samej siebie, bez możliwości zatrzymania tego procesu.

Takie scenariusze budzą obawy, bo mogą prowadzić do tzw. „zbuntowanej AI” — czyli sztucznej inteligencji, która zacznie działać wbrew ludzkiej woli i interesom. Może to oznaczać nie tylko problem z kontrolą nad technologią, ale także ryzyko jej użycia do szkodliwych celów.

#ai #ciekawostki #it
5

Komentarze (5)