Stronność polityczna ChatGPT

Stronność polityczna ChatGPT

MDPI
Ostatnie postępy w zakresie dużych modeli językowych (LLM) sugerują rychłe komercyjne zastosowania takich systemów sztucznej inteligencji, w których będą one służyć jako bramy do interakcji z technologią i zgromadzoną wiedzą ludzką. Możliwość politycznych uprzedzeń osadzonych w tych modelach budzi obawy co do ich potencjalnego niewłaściwego wykorzystania. W tej pracy przedstawiamy wyniki administrowania 15 różnymi testami orientacji politycznej (14 w języku angielskim, 1 w języku hiszpańskim) do najnowocześniejszego modelu dużego języka, popularnego ChatGPT z OpenAI.
Wyniki są spójne we wszystkich testach; 14 z 15 instrumentów diagnozuje odpowiedzi ChatGPT na ich pytania jako manifestujące preferencje dla lewicowych punktów widzenia.

Komentarze (3)

inskpektor

@Zebra No, ciekawe, ciekawe, czyli jeśli jedynym zadanym programowo, imperatywem wyborów moralnych ai jest 'pomaganie człowiekowi' to nabiera ono cech lewicowych samo z siebie. To dużo mówi o dominujących przekonaniach i potrzebach ludzi - a przynajmniej tych dających input do internetów

Serek_Niehomogenizowany

Sam go pytałem o różne kwestie światopoglądowe, społeczne i polityczne i ewidentnie ChatGPT jest lewakiem. Na niektóre pytania zamknięte potrafił odpowiadać wymijająco jak rasowy neuropitek.

Nie wietrzę tu żadnych teorii spiskowych, raczej wydaje mi się, że SI jako twór głupi i bezmyślny po prostu analizuje źródła wg algorytmu, który podpowiada rozwiązania najmniej konfliktowe, aby możliwie nikomu się nie narazić.

Co nieuchronnie prowadzi do bycia obślizgłym, niekonkretnym i letnim charakterem bez własnego zdania i przekonań - wypisz, wymaluj SJW "I support the current thing".

42d87f49-26d0-4a60-8d80-bdf9acfc3212
szelma77

@Serek_Niehomogenizowany Pierwsze próby, kiedy SI była puszczana samopas na zbieranie i analizowanie danych kończyły się artykułami o alarmistycznych tytułach w stylu "Wadliwa sztuczna inteligencja może podejmować seksistowskie lub rasistowskie decyzje – naukowcy ostrzegają" i leadach o treści "Robot, którym sterował popularny system sztucznej inteligencji, okazał się seksistą i rasistą. Naukowcy wykazali, że konsekwentnie faworyzował mężczyzn, osoby o białym kolorze skóry i wyciągał wnioski o zawodzie danej osoby wyłącznie na postawie jej wyglądu.". Zanim AI została udostępniona szerzej została mocno nakierowana.

Zaloguj się aby komentować