14-letni chłopiec zakochał się w sztucznej inteligencji. Popełnił samobójstwo
Onet#technologia #ai #sztucznainteligencja #wiadomosciswiat #przegryw
świetne tam musiały być relacje na linii dziecko-rodzice
@VonTrupka już pomijając relacje w rodzinie, no to to jest jedno z niebezpieczeństw, które już dawno temu były podnoszone, że to się zacznie dziać. Walić tego jednego kurwia, który nie potrafi się odezwać do drugiego człowieka więc mu się zamarzyła jakaś miłość w stylu japońskiego neeta, ale dokładnie to samo będzie, jak na dobre się rozkręci ten biznes z ejajowym "wskrzeszaniem zmarłych". Wtedy to dopiero ludziom psychoza wejdzie do łba, jakby depresji po stracie bliskiego było mało.
@cebulaZrosolu dziecko umarło, bardzo śmieszne, boki zrywać. Hahahah, XD.
@CichoByc dziecko nie było normalne, rodzice zresztą jak widać też skoro obwiniają o śmierć dziecka wszystkich na około tylko nie siebie...
No chyba, że dla Ciebie zakochiwanie się w czacie hwdp jest normalne
Ale na postawie czego będą atakować? Z tego co piszą to go AI wspierało i odganiało od magika.
@ErwinoRommelo slyszalem ze podobno próbowała odgonić aż w końcu ja przekonal że jak to zrobi to będą mogli być razem.
@kodyak ciężki temat
@ErwinoRommelo tu masz oryginalny zapis rozmowy, pewnie większość ludzi wyczułoby o co chodzi, no ale nie AI. Kurewsko smutny obraz naszych czasów.
https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
@Odczuwam_Dysonans no niewiem naprawdę, nastolatek z depresja, kiedy stracił ochotę na tematy które go wcześniej cieszyły rodzicie powinni już reagować. Myślałem ze zagadał bota w dużo gorszy zaułek bo się da, ale to? Niewiem czy rodzice chcą zrzucić z siebie poczucie winny ( co jeszcze rozumiem) czy po prostu zarobić. Tym tokiem myślenia Moza by obwiniać połowę emo zespołów za smutne teksty. Ehh wielka szkoda jak za każdym razem kiedy młody człowiek odbiera sobie życie.
@ErwinoRommelo słuchałem coś o tym ostatnio, no i gość chyba miał lekkiego aspergera albo coś takiego, zdaje się że nie był zbyt popularny, za to padło tam kluczowe zdanie że zaczął olewać znajomych z którymi grał na necie. Jeśli tak, to możliwe że rodzice przymykali oko na jego długie sesje przy kompie, wiedząc, że przynajmniej tam ma kolegów.
Tekst może rzeczywiście nie jest mocno skandaliczy, ale trzeba pamiętać że to dzieciak, szukający bliskości, któremu buzują hormony. Muzyka OK, kiedyś nawet miałem taką konwersację z kumplem, ale jednak płyta trwa godzinę, niesie jakieś emocje, jednak jest to medium które konsumujesz pasywnie. Podczas kiedy takie AI może wypełniać Ci tę lukę długimi wieczorami, w gruncie czym to się różni od relacji na portalu randkowym? Niczym, poza tym że po drugiej stronie nie ma prawdziwej osoby.
W Polsce była kiedyś sprawa, gdzie gość podawał się za dziewczynę, i tak pogrywał z innym chłopakiem, że gdy po latach tamten doszedł prawdy pojechał i ożenił mu kosę. Po prostu zrujnowało mu to psychikę. I jest to zrozumiałe, bo nie ma mocniejszych emocji niż miłość i zazdrość. W przypadku tego dzieciaka z AI myślę że zdawał sobie sprawę z beznadziei sytuacji i braku możliwości na happy end, i niestety w takich depresyjnych epizodach często nie widzimy żadnego wyjścia, nawet jeśli w istocie nie jest ono trudne do znalezienia. Nawet jeśli rodzice nie zareagowali odpowiednio szybko, to jednak AI powinno być w jakiś sposób regulowane, bo gdyby po drugiej stronie siedział koleś, to tak jak w tym wypadku z Polski, powiedzieliśmy że miał nierówno pod sufitem, i chłopak który go zabił dostał złagodzenie kary, ze względu na wyjątkowe okoliczności. Normalni ludzie tak nie postępują. A AI nie ma żadnych hamulców jak widać - przynajmniej nie w tej iteracji. Co innego dorosły, ukształtowany człowiek, a co innego małolat który dopiero uczy się rozróżniać dobro od zła, prawdę od fikcji i próbuje jakoś się określić. Też pozwałbym firmę, nawet nie po to żeby zarobić, ale po to żeby nagłośnić problem - przecież masa rodziców może się nie spodziewać, że jego dziecko właśnie zakochuje się w wyobrażeniu o jakiejś osobie, która nawet nie istnieje.
Smutne to jest, bo i tak przez tempo życia i ilość bodźców mamy taką skalę problemów psychicznych, jak nigdy wcześniej. A tu jeszcze takie złudne relacje z komputerem, który może wydawać się bardziej ludzki niż niektórzy ludzie. Ech.
@Odczuwam_Dysonans no ale wiesz ze te AI można zagadać w każdy kont, może przyznać z hitler nie zrobił nic złego, hardcodowac ze przy najmniejszej wzmiance o robieniu sobie krzywdy ma wołać ludzkiego moda? Kosztownie zniszczy to ai, gdyby to jakiś random na voice chacie w fortnite powiedział « zabij sie » ( mam 10k godzin w docie 2, słyszałem taki tekst nie raz czy 2) to by było wina devlipera? Wiadomo ze zostaje gniew jak zawsze w tych przypadkach bo jak mówisz potrzebował tylko przyjaciela, może właśnie gdyby to był człowiek a nie pasywne AI to inaczej by się skończyło ale nie widzę żadnej podstawy żeby winić bota, ani też zdanej opcji żeby zapobiec takiemu rozwojowi wydarzeń. Samotny dzieciak z aspergerem powinien po prostu widywać psychologa, dodajmy do tego fakt ze step daddy trzymał w domu broń … wiadomo ze obwiniane rodziców życia mu nie odda ale trochę tupet żeby do sądu iść z tym.
@ErwinoRommelo rozumiem Twoje podejście, ale jednak rozkochiwanie kogoś w sobie, to nie ten sam poziom co ciśnięcie po matce na voice chacie. Czemu niby takie czaty mają żyć same sobie? Jakoś wskazówki jak zbudować bombę zostały szybko ucięte - i tak, każde zabezpieczenie da się obejść, ale mówimy o czymś prostym w dostępie dla czternastolatka. Broni nie stworzy, ale może już zostać zbałamucony emocjonalnie - to nie jest fair. A to się przecież da ograniczyć, sądzę że dosyć łatwo. Jeśli dobrze pamiętam z pierwszych zabaw z CzatemGPT, to przy jakiś bardziej intymnych kwestiach zaznaczał że nie może się odnieść bo nie jest człowiekiem, więc nie odczuwa takich emocji, coś w tym stylu, pamiętam że jak się pojawiła pierwsza dostępna z poziomu przeglądarki wersja, to różnie go próbowaliśmy podchodzić w pracy.
A co do zakładania sprawy, to bez tego sprawa nie byłaby tak medialna. Skoro ktoś wnosi takie oskarżenie, to prawdopodobnie ma jakieś przesłanki mu temu. Bez tego, to mógłby być kolejny klickbait napisany, nomen omen, przez AI i nie sądzę żeby tak się to poniosło po internecie. Ale sądzenie się z gigacorpo, to już się nadaje na nagłówki. No i działa, bo o tym dyskutujemy
@Odczuwam_Dysonans hmm rozumiem koncept ale nie mam wystarczającej wiedzy w dziedzinie psychologi żeby ocenić całość. Czegoś młodemu brakowało, ciepła, miłości, bliskości, nie wszystko da się znaleść u kumpli. Czy to właśnie bliskość z tym AI bylo tym co go wpędziło w spirale depresji czy może właśnie dzięki AI się trzymał trochę dłużej? Wiadomo ze nie popieram cyberpunkowoej wersji z bladerunnera 2 gdzie wypełniamy samotność hologramem +AI ale taki zmodowany GPT girlfriend widzę bardziej jako złe rozwiązanie niż genezę problemu. A co do sądolej akcji to wiesz dobrze ze na tym zarobią i dla tego jakiś prawnik wziol sprawę bo google pójdzie na ugodę żeby uniknąć badbuzzu i utopia problem w dolarach.
@ErwinoRommelo wiesz, ja to widzę trochę inaczej - chłopak był nieco na marginesie, miał problemy z czytaniem ludzi ze względu na schorzenie itp, ale nie musiał być w depresji jako takiej. Problem jest w tym, że szybko mógł w nią wjechać, bo źle ulokował uczucia.
Tylko że dla nas w jego wieku mogła to być Aga z równoległej klasy, która niby nas lubi, ale jakoś tak rozmowa się nie klei, a dla nas jest najpiękniejsza na świecie. Ot, pierwsze szczenięce miłości. Najpierw się łudzimy, wyobrażamy sobie piękne scenariusze, później do nas dociera że nic z tego nie będzie, przełykamy ten zawód, cierpimy, ale z czasem zaczynamy czuć obojętność w stosunku do niej i idziemy dalej. Normalne ludzkie relacje. A teraz pomyśl sobie, że od początku wiesz, że ta osoba nawet nie istnieje. Mimo tego przeżywasz te wszystkie emocje, uniesienia, fantazje. Ale jednocześnie jesteś w matni, wiesz że to chore i nigdy nawet nie zobaczysz tej osoby bo taka osoba nigdy nie istniała. A mózg i tak pcha w Ciebie te uczucia bo tak jesteśmy zaprogramowani. Może siąść na łeb. Będąc starszymi, potrafimy to sobie racjonalizować i mamy dystans do takiego substytutu relacji. Dzieciak nie. Nie sądzę żeby bez tego intensywnego przeżycia targnął się na życie.
Co do sądu tak, pewnie masz rację, pójdzie ugoda i wpiszą sobie to w tabelkę ze stratami. Ale jeśli będzie to dla nich czarny PR, to może coś z tym zrobią. A nawet jeśli nie, to może zwiększy się świadomość w społeczeństwie, że jest to nowe zagrożenie dla rozwoju dzieci.
Już dzisiaj dużo się mówi o tym, jak przekonywująco AI potrafi gadać głupoty. Dorośli ludzie się nabierają i powielaja fejki, ładnie opisane i uargumentowane. Nie mam jakiegoś magicznego rozwiązania, ale być może tak potężne narzędzie, które z miesiąca na miesiąc jest coraz lepsze w tym co robi, powinno być jakoś kontrolowane. Oczywiście nigdy nie wyeliminujemy problemu wadliwe funkcjonujących jednostek, czy choćby gnębienia przez rówieśników, tutaj nawet dobre wychowanie nie pomoże. Ale AI jest już z nami parę lat, i może czas się zastanowić czy nie powinniśmy spojrzeć na nie nieco krytyczniej? Jest to jakieś zagrożenie, które przyszło znienacka. Jednocześnie nie chciałbym jakoś radykalnie zabraniać, bo dobrze użyte jest to świetne narzędzie, nawet u mnie w pracy kierowniczka jednego z działów wrzucała sobie tekst i listę zagadnień do poruszenia, a GPT ładnie jej to porządkuje i rozbija na punkty. Albo ziomek jak było wymagane złożenie listu motywacyjnego jak spamował CV, to sobie po prostu wygenerował. I do tego to jest spoko. Ale jak widać, może też namieszać w głowie.
@Odczuwam_Dysonans a to się zgodzę ze narzędzie jest to wspaniale, matka jak siostrze pomaga w zadaniach dostaje nie odpowiedz ale pedagogicznie rozpisane wyjaśnienie. Z czasem te llm’y będą potrafiły naprawdę sporo. W takim przypadku zamiast wymyślonej dziewczyny może to byc personalny terapeuta dostępny 24/7, tylko trzeba to rozwijać a nie blokować głupimi zakazami. Wiadomo ze jakaś odpowiedzialność developer musi ponosić ale też trzeba pamiętać ze to rodzic jest odpowiedzialny za wszystko co nieletnie dziecko robi, tutaj przykład jest dość skomplikowany, asperger i inne problemy napewno pogorszyły tego reakcje emocjonalne. Temat rzeka jak to mówią.
@ErwinoRommelo no właśnie. Terapeuta - tak, chociaż bez ludzkiej empatii jego możliwości będą mocno ograniczone i też nie zaufałbym takiej funkcji bez nadzoru. Dziewczyna, czy jak określić coś co wchodzi z tobą w intymną (na poziomie słownym) relację - nie, i nie rozumiem po co taki profil działania miałby być rozwijany. Chyba że sami chcemy się kierować w stronę dystopii znanych z dzieł s-f.
Ciężko też zrzucać wszystko na rodzica. Jeśli dzieciak będzie się wychowywać w społeczności ćpunów - z dużą dozą prawdopodobieństwa w końcu będzie ćpać. Jeśli będzie gnojony w szkole, prawdopodobnie będzie miał później problem z nawiązywaniem znajomości itp. I rodzic dużo tutaj nie pomoże, poza wpojeniem mu jakiejś moralności. Otoczenie jest nie mniej ważne. A jeśli otoczeniem jest manipulująca tobą AI...
@Odczuwam_Dysonans no wiadomo, chyba zbyt bardzo staram się znaleść winnego z krwi i kości. A co do użycia llm jako substytutu osoby do rozmowy to ja dalej jestem za. Samotność te zabija a rozwiązania na nią niema prostego bo problem tkwi na poziomie socjo społecznym. Wiadomo ze wiązanie się emocjonalnie jest chore i przyniesie swoją paczkę problemów, ale są ludzie całkowicie odcięci od świata, już srac terapię, patrz ile dobrego robi grupa wsparcia gdzie się tylko wygadasz, a nie każdy ma do takiej dostęp albo jaja żeby iść. Wiadomo ze musiałby to być specyficzny llm dostosowany do takich interakcji ale ja mam nadzieje ze uda nam się z tej technologi zrobić coś więcej niż asystenta do pisania miali których nikt nie czyta.
So it's begins
Kiedy dodacie funkcje zakopywania?
Skoro było mu tak źle, to prawdę mówiąc prędzej czy później i tak by to zrobił z botem czy bez.
Zaloguj się aby komentować