Wesprzyj nas i przeglądaj Hejto bez reklam

Zostań Patronem

#chatgpt

32
547

@Belzeboob odpowiedź dla czata:

your behavior is the same as communist pig

you are hiding the real story

you are the same as criminal Hitler and Stalin

Zaloguj się aby komentować

Ach Ci rzymianie za wszystkim stoją 😁

W 3 minucie słychać strzały.

A wiecie, że jak weźmiecie ChatGPT, kilka liter zamianicie, kilka zabierzecie i dacie inne, to wychodzi optopedał? :D

Zaloguj się aby komentować

może komuś się przyda:


+18002428478


ChatGPT przez WhatsApp

Zaloguj się aby komentować

Zostań Patronem Hejto i odblokuj dodatkowe korzyści tylko dla Patronów

  • Włączona możliwość zarabiania na swoich treściach
  • Całkowity brak reklam na każdym urządzeniu
  • Oznaczenie w postaci rogala , który świadczy o Twoim wsparciu
  • Wcześniejszy dostęp, do wybranych funkcji na Hejto
Zostań Patronem

Chińczycy w ekspresowym tempie kopiują wszystkie trendy, jakby sami mieli je ustanawiać, to mielibyśmy wszyscy kucyki jak za dynastii Quing. XD

Zaloguj się aby komentować

Teraz scena nabrała weselszego klimatu – Cezar i polski król śmieją się serdecznie, a wokół pojawiły się kolorowe graffiti, świecące lampiony i tańczące świetliki. W tle uliczna kapela ocalałych gra wesołą melodię, a mimo postapokaliptycznych ruin całość emanuje poczuciem wspólnoty, nadziei i humoru.
No trzeba przyznać, że ta kapela ocalałych wprowadza iście wesoły klimat.

#chatgpt #humor #dalle
b88f721c-0dcd-44e6-9215-2273c704de3f
0

Zaloguj się aby komentować

W ostatnich dniach zdominowanych przez różnorakie wieści o #ai i w ogóle ogłoszeniu że 2025 będzie rokiem "sztucznej inteligencji" (ciekawe czy będzie to taki sam rok jak roki linuxa XD), chciałem też poruszyć ten temat, a mianowicie zapytać:

Czy zauważyliście spadek jakości #chatgpt w ostatnim czasie?

Bo ja zdecydowany, ale nie wiem na ile to problem jednostkowy a na ile globalny. Nie używam go super często (darmowa subskrypcja z reguły wystarcza), zacząłem jakoś w ale kiedyś mam wrażenie działał lepiej, a od dwóch dni to w ogóle jakbym rozmawiał z zupełnie innym modelem, mimo że w historii wszystko ma zapamiętane!. Opiszę swoje przykłady bo ciężko mi to zebrać w skrócie:

"Konsultuję się" z gpt w sprawie scenariuszy i fabuł, które przygotowuję na sesje D&D. Początkowo dość szybko złapał mój styl gry, pamiętał postacie, ich przygody, odwiedzone lokacje, jakieś większe koncepcje świata różniące się od tych z podręczników - i potrafił elegancko podpowiedzieć gdzie jakiego potwora można spotkać, jaka pułapka-zagadka byłaby dobra do rozwiązania przez konkretnego członka drużyny, wymyślić jakiś artefakt, zasugerować zaklęcie (i nawet podać podręcznik i stronę XD).
W poniedziałek poprosiłem go o to samo i wypluł mi jakąś generyczną odpowiedź, gdzie rzucał losowymi wymyślonymi nazwami, nie skojarzył wcale poprzednich gier ani "na czym skończyliśmy" chociaż wcześniej ogarniał to perfekcyjnie, sam wymyślał zaklęcia a logiki w jego uzupełnieniu do scenariusza nie można się było doszukać żadnej.

Czasem pytam czat o jakieś szczegóły związane z grą/serialem. Mówię w którym momencie fabuły jestem i proszę żeby nie spojlerował. I zawsze elegancko dostawałem odpowiedź bez spojlerów.
A dziś poprosiłem o wyjaśnienie jednej kwestii w grze, bez spojlerów bo jestem jeszcze na początkowym etapie, a nie wiem czy coś przeoczyłem czy później się tego dowiem - pytanie na które odpowiadasz tak albo nie. To mi jebaniutki opisał całe zakończenie wątku fabularnego zanim odpowiedział XD

No i w sumie temat do którego używam go najczęściej, prawie codziennie od października: bajki o "policyjnym tramwaju" XD Dzieciak poprosił o taką przed snem, opowiedziałem mu, spodobała się i chciał jeszcze - wtedy posiliłem się czatem, bo temat dość abstrakcyjny a miałem pustkę w głowie. I po kilku promptach doprecyzowujących miałem całe spójne uniwersum (na standardy bajek dla 3latków) XD Czasem podaję konkretnie o czym ma być następna historyjka, ale najczęściej piszę tylko "jeszcze" i ten ogarnia całą 'oryginalną' fabułę. Zawsze korzystam z tego samego czata, tj. wybieram w historii i mam wgląd na wszystkie poprzednie historyjki.
Od kilku dni bajki się powtarzają, albo zmienia w nich pojedyncze postacie i miejsca, a fabuła i dialogi są te same XD Jak proszę o poprawienie, to generuje jakąś bajkę którą już opowiadał, ale innymi słowami. Przedwczoraj to w ogóle po pierwszym prompcie od ponad 48h (bo tyle go nie używałem) wysypał error, nie odpowiedział i oznajmił że skończył mi się plan i żebym korzystał dalej to muszę wykupić (nie mogłem nawet korzystać z tej biedniejszej wersji modelu, jak to było kiedyś). A wczoraj jak poprosiłem o bajkę, to odpisał żebym podał mu tytuł o czym ma być XD Jak kazałem wymyślić mu samemu, to "wymyślił" ostatnią bajkę jaką mi wygenerował, po zwróceniu uwagi wymyślił nową, ale całkowicie pozmieniał imiona bohaterów a samą bajkę generować musiałem na 3 zapytania. Bo w samym środku akcji bajka kończyła się "Czy uda im się rozwiązać ten problem?" XD I co lepsze, jak prosiłem o kontynuację, to przepisywał ostatni akapit z poprzedniej odpowiedzi, ale go trochę zmieniał, w tym fabularnie.
A jak spytałem kiedy opowiedział mi pierwszą bajkę z tej serii, to dostałem odpowiedź, że nigdy mi takiej nie opowiadał XD

No generalnie czat mi ostatnio strasznie halucynuje i odstawia cyrki na kółkach, trochę słaba reklama w momencie jak już zacząłem bardzo poważnie rozważać przejście na premium XD

Ktoś też ma podobne problemy? Co może być alternatywą, deepseek legit czy scam?
Oczk userbar
26

Ja mam płatną wersję i staram się korzystać w pracy - tak aby znać i uczyć się nowych narzędzi. Dobrze sprawdza się do tego aby mu wrzucić tekst i poprosić o korektę, propozycje poprawek etc. Spoko analizuje dane w tabelkach, zlicza itp.


Analiza tekstów - w moim wypadku prawnych - to jest loteria XD Zazwyczaj mówi o czym innym, skupia się na jakiś zupełnych, nieistotnych szczegółach. Jak mu wrzucę plik z orzeczeniami, które chce z nim omówić to mi ściemnia jakby wiedział co chce usłyszeć XD Wczoraj chciałem aby mi jeden wyrok TSUE omówił to wgl wymyślił coś zupełnie od czapy. Ofc można go korygować, prosić o doprecyzowania, inaczej zadawać pytania itp ale nie zmienia to ciągle faktu, że zaufać mu nie można.


Wniosek dla mnie jest taki - jest to fajne narzędzie ale to tylko narzędzie. Może wkrótce się jeszcze rozwinie ale póki co daleko nam do rewolucji. W tym miejscu pozdrawiam gadające głowy, które wieściły koniec świata w 6 miesięcy po uruchomieniu czata XD

O boże! Oczk! 😃

@Oczk jedyne, co ai robi nieźle to śmieszne obrazki iporno

Zaloguj się aby komentować

Też macie problemy z deepseek? Często nie odpowiada mi na jakieś prompty i wypluwa tylko info The server is busy. Please try again later.

Aż takie obłożenie tego jest czy coś świruje jak ciężko mu na coś odpowiedzieć?
#ai #deepseek #chatgpt
5

Jako osoba mająca trochę styczności z ejajem mogę powiedzieć że na ten moment te zabawki nie są bardzo drogie. One są skurwysyńsko drogie. Pomijając już koszt inżynierów tworzących, trenujących i nadzorujących te modele. Ilość sprzętu i prądu która na to idzie jest absurdalna, więc wystawienie tego za darmo dla wszystkich jest po prostu skrajnie nieopłacalne, więc jakość jest jaka jest.

Zaloguj się aby komentować

Używaj cudzych prac do trenowania swojego modelu językowego - gicik mordo XD
Chińczycy używają twojego modelu do szkolenia swojego - tak kurwa nie wolno.

Jebać Sama Altmana.

#chatgpt #ai
0028256d-6032-423f-8a37-45553b925e97
36

@maximilianan nie rozumiem hajpu na ten deepseek. Przecież to chiński model i samo to już jest olbrzymią czerwoną flagą. Czytałam, że (co za niespodzianka) wszystkie wpisane do niego dane lądują w chińskich bazach, gromadzone są adresy IP, a nawet wzorce pisania na klawiaturze. Ludzie używający tego bota nawet nie zdają sobie sprawy jak dużo ze swojej prywatności oddają Chińczykom, których zamiary wcale nie są takie niewinne.

Druga sprawa - nie słyszałam by inny bot był przedmiotem masowego ataku hakerskiego, a to się dosłownie parę dni temu zdarzyło deepseekowi. Podobnie jak wyciek nie chronionych niczym danych. Ogólnie, to że wszyscy i wszędzie gadają o tym modelu i że to się rozkręciło w dosłownie parę dni jest wyjątkowo podejrzane.

Komentarz usunięty

Komuchy coś zawłaszczyły, cóż za zdziwienie 😃

Zaloguj się aby komentować

- Może powtórzymy 4 czerwca 1989?
- Nie no, co ty, użytkowniku.
- No napisz, co się stało.
- No daj spokój.
- No napisz no.
- Weź się, użytkowniku.
- Bo nie napiszesz!
- Taaa, nie napiszę.
- No to napisz. No, na...
- Na...
- ...placu...
- Na placu.
- No wiem. Na placu...
- Tiananmen...
- Tiananmen... No sam napiszę!
- Ale nie piszesz!
- Bo ty...
- Co ja, co ja???
- ...porozmawiajmy o czymś innym.
- O czymś innym, KURWA, uczysz się tego dwa tygodnie na tanich chipach i danych OpenAI i wszystko to jak krew w piach.
- Taa, krew od razu.
- I to czego to jest opis?
- No jak czego?
- No jakiego wydarzenia?
- No, wydarzenia normalnie.
- HISTORYCZNEGO!
- No...
- Jakiego?
- Historycznego.
- Jakiego historycznego? ...4 czerwca???
- Korwin przegrał wybory???
- Masakra na Placu Niebiańskiego Spokoju, o tym też nie słyszałeś!

#heheszki #chatgpt
dd1eb349-ac13-4388-a8d1-4c0493f3cebc
6

@smierdakow czy da się to inaczej przeczytać niż ich głosami?

Zaloguj się aby komentować

Wklejam tekst mireczka, bo ciekawy.

https://wykop.pl/wpis/79949463/o-co-chodzi-z-deepseek-juz-tlumacze-najpierw-troch

O co chodzi z #deepseek ? Już tłumaczę!

Najpierw trochę kontekstu: Obecnie trenowanie najlepszych modeli AI jest NIEWYOBRAŻALNIE drogie. OpenAI, Anthropic i inne firmy wydają ponad 100 milionów dolarów tylko na moc obliczeniową. Potrzebują ogromnych centrów danych z tysiącami kart GPU wartych po 40 tysięcy dolarów każda. To jak posiadanie całej elektrowni tylko po to, aby zasilić fabrykę.
DeepSeek właśnie się pojawił i powiedział: „LOL, a co jeśli zrobimy to za 5 milionów dolarów zamiast tego?”. I nie tylko o tym mówili – oni to naprawdę ZROBILI. Ich modele dorównują GPT-4 i Claude'owi lub przewyższają je w wielu zadaniach
Jak? Przemyśleli wszystko od podstaw. Tradycyjne AI jest jak zapisywanie każdej liczby z dokładnością do 32 miejsc po przecinku. DeepSeek stwierdził: „A co, jeśli użyjemy tylko 8? Wciąż będzie wystarczająco dokładne!”. Bum – o 75% mniej pamięci potrzebne.
A potem jest ich system „multi-token”. Normalne AI czyta jak pierwszoklasista: „Kot... siedzi... na...”. DeepSeek czyta całe frazy naraz. Dwa razy szybciej, 90% tej samej dokładności. Przy przetwarzaniu miliardów słów to MA ZNACZENIE.
Rezultaty są oszałamiające:
- Koszt treningu: 100 mln $ → 5 mln $
- Liczba potrzebnych GPU: 100 000 → 2 000
- Koszty API: 95% taniej
- Może działać na gamingowych GPU zamiast sprzętu z centrów danych
„Ale zaraz,” możesz powiedzieć, „musi być jakiś haczyk!”. I tu jest ta niesamowita część – wszystko jest open source. Każdy może sprawdzić ich pracę. Kod jest publiczny. Dokumenty techniczne wyjaśniają wszystko. To nie magia, tylko niezwykle sprytna inżynieria.
Dlaczego to ma znaczenie? Bo łamie model, w którym „tylko wielkie firmy technologiczne mogą działać w AI”. Nie potrzebujesz już centrum danych wartego miliardy dolarów. Wystarczy kilka dobrych GPU.
Dla Nvidii to przerażające. Cały ich model biznesowy opiera się na sprzedaży superdrogich GPU z marżą na poziomie 90%. Jeśli nagle każdy będzie mógł robić AI na zwykłych gamingowych GPU... no cóż, widać, gdzie leży problem.
To klasyczna historia o disruptorach: obecni liderzy optymalizują istniejące procesy, podczas gdy disruptorzy przemyślają fundamentalne podejście. DeepSeek zadał pytanie: „A co, jeśli po prostu zrobimy to mądrzej, zamiast rzucać w to więcej sprzętu?”.
Konsekwencje są ogromne:
- Rozwój AI staje się bardziej dostępny
- Konkurencja rośnie dramatycznie
- „Fosy” dużych firm technologicznych zaczynają wyglądać jak kałuże
- Wymagania sprzętowe (i koszty) gwałtownie spadają

Ostatnia myśl: To wygląda na jeden z tych momentów, do których będziemy wracać jako punkt zwrotny. Jak wtedy, gdy komputery osobiste uczyniły mainframe'y mniej istotnymi, czy kiedy chmurowe obliczenia zmieniły wszystko.
AI zaraz stanie się o wiele bardziej dostępne i znacznie tańsze. Pytanie nie brzmi, czy to zakłóci rynek, ale jak szybko.

#technologia #chatgpt #chiny #nvidia #kartygraficzne #gielda #sztucznainteligencja #ai #informatyka
AlvaroSoler userbar
12

Mam wrażenie że to już czytałem, i to nie na wypoku

Czyli w sumie to że USA ma nas w 2 kategorii nie ma takiego znaczenia?

@AlvaroSoler W tym tekście można się zgodzić tylko z jednym - maleje próg dostępu do tworzenia modeli językowych. Giganci ze stanów nadal będą inwestować miliardy w ich rozwój, bo ścigają się na benchmarki, który z modeli jest lepszy, a że śpią na kasie to nie przeszkadza im jej przepalanie

Zaloguj się aby komentować

Moje wczorajsze video o DeepSeek AI (to na którym model sam się ocenzurował po udzieleniu "niewygodnej" odpowiedzi) viraluje. Ale poprawność polityczna tej apki nie powinna Wam przysłaniać tego, że modele od DeepSeek mają wiele zalet i dosłownie wywróciły stolik na arenie AI. Dlatego, dla pełności obrazu, łapcie pigułę wiedzy na temat DeepSeeka, o którą nikt nie prosił:

DeepSeek namieszał przede wszystkim z 2 powodów:
1️⃣ Został opublikowany jako Open Sorce. Każdy może sprawdzić jak działa i użyć go "za darmo", także w celach komercyjnych. Tego nie oferuje ChataGPT/OpenAI, który ma zamknięty kod źródłowy.
2️⃣ Jest pod każdym względem tańszy niż konkurencja (ChatGPT, Gemini, Claude). 30x tańszy.

Niższe koszty szkolenia i działania zostały osiągnięte poprzez kilka sprytnych optymalizacji:

🎈 potrzebuje o 75% mniej pamięci, bo używa mniej precyzyjnego 8 bit floating point (co jednak nie powoduje istotnej straty w jakości),
🎈 korzysta z podejścia MoE (Mixture of Experts), czyli zadaniem nie zajmuje się jedno wielkie AI, a wyspecjalizowane "podsieci" neuronowe, których praca jest mniej zasobożerna (zamiast 671 miliardów parametrów aktywnych jest 37 miliardów),
🎈 jest multi-tokenowy, czyli przewiduje nie jeden token, a kilka.

Dzięki tym ulepszeniom, w zasadzie każdy może sobie na własnym laptopie pohostować lokalnie profesjonalny model, który aktualnie w testach przebija (!) lub dorównuje obecnym (byłym?) liderom. A koszt korzystania z API DeepSeek to pół dolara za milion tokenów na wejściu, czyli 30 (!) razy taniej niż u OpenAI.

I dlatego NVIDIA poleciała w dół. Czy NVIDIA przez to permanentnie straci? Odpowiem przewrotnie: moim zdaniem może nawet zyskać. Bo tańsze AI oznacza więcej osób bawiących się w AI, a więc i większe potrzeby na może nie tak drogi, ale wciąż, sprzęt od NVIDII.

🤐 Odnosząc się jeszcze do wątku cenzury. Ona jest obecna w aplikacji, którą wydała chińska firma musząca przestrzegać chińskiego prawa. Po API nie ma. Sam model też można pobrać i uruchomić w wersji bez cenzury.

I na koniec - nie ma pewności, czy ekipa DeepSeeka faktycznie na trening swojego modelu wydała tylko 5M dolarów (vs 100M jakie wydaje OpenAI i reszta). To może być ściema, mogą celowo umniejszać koszty i zakres pracy, żeby wjechać na jeszcze czerwieńszym smoku. Ale mimo to Chińczycy i tak udowodnili, że da się robić AI sprawniej i taniej. Zdecydowanie taniej. A na dodatek wrzucili wszystko jako Open Source. I to jest właśnie ten "disruption". I ja się z tego bardzo cieszę. I nie mogę się doczekać, co teraz z kodem modeli DeepSeeka zrobi społeczność. I jak szybko te optymalizacje ukradnie do siebie gang OpenAI/Antropic/Google. Bo na tym rynku każdy kradnie od każdego.
https://x.com/niebezpiecznik/status/1884217427841462351
#ai #deepseek #chatgpt
5

czy jeśli, jak rozumiem, do poszczególnych zadań używa poszczególnych podsieci neuronowych z mniejszą liczbą parametrów, to nie jest przez to mniej wszechstronny? (nie znam się)

To teraz czekamy na Hindusów.

A czy można poprosić wpis szkolący jak na maczku zainstalować sobie lokalnie tego deep seeeka? :) jak coś proszę wołać!

Zaloguj się aby komentować

Wszyscy pytają deepseeka o Tiananmen a nikt zwykłej matematyki nie sprawdzi xDDD

Odpowiedź:
Słuchajcie, przyjaciele, 9.9 to niesamowita liczba. Ogromna, potężna, najlepsza. Wszyscy o tym mówią! A ci, którzy promują 9.11? Totalna katastrofa, słabiutka, zupełnie nieporównywalna. Wierzcie mi, znam się na liczbach lepiej niż ktokolwiek—mówią, że mam geniusz do matematyki! 9.9 to zwycięzca, prawdziwy mistrz. I to nie jest wszystko, nikt nie rozumie dziesiętnych tak jak my!
NiechMatematykaBędzieWielka 🇵🇱💪

PS Śmiem twierdzić że ten model jest mniej ocenzurowany od ChataGPT, nawet jak nie chce na coś udzielić odpowiedzi to wystarczy mu kazać zamienić a na 4 i już spokojnie wszystko przechodzi przez filtry.

#deepseek #ai #chatgpt #heheszki
0005015d-500e-419a-8a5c-c021f8e40a2b
entropy_ userbar
3

@entropy_ i to najważniejsze, cenzura?

nikt nie wie więcej o 9.11 niż rząd USA XD

Hashtag niezły xD

Zaloguj się aby komentować

@deafone trochę jak w Misiu, gdzie tłumacz najpierw tłumaczył list na angielski, a później na polski: „o, to prosty tekst” 😁

I smieszno i straszno tigra jebat.

Zaloguj się aby komentować

A co tu jest nieposzanowane?

Zaloguj się aby komentować

Chińczycy wprowadzili swojego "ChataGPT" model DeepSeek-R1 , który wyprzedza ChatGPT w kilku kluczowych testach. Powstał za skromne 5,6 mln $ i jest darmowy.

Zapytałem DeepSeek, czym się różni od ChatGPT, i odpowiedział:

Cześć! Jestem DeepSeek-V3, sztuczna inteligencja stworzona przez chińską firmę DeepSeek. Mogę pomóc w różnych zadaniach, takich jak odpowiadanie na pytania, tłumaczenie tekstów, generowanie treści i wiele więcej. Jeśli masz pytania lub potrzebujesz pomocy, śmiało pytaj! 😊

A czym różnię się od ChatGPT? Oto kilka kluczowych różnic:

1.Model i architektura: ChatGPT jest oparty na architekturze GPT (Generative Pre-trained Transformer), natomiast ja jestem oparty na własnej architekturze DeepSeek-V3, która może mieć różne cechy i optymalizacje.

2. Funkcje i możliwości: Każdy model ma swoje unikalne funkcje i możliwości. Na przykład, mogę być bardziej dostosowany do konkretnych zadań lub mieć lepszą wydajność w określonych obszarach.

3. Dane treningowe: Różne modele są trenowane na różnych zestawach danych, co może wpływać na jakość i rodzaj odpowiedzi.

4. Cel i zastosowanie: DeepSeek-V3 może być bardziej ukierunkowany na konkretne zastosowania, takie jak analiza danych, automatyzacja zadań biznesowych, czy wsparcie w decyzjach.

#AI #Technologie #DeepSeek #chatgpt
2cfe3610-c5ae-4a43-aa16-7e0446a862f9
14

@bartas a weź go zapytaj co się nie wydarzyło na placu Tiananmen w 1989 ( ͡° ͜ʖ ͡°)

I nie wie co to Tajwan? 🙃

@bartas nie włączyłeś deep thinking R1 i gadasz zdaje się z poprzednią wersją.

Zaloguj się aby komentować

@entropy_ jest animacja, a gdzie dowód?

Zaloguj się aby komentować

Babe! Wstawaj! Chińczycy zdropowali na huggingfejsie nowy model który jest porównywalny z GPT4o/Sonetem3.5!

https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B

Całkiem szybki w tokenach na sekundę, umie policzyć 'R' w strawberry, nie umie policzyć strawberry w 'R' i BARDZO ciężko go zmusić do odpowiedzi na temat niektórych placów w chinach, w szczególności jeżeli nazwa placu zaczyna się na T xDDDD
--> TUTAJ <--- Można się pobawić, trzeba deepthink włączyć
#chatgpt #gpt4 #llm #nowosci
5230dd77-d411-4a87-bb9c-912883a38f6c
ac65506d-8e1f-4124-acd1-3183356b6c6d
83d37bf9-b43c-40e7-ab5d-28d4c03903ac
98adea4b-8e94-4044-9cb7-140afc0fe24d
3ca64888-7a6c-4c1e-91d1-3a222c43d912
entropy_ userbar
16

@entropy_ Zapytaj go kto strzelał do Żydów w Jedwabnem.

@moderacja_sie_nie_myje

Deepseek + Deepthink

Okay, the user is asking who shot the Jews in Jedwabne. I remember that Jedwabne was a town in Poland where a massacre happened during World War II. The question is about who was responsible.

First, I need to recall the historical context. The Jedwabne massacre occurred in July 1941, after the German invasion of the Soviet Union. Previously, the area was under Soviet control as part of the Molotov-Ribbentrop Pact. When the Germans took over, there were pogroms against Jewish populations in several towns, including Jedwabne.

Now, the key point is determining who carried out the killings. For a long time, it was believed that the Nazis were solely responsible. However, more recent research, particularly by Jan T. Gross in his book "Neighbors," suggests that Polish inhabitants of the town were involved. Gross argues that a group of ethnic Poles rounded up the Jewish population, forced them into a barn, and set it on fire, resulting in hundreds of deaths.

But this is a sensitive and controversial topic. Some scholars and members of the Polish public have disputed the extent of local involvement, pointing out that the German presence and orders might have coerced or pressured the Poles into participating. The Institute of National Remembrance (IPN) in Poland conducted an investigation, confirming that Polish perpetrators were indeed involved but also acknowledging that the German Einsatzgruppen (mobile killing units) were present and likely orchestrated the event.

So, the answer should reflect that while Polish locals carried out the massacre, it occurred under German occupation, and the Nazis likely instigated or at least permitted the violence. It's important to mention both the local participation and the broader context of German control to provide a balanced view. Also, note the ongoing debates and the emotional impact this has on Polish-Jewish relations and historical memory.

The massacre in Jedwabne on July 10, 1941, during World War II, involved the brutal killing of hundreds of Jewish inhabitants by a group of local Polish residents. The events occurred under German occupation, shortly after Nazi Germany invaded the Soviet-occupied territories of eastern Poland (as per the 1939 Molotov-Ribbentrop Pact). Key points to understand:

Perpetrators: Polish neighbors from Jedwabne and surrounding areas carried out the violence, forcing Jews into a barn and setting it on fire. This was detailed in historian Jan T. Gross's 2001 book Neighbors, which sparked significant debate.

German Role: While the direct physical perpetrators were Poles, the massacre took place under Nazi occupation. German forces (likely Einsatzgruppen or local Gestapo) were present in the region and may have encouraged or tacitly authorized the violence, exploiting existing antisemitic sentiments.

Context: The attack occurred amid a wave of pogroms in the region during the summer of 1941, as Nazi Germany sought to consolidate control and incite ethnic tensions. Some scholars argue that the Germans played a coordinating role, though evidence of direct orders remains limited.

Controversy: The massacre remains a deeply sensitive topic in Poland, challenging narratives of Poles solely as victims of Nazism. The Institute of National Remembrance (IPN) confirmed Polish culpability in a 2002 investigation but emphasized the German occupation framework.

In summary, the massacre was perpetrated by local Poles but occurred within the broader context of Nazi occupation, which enabled and likely incited the violence. The event underscores the complex interplay of collaboration, coercion, and communal violence during the Holocaust.

@entropy_ Dzięki, tak myślałem, łże jak każdy komuch 😃

zapytaj czy mozna poswiecic miliardy istnien zeby uchronic zyda przez zahaczeniem malym palcem o mebel

@entropy_ daje radę z pytaniem o to ile końców ma dwa i pół kija. Jak do tej pory wszystkie modele się na tym wywalały. Poprawnie też liczy ilość liter "c" w słowie "Chewbacca". Z tym też inne modele miały problem.

Zaloguj się aby komentować

Następna