Nie mam czasu tego tłumaczyć, ale moim zdaniem fajny artykuł o pewnych brakach w "rozumowaniu" obecnych modeli AI. Sam sprawdziłem te przykłady i niesamowite, że tak prosta rzecz, jak to zdanie z kapustą potrafi kompletnie zaciąć model tak, że będzie produkował niedorzeczną odpowiedź.
ARTYKUŁ PO ANGIELSKU
LES FRAGMENTY
LLMs’ ‘reversal curse’ leads it to fail at drawin