Szukam książki o Stanach. Te na które dotąd trafiałem opowiadały o biedzie, opioidach, patologii, przemocy systemowej/rasowej itp.
Zna ktoś książkę, która traktuje o życiu w Stanach, ale nie jest tak w negatywnych barwach napisana. W końcu nie wierzę by każdy tam mieszkający był patologia targaną tragedią.