Stany Zjednoczone Ameryki nie przestają nas fascynować. Kraj ten od zawsze jest synonimem lepszego świata, do którego ciągle wszyscy wzdychają. Ameryka jest mistrzem w kreacji własnego wizerunku. Amerykańska kultura podbiła niemal cały świat. Czy dziś ciągle dajemy się na to nabrać? Czy patrzymy na USA nieco bardziej realistycznie, dostrzegając także problemy, z jakimi walczy to państwo?






