Zdarzyło się w XX wieku - seria książek

XX wiek to niezwykle burzliwy okres w historii świata i Polski. Na kartach przeszłości zapisało się wiele krwawych i okropnych wydarzeń. Z perspektywy czasu wiemy, że większość z nich była bolesna dla naszego kraju. By lepiej poznać i zrozumieć te wydarzenia warto sięgać po interesujące i wnikliwe książki z serii "Zdarzyło się w XX wieku", które uzupełnią Twoją wiedzę.

2023 © tezeusz.pl