Nie rozumiem, jak ludzie mogą myśleć, że kapitalizm jest ogólnie zły, mając jednocześnie za sobą studia historyczne. Czy większość historii nauczanej w szkołach nie zagłębia się w brutalność i tragedię życia przed kapitalizmem?