Die deutsche Kultur haben die Nationalsozialisten aus dem 3. Reich auf dem Gewissen.
Krieg geführt, verloren und dadurch der amerikanischen Kultur Tür und Tor geöffnet.
Diese entstand ja aus einem mix vieler Völker.
Den stärksten Einfluss übten aber wohl leider all die durchgeknallten Christlichen Sekten aus, welche aus Europa "geflogen" sind.