Das ist ein interessanter psychologischer Aspekt. Seit langer Zeit ist Deutschland mal nicht der böse Aggressor, sondern findet sich plötzlich auf der guten Seite wieder. Dieses Gefühl kennen die Deutschen so gar nicht. Das müssen die erstmal begreifen und lernen anzunehmen.
So ähnlich mögen sich die Amis oder überhaupt die Alliierten im WW2 gefühlt haben. Für die Amerikaner war und ist dieses Gefühl selbstverständlich - ein gutes Gefühl!
Wenn man mal längere Zeit in USA verbingt, dann merkt man das. Überhaupt tut es der Seel gut Deutschland un Europa mal für einige Zeit zu verlassen, um zu erkennen, dass es deutlich mehr gibt, als die kleinkarierte deutsche Denke.