Das bereits die Briten ihr Empire stabilisierten, indem sie die Araber spalteten, gegeneinander aufhetzten, sollte denen eigentlich lange bekannt sein.
Trotzdem ließen sie sich bisher immer prima instrumentalisieren, und in den letzten Jahrzehnten eben für US-Interessen. Da scheint sich was zu ändern, aber es bleibt trotzdem bitter, das sie erst jetzt auf die Idee gekommen sind, das sie gemeinsam und mit Diplomatie für sich mehr Zukunft gewinnen können, als mit dem alten Imperien.
Ist das schon der faktische Beleg, das die USA ihre Imperiumsrolle eingebüßt hat, und wie wird das US-Establishment damit umgehen? So etwas einfach akzeptieren ist ja nicht wirklich der US-Wesenzug ...