Ich bin zur Zeit etwas desorientiert. Ich habe Meldungen im Kopf, daß deutsche Automobilkonzerne mittlerweile mehr Autos in China produzieren und verkaufen als... so genau weiß ich das nicht mehr...in der EU oder Deutschland. Daß es für aufstrebende Manager quasi ein Muß ist, chinesisch zu lernen. Daß die Zukunft "unserer" Konzerne wegen des gigantischen Absatzmarktes in China liegt.
Und jetzt wie aus dem Nichts dieses Kriegsgeschrei! Gegen China als unser Bedroher oder was weiß ich noch alles. Hat da eine amerikanische Firma, die auf Pressemanipulationen spezialisiet ist, ihre Hand im Spiel? Für mich ist dieser ganze Meinungsumschwung rational nicht nachvollziehbar.
China ist eine Weltmacht, die ihre Interessen verfolgt, wie alle anderen Weltmächte auch. Wie alle Weltmächte mit Methoden, die man lieber nicht wissen will. Warum ist das plötzlich ein Problem?