Karyptis schrieb am 14.06.2023 11:34:
Das Problem ist halt, dass man häufig keine andere Möglichkeit hat, an irgendwelche Daten zu kommen.
Oh doch. Man kann die Daten frei erfinden und die eigentlichen Umfrageergebnisse gleich nach /dev/null leiten. Die erfundenen Daten wertet man dann aus, methodisch supersauber.
Kein Mensch hat eine Chance, derartigen Betrug aufzudecken.
So kommt man schnell und einfach an das gewünschte und bezahlte Ergebnis.
Ganz so plump ist es dann meistens doch nicht. Meistens optimiert man die Daten. Sehr gern genommen: Einfach mal nur jeden zweiten oder dritten Messwert auswerten und schauen, ob die Trendkurve anders verläuft. Auch geläufig: Ausreißer entfernen. Man nimmt extreme Werte aus den Daten heraus. Was extrem ist, definiert man aber selbst und kann so ganz einfach jeden "unpassenden" Wert unter den Tisch fallen lassen.
Noch toller: Extrapolation. Du analysierst gar nicht die eigentlichen Werte, sondern extrapolierst aus ihnen eine Kurve, die du quasi beliebig gestalten kannst. Im weiteren Verlauf der Analyse betrachtest du dann nur den extrapolierten Teil. Nicht ganz so perfide: Du suchst aus deinen Messwerten den Wertebereich heraus, der zu deiner Theorie passt und die restlichen lässt du weg.