Die Klimaritter, eine antikapitalistische Revolte
Seite 17 von 158 Neuester Beitrag: 27.12.22 12:49 | ||||
Eröffnet am: | 01.05.16 00:56 | von: lumpensamm. | Anzahl Beiträge: | 4.948 |
Neuester Beitrag: | 27.12.22 12:49 | von: hello_again | Leser gesamt: | 917.310 |
Forum: | Talk | Leser heute: | 3 | |
Bewertet mit: | ||||
Seite: < 1 | ... | 14 | 15 | 16 | | 18 | 19 | 20 | ... 158 > |
Das Prinzip ist immer das Gleiche,
- man verdreht die gezeigten Fakten ( u.a. besteht zwischen den 5xx mrd. und 5,x bio. kein direkter Zusammenhang ! )
- man stellt Zahlen grundsätzlich in Frage und argumentiert mit statistischen Tricksereien
- man präsentiert eigene ( die richtigen ) Statistiken
Recht haben natürlich ausschließlich die Klimakritiker, weil nur sie über die richtigen Statistiken verfügen bzw. verwenden und alle Anderen liegen selbstverständlich falsch. Nach dem Motto "Wer ist von uns der bessere Wissenschaftler?"
Und selbstverständlich kann es nur eine Verschwörung sein, wenn 97% aller Wissenschaftler der Klimahysterie erliegen.
Für den Leser der nicht tief in der Materie drin steckt ist es längst nicht mehr nachvollziehbar was Richtig und was Falsch ist, weil man noch so sehr argumentieren kann, die Gegenseite wird die Argumente stets mit irgendwelchen Zusammenhängen, Statistiken und scheinbar unumstößlichen Fakten widerlegen kann.
Ich gehe nicht davon aus, dass die Kritiker des Klimawandels diesen Wandel in irgendeiner Art und Weise werden aufhalten oder wesentlich beeinflussen können.
Dazu wurden die Leute in der Vergangenheit von jener Seite viel zu oft verarscht als dass da noch die Masse darauf vertraut.
U.a. hatte man Angst und Panik vor dem Atomausstieg geschoben, passiert ist nach Fukushima und dem temporären vom Netz nehmen aller Atomkraftwerke nix.
U.a. hat man Ängste geschürt, dass das Netz mit so viel Wind & Co. wird nicht fertig werden können und sich BlackOuts häufen werden. Passiert ist wieder nix, die Zahl der BlackOuts ist niedriger denn je.
U.a. dass die Strompreise explodieren werden. Gut die Preise sind deutlich gestiegen aber eben nicht explodiert, sondern bewegen sich mit den üblichen Preissteigerungen wie man sie auch bei Kohle oder Öl findet.
Solange die Strompreise nicht ernsthaft explodieren, d.h. jährlich um 5%+ zulegen, solange keine BlackOuts erfolgen, solange die Wirtschaft nicht deswegen zusammenbricht, solange wird man den Kritikern des Klimawandels nicht wirklich das Vertrauen schenken.
Ich sehe auch keinen Grund, weshalb ich den alten Monopolisten wieder mein Vertrauen und schön brav deren Monopolstellung wieder aufbauen sollte. Was habe ich davon?
Denn Fakt ist doch, dass Strom in einem monopolisierten Energiemarkt ganz sicher nicht günstiger, sondern ebenso teurer wird, die Monopolisten ihre Macht dazu benutzen werden um immer höhere Preise durchsetzen zu können.
Und machen wir uns nichts vor, die Politik wird diesen Monopolmarkt nicht regulieren, denn wenn sie es könnte, hätte es sie bereits damals getan als e.on & Co. die Stromkunden abzocken und ihre Milliardengewinne immer weiter erhöhen konnten.
Wären die Rohstoffkosten damals nicht so niedrig gewesen, wären die Strompreise bereits damals deutlich höher gestiegen, hätten e.on und Co. noch mehr Rechtfertigungsgründe gefunden um ihre Gewinnsituation weiter aufbessern zu können.
Für mich jedenfalls ist klar, solange sich diverse Horrorszenarien nicht bewahrheiten, bleibe ich skeptisch was die Kritik an den Klimawandel generell angeht.
Über die Art und Weise wie man den Klimawandel umsetzt, darüber bin auch ich über viele Dinge "not amused" und finde die Fokusierung falsch, teilweise zu viel Aktionismus in Teilbereichen und auf der anderen Seite zu wenig Aktionismus.
Der Klimawandel ist richtig, die Art und Weise aber verbesserungswürdig.
Du sagst "deine Beiträge bestätigen doch letztendlich den 2.Absatz.
Das Prinzip ist immer das Gleiche,
- man verdreht die gezeigten Fakten ( u.a. besteht zwischen den 5xx mrd. und 5,x bio. kein direkter Zusammenhang ! )
- man stellt Zahlen grundsätzlich in Frage und argumentiert mit statistischen Tricksereien
- man präsentiert eigene ( die richtigen ) Statistiken"
Ich habe nichts verdreht. In der Welt sowie in der Zeit wird von Subventionen für konventionelle Energieträger gesprochen. Der eine spricht von 523 Milliarden, der andere von 5,3 Billionen. Beide Artikel beklagen in Übereinstimmung mit dem 3. Artikel von Cleanenergy dieselbe angebliche Misere, dass konventionelle Energieerzeugung höher subventioniert wird, als die EE. Cleanenergy behauptet sogar, dass das auch für Deutschland gilt, führt aber nur eine Zahl an. "Erneuerbare Energien werden in Deutschland deutlich weniger subventioniert als Kohle- und Atomstrom. Zu diesem Ergebnis kommt das Forum Ökologisch-Soziale Marktwirtschaft (FÖS) in einer von Greenpeace Energy in Auftrag gegebenen Untersuchung"
Ich habe lediglich dargestellt, dass das nach meinen Informationen nicht stimmt und das am Beispiel der EU sowie der USA auch belegt. Nach den Zahlen, die veröffentlicht sind, ist auch die Behauptung von Cleanenergy eindeutig falsch. Das In den Raum Stellen einer Zahl macht sie noch lange nicht richtig. Aber anhand der Plausibilität klingen die belegten Zahlen von FAZ und Handelsblatt logisch, weil Deutschland nach Dänemark weltweit das Land ist mit der exponiertesten Förderung von Wind- und Solarenergie ist. Wo da "versteckte Subventionen" von 40 Milliarden für Kohle sein sollen, ist nicht ersichtlich und das belegt Cleanenergy erst gar nicht.
Den Vorwurf, den du der Kritikerseite machst, muss sich generell auch die Gegenseite gefallen lassen. In diesem Fall ist es m.E. so eindeutig, dass es eigentlich wenig offene Fragen geben sollte. Aber du kannst mir natürlich gerne sagen, wo ich etwas verdreht oder getrickst habe. Sollte das so sein, lasse ich das löschen und stelle es richtig.
"Für den Leser der nicht tief in der Materie drin steckt ist es längst nicht mehr nachvollziehbar was Richtig und was Falsch ist, weil man noch so sehr argumentieren kann, die Gegenseite wird die Argumente stets mit irgendwelchen Zusammenhängen, Statistiken und scheinbar unumstößlichen Fakten widerlegen kann"
Ja, das stimmt. Das ist aber immer Bestandteil einer technischen Diskussion, gerade, wenn er so erbittert geführt wird wie dieser. Einen offenen Diskurs kann man nicht per Dekret oder Schiedsrichterentscheid beenden. Das fordern interessanterweise nur die AGW Befüworter. Die Argumente sollten entscheiden. Das ist in der Klimadebatte verflixt schwierig, weil sie erstens wissenschaftlich komplex ist und zweitens alles andere als abgeschlossen ist. Für eine Entscheidung dieses Ausmaßes braucht es aber eine fundierte Grundlage. Nur auf deren Basis können politische Entscheidungen getroffen werden.
Dieser Entscheidungsfindungsprozess ist eigentlich nur in den USA (und dort über Jahrzehnte wenig erfolgreich für die AGW Befürworter) durchlaufen worden. Es gab und gibt immer noch unzähIige Hearings von beiden Seiten im Kongress und vor den Senatoren. In Deutschland sowie in ganz Europa und Australien hat die Politik das AGW Dogma kritiklos geschluckt. Gegenargumente? War da was? Nicht erforderlich! Also ist man direkt an die Umsetzung gegangen. Eine jämmerliche und schäbige Art von Demokratieverständnis. Die willfährige Presse hat das Husarenstück befördert und jubelnd durchgewunken. Analyse? Null! Kritik? Null!
"Ich gehe nicht davon aus, dass die Kritiker des Klimawandels diesen Wandel in irgendeiner Art und Weise werden aufhalten oder wesentlich beeinflussen können."
Ich gehe auch nicht davon aus, dass sich da schnell etwas tut. Dazu sind es in Deutschland und in der EU noch viel zu wenige kritische Stimmen. Aber ich bin mir 100% sicher, dass das Kartenhaus der Propaganda irgendwann in sich zusammenfallen wird. Und je mehr offensichtlich wird, dass die CO2 Phobie nichts anderes als eine provozierte Massenpanik war, und die daraus abgeleitete Politik eine Sackgasse ist, desto mehr Unbeteiligte werden vom Zug abspringen, auf die Gegenseite wechseln und den Zug irgendwann auch stoppen.
Deine Argumentation ist, dass man diese Folge- und Nebenkosten nicht mit einbeziehen kann/sollte, diese Zahlen nix aussagen.
Du stellst die Quellen die diese Bereichte veröffentlicht haben generell in Frage, obwohl die Zahlen selbst z.B. von einer Energieagentur stammen.
Belegt wird die Unglaubwürdigkeit mit einem Ausschnitt aus dem US-Haushaltsbuch und damit ist schlussendlich die Sache für dich erledigt und diese Zahlen widerlegt.
Geht es jedoch um erneuerbare Energien, so rechnest du alle Neben- und Folgekosten mit hinein, u.a. die Pufferung der Energie, Kosten für Recycling, Herstellung, uvw. und findest es falsch, wenn man diese Kosten nicht einkalkuliert.
Und nicht untypisch sind dann auch diverse Rechnungen die ebenso große Zahlen im Bio. Bereich ergeben und den Leser quasi deutlich vor Augen zu führen, wie unsinnig dieser Weg doch ist.
Egal in welche Richtung man schaut, man findest diese großen Zahlen auf BEIDEN Seiten.
Am Ende geht es BEIDEN Seiten darum auf Ängste anzuspielen und Menschen auf ihre Seite zu ziehen.
So wie die "Klimaritter" Ängste vor der Klimaerwärmung schüren, schüren die Gegner Ängste mit dem wirtschaftlichen Kollaps, der Nichtmachbarkeit, explodierenden Strompreisen und BlackOuts. Keine von beiden Seiten nimmt sich da etwas.
Die Realität wird meiner Meinung nach irgendwo in der Mitte liegen, der Klimawandel wird kommen, doch wer glaubt dass konventionelle Kraftwerke auch in einigen Jahrzehnten keine Rolle mehr spielen werden, wird falsch liegen so wie Derjenige falsch liegen wird der glaubt, dass man mehr als 50% an erneuerbaren Energien nicht realisieren und die Frage der Pufferung ohne explodierende Strompreise klären kann.
Sollte der Strompreis explodieren, sollten sich die BlackOuts häufen, sollte sich die Frage der Pufferung nicht klären lassen, so wird man reagieren, werden auch die "Klimaritter" argumentativ an ihre Grenzen geraten und um Übergangslösungen nicht umhin kommen, die man in Form von modernen konventionellen Kraftwerken vorfindet.
U.a. gehen Länder wie China bereits diesen Weg, weil sie wissen, dass der Energiehunger kurzfristig nicht mit erneuerbaren Energien gestillt werden kann.
Aber vor allem China weiß, was Umweltverschmutzung wirklich bedeutet und dass der Ausbau von erneuerbaren Energien trotz der vielen Herausforderungen alternativlos ist.
U.a. auch zu erwähnen, dass China eben nicht wie gern mal propagiert, die Lösung in der "sauberen" Kernenergie betrachtet, sondern ein Vielfaches dessen in erneuerbare Energien investiert.
Diese Zahlen ungeprüft zu übernehmen, ist im besten Falle naiv. Auf beiden Seiten alles exakt und objektiv rechnen wäre gut. Nur wie will man das machen und vor allem wer?
Mach doch mal einen Plausibilitätscheck. 5,3 Billionen ist so ein gigantischer Betrag, dass wir ihn auch spüren müssten, zumal er, was die Folgekosten angeht, hauptsächlich von den entwickelten Ländern berappt werden müsste. Ich sehe aber nichts, weder in meiner Gehaltsabrechnung noch im Bundeshaushalt. Auch bei versteckten Kosten wie der Gesundheit sehe ich unterm Strich nur Positives. Gut, die Kosten sind sicherlich stark gestiegen, aber wem will man das anlasten? Und dem Anstieg steht eine dramatische Erhöhung der Lebenserwartung und eine bessere Gesundheit gegenüber. usw. usf.
Zur Auffrischung nochmal der Hintergrund: Mit dem Montreal Protokoll Anfang der 90er Jahre wurden die FCKW (CFC) Kältemittel wegen der angeblichen Schädigung der Ozonschicht durch FCKW weltweit innerhalb kürzester Zeit verbannt und durch sogenannte HFC Kältemittel ersetzt. Hauptlieferant des neuen HFC Kältemittels und Patentinhaber war die amerikanische Firma Dupont.
Das Dupont Patent ist nun abgelaufen und plötzlich wird festgestellt, dass die HFC noch deutlich klimaschädlicher sind als CO2. Interessanterweise wird US Außenminister, John Kerry, seit Monaten nicht müde, auf die klimaschädliche Wirkung der HFC hinzuweisen. Da die Umweltpolitik ja nicht die unbedingt die erste Pflicht eines Außenministers ist, fragt man sich, wieso gerade er das Thema so vorantreibt. Liegt ihm die Umwelt bzw. das Klima so am Herzen? Laut daily caller kann das nicht sein, sonst würde er über den Investment Trust seiner Frau nicht hauptsächlich in Kohle und Ölunternehmen investieren. Oder könnte es sein, dass sein privates, finanzielles Engagement bei Dupont ihn dazu verleitet, sein Amt zu missbrauchen, um sich zu bereichern? Danach sieht es ganz stark aus s. Link unten.
Das würde Sinn machen, da Dupont zusammen mit Honeywell schon seit einigen Jahren das neue "klimafreundliche" Kältemittel R-1234 yf patentiert haben. Der erzwungene Austausch aller Kältemittel weltweit à la Montreal Protokoll wäre ein Milliardengeschäft für den Patentinhaber. "Zufälligerweise" fügt es sich gerade, dass die amerikanische Umweltbehörde EPA genau dieses Kältemittel auf Anweisung der amerikanischen Regierung als Teil des Clean Air Acts vorgeschrieben hat, obwohl der Act nur die Ozonproblematik regelt und der Kongress der Erweiterung des Acts nicht zugestimmt hat. Damit wurden Tatsachen geschaffen, die die Grundlage zur Kältemittelfarce werden sollen.
Denn auf diesem Weg hat das Wundermittel dann auch Einzug nach Europa gehalten und wird dort seit 2013 für die Typzulassung von Neuwagen vorgeschrieben. Das hat Daimler als Erster zu spüren bekommen. Sie wollten die neue A-Klasse mit dem alten Kältemittel R134a ausrüsten, weil sie nachgewiesen hatten, dass das neue R-1234yf extrem gefährlich (Explosionsgefahr) ist und zudem sogar lebensgefährliche Flusssäure und gewebezersetzende Gase freisetzen kann (s. Handelsblatt und SZ Link unten). Es half nichts, die EU, allen voran Antonio Tajani, der auch beim VW Diesel Skandal alles gegeben (bzw. eher genommen) hat, hat wegen der exorbitanten Klimagefahr die Bedenken zu R1234yf klein geredet und zurückgewiesen. Die Daimler Ergebnisse wurden sogar verleumdet und dazu wurden - man mag es kaum glauben - statements von Honeywell (dem Partner von Dupont) herangezogen. Es half nichts, die EU und Dupont haben sich durchgesetzt. Daimler musste klein beigeben und eine teure Argon Abhilfemaßnahme gegen die Explosionsgefahr entwickeln. Der Rest der Hersteller hat sich anfangs mit Hilfe von Tricks um den Einsatz des Kältemittels gedrückt und setzt es jetzt auch ein oder geht gleich in Richtung der teuren/ineffizienten Lösung mit CO2 als Kältemittel (da schließt sich der Kreis :-)). Das nicht auch schon früher gemacht zu haben, machen die Grünen scheinheilig Daimler jetzt zum Vorwurf. Eine Frechheit, die vor Ahnungslosigkeit nur so strotzt.
Resultat: Ein vollkommen ungefährliches Kältemittel wird mit offiziellem Segen und mit noch viel mehr politischem Druck durch einen absolut lebensgefährlichen Gefahrenstoff ersetzt, um
- einem Unternehmen ein Monopol zu verschaffen
- Politiker davon privat profitieren zu lassen
- irgendwie das Klima damit zu retten
- massive Lebensgefahr ohne mit der Wimper zu zucken in Kauf zu nehmen
Mittlerweile erkennen aber sogar die Grünen, dass da etwas ganz faul ist und dass der R1234yf-Bumerang auf die Klimabewegung zurückfallen könnte und fangen an zurück zu rudern. Man packt sich an den Kopf, welche Blüten dieser Klimaterror noch treibt. Greenpeace schlägt schon länger in die Kerbe.
Könnte durchaus sein, dass das Ding (nach der Wahl?) Obama und Kerry wieder vor die Füße fällt. Es wäre das Mindeste. Eigentlich gehört zumindest Kerry sofort vor den Kadi gezerrt.
Links:
http://www.handelsblatt.com/unternehmen/industrie/...en/12475688.html
http://www.sueddeutsche.de/wirtschaft/...rdammt-gefaehrlich-1.2793801
http://www.spiegel.de/auto/aktuell/...ler-verwendet-was-a-877062.html
http://www.globalwarming.org/2015/03/11/...e-obama-administration-is/
http://dailycaller.com/2016/04/27/...-invest-heavily-in-fossil-fuels/
https://www.gruene-bundestag.de/parlament/...aeltemittel-r1234yf.html
Es folgen einige Grafiken, um einen Aspekt meiner Sicht auf das AGW zu verdeutlichen. Alle Temperaturdaten stammen von Berkeley Earth
Ich halte die Daten, obwohl sie eine insgesamt höhere Erwärmung zeigen für realistischer als die von Hadcrut und GISS, weil BE sein Anpassungen schlüssig begründet und offenlegt. Bzgl. moderner Daten greife ich aus demselben Grund plus der größeren Abdeckung auf Satellitendaten (RSS oder UAH) zurück.
Hier zählt aber nur der historische gemessenen Temperaturbereich zwischen 1850 und 2010. Das Enddatum sit durch das Ende der gleitenden Schnitte der Berkeley Daten gesetzt.
Anfangen will ich mit einem Vergleich zwischen den Temperaturdaten über Land und den Temperaturdaten über Land & Wasser. Da die Erde zu 70% mit Wasser bedeckt ist und das Meer eine deutlich höhere Wärmekapität hat, machen die Seetemperturen einiges aus. Wie man sieht dämpft das Meer den volatilen Landverlauf deutlich ab. T1 soll die Temperaturerhöhung zwischen 1900 und 1940 sein, T2 soll die zwischen 1970 und 2010 sein. Folgende Aspekte sind aus dem Bild festzuhalten.
- Das Meer dämpft den Temperaturverlauf
- Die Temperaturerhöhung am Anfang des 20. Jahrhunderts verlief genauso schnell und war fast genauso groß wie am Ende (T1 = T2)
- Bei T1 waren Land- und Seetemperaturen annähernd im Gleichklang, bei T2 entwickelte sich die Landtemperatur deutlich stärker als die Seetemperatur.
- Auf T1 dürfte, bedingt durch die noch niedrigen Emissionen, das CO2 keinen nennenswerten Einfluss gehabt haben
Die gleichmäßige Erhöhung zw. Land- und Wassertemperaturen ist für mich ein Zeichen, dass da wenig CO2-Strahlungswärme mit im Spiel ist, da diese im Wasser durch ihre Langwelligkeit nicht viel ausrichtet. Außerdem ist, selbst wenn ich die gesamte Erhöhung T2 dem CO2 zuschreibe, die kumulierte Emission am Ende von T2 ca. das 7-fache von der am Ende von T1. D.h. summa summarum: T1 kann man - und das tut auch das IPCC - überwiegend als natürliche Temperaturerhöhung bezeichnen.
Es ist deshalb logisch, dass, wenn die globale Temperaturerhöhung über Land strärker als über Wasser ist, der überwiegende Teil der Erhöhung auf der Nordhalbkugel ablaufen muss. Das zeigt auch die Berkeley Earth Temperaturkarte ab 1960.
Sehen wir uns die Temperaturentwicklungen in den unterschiedlichen Hemisphären an, wird noch einmal deutlich, dass die Landtemperatur der südlichen Hemisphäre deutlich stärker vom Wasser und damit wahrsch. etwas weniger vom CO2 beeinflusst wird.
Außerdem sieht man, dass diese Abkoppelung der nördlichen und südlichen Hemisphären vom Durchschnitt irgendwann in den 80er oder 90 er Jahren stattfand.
Das würde durchaus Sinn machen, da ab diesem Zeitpunkt die CO2 Emissionen deutlich zunahmen.
Vernachlässigt man jetzt einmal die kleine Abweichung der südlichen Hemisphäre im Zeitruam zw. 1920 und 1955, so kann man festhalten:
- Die Hemisphären sowie Land und Wassertemperaturen laufen im Gleichklang bis 1990 plus/minus 5. Ab da koppeln sich Hemisphären sowie Land und Wassertemperaturen voneinander ab.
Was hat aber den Anstieg T1 verursacht?
Dazu ein Blick auf die Tages- (Max) und Nacht- (Min) Temperaturen. Wie man sehr schön sieht, verdankt sich der erste Anstieg T1 hauptsächlich den steigenden Nachttemperaturen, wohingegen bei T2 Tages- und Nachttemperaturen im Gleichschritt steigen.
Das wird oft als Argument für den Treibhauseffekt hernagezogen. Das kaufe ich allerdings nicht. Denn für mich strahlt ein Treibhausgas Tag & Nacht und erhöht auch in bedien Fällen die Temperatur. Zum Anderen wäre es schon etwas komisch, wenn der Treibhauseffekt gerade dann am deutlichsten zuschlagen würde, wenn die Emissionen am geringsten sind, um dann, wenn sie am eklatantesten sind, zum Erliegen zu kommen. Daraus folgt:
- Die natürliche Erhöhung T1 ist sehr wahrsch. eine, die der Isolierung (Wolken?) geschuldet ist.
Dass aber auch bei T2 die Wassertemperaturen gestiegen sein müssen, bedeutet, dass neben dem CO2 ein weiterer natürlicher Effekt da gewesen sein musste.
Das relativiert den Treibhauseffekt und die Klimasensitivität auf eine wahrscheinlich überschaubare Größe, übern Daumen geschätzt (43% CO2 Erhöhung ergeben ca. 0,4 Grad Erhöhung) in der Nähe des theoretischen Wertes von 1,2 Grad / CO2 Verdoppelung. So sehe ich das zumindest.
die Meinung von Berkeley Earth selbst. Dort hat man ein einfaches Klimamodell aus CO2 Antrieb und Vulkandämpfung entwickelt. Damit konnte man der (etwas willkürlich eingezeichneten) exponentiellen Trendlinie der Land(!)temperaturdaten ziemlich genau folgen. Da ein solches Modell angeblich nur mit CO2 machbar war, hat man beschlossen, dass es das sein muss.
Das ist mir zu simpel. Ich möchte den Beweis nicht einer Korrelation zwischen einer willkürlichen Trendlinie und einer simplifizierenden Modellrechnung überlassen. Ich möchte schon auch verstehen, warum das so ist. Eine ähliche simple Erklärung hätte sich sicher auch für mit Hilfe des Wassergehalts in der Atmosphäre oder mit der Bewölkung finden lassen.
Außerdem bezweifle ich, dass das Klima so simpel gestrickt ist, dass durch 2 Parameter alles erklärt werden kann, wo wir doch gesichert wissen, dass Wolken, Wasser und indirekt die Sonne einen ganz großen Einfluss haben. Gerade zu Wolken und Wassergehalt gibt es aber leider keine Daten! Wie kann man also sicher sein, dass
- vor 100 Jahren der damals minimale CO2-Einfluss das Gleiche angerichtet haben soll wie in den letzten 40 Jahren?
- und die theoretisch großen aber unbekannten Faktoren komplett und bedenkenlos beiseite geschoben werden können, um am Ende zu sagen:
- Wir haben alles probiert, aber CO2 und Vulkan ergibt die beste Korrelation
Sorry, das ist mir zu platt und schlicht zu unwahrscheinlich. Hier hatte wohl die Tochter Muller (Gründerin von Berkeley Earth) den Vater Muller (ursprünglich Skeptiker) am Wickel. Beider Verdienst bleibt aber, ein unabhängigeres und zugänglicheres Temperaturdatenset geschaffen zu haben.
Zitat von George Carlin aus dem obigen Video: "Save the fucking planet? ... The planet is fine, the people are fucked!"
Wie schon mehrfach angemerkt, läutet der Dieselskandal das Ende des Diesels ein. Mit einem Rückgang von 50% auf 44% Marktanteil ist der Trend gesetzt. Die E-Mobilität rückt, will die Politik den Klima-Hokus-Pokus halbwegs ernst nehmen, zwangsläufig immer näher.
Denn der Diesel war und ist noch das Zugpferd in der Klimadebatte um CO2.
Dann kommt noch die pure Angst mit dazu, die der Trump-Sieg bei den Klimarittern ausgelöst hat. Lieber jetzt und schnell noch Maßnahmen beschließen und umsetzen, bevor sich der politische Wind dreht. Auch in Frankreich und Deutschland stehen nächstes Jahr Wahlen an. Würden beide für die Weltenretter verloren gehen, gäbe es weltweit außer der nicht uneigennützigen chinesischen keine nennenswerte Unterstützung mehr für das hehre Ziel, das Weltklima endlich wie die Klimaanlage im Auto bedienen zu können. Dass dann nicht nur das Klima sondern auch das Wohnzimmer kalt bleibt, ist für diese Überzeugungstäter sekundär. Also fangen wir mal mit dem E-Auto an. Strom kommt ja bekanntlich aus der Steckdose, der Rest ist egal (erst gestern habe ich das wieder von so einer Überzeugunstäterin auf SPON gelesen: "Strom gibt es reichlich". Da wundert einen nichts mehr. Physik sollte ab sofort wieder Abitur-Pflichtfach werden. Alleine dadurch hätten wir schon deutlich weniger Studenten.).
https://web.archive.org/web/20161114131317/http://...ronment-37949877
Den Rest kann man auf WUWT nachlesen.
http://www.spektrum.de/news/...content=news&utm_campaign=ZON_KOOP
Der aktuelle El Nino explodiert komischerweise in diesen NOAA, NASA, HADCRUT Daten, wohingegen der nahezu ebenso große El Nino 1998 fast nicht erkennbar ist. Das ist erstaunlich, weil die Satellitendaten, die auch größere Meeresgebiete abdecken, beide El Ninos annähernd gleich ausweisen. Der Rückgang nach den El Ninos ist dort auch deutlich größer als bei den zitierten Daten. Zu sehen ist das nicht nur in den UAH sondern noch stärker in den RSS Daten anbei. Bei den Satellitendaten liegt der Rückgang nach dem El Nino aktuell im Schnitt bei ca. 0,5 Grad. Das ist schon eine andere Hausnummer als die 0,2 Grad.
Sehr fragwürdig ist auch die Auflistung weltweiter Katastrophen und der humanitären Auswirkungen im verlinkten WMO Artikel wie z.B. der Zunahme von Extremwettereireignissen, die angeblich mit dem AGW in Verbindung stehen sollen. Es gibt aber keinen Beweis, dass diese Effekte global zugenommen hätten, was auch das IPCC bestätigt (siehe erste Seite in diesem Thread). Die wiederholte Behauptung ohne Zahlenmaterial macht das nicht richtiger. Es ist auch keine logische Verbindung herzustellen, da Extremwetterereignisse v.a. von großen Temperaturdifferenzen zwischen Tropen und höheren Breitengraden induziert werden. Wenn sich aber die Temperaturen annähern, dürften z.B. die Strürme eher zurückgehen. Und genau das ist auch zu beobachten (auch hier schon gezeigt). Regnen dürfte es wegen des höheren Wassergehalts wärmerer Luft hingegen häufiger. Allerdings müssen das nicht zwangsäufig Überflutungen sein, und wenn, wäre auch noch festzustellen, wieviele davon auf die Veränderung der Landschaft zurückzuführen sind. Das Übliche halt.
In der Folge werde ich ein paar posts zum Thema Wissenschaft an sich einstellen. Das macht vielleicht auch klarer, wieso es, entgegen den Vorstellungen des gemeinen Nichtwissenschaftlers, kein großer Affront ist, der wissenschaftlichen Sicht zu widersprechen.
Ich war im Laufe der Auseinandersetzung mit der Klimathematik teilweise fassungslos, was an Veröffentlichungen als Wissenschaft verkauft wird. Ich bin da eher den peniblen Ingenieursstandard gewohnt, der natürlich deutlich weniger theoretisch ausgerichtet ist, aber dessen theoretische Basis ob der praktischen Auswirkungen des Endproduktes auf das Leben der Menschen im Grunde zu nahezu 100% valide sein muss. Dieser Wert fällt nach meiner Beobachtung in den einstelligen bis niedrig zweistelligen Bereich, wenn es um Wissenschaft geht. Für die Wissenschaftler selbst ist das kein großes Thema, wenn er eine falsche Theorie veröffentlicht, an der nichts dran ist. Das gehört dazu. In den meisten Fällen bekommt die Öffentlichkeit davon auch gar nichts mit. Im Falle der Klimawissenschaft werden jedoch viele Thesen und Ergebnisse in den Medien gehypt, auch wenn sie haltlos oder falsch sind.
Verantwortlich dafür sind - das gilt allgemein für die Wissenschaft und nicht nur für die Klimasektion - m.E. hauptsächlich 8 Faktoren, die da sind:
- Das Wesen des wissenschaftlichen Betriebs im Allgemeinen, wo es mehr um Theorien und Unbekanntes geht. Daran soll sich auch nicht viel ändern.
- Der Peer Review Prozess, der genau deshalb da ist, um veröffentlichte Ergebnisse zu widerlegen. Dazu später mehr.
- Die Loslösung zwischen Ergebnis und Verantwortung für die Konsequenzen.
Plattes Beispiel: Berechnet ein Ingenieur die Radaufhängung eines Autos falsch und es sterben deshalb Menschen, wird er erhebliche Probleme bekommen. Veröffentlicht ein Wissenschaftler eine falsche Studie zu den Auswirkungen eines ungefährlichen Pestizids, die in der Konsequenz zu dessen Verbot führt und es sterben deshalb Menschen wegen Infekten, wird der gute Mann ohne schlechtes Gewissen, und unbehelligt seinen Weges ziehen. - Der Veröffentlichungsdruck. Nur wer viel veröffentlicht und oft zitiert wird, erntet Renommée und neue Forschungsgelder.
- Der Gruppenzwang: Auf jedem Gebiet bilden sich Gruppen um die jeweilige Theorie herum. Einmal dabei, werden Ergebnisse, die der Gruppentheorie widersprechen, ungern gesehen. man wird sich schwerer tun, geeignete Editoren zu finden und wird mit Gegenwind rechnen müssen. Nicht selten üben die erfahrenen Protagonisten der jeweiligen Gruppe Druck auf einen Herausgeber aus, um Veröffentlichungen eines abtrünnigen Newcomers zu verhindern.
- Die Kanalisierung durch den Herausgeber. Über die Zeit bilden sich Mainstreamthemen heraus, die die Wissenschaftsmagazine "gut" verkaufen können und solche, die nicht so gerne gesehen werden, weil es dem Mainstream der Wissenschaft (und damit den meisten Kunden des Magazins) widerspricht. Vom Mainstream Abweichendes wird also immer schwieriger zu veröffentlichen sein als Mainstream-Wissenschaft.
- Ruhm durch Massenmedien. Fehlendes wissenschaftliches Renommée kann durch Ruhm in den breiten Medien substituiert werden. Es verleitet in der Konsequenz zu mediengerechter Überhöhung und Beschäftigung mit sachfremden Inhalten. Bestes Beispiel ist Michael Mann mit seinem berühmt gewordenen Hockeystick, den man (euphemistisch) ein Fake nennen kann. Etwas weniger pro reo betrachtet ist es eine platte Fälschung. Innerhalb der Klimawissenschaftsgemeinde ist das auch vollkommen klar (Climate Gate emails). Aber weil alle davon profitiert haben, wird er protegiert (er hat sogar eine Professur bekommen) und nur nach innen kritisiert.
- Die Instrumentalisierung der Wissenschaft durch Politik, Wirtschaft und NGOs. Gerade bei schwer zu vermittelnden Themen kann das medienwirksame Siegel der wissenschaftlichen Bestätigung ein starker Katalysator für die Akzeptanz entsprehender Ansichten und Maßnahmen sein.
Resultate dieser Zwänge und Randbedingungen sind u.a. öffentlichkeitswirksame Banalitäten, Junk Science, nicht reproduzierbare Ergebnisse oder schlicht Unwahrheiten. Je größer das Thema desto größer die Maschinerie, die sich automatisch um es herum aufbaut, ohne dass da ein großer Strippenzieher im Hintergrund wirken müsste. Beispiele hierzu sind die wissenschftlichen Verteufelungen von Cholesterin, Zucker oder Salz, die zu medizinischen Pseudoerkenntnissen geführt haben, sich nach genauerer Betrachtung aber allesamt als Nullnummern entpuppten. Natürlich zähle ich persönlich das katastrophale AGW Thema an vorderster Front dazu, aber da sind wir noch nicht soweit, das auch so beerdigen zu können wie z.B. das Cholesterin. Insofern wird mir da sicher noch die Mehrheit widersprechen.
Dass die Wissenschaft in einer Glaubwürdigkeitskrise steckt, ist nicht nur meine Meinung, sondern das bestätigen die Wissenschaftler auch selbst (dazu später noch viel mehr). So geben fast 90% der Wissenschaftler in einer Nature-Studie an, dass die fehlende Reproduzierbarkeit der Ergebnisse ein Problem ist, s. Anhang. Nach anderen Studien sind ca. 50% der veröffentlichten Ergebnisse - selbst nach Zuhilfenahme des Autors - nicht reproduzierbar und damit Müll.
D.h. nicht, dass Wissenschaft oder die Wissenschaftler selbst doof sind. Ich glaube, wir dichten ihnen nur zuviel Wissen und Integrität zu und ordnen das Ergebnis vollkommen falsch als Siegel statt als Erklärungsversuch ein. Dem Ergebnis zum Ursprung zurück folgend erkennt man, dass ein wichtiger Aspekt des Vertrauensverlustes die Diskrepanz zwischen Förderung, Erwartungshaltung und Ergebnis ist. Entscheidend für diese Diskrepanz sind das Setzen von zur Erwartung passenden Rahmenbedingungen durch die Auftraggeber der Wissenschaft. Eine ziellose Verteilung von Geldern nährt zwar die Erwartung des Förderers, führt aber nur selten zu verwertbaren Ergebnissen, wohingegen eine selektive Förderung mit entsprechend fester Zielsetzung und Disziplinenbündelung die gewünschten Ergebnisse bringt (mit allen Vor- und Nachteilen).
Ist das alles neu? Sicher nicht! Die Wissenschaftler waren bestimmt schon immer auf Ruhm und Veröffentlichungen fixiert, nur hat das System dahinter mit der Proliferation der Kommunikationsmöglichkeiten und den dadurch erreichbaren Vorteilen erheblich gelitten und die äußeren Zwänge sind in ihrer Bedeutung für den Wissenschaftler noch einmal deutlich nach vorne gerückt. Das hat nach Ansicht der Wissenschaftler in eine Glaubwürdigkleitskrise der Wissenschaft geführt.
Gefährlich ist das, weil diese wachsende Vertrauenskrise mit dem gerade grassierenden Misstrauen bestimmter Bevölkerungsteile gegenüber "Eliten" im Allgemeinen zusammenfällt. Ob unter den Motiven mitunter vielleicht sogar ein Zusammenhang besteht, wäre interessant zu erforschen. Sicher ist aber, dass ein großes Defizit da ist und dass sich die Wissenschaft bewegen muss, um ihre Glaubwürdigkeit wieder herzustellen, bevor ein wie auch immer gearteter Mob das Kind mit dem Badewasser ausschüttet.
Die folgenden posts werden überwiegend nur Artikel und Meinungen zu dieser Krise aus Sicht der Wissenschaft (allgemein, nicht klimabezogen) sein, damit man einen Eindruck bekommt, was dort - von der Öffentlichkeit relativ unbeachtet - vorgeht.
Daniel Sarewitz: Saving Science
http://www.thenewatlantis.com/publications/saving-science
„Scientific progress on a broad front results from the free play of free intellects, working on subjects of their own choice, in the manner dictated by their curiosity for exploration of the unknown.”
So lautete die hehre Umschreibung von Vannevar Bush, einem M.I.T. Ingenieur, der für das amerikanische Militär am Ende des 2. Weltkriegs die Forschung so gebündelt hat, dass statt nur Grundlagenerkenntnisse tatsächlicher Fortschritt am Ende der Arbeit stand. Resultate waren z.B. die Atombombe, Antibiotika und Radaraufklärung.
Daniel Sarewitz, Dr. der Geologie und Professor für Wissenschaft und Gesellschaft, hat sich auf die Erforschung der Wechselwirkungen zwischen Wissenschaft, Gesellschaft und Politik spezialisiert. http://sciencepolicy.colorado.edu/about_us/meet_us/dan_sarewitz/ Er beschreibt die Realität unisono mit vielen Wissenschaftlern heute so:
„Science, pride of modernity, our one source of objective knowledge, is in deep trouble. Stoked by fifty years of growing public investments, scientists are more productive than ever, pouring out millions of articles in thousands of journals covering an ever-expanding array of fields and phenomena. But much of this supposed knowledge is turning out to be contestable, unreliable, unusable, or flat-out wrong. From metastatic cancer to climate change to growth economics to dietary standards, science that is supposed to yield clarity and solutions is in many instances leading instead to contradiction, controversy, and confusion. Along the way it is also undermining the four-hundred-year-old idea that wise human action can be built on a foundation of independently verifiable truths. Science is trapped in a self-destructive vortex; to escape, it will have to abdicate its protected political status and embrace both its limits and its accountability to the rest of society.
Academic science, especially, has become an onanistic enterprise worthy of Swift or Kafka. The professional incentives for academic scientists to assert their elite status are perverse and crazy, and promotion and tenure decisions focus above all on how many research dollars you bring in, how many articles you get published, and how often those articles are cited in other articles.
Die US Ausgaben für Forschung haben sich seit 1953, als Vanevar Bush noch aktiv war, bis heute von ca. 400 Millionen $ auf 72 Milliarden $, nach Abzug der Inflation, verzwanzigfacht! Jetzt könnte man meinen, dass in der Zeit ja auch die Mondfahrt entdeckt wurde und nicht zuletzt Computer, Internet, Satellitennavigation und Mobilfunk das Tageslicht erblickten. Laut Sarewitz ging trotz immenser Steigerung der Budgets nur sehr wenig davon auf das Konto der zivilen Wissenschaft. Im Gegenteil, mit zunehmendem Budget erzielte man einen abnehmenden Output (s. Bild). Der Großteil der oben genannten Fortschritte kam Sarewitz zufolge ausschließlich über die Forschungsausgaben des Verteidigungsministeriums zustande. Das Motiv dazu war, den kalten Krieg zu gewinnen. So entstand der „industrial-military complex“ der Ära Eisenhower. Aus der Gegenüberstellung der Ergebnisse aus ziviler und militärischer Forschung leitet Sarewitz 3 entscheidende Schlussfolgerungen ab.
The story of how DOD [Department Of Defense] mobilized science to help create our world exposes the lie [Vanevar Bush’s description of science above] for what it is and provides three difficult lessons that have to be learned if science is to evade the calamity it now faces.
First, scientific knowledge advances most rapidly, and is of most value to society, not when its course is determined by the “free play of free intellects” but when it is steered to solve problems — especially those related to technological innovation.
Second, when science is not steered to solve such problems, it tends to go off half-cocked in ways that can be highly detrimental to science itself.
Third — and this is the hardest and scariest lesson — science will be made more reliable and more valuable for society today not by being protected from societal influences but instead by being brought, carefully and appropriately, into a direct, open, and intimate relationship with those influences.
Wie desaströs uneffektiv und ziellos der wissenschaftliche Betrieb ist, belegt Sarewitz u.a. am Beispiel der Brustkrebsforschung, wo 650 wissenschaftliche Studien veröffentlicht wurden, die als Grundlage ihrer Forschung fälschlicherweise Hautkrebs- statt Brustkrebszellen verwendet hatten. Die Reproduzierbarkeit der Ergebnsse im Fall Brustkrebsforschung war bei 11%. D.h. zu fast 90% wurde nur Datenmüll veröffentlicht und damit lag man innerhalb der Bandbreite biomedizinischer Forschung, wo die Unreproduzierbarkeit zwischen 75% und 90% liegt.
Ein anders Highlight ist die Darstellung der Ergebnisse. Ein Vergleich der Wortwahl zwischen Berichten aus 1974 und 2014 kam zum Ergebnis, dass Worte wie „innovativ“, „robust“ oder „nie dagewesen“ heute 9 mal so oft vorkommen wie vor 40 Jahren. Es ist unerheblich, ob die Sprache dem Zeitgeist oder der Eigenwerbung geschuldet ist. Wenn Worthülsen die offenbar dünne inhaltliche Basis ersetzen, läuft etwas falsch.
In Sachen Zustand und Ausblick zitiert Sarewitz den Herausgeber des Lancet, Richard Horton, who puts it like this:
“The case against science is straightforward: much of the scientific literature, perhaps half, may simply be untrue. Afflicted by studies with small sample sizes, tiny effects, invalid exploratory analyses, and flagrant conflicts of interest, together with an obsession for pursuing fashionable trends of dubious importance, science has taken a turn towards darkness”
Der Bias, also die Voreingenommenheit des Autors selbst, hat Horton und Sarewitz zufolge einen großen Einfluss auf die Qualität der Ergebnisse.
“Yet, to fixate on systemic positive bias in an out-of-control research system is to miss the deeper and much more important point. The reason that bias seems able to infect research so easily today is that so much of science is detached from the goals and agendas of the military-industrial innovation system, which long gave research its focus and discipline. Nothing is left to keep research honest save the internal norms of the professional, peer-review system itself. And how well are those norms holding up? A survey of more than 1,500 scientists published by Nature in May 2016 shows that 80 percent or more believe that scientific practice is being undermined by such factors as “selective reporting” of data, publication pressure, poor statistical analysis, insufficient attention to replication, and inadequate peer review. In short, we are finding out what happens when objective inquiry is guided by Bush’s beautiful lie. “Scientific doomsday” indeed.“
Mit dem Verweis auf den Kollegen Weinsberg erklärt Sarewitz den Unterschied zwischen Science und Trans-Science. Im ersten Fall hat man es mit klaren Naturgesetzen, also physikalischen Realitäten zu tun, die unumgehbar sind. Ein Beispiel hierzu wäre die Physik, wo die zugrundeliegende Mechanik z.B. die Regeln vorgibt. Damit wird ein imaginäres, unbekanntes Szenario berechenbar und vorhersagbar. Im zweiten Fall, wenn das Forschungsobjekt selbst keinem vollständig bekannten Prinzip folgt, also die Regeln, nach denen es operiert, unbekannt sind, ist bei der Vorhersagbarkeit seines Verhaltens der Vermutung und der willkürlichen Interpretation Tür und Tor geöffnet. Diese Wissenschaften, dazu gehören ein Großteil der medizinischen Disziplinen, die Wirtschafts- und Sozialwissenschaften oder auch z. T. die Klimaforschung, werden Trans-Science genannt. Gerade dort wütet die wissenschaftliche Ineffizienz am schlimmsten. In den USA wird z.B. soviel Geld in die medizinische Forschung gesteckt wie in alle anderen Disziplinen zusammen und doch lässt sich für die große Krankheiten kein Fortschritt erzielen, im Gegenteil, die medizinischen Innovationen sind rückläufig. Müßig zu sagen, dass dort der Anteil nicht reproduzierbarer Ergebnisse am größten ist. Ein Beispiel, das angeführt wird, ist die Erforschung von Alzheimer anhand von Mäusen, die sehr wahrscheinlich keine großen neuronalen Gemeinsamkeiten mit dem Menschen haben. Dieser Sektor wird bis zum Exzess erforscht, ohne dass die so erzielten Ergebnisse irgendeinen Erfolg zeitigen würden. Aber niemand kommt auf die Idee, die Alzheimer-Forschung prinzipiell anders auszurichten.
“This combination of predictable behavior and invariant fundamental attributes is what makes the physical sciences so valuable in contributing to technological advance — the electron, the photon, the chemical reaction, the crystalline structure, when confined to the controlled environment of the laboratory or the engineered design of a technology, behaves as it is supposed to behave pretty much all the time.
But many other branches of science study things that cannot be unambiguously characterized and that may not behave predictably even under controlled conditions — things like a cell or a brain, or a particular site in the brain, or a tumor, or a psychological condition. Or a species of bird. Or a toxic waste dump. Or a classroom. Or the economy. Or the earth’s climate. Such things may differ from one day to the next, from one place or one person to another. Their behavior cannot be described and predicted by the sorts of general laws that physicists and chemists call upon, since their characteristics are not invariable but rather depend on the context in which they are studied and the way they are defined. Of course scientists work hard to come up with useful ways to characterize the things they study, like using the notion of a species to classify biologically distinct entities, or GDP to define the scale of a nation’s economy, or IQ to measure a person’s intelligence, or biodiversity to assess the health of an ecosystem, or global average atmospheric temperature to assess climate change. Or they use statistics to characterize the behavior of a heterogeneous class of things, for example the rate of accidents of drivers of a certain age, or the incidence of a certain kind of cancer in people with a certain occupation, or the likelihood of a certain type of tumor to metastasize in a mouse or a person. But these ways of naming and describing objects and phenomena always come with a cost — the cost of being at best only an approximation of the complex reality. Thus scientists can breed a strain of mouse that tends to display loss of cognitive function with aging, and the similarities between different mice of that strain may approximate the kind of homogeneity possessed by the objects studied by physics and chemistry. This makes the mouse a useful subject for research. But we must bear the cost of that usefulness: the connection between the phenomena studied in that mouse strain and the more complex phenomena of human diseases, such as Alzheimer’s, is tenuous — or even, as Susan Fitzpatrick worries, nonexistent. … In fact, the great thing about trans-science is that you can keep on doing research; you can, as Fitzpatrick says, create “the sense that we’re gaining knowledge when we’re not gaining knowledge,” without getting any closer to a final or useful answer.”
Last but not least erwähnt Sarewitz das Datageddon, eine Beschreibung des Zustands, wo Zusammenhänge durch die Masse der Daten substituiert oder verdeckt werden.
“The imperative of technological advance focuses scientific inquiry, and provides a test for the validity of new scientific knowledge. Big data does the opposite, casting science into a sea of data with few constraints on where it might drift. The difficulty with this way of doing science is that for any large body of data pertaining to a complex problem with many variables, the number of possible causal links between variables is inestimably larger than the number a scientist could actually think up and test. For example, researchers have identified more than a hundred variables that may influence obesity, from genes to education to job stress to how fast you eat to whether you were breastfed. Exploring the relations between even some small number of combined variables would give you billions of possible hypotheses to test. The likelihood that you will happen upon one that reveals important causal relations is thus extremely small, while the opportunities for introducing bias or discovering meaningless correlations abound. So even if you get a positive result, it will likely be spurious. As John Ioannidis explains in his famous 2005 article “Why Most Published Research Findings Are False,” the problem of searching for a small number of possible true relationships in large data sets “totally reverses the way we view scientific results. Traditionally, investigators have viewed large and highly significant effects with excitement, as signs of important discoveries. Too large and too highly significant effects may actually be more likely to be signs of large bias in most fields of modern research.” But no matter — once you have a positive finding, the web puts the world’s scientific literature at your beck and call, and you can effortlessly trawl for peer-reviewed published papers to lend credibility to your discovery. And even if you do happen to confirm a real causal link, for it to be useful you would probably have to connect it to other such links, each of which is itself unlikely to be true. Perhaps obese people with less education, more job stress, and a specific genetic marker do eat more quickly than others, but the reason they are obese may be due to something else entirely, say, not having time to exercise because they live far from work.
If mouse models are like looking for your keys under the street lamp, big data is like looking all over the world for your keys because you can — even if you don’t know what they look like or where you might have dropped them or whether they actually fit your lock.”
Women on the Verge of a Nervous Breakdown was a funny title for Pedro Almodóvar’s funny movie about how men drive women nuts. Science on the Verge is a funny title, too, but this book, which examines the unfolding crisis in science today, is serious. And indeed, the worrisome, in some ways even terrifying state of affairs in science revealed here, demands the sober, rigorous and intellectually compelling treatment that you are about to read.
And yet... science’s problems seem also to verge naturally toward an encounter with satire. If science is the great social enterprise that separates the modern, ration- al human from our primitive, superstition-laden fore- bears, how could it have so lost its grip on reality?
The satirical potential that such a question raises has not gone entirely unnoticed, although I can think of only one seriously good satire about the scientific endeavour itself: Jonathan Swift’s Gulliver’s Travels—now nearly 300 years old. Best known for tales in which its itinerant hero is little among big people, big among little people, and a brutish human among apparently civilized horses, Gulliver’s Travels also recounts the visit of its ingenuous and reliable narrator to the floating (in air) island of Laputa, a kingdom ruled by mathematicians, that most logical and disciplined species of intellect. In Laputa, the nation’s indolent leaders are not fanned by servants with palm fronds (as would befit your standard Pharaoh or Sultan). Rather, servants must continually flap the ears and mouths of their masters with “a blown Bladder fastned like a Flail to the End of a short Stick” in order to get their attention. Otherwise their minds “are so taken up with intense Speculations, that they neither can speak, or attend to the Discourses of others."
Gulliver visits the Academy of Lagado, the kingdom’s scientific institute, and describes many projects being pursued by the kingdom’s visionary researchers. Here, in an 18th-century nuclear fusion lab, one scientist has spent eight years trying to extract sunbeams from cucumbers. He is confident that, with an additional eight years of work, his project will achieve its goal of storing the extracted energy in “Vials hermetically sealed”, so that they can, when needed, be “let out to warm the Air in raw inclement Summers.” Meanwhile, the Academy’s behavioural economists debate the best way to raise tax- es “without grieving the subject. The first affirmed, the justest Method would be to lay a certain Tax upon Vices and Folly [...] The second was of an Opinion directly contrary; to tax those Qualities of Body and Mind for which Men chiefly value themselves”. Even ‘big data’ is very much on the agenda, as one especially ambitious professor strives to increase the productivity of scientific research with a huge machine that randomly combines “all the Words of Their Language in their several Moods, Tenses and Declensions”, and through this device “give the World a compleat Body of all Arts and Sciences”, an effort that would be greatly expedited if only “the Publick would raise a Fund for making and employing five Hundred” such machines.
And what of the world portrayed in Science on the Verge? In this book you will read about a scientific enterprise that is growing in productivity and influence even though the majority of publications in many scientific fields may be wrong. You’ll see how scientists reduce complex, unpredictable problems to much simpler, manageable models by leaving out important factors, which allows the scientists to come up with neat solutions—often to the wrong problems. You’ll learn how doing this sort of science often makes our knowledge of the world more uncertain and unpredictable, not less, and how instead of leading to ‘evidence-based policy’ we end up with ‘policy-based evidence.’ You’ll find out why precise quantitative estimates of some of the impacts of climate change are so uncertain as to be meaningless. (How, for example, can we quantify to a tenth of a percent the proportion of species that will go extinct from climate change if we don’t even know the number of species that exist now?) And you’ll find out how economic analyses based on flawed computer coding served the interests of both economists and policy makers—and as a result caused long-term damage to national economies. You’ll discover how, in a human world that is growing ever more complex, our approaches to governing science and technology are turning decisions and action over to computer algorithms and technological systems. We transfer our agency to machines in the name of efficiency and predictability, but the entirely paradoxical consequence is that the human capacity to adapt to uncertainty and unpredictability may actually be diminishing.
It’s a world that might well have been imagined by a modern-day Swift—only it’s our world, today. At its heart is a failure to recognize that the use of science in guiding human affairs is always a political act. It’s not that we shouldn’t do our very best to understand our world as a basis for acting wisely in it. It’s that such understanding has its limits as matters of both science and subjective sensibility. All complex systems must be simplified by scientists to render them analytically tractable. All choices about how a society should best address its many challenges must be guided by the norms and values of stakeholders, by trade-offs among those with conflicting goals, and by hedges against inevitable uncertainties. If the second condition—the necessity of subjective choice—is made subservient to the first—the limits of science—then science runs the risk of being corrupted. This happens because its practitioners, advocates and institutions do not resist the temptation of overstating science’s claims to both certainty and legitimacy. The risk for society, in turn, comes from pushing the political into the black box of the technical, thus making it invisible to democratic actors. As explained by the political theorist Yaron Ezrahi in his 1990 book The Descent of Icarus, “The uses of science and technology to ‘depoliticise’ action have been among the most potent political strategies in the modern state. The authority of this strategy has been sustained by the illusion that social and political problems like scientific problems are inherently solvable” (51).
If science is failing, then, surely a good part of the explanation is that, in turning many complex social challenges over to scientists to find ‘solutions’, politicians and citizens alike are demanding more from science than it can deliver. Swift himself feared the consequenc- es of substituting scientific rationality for human judgment. Three years after writing Gulliver, he explored the problem of scientific rationality and social choice in his famous essay “A Modest Proposal”. Here, in a brutal satire of evidence-based policy, he demonstrated in dispassionate, rational, quantified scientific terms that eating poor children would be economically and socially beneficial—a logically elegant solution to poverty arising from England’s oppressive policies toward Ireland.
If we have come less far than we might wish from Swift’s view of science and politics, the authors of Science on the Verge lay out the regimen necessary for avoiding nervous breakdown. Above all is the importance of recognizing that (as you’ll read in Chapter 1) “the problems in science will not be fixed by better training in statistics, better alignment of incentives with objectives, better regulation of copyright” and so on. The scientific community continues to understand itself as a self- correcting, autonomous enterprise, but the knowledge it creates is no longer containable within laboratories, technical publications and patents. It has now become central to many political debates, and can be wielded by everyday citizens during activities as mundane as visiting a doctor, buying food or arguing with one’s neighbour. Scientists can no longer maintain authority by insisting that they should be left alone to fix their problems. Recall what happened when the Catholic Church tried this approach after Gutenberg had loosened its hold on truth.
Women on the Verge of a Nervous Breakdown made the case for the essential and redemptive strength of women in a male-dominated culture. Science on the Verge is no less sympathetic to its subject. Many modern institutions and practices have been designed in the expectation that science was a truth-telling machine that could help overcome fundamental conditions of uncertainty and disagreement. The painful lesson of recent decades, however, is that real science will never construct a single, coherent, shared picture of the complex challenges of our world—and that the quest to do so instead promotes corruption of the scientific enterprise, and uncertainty and suspicion among decision makers and engaged citizens (exemplified in debates over GMOs or nuclear energy). At its best, however, science can provide a multiplicity of insights that may help democratic societies explore options for navigating the challenges that they face. Put somewhat differently, Science on the Verge explains to us why science’s gifts must be understood as actually emerging from science’s limits—much as grace is born from human fallibility.
http://www.andreasaltelli.eu/file/repository/Foreword_Dan_Sarewitz.pdf
One of the reasons the science literature gets skewed is that journals are much more likely to publish positive than negative results: It’s easier to say something is true than to say it’s wrong. Journal referees might be inclined to reject negative results as too boring, and researchers currently get little credit or status, from funders or departments, from such findings. “If you do 20 experiments, one of them is likely to have a publishable result,” Oransky and Marcus write. “But only publishing that result doesn’t make your findings valid. In fact it’s quite the opposite.”9
Oransky believes that, while all of the incentives in science reinforce confirmation biases, the exigencies of publication are among the most problematic. “To get tenure, grants, and recognition, scientists need to publish frequently in major journals,” he says. “That encourages positive and ‘breakthrough’ findings, since the latter are what earn citations and impact factor. So it’s not terribly surprising that scientists fool themselves into seeing perfect groundbreaking results among their experimental findings.”
Nosek agrees, saying one of the strongest distorting influences is the reward systems that confer kudos, tenure, and funding. “To advance my career I need to get published as frequently as possible in the highest-profile publications as possible. That means I must produce articles that are more likely to get published.” These, he says, are ones that report positive results (“I have discovered …”, not “I have disproved …”), original results (never “We confirm previous findings that …”), and clean results (“We show that …”, not “It is not clear how to interpret these results”). But “most of what happens in the lab doesn’t look like that”, says Nosek—instead, it’s mush. “How do I get from mush to beautiful results?” he asks. “I could be patient, or get lucky—or I could take the easiest way, making often unconscious decisions about which data I select and how I analyze them, so that a clean story emerges. But in that case, I am sure to be biased in my reasoning.”
http://nautil.us/issue/24/error/the-trouble-with-scientists
4 Nutzer wurden vom Verfasser von der Diskussion ausgeschlossen: cvr info, Edible, Kornblume, TH3R3B3LL