Den del av IPCC:s rapporter som kanske röner mest uppmärksamhet är förutsägelserna för framtiden. Så här ser ett förenklat diagram över datormodellernas prognoser ut:

Klimatscenarier ny

Klimatmodellerna är grunden för alla förutsägelser om hot och katastrofer till följd av en accelererande global uppvärmning. Det ger stora rubriker, men som vi ska se finns det inga tecken på att något av detta verkligen håller på att ske, trots att det ofta påstås. Det handlar om spekulation och manipulation, inte observation.

Skräckscenarierna om extremt väder i framtiden är helt beroende av de antaganden och gissningar om klimatets känslighet för växthusgaser man bygger in i datormodellerna.

Att det förekommer extremt väder betyder ingenting. Det är väder, inte klimat. Och det är normalt med onormalt väder, vilket The Brisbane Courier insåg redan 1871:

Onormalt väder är normalt

Både förespråkare och skeptiker gör gärna detta misstag, att använda exempel på väder som bevis för klimatförändringar. En kall vinter betyder inte att det inte pågår global uppvärmning, och en kraftig orkan eller torrperiod bevisar inte att det gör det. På senare tid tycker i alla fall jag, att misstaget har blivit vanligare bland klimataktivisterna.

Det är, av samma skäl, ett misstag att tro att bara för att det är svårt att förutsäga vädret, så kan man inte förutsäga klimatet. Från dag till dag, vecka till vecka och månad till månad kan i princip vad som helst hända. Men när man betraktar vädret över längre tidsperioder, säg 30 år, får man en uppfattning om hur klimatet förändras, till exempel hur den längre temperaturtrenden ser ut och hur känsligt klimatet är för olika förändringar av exempelvis atmosfärens sammansättning.

Och genom att studera klimatet tusentals och miljontals år tillbaka i tiden – det finns gott om naturliga ”termometrar – kan vi få en uppfattning både om klimatcykler och drivkrafterna bakom dessa.

Men att klimatet utvecklats på ett visst sätt historiskt, och visar stark korrelation med sannolika drivkrafter, betyder inte att det är samma saker som händer idag.

Men om det finns osäkerheter kring hur känsligt klimatet är för olika förändringar, till exempel av atmosfärens sammansättning, så blir förstås även prognoserna osäkra.

Stephen Schneider, som själv stödjer IPCC:s slutsatser, erkänner att: ”uncertainties in emissions scenarios feed into uncertainties in carbon-cycle modelling, which feed into uncertainties in climate modeling, which drive an even larger range of uncertain climate impacts.” (Nature 411:17-19).

Donald DuBois, Computer Modeler: “I know something about how misleading models can be, and the fact that their underlying assumptions can completely predetermine the results of the model.”

Men FN:s klimatmodeller har ju testats mot historiska temperaturdata (gröna kurvan ovan)? De verkar ju kunna ”förutsäga” hur klimatet verkligen utvecklats under 1900-talet, och då borde de vara tillräckligt avancerade för att kunna förutsäga framtiden.

Detta är dock en sanning med modifikation. Att klimatmodellerna kan fås att stämma med historiska temperaturdata beror paradoxalt nog just på osäkerhet eller bristande kunskap om vissa parametrar. Man vet exempelvis mycket lite om i vilken utsträckning aerosoler (partiklar, t ex från sot) påverkar klimatet – mer än att de har en avkylande effekt. Det betyder att man kan kalibrera klimatmodellerna lite som man vill, och på så vis få dem att stämma hyggligt.

En annan viktig klimatfaktor som man ännu inte vet tillräckligt mycket om är molnbildning.

I rapporten från FN:s klimatpanel 2013, AR5 (Assessment Report 5), skriver man att ”The simulation of clouds in climate models remains challenging. There is very high confidence that uncertainties in cloud processes explain much of the spread in modelled climate sensitivity.” (kap. 9, s 743).

Med andra ord: ”vi är mycket säkra på att vi är osäkra”.

Osäkerhet är förstås en del av all vetenskap. Och i grafen ovan ser det trots allt ut som om denna osäkerhet är angiven i god vetenskaplig ordning. Varje projektionslinje har en färgad felmarginal markerad, och den ser hanterbar ut.

Men den står inte för vad man kanske tror. Den anger inte felmarginalen för vad temperaturen i framtiden faktiskt kommer att bli, utan för modellernas precision.

Det som anges är det område inom vilket 95% av simuleringarna med en viss modell hamnar. Detta har ingenting med modellernas reliabilitet att göra, dvs hur bra de är på att faktiskt förutsäga temperaturer.

Hur väl har då datormodellerna fungerat hittills för att förutsäga framtiden? Om man jämför med temperaturmätningar från satelliter och väderballonger – inte alls:

Modeller vs observationer ny

Definitionen på att ”förstå ett system” är ”att kunna förutsäga det”, och den här grafen visar tydligt att klimatmodellerna bygger på felaktiga antaganden. Och när det gått 20 år är det svårt att hävda att det bara beror på ”väder”.

Resultaten från datormodellerna är  helt beroende av hur de kalibreras. Bygger man in en hög klimatkänslighet får man också starka effekter, vilket leder till dramatiska slutsatser och prognoser.

Larmrapporterna om klimathotet bygger på datormodellernas ”worst case-scenarios”, som är kalibrerade med extrema grundantaganden om klimatkänslighet. Men trots att dessa förutsägelser inte slår in, fortsätter katastroflarmen att komma från FN, NASA, NOAA, media och politiker.

Och hänvisningen till datorbaserade klimatmodeller fortsätter att vara det kanske viktigaste argumentet för att människan är huvudorsak till uppvärmningen sedan 1950. Man säger att utan mänsklig påverkan genom växthusgaser kan man inte replikera uppvärmningen under 1900-talet och fram till idag i klimatmodellerna.

Trots att flera viktiga klimatfaktorer är mycket osäkra, vågar man ändå påstå att det är ”extremely likely” eller hela 95% säkert, att människan är orsak till den globala uppvärmningen. Detta blir dock mer begripligt om man tar hänsyn till att FN:s klimatpanel uteslutande bygger sina slutsatser på mätningar av temperaturen med termometrar vid markytan, vid väderstationer, som tolkas och sammanställs av amerikanska NOAA (National Oceanic and Atmospheric Administration) och används av NASA-GISS (Goddard Institute för Space Studies) vilket betyder att de ligger till grund för nästan all klimatforskning.

Markstationer ny

Dessa data stämmer närmast perfekt med datormodellerna, och följer i stort sett ökningen av koldioxidhalten i atmosfären. Men de bygger alla på samma grunddata från NOAA, som det finns starka skäl att ifrågasätta. Vi har redan sett i kapitel 3-5 att klimatet inte verkar vara så känsligt för växthusgaser som klimatmodellerna antar, men temperaturkurvorna i grafen talar starkt för en hög klimatkänslighet. De bygger dock enbart på mätningar av marktemperaturen vid väderstationer, och bortser helt från data från satelliter och väderballonger.

Jag ska diskutera de olika mätmetoderna i kapitel 11, och kan redan nu avslöja att allt inte verkar stå rätt till med de data från markstationer som NOAA levererar. Men innan dess ska jag fortsätta med att belysa frågan om klimatkänslighet i ett större, geologiskt perspektiv i kapitel 8.

Intervju med Dr. Judith Curry, professor emeritus och tidigare rektor för School of Earth and Atmospheric Sciences vid Georgia Institute of Technology.

Judith Curry lämnade sin aktiva anställning vid Georgia Tech eftersom hon blev motarbetad, förtalad och hatad av sina kollegor när hon började betvivla den officiella hypotesen om katastrofal global uppvärmning på grund av en accelererande växthuseffekt. I den här intrvjun kommenterar hon framför allt FN:s klimatmodeller.