Global medeltemperatur
Att mäta den globala medeltemperaturen är en invecklad procedur med många felkällor, korrigeringar och justeringar. Den globala medeltemperaturen är inte ett mätvärde, utan en produkt av en komplicerad bearbetningsprocess, som till stor del idag sköts av algoritmer.
NOAA, National Oceanic and Atmospheric organization, är USA’s motsvarighet till SMHI, men med ett globalt uppdrag och ett världsomspännande nätverk av väderstationer, som bland annat rapporterar dygnets minimi- och maximi-temperaturer dagligen.
Dessa data bearbetas av NOAA, men även av exempelvis NASA-GISS (Goddard Institute for Space Studies, ej att förväxla med det NASA som skickade människor till månen), och brittiska Hadley Climate Research Unit (HadCRU) vid University of East Anglia. Men det vore fel att säga att de är oberoende av varandra, och de arbetar i princip på samma sätt, även om framför allt HadCRU historiskt har avvikit något från NOAA och NASA och haft färre justeringar.
Den bearbetade, officiella temperaturkurvan från dessa organisationer ligger till grund för FN’s klimatpanel och deras rekommendationer till världens regeringar, och är själva förutsättningen för klimathotet (NASA-GISS, GISTEMP v.3):
Det har självklart avgörande betydelse för all forskning om klimathotet att dessa temperaturkurvor är korrekta, och ju mer jag studerar frågan desto mer undrande blir jag till att inte en enda av våra vassa vetenskapsjournalister andas ett ord om hur komplicerad, kontroversiell och tankeväckande den är.
Det finns många svagheter med den mätteknik som NOAA och NASA bygger sina kurvor på, dvs termometrar vid väderstationer på marken (och i viss mån fartyg). Till att börja med kan NASA-GISS själva försöka ge svar på vad det är man mäter (från Q&A, numera borttaget):
”Q. What exactly do we mean by SAT (Surface Air Temperature)?
A. I doubt that there is a general agreement how to answer this question. Even at the same location, the temperature near the ground may be very different from the temperature 5 ft above the ground and different again from 10 ft or 50 ft above the ground. Particularly in the presence of vegetation (say in a rainforest), the temperature above the vegetation may be very different from the temperature below the top of the vegetation. A reasonable suggestion might be to use the average temperature of the first 50 ft of air either above the ground or above the top of the vegetation. To measure SAT we have to agree on what it is, and as far as I know, no such standard has been suggested or generally adopted.”
Det finns ingen ”global termometer” där man kan läsa av den ”globala temperaturen”, utan markstationerna är ojämnt utspridda över jordklotet, och mätningarna från fartyg täcker inte de enorma ytvattnen utanför handelsrutterna, särskilt inte sedan Panama- och Suez-kanalerna byggdes.
Det här är the Global Weather Observation network (2014)
Det finns också en mängd stationer i Arktis och Antarktis som inte finns med på denna karta, men som inte har funnits där så länge:
Väderstationerna mäter naturligtvis bara den helt lokala temperaturen, och enorma områden saknar data. De officiella temperaturkurvorna kan ungefärligen sägas täcka 30% av jordens markyta, vilket i sin tur bara är 30% av jordens totala yta, som till 70% upptas av hav. Mätningarna täcker med andra ord ungefär 10% av jordytan.
Dessutom har antalet väderstationer inte varit konstant genom tiderna. Det här är vad ”den globala medeltemperaturen” för 1880 grundar sig på:
1920:
Än idag saknas stationer i enorma områden i Sydamerika, Afrika, Sibirien, Arktis och Antarktis. Att tala om global medeltemperatur är följaktligen inte verklighetsförankrat.
Antalet stationer ökade fram till 1970 (prickade linjen nedan), men har därefter minskat av olika skäl (Källa: Ross McKitrick, University of Guelph, CA):
Framför allt skedde en drastisk minskning 1989, i samband med att Sovjetunionen föll samman. Att den globala medeltemperaturen plötsligt steg kraftigt i samband med det skulle kunna hänga samman med att många mätstationer på jordens kallaste platser slutade rapportera efter denna omvälvning. NOAA har förlorat 80% av sina stationer sedan 1980, framför allt i norr, vilket medfört att stationernas genomsnittliga latitud har förskjutits 8 grader söderut.
Justeringar av uppmätta data
Temperaturdata från markbaserade väderstationer genomgår omfattande och komplicerad bearbetning innan de offentliggörs, och är långt ifrån detsamma som de faktiskt uppmätta temperaturerna. Det legitima syftet är att korrigera för felkällor, men processen innehåller också osäkra och i viss mån godtyckliga uppskattningar där det inte finns någon objektiv måttstock för att avgöra vad som egentligen är korrekt och inte. Justeringar av nutida data kan exempelvis ge statistiska dominoeffekter som ändrar temperaturen för 75 år sedan – utan att någon vet vad den ”egentligen” var.
Nödvändigheten av justeringar av data från markbaserade väderstationer, delvis på oklara eller osäkra grunder, är en av anledningarna till att de betraktas som en sämre datakälla jämfört med radiosonder (väderballonger och dropp-sonder) och satellitdata, som har den bästa kvaliteten när det gäller global medeltemperatur.
Ändå är det dessa ”justerade” temperaturkurvor som ligger till grund för all nutida forskning om klimatet, och för FN:s klimatpanel och politiker, och som alla beslut om resurskrävande åtgärder bygger på. Det spelar verkligen stor roll om dessa kurvor är pålitliga eller inte.
Därför är det i och för sig inte så förvånande att justeringar ifrågasätts av ”skeptiker”, och inte heller att det förekommer misstankar om att det döljer sig illegitima manipulationer i dunklet av dessa svårbedömda procedurer. Särskilt som det inte finns någon oberoende kvalitetssäkring, utan bara en auktoritativ försäkran från NOAA och NASA att de minsann ”kontrollerar processen noga”.
Så här har NASA-GISS successivt ändrat sina egna data sedan 1981:
Det är uppseendeväckande stora ändringar som med råge överskrider NASA:s egna felmarginaler.
Faktum är att hela den del av den moderna uppvärmningen som enligt FN:s klimatpanel inte kan förklaras naturligt, utan måste bero på människan, beror på ändringar av de data som rapporterats in från väderstationerna.
Konstigt nog verkar inte dessa brännande, avgörande och hyperintressanta frågor locka till sig några grävande journalister.
Icke desto mindre har kvalificerade utomstående forskare och entusiaster upptäckt både tveksamheter och uppenbara orimligheter i den här hanteringen, ofta utan att få vare sig förklaring eller rättelse från NOAA.
Antalet justeringar har ökat dramatiskt de senaste decennierna. Idag handlar det om nästan hälften av alla data:
Men det slutar inte där. I samtliga fall har man dessutom justerat på ett sådant sätt att kurvan blivit allt brantare och gett ett intryck av allt kraftigare global uppvärmning. Äldre temperaturer har konsekvent gjorts kallare, och senare varmare:
Det är svårt att värja sig för tanken att man ändrat temperaturerna för att matcha ökningen av koldioxidhalten i atmosfären. Efter justeringarna är kurvorna nästan identiska:
USA har världens största och bästa nätverk av väderstationer, och fram till 1999 visade temperaturkurvan från NASA-GISS att det blivit svalare sedan 1930-talet. 2016 har man ändrat på det.
James Hansen, som var chef för GISS, skrev i augusti 1999 en artikel om hur olika klimatet utvecklats i USA jämfört med globala data:
Med tanke på att data för resten av världen är mycket mera sparsam, med kortare dataserier av sämre kvalitet, särskilt längre tillbaka i tiden, kan man tycka att det skulle vara logiskt att justera dessa med hänsyn till USA, men det verkar som om man gjort tvärtom.
Hur motiverar NOAA det här?
Klimatologen Judith Curry, som är specialiserad på kvalitetssäkring av temperaturdata, vill inte tro att det pågår några medvetna manipulationer, men analyserar NOAA’s data noggrant och har hittat allvarliga brister.
Andra, som elektronikingenjören Tony Heller, också han specialiserad på kvalitetssäkring av bland annat klimatmodeller, är säker på att det handlar om ideologiskt och ekonomiskt motiverat bedrägeri.
Det viktiga för min del är dock enbart frågan om justeringarna är försvarliga och korrekta. Jag vill först och främst hålla mig till fakta, och tillåter mig bara undantagsvis, och med reservationer, att spekulera om människors motiv.
Officiellt finns det tre typer av justeringar:
1. Time of observation bias adjustment (TOB)
Stationer som läser av på eftermiddagen kommer i viss utsträckning ge högre temperaturer genom att dubbelräkna varma dagar, medan stationer som läser av på morgonen kommer att dubbelräkna kalla dagar. Om en station alltid läser av en viss tid gör det i och för sig ingen skillnad för den långsiktiga trenden, men om en station byter tid spelar det roll. Och det var också vad som skedde på 1950-talet, då de stationer som tidigare läst av temperaturen på eftermiddagen började göra det på morgonen istället.
”On average, observing temperatures (and resetting the minimum-maximum thermometer) in the early morning results in reading about 0.15 C cooler than if temperatures were observed at midnight. Observing temperatures in the late afternoon results in temperatures about 0.45 C warmer on average than if temperatures were observed at midnight. Switching from an afternoon time of observation to a morning time of observation would result in minimum, maximum, and mean temperatures around 0.6 C colder previously measured.” (Judith Curry, Understanding Time of Observation Bias.)
Denna förklaring motiverar en stor del av de justeringar som görs.
Tony Heller har ifrågasatt TOB på grundval av analyser och jämförelser av stationer som 1936 läste av temperaturen på morgonen respektive eftermiddagen, där han visade att det i själva verket var ”morgonstationerna” som hade högre temperaturer: … och att det helt enkelt berodde på att de låg längre söderut. I varmare klimat är det antagligen naturligare att göra avläsningarna på morgnarna än i kallare klimat:
Av detta diagram framgår dock att den genomsnittliga latituden förändrats över tid, framför allt för ”morgonstationerna”, så detta är också något som man justerar för. Det verkar rimligt, men om man verkligen vill komma åt de faktiska temperaturförändringarna borde man kanske snarare studera mätserierna vid stationer som inte ändrats.
Tony Heller har visat att stationer som konsekvent mätt på morgonen eller eftermiddagen, och som inte heller flyttats vare sig norrut eller söderut i någon nämnvärd utsträckning faktiskt visar samma mönster som NASA:s officiella kurvor gjorde 1999, dvs en mild avsvalning mellan 1930-talet och 2000.
Morgonstationer:
Eftermiddagsstationer
Dessa justeringar verkar med andra ord skulle med andra ord sakna täckning i verkligheten, och både byte av tid för avläsning och förändringar av stationers latitud helt betydelselöst för vilken temperatur en station rapporterar.
2. Pairwise homogenization algorithm (PHA)
PHA är en algoritm som upptäcker och justerar avvikelser i data från en station, som kan bero på teknikbyte, platsbyte eller andra lokala förändringar, genom att jämföra med andra, närliggande stationer.
Den australiska biologen Dr Jennifer Morohasy berättade vid ett framträdande vid Heartlandinstitutets 9:th International Conference on Climate Change (ICCC) 2014 om sina erfarenheter av temperaturjusteringar. I staden Amberley visade data från väderstationen att det pågått en svagt avkylande trend sedan 1940-talet (blå linjen):
NASA-GISS justerade alltså temperaturserien så att det istället blev en uppvärmande trend för Amberley (röda linjen). Dr Morohasy kontaktade Gavin Schmidt, chef för GISS sedan 2013, och fick förklaringen att man justerat dataserien för Amberly med hänsyn till en närliggande station.
Det enda problemet med den förklaringen var att den stationen låg 600 engelska mil från Amberley. I själva verket visade den station som ligger närmast Amberley samma temperaturer som den i Amberley. När Dr Morohasy frågade varför fick hon till svar: ”Du ställer fel frågor!”.
Sedan dess har Jennifer Marohasy engagerat sig djupt i frågan om justeringar av både nutida och historiska data, och skriver om dem på sin blogg, bland annat i en post den 16 februari 2019: ”The Australian Bureau of Meteorology keeps remodelling the temperature record for Australia – and not just by a little bit. Temperatures are changed through a process known as homogenisation, and then changed again, sometimes by as much as 6.4 degrees Celsius for the one day.”
”For example, on 8th February 1933 the maximum temperature as measured at Albany in Western Australia was 44.8 degrees Celsius. Then, six years ago it was changed to 51.2 degrees Celsius! Recently it was changed again, this time to 49.5.
Changing the temperature record like this is not unusual for institutions such as the Australian Bureau of Meteorology, though the extent of the change for Albany on this day in 1933, and also the direction of the change, is unusual.
Usually past temperatures are cooled relative to the present as part of remodelling, which is called ‘homogenisation’. Cooling the past relative to the present has the effect of exaggerating global warming.
Given the magnitude and direction of this change to the Albany temperatures, which was first made six years ago, several of us asked the Bureau: ‘Why’?
Why was the temperature at Albany on this day (February 8, 1933) adjusted-up by so much (6.4 degrees) in the official version 1 of the ACORN-SAT dataset that was published six years ago?
I never got an answer.”
Här är justeringarna för 1900-talets temperaturer i Alice Springs i Australien:
Den australiske underhållaren Ed Morrissey (ingen expert alltså, men läskunnig) har jämfört uppmätta och rapporterade data för Darwin, som visar samma sak:
”Before getting homogenized, temperatures in Darwin were falling at 0.7 Celcius per century … but after the homogenization, they were warming at 1.2 Celcius per century. And the adjustment that they made was over two degrees per century … when those guys “adjust”, they don’t mess around. And the adjustment is an odd shape, with the adjustment first going stepwise, then climbing roughly to stop at 2.4C. …”
Det stämmer precis, men det är bara temperaturer efter 1940 som justerats, och trenden per århundrade därefter är hela 5,9°C (den svarta linjen visar vilka justeringar som gjorts enligt skalan till höger, enligt Anthony Watts):
Enligt de faktiska observationerna hade Texas en avsvalnande trend under 1900-talet, och det varmaste året var 1921 (källa):
2012 hade NOAA sänkt de äldre temperaturerna tillräckligt för att kunna påstå att 1900-talets temperaturtrend i Texas varken var avsvalnande eller uppvärmande. Men 1921 var fortfarande det varmaste året, och ytterligare fyra år under 1930- till 1950-talet hade noteringar i nivå med temperaturerna 2000-2010 (källa):

I senare officiella versioner från NOAA har trenden ändrats till uppvärmning. 1921 är inte längre varmast, och inga äldre noteringar når upp till topparna 2000-2010 (källa):
Ju äldre data, desto mer har de justerats ner på temperaturskalan:

Först i Encinal, Texas. I grafen nedan visas
1. de faktiskt uppmätta temperaturerna (RAW – i gult) från väderstationen i Encinal, Texas i juli 1921,
2. hur den faktiskt uppmätta medeltemperaturen ändrats med hänvisning till ”time of observation bias” (TOBS – i blått), och
3. vilken medeltemperatur som rapporteras som den slutgiltiga och officiella sanningen.

Det visar sig att den legitima justeringen är mycket liten – och faktiskt uppåt i temperaturskalan – medan den slutgiltiga versionen sänkt temperaturen kraftigt (källa).
Slutsats: det kan alltså inte vara TOBS som är förklaringen till att de uppmätta temperaturerna justerats ner i den slutgiltiga, officiella versionen.
Men det kanske kan ha något att göra med den andra formen av legitim justering, homogenisering? För att undersöka det jämför Heller Encinal med de tre närmaste väderstationerna, som alla har fullständiga data för juli 1921:

Men de visar sig ha justerats på ungefär samma sätt, dvs den faktiskt uppmätta temperaturen har sänkts kraftigt i förhållande till vad justeringen för ”time of observation bias” motiverar (källa):



Så de kraftiga justeringarna kan inte ha något med homogenisering att göra heller. Justeringarna vid Encinal kan inte motiveras med avvikelser i jämförelse med de närliggande stationerna.
3. Infilling (ifyllnad av data)
Många av NOAA’s väderstationer drivs av amatörer. Antalet aktiva stationer är inte konstant, och det förekommer att stationer missar eller upphör att rapportera. Och ibland bedöms data från en station som osäkra, till exempel på grund av en pågående flytt. Då uppskattar man istället stationens data, exempelvis med hjälp av den närmast liggande stationen eller med ledning av den saknade stationens statistiska trend, vilket därför inte ska göra någon skillnad. Men det verkar även göras på oklara och rentav tveksamma grunder, särskilt när det inte ges någon förklaring.
Ifyllda data markeras med ett E, och kan därför lätt identifieras i NOAA’s data. Man punlicerar faktiskt också klimatkartor månadsvis och årsvis, där det framgår var man inte har data, utan har fyllt i temperaturen och alltså uppskattat den, på oklara grunder.
För 2016 rapporterade NOAA rekordvärme i stora delar av världen där man, enligt egen uppgift, inte hade några data:
Det handlar till stor del om områden där vi vet att NOAA inte faktiskt inte har, eller ens någonsin har haft, väderstationer. Vilken grund har man då för sina uppskattningar?
Det mesta av den här processen sköts förvisso inte manuellt, utan av algoritmer, men de är trots allt skapade av människor.
Här är samma jämförelse mellan de data NOAA hade tillgång till för Afrika i september 2016 (till vänster), och vad man rapporterade samma månad:
Det är förstås förbryllande att NOAA har dessa data tillgängliga om man inte kommenterar och förklarar dem. Ännu märkligare är det att ingen grävande reporter skrivit om det.
4. Administrativa justeringar (utan förklaring)
Wibjörn Karlén, professor emeritus i Naturgeografi vid Stockholms universitet och ledamot av Kungliga Vetenskapsakademin från 1992, noterade under vintern 2012–13 att NASA-GISS utan förvarning eller förklaring hade tagit bort de tidigare lättillgängliga dataserierna från världens olika markstationer.
Men han lade också märke till att dataserierna hade ändrats, som kurvorna för Reykjavik nedan visar. Så här justerades Islands 1900-talstemperaturer mellan 2012 och 2013:
Den trendlösa, cykliska växlingen mellan helt jämförbara perioder av uppvärmning och avsvalning, som på ett uppenbart sätt korrelerar med Atlantens varma och kalla faser (AMO, Atlantic Multidecadal Oscillation) ersattes plötsligt med en kurva som istället stämmer bättre med hur koldioxidhalten i atmosfären ökat.
Det finns ingen förklaring till denna ändring, och den isländska vädertjänstens (Veðurstofa Íslands) ställer sig helt frågande. Här är deras egna data för hela 1900-talet vid stationen i Stykkisholmur (årlig medeltemperatur):
Mönstret är detsamma i Reykjavik och Akureyri. I princip hela uppvärmningen på Island sedan 1800 skedde fram till 1941, och berodde knappast på koldioxid från fossila bränslen. Efter en avkylning 1941 – 1979 steg temperaturen igen till ungefär samma nivå som 1941. (Källa)
Professor Karlén publicerade sina iakttagelser 2013 under rubriken ”GISS/NASA manipulation of temperature data”, och skriver bland annat:
”Adjustments of data that are several decades old may be justified in some specific cases. However, this would require very strong indications that they are necessary, which then, of course, must be carefully spelled out. The number of stations found with data from both 2012 and 2013 is small, but the extent of changes to their data is startling. As the two sets of data series differ significantly, none of them can be accepted as the real temperature for calculation of a global mean.”
Liknande justeringar har gjorts av data från Vestmannaöarna, antagligen alla isländska väderstationer, och det ser faktiskt likadant ut över hela världen:
Världens största och mest välskötta väderstationer finns i USA. Så här har 1900-talets temperaturkurva ändrats i efterhand:
Kurvan för den faktiskt uppmätta temperaturen i USA (Measured) är nästan identisk med den för Sverige, till exempel Uppsala (källa):
I Sverige kan SMHI ändå tala om uppvärmning, eftersom man använder en sval period som ”normalvärde”.
I USA justerar man. I Texas visar väderstationernas originaldata sjunkande temperatur, men NOAA rapporterar stigande:
… precis som i alla andra andra delstater:
Ska vi verkligen tro att detta har gjorts på grund av att väderstationer flyttats eller tiden för avläsning av instrumenten ändrats?
Enligt bevarade originaldata har antalet dagar med extrem värme i USA har sjunkit under 1900-talet (över 32,2°C i grafen nedan, men detsamma gäller för dagar över 35°C och 37,8°C – grafen från Tony Heller):
Och det är betydligt färre värmerekord nuförtiden (John Christy):
Den borttrollade avkylningen 1940 – 1975
De stora justeringar som gjorts globalt under 2000-talet har aldrig fått någon förklaring. NASA-GISS hänvisar till att deras data överensstämmer med NOAA och HadCRUT, men talar för övrigt bara om ”homogenisering”.
På 1960-och 70-talen var alla överens om att det hade blivit svalare sedan 1940:
Många forskare förutspådde att världen var på väg mot en lång period av kallare klimat, liknande den Lilla istiden, och att det skulle föra med sig extremt väder, livsmedelskris och sträng kyla.
Avkylningen mellan 1940 och 1975 syns också i den här grafen som fanns med i den andra rapporten från FN:s klimatpanel 1995 (kurvan till vänster):
Kurvorna till höger är data från satelliter och väderballonger med start i mitten av 1970-talet fram till 1995, och där fanns faktiskt ingen trend alls.
Men redan 1987 hade började NASA-GISS börjat ändra data för hela 1900-talet, tills avkylningen mellan 1940 och 1975 förvandlats till en temperaturplatå:
Jag kan inte förstå hur man kan motivera dessa dramatiska ändringar med någon av de tre officiella typerna av justeringar.
Kanske får vi en ledtråd i ett läckt (eller hackat?) e-mail från klimatforskaren Tom Wigley på UCAR (University Corporation för Atmospheric Research, som ansvarar för amerikanska NCAR, National Center for Atmospheric Research) till Phil Jones, chef för CRU (Climate Research Unit vid brittiska MetOffice’s Hadley Centre vid University of East Anglia – UEA).
Notera att det finns en värmepuckel på 1940-talet i föregående grafer, även 2007 – låt oss kalla det en ”blip”. Tom Wigley har problem med att bli av med den och funderar över hur det ska gå till.
Så har det fortsatt, tills man skapat hela klimathotet:
Enligt NCAR (ovan) var det kallare 1970 än 1900, men nu ser den officiella temperaturkurvan från NOAA och NASA-GISS alltså ut så här:
Den nästan 40 år långa avsvalningen har förvandlats till en platå med oförändrad temperatur.
Ole Humlum, dansk klimatolog och professor i fysisk geografi vid Oslo universitet, har undersökt de här justeringarna noga utan att se att det finns någon vetenskaplig grund för dem:
De som vill försvara den globala uppvärmningen har i sin tur ”avslöjat” att det är en myt att det var särskilt många forskare som trodde på global avkylning på 1960- och 1970-talen. Jag undersöker den saken i nästa kapitel (12. Är det en myt att ”alla” trodde på ”Global Cooling” på 1970-talet?).
Dåliga data: Den urbana värmeeffekten
Den kanske viktigaste förändringen av alla som påverkat mätningarna av temperatur under 1900-talet är urbaniseringen. Stationer som från början låg lantligt står numera omgivna av asfalt, betong, hus, maskiner och människor i takt med att städerna och flygplatserna vuxit.
Det ger en s.k. ”heat island effect”, särskilt på nätterna, då värme som staden absorberat under dagen strålar tillbaka till atmosfären:
Las Vegas är ett bra exempel (data från National Wetherservice, Las Vegas)):
Stapeldiagrammet högst upp till vänster visar hur staden vuxit, och de tre övriga diagrammen visar hur max-, min- och medeltemperaturerna uppmätts mellan 1937 och 2012.
Medeltemperaturen har stigit, men det verkar främst vara en effekt av att min-temperaturen stigit. Max-temperaturerna är i princip oförändrade, med en svagt avsvalnande trend. Det beror helt enkelt på att max-temperaturen mäts på dagen, medan min-temperaturen på natten påverkas av att byggnader och vägar strålar ut den värme de absorberat under dagen. Medeltemperaturen ser ut att öka, men ökningen beror helt på den urbana värmeeffekten.
Följaktligen skiljer sig temperaturkurvorna från stads- eller flygplatsbaserade mätstationer och lantligt placerade mätstationer åt (källa: 2000-2014, www.ncdc.noaa.gov/cag):
Temperaturangivelserna till höger i diagrammet ovan avser vad förändringen motsvarar i grader Fahrenheit per århundrade på var och en av platserna.
Temperaturskillnaden mellan stad och land har ökat kraftigt i USA sedan 1960-talet (Källa: Dr. Edward Long, Contiguous U.S. Temperature Trends Using NCDC Raw and Adjusted Data for One-Per-State Rural and Urban Station Sets):
När den oberoende forskaren Anthony Watts upptäckte att många av mätstationerna i USA var mycket olämpligt placerade på grund av att städer och flygplatser vuxit – omgivna av betong och värmealstrande maskiner – gjorde NOAA (under ledning av Tom Karl) en utredning (Menne, M.J., C.N. Williams, Jr., and M.A. Palecki, 2010).
Överraskande nog kom man fram till att dessa stationer i själva verket hade visat för låga temperaturer – vilket skulle bero på att man bytt mätteknik:
”Of significant note, the sign of the bias is counterintuitive to photographic documentation of poor exposure because associated instrument changes led to an artificial negative (”cool”) bias in maximum temperatures and only a slight positive (”warm”) bias in minimum temperatures.”
Så löste NOAA både problemet med värmeöar och med illa placerade mätstationer i ett enda slag, och därför justerar NOAA för den urbana värmeeffekten genom att höja temperaturerna, även vid de sämst placerade stationerna.
Den självklara invändningen är förstås att det är de bäst placerade stationerna, särskilt de lantliga som berättar sanningen. En bearbetad temperaturkurva som avviker från den historiken är automatiskt misskrediterad.
Astrofysikern Willie Soon har också sammanställt data från de bästa belägna väderstationerna på hela det norra halvklotet med samma resultat (Källa):
De danska forskarna Frank Lansner och Jens Olaf Pepke Jacobsen publicerade 2018 en helt ny form av analys av väderstationernas temperaturdata. De misstänkte att stationer som påverkades av vinden från havet (Ocean Air Affected, OAA) och stationer som låg skyddade (Ocean Air Sheltered, OAS) systematiskt uppmätte olika temperaturtrender, och analyserade dessa data var för sig i 10 olika områden i världen:
Grafen till vänster visar båda dataserierna, och den till höger enbart OAS-stationernas data. Skillnaden förklaras enligt forskarna av att det tog betydligt längre tid för havet att värmas upp efter den Lilla istiden, medan temperaturen på land reagerade mer direkt på uppvärmningen. Det är med andra ord grafen till höger som mer korrekt beskriver den globala medeltemperaturen under 1900-talet ur klimatperspektiv, och i så fall finns det inget fog för att säga att uppvärmningen efter 1950 fram till idag är alarmerande på något sätt. I själva verket var det varmare på 1930-talet. (Källa)
”The little ice-age centuries led to a very cold ocean around 1900-1920 and so ocean and ocean-affected stations were not able to show the warming around 1920-30 so well. The ocean kept the warming hidden to some degree. Ocean temperature rise was somewhat delayed for decades it appears. That’s why ocean temperatures do not well reflect the heat balance over the Earth 1920-50 – unlike OAS areas valleys that reflected the change in heat balance rapidly. Thus it appears OAS data are the data best suited for evaluating the heat balance over the Earth.” (Frank Lansner, källa).
På Notrickszone finns 600 grafer från studier gjorda mellan 1993 och 2016 som också talar för att det inte pågår någon normal eller katastrofal uppvärmning.
Försvunna och manipulerade originaldata
En hel del originaldata verkar ha försvunnit eller raderats, men det senaste är att även de ändras. Tony Heller har visat att man inte bara rapporterat ”justerade” data för Island, utan även manipulerat de data som justeringarna är baserade på, de ”råa”, faktiskt uppmätta värdena. Det kan det naturligtvis inte finnas något legitimt vetenskapligt motiv till att göra. Den här grafen visar att man att man gjort originaltemperaturerna kallare före 1993 och varmare efter:
De senaste 40 åren – satellitmätningar
Det brukar sägas att satellitmätningarna av den globala medeltemperaturen började 1979, för 40 år sedan.
Till skillnad från de markbaserade väderstationerna kan satelliter verkligen mäta globalt, särskilt om de kretsar runt jorden över polerna:
Satelliter som kretsar runt ekvatorn kan inte observera vädret vid polerna, men de de som kretsar runt jorden över polerna kan samla in data för hela jorden, eftersom jorden roterar under dem.
Satelliterna mäter inte med vanliga termometrar som vid de markbaserade väderstationerna, och inte heller temperaturen vid markytan, utan i den mellersta troposfären (det ungefär 10 km tjocka luftskiktet närmast jorden). Det framförs ibland som en svaghet att satelliterna inte mäter temperaturen ”direkt” med termometrar, men det är nonsens. Ingen kan mäta temperatur ”direkt”, och de fysikaliska samband som satellitmätningarna bygger på är lika säkra som för termometrar. Och medeltemperaturen i troposfären är i själva verket mycket mer relevant än vid markytan.
För att kunna jämföra med data från marken anger man därför inte temperaturer i absoluta tal, utan som avvikelser från ett normalvärde, här exemplifierat av dataserien från UAH (Roy Spencer, University of Alabama, Huntsville):
Att den globala medeltemperaturen bara ligger 0,14C över det ”normala” i september 2018 är dock inte det intressanta, eftersom det ändras från månad till månad och varierar en hel del. Det viktiga ur klimatsynpunkt är istället den långa trenden, beräknad som ett löpande genomsnitt.
Det mest slående med satellitmätningarna är att de inte visar den temperaturökning som förutspåtts officiellt. Det ser ut som om den globala uppvärmningen tagit en ”paus” från 2002, i 17 år, samtidigt som koldioxidhalten stiger i allt snabbare takt. Under denna tid har i själva verket en tredjedel av människans samtliga utsläpp skett.
Det borde vara goda nyheter, men har naturligtvis varit ett problem som måste lösas för dem som tror på koldioxidhypotesen.
Bland annat har satellitmätningarna ifrågasatts, och det är sant att det har funnits utmaningar även med denna mätmetod. Framför allt upptäckte man på ett tidigt stadium att satelliterna successivt sjunker i sin bana, och därför inte mäter kontinuerligt vid samma tidpunkt. Men det är ett tekniskt och geometriskt problem av en helt annan art än de som finns med markstationernas data, och det är jämförelsevis enkelt att korrigera för på ett transparent sätt som vem som helst kan kontrollera. Här finns inte alls samma utrymme för subjektiva bedömningar, uppskattningar, gissningar eller tendentiös manipulation som när det gäller dataserierna från väderstationer.
När det gäller global medeltemperatur är satellitdata tveklöst det bästa vi har. Att de stämmer överens med de helt oberoende observationer som görs med radiosonder (väderballonger och droppsonder) innebär att vi kan betrakta satelliternas data som i princip helt säkra.
Den borttrollade pausen
Under de första 15 åren av 2000-talet visade alla mätningar – från markstationer, satelliter och radiosonder – att den globala medeltemperaturen slutade stiga eller till och med började falla, trots att FN:s klimatmodeller (röda linjen) förutsagt fortsatt global uppvärmning:
Den globala uppvärmningen verkade ha tagit en ”paus”.
Från början avfärdade NASA-GISS och NOAA denna utveckling med att det handlade om väder, inte klimat. Och det är riktigt, klimat är vädertendenser under längre tid – man brukar (lite godtyckligt) säga 30 år. Och klimatmodellerna är inte kalibrerade för att förutsäga vädret, som skiftar extremt mycket från år till år, och till och med från decennium till decennium.
Men när pausen i den globala uppvärmningen drog ut på tiden blev den ändå ett problem, som behövde hanteras och förklaras, och man kastade fram en mängd hypoteser, bland annat att stoft (aerosoler) från Kinas och Indiens kraftigt ökade användning av kolenergi reflekterade solens värme, eller att värmen absorberats av haven
Uppfinningsrikedomen var stor, men att ens börja fundera på att den globala uppvärmningen kanske bara varit del av en naturlig cykel var otänkbart. Ingen var intresserad av att ens pröva hypotesen att mänskligheten kanske inte står inför en klimatkatastrof.
Därför var antagligen lättnaden stor när Tom Karl, chefen för NOAA, i maj 2015 – inför klimatmötet i Paris – kunde meddela att man funnit bevis för att det aldrig hade varit någon paus i den globala uppvärmningen. Den hade i själva verket pågått oförminskat hela tiden.
Studien från Karl et al 2015 fick stort genomslag i världens media. Det var ”breaking news” att den globala uppvärmningen inte alls tagit ”paus” utan fortsatt som förut.
“Abstract: Much study has been devoted to the possible causes of an apparent decrease in the upward trend of global surface temperatures since 1998, a phenomenon that has been dubbed the global warming ‘hiatus’. Here we present an updated global surface temperature analysis that reveals that global trends are higher than reported by the IPCC … These results do not support the notion of a “slowdown” in the increase of global surface temperature.” (”Hiatus” är en term hämtad från geologin som betyder att data saknas för en viss tidsperiod).
”Pausen”, som varit ett av skeptikernas mest effektiva argument mot klimathotet, hade alltså aldrig egentligen existerat, utan påstods bero på mätfel.
Men i själva verket är det precis tvärtom. Det var den nya studien som var baserad på riktigt dåliga data och metoder.
Klimatologen dr Judith Curry pekar på allvarliga brister: “I am … unconvinced by NOAA’s gap filling in the Arctic, and in my opinion this introduces substantial error into their analysis.”
”Gap filling” innebär att man helt enkelt gissar temperaturen i stora områden där det inte finns väderstationer.
Klimatforskarna Patrick J. Michaels, Richard S. Lindzen, Paul C. Knappenberger påpekar också att studien bygger på opålitliga data från fartyg, där temperaturen mäts vid vattenintaget till motorerna: ”As has been acknowledged by numerous scientists, the engine intake data are clearly contaminated by heat conduction from the structure, and they were never intended for scientific use.”
Man använde sig visserligen även av data från ARGO-systemet, de tusentals automatiska sjunkbojar som finns utspridda över hela världen, men gav dem i praktiken ingen tyngd: ”The treatment of the buoy sea-surface temperature (SST) data was guaranteed to put a warming trend in recent data. They were adjusted upwards 0.12°C to make them “homogeneous” with the longer-running temperature records taken from engine intake channels in marine vessels … Adjusting good data upwards to match bad data seems questionable.”
Man justerade säkra data, som visade lägre temperaturer, uppåt för att passa osäkra data, som visade mer uppvärmning. Ändå är det den här studien som numera accepteras som sanning:
Intressant nog har studiens originaldata försvunnit.
Källa: Judith Curry, Has NOAA ‘busted’ the pause in global warming?
Hur NOAA värmde världen för att skapa panik inför klimatmötet i Paris 2015 – och om klimathotets djupaste rötter
Tendentiösa justeringar av data från satelliter och väderballonger
Satellitmätningarna från UAH och RSS har också stämt bra överens – hittills. Våren 2017 meddelade dock forskarna vid RSS att man justerat sina data, så att de ligger mer i linje med de markbaserade väderstationerna. Förklaringen skulle vara att man korrigerat för att satelliter drivit ur sin bana. Det är i sig ingen orimlig förklaring – den typen av justeringar måste man göra, och det gäller även UAH. Det som framstår som mindre rimligt är storleken på de justeringar man gjort, och att man av någon anledning ansett sig ha skäl att sänka temperaturer man uppmätt före 1998, men höja temperaturer man uppmätt efter 1998 – i princip på samma sätt som NOAA har gjort med sina data från markbaserade väderstationer.
Resultatet har blivit att den tidigare ganska måttliga uppvärmning RSS dokumenterat nu har blivit brantare, och mer i linje med de markbaserade mätningarna, och med FN:s prognoser.
Så här såg temperaturkurvan från RSS ut innan:
Och så här har man justerat sina egna data retroaktivt:
Den grå linjen representerar den tidigare versionen, den röda den nya, som stämmer bättre med de data från markstationer som NOAA publicerar.
Det är svårt att undvika misstanken att RSS gett efter för trycket från klimatalarmisterna på NOAA, NASA-GISS och FN och börjat korrumpera sina data även de. Roy Spencer, som tillsammans med John Christy leder forskargruppen vid UAH förutsåg att det skulle ske, liksom att RSS snabbt skulle få sina nya resultat publicerade utan att få granskas av UAH-gruppen.
UAH fortsätter dock att visa mycket små förändringar ända sedan 1979, och särskilt sedan 2002. Och som vi har sett har det stämt med data från radiosonder.
Hittills – för även dessa data har ”justerats” på senare tid. Sedan James Angell vid NOAA’s Air Resources Laboratory (ARL) i Silver Spring i Maryland gick i pension 2012 har även data från väderballonger ändrats för att stämma bättre med markstationerna:
Intervju med Dr. John Christy, klimatolog och professor i atmosfärvetenskap vid University of Alabama
Dr Christy är Alabamas statsklimatolog och ansvarar tillsammans med Dr. Roy Spencer för den satellitbaserade dataserie som kallas UAH (University of Alabama, Huntsville).