Homogenisatie van temperatuurdata

Wie een temperatuur wil meten, gebruikt een thermometer. Dat lijkt heel simpel en eigenlijk is het dat ook wel. Maar zelfs simpele dingen hebben, als je wat dieper graaft, altijd weer hun complicaties. Zo zou iemand die de temperatuur van de buitenlucht wil meten tot het inzicht kunnen komen dat een thermometer dat helemaal niet kan. Het enige dat een thermometer kan meten is zijn eigen temperatuur.

Nu leert de thermodynamica dat een thermometer die in de buitenlucht hangt vanzelf de temperatuur van de lucht aan zal nemen, op voorwaarde dat er niets anders is dat op één of andere manier energie onttrekt of toevoegt aan die thermometer. In de praktijk betekent dit dat de thermometer niet nat mag worden en niet blootgesteld mag worden aan zonlicht of aan warmtestraling van een bron in de omgeving. In 1864 bedacht Thomas Stevenson een goede afscherming voor thermometers: de Stevensonhut (of Stevenson screen), die de Britse Royal Meteorological Society in 1873 inspireerde tot een lijst van ontwerpcriteria voor thermometerhutten. Instrumentele metingen van voor deze periode worden tegenwoordig met de nodige argwaan bekeken, juist omdat een goede afscherming toen vaak ontbrak. Maar dat betekent niet dat er geen problemen zijn met metingen vanaf 1873. Nog voor het einde van de 19e eeuw werd er een belangrijke tekortkoming in het ontwerp van Stevenson gevonden: via de open bodem van zijn hut kon op zonnige dagen vanaf de grond zonlicht gereflecteerd worden, waardoor metingen te hoog uit konden vallen. Sindsdien zijn er nog allerlei aanpassingen geweest: om de kwaliteit van metingen te verbeteren, om kosten te besparen, om onderhoud te vergemakkelijken, enzovoort.

Voor wie wil weten hoe warm het gisteren was, maken zulke aanpassingen niet veel uit. Voor klimaatwetenschappers, die naar veranderingen in de temperatuur op grotere ruimte- en tijdschalen kijken, is dat anders: als veel thermometerhutten binnen een bepaalde periode op dezelfde manier worden veranderd, kan dat een systematische afwijking van de metingen opleveren. De klimaatwetenschap is hierin overigens niet uniek: vrijwel elke wetenschappelijke discipline die (meet)gegevens over periodes van meerdere decennia gebruikt krijgt met dit soort zaken te maken. Het proces om zulke systematische afwijkingen uit de data te filteren wordt homogenisatie genoemd.

KNMI_Trend_Differences_Gemert

Voorbeeld van een inhomogene reeks temperatuurdata, uit Gemert. De gehomogeniseerde gegevens zijn onderdeel van de Centrale Nederlandse Temperatuur. Meer daarover in dit rapport (pdf) van het KNMI

Natuurlijk zijn in anderhalve eeuw niet alleen thermometerhutten veranderd. Er is veel meer. De thermometer zelf bijvoorbeeld: ooit waren het allemaal kwikthermometers, vaak maximum-minimumthermometers (ik ontdekte tot mijn verbazing dat die al sinds eind 18e eeuw bestaan), terwijl men tegenwoordig vooral elektronische thermometers (of thermokoppels; dit rapport (pdf) van het KNMI uit 1982 beschrijft de invloed daarvan op de metingen) gebruikt. Ook de omgeving van veel thermometers is veranderd. Zo zou in een steeds meer verstedelijkte wereld volgens sommigen het Urban Heat Island effect een rol spelen: het gegeven dat het in een stedelijke omgeving warmer wordt dan op het platteland (de gangbare verklaring is minder afkoeling door verdamping in steden; volgens een recent onderzoek is ook convectie een factor van betekenis). Verstedelijking van de omgeving van een meetpunt zou dus een opwarmend effect kunnen hebben. Dat effect kan eigenlijk geen afwijking worden genoemd, omdat het daadwerkelijk warmer wordt, maar voor onderzoekers die het mondiale klimaat bestuderen vertekent zo’n lokaal effect wel degelijk het beeld en moet het dus uit de data worden gefilterd. Overigens blijken er in de loop der tijd in Europa veel thermometers vanuit steden te zijn verhuisd naar buiten de stad gelegen en dus koelere vliegvelden. Dat ook daarvoor gecorrigeerd moet worden is iets dat de meeste fanatieke pleitbezorgers voor grotere UHI-correcties vaak gemakshalve over het hoofd zien.

Ook het moment waarop thermometers worden afgelezen kan invloed hebben. Om dat te begrijpen, is het belangrijk om te weten dat er niet alleen temperatuurmetingen zijn bij meteorologische instituten of vliegvelden. Op dergelijke plekken worden de temperaturen van oudsher meerdere malen per dag afgelezen en worden tegenwoordig metingen permanent automatisch geregistreerd. Om een goede geografische dekking te krijgen, zijn er ook meetpunten die door vrijwilligers worden beheerd. In zulke meetpunten gebruikt men meestal de al eerder genoemde maximum-minimumthermometers, die één keer per dag worden afgelezen en gereset. Stel nu eens dat dat aflezen en resetten dagelijks om vijf uur in de middag gebeurt. Na het resetten staan de markeringen voor minimum- en maximumtemperatuur op de waarde die op dat moment wordt gemeten. De temperatuur zal in de loop van de avond en nacht vrijwel altijd gaan dalen en de markering voor de minimumtemperatuur doet dat dus ook. Als de temperatuur de volgende dag weer stijgt, zal het regelmatig gebeuren dat die niet het niveau haalt van de markering van het maximum, vastgezet om vijf uur op de vorige dag. In dat geval wordt een te hoge maximumtemperatuur afgelezen. De minimumtemperaturen zijn wel vrijwel altijd juist. Als het aflezen in de ochtend gebeurt, in plaats van de middag, gebeurt precies het omgekeerde. Wat blijkt nu: in de VS werd een grote meerderheid van de metingen in het midden van de vorige eeuw ’s middags afgelezen en tegenwoordig in de ochtend. Een onderzoek uit 2009 van Menne et al. (pdf) bevestigt dat.

tod

Tijdstip waarop thermometers in de VS werden afgelezen. De verschuiving van de middag naar de ochtend in de tweede helft van de vorige eeuw is duidelijk zichtbaar

Homogenisatie begint met het opsporen van inhomogeniteiten in een gegevensreeks. Dat kan op twee manieren. De meest voor de hand liggende is het doorzoeken van logboeken en eventuele andere beschikbare informatie van elke meetlocatie op gegevens over veranderingen: de zogeheten metadata. Het is wel een bijzonder arbeidsintensieve methode en bovendien zullen niet alle veranderingen bij alle meteostations in de wereld goed gedocumenteerd zijn. Daarom zoekt men ook inhomogeniteiten in de data zelf. Bij klimaatgegevens doet men dat meestal door metingen van naburige meetlocaties met elkaar te vergelijken. Er is in de loop der tijd een groot aantal algoritmes ontwikkeld om dergelijke analyses uit te voeren. Veel van die algoritmes kunnen een sprong of afwijkende trend in metingen niet alleen detecteren, maar er ook een kwantitatieve schatting van maken. De kwantificering zal natuurlijk nauwkeuriger zijn als er informatie is over wat er precies wanneer veranderd is bij een meetpunt. Veel meteorologische instituten zullen op de hoogte zijn van in elk geval de belangrijkste wijzigingen in hun stations en die informatie dus mee kunnen nemen. Maar er zijn ongetwijfeld ook datasets waar die informatie ontbreekt. In alle gevallen geldt dat homogenisatie een proces is, dat (systematische) afwijkingen in datasets kan verkleinen, maar onzekerheden nooit helemaal weg kan nemen. De wetenschappers die zich met het onderwerp bezighouden blijven dan ook voortdurend werken aan verbetering.

Onlangs verscheen, voor open review, het artikel met de resultaten van HOME (met als hoofdauteur een bekende van ons blog: Victor Venema), een onderzoek waarin een groot aantal Europese instituten hun algoritmes voor homogenisatie vergeleek en toetste. Het doel van dit project was: orde scheppen in de veelheid van methodes om zo tot een meer gestandaardiseerde aanpak te komen. De werkwijze was in de kern heel simpel: alle algoritmes analyseerden verschillende datasets: homogeen, inhomogeen en voorzien van kunstmatige aangebrachte inhomogeniteiten. Vervolgens werd bekeken hoe goed de algoritmes de aanwezige inhomogeniteiten opspoorden, en of ze “false positives” opleverden. Het artikel laat zien dat het in de praktijk allemaal wat meer voeten in aarde heeft.

De onderzoekers concluderen dat homogenisatie de kwaliteit van datasets verbetert en dat er geen reden is aan te nemen dat het proces kunstmatige trends introduceert. Moderne homogenisatiemethoden blijken aanzienlijk betere resultaten op te leveren dan traditionele methoden. Het project heeft ook twee softwarepakketten opgeleverd voor homogenisatie. Wie zelf eens aan het homogeniseren wil slaan, kan de pakketten downloaden van de site van HOME.

Een vergelijkbaar project is inmiddels, op wereldschaal, gestart door het International Surface Temperature Initiative (ISTI), een organisatie die zich bezighoudt met het opzetten en toegankelijk maken van een databank met alle beschikbare gegevens over de oppervlaktetemperatuur. Voor dit onderzoek is de aftrap gegeven met een artikel, ook al voor open review.

Homogenisatie is een dankbaar onderwerp voor degenen die twijfel willen zaaien over de klimaatwetenschap. Het “aanpassen van data” past niet in het beeld dat veel mensen hebben van “zuivere wetenschap”. De realiteit is natuurlijk dat het kritisch onder de loep nemen van alle data essentieel is in de echte wetenschap, en dat vrijwel alle wetenschappelijke disciplines die gegevens over langere periodes gebruiken op één of andere manier te maken hebben met systematische afwijkingen in hun data, die ze op moeten sporen en corrigeren. De wereld verandert immers, en daarmee de meetmethodes, de omgeving waarin die metingen plaatsvinden en degenen die de metingen uitvoeren. Allemaal factoren om rekening mee te houden.

Een prettige bijkomstigheid voor twijfelzaaiers is het feit dat homogenisatie een aanzienlijk effect heeft op de temperatuurgegevens van de VS, thuisbasis van veel “conservatieve denktanks” en van veel vooraanstaande klimaatwetenschappers. Vooral de eerder genoemde “time of observation” veranderingen hebben veel invloed. De afbeelding hieronder, uit een gastbijdrage van Zeke Hausfather op het blog van Judith Curry, toont het effect van homogenisatie. De afbeelding laat ook zien dat het effect op wereldschaal veel kleiner is en dat de geheel onafhankelijke methoden van Berkely en van NOAA NCDC tot vrijwel identieke resultaten leiden.

slide1

Ruwe en gehomogeniseerde temperatuurdata van de VS en de hele wereld

Een ander bruikbaar gegeven voor twijfelzaaiers is de gewoonte om bij homogenisatie van klimaatgegevens terug in de tijd te werken. De meest recente metingen worden “juist’ verondersteld; als men een inhomogeniteit vindt worden de gevens voor de periode die daaraan vooraf gaat aangepast Het is een keuze die om praktische redenen wordt gemaakt en die men probleemloos kan maken, omdat men alleen naar anomalieën (ofwel veranderingen in de temperatuur) kijkt. Maar het is door twijfelzaaiers makkelijk te “spinnen” als het “steeds weer aanpassen van historische data”.

Het is prima als mensen kritisch naar homogenisatie van klimaatgegevens kijken; de mensen die van dit onderwerp een dagtaak hebben gemaakt doen dat zelf ook. Maar homogenisatie simpelweg afdoen als “geknoei met data” is geen serieuze kritiek; wat mij betreft is dat te kwalificeren als anti-wetenschap. Wie werkelijk meent het beter te weten dan de wetenschap zal veel meer moeite moeten doen.

7 Reacties op “Homogenisatie van temperatuurdata

  1. G.J. Smeets

    Hans,
    dit thema stond op mijn lijst ‘Snap ik niet goed’ en is er nu afgevoerd! Verder: je exposé is een mooie en kraakheldere illustratie van het concept ‘meten als interface tussen denken en te onderzoeken zaak’ waar de blogpost Via Meten tot Weten etc. over gaat.

  2. Mooi overzicht, Hans.

    Een verwijzing die voor dit onderwerp eigenlijk ook niet mag ontbreken is die naar het boek A Vast Machine, van Paul N. Edwards, hoogleraar aan de universiteit van Michigan: http://mitpress.mit.edu/books/vast-machine.

    Van de flaptekst:
    “Global warming skeptics often fall back on the argument that the scientific case for global warming is all model predictions, nothing but simulation; they warn us that we need to wait for real data, “sound science”. In A Vast Machine Paul Edwards has news for these skeptics: without models, there are no data”.

    Ook een schitterend overzicht van hoe de meteorologische en klimaatkennis (en -data/dataverwerking) zich in de loop van de tijd ontwikkelde.

  3. Hans Custers

    De werkelijkheid van de afgelopen dagen helpt om via een simpel Buienradar-grafiekje nog eens duidelijk te maken dat het moment van aflezen en resetten van een maximum-minimumthermometer invloed kan hebben op de meetresultaten. Hieronder de temperatuur in Rotterdam (gegevens van veel andere plekken zullen hetzelfde beeld geven) van 19 t/m 21 juli.

    Zowel op 20 als op 21 juli was de maximumtemperatuur een flink stuk lager dan de temperatuur aan het eind van de middag op de vorige dag. Aflezen en resetten aan het eind van de middag zou dus twee opeenvolgende dagen een te hoge waarde hebben opgeleverd.

  4. @Hans Custers| juli 22, 2014 om 00:34 |:
    Om een indruk te krijgen van dit soort effecten is een reeks met uurgegevens nuttig.
    Daarmee zijn de afwijkingen van MinMax te bekijken en ook de invloed van de meettijd op de afgelezen temperatuur.

  5. Hans Custers

    Boels,

    Dat spreekt voor zich. Voor zover beschikbaar worden zulke uurgegevens dan natuurlijk ook gebruikt.

  6. De aanpassingen van de temperatuur gaan in die gevallen die ik heb onderzocht, altijd naar beneden, tot soms wel één volle graad aan toe. Zo creëer je als vanzelf een opwarming.

  7. Hans Custers

    Torsten,

    Op niets gebaseerde zware beschuldigingen zijn niet welkom op dit blog. Je openingszin heb ik daarom verwijderd.

    Wat je verder beweert is onjuist. Aanpassingen van metingen op land zijn inderdaad vaker naar boven dan naar beneden. Als je de blogpost waar je op reageert had gelezen, had je geweten waarom. Daar staat tegenover dat metingen op de oceanen juist overwegend naar beneden zijn aangepast. De aanpassingen voor land en oceaan samen leveren een trend op die lager is dan die in de ruwe data.

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s