– There’s also an English version of this article. Read it here.
Etter å ha lest dette innlegget, vil du forhåpentligvis ha fått en større forståelse for hvorfor mange mener media overdriver farene ved menneskelige CO2-utslipp.
Som dere snart skal få se, har det nemlig vært mye uærlighet i klimadebatten, og det gjelder ikke bare i media, men også blant en del høyt profilerte forskere.
Jeg skal fortelle litt om temperatur-grafen over. Det høres kanskje kjedelig ut, men det er en ganske utrolig historie, og jeg tror du vil bli litt sjokkert. Studiene grafen baserer seg på ble brukt som referanser for å si at 1998 sannsynligvis var det varmeste året i løpet av de siste 1000 år og at 1990-årene var det varmeste tiåret. Grafen har blitt kalt hockeykølle-grafen på grunn av sin form, og den ble brukt seks ganger i Intergovernmental Panel on Climate Change (IPCC, en del av FN) sin tredje hovedrapport i 2001 og kom også med i den fjerde hovedrapporten fra 2007. Som vi skal se er studiene grafen baserer seg på, hvor det er Michael Mann som er hovedforfatter, veldig svake studier med mange feil og mangler.
I dette innlegget kommer jeg også til å sitere en del private e-poster sendt til og/eller fra ansatte ved Climatic Research Unit (CRU) ved East Anglia-universitetet i Norwich, Storbritannia. Med bare rundt 15 ansatte er det ikke en stor institusjon, men den anses å være en av de ledende institusjonene som jobber med klimaendringer.
Grunnen til at jeg har kunnet sitere disse private e-postene er at det 19. november 2009 ble lekket ca 1000 e-poster fra CRU. Episoden har blitt kalt Climategate. De mest oppsiktsvekkende e-postene fra første runde av Climategate kan leses her, sammen med kommentarer som setter dem inn i en forståelig sammenheng. I 2011 ble ytterligere 5000 lekkede e-poster fra CRU offentliggjort. 1)
Jeg kommer til å bruke ordene alarmist og skeptiker til å beskrive to vanlige meninger en del forskere og andre har om CO2 og klima-tiltak. Selv om ordene ikke nødvendigvis er de mest nøytrale, er de mye brukt og relativt enkle å forstå intuitivt. Jeg definerer dem som følger:
- Alarmist: Mener CO2 vil føre til farlig oppvarming av jorden og ønsker politiske tiltak. (Foreslå gjerne et bedre ord enn alarmist)
- Skeptiker: Mener alarmister overdriver farene ved CO2 og ønsker ikke politiske tiltak.
Som du sikkert har skjønt, anser jeg meg selv som skeptiker. Jeg kan derfor ha en tendens til å stole for mye på skeptiske argumenter og for lite på argumenter fra alarmister. Hvis du finner faktafeil, så si fra, så jeg kan rette opp i det.
Jeg fokuserer mest på CO2 som bidragsyter til global oppvarming fordi det er CO2 det er mest fokus på i media og fordi IPCC mener CO2 er klart viktigst:
Carbon dioxide (CO2) represents about 80 to 90% of the total anthropogenic forcing in all RCP scenarios through the 21st century.
Snarveier til de forskjellige delene av innlegget:
- Konsensus?
- Bakgrunn
- Kort om treringer og terminologi
- Historien om hockeykølle-grafen
- Videre anbefalinger
- Fagfellevurdering (peer review)
- Hvem kan man stole på?
- Kan man stole på forskning?
- Klimasensitivitet
- Business-as-usual CO2-utslipp
- Akselererende teknologiske utvikling
- Vil fornybar energi overta?
- Bør fornybar energi overta? Hva med de fattige?
- Mer CO2 har gjort verden grønnere
- Tiltak mot global oppvarming
- Folkeopplysningens hockeykølle-graf
- Norske mediers hvite løgner og bevisste villedning
- Bedring i IPCC og blant klimaforskere?
- Konklusjon (Summary for Policymakers)
Konsensus?
Vi får stadig høre at 97 % av klimaforskere mener klimaendringene er menneskeskapte. Men hva menes egentlig med det? Betyr det at nesten alle klimaforskere mener mennesker er:
a) hovedårsaken til klimaendringer? Eller
b) en bidragsyter til klimaendringer, men ikke nødvendigvis hovedårsak?
Jeg hadde et foredrag om 97 %-konsensusen på jobben, og før jeg begynte foredraget, stilte jeg nettopp dette spørsmålet. Alle tilhørerne (ca 25 stk, alle ingeniører) svarte alternativ a, at klimaforskerne mener mennesker er hovedårsaken til klimaendringer. Kanskje har du tenkt det samme selv?
Selv om media som regel ikke sier dette eksplisitt, er det lett å få det inntrykket. Men det er feil. Riktignok stemmer det at IPCC mener mennesker er hovedårsak. I deres foreløpig siste hovedrapport fra 2013, skriver de i Summary for Policymakers:
It is extremely likely [95-100 % sikkert] that human influence has been the dominant cause of the observed warming since the mid-20th century.
Men det ser ikke ut som det finnes gode studier som kan bekrefte at enigheten om dette blant klimaforskere er så høy som 97 %. Oftest er det en metastudie fra 2013, skrevet av John Cook med flere, som brukes som referanse. Studien har tittelen “Quantifying the consensus on anthropogenic global warming in the scientific literature”, men refereres vanligvis til bare som “Cook et al. (2013)”.
I Cooks metastudie ble abstract-delen av nesten 12.000 forskningsartikler gjennomgått. Disse artiklene var alle utgitt mellom 1991 og 2011 og inneholdt teksten “global warming” eller “global climate change”. Artiklene ble kategorisert ut fra artikkelforfatternes uttrykte syn på hvorvidt, og i hvor stor grad, mennesker bidrar til global oppvarming eller klimaendringer — for eksempel om mennesker bidrar, ikke bidrar, eller bidrar minst 50 % (altså mer enn alle andre faktorer til sammen). Det var også en kategori for artikler som ikke eksplisitt sa at mennesker bidrar, men hvor dette var implisitt/underforstått.
Cook et al. (2013) kom frem til at ca to tredjedeler av artiklene ikke uttrykte noen mening om menneskenes bidrag til klimaendringer, men av den siste tredjedelen, var det ca 97 % som mente mennesker bidrar til global oppvarming eller klimaendringer. Men det var bare 1,6 % av denne tredjedelen som klart uttrykte at mennesker var hovedårsak. At det var så få som uttrykte at mennesker var hovedårsak ble riktignok ikke nevnt i Cook et al. (2013), men rådataene ligger som et vedlegg under Supplementary data, så det er relativt enkelt å sjekke. 2)
Cook feil-representerte resultatene fra sin egen studie i en annen artikkel fra samme år, hvor han var medforfatter (Bedford and Cook 2013). I artikkelen står det:
Of the 4,014 abstracts that expressed a position on the issue of human-induced climate change, Cook et al. (2013) found that over 97 % endorsed the view that the Earth is warming up and human emissions of greenhouse gases are the main cause.
Legg merke til at det står main cause. Men dette stemmer altså ikke med rådataene fra Cook et al. (2013).
Selv om enigheten ikke er så høy som 97 % blant forskere eller klimaforskere om at menneskelig aktivitet er hovedårsak til klimaendringer, er det nok et klart flertall som mener dette, noe jeg kommer tilbake til i to senere fotnoter (fotnote 40 og 41).
Her er en video som i tillegg til å kritisere Cook et al. (2013) også kritiserer andre konsensus-studier:
Bakgrunn
Tidligere i år fikk jeg en Facebook-melding fra Martha Ball, Tim Balls kone (sannsynligvis etter at hun hadde sett et innlegg jeg har skrevet om Cooks konsensus-studie). Tim Ball er en kjent klimaskeptiker, og har vært saksøkt av Michael Mann for ærekrenkelse. Mann er, som nevnt innledningsvis, hovedforfatter av hockeykølle-graf-studiene. Mann har fått mye kritikk for studiene, og som vi snart skal se er den høyst berettiget.
Bakgrunnen for søksmålet mot Tim Ball var at Ball hadde sagt
Michael Mann at Penn State should be in the state pen [fengsel], not Penn State [Pennsylvania State University].
Etter over åtte år i det kanadiske rettsvesenet vant Tim Ball i 2019 søksmålet med begrunnelse at Mann ikke virket interessert i å få fremgang i det. Mann ble dømt til å betale saksomkostninger. Ifølge Martha Ball er summen $100.000. Mann har riktignok skrevet at han ikke ble dømt til å betale saksomkostninger, men utskriften fra rettssaken kan tyde på at han må betale:
[19] MR. SCHERR [advokat for Tim Ball]: I would, of course, ask for costs for the defendant, given the dismissal of the action.
[20] MR. MCCONCHIE [advokat for Michael Mann]: Costs follow the event. I have no quarrel with that.
[21] THE COURT: All right. I agree. The costs will follow the event, so the defendant will have his costs of the application and also the costs of the action, since the action is dismissed.
NRKs Folkeopplysningen hadde i 2018 en klima-episode hvor de viste noe som lignet på Manns hockeykølle-graf. Den viste hvordan global temperatur hadde endret seg siden 20.000 år før vår tidsregning, da det kan ha vært mer enn 4 grader kaldere enn idag. Grafen viste ingen raske endringer før slutten av forrige århundre, da grafen plutselig gikk rett opp. Jeg skjønte ikke helt hvordan de kunne vite temperaturen så nøyaktig så langt tilbake i tid, og etter at jeg så programmet har jeg hatt lyst til å vite mer om temaet, men det hadde ikke kommet høyt nok på prioriteringslisten. Men nå som jeg hadde fått melding fra Martha Ball, tenkte jeg det kunne være en god anledning til å lære litt om det. Så jeg spurte om hun visste om gode ressurser for å lære om hockeykølle-grafen. Hun anbefalte meg da å Google’e McIntyre og McKitrick. Så da gjorde jeg det.
Jeg fant blant annet boken The Hockey Stick Illusion – Climategate and the Corruption of Science (pdf), skrevet av Andrew Montford. Boken er en detaljert, spennende og sjokkerende fortelling om hvordan den kanadiske gruve-konsulenten Stephen McIntyre prøver å gjenskape og verifisere Michael Manns hockeykølle-graf ut fra Manns publiserte studier.
Jeg skal snart gi en oppsummering av hockeykølle-historien, som tar utgangspunkt i følgende intervju fra 2019 (jeg kommer til å kalle det SoundCloud-intervjuet), hvor McIntyre forteller sin versjon av hockeykølle-historien:
Jeg anbefaler absolutt å lese eller høre mer detaljerte gjenfortellinger enn min. Ifølge Ross McKitrick, McIntyres medforfatter, er The Hockey Stick Illusion det beste stedet å begynne for å lære om hockeykølle-grafen og historien om den. Matt Ridley, som har skrevet The Rational Optimist, har også anbefalt boken og kalte den “one of the best science books in years“. Jeg kan også anbefale McIntyre og McKitricks presentasjon til et National Academy of Sciences-ekspertpanel i 2006 (også anbefalt av McKitrick).
Det var også en veldig god artikkel, Kyoto Protocol Based on Flawed Statistics, i det nederlandske magasinet Natuurwetenschap & Techniek i 2005. Artikkelen tar opp mye av det samme som jeg skriver, men mer detaljert. Forfatteren er Marcel Crok.
Kort om treringer og terminologi
Før jeg begynner på historien, skal jeg kort forklare noen ord som er viktige for historien, så det forhåpentligvis blir lettere å følge med på den.
Vi har bare direkte temperatur-målinger med termometre fra ca 1850. For å finne ut omtrent hvor varmt det var på jorden før dette, må man derfor basere seg på en eller flere proxyer — mer indirekte temperatur-indikatorer. Den mest brukte proxyen i Manns hockeykølle-studier (og den som er mest relevant for denne historien) er treringer eller årringer. Jeg kommer til å bruke ordet treringer siden det ligner mest på de engelske ordene (“tree rings”). Under visse forhold, og for visse typer trær, vil et tre vokse mer i et varmt år enn i et kaldt år. Ut fra størrelsen på treringene er det derfor mulig å si noe om temperaturen på stedet hvor treet vokste.
Hvordan treringene til ett enkelt tre har endret seg over tid (fra år til år) kalles en trering-serie.
Ettersom det kan være andre ting enn temperatur som påvirker hvor mye treet vokser et bestemt år, tar man ikke bare prøver av ett tre på hvert geografiske sted, men ganske mange, helst minst 10, vanligvis mye mer. Trering-resultatene for alle disse trærne sammen kalles for en kronologi.
Mann hadde brukt en relativt avansert statistisk metode for å rekonstruere jordens temperatur (på den nordlige halvkule) ut fra proxyene, og hans studier var de første temperatur-rekonstruksjons-studiene som brukte denne metoden som kalles hovedkomponent-analyse (på engelsk principal components analysis, eller PC analysis, eller bare PCA). Hovedkomponent-analyse i seg selv var ikke nytt, bare bruken av det i denne sammenhengen.
Hvis man har mye proxy-data (for eksempel mange trering-kronologier) innenfor et relativt lite geografisk område, kan man slå sammen proxy-dataene i området ved hjelp av hovedkomponent-analyse for blant annet å få en jevnere geografisk fordeling av proxyer. 3)
Et viktig tidlig steg i beregningen av hovedkomponenter, går ut på at man sentrerer alle trering-tykkelsene i en kronologi rundt verdien 0. Det kan man få til ved at man for hver enkelt tykkelse-verdi trekker fra gjennomsnitts-verdien for alle trering-tykkelsene i kronologien. Som vi skal se hadde ikke Mann gjort det på nøyaktig denne måten…
Historien om hockeykølle-grafen
(Jeg har lagt litt mer utfyllende informasjon for spesielt interesserte i fotnoter. Klikk på fotnote-nummeret for å navigere til fotnoten, trykk på nummeret igjen for å navigere tilbake.)
For McIntyres del begynte det hele da han fikk en brosjyre i posten (1:13 i SoundCloud-intervjuet):
Well, I got interested in climate through sheer bad luck, I think. In 2002, the Canadian government was promoting the Kyoto treaty, and as part of their promotion they sent a brochure to every household in Canada, announcing that 1998 was the warmest year in a thousand years, and the 1990s was the warmest decade, and I wondered, in the most casual possible way, how they knew that.
McIntyre fant ut at påstanden om at 1990-årene var det varmeste tiåret de siste 1000 årene kom fra to studier, publisert i 1998 og 1999.
Studien fra 1998 hadde forsøkt å rekonstruere gjennomsnittstemperaturen på den nordlige halvkule for de siste 600 årene. Studien fra 1999 utvidet tidsintervallet med 400 år og viste dermed beregnet gjennomsnittstemperatur for de siste 1000 årene (også for den nordlige halvkule).
Studiene kalles ofte bare MBH98 4) og MBH99 5), etter første bokstav i forfatternes etternavn og året studien ble utgitt. Forfatterne er, for begge studier: Michael Mann, Raymond Bradley og Malcolm Hughes. Mann er hovedforfatter. Historien, slik jeg presenterer den her, handler mest om MBH98.
McIntyre sendte en e-post til Mann og spurte hvor han kunne finne dataene MBH98 baserte seg på. Mann hadde glemt hvor dataene var, men svarte at hans assistent (Scott Rutherford) ville finne dem. Ifølge Rutherford var visstnok ikke alle dataene på ett sted, men Rutherford skulle sette dem sammen for McIntyre, og McIntyre fikk et par uker senere tilgang til dataene på en FTP-nettside. McIntyre syntes det var rart at ingen hadde bedt om dataene før — var det ingen som hadde sjekket en så innflytelsesrik studie?
Men nå som de hadde tatt seg bryet med å finne dataene for hans skyld, følte McIntyre seg forpliktet til å sette seg inn i studien. Han hadde ikke noe spesielt mål med å verifisere/revidere Mann’s studier i starten — han så på det mer som et slags stort kryssord som skulle løses.
Det var en del ting i dataene McIntyre hadde fått som ikke ga mening, 6) og det var vanskelig å gjenskape Manns resultater, siden nøyaktig prosedyre ikke var beskrevet i Manns studier. McIntyre sendte derfor en ny e-post til Mann og spurte om det var riktige data. Mann ville ikke svare på det og gjorde det klart at han ikke ville bli kontaktet igjen: “Owing to numerous demands on my time, I will not be able to respond to further inquiries.”
McIntyre publiserte deretter sin første artikkel sammen med Ross McKitrick og rapporterte om problemene han hadde funnet. Artikkelen har tittelen Corrections to the Mann et. al. (1998) Proxy Data Base and Northern Hemispheric Average Temperature Series, men refereres vanligvis til bare som MM03, igjen etter første bokstav i forfatternes etternavn og publiserings-året. McIntyre og McKitrick oppsummerer de viktigste feilene de fant i Manns studie i abstract-delen av MM03:
The data set of proxies of past climate used in [MBH98] for the estimation of temperatures from 1400 to 1980 contains collation errors, unjustifiable truncation or extrapolation of source data, obsolete data, geographical location errors, incorrect calculation of principal components and other quality control defects.
Uten disse feilene forsvant grafens hockeykølle-form:
The particular “hockey stick” shape […] is primarily an artefact of poor data handling, obsolete data and incorrect calculation of principal components.
Ross McKitrick, McIntyres medforfatter er (og var) professor i økonomi, han hadde modellert CO2-skatt i sin doktorgradsavhandling, og McIntyre hadde sett ham snakke om Kyoto-protokollen på TV. I tillegg bodde begge i nærheten av Toronto, Canada. Så McIntyre tok kontakt med McKitrick — både for å ha noen som kunne sjekke det han hadde gjort og for å ha noen å publisere sammen med, for McKitrick hadde dessuten erfaring med å publisere vitenskapelige artikler.
Manns svar på McIntyre og McKitricks første artikkel var at de hadde brukt feil datasett, og at de korrekte dataene hele tiden hadde ligget på nettsiden McIntyre hadde blitt sendt til. Men det viste seg at dataene lå på en annen FTP-nettside, som McIntyre ikke hadde fått tilgang til ennå, men det fikk han nå.
Mann sa også at McIntyre og McKitrick burde ha kontaktet ham da de fant problemer ved studien (noe McIntyre altså hadde gjort), og at Rutherford hadde gjort noen feil da han satte sammen dataene. 7)
At McIntyre hadde fått feil data stemmer antageligvis. Fra boken The Hockey Stick Illusion:
It looked very much as if the version of pcproxy.txt that Rutherford had sent [to McIntyre] had been originally prepared for Rutherford’s own paper. In preparing these figures, he seemed to have introduced errors into the database – the same errors that had alerted McIntyre to the possibility that there were serious problems with MBH98.
Så en del av feilene McIntyre fant i starten kan ha vært introdusert av Rutherford (som altså var Manns assistent) — det vil si at MBH98 sannsynligvis ikke inneholdt alle feilene McIntyre påpekte i MM03. Det kunne riktignok ikke McIntyre vite — det var Rutherford som hadde gjort feilen, og Mann hadde ikke sjekket da han fikk spørsmål fra McIntyre om det var korrekte data.
McIntyre og McKitrick skjønte nå at hvis de skulle klare å gjenskape Manns resultater, måtte de få tilgang til data-koden Mann hadde brukt. McIntyre skrev en ny e-post til Mann hvor han blant annet ba om tilgang til data-koden. Mann er igjen lite samarbeidsvillig:
To reiterate one last time, the original data that you requested before and now request again are all on the indicated FTP site, in the indicated directories, and have been there since at least 2002. I therefore trust you should have no problem acquiring the data you now seek.
I en påfølgende e-post skrev Mann for andre gang at han ikke var interessert i å svare på flere e-poster fra McIntyre.
Etter dette dukket mange nye kataloger og filer opp på det nye FTP-nettstedet. McIntyre hadde tidligere klikket seg såpass mye rundt på dette nettstedet at Mann i en e-post til Phil Jones, daværende sjef for CRU (minner om at CRU er Climatic Research Unit ved East Anglia-universitetet i Norwich), nærmest hadde beskyldt McIntyre for datainnbrudd 8), så det var åpenbart at de nye katalogene og filene ikke hadde vært tilgjengelige før — det hadde i hvert fall ikke vært mulig å finne dem på en enkel måte. McIntyres teori var at en robots.txt-fil hadde gjort så disse katalogene og filene ikke ble indeksert av søkemotorer, og siden det ikke var noen lenker til dem, var det ingen måte å finne dem på hvis man ikke på forhånd visste nøyaktig adresse.
Blant filene som dukket opp var en fil som inneholdt datakode for beregningen av hovedkomponenter. Det viste seg da at Mann hadde brukt en litt ukonvensjonell måte å beregne hovedkomponenter på — dette til tross for at det sto i MBH98 at de hadde brukt “conventional principal components analysis“. Istedenfor å bruke et egnet programmeringsspråk (for eksempel R) eller et eksisterende kode-bibliotek til beregningen, hadde Mann skrevet algoritmen selv (i Fortran).
I standard hovedkomponent-analyse sentrerer man (som nevnt tidligere) dataene før man starter den videre beregningen. Det skjer ved at man for hver verdi trekker fra gjennomsnittet av hele serien, slik at gjennomsnittet av den nye serien blir null. Dette kan illustreres slik:
Men Mann hadde trukket fra et annet gjennomsnitt. Istedenfor å trekke fra gjennomsnittet for hele perioden, hadde han bare trukket fra gjennomsnittet for det 20. århundret. Dette førte til at man veldig lett fikk en temperatur-kurve som gikk kraftig opp i det 20. århundret: 9)
Resultatet av dette var at trærne i et område i California, som hadde en trering-kurve som gikk kraftig opp i det 20. århundret, fikk nesten 400 ganger større vekt enn trærne i et annet område i USA som ikke hadde samme endring i trering-tykkelse. Faktisk, hvis man fjernet trærne fra dette ene området (og muligens ett til 10)) fra Manns data, resulterte det i en temperatur-rekonstruksjon hvor 1400-tallet hadde høyere temperaturer enn slutten av 1900-tallet — selv når man brukte Manns feilaktige prosedyre! 11) Og dermed ville det ikke lenger ha vært grunnlag for å si at 1998 var det varmeste året på 1000 år.
Det viste seg også at grunnen til at disse trærne hadde tykkere treringer i det 20. århundret ikke bare hadde med temperatur å gjøre, noe også Mann anerkjenner i den andre hockeykølle-studien (MBH99):
A number of the highest elevation chronologies in the western U.S. do appear, however, to have exhibited long-term growth increases that are more dramatic than can be explained by instrumental temperature trends in these regions.
Donald Graybill, som hadde tatt trering-prøvene, publiserte sammen med Sherwood Idso en artikkel (i 1993) hvor de mente den store økningen i trering-tykkelse for disse trærne kunne være en direkte effekt av økt CO2-innhold i atmosfæren (CO2 fertilization). 12)
For å si noe om hvor mye man kunne stole på temperatur-rekonstruksjonen i MBH98, hadde Mann beregnet verifikasjonstall (verification statistics) 13), og disse var oppgitt i MBH98. Verifikasjonstallene de hadde brukt var RE 14) og R2 15), men R2 var bare oppgitt for perioden etter 1750, noe McIntyre syntes var rart.
R2 er vanligvis mellom 0 og 1 (men kan også være negativ), og jo høyere, jo bedre. En R2-verdi på 1 betyr perfekt sammenheng, mens 0 betyr ingen sammenheng, og negativ verdi betyr negativ sammenheng. McIntyre sier i Soundcloud-intervjuet at 0,4 eller 0,5 ville vært bra, mens det viste seg at R2 for tidsperiodene før 1750 varierte fra 0,00 til 0,02 i Manns studie, noe som betyr at man kan ha veldig liten tillit til det resultatet de hadde funnet for årene før 1750. Det var derfor ikke rart at Mann ikke ønsket å publisere R2 for de tidligere tidsperiodene selv om han selvfølgelig skulle og burde ha gjort det.
McIntyre og McKitrick publiserte en grundig kritikk av MBH98 i Energy & Environment i 2005, hvor de skrev at Mann sannsynligvis hadde beregnet R2 for de tidligere tidsperiodene også, og isåfall skulle dette tallet ha blitt publisert i studien. Men nå som det dessverre ikke hadde skjedd, burde likevel fagfelle-vurderingen ha fanget opp at R2 manglet for de tidligere tidsperiodene.
Artikkelen i Energy & Environment ga McIntyre en forside-artikkel i The Wall Street Journal 16), noe som i sin tur førte til at The House Energy and Commerce Committee spurte Mann om han hadde beregnet R2 og hva resultatet var. Mann unnlot å svare på om han hadde beregnet R2, men sa at R2 ikke var et godt verifikasjonstall, og at han ikke hadde brukt det. Komitéen ba samtidig Mann om å publisere kildekoden til studien, noe Mann motvillig gjorde. Kildekoden viste at Mann faktisk hadde beregnet R2 for de tidligere tidsperiodene, som McIntyre hadde antatt.
Det var altså ganske åpenbart at Mann visste at studien hans ikke var spesielt god. At studien ikke var god underbygges ytterligere av en av de lekkede Climategate-e-postene. (Sitater fra Climategate-e-poster er de som har blå tekst). Tim Osborne, nåværende leder for CRU, hadde bedt Mann om noen mellom-resultater som kunne brukes til å beregne R2 uten å gå gjennom alle tidligere steg i utregningen. Mann sendte dette til Osborn, men advarte om at det ville være uheldig hvis det kom ut. Mann skrev:
p.s. I know I probably don’t need to mention this, but just to insure [absolute clarity] on this, I’m providing these for your own personal use, since you’re a trusted colleague. So please don’t pass this along to others without checking w/ me first. This is the sort of “dirty laundry” one doesn’t want to fall into the hands of those who might potentially try to distort things…
Tom Wigley, tidligere leder for CRU, visste også at Manns studie var dårlig. I en e-post til Phil Jones skrev han:
I have just read the [McIntyre and McKitrick] stuff critcizing MBH. A lot of it seems valid to me. At the very least MBH is a very sloppy piece of work — an opinion I have held for some time.
I en kommentar på sin egen blogg (ClimateAudit) har McIntyre skrevet to eksempler på hva Mann burde ha skrevet som en disclaimer til studien sin:
Readers should be aware that the reconstruction contained herein badly fails many standard cross-validation tests, including the R2, CE, sign test and product mean test, some of which are 0. Accordingly, the apparent skill of the RE statistic may be spurious and the reconstruction herein may bear no more relationship to actual temperature than random numbers. Readers should also be aware that the confidence intervals associated with this reconstruction may be meaningless and that the true confidence interval may only be natural variability.
Readers should be aware that the reconstruction contained herein cannot be replicated without the use of bristlecone pines. Some specialists attribute 20th century bristlecone pine growth to nonclimatic factors such as carbon dioxide or other fertilization or to nontemperature climate factors or to a nonlinear response to temperature. If any of these factors prove to be correct, then all portions of the reconstruction prior to [the year] 1625 will be invalidated.
Jeg vil kort nevne at MBH98/99 også har blitt kritisert av andre enn McIntyre og McKitrick — blant annet har den utstrakte bruken av treringer blitt kritisert siden treringer egner seg bedre for å finne temperatur-variasjoner fra år til år enn til å finne temperatur-trender over lengre tidsperioder:
[W]hile tree rings are excellent at capturing short frequency variability, they are not very good at capturing long-term variability.
– James Speer, Fundamentals of Tree-Ring Research (pdf)
Videre anbefalinger
I min oppsummering av hockeykølle-historien har jeg fokusert mest på noen av de viktigste tingene som var feil i Manns studier og det at Mann har vært lite samarbeidsvillig. Men dette er bare én del av historien. I historien inngår også hvordan IPCC brøt sine egne regler for å kunne bruke hockeykølle-grafen også i sin fjerde hovedrapport. 17) Andrew Montford, forfatteren av The Hockey Stick Illusion, skrev et blogginnlegg om dette før han begynte å skrive boken.
Videoen under handler også om hockeykølle-grafen. Fokuset er blant annet på hvordan hockeykølle-grafen havnet i IPCCs tredje hovedrapport i 2001, og hvordan man fjernet data fra en trering-studie som viste nedgang i trering-tykkelse i det 20. århundret. Som vi husker, brukes trering-tykkelse som en proxy for temperatur. (Nedgang i trering-tykkelse i en tid hvor temperaturen stiger ville kunne så tvil om gyldigheten av treringer som en proxy for temperatur.) Historien støttes opp av Climategate-e-poster, blant annet den e-posten som kanskje har fått mest oppmerksomhet, hvor Phil Jones i november 1999 blant annet skriver:
I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie from 1981 onwards) [and] from 1961 for Keith’s to hide the decline. 18)
En annen video som kan være interessant er videoen under, som handler om de lekkede Climategate-e-postene og de britiske høringene i etterkant. Det er forfatteren av The Hockey Stick Illusion, Andrew Montford, som presenterer (til tross for tysk tittel på videoen, er foredraget på engelsk). Montford har også skrevet en rapport om høringene.
Den siste videoen jeg vil anbefale i forbindelse med hockeykølle-historien i denne omgang er et foredrag av McIntyre selv, hvor han blant annet kommer inn på problemene med trering-kronologiene som ble brukt i Manns studier (og andre lignende studier): 19)
Fagfellevurdering (peer review)
Fagfellevurdering (eller på engelsk peer review) brukes av vitenskapelige tidsskrifter for å avgjøre om de skal publisere en innsendt artikkel/studie eller ikke. En liten gruppe eksperter innen studiens fagområde får tilsendt studien og skal vurdere om den er god nok. Ekspertene får gjerne ikke ekstra betalt og bruker typisk rundt en arbeidsdag på vurderingen.
27. oktober 2009 sendte Phil Jones en e-post hvor han blant annet skrev:
The two Canadians she refers to [McIntyre and McKitrick] have never developed a tree-ring chronology in their lives and McIntyre has stated several times on his blog site that he has no aim to write up his results for publication in the peer-review literature.
I’m sure you will be of the same opinion as me that science should be undertaken through the peer-review literature as it has been for over 300 years. The peer-review system is the safeguard science has developed to stop bad science being published.
Det er litt ironisk at Phil Jones sier at McIntyre burde publisere i fagfellevurderte tidsskrifter. Jones og Mann gjorde nemlig alt de kunne for å faktisk hindre McIntyre, McKitrick og andre skeptikere fra å få publisert i fagfellevurderte tidsskrifter.
Etter at en studie (av Willie Soon og Sallie Baliunas), kritisk til Manns temperatur-rekonstruksjon, hadde blitt publisert i Climate Research i 2003, skrev Mann blant annet følgende i en e-post hvor Phil Jones var en av mottagerne:
The Soon & Baliunas paper couldn’t have cleared a ‘legitimate’ peer review process anywhere. That leaves only one possibility–that the peer-review process at Climate Research has been hijacked by a few skeptics on the editorial board.
[…]
There have been several papers by Pat Michaels, as well as the Soon & Baliunas paper, that couldn’t get published in a reputable journal.
This was the danger of always criticising the skeptics for not publishing in the “peer-reviewed literature”. Obviously, they found a solution to that–take over a journal! [Min utheving]
Mann og klimaforskerne med tilknytning til CRU hadde åpenbart hatt god kontroll på hva som ble publisert i klima-journaler med fagfellevurdering. De hadde i stor grad klart å holde skeptiske artikler/studier utenfor den fagfellevurderte litteraturen, og dermed hadde de en enkel måte å møte kritikk på — å spørre hvorfor skeptikerne ikke publiserte i den fagfellevurderte litteraturen. Eksempelvis skrev Mann følgende i et svar til en journalist som hadde referert til en skeptisk artikkel:
Professional journalists I am used to dealing with do not rely upon unpeer-reviewed claims off internet sites for their sources of information. They rely instead on peer-reviewed scientific research, and mainstream, rather than fringe, scientific opinion.
Grunnen til at de hadde hatt såpass god kontroll var at det nesten alltid var minst én fra dette miljøet av klimaforskere som ble spurt om å fagfellevurdere nye klimastudier innen deres fagfelt, og når de anbefalte at studien ikke burde publiseres, ble den som regel ikke publisert.
Det kan også til en viss grad forklares på en enda enklere måte: Som Judith Curry forklarer, har forskere — som de fleste andre — en tendens til å stole mest på konklusjoner som stemmer med det man selv mener er riktig. Man vil dermed naturlig gjøre en strengere vurdering av studier som konkluderer annerledes. Dersom et stort flertall har lignende meninger, blir det dermed vanskeligere for andre meninger å slippe til i den fagfellevurderte litteraturen. For noen ble det så vanskelig å publisere i klima-journaler at de ga opp.
Klimaforskerne ved CRU ønsket også å diskreditere Soon og Baliunas. Tom Wigley skriver:
Might be interesting to see how frequently Soon and Baliunas, individually, are cited (as astronomers).
Are they any good in their own fields? Perhaps we could start referring to them as astrologers (excusable as … ‘oops, just a typo’).
Et eksempel på at forskerne på alarmist-siden forventet at noen på deres side skulle bli spurt om å fagfelle-vurdere nye studier: Dagen før McIntyre og McKitricks første studie (MM03) ble publisert i Energy & Environment, og før Mann hadde sett studien, skriver Mann i en e-post:
My suggested response is:
1) to dismiss this as [a] stunt, appearing in a so-called “journal” which is already known to have defied standard practices of peer-review. It is clear, for example, that nobody we know has been asked to “review” this so-called paper [Min utheving]
2) to point out the claim is nonsense since the same basic result has been obtained by numerous other researchers, using different data, elementary compositing techniques, etc. Who knows what sleight of hand the authors of this thing have pulled. Of course, the usual suspects are going to try to peddle this crap. The important thing is to deny that this has any intellectual credibility whatsoever and, if contacted by any media, to dismiss this for the stunt that it is..
Her ser vi også at Mann har en klar mening om studien før han faktisk har lest den… Mann skrev dette etter å fått en e-post (med ukjent avsender) hvor det sto at MM03 snart ville bli publisert, og hvor det blant annet også sto:
Personally, I’d offer that this was known by most people who understand Mann’s methodology: it can be quite sensitive to the input data in the early centuries. Anyway, there’s going to be a lot of noise on this one, and knowing Mann’s very thin skin I am afraid he will react strongly, unless he has learned (as I hope he has) from the past….”
Hvis du vil lese mer om hvordan Mann, Jones med flere diskuterte fagfellevurdering internt, sjekk denne online-boken om Climategate og søk deg ned til “email 1047388489”. (E-postene som siteres blir også kommentert av forfatteren.) I etterkant av Climategate skrev også The Guardian en artikkel om hvordan klimaforskerne, blant annet ved CRU, forsøkte å hindre skeptiske studier fra å bli publisert.
Når Phil Jones skriver “The peer-review system is the safeguard science has developed to stop bad science being published”, er det ironisk også fordi fagfellevurderingen åpenbart ikke klarte å hindre at Manns dårlige hockeykølle-studier ble publisert.
Phil Jones skrev altså e-posten jeg siterte fra over (første sitatet under avsnittet om fagfellevurdering) sent i 2009 — bare noen uker før Climategate. IPCCs foreløpig siste hovedrapport kom ut i 2013 og 2014, altså ikke mange år senere. Som Phil Jones påpekte i en e-post, må IPCC forholde seg til den fagfellevurderte litteraturen:
McIntyre has no interest in publishing his results in the peer-review literature. IPCC won’t be able to assess any of it unless he does.
Derfor er det kanskje ikke rart at IPCC konkluderer med at mesteparten av oppvarmingen etter 1950 skyldes menneskelig aktivitet. Så når IPCC sier de er minst 95 % sikre på dette, kan det være en overdrivelse av hvor sikre de burde være — sett på bakgrunn av den skjeve fordelingen innen fagfellevurderte klima-studier. 20)
Fagfellevurdering er generelt ingen garanti for korrekt vitenskap. Og dette er noe forskere generelt er klar over, skrev Charles Jennings, tidligere redaktør i Nature, på Natures fagfellevurderings-blogg i 2006:
[S]cientists understand that peer review per se provides only a minimal assurance of quality, and that the public conception of peer review as a stamp of authentication is far from the truth.
Som nevnt er det begrenset hvor mye tid som brukes på fagfellevurdering, og da Stephen McIntyre ble bedt om å vurdere en artikkel for Climatic Change, var han forberedt på å gjøre det nøye og ba redaktøren, Stephen Schneider, om å få tilgang til studiens underliggende data. Schneider sa da at, på de 28 årene han hadde vært redaktør i Climatic Change, var det ingen som tidligere hadde bedt om å få tilgang til dataene. Dette fortalte McIntyre i SoundCloud-intervjuet fra tidligere i innlegget (7:39), hvor han videre sier:
[Schneider] said, “If we required reviewers to look at data, I’d never be able to get anyone to review articles”. I think the important point is for people unfamiliar with the academic journal process to understand the level of due diligence, and what is a relevant level of due diligence. I’ve come to the opinion that it’s unreasonable to expect unpaid reviewers to […] do a full audit of an article — it’s too much work, and people aren’t going to do that.
Siden fagfellevurdering altså ikke vil kunne avdekke alle feil og mangler i en studie, er det viktig at man også har andre prosesser som kan gjøre den jobben. Og normalt sett har man det. Hvis noen har mistanker om at det kan være noe feil med en studie — fordi resultatet for eksempel ikke stemmer med ens egne antagelser — kan det være interessant å se nøyere på studien og skrive en egen studie eller artikkel hvor man kritiserer den opprinnelige studien. Den kritiske artikkelen må da også komme seg gjennom prosessen med fagfellevurdering for å bli publisert i et vitenskapelig tidsskrift.
Innen klimafeltet fantes det mange som var interessert i å gjøre jobben med å skrive kritiske artikler, men siden altså alarmist-siden klarte å holde mange av de kritiske artiklene utenfor de vitenskapelige tidsskriftene, mistet man i stor grad den kvalitetssikringen av forskningen som man normalt sett har. 21) I tillegg var det vanskelig for skeptikerne å få tilgang til data fra alarmistenes studier. 22) Disse tingene kan være med å forklare hvordan Manns studie, til tross for sine mange feil, kunne bli inkludert i IPCCs hovedrapport — til og med som den mest profilerte studien!
Hvem kan man stole på?
I klimadebatten har man to sider som står veldig steilt opp mot hverandre, og det er i utgangspunktet vanskelig for meg som utenforstående å vite hvem som har rett og hvem som tar feil — sannsynligvis har begge sider litt rett. Men når jeg finner ut at noen bevisst har forsøkt å lure offentligheten (for eksempel Michael Mann og John Cook 23)), vet jeg i hvert fall at jeg ikke kan stole på dem. Selv om de ikke lyver hele tiden, blir det vanskelig å finne ut når de lyver og når de snakker sant, så da legger jeg mindre vekt på det de sier.
Ut fra Climategate-e-postene er det også tydelig at det er flere på alarmist-siden man ikke kan stole helt på (det samme gjelder naturlig nok for mange på skeptiker-siden). I september 2009 skrev Tom Wigley, tidligere leder for CRU, for eksempel følgende i en e-post til Phil Jones, daværende leder av CRU:
Here are some speculations on correcting [sea temperatures] to partly explain the 1940s warming blip.
If you look at the attached plot you will see that the land also shows the 1940s blip (as I’m sure you know). So, if we could reduce the ocean blip by, say, 0.15 [degrees Celsius], then this would be significant for the global mean — but we’d still have to explain the land blip.
I’ve chosen 0.15 here deliberately. This still leaves an ocean blip, and I think one needs to have some form of ocean blip to explain the land blip[.]
[…]
It would be good to remove at least part of the 1940s blip, but we are still left with “why the blip”.
Her var ikke de to CRU-lederne fornøyd med hva temperatur-dataene viste og diskuterte hva de kunne gjøre for å få dataene til å se litt annerledes ut.
Et annet eksempel: Etter å ha fått publisert en borehull-studie i Science i 1995, mottok forskeren David Deming en e-post fra en person i klimaforsker-miljøet. Deming sier ikke hvem personen er, men skriver at det er en viktig (“major”) person. Deming forteller selv:
They thought I was one of them, someone who would pervert science in the service of social and political causes. So one of them let his guard down. A major person working in the area of climate change and global warming sent me an astonishing email that said “We have to get rid of the Medieval Warm Period.” [Min utheving]
Det har blitt spekulert i om personen som sendte e-posten kan ha vært Jonathan Overpeck. Overpeck var Coordinating Lead Author (sammen med norske Eystein Jansen) for kapittelet om palaeoclimate (tidligere tiders klima) i IPCCs 4. hovedrapport fra 2007. Overpeck skrev i en e-post (til blant andre Phil og Mike (antageligvis Phil Jones og Michael Mann)) at han ikke kunne huske å ha sendt en slik e-post til Deming, men utelukket ikke helt at han kunne ha skrevet noe lignende.
Medieval Warm Period (MWP), eller Middelalderens varmeperiode (også kalt Medieval Climate Anomaly), som Deming nevnte, betegner en periode fra ca år 1000 til 1300 hvor det var antatt at det var varmere enn på slutten av 1900-tallet. Om middelalderen faktisk hadde globale temperaturer som var høyere enn på slutten av 1900-tallet skal ikke jeg ta stilling til, men for noen var det tydeligvis viktig å kunne si at temperaturen i middelalderen ikke var høyere enn idag. Som vi husker, førte feilene i MBH98 til at deres temperatur-rekonstruksjon viste en vesentlig lavere temperatur rundt år 1400 enn hva dataene deres egentlig tilsa, 24) og den etterfølgende studien, MBH99, som gikk tilbake til år 1000, viste ingen middelaldersk varmeperiode på den nordlige halvkule — som ser ut til å være det resultatet Mann ønsket.
Disse eksemplene viser at det var flere forskere i miljøet rundt CRU som ønsket å overbevise politikere og andre om at menneskeskapt global oppvarming skjer og er farlig. De brydde seg ikke alltid så mye om hva dataene egentlig viste. Forskerne kan ha vært usikre, men usikkerheten ble sjelden formidlet til offentligheten.
Er RealClimate og SkepticalScience objektive nettsteder?
Michael Mann er en av flere personer som startet nettstedet realclimate.org. Mann sendte i 2006 en e-post hvor han skriver at de ikke kommer til å godkjenne en hvilken som helst kommentar — skeptikerne skulle ikke få lov til å bruke kommentar-feltet på RealClimate som en “megafon”:
Anyway, I wanted you guys to know that you’re free to use [RealClimate] in any way you think would be helpful. Gavin [Schmidt] and I are going to be careful about what comments we screen through, and we’ll be very careful to answer any questions that come up to any extent we can. On the other hand, you might want to visit the thread and post replies yourself. We can hold comments up in the queue and contact you about whether or not you think they should be screened through or not, and if so, any comments you’d like us to include.
You’re also welcome to do a followup guest post, etc. think of [RealClimate] as a resource that is at your disposal to combat any disinformation put forward by the McIntyres of the world. Just let us know. We’ll use our best discretion to make sure the skeptics [don’t get] to use the [RealClimate] comments as a megaphone…
Og i en e-post fra 2009:
Meanwhile, I suspect you’ve both seen the latest attack against [Briffa’s] Yamal work by McIntyre. 25) Gavin [Schmidt] and I (having consulted also w/ Malcolm [Hughes]) are wondering what to make of this, and what sort of response—if any—is necessary and appropriate. So far, we’ve simply deleted all of the attempts by McIntyre and his minions to draw attention to this at RealClimate.
John Cook (som vi husker fra 97 % konsensus-studien) står bak opprettelsen av nettstedet skepticalscience.com. SkepticalScience er en nettside som forsøker å tilbakevise argumenter fra skeptikere. 26)
SkepticalScience ser ut til å være et populært nettsted som kommer høyt opp i Googles søkeresultater, og da jeg for noen år siden ville prøve å finne ut om det var noe i konsensus-påstanden, var SkepticalScience en av de første sidene jeg kom inn på, og ifølge dem var det mange studier som viste at det var nær 100 % enighet om at klimaendringer var menneskeskapte. Jeg ble nesten overbevist, men har siden funnet ut at studiene ikke sier det SkepticalScience prøvde å få meg til å tro.
Selv om mye av det SkepticalScience og RealClimate skriver er riktig, er det altså tydelig at de ikke er objektive nettsider. Men siden det de skriver stemmer bra med det vi får høre i media, er det naturlig at mange tenker at de er objektive. Det er lettere å være skeptisk til de som kommer med informasjon som strider med det vi jevnlig får høre. Og det er bra å være skeptisk. Det er også viktig å være klar over at SkepticalScience og RealClimate ønsker at leserne sine skal bli overbevist om at global oppvarming er menneskeskapt og farlig, like mye som de fleste skeptikere ønsker å overbevise oss om det motsatte.
Hvem kan man så stole på? Det er sikkert mange, men én person jeg stoler på er i hvert fall Stephen McIntyre (det betyr riktignok ikke at han har rett i alt han sier). Selv om han har kritisert Manns studier og andre trering-studier ganske kraftig, har han ikke “valgt side” i klimaspørsmålet. Han understreker stadig at det han selv fant ut på ingen måte er noe bevis for at global oppvarming ikke finner sted, og at det er hvor høy klimasensitiviteten er som er det viktige vitenskapelige spørsmålet (kommer snart tilbake til hva klimasensitivitet er). I innledningen til et foredrag han holdt om Climategates rolle i hockeykølle-graf-historien sa han blant annet følgende (3:59):
[K]eep in mind that nothing that I say tonight proves or disproves global warming. Nor does climate science as a whole stand or fall on proxy reconstructions. If we do nothing about tree rings, we would still be obliged to assess the impact of doubled CO2. As a final preamble, there’s far too much angriness in my opinion on both sides of the debate. People are far too quick to yell “Fraud” at the other side. And I think such language is both self-indulgent and counterproductive. I don’t apply these labels myself, I don’t permit them at ClimateAudit, and don’t believe they serve any purpose. That doesn’t mean you can’t criticize authors — I do so all the time and will do so tonight, but any point you make should be able to be made on the facts rather than the adjectives.
Og avslutningsvis (36:31):
I started my comments with caveats, and I’ll close with some more. The critical scientific issue, as it has been for the past 30 years, is climate sensitivity, and whether cloud and water cycle feedbacks are strongly positive or weekly negative or somewhere in between. This is the territory of Lindzen, Spencer, Kininmonth and Paltridge at this conference, and I urge you to listen to what they have to say. But also keep an open mind, because many serious scientists don’t agree with them and stand behind standard estimates of climate sensitivity of doubled CO2 in perfectly good faith.
[…]
If I were a politician, regardless of what I felt personally, I would also take scientific guidance from official institutions rather than what I might think personally, either as an occasional contributor to academic journals or as a blogger. Although, knowing what I know now, I would try as hard as I possibly could, to improve the performance and accountability of these institutions.
Her er hele foredraget:
Kan man stole på forskning?
Vi tenker kanskje på forskere som uselviske sannhets-søkere, men ifølge Terence Kealey, forfatter av boken The Economic Laws of Scientific Research, er det en myte at forskere vil prøve å falsifisere sine egne teorier. De ønsker å få teoriene sine publisert og tar gjerne snarveier i bruken av statistiske metoder:
One problem is that scientists are much less scientific than is popularly supposed. John Ioannidis […] has shown […] that the poor application of statistics allows most published research findings to indeed be false[.]
There is a perverse reason that scientists use poor statistics: career progression. In a paper entitled “The Natural Selection of Bad Science,” Paul Smaldino and Richard McElreath of the University of California, Merced, and the Max Planck Institute, Leipzig, found that scientists select “methods of analysis … to further publication rather than discovery.” Smaldino and McElreath report how entire scientific disciplines — despite isolated protests from whistleblowers — have, for more than half a century, selected statistical methods precisely because they will yield publishable rather than true results. The popular view is that scientists are falsifiers, but in practice they are generally verifiers, and they will use statistics to extract data that support their hypotheses.
Sett i lys av dette gir hockeykølle-skandalen litt mer mening.
Så svaret på om man kan stole på forskning er både ja og nei. Enkelt-studier er ikke nødvendigvis korrekte eller gode selv om de blir publisert i journaler som krever fagfelle-vurdering. For at man skal kunne stole på forskningen som kommer fra et bestemt fagfelt, er det en stor fordel om det finnes noen som ønsker å finne feil i det som blir publisert. Disse menneskene fins det mange av innenfor klimafeltet, man må bare ikke ignorere dem, men heller utnytte dem i prosessen med å finne ut hva som er god og dårlig forskning.
Klimasensitivitet
Som jeg siterte Stephen McIntyre på tidligere, er hva den såkalte klimasensitiviteten (eller klimafølsomheten) er, det viktigste vitenskapelige spørsmålet når det gjelder CO2. Hvor følsom er den globale gjennomsnittstemperaturen for endringer i CO2-nivå?
Det virker å være stor enighet (også blant mange skeptikere) om at en dobling av CO2-nivået i atmosfæren vil føre til en tilnærmet konstant temperaturøkning. Altså, hvis en dobling av CO2-nivå fra dagens ca 0,04 % til 0,08 % fører til en 2 graders temperaturøkning, vil en dobling fra 0,08 % til 0,16 % også føre til en 2 graders temperaturøkning. Man sier da at klimasensitiviteten er 2 grader.
Klimasensitiviteten kan riktignok også variere avhengig av jordens tilstand og temperatur. Dette skyldes endringer i tilbakekoblingseffekter (feedback-effekter) ettersom jorden blir varmere eller kaldere. I praksis vil klimasensitiviteten sannsynligvis ikke endre seg mye dette århundret. (Jeg skal straks forklare hva tilbakekoblingseffekter er.)
Når klimaforskere snakker om klimasensitiviteten, mener de vanligvis hvor stor temperaturøkning vi vil få ved en dobling av CO2-nivå fra før-industriell tid, altså fra 280 til 560 ppm (0,028 til 0,056 prosent).
Man opererer med flere forskjellige typer klimasensitivitet, blant annet:
- Equilibrium Climate Sensitivity (ECS), som er hvor mange graders temperaturøkning en dobling av CO2-innholdet i atmosfæren vil føre til når det til slutt blir likevekt mellom CO2-nivå og temperatur. All temperaturøkning ved en økning i CO2-innhold vil nemlig ikke komme med én gang — de største temperaturendringene vil komme tidlig, men det kan ta mer enn 1000 år før temperaturen har økt så mye at det igjen er likevekt.
- Transient Climate Response (TCR), som er hvor mange graders temperaturøkning en dobling av CO2-innholdet i atmosfæren vil føre til på det tidspunktet CO2-innholdet har blitt doblet hvis CO2-innholdet øker med 1 % per år. Med en økning på 1 % per år, tar én dobling 70 år. (TCR vil alltid være lavere enn ECS.)
Positiv tilbakekobling (for eksempel at økt temperatur fører til mer vanndamp i atmosfæren som fører til ytterligere økt temperatur siden vanndamp er en sterk drivhusgass) eller negativ tilbakekobling (for eksempel at økt temperatur fører til mer lavtliggende skyer som reflekterer mer sollys) vil bety at klimasensitiviteten blir henholdsvis høyere eller lavere enn den ville vært uten tilbakekoblingseffekter (feedback-effekter). Klimasensitiviteten, ECS, ville vært ca 1°C uten tilbakekoblingseffekter. 27)
Hvis vi skal finne ut hvor mye temperaturen vil stige som følge av økt CO2-innhold i atmosfæren frem mot år 2100, er det mer relevant å se på TCR enn ECS. 28) Riktignok kan en 1 % økning av CO2-innholdet per år (som forutsettes i klimasensitiviteten TCR) være mer enn hva som er realistisk (selv uten politiske tiltak). De siste 10 årene har økningen vært rundt 0,6 % per år, mens økningen fra år 2000 til 2010 var ca 0,5 % per år.
Det er stor usikkerhet i IPCC om nøyaktig hvor mange graders temperaturøkning en dobling av atmosfærens CO2-innhold vil føre til. I sin forrige hovedrapport oppgir IPCC at TCR nesten helt sikkert har en verdi på mellom 1,0 og 2,5 grader. 1,0 grader er relativt uproblematisk, mens 2,5 grader kan være mer utfordrende. Siden videoen under snakker mest om ECS, kan jeg også nevne at IPCC for ECS oppgir en verdi på mellom 1,5 og 4,5 grader. Og dette er faktisk identisk med det såkalte Charney-intervallet helt tilbake fra 1979 (3 grader ± 1,5 grader).
Klimamodeller er viktige i IPCCs beregning av klimasensitiviteten. 29) Klimamodeller er avanserte datasimuleringer av jordens klima. De er basert på fysiske lover, annen kunnskap man har om verdens klima-prosesser og forventede utslipp av drivhusgasser i ulike scenarier. Siden vi ikke har perfekt kunnskap om alle klima-prosesser, må det også brukes noen tilnærminger, kalt parametriseringer. Start-tidspunktet for simuleringen kan for eksempel være år 1850 og slutt-tidspunktet år 2100. Klimamodellene blir kjørt på superdatamaskiner, og én kjøring kan ta flere måneder. Ifølge IPCCs forrige hovedrapport beregnet klimamodellene klimasensitiviteten, ECS, til å være mellom 2,1 og 4,7 grader, 30) altså litt høyere enn IPCCs endelige anslag (1,5 til 4,5 grader).
Men fra 2012 har det, som det forklares i videoen over, kommet en del studier hvor klimasensitiviteten i mindre grad baserer seg på modeller og i større grad på observasjoner, og disse studiene har alle kommet frem til at ECS er godt under 3 grader — de fleste viser en sannsynlig ECS-verdi på mellom 1,5 og 2 grader.
Videre i videoen forteller de at en studie fra 2018 er spesielt viktig siden den har brukt IPCCs egne datasett til å beregne klimasensitiviteten (8:48):
This 2018 paper by Nicholas Lewis and Judith Curry, published in the American Meteorological Society’s Journal of Climate, is particularly important because it applies the energy balance method to the IPCC’s own datasets, while taking account of all known criticisms of that method. And it yields one of the lowest ECS estimates to date, 1.5 degrees, right at the bottom of the Charney range.
Den mest sannsynlige TCR-verdien er ifølge studien 1,20 grader. (Mer nøyaktig er det median-verdien for TCR som er 1,20 grader. Median-verdi for ECS: 1,50 grader) Studiens hovedforfatter, Nic Lewis, har skrevet et innlegg om studien på ClimateAudit, McIntyres blogg.
Knutti et al. (2017) har laget en oversikt over ulike klimasensitivitets-studier og kategorisert dem ut fra om de er observasjonsbaserte (historical), modellbaserte (climatology) eller basert på tidligere tiders temperaturendringer (palaeo). Knutti et al. (2017) bekrefter at studier som i større grad er basert på observasjoner kommer frem til en lavere klimasensitivitet enn studier som bruker andre metoder:
Knutti et al. er riktignok ikke enige i at man bør stole mest på disse mer observasjonsbaserte studiene. 31)
Men det mener Nic Lewis at man bør gjøre. I rapporten Oversensitive — How the IPCC Hid the Good News on Global Warming (lang versjon her) argumenterer han, sammen med Marcel Crok, for at man bør stole mest på de observasjonsbaserte estimatene for klimasensitiviteten. Deres konklusjon:
[W]e think that of the three main approaches for estimating ECS available today (instrumental observations, palaeoclimate observations, [and climate model] simulations), instrumental estimates – in particular those based on warming over an extended period – are superior by far.
Ifølge Lewis og Crok er det veldig stor usikkerhet forbundet med estimater av klimasensitiviteten basert på tidligere tiders temperatur-endringer. Og klimamodeller vil ikke nødvendigvis simulere fremtidens klima korrekt selv om de klarer å simulere fortidens klima frem til idag. Lewis og Crok skriver:
There is no knob for climate sensitivity as such in global climate models, but there are many adjustable parameters affecting the treatment of processes (such as those involving clouds) that [climate models] do not calculate from basic physics.
Climate sensitivities exhibited by models that produce realistic simulated climates, and changes in climatic variables over the instrumental period, are assumed to be representative of real-world climate sensitivity. However, there is no scientific basis for this assumption. An experienced team of climate modellers has written that many combinations of model parameters can produce good simulations of the current climate but substantially different climate sensitivities. [Forest et al. (2008)] They also say that a good match between [climate model] simulations and observed twentieth century changes in global temperature – a very common test, cited approvingly in the [IPCC assessment report 4] as proving model skill – actually proves little.
Models with a climate sensitivity of 3°C can roughly match the historical record for the global temperature increase in the twentieth century, but only by using aerosol forcing values that are larger than observations indicate is the case, by underestimating positive forcings, by putting too much heat into the oceans and/or by having strong non-linearities or climate state dependency. [Har delt inn i avsnitt for bedre lesbarhet]
I rapporten påpeker Lewis og Crok også feil i en del av de observasjonsbaserte studiene som fant relativt høy klimasensitivitet. 33)
Så selv om det ikke er helt sikkert at klimasensitiviteten er lav, er det faktisk en ganske god mulighet for det.
Videoen nedenfor er et foredrag med Nic Lewis, hvor han snakker om klimasensitivitet (jeg syntes det var veldig interessant):
Business-as-usual CO2-utslipp
For å kunne beregne hvor mye temperaturen vil stige som følge av menneskelige CO2-utslipp, må man, i tillegg til klimasensitiviteten, vite hvor mye CO2 vi kommer til å slippe ut. IPCC har fått klimaforsknings-miljøet til å lage scenarier for hvordan blant annet CO2-utslippene vil kunne utvikle seg frem mot år 2100.
I 2007 ba IPCC klimaforsknings-miljøet om utvikle scenarier for drivhusgass-utslipp for resten av dette århundret. Utslipps-scenariene har navn som begynner med “RCP”, etterfulgt av et tall. Jo høyere tall, jo høyere utslipp.
De fire hoved-scenariene er RCP2.6, RCP4.5, RCP6.0 and RCP8.5.
RCP8.5 er det mest pessimistiske scenariet i IPCCs forrige hovedrapport. Det er et scenario hvor det ikke innføres politiske tiltak for å begrense CO2-utslippene. Dette brukes ofte som et business-as-usual-scenario, men ifølge Moss et al. (2010) er det ikke beregnet som en spådom eller prognose for den mest sannsynlige utviklingen av CO2-utslipp. 34) Likevel er det nok slik mange oppfatter det.
Klimaforskeren Zeke Hausfather skriver om RCP8.5 i en kommentar i Nature:
RCP8.5 was intended to explore an unlikely high-risk future. But it has been widely used by some experts, policymakers and the media as something else entirely: as a likely ‘business as usual’ outcome. A sizeable portion of the literature on climate impacts refers to RCP8.5 as business as usual, implying that it is probable in the absence of stringent climate mitigation. The media then often amplifies this message, sometimes without communicating the nuances.
Hausfather har også, sammen med Justin Ritchie, sett på det internasjonale energibyrået (IEA) sin 2019-rapport for verdens energi-utsikter (World Energy Outlook). Ritchie skriver at IEAs prognoser for CO2-utslipp frem mot 2040 ligger langt under utslippene som forutsettes i RCP8.5-scenariet:
IEA scenarios are a more realistic projection of the global energy system’s current ‘baseline’ trajectory; showing we are far from RCP8.5 [and] RCP6.0. World currently tracking between RCP4.5 [and] lower climate change scenarios – consistent with 1.5˚ to 2.5˚C [warming this century].
– Twitter-tråd (Mer utfyllende artikkel her, skrevet av Hausfather og Ritchie)
De skriver at vi vil få en oppvarming på 1,5 til 2,5 grader, men det forutsetter at klimasensitiviteten er relativt høy.
I 2014 beregnet Lewis og Crok at hvis klimasensitiviteten TCR er 1,35 grader, vil det føre til en temperatur-økning på 2,1 grader fra 2012 til ca 2090 i det pessimistiske RCP8.5-scenariet. Og i et mer realistisk scenario enn RCP8.5 vil temperaturen stige mindre:
On the RCP6.0 scenario and using the observational TCR-based method, total warming in 2081–2100 would still be around the international target of 2°C, with a rise of 1.2°C from 2012 rather than the 2°C rise projected by the [climate models].
Nic Lewis har, som vi har sett, senere justert estimatet for TCR ned til 1,20 grader, som isåfall betyr enda litt mindre oppvarming.
Og ifølge IEA ser det altså ut til at vi skal holde oss godt under utslippene i RCP6.0 også.
Akselererende teknologiske utvikling
En grunn til at jeg ikke har vært bekymret for global oppvarming selv om jeg ikke har visst så mye om forskningen som jeg gjør nå, er at den teknologiske utviklingen går fortere og fortere for hvert år.
For nesten 40 år siden oppdaget Ray Kurzweil at datamaskiners regnekraft (egentlig regnekraft mer generelt) forbedret seg på en overraskende forutsigbar måte.
Bildet over er fra Kurzweils bok The Singularity Is Near fra 2005, som jeg leste i 2010. Det viser hvor mye regnekraft (målt i operasjoner per sekund) man på det meste (typisk med superdatamaskiner) kunne få for $1000 (inflasjonsjustert) i ulike år mellom år 1900 og 2000, og hvordan Kurzweil så for seg at utviklingen ville fortsette frem mot år 2100 (som tilsvarer at den historiske trenden fortsetter).
Y-aksen er logaritmisk, noe som betyr at en rett linje tilsvarer eksponentiell vekst — det vil si dobling med jevne mellomrom. Siden grafen bøyer oppover, betyr det at Kurzweil forventer at veksten i regnekraft per dollar er enda raskere enn dette. I praksis betyr det at hver dobling i regnekraft per dollar skjer med kortere og kortere tidsintervaller.
Det ser ut som Kurzweil har truffet bra så langt.
Med den ekstreme datakraften vi vil få tilgang til senere i århundret, vil våre teknologiske evner også bli ekstreme. Kunstig intelligens utvikler seg også ekstremt fort, og kunstig intelligens kan hjelpe oss å utvikle mange andre teknologier raskere enn vi ellers ville klart.
En viktig teknologi Kurzweil mener vi vil utvikle innen 2030 er atomically precise manufacturing (APM), altså at man kan lage fysiske objekter hvor man har kontroll på hvor hvert enkelt atom er plassert (31:52):
There are roadmaps to get to [APM]. The more conservative ones have that emerging by the end of the 2020s. I’m quite confident that [in the] 2030s, we’ll be able to create atomically precise structures which will enable us to create these medical nanorobots which will enable us to overcome essentially every disease and aging process — not instantly, but it’ll be a very powerful new tool to apply to health and medicine.
I tillegg til å kurere sykdom og helbrede uønskede effekter av aldring, vil vi med APM kunne 3D-printe store fysiske gjenstander, inkludert klær, datamaskiner og hus veldig fort.
Så kan man innvende at Kurzweil kanskje er for optimistisk. Men selv om mange av disse teknologiene ikke blir utviklet før mye senere i århundret, vil vi fortsatt ha relativt ekstreme teknologiske evner i år 2100. Jeg ser derfor ingen grunn til å bekymre seg for hva global oppvarming eventuelt kan føre til så langt frem i tid — så sant det økonomiske systemet vårt ikke kollapser, men da har vi uansett langt mer prekære problemer å hanskes med enn global oppvarming.
Kurzweil mener også vi snart vil endre måten vi produserer mat på, noe som kan være relevant for CO2-utslippene (24:35):
We’re going to go from horizontal agriculture, which now takes up 40 % of our usable land, to vertical agriculture, where we grow food with no chemicals, recycling all the nutrients; in vitro muscle tissue for meat; hydroponic plants for fruits and vegetables.
Matproduksjon vil i så fall kreve både mindre ressurser og mye mindre landareal enn idag.
Vil fornybar energi overta?
Dette er et vanskelig spørsmål å svare på. Det er mange som er veldig optimistiske, og jeg er i utgangspunktet det selv også, men det er også mange som er pessimistiske, spesielt skeptikere. 35) Det er tilsynelatende gode argumenter på begge sider.
I 2011 godtok jeg et veddemål med en kamerat om solenergi. På bakgrunn av Ray Kurzweils spådommer hadde jeg snakket varmt om at solenergi om ikke lenge ville gå forbi fossil energibruk i verden. Min kamerat var sikker på det ikke kom til å skje og foreslo et veddemål: Hvis vi får mer energi fra solenergi enn fossile energikilder innen 20 år (fra 2011, altså i 2031), vinner jeg. Ellers vinner han.
Det er først og fremst solcelle-basert solenergi som forventes å ha en stor økning i bruk. Grunnen til det er at solcelle-teknologi er en informasjonsteknologi som dermed kan dra nytte av den teknologiske utviklingen innen datakraft (og nano-teknologi), og den er altså akselererende (eksponentiell).
Videoen under, fra 2016, viser blant annet hvor billig “usubsidiert” 36) solenergi har blitt mange steder og hvor raskt prisen har falt:
Og likte du videoen, kan jeg også anbefale denne nyere (fra 2019) og lengre videoen med Ramez Naam, hvor vi blant annet får se at prisen for solenergi har falt ytterligere siden 2016:
Fremskritt innen nanoteknologi og materialvitenskap vil gjøre solceller mer effektive og billigere. Solcelle-teknologi har stort potensiale som en billig energi-kilde siden fremtidens solceller kan være ekstremt tynne og lette (og bøyelige). De kan dermed integreres på mange slags overflater.
Denne typen solceller har allerede blitt laget og er antageligvis ikke langt unna kommersialisering. Hovedingrediensen er et materiale som kalles perovskitt (engelsk: perovskite; oppkalt etter en russer med navn Lev Perovski). Mens silisium, som brukes i tradisjonelle solceller, må varmes opp til svært høye temperaturer, kan man lage perovskitt i romtemperatur. Blant annet derfor er de billige å lage. Ifølge Sam Stanks:
[A] $100 million perovskite factory could do the job of a $1 billion silicon factory.
Perovskitt er et slags blekk som enkelt kan printes på ulike overflater, for eksempel plast.
Selv om mørke perovskitt-solceller er de mest effektive, kan man lage dem i ulike farger og med ulik grad av gjennomsiktighet — til og med helt gjennomsiktige for solceller som bare fanger opp infrarødt lys. De kan derfor brukes på utsiden av bygninger (også vinduer), og bygningen vil fortsatt kunne se veldig bra ut. (Solceller på bygninger har ikke samme økologiske konsekvenser som solkraftverk kan ha.)
La oss så se hvordan det går med veddemålet mitt. Ifølge ourworldindata.org var energimengden vi i 2010 fikk fra solenergi 33,68 TWh. Det tilsvarte 0,024 % av verdens energiproduksjon. 8 år senere, i 2018, som er siste året Our World In Data har tall for, fikk vi 584,63 TWh fra solenergi, fortsatt bare 0,4 % av verdens totale energiproduksjon, men det har altså vært en 17-dobling av energien vi får fra solenergi på bare 8 år, eller en 15-dobling av andelen.
Da jeg skrev om veddemålet mitt i 2011, skrev jeg, som Kurzweil hadde spådd, at solenergiens andel av verdens energibruk ville doble seg hvert andre år. En dobling hvert andre år, blir 4 doblinger på 8 år, som betyr en 16-dobling. Vi endte opp med å få litt mer enn en 15-dobling, så så langt ser det faktisk ikke så verst ut for veddemålet mitt.
Veksten i sol-energi har riktignok avtatt de siste årene. Fra 2011 til 2019 viser OurWorldInData at det bare var en 11-dobling av solenergi-bruk i verden. Veksten kan muligens ta seg opp igjen når perovskitt-solceller kommer på markedet.
[Renewable energy is] doubling every 4 years and I’m confident it will meet 100% of our energy needs by 2030.
Andelen vil selvfølgelig ikke komme helt opp i 100 %, og Kurzweil mener nok ikke det selv heller, men hvis vi bare får mer energi fra solenergi enn fossile energikilder i 2031, så er jeg fornøyd… Det blir uansett interessant å se hvordan utviklingen blir fremover!
Visse typer fornybar energi, spesielt sol og vind, har også noen problemer knyttet til seg:
- De krever store landområder og kan skade eller fortrenge dyreliv (for eksempel så dreper vindturbiner mange fugler og flaggermus).
- En høy andel fornybar energi kan føre til høye strøm-priser.
- Sol og vind produserer vanligvis ikke energi jevnt gjennom døgnet og trenger å bli støttet av andre energi-typer i perioder de ikke selv kan produsere strøm. Reservekraften er vanligvis fossilt brensel.
- Selv om sol og vind ikke har drivhusgass-utslipp mens de produserer energi, er ikke produksjon og avfallshåndtering like ren. Produksjon av turbiner og paneler krever mye energi og utstrakt gruvedrift.
Jeg skal ikke gå dypere inn i disse problemstillingene, men det ser ut til å være utfordringer som må tas alvorlig.
Man finner veldig smarte mennesker på begge sider av debatten om fornybar energi, så hvordan finner man ut hvilken side som har rett? Det er slett ikke lett.
Det virker for meg som mange på den optimistiske siden ser mer mot fremtiden enn fortiden. De ser hvor fort prisen på solenergi har falt og forventer fortsatt raskt fallende priser. De forventer bedre teknologier i fremtiden. De ser potensielle løsninger på tøffe utfordringer.
Pessimistene, derimot, ser mer på hvordan fornybar energi har prestert tidligere, noe som kanskje ikke er så imponerende. De kan være mer fokusert enn optimistene på utfordringene som må løses. De tror ikke nødvendigvis at de ikke kan løses, men ser kanskje for seg at den sannsynlige kostnaden er høyere enn nytten.
Jeg er generelt optimistisk og tror utfordringene kan løses. Jeg er langt fra sikker, da, og det ville vært interessant å se en diskusjon om fornybar energi i kommentarfeltet.
Ramez Naam er også optimistisk og fokuserer på mulige løsninger:
[D]on’t bet on the forecasters, but on the innovators, they’re the ones actually making it happen[.]
Naam sa dette i forbindelse med hvor raskt Tesla har forbedret batteri-teknologien. US Energy Information Administration spådde i 2013 at batterier skulle bli ca en tredjedel billigere frem mot år 2048. De ble istedenfor 4 ganger billigere på bare 5 år!
Før Naam fortalte om forbedringene i batteri-teknologi, viste han også hvordan mengden energi vi får fra solenergi har vokst, og sammenlignet det med hvordan prognosene til det internasjonale energibyrået (IEA) har vært. Det er litt morsomt å se, for mens bruken av solenergi har økt kraftig, har IEAs prognoser alltid vært (og er fortsatt) at solenergi-bruken nesten ikke skal øke:
Også Hausfather og Ritchie har diskutert denne grafen. De skriver, kanskje ikke overraskende, at IEA har blitt kritisert for å være for konservative når det gjelder fornybar energi.
Men et par måneder etter at jeg publiserte første versjon av denne artikkelen, publiserte IEA World Energy Outlook-rapporten for 2020. Og denne gangen er de faktisk positive til solenergi:
Solar becomes the new king of electricity…
Renewables grow rapidly in all our scenarios, with solar at the centre of this new constellation of electricity generation technologies. […] With sharp cost reductions over the past decade, solar PV is consistently cheaper than new coal- or gasfired power plants in most countries, and solar projects now offer some of the lowest cost electricity ever seen.
De snakker antageligvis om prisen slik den oppfattes av kraftprodusentene. En lav pris for solenergi betyr at vi kan forvente at det blir bygget flere solkraftverk. På grunn av subsidier blir ikke nødvendigvis prisen forbrukerne betaler tilsvarende lav. Jeg skal kort si litt mer om dette snart.
Selv om IEA er mer positive til solenergi i år enn tidligere, er de fortsatt vesentlig mindre optimistiske enn Ray Kurzweil, selv i scenariet med lavest drivhusgass-utslipp. Med tanke på IEAs historie med å undervurdere solenergi, ville det ikke vært helt overraskende om deres prognoser fortsatt er for lave.
Et annet spennende alternativ til fossil energi er kjernekraft — fisjon og fusjon.
Fisjonsbasert kjernekraft har fått et dårlig rykte på grunn av noen få alvorlige hendelser (blant annet Chernobyl og Fukushima), men er idag en trygg måte å produsere elektrisitet på. Kjernekraft har veldig lave CO2-utslipp, men er relativt dyr, blant annet på grunn av strenge reguleringer og at det tar lang tid å bygge et kraftverk. Nye teknologiske gjennombrudd, som for eksempel modulære kjernekraftverk eller Thorium-reaktorer, kan kanskje gjøre fisjonsbasert kjernekraft mer lønnsomt.
Fusjon har tradisjonelt alltid vært 20 eller 30 år unna, men det har vært god fremgang i forskningen på det i det siste, og i tillegg til det gigantiske ITER-prosjektet, som er et samarbeid mellom flere land, er det nå mange mindre, private firmaer som jobber mot kommersialisering av fusjons-energi. Kanskje kan vi begynne å få elektrisitet fra fusjonskraftverk allerede rundt midten av 2030-tallet?
Bør fornybar energi overta? Hva med de fattige?
Jeg tror altså ikke det er usannsynlig at fornybar energi kommer til å ta over, men jeg skrev ikke eksplisitt at det er en god ting at fornybar energi overtar. I likhet med spørsmålet om hvorvidt fornybar energi kommer til å overta, så er spørsmålet om hvorvidt fornybar energi bør overta, vanskelig å svare på. Det kommer an på…
På lang sikt er det nok uunngåelig at fossil energi i stor grad vil erstattes av alternative energikilder. Spørsmålet blir da: Bør vi innføre politiske tiltak for å tvinge gjennom mer bruk av fornybar energi idag?
Hvis vi er nødt til å subsidiere fornybar energi betraktelig for at den skal tas i bruk, vil prisen på elektrisitet øke — på en eller annen måte. Enten direkte gjennom strøm-avgift eller fornybar-avgift, eller indirekte på grunn av generelt høyere skatter. Tyskland og Danmark har begge investert kraftig i fornybar energi, og deres strøm-priser (for husholdningsforbrukere) er de høyeste i Europa. De har også den høyeste andelen av skatter og avgifter i strøm-prisen.
Høyere strømpriser går naturlig nok mest ut over de fattigste. Det betyr at subsidiering av fornybar energi kan føre til at vi gjør livene verre for fattige mennesker.
Det er også de fattigste — særlig fattige mennesker i utviklingsland — som vil bli hardest rammet av klimaendringer. Bør vi ikke derfor redusere våre CO2-utslipp for deres skyld?
Problemet med det er at en stor reduksjon i CO2-utslipp bare vil ha en liten effekt på den globale temperaturen mot slutten av dette århundret. Det betyr at vi ved å redusere verdens CO2-utslipp ikke hjelper de fattigste idag, men vi hjelper dem kanskje bittelitt — langt inn i fremtiden.
En mye bedre strategi for å hjelpe de fattige, er dermed å hjelpe dem å bli rikere nå. Jo rikere man er, jo bedre rustet er man til å takle klimaendringer og ekstremvær — og sjansen for å dø i naturkatastrofer synker jo rikere man er. Så en måte å hjelpe på er å tillate fattige land å bruke den billigste energien, selv om det vil føre til høyere CO2-utslipp på kort sikt.
Men fornybar energi — særlig solenergi — blir billigere og billigere i et forrykende tempo, og om det trengs subsidier idag, er det kanskje ikke lenge til prisen vil være lav nok til at subsidier er unødvendig. Siden solen ikke skinner hele døgnet og vi ennå ikke har gode nok løsninger for lagring av energi, kan riktignok ikke solenergi dekke 100 % av et lands energibehov — man trenger vannkraft, fossil energi og/eller kjernekraft i tillegg.
Min konklusjon er at fornybar energi bør overta hvis og når det blir billigere enn alternativene. Man bør helst ikke subsidiere bruken av fornybar energi, men man kan subsidiere forskningen på det, med mål om å gjøre det billigere enn fossil energi. Hvis det skjer, vil alle land bytte til fornybar energi (som Bjørn Lomborg ofte påpeker). Og isåfall vil ikke en overgang til fornybar energi skade andre deler av økonomien eller folks liv.
Mer CO2 har gjort verden grønnere
CO2-nivået i atmosfæren har økt fra ca 280 ppm i før-industriell tid til ca 420 ppm idag. Dagens CO2-nivå er likevel lavere enn det som er optimalt for at trær og planter skal vokse mest mulig, noe som er grunnen til at det er vanlig å øke CO2-konsentrasjonen i drivhus.
Og det økte CO2-nivået i atmosfæren ser allerede ut til å ha hatt en god effekt når det gjelder hvor mye vegetasjon som vokser på jorda. I løpet av bare de 35 årene fra 1979 (da man begynte å med satellitt-målinger) til 2014, har vi fått ca 14 % mer grønn vegetasjon, ifølge blant annet denne studien, som NASA skriver om i en artikkel, hvor det står:
The greening represents an increase in leaves on plants and trees equivalent in area to two times the continental United States.
Hele økningen kan ikke tilskrives effekten av CO2, men mesteparten — ca 70 %, ifølge studien.
Tiltak mot global oppvarming
Bjørn Lomborg er grunnlegger og leder av Copenhagen Consensus Center, en tenketank som henter inn ledende økonomer til å gjøre kost/nytte-beregninger for å finne ut hvor stor positiv effekt potensielt gode tiltak og prosjekter kan ha for verden. Han understreker viktigheten av å ikke kaste bort enorme pengemengder og ressurser på tiltak som ikke fungerer eller som gjør mer skade enn nytte.
Bjørn Lomborg og Copenhagen Consensus Center antar at IPCC har rett i hvor mye temperaturen vil stige fremover i fravær av politiske tiltak og (i hvert fall Bjørn Lomborg) har tatt utgangspunkt i det pessimistiske RCP8.5-scenarioet, hvor temperaturen vil stige nærmere 4 grader fra idag (til 4,1 grader over gjennomsnittet for 1986-2005).
Ifølge IPCC vil kostnaden ved denne høyere temperaturen være et ca 3 % lavere globalt bruttonasjonalprodukt (BNP) i år 2100 enn vi ellers ville fått 37) (se fra 32:20 i videoen over). Det betyr at hvis verdens BNP ville steget til 450 % av dagens BNP frem mot år 2100 hvis det ikke var for negative effekter av klimaendringer, vil det istedenfor (fordi vi må bruke ressurser på å tilpasse oss til blant annet et høyere havnivå og sterkere stormer) stige til bare 436 % av dagens BNP. Som Bjørn Lomborg sier, det er et problem, men ikke verdens undergang.
På bakgrunn av IPCCs prognoser har Copenhagen Consensus Center vurdert hvor gode diverse klimatiltak er. Paris-avtalen og mange former for CO2-skatt har blitt vurdert som veldig dårlige tiltak med høy kostnad og liten effekt. Jeg skrev tidligere at det er bedre å subsidiere forskning på fornybar energi enn å subsidiere bruken av det. Og det er nettopp dette Bjørn Lomborg også anbefaler, sammen med en lav, men økende, CO2-skatt. Målet med å subsidiere forskning på fornybar energi er at fornybar energi skal bli så billig at den utkonkurrerer den fossile.
Hvis IPCCs prognoser for temperatur-økningen fremover er for høye, slik det kan se ut som, vil selv den lave CO2-skatten Lomborg anbefaler være for høy og risikerer å være mer skadelig enn nyttig. Når vi også tar med at CO2 har positive effekter for hvor mye trær og planter vokser, er det faktisk ikke åpenbart at effekten av økt CO2-innhold i atmosfæren vil være negativ de nærmeste tiårene.
Og på lengre sikt vil vi ha så avansert teknologi at den økte temperaturen eventuelt kan reverseres uten å redusere atmosfærens CO2-nivå. Allerede i 2009 vurderte Copenhagen Consensus Center faktisk to slike tiltak til å være veldig gode tiltak: Marine Cloud Whitening og Stratospheric Aerosol Insertion. 38) Begge vil føre til at mer sollys blir reflektert av atmosfæren.
To andre tiltak som ble vurdert som henholdsvis veldig godt og godt var Carbon Storage R&D og Air Capture R&D. Air Capture går ut på å fjerne CO2 fra atmosfæren, noe som ifølge K. Eric Drexler (av noen kalt “nanoteknologiens far”) var altfor dyrt i 2013, men som antageligvis vil kunne gjøres til en overkommelig pris om noen tiår:
[T]o have the the 21st century have a planet that resembles what we’ve had in the previous human history will require taking the CO2 levels down, and that is an enormous project. One can calculate the energy required – it’s huge, the area of photovoltaics required to generate that energy is enormous, the costs are out of range of what can be handled by the world today.
But the prospects with a better means of making things, more efficient, more capable, are to be able to do a project of that scale, at low cost, taking molecular devices, removing molecules from the atmosphere. Photovoltaics produced at low cost to power those machines can draw down CO2 and fix the greenhouse gas problem in a moderate length of time once we pass the threshold of having those technologies […] We now have in hand tools for beginning to build with atomic precision, and we can see pathways […] to a truly transformative technology.
Ulempen ved å fjerne CO2 fra atmosfæren er at man mister den positive effekten CO2 har på plantevekst. Derfor tenker jeg i utgangspunktet at det å få atmosfæren til å reflektere mer sollys — spesielt over de varmeste områdene — vil være en bedre løsning. Bjørn Lomborg er også positiv til å få atmosfæren til å reflektere mer sollys:
If [you] want to protect yourself against runaway global warming of some sorts, the only way is to focus on geoengineering, and […] we should not be doing this now, partly because global warming is just not nearly enough of a problem, and also because we need to investigate a lot more what could be the bad impacts of doing geoengineering.
But we know that white clouds reflect more sunlight and hence cool the planet slightly. One way of making white clouds is by having a little more sea salt over the oceans stirred up. Remember, most clouds over the oceans get produced by stirred-up sea salt — basically wave-action putting sea salt up in the lower atmosphere, and those very tiny salt crystals act as nuclei for the clouds to condense around. The more nuclei there are, the whiter the cloud becomes, and so what we could do is simply put out a lot of ships that would basically [stir] up a little bit of seawater — an entirely natural process — and build more white clouds.
Estimates show that the total cost of avoiding all global warming for the 21st century would be in the order of $10 billion. […] This is probably somewhere between 3 and 4 orders of magnitude cheaper — typically, we talk about $10 to $100 trillion of trying to fix global warming. This could fix it for one thousandth or one ten thousandth of that cost. So, surly we should be looking into it, if, for no other reason, because a billionaire at some point in the next couple of decades could just say, “Hey, I’m just going to do this for the world,” and conceivably actually do it. And then, of course, we’d like to know if there’s a really bad thing that would happen from doing that. But this is what could actually avoid any sort of catastrophic outcomes[.]
– Bjorn Lomborg on the Costs and Benefits of Attacking Climate Change (8:35)
Dårlige klimatiltak kan potensielt ha veldig uheldige konsekvenser. Bjørn Lomborg har i sin nye bok, False Alarm — How Climate Change Panic Costs Us Trillions, Hurts the Poor, and Fails to Fix the Planet, sett på to av IPCCs nye fremtids-scenarier, kalt SSP1 (Sustainability – Taking the Green Road) og SSP5 (Fossil-fueled Development – Taking the Highway). Begge er relativt optimistiske med tanke på økonomisk vekst.
Ifølge Riahi et al. (2017), som Lomborg refererer til, vil BNP per innbygger i verden frem til år 2100 i gjennomsnitt øke med 600 % for SSP1, mens det for SSP5 vil øke med hele 1040 %.
Lomborg har så trukket fra kostnadene knyttet til global oppvarming og klimaendringer for de to scenariene. For SSP1 er kostnaden 2,5 % av BNP, mens kostnaden for SSP5 er 5,7 % av BNP:
Selv etter å ha trukket fra kostnadene knyttet til klimaendringer i de to scenariene, er gjennomsnittlig BNP per innbygger fortsatt vesentlig høyere i det scenariet hvor man ikke legger begrensninger på bruken av fossil energi — $172.000 mot $103.000, noe som betyr en mye høyere velstand for folk flest — og spesielt for mennesker i dagens utviklingsland, som dermed ikke vil være på langt nær like sårbare når naturkatastrofer inntreffer som de er idag. (Og naturkatastrofer og ekstremvær vil naturligvis fortsette å inntreffe uavhengig av hva den globale gjennomsnittstemperaturen er.)
Det er med andre ord ekstremt viktig at vi ikke unødvendig begrenser fattige lands muligheter for økonomisk vekst. Og dette er mye viktigere enn å begrense våre CO2-utslipp, noe som gjelder i enda større grad hvis klimasensitiviteten er lavere enn IPCC og Bjørn Lomborg forutsetter.
Folkeopplysningens hockeykølle-graf
I 2018 hadde Folkeopplysningen på NRK en episode de kalte “Klimakrisa” hvor de tok alarmistenes side. De refererte både til John Cooks 97 % konsensus-studie (som jeg har nevnt tidligere i innlegget) og noe som lignet på Michael Manns hockeykølle-graf. Sistnevnte for å underbygge at det vi har sett av oppvarming siden 1950 er unikt. Siden de ikke brukte Manns graf, bare noe som lignet, skal jeg nå skrive litt om grafen de faktisk brukte.
Mens Manns hockeykølle-graf fra 1999 går 1000 år tilbake i tid, viser Folkeopplysningens graf gjennomsnittstemperaturen på jorden for de siste 22.000 år, og mens Manns graf gjelder for den nordlige halvkule, gjelder Folkeopplysningens graf for hele jorden. Programleder, Andreas Wahl, sier:
– Og vi starter 20.000 år før vår tidsregning. Da var det mer enn 4 grader kaldere, og som du kan se, så er Norge og Oslo dekket av et tjukt lag med is. Og temperaturen, den er… stabil. Bitteliten økning her, som fører til at isen begynner å smelte, slipper ut mere CO2, og temperaturøkningen akselereres. Og det går rolig, i årtusen på årtusen.
– Temperaturen i fortida har hatt flere lokale og kortvarige svingninger som ikke kommer fram her. Men denne grafen viser den globale trenden over tid.
– Først her starter vi mennesker med jordbruk. En rolig økning, stabiliserer seg rett over den rød linja her. Fortsetter… Pyramidene, Stonehenge, verdens første jomfrufødsel. Middelalder; litt høy temperatur i Europa, men ikke høy nok til å påvirke den globale gjennomsnittstemperaturen. Den holder seg stabil gjennom Middelalder, Renessanse, Opplysningstid, helt til vi lander her, i den industrielle revolusjon, der vi graver opp kull og brønner, der vi finner opp fly, biler og oljeplattformer og vokser til sju milliarder mennesker. Da skjer dette. Her er vi idag, og hvis vi fortsetter omtrent som nå, så ser vi for oss dette scenarioet. Dette scenarioet er krevende, men realistisk, og da klarer vi ikke 2-graders-målet. Mens dette her er drømmescenarioet vårt, men det er ekstremt krevende. Uansett hvor det ender, så er det å si at dette her er naturlige, og ikke menneskeskapte endringer, det er temmelig absurd.
Folkeopplysningen har kopiert grafen (inkludert de tre forskjellige scenariene for fremtiden) fra denne XKCD-siden, og kildene Folkeopplysningen oppgir er de samme som der (i tillegg til at Folkeopplysningen også oppgir XKCD som kilde):
- Shakun et al. (2012)
- Marcott et al. (2013)
- Annan and Hargreaves (2013)
- Hadcrut4
- IPCC
IPCC er antagelig brukt som kilde for de tre fremtidige temperatur-scenariene.
HadCRUT4 er temperaturdata for nyere tid (fra 1850), brukt av IPCC. Met Office Hadley Centre og CRU samarbeider om å vedlikeholde datasettet, derav de første seks bokstavene i navnet. T’en står for “Temperature” og 4-tallet er versjonsnummeret (4 er nyeste versjon).
Annan and Hargreaves (2013) er en studie hvor forfatterne har kommet frem til et estimat for hva gjennomsnittlig temperatur på jorden var da isen var på sitt tykkeste under siste istid. De kom frem til at det på det tidspunktet, for 19-23.000 år siden, var 4.0±0,8 grader kaldere (med 95 % sikkerhet) enn i før-industriell tid. Ifølge studien er dette varmere enn det tidligere studier (som hadde brukt et mer begrenset datasett) hadde kommet frem til.
Shakun et al. (2012) er en studie hvor forfatterne først og fremst konkluderer med at CO2-nivået i atmosfæren i stor grad økte før den globale gjennomsnittstemperaturen steg ved utgangen av forrige istid. Studien bruker også en temperatur-rekonstruksjon som går lenger tilbake i tid enn Marcott et al. (2013).
Marcott et al. (2013) er en studie som har beregnet global gjennomsnittstemperatur for de siste 11.300 årene. Den resulterende temperatur-grafen har ifølge studien en oppløsning på noen hundre år — det vil si at kortvarige store temperatursvingninger ikke vil vises. I en FAQ publisert på RealClimate to uker etter at studien ble publisert (kommentert av McIntyre her), skriver forfatterne:
We showed that no temperature variability is preserved in our reconstruction at cycles shorter than 300 years, 50% is preserved at 1000-year time scales, and nearly all is preserved at 2000-year periods and longer.
Det betyr at hvis det har vært store, men relativt kortvarige temperatur-svingninger i løpet av de siste 11.300 årene, vil de ikke komme frem på grafen. Jeremy Shakun, som er hovedforfatter av Shakun et al (2012), var også medforfatter av Marcott-studien. Shakun ble intervjuet om Marcott et al. (2013) og fikk spørsmål nettopp om dette med store, kortvarige temperatur-svingninger og svarte da følgende:
No, to be fair, I don’t think we can say for sure isn’t a little 50-year warm blip in there that was much warmer than today? That could be hiding in the data out there. We don’t have the resolution for that, because we have an ocean core data point every 200 years, plus that mud’s all mixed around, so when you really get down to it, you might never see that blip.
Tittelen på XKCD-siden er A Timeline of Earth’s Average Temperature Since the Last Ice Age Glaciation, med undertittel When People Say “The Climate Has Changed Before” These are the Kinds of Changes They’re Talking About.
Det er tydelig at Andreas Wahl og Folkeopplysningen ønsker å formidle det samme, de prøver å få seerne til å tro at oppvarmingen siden 1950 er unik og at lignende raske temperaturøkninger ikke har skjedd før i løpet av de siste 20.000+ årene, men på bakgrunn av kildene Folkeopplysningen oppgir kan man ikke trekke den konklusjonen.
Norske mediers hvite løgner og bevisste villedning
Folkeopplysningen er ikke unik blant norske medier i måten de kommuniserer om klima på. Det Folkeopplysningen gjorde, både når det gjelder konsensus-spørsmålet og hockeykølle-grafen de viste, er at de ikke lyver direkte, men måten de fremstiller forskningen på er lite presis. Likevel blir det sagt på en slik måte at seerne sitter igjen med et inntrykk som er feil, og det er er bare svært observante seere som kan forventes å oppfatte at Folkeopplysningen uttaler seg upresist.
Jeg har nettopp gått gjennom hva Andreas Wahl sa i forbindelse med temperatur-grafen Folkeopplysningen viste, hvor målet til Folkeopplysningen tydeligvis var at seerne skulle sitte igjen med et inntrykk av at forskerne var sikre på at det ikke har vært like raske temperatur-økninger som nå på over 20.000 år.
Når det så gjelder den påståtte konsensusen sa Andreas Wahl:
I 2013 kom nemlig en studie som tok for seg all publisert klimaforskning for å finne ut hvor stor del av forskningen som bekreftet menneskeskapte klimaendringer. Og resultatet? 97 prosent.
Dette er igjen upresist, for hva betyr det egentlig å bekrefte menneskeskapte klimaendringer? Betyr det at forskerne mener mennesker bidrar i det minste litt til klimaendringer, eller betyr det at vi er viktigste årsak? Det studien Folkeopplysningen refererte til viste, var bare at blant de ca 12.000 forskningsartiklene som ble gjennomgått, var det 97 % av den tredje-delen som uttrykte en mening om menneskenes bidrag som mente mennesker bidro til klimaendringer eller global oppvarming — enten litt eller mye. Men når Andreas Wahl sier det han sier, er det vanskelig for en nøytral seer å skjønne at det er dette han mener.
Folkeopplysningens spesielle måte å kommunisere forskning på kan ikke tolkes som noe annet enn bevisst villedning.
Faktisk.no har også hatt en sak på 97 %-konsensusen. Innlegget heter Jo, det store flertallet av verdens klimaforskere er enige om at mennesket påvirker klimaet. At mennesker påvirker klimaet er en lite interessant påstand. Til og med de fleste skeptikere vil si seg enig i det. Et mer interessant spørsmål er i hvor stor grad vi gjør det — er det 1 %, eller er det mer enn 50 %, for eksempel.
Faktisk.no har tatt utgangspunkt i en artikkel fra resett.no: Slik oppsto 97 % myten – og verdens mest standhaftige Fake News. Artikkelen inneholder en del misrepresentasjoner, og faktisk.no tok utgangspunkt i én av disse og konkluderte med “Faktisk helt feil”. Jeg mener det er positivt at Resett prøver å si imot 97 %-myten, men hvis de skal kritisere den, må de være mer nøyaktige enn de er, ellers er de ikke noe bedre enn den andre siden.
Påstanden som ble vurdert som helt feil var:
Det store flertallet av verdens klimaforskere, 66%, (…) konkluderer [ikke] om mennesket kan påvirke klimaet.
Påstanden omhandler Cooks 97 %-studie. Jeg er enig med faktisk.no i at påstanden er feil. Tallet på 66 % er andelen gjennomgåtte studier som ble vurdert som at de ikke uttrykte en mening om menneskenes bidrag til klimaendringer eller global oppvarming. 66 % av studiene er ikke nødvendigvis det samme som 66 % av forskerne, og de fleste forskerne hadde antageligvis en mening, selv om det ikke ble uttrykt i studien 39) (egentlig bare studiens abstract-del — det var bare den som ble vurdert av Cook et al.).
Selv om jeg er enig med faktisk.no i at påstanden i Resett er feil, mener jeg det ville vært mer interessant om de hadde sjekket en påstand om at 97 % av verdens klimaforskere er enige i at menneskelig aktivitet er viktigste årsak til klimaendringer eller global oppvarming — for dette er noe mange (de fleste?) nordmenn tror at forskerne mener.
Faktisk.no nevner faktisk også Andrew Montford, forfatteren av boken The Hockey Stick Illusion, i faktasjekken:
[Kjell Erik Eilertsen viser til] en rapport fra britiske Global Warming Policy Foundation (GWPF), forfattet av Andrew Montford. Der står det at Cook-rapportens metodikk er ensidig, og at den bare beskriver enighet om selvfølgeligheter.
Rapporten de refererer til har tittelen Fraud, Bias and Public Relations — The 97% ‘consensus’ and its critics. Jeg kan absolutt anbefale å lese den — også Cooks studie har nemlig en spennende historie bak seg, med løgner, lekkede data og lekket intern-kommunikasjon.
Faktisk.no imøtegår ikke Montfords kritikk av Cook — istedenfor skriver de bare:
Montford er regnskapsfører med bachelorgrad i kjemi. Han har ikke publisert en eneste fagfellevurdert vitenskapelig artikkel. Derimot er han en kjent klimaskeptiker, blogger og forfatter av boken «The Hockey Stick Illusion» om «den korrupte vitenskapen».
GWPF ble i 2009 etablert som en veldedig stiftelse av den klimaskeptiske britiske politikeren Nigel Lawson. I 2015 ble de gransket av det britiske tilsynet for veldedige stiftelser. De konkluderte med at GWPF ikke drev uavhengig informasjon egnet til undervisning, men agiterte politisk. Organisasjonen ble etter dette splittet opp.
Ifølge wikipedia ble Global Warming Policy Foundation splittet opp i to deler: den eksisterende Global Warming Policy Foundation, som fortsatt skulle være en veldedig stiftelse, og Global Warming Policy Forum, som skulle kunne drive lobby-virksomhet. (Faktisk.no skrev at granskningen ble gjort i 2015, men ifølge wikipedia skjedde det i 2014 og muligens 2013.) Mitt inntrykk er at mye av det Global Warming Policy Foundation publiserer er av veldig høy kvalitet.
Det er for så vidt naturlig at faktisk.no ikke ønsker å argumentere imot at Cook-rapporten bare beskriver enighet om selvfølgeligheter, for faktisk.no gjør i stor grad det samme selv — minner om overskriften i faktasjekken deres: “Jo, det store flertallet av verdens klimaforskere er enige om at mennesket påvirker klimaet”. Samtidig veksler de litt mellom å si at mennesket påvirker klimaet og at menneskelig aktivitet er hovedårsak til klimaendringer. 40) 41)
Hvis journalistene i faktisk.no faktisk har lest Montfords relativt knusende rapport, har jeg vanskelig for å skjønne hvordan de fortsatt kan forsvare Cooks studie, noe de gjør blant annet ved å oppgi Cook et al. sin begrunnelse for hvorfor det er greit å “legge til side” de nesten 8000 studiene hvor det ikke var uttrykt noen mening om menneskenes bidrag til global oppvarming.
Jeg er enig i at menneskelig aktivitet bidrar til klimaendringer, og det er godt mulig mer enn 97 % av de som forsker på klima også mener det, men jeg er også enig med Andrew Montford i at dette er en selvfølgelighet og lite interessant. Hvis man vil finne ut hvor mange forskere som mener menneskelig aktivitet er hovedårsaken til global oppvarming siden 1950, kan ikke Cook et al. (2013) gi svaret på det, og jeg vil på det sterkeste anbefale at media slutter å referere til den studien. (Se heller studien diskutert i fotnote 41.)
Bedring i IPCC og blant klimaforskere?
Climategate-e-postene ga et svært dårlig bilde av klimaforskningen frem til 2010, men er det like ille idag? Jeg har heldigvis funnet noen tegn som tyder på at noe har blitt bedre i IPCC og blant klimaforskere:
1. Ross McKitrick sa følgende i et intervju i 2019:
Now that whole constituency that wants certainty and wants catastrophe and wants the big scary message, it’s beginning to detach itself from the IPCC, because the message in the IPCC reports just isn’t keeping up with where the exaggeration folks want to go. 42)
2. En av de nåværende lederne for IPCC Working Group I (den som har med forskningen å gjøre), Valérie Masson-Delmotte, er enig i McIntyres kritikk av Manns studier. Dette fortalte hun McIntyre i 2006 (9 år før hun ble valgt til å lede Working Group I), men hun ville at McIntyre skulle holde navnet hennes hemmelig. Nylig (antageligvis i 2019) spurte McIntyre henne om det var greit om han brukte navnet hennes, og hun godkjente det. Dette kunne McIntyre fortelle i SoundCloud-intervjuet jeg embed’et tidligere i innlegget (1:00:40).
3. Tom Wigley, som jeg har sitert noen ganger og som har vært leder for CRU, har anbefalt Michael Shellenbergers nye bok Apocalypse Never — Why Environmental Alarmism Hurts Us All. Shellenberger er en klimaaktivist som ikke lenger er alarmist. Han skriver blant annet at klimaendringer ikke fører til verre naturkatastrofer og at mennesker ikke er iferd med å forårsake en sjette masseutryddelse (innlegget jeg linket til her ble først publisert på forbes.com, men ble så fjernet derfra 43)). Shellenberger er også veldig positiv til kjernekraft og negativ til sol- og vindenergi — i stor grad på grunn av de økologiske konsekvensene ved at sol og vind blant annet krever så store arealer. I boken beskriver han hvordan produsenter av fossil- og fornybar energi motarbeider kjernekraft. (Personlig mener jeg han er for ensidig negativ til fornybar energi.)
I samtale med Shellenberger har Tom Wigley sagt at det er feil at klimaendringer truer vår sivilisasjon, at det er feil å overdrive for å få folks oppmerksomhet, og:
All these young people have been misinformed. And partly it’s Greta Thunberg’s fault. Not deliberately. But she’s wrong.
Wigley skrev i sin anbefaling av Apocalypse Never at den kanskje er den viktigste miljø-boken som noen gang er skrevet.
4. Judith Curry, en klimaforsker som har gått over til skeptiker-siden, har i et innlegg fra 2014 på sin blogg fortalt om positive endringer som har skjedd som følge av Climategate og avsløringene rundt hockeykølle-grafen, blant annet:
Transparency has improved substantially. Journals and funding agencies now expect data to be made publicly available, along with metadata. The code for most climate models is now publicly available. As far as I know, there are no outstanding [Freedom of Information Act] requests for data (other than possibly some of Mann’s [Hockey Stick] data and documentation). Climategate shed a public light on the lack of transparency in climate science, which was deemed intolerable by pretty much everyone (except for some people who ‘owned’ climate data sets).
Understanding, documenting and communicating uncertainty has continued to grow in importance, and is the focus of much more scholarly attention. With regards to the IPCC, I feel that [Working Group 2] in [Assessment Report 5] did a substantially better job with uncertainty and confidence levels (I was not impressed with what [Working Group 1] did).
As a result of Climategate, there is little tolerance for the editorial gatekeeping ways of trying to keep skeptical papers from being published.
(I 2019 skrev hun riktignok at det har blitt enda vanskeligere å få publisert i de største og viktigste tidsskriftene. 44))
Life for a scientist that is skeptical of ‘consensus’ climate science or critical of the IPCC is definitely easier post-Climategate.
Til tross for fremgangen, argumenterer hun for at IPCC bør legges ned.
Konklusjon (Summary for Policymakers)
Det er liten grunn til å være redd for klimaendringer — i hvert fall som følge av CO2-utslipp fra menneskelig aktivitet. CO2-utslippene våre er vesentlig lavere enn vi får inntrykk av gjennom media. Det er også en god sjanse for at klimasensitiviteten er lav. Isåfall vil ikke jordens gjennomsnittstemperatur stige mer enn ca 1°C dette århundret (som følge av våre drivhusgass-utslipp).
Det økte CO2-nivået vil dessuten føre til mer vekst hos trær og planter, og det er faktisk ikke helt åpenbart at CO2-utslippene våre vil ha netto negativ effekt de nærmeste tiårene. Og på lengre sikt vil vi ha så avansert teknologi at de negative effektene lett kan håndteres eller til og med reverseres.
Dersom Ray Kurzweil har rett, vil vi dessuten kunne få mesteparten av energien vår fra fornybare energikilder om bare ca 10 år. Dette er riktignok spekulativt og forutsetter flere teknologiske gjennombrudd, men solenergi har hatt en eksplosiv vekst og det blir i hvert fall spennende å se hvor lenge den raske veksten kan fortsette.
Men det er også viktig at vi ikke sløser store pengemengder og ressurser på tiltak som gjør mer skade enn nytte. Når det gjelder fornybar energi, er det bedre å subsidiere forskningen på det enn bruken av det. Hvis målet er null-utslipp av CO2, må usubsidiert alternativ energi bli så billig at det utkonkurrerer fossil energi.
For fattige land er det viktigere med økonomisk vekst enn reduserte CO2-utslipp. Desto rikere man er, desto høyere er nemlig sannsynligheten for å overleve ekstremvær og naturkatastrofer. Effekten av reduserte CO2-utslipp, derimot, vil ikke merkes før langt frem i tid — i tillegg vil den være veldig liten.
Det har vært mye uærlighet blant en del klimaforskere, men en del ting har blitt bedre etter Climategate. Jeg tror derimot ikke media har forbedret seg tilsvarende. Jeg ønsker meg at media blir mer ærlige når de skriver om klima og at de slutter med klimaskremslene sine. Det vil isåfall kunne gi bedre mental helse for mange unge mennesker som idag er redde for fremtiden.
https://t.co/ScBlLaSIxi
An introduction to climate skepticism. Why many smart people don’t think there’s a climate emergency.— Håkon Skaarud Karlsen (@haakonsk) October 30, 2020
Fotnoter:
1) Alle e-postene fra andre runde av Climategate kan lastes ned herfra.
Online-boken jeg linket til i hovedteksten har en litt sarkastisk tone. En bok med mer nøytral tone — som kanskje også er bedre — er “Climategate: The CRUtape Letters”, men jeg har ikke funnet noen online-versjon av den.
2) For å finne hvor mange studier som ble kategorisert av Cook et al. (2013) som at de mente mennesker har bidratt til minst 50 % av oppvarmingen siden ca 1950, kan vi ta utgangspunkt i rådataene fra Cook et al. (2013) og skrive et lite Python-program, som jeg har gjort her, hvor jeg også har kopiert innholdet i datafilen fra Cook et al. (2013) inn i filen datafile.txt:
Poenget er å telle opp alle studiene som ble kategorisert med endorsement-nivå 1, som er de studiene som, ifølge Cook et al. (2013), uttrykte at mennesker er hovedårsak til global oppvarming.
Endorsement-nivået for en studie er siste siffer på linjen som inneholder informasjon om den aktuelle studien (i datafile.txt). Dette kan man se på linje 19 i datafile.txt, som beskriver formatet på linjene under:
Year,Title,Journal,Authors,Category,Endorsement
Når man er på siden med koden fra bildet over, vil koden automatisk bli kjørt, og man kan se resultatet til høyre (hvis man har bred nok skjerm — ellers kan man trykke på Spill av-knappen). Det skal gi følgende resultat:
{‘1’: 64, ‘2’: 922, ‘3’: 2910, ‘4’: 7970, ‘5’: 54, ‘6’: 15, ‘7’: 9}
Det betyr at det var 64 studier som hadde endorsement-kategori 1. Endorsement-kategoriene finner vi også i rådata-filen:
Endorsement 1,Explicitly endorses and quantifies AGW as 50+% 2,Explicitly endorses but does not quantify or minimise 3,Implicitly endorses AGW without minimising it 4,No Position 5,Implicitly minimizes/rejects AGW 6,Explicitly minimizes/rejects AGW but does not quantify 7,Explicitly minimizes/rejects AGW as less than 50%
AGW står for Anthropogenic Global Warming og betyr menneskeskapt global oppvarming.
3) Uten bruk av hovedkomponenter, er en mulig måte å rekonstruere temperaturen på å ta et relativt enkelt gjennomsnitt av alle kronologiene, men da risikerer man å gå glipp av viktige mønstre i temperatur-dataene, som for eksempel at temperaturen hypotetisk sett går mye opp i det 20. århundret mange steder. Men i det enkle gjennomsnittet vil ikke dette nødvendigvis være synlig fordi temperaturen kanskje går en del ned andre steder. Hovedkomponent-analyse kan også bidra til å få frem slike underliggende mønstre.
4) Hele tittelen for MBH98 er Global-scale temperature patterns and climate forcing over the past six centuries. Studien er ikke lettlest. Du er herved advart.
5) Hele tittelen for MBH99 er Northern Hemisphere Temperatures During the Past Millennium: Inferences, Uncertainties, and Limitations.
6) En annen ting som virket rart var at et enkelt gjennomsnitt av proxy-seriene i MBH98 bare viste at temperaturen varierte relativt jevnt rundt et konstant nivå — det var ingen spesiell trend — ingen voldsom temperatur-økning utover i det 20- århundret. Temperatur-rekonstruksjonen i MBH98 viste likevel at det hadde vært en temperatur-økning på 1900-tallet, og at de høye temperaturen her var unike for de siste 600 årene:
I teorien kunne det være gode forklaringer på forskjellen, men resultatet var mistenkelig og ga motivasjon til videre undersøkelser.
7) Manns svar til McIntyre og McKitrick ble publisert i form av to korte artikler av freelance-journalisten David Appell, på hans nettside (arkivert av Wayback Machine her og her). Det var mye rart i Manns svar i tillegg til påstanden om at feil data var brukt: Mann kritiserte blant annet McIntyre og McKitrick for å ha bedt om en Excel-fil (noe de ikke hadde gjort), og for at de ikke hadde brukt alle 159 proxyene – til tross for at det i Manns studie sto at det var 112 proxyer, ikke 159. Det var ganske greit for McIntyre og McKitrick å svare på kritikken, og svaret deres kan du se her. Noen dager senere kom et formelt svar fra Mann. Mann forklarte at McIntyre og McKitrick ikke hadde beregnet hovedkomponentene på riktig måte. Mann hadde nemlig brukt en stegvis prosedyre, men denne var ikke beskrevet i studien hans. I McIntyre og McKitricks svar til Mann dokumenterer de blant annet at det ikke er mulig å gjenskape fremgangsmåten i Manns studie selv etter at de fikk tilgang til den nye FTP-nettsiden.
Here is an email I sent [to McIntyre] a few weeks ago in response to an inquiry. It appears, by the way, that he has been trying to break into our machine[.] Obviously, this character is looking for any little thing he can get ahold of.
McIntyre har skrevet en kort kommentar til e-posten i en kommentar under et blogginnlegg på ClimateAudit.
9) Eller ned, men Manns program snudde slike grafer opp/ned, slik at kurver som pekte nedover i det 20. århundret ble tolket som at de pekte oppover. Fra boken The Hockey Stick Illusion: Meanwhile, any [series] with twentieth century downticks were given large negative weightings, effectively flipping them over and lining them up with upticks.
10) Det andre området er Gaspé, sør-øst i Canada, hvor MBH98 hadde brukt en kontroversiell proxy fra sedertrær. I likhet med trærne fra California, hadde trering-tykkelsene en utpreget hockeykølle-form med uptick i det 20. århundret. Også i likhet med trærne fra California samsvarte ikke den kraftige økningen i trering-tykkelse med målt temperatur i området.
I perioden fra 1404 til 1447 besto Gaspé-kronologien bare av 1-2 trær. Mann hadde dessuten ekstrapolert kronologien tilbake til år 1400, slik at den også kunne brukes for den tidligste perioden i MBH98. Gaspé-kronologien var den eneste i studien som hadde blitt ekstrapolert på denne måten.
Gaspé-kronologien var dessuten inkludert to ganger i MBH98, én gang som enkeltstående kronologi, og én gang som del av første hovedkomponent (PC1) for Nord-Amerika (NOAMER).
(Se McIntyre og McKitricks Energy & Environment-artikkel fra 2005.)
11) Ross McKitrick har skrevet:
If the flawed bristlecone pine series are removed, the hockey stick disappears regardless of how the [principal components] are calculated and regardless of how many are included. The hockey stick shape is not global, it is a local phenomenon associated with eccentric proxies. Mann discovered this long ago and never reported it.
Grunnen til at McKitrick kunne si at Mann visste om det, er at det på FTP-nettsiden hvor dataene lå var en katalog med det mistenkelige navnet BACKTO_1400-CENSORED, hvor det var gjort utregninger uten trærne fra California. Trærne det er snakk om er først og fremst det som på engelsk heter strip-bark bristlecone pines, en type furu med bark som deler seg.
12) McIntyre hadde riktignok en annen teori. Tre-stammene til disse trærne var ikke runde, det var store variasjoner i trering-tykkelse avhengig av hvilken vinkel man målte trering-tykkelse ut fra. McIntyre mente asymmetrien kunne skyldes grener som hadde brukket på 1800-tallet, muligens på grunn av tung snø. Asymmetrien kan dessuten ha gjort det utfordrende å vite hvor man burde måle trering-tykkelsen. Linah Ababneh samplet trærne på nytt i 2006 og fant ikke den samme store økningen i trering-tykkelse på 1900-tallet. McIntyre forteller litt om disse tingene i denne videoen. Flere teorier for den tilsynelatende voldsomme økningen i trering-tykkelse ble forøvrig diskutert i McIntyre og McKitricks 2005-artikkel i Energy & Environment.
13) Verifikasjonstallene forteller hvor mye vi kan stole på temperatur-rekonstruksjonen. Slik jeg har forstått det og litt mer konkret for MBH98, er sier verifikasjonstallene hvor bra den rekonstruerte temperatur-grafen stemmer med termometer-data i studiens verifikasjons-periode. Verifikasjons-perioden var 1856-1901, mens 1902-1980 var kalibrerings-perioden. Kalibrerings-perioden brukes til å finne ut hvordan sammenhengen mellom trering-tykkelse og temperatur er. Verifikasjon-perioden, hvor man også har termometer-data, brukes til å sjekke hvor bra sammenhengen man fant i kalibrerings-perioden stemmer i denne perioden. For MBH98 var korrelasjonen R2=0,2, som betyr ganske dårlig sammenheng. Jeg syntes det var vanskelig å skjønne hva R2 betyr for eldre tidsperioder, men jeg tror McIntyre forklarte det på en ganske forståelig måte i en kommentar til et blogg-innlegg om tolkningen/betydningen av R2:
[T]he 1400 step used a subset of proxies available in the later steps. It produced a time series for the period 1400-1980 that was scaled (calibrated) against instrumental (an early HadCRU) for 1901-1980. Statistics comparing the 1856-1901 segment of the reconstruction time series to 1856-1901 observations are the verification statistics.
Jeg tolker dette slik: De proxyene som går helt tilbake til perioden man vil beregne R2 for brukes til å lage en temperatur-kurve som går helt fra den tidsperioden og frem til idag. Proxyer som ikke går så langt tilbake ignoreres i beregningen. R2 for den aktuelle tidsperioden blir da hvor bra kurven matcher temperatur-målinger i perioden 1856-1901.
14) RE står for Reduction of Error og var mye brukt blant klimaforskere, men var ikke vanlig å bruke ellers. I MBH98 var betegnelsen β brukt istedenfor RE. I MBH98 skrev Mann at en RE-verdi høyere enn 0,0 ville bety at man kunne ha stor tillit til temperatur-rekonstruksjonen. Men ved å bruke såkalt Monte Carlo-analyse hvor McIntyre og McKitrick testet Manns algoritme med tilfeldige data-serier (red noise), fant de ut at terskel-verdien for RE var 0,59, noe Manns graf ikke tilfredsstilte for den tidligste perioden (fra år 1400), som betyr at resultatet deres ikke var statistisk signifikant for den perioden. Se A Brief Retrospective on the Hockey Stick av Ross McKitrick, seksjon 2 – Our Critique of the Method. (R2 var dessuten lav for hele perioden før 1750, noe som tyder på manglende statistisk signifikans i hele perioden fra 1400-1750.)
Som McKitrick skriver, hadde også Mann brukt Monte Carlo-analyse for å finne terskel-verdien for RE. Men på grunn av feilen de hadde i hovedkomponent-algoritmen, var terskel-verdien de fant feil, noe som førte til at det så ut som temperatur-rekonstruksjonen i MBH98 var bedre enn den faktisk var.
15) R2 eller r2 er mye oftere brukt enn RE blant forskere, og var også mye brukt av klimaforskere. En fordel med R2 fremfor RE er at man ikke trenger å gjøre Monte Carlo-analyse for å kunne tolke R2-verdien. Se A Brief Retrospective on the Hockey Stick av Ross McKitrick, seksjon 2 – Our Critique of the Method.
16) Bak betalingsmur, men kan leses her. Tittelen er “Global Warring In Climate Debate, The ‘Hockey Stick’ Leads to a Face-Off”.
17) Temperatur-rekonstruksjonen fra MBH99 vises blant annet i et “spagetti-diagram” sammen med temperatur-rekonstruksjoner fra flere andre studier i kapittel 6 (fra working group I) om “palaeoclimate”.
18) John Stewart spøkte om “hide the decline”-e-posten på The Daily Show. Jeg har ikke klart å finne videoen, men Stephen McIntyre gjenforteller Stewarts spøk i denne videoen.
19) I videoen blir ikke alle McIntyres slide’er vist, men spesielt interesserte kan se dem her.
20) McIntyre skrev i et blogginnlegg i 2013 at det til da fortsatt ikke hadde vært mye fremgang når det gjelder hva som blir publisert i den fagfelle-vurderte litteraturen:
The IPCC assessment has also been compromised by gatekeeping by fellow-traveler journal editors, who have routinely rejected skeptic articles on the discrepancy between models and observations or pointing out the weaknesses of articles now relied upon by IPCC. Despite exposure of these practices in Climategate, little has changed. Had the skeptic articles been published (as they ought to have been), the resulting debate would have been more robust and IPCC would have had more to draw on [in] its present assessment dilemma.
21) Judith Curry har sagt det på denne måten:
Simply, scientists are human and subject to biases. Further, they have personal and professional stakes in the outcomes of research – their professional reputation and funding is on the line. Assuming that individual scientists have a diversity of perspectives and different biases, then the checks and balances in the scientific process including peer review will eventually see through the biases of individual scientists. However, when biases become entrenched in the institutions that support science – the professional societies, scientific journals, universities and funding agencies – then that subfield of science may be led astray for decades and make little progress.
22) Vi har sett at det var vanskelig for Stephen McIntyre å få tilgang til de underliggende data og metoder fra Manns studier. Det samme var også tilfelle med mange andre studier. Skeptikerne etterspurte etter hvert data under Freedom of Information Act, men også det viste seg å være vanskelig. Boken Climategate: The CRUtape Letters beskriver dette nærmere, særlig i forbindelse med at skeptikerne ønsket data for værstasjonene som ble brukt i beregningen av global gjennomsnittstemperatur, slik at de kunne etterprøve beregningene.
23) Brandon Shollenberger (ikke forveksle med Michael Shellenberger) har skrevet flere blogginnlegg hvor han dokumenterer at John Cook (og SkepticalScience) har vært uærlig:
- John Cook, Proprietor of Skeptical Science, Lies about Evidence
- Making **** Up
- John Cook is a Filthy Liar
- Skeptical Science’s Dishonesty, Updated
- John Cook, Making More Things Up
- A Resource for Understanding the Consensus
- Cook et al Lie their Faces off
- Campaign or Deception
- John Cook is a Low Down Dirty Liar
24) Men verifikasjonstallene for MBH98 var så dårlige at MBH98 egentlig ikke kunne si så mye om hva temperaturen var så langt tilbake i tid).
25) McIntyre kritiserte klimaforskernes bruk av kronologien fra Yamal-halvøya nord i Russland. Kronologien hadde hockeykølle-form, men var basert på veldig lite data (få trær) i nyere tid. McIntyre foreslo senere å slå sammen data fra Yamal med data fra nærliggende områder (blant annet Polar Urals). I 2013 begynte CRU (og Briffa) å bruke en kombinert Yamal-kronologi som lignet veldig på McIntyres tidligere forslag. Den nye kronologien hadde ikke hockeykølle-form. (Se også Andrew Montfords innlegg om The Yamal deception.)
26) På skepticalscience.com (forsiden) står det:
Scientific skepticism is healthy. Scientists should always challenge themselves to improve their understanding. Yet this isn’t what happens with climate change denial. Skeptics vigorously criticise any evidence that supports man-made global warming and yet embrace any argument, op-ed, blog or study that purports to refute global warming. This website gets skeptical about global warming skepticism. Do their arguments have any scientific basis? What does the peer reviewed scientific literature say?
De har for så vidt et poeng i at mange skeptikere er for lite skeptiske til argumenter fra skeptikere. Så jeg vil anbefale å være litt skeptisk til argumenter fra begge sider — både fra alarmister og skeptikere.
27) IPCC mener det er veldig sannsynlig at tilbakekoblingseffekter fra vanndamp og albedo (hvor mye sollys som reflekteres fra jorda) er positiv, altså at disse effektene bidrar til å øke klimasensitiviteten, mens tilbakekoblingseffekter fra skyer er usikker (selv om de antar at også den er positiv):
The water vapour/lapse rate, albedo and cloud feedbacks are the principal determinants of equilibrium climate sensitivity. All of these feedbacks are assessed to be positive, but with different levels of likelihood assigned ranging from likely to extremely likely. Therefore, there is high confidence that the net feedback is positive and the black body response of the climate to a forcing will therefore be amplified. Cloud feedbacks continue to be the largest uncertainty. The net feedback from water vapour and lapse rate changes together is extremely likely positive and approximately doubles the black body response [altså at klimasensitiviteten, ECS, dobles fra ca 1°C til ca 2°C].
28) IPCC er enig og har skrevet:
For scenarios of increasing [radiative forcing], TCR is a more informative indicator of future climate change than ECS.
29) Zeke Hausfather, en klimaforsker som blant annet jobber med klimamodeller, forklarer:
“Sensitivity” is something that emerges from the physical and biogeochemical simulations within climate models; it is not something that is explicitly set by modellers.
The Coupled Model Intercomparison Project Phase 5 (CMIP5) model spread in equilibrium climate sensitivity ranges from 2.1°C to 4.7°C[.]
31) Knutti et al. (2017) skriver:
Our overall assessment of ECS and TCR is broadly consistent with the IPCC’s, but concerns arise about estimates of ECS from the historical period that assume constant feedbacks, raising serious questions to what extent ECS values less than 2 °C are consistent with current physical understanding of climate feedbacks.
Det er også mange andre klimaforskere som er uenige med Lewis i at vi bør stole mest på de mer observasjonsbaserte studiene i beregningen av klimasensitivitet. En artikkel på CarbonBrief kommenterer en ny studie (Sherwood et al. (2020)), som konkluderer med at en lav klimasensitivitet er usannsynlig.
33) Se under Appendix i den lange versjonen av Lewis og Crok sin klimasensitivitet-rapport.
34) I artikkelen skriver de:
The RCPs provide a starting point for new and wide-ranging research. However, it is important to recognize their uses and limits. They are neither forecasts nor policy recommendations, but were chosen to map a broad range of climate outcomes. The RCPs cannot be treated as a set with consistent internal logic. For example, RCP8.5 cannot be used as a no-climate-policy reference scenario for the other RCPs because RCP8.5’s socioeconomic, technology and biophysical assumptions differ from those of the other RCPs.
Og i kapittel 12 (fra working group I) i IPCCs forrige hovedrapport står det:
It has not, in general, been possible to assign likelihoods to individual forcing scenarios.
Skeptics generally support nuclear energy and natural gas, but are dubious of rapid expansion of wind and solar and biofuels.
36) Det har blitt argumentert for at solenergi (og vind) får urettferdige fordeler i konkurransen med andre energikilder, og at dette er indirekte subsidier til solenergi, som gjør at prisen forbrukerne må betale for strøm øker.
37) 90 % sikkert mellom 0,5 % og 8,2 %.
At IPCC mener klimaendringer vil ha relativt lave kostnader kan vi også lese i kapittel 10 (fra working group II) i deres forrige hovedrapport:
For most economic sectors, the impact of climate change will be small relative to the impacts of other drivers (medium evidence, high agreement).
38) Spørsmålet økonomene skulle svare på var: “If the global community wants to spend up to, say $250 billion per year over the next 10 years to diminish the adverse effects of climate changes, and to do most good for the world, which solutions would yield the greatest net benefits?”
39) Som del av Cook et al. (2013) ble det også sendt e-post til forfatterne av studiene de gjennomgikk hvor det ble spurt hvordan forfatterne selv ville kategorisere studien(e) sin(e). En høyere andel (64,5 %) uttrykte nå en mening om menneskenes bidrag, og igjen var det 97 % av de som uttrykte en mening som mente mennesker bidrar til klimaendringer. Cook et al. (2013) oppga ikke hvor mange av forfatterne som oppga at studien deres støttet påstanden om at menneskelig aktivitet var viktigste årsak til global oppvarming siden 1950, men Dana Nuccitelli, som er medforfatter av Cook et al. (2013) og skriver på skepticalscience.com, skrev i kommentarfeltet til et blogginnlegg at det var 228 (av 2143) studier hvor forfatterne oppga at studien deres støttet denne påstanden:
The self-rating column looks like it has 228 Category 1 results. There were a further 18 where 1 author rated a paper as a 1, but a second author rated it as a 2.
40) Faktisk.no skrev ikke bare at forskerne mener mennesker bidrar til klimaendringer, men også at mange forskere mener vi er viktigste årsak. Faktisk.no skriver at NASA skriver:
En rekke fagfellevurderte publiserte studier viser at 97 prosent eller mer av aktive publiserende klimaforskere er enige: Det er ekstremt sannsynlig at global oppvarming siste århundre skyldes menneskelig aktivitet.
Dette er en oversettelse av:
Multiple studies published in peer-reviewed scientific journals show that 97 percent or more of actively publishing climate scientists agree: Climate-warming trends over the past century are extremely likely due to human activities.
Kilden NASA oppgir er en studie fra 2016 med tittelen “Consensus on consensus: a synthesis of consensus estimates on human-caused global warming“. Hovedforfatter er John Cook, så jeg kaller den Cook et al. (2016). Flere av medforfatterne er i likhet med Cook forfattere av andre konsensus-studier som også diskuteres i denne studien, blant andre Naomi Oreskes, Peter Doran og William Anderegg.
NASAs påstand er en overdrivelse av hva studien sier. Cook et al. (2016) konkluderer:
We have shown that the scientific consensus on [Anthropogenic Global Warming] is robust, with a range of 90%–100% depending on the exact question, timing and sampling methodology.
Dette er heller ikke helt nøyaktig. Studien definerer konsensus:
The consensus position is articulated by the Intergovernmental Panel on Climate Change (IPCC) statement that ‘human influence has been the dominant cause of the observed warming since the mid-20th century'[.]
Men Cook et al. (2016) har også oppgitt “definition of consensus” for de ulike studiene, og for flere av studiene samsvarer ikke konsensus-definisjonen med IPCCs definisjon. Vi har allerede sett at Cook et al. (2013) ikke bruker IPCCs definisjon. For Doran and Zimmerman (2009) er konsensus-definisjonen “Human activity is a significant contributing factor in changing mean global temperatures”. For Stenhouse et al. (2014) er konsensus-definisjonen “Humans are a contributing cause of global warming over the past 150 years”. For Carlton et al. (2015) var spørsmålet “Do you think human activity is a significant contributing factor in changing mean global temperatures?”
For hver studie hvor det var mulig har Cook et al. (2016) oppgitt tall både for alle “spurte” (eller lignende) og for publiserende klimaforskere (et sub-sett av “alle”). Dette viser at blant forskere med mange publikasjoner innen klima-vitenskap er det flere som støtter konsensus-definisjonen enn blant andre forskere:
Dette kan nok — i hvert fall til en viss grad — skyldes at det har vært uforholdsmessig vanskelig for skeptikere å få publisert i vitenskapelige klima-tidsskrifter.
I bildet over er “C13” Cook et al. (2013), “DZ1”, “DZ2” og “DZ3” er Doran and Zimmermann (2009), “S141”, “S142” og “S143” er Stenhouse et al. (2014), og “C151” og “C152” er Carlton et al. (2015). Alle disse hadde altså en svakere konsensus-definisjon enn IPCC. “A10200” er et subsett av Anderegg et al. (2010) — de 200 forfatterne som hadde publisert flest klimarelaterte artikler (det var 1372 spurte totalt). Konsensus-resultatet for alle spurte (som var 66%) er ikke plottet inn, og det er også andre studier som ikke er plottet inn.
41) Faktisk.no skriver:
En spørreundersøkelse fra 2016 blant 1868 vitenskapsmenn viste at det blant de med med minst ti fagfellevurderte vitenskapelige publiseringer er 90 prosents enighet om at menneskeskapte klimagassutslipp er den viktigste driveren for klimaendringene.
De linker til en studie av Verheggen med flere, hvor John Cook er en av medforfatterne. Studien har tittelen “Scientists’ Views about Attribution of Global Warming“. Studien har publiseringsdato 22 juli 2014, og spørreundersøkelsen ble ifølge studien gjennomført i 2012 (ikke 2016).
Hvis man vil finne hvor mange forskere som mener mennesker er hovedårsak til global oppvarming, er dette en mye bedre studie enn Cook et al. (2013).
Verheggen et al. (2014) sendte en spørreundersøkelse med 35 spørsmål til 7555 forskere — de mottok svar fra 1868 av dem. Spørsmål 1 var “What fraction of global warming since the mid-20th century can be attributed to human-induced increases in atmospheric [greenhouse gas] concentrations?” Svarene fordelte seg som følger (blå punkter viser prosentandelene for alle 1868 som svarte):
Det var 66 % av de 1868 som svarte på spørreundersøkelsen som mente menneskenes bidrag til global oppvarming som følge av utslipp av drivhusgasser var mer enn 50 %. Men det var ganske mange som mente spørsmålet var vanskelig å svare på. Av de som ga et kvantitativt svar var andelen 84 %.
Første del av spørsmål 3 lignet på spørsmål 1, men svar-alternativene var mer kvalitative enn kvantitative: “How would you characterize the contribution of the following factors to the reported global warming of ~0.8 °C since preindustrial times: [greenhouse gases], aerosols, land use, sun, internal variability, spurious warming?” Første del av spørsmål 3 gikk altså på drivhusgasser, og svarene fordelte seg slik (dessverre viser ikke figuren prosentandelene for alle 1868 som svarte, men siden de fire kategoriene er omtrent like store, vil et enkelt gjennomsnitt gi en god tilnærming):
Det var vesentlig færre som svarte at de ikke visste på dette spørsmålet enn på spørsmål 1.
De som svarte “Strong warming” anses naturlig nok å støtte konsensus-definisjonen at menneskelige utslipp av drivhusgasser har bidratt til mesteparten av temperatur-økningen siden 1950. Verheggen et al. (2014) har vurdert at noen av de som valgte “Moderate warming” også støtter konsensus-definisjonen — de som ikke hadde valgt “Strong warming” på noen av del-spørsmålene for spørsmål 3 — noe som ikke virker urimelig, men som samtidig ikke er helt åpenbart at er greit.
Uansett fant de på denne måten at 83 % av de 1868 som svarte på undersøkelsen støttet konsensus-definisjonen, eller 86 % av de som ikke var undetermined.
Tallet faktisk.no har brukt kommer frem på følgende måte:
Excluding undetermined answers, 90% of respondents, with more than 10 self-declared climate-related peer-reviewed publications, agreed with dominant anthropogenic causation for recent global warming. This amounts to just under half of all respondents.
Igjen er jeg litt skeptisk til at det fokuseres så mye på de som har publisert flest studier siden det altså har vært uforholdsmessig vanskelig for skeptikere å få publisert i den fagfelle-vurderte litteraturen. En positiv ting med denne studien er at de har inkludert noen skeptikere som bare har publisert ting utenom fagfellevurderte tidsskrifter (“gray literature”).
Selv om Verheggen et al. (2014) på mange måter ser ut til å være en god studie, har de misrepresentert resultatet fra andre studier. De skriver:
However, Oreskes, Anderegg et al., and Cook et al. reported a 97% agreement about human-induced warming, from the peer-reviewed literature and their sample of actively publishing climate scientists […]. Literature surveys, generally, find a stronger consensus than opinion surveys. This is related to the stronger consensus among often-published — and arguably the most expert — climate scientists.
Men som vi har sett, hadde Cook et al. (2013) en helt annen konsensus-definisjon enn Verheggen et al. (2014). Mens konsensus-definisjonen i Verheggen et al. (2014) gikk på menneskelig aktivitet som hovedårsak, var konsensus-definisjonen bare på at mennesker bidrar til global oppvarming i Cook et al. (2013).
Senere skriver de riktignok:
Different surveys typically use slightly different criteria to determine their survey sample and to define the consensus position, hampering a direct comparison. It is possible that our definition of “agreement” sets a higher standard than, for example […] Doran and Kendall-Zimmermann’s survey question about whether human activity is “a significant contributing factor”.
Det er ikke bare mulig, det er helt sikkert.
42) Riktignok er gjerne IPCCs sammendrag (Summary For Policymakers), mer alarmistiske enn rapportene de sammenfatter. Richard Tol, en nederlandsk økonom som har bidratt mye til IPCCs rapporter, har sagt følgende om kapittelet han var convening lead author for i IPCCs forrige hovedrapport:
That [many of the more dramatic impacts of climate change are really symptoms of mismanagement and poverty and can be controlled if we had better governance and more development] was actually the key message of the first draft of the Summary for Policymakers. Later drafts … and the problem of course is that the IPCC is partly a scientific organisation and partly a political organisation and as a political organisation, its job is to justify greenhouse gas emission reduction. And this message does not justify greenhouse gas emission reduction. So that message was shifted from what I think is a relatively accurate assessment of recent developments in literature, to the traditional doom and gloom, the Four Horsemen of the Apocalypse and they were all there in the headlines; Pestilence, Death, Famine and War were all there. And the IPCC shifted its Summary for Policymakers towards the traditional doom and gloom [message].
43) Climate Feedback, en fakta-sjekker for Facebook, har kritisert Shellenbergers artikkel. Shellenberger har svart, og Mallen Baker har kommentert konflikten på YouTube.
The gate-keeping by elite journals has gotten worse [in my opinion], although the profusion of new journals makes it possible for anyone to get pretty much anything published somewhere.
Hun nevner også to andre ting som har blitt verre de siste årene:
- Politically correct and ‘woke’ universities have become hostile places for climate scientists that are not sufficiently ‘politically correct’
- Professional societies have damaged their integrity by publishing policy statements advocating emissions reductions and marginalizing research that is not consistent with the ‘party line’
- Oppdatert 19. nov 2020. Endret tekst om “hide the decline”, presiserer nå (som i engelsk versjon) at nedgangen er i trering-tykkelse, ikke temperatur. Endringen er markert med class=”updated_v3″ i kildekoden. Fjernet også “bak betalingsmur” for Sherwood et al (2020), siden den studien ikke lenger er bak betalingsmur.
- Oppdatert 8. nov 2020. Vesentlige endringer er markert med class=”updated_v2″ i kildekoden. Forrige versjon er arkivert av Wayback Machine her.
Veldig bra. Nesten som en kriminal fortelling! Kanskje en ide å dele opp i flere mindre deler, om du skal ha det som en blog? .Synes det ligner et utkast til en bok. Kjekt med alle referansene, som forteller om et grundig arbeid. Liker også at du klarer å holde en nøktern tone, alt for mange som ikke klarer det på begge sider av troen på Klimadomedag..
Godt jobbet og skrevet.
Kanskje litt langt for folk flest.
Det hele er kun politikk, null og Nada vitenskap.
Fikk ikke helt med meg at du hadde med at denne hockey stick kurven er erklært som som vitenskapelig bløff i Canadisk domstol i August 2019. Du kan få en kopi av domsprotokollen om du ikke har.
Norsk media.
I forbindelse med vedtaket om agenda 2030 i 2015 er det også en føring for media. Media sensur i form av og ikke skrive noe negativt, kun menneskeskapt klimaendringer.
Som sagt, kun politikk ikke noe annet.
Takk for god tilbakemelding!
Send meg gjerne protokollen! Kan sendes til haakonsk@gmail.com 🙂
Nå er jeg redd for at det er du som bløffer. Hvis det er saken mellom Ball og Mann du viser til så har ingen domstol foreløpig avsagt noen dom om kvaliteten på MBH99, i så fall gi en link.
Ser ut som det var bløff, ja. Mottok aldri noen e-post.
Fantastisk god artikkel.
Jeg savner et kapittel om at det ikke finnes noe bevis for at det er ingen bevis for at utslipp av den livsviktige plantenæringen CO2 bidrar til målbare virkninger på global temperatur eller klimaendringer. Det hele er en hypotese som blir forsøkt verifisert med modeller, men modellene feiler.
Se mer her:
https://www.klimarealistene.com/2020/01/24/ingen-bevis-for-malbare-co2-bidrag/
CSIRO har heller ingen bevis. Viser til Marcott 2013 som selv sier at hans forskning ikke kan tas til inntekt for menneskeskapt global oppvarming.
https://wattsupwiththat.com/2020/09/01/watch-an-aussie-politician-squirm-as-malcolm-roberts-demands-evidence-climate-change-is-a-problem/
Detter har du nevnt.
Drivhuseffekten varmer ikke havet. All målbar global oppvarming de siste 200 år kan forklares med solvariasjon inkludert indirekte effekter fra havstrømmer og skydekke, mens utslipp av CO2 fra forbruk av fossil energi ikke har noen målbar virkning.
https://www.klimarealistene.com/2020/05/15/drivhuseffekten-varmer-ikke-havet/
Petter; hvordan kan du hevde at tilbakestrålingen fra atmosfæren ikke varmer havet, eller rettere; gjør havet varmere enn om denne tilbakestrålingen ikke fantes? At IR stråling – i motsetning til synlig lys – ikke trenger mer enn noen micron ned i havet er jo ikke noe argument. Synlig sollys trenger jo ikke mer enn noen micron ned i takpappen på et hus heller, varmer ikke solen dette huset? All energiutveksling mellom hav og atmosfære foregår i prinsippet i det såkalte skin layer. Mekanismene vil være forskjellige avhengig av værforholdene, det er ulike mekanismer langs ekvator ved svartstille hav og dampmettet atmosfære, enn i Nordishavet ved full storm. Men den eneste måte havet kan kvitte seg med varmen på er via overflaten, og 28C varmt vann sender ut masse IR stråling og det skjer nettopp i dette skin layer i overgangen mellom hav og atmosfære. Hvis da atmosfæren samtidig sender ned 375 W/m2 mot havoverflaten vil dette redusere havets evne til nedkjøling. Hvor blir det ellers av denne energien?
Hei, jeg har lest fram til Klimasensitivitet og har begynt å bli skeptisk. Du sier økt CO2 i atmosfæren, fører til økt temperatur.
Jeg har alltid lært at først øker temperaturen, deretter noen hundre år senere øker CO2 nivået fordi havet slipper ut CO2.
Hvis det du sier er riktig, hvorfor har temperaturen vært stabil eller også sunket siden 1998, samtidig som CO2 nivået har økt?
Det kan godt hende du har rett. Jeg kjenner ikke den forskningen godt nok til å kunne vite det.
Har du noen gode linker du vil anbefale?
Hvordan kan du hevde at temperaturene har vært stabile eller har sunket etter år 2000? Samtlige serier, inkludert satellittmålingene, viser en viss utflating fra ca. 1999 til 2012, deretter en markant oppgang, vi kan jo begynne med den måleserien som viser lavest temperaturstigning, Spencers UAH:
https://www.drroyspencer.com/wp-content/uploads/UAH_LT_1979_thru_August_2020_v6.jpg
Som det fremkommer holdt den røde linjen ( 13 måneders løpende sentrert gjennomsnitt) seg stort sett under normalen (normalperioden hos Spencer er 1981 – 2010) frem til den sterke El Ninoen i 1998. Deretter har den stort sett lagt over og 13 måneders gjennomsnittet har ikke lagt under normalen siden 2011. Særlig de siste årene har temperaturstigningen vært markant, det er fire år siden siste kraftige El Nino, likevel måtte Spencer for et par måneder siden oppjustere den dekadale trenden fra 0,13 til 0,14.
For det første; omfattende målinger av havkjemien viser at CO2 mengden i havet øker og det i hele vannsøylen. Økningen av CO2 mengden i atmosfæren kan da ikke komme fra havet, den økningen kommer i all hovedsak fra vår brenning av fossil energi der en god del blir lagret i havet.
Og temperaturene har absolutt steget de siste 20 årene, samtlige måleserier viser dette, jeg limer inn den serien som viser minst oppvarming, UAH målingene til Roy Spencer:
https://www.drroyspencer.com/wp-content/uploads/UAH_LT_1979_thru_August_2020_v6.jpg