[Mitautor von Doug Goodman. Goodman schloss 1972 sein Studium an der United States Air Force Academy mit den Hauptfächern Physik und Atmosphärenphysik ab. Sein Berufsleben begann als Wetteroffizier im Defense Meteorological Satellite Program und entwickelte sich später zu einer Karriere in der Luft- und Raumfahrtindustrie, wo er Fernerkundungs- und Hochleistungs-Supercomputing-Systeme entwickelte.]
Executive Order 14057 rechtfertigt die Entscheidung des Verteidigungsministeriums (DOD) Planen die Treibhausgasemissionen soweit wie nötig zu reduzieren, um der existenziellen Bedrohung durch den Klimawandel entgegenzuwirken. Die umfassende und unerschwinglich teure Initiative des Programms schlägt vor, das operative Militär umzugestalten, indem bis 2045 Netto-COXNUMX-Emissionen von Null erreicht werden, angeblich auf der Grundlage fest etablierter „wissenschaftlich fundierter“ Ziele, die durch Computermodelle und Konsens innerhalb der wissenschaftlichen Gemeinschaft validiert werden. Die ehrgeizigen, aber unrealistischen Ziele des Plans, die als alarmierendes Ultimatum dargestellt werden, ignorieren die Grundprinzipien der Physik und kampferprobte Lehren der Militärgeschichte.
Der Plan legt Emissionsziele fest, indem er „die Übereinstimmung mit dem Umfang der Reduzierungen festlegt, die erforderlich sind, um die globale Erwärmung auf unter 2 °C über den vorindustriellen Temperaturen zu begrenzen und Anstrengungen zu unternehmen, um die Erwärmung auf 1.5 °C zu begrenzen“. Diese Emissionsreduktionsziele stammen direkt aus dem Netto-Null-Pariser Klimaabkommen des Zwischenstaatlichen Gremiums für Klimaänderungen (IPCC).
Die IPCC ist keine wissenschaftsbasierte Organisation, die ihre eigene Forschung betreibt, sondern vielmehr eine staatliche politische Organisation, deren Mitglieder Länder und keine Wissenschaftler sind und deren Vertreter Bürokraten sind, die internationale Klimapolitik entwickeln und fördern. Das IPCC fördert und filtert klimawissenschaftliche Forschung von externen Organisationen, um seine Hauptcharta zur Ermittlung der vom Menschen verursachten Ursachen und Einflüsse auf den Klimawandel zu unterstützen.
Das Narrativ, dass sich das Klima der Erde am Rande einer Katastrophe befindet und die Auszeichnung als nationale Sicherheitspriorität verdient, wird der Öffentlichkeit ständig in vertrauten, apokalyptischen Begriffen präsentiert. Präsident Biden warnt davor, dass die globale Erwärmung die größte Bedrohung für die nationale Sicherheit darstellt. DOD-Sekretär Lloyd Austin warnt die Öffentlichkeit vor existenziellen Klimabedrohungen, einschließlich eines eisfreien Arktischen Ozeans, ab Januar 2023 jedoch auch des Arktischen Meeres Eisbeutel ist auf dem höchsten Stand seit 2003.
Die COMING und hochrangige Beamte der Marineblau, Armee und Air Force verkünden, dass es die Pflicht der Streitkräfte ist, unverzüglich Netto-Null umzusetzen, um eine weltweite Katastrophe abzuwenden. Trotz der unaufhörlichen Panikmache scheint niemand innezuhalten und zu bedenken, dass das Verteidigungsministerium nur produziert 1% der CO2-Emissionen der Vereinigten Staaten, die wiederum dafür verantwortlich sind 13% der weltweiten Gesamtmenge. Selbst wenn das Verteidigungsministerium den Netto-Nullpunkt erreicht, würde die Eliminierung von 0.13 % des weltweiten CO2-Ausstoßes die globalen Temperaturen nicht nachweisbar senken.
Die McKinsey-Bericht beschreibt die enormen Kosten und Störungen für die Gesellschaft, um Netto-Null zu erreichen, und räumt ein, dass es nur eine gleichmäßige Chance gibt, die Erwärmung auf 1.5 °C zu begrenzen, und dass es alles andere als sicher ist, ob die Welt in der Lage sein wird, den Temperaturanstieg auf diesem Niveau zu halten. Der Übergang wird eine grundlegende Veränderung der Weltwirtschaft erfordern und in den nächsten 6 Jahren schätzungsweise 30 Billionen US-Dollar pro Jahr kosten. Dies entspricht 11,000 US-Dollar pro Jahr für jeden Amerikaner bis 2050, ein Ergebnis, das nicht garantiert werden kann.
Der größte Teil der Opfer wird aus der Dritten Welt kommen, wo 1/3-1/2 des BIP erforderlich sein wird, um Netto-Null zu erreichen, allerdings mit dem weiteren Preis, dass Millionen getötet werden und weitere Millionen in extreme Armut und Hunger stürzen. Björn Lomborg warnt davor, dass eine Lösung ohne fossile Brennstoffe teuer ist, zu Elend und Verarmung des Planeten führt und den Temperaturanstieg nicht nennenswert abmildern wird.
Die übereilte Entwicklung hin zu Netto-Null hat einen unerschwinglichen Preis, und ihre Anhänger hecken Weltuntergangsszenarien aus, die Massenopfer fordern und veredeln. Die Darstellung einer Welt, die aufgrund der Auswirkungen fossiler Brennstoffe in einem völligen Umweltkollaps steckt, fördert ein Thema, das Panik auslösen soll. Das Verteidigungsministerium beschönigt widrige Wetter- und Umweltereignisse, versäumt es jedoch, sie in einen Kontext zu stellen oder gegensätzliche Interpretationen zu liefern. Das Ausmaß und die Geschichte von Gletscherrückgang, Anstieg des Meeresspiegels, Wüstenbildung, Waldbränden, Hitzewellen, Tod durch Hitze im Gegensatz zu Kälte, Hurrikanen und Tornados werden übertrieben und in emotionalen Begriffen dargestellt, um drastische Maßnahmen zu legitimieren.
Diese Behauptungen wurden untersucht umfassend unter Verwendung der Daten der National Oceanic and Atmospheric Association (NOAA) und des IPCC und widerlegen Die Hypothese, dass es eine Klimakrise gibt, basiert auf diesen Kriterien. Die Zahl und Intensität schwerer Klimaereignisse ist zurückgegangen, und für die auftretenden Ereignisse fehlen armen Ländern gleichzeitig die Ressourcen, um mit Naturkatastrophen umzugehen wohlhabender Gesellschaften sind in der Lage, strukturelle Schäden und menschliche Verletzungen besser einzudämmen.
Computermodellierung, ein nützliches Werkzeug zur Konzeptualisierung, bildet das Herzstück der Klimawissenschaft. Die Technik ist jedoch nicht in der Lage, Hypothesen zu beweisen und war seit ihrer Einführung äußerst ungenau. Die Klimawissenschaft ist ein komplexes Thema interagierender Variablen, die über Zeitzyklen wirken, die sich von den Tiefen der Ozeane bis zur oberen Stratosphäre um Größenordnungen unterscheiden und wiederum von diesen beeinflusst werden Orbitalmechanik und Sonnenstörungen. Die Authentizität bodengestützter Temperaturmessungen, die Sinn und Zweck von Klimaaktivisten, alarmiert die grundlegendsten Einschätzungen des IPCC, da die Unterschätzung des Wärmeinseleffekts möglicherweise zutrifft verzerren die Temperaturanomaliedaten um bis zu 40 %.
Das Hauptproblem bei Computermodellen ist die Auflösung und Mittelung, die erforderlich sind, um die Modelle berechenbar zu machen. Die Atmosphäre ist in Volumina mit horizontalen Gitterlängen von mehreren zehn Kilometern unterteilt, innerhalb derer Parameter wie Temperatur, Druck und Dichte gemittelt werden, um das gesamte Volumen darzustellen. Diese Zellen werden mit analysiert Navier-Stokes numerische Programme zur Modellierung der resultierenden Flüssigkeitsströmung. Atmosphärische Prozesse wie Wolkenphysik und Turbulenzen treten in Maßstäben auf, die weit unter der Auflösung dieser Zellen liegen, was Modellierer dazu zwingt, die Werte und Auswirkungen dieser Prozesse abzuschätzen. Diese Vermutungen sprechen ausnahmslos für die globale Erwärmung und die schädlichen Auswirkungen von CO2.
Da Datenerfassungspunkte selten mit den für die numerischen Modelle erforderlichen Rasterpunkten übereinstimmen, bestehen Abweichungen von Hunderten von Kilometern, die Modellierer homogenisieren, damit die Daten in das Raster passen. Dies führt zu Fehlanpassungen und Manipulationen der realen Daten. Computermodelle sind von Natur aus instabil und weichen von der physikalischen Realität ab. Bei Entfernungen unterhalb der Gitterskala vervielfachen sich die Störungen und es entsteht ein Schmetterlingseffekt. Modellierer sind gezwungen, die Anfangsbedingungen ständig neu auszurichten oder zurückzusetzen, wodurch die Abweichungen maskiert werden und die Illusion entsteht, dass die Modelle die beobachteten Bedingungen genau vorhersagen.
Beamte des Verteidigungsministeriums verteidigen mit dieser Behauptung die Netto-Null-Verteidigungspriorisierung wissenschaftlicher Konsens und Schein-Peer-Review-Studien bestätigen diese Behauptung. Peer-Review ist zu einem Prozess verkommen, der eine Regression zum Mittelwert begünstigt, und ist zu einer Form des Konsenses geworden. Die ursprüngliche 97-prozentige Konsensbehauptung von Cook aus dem Jahr 2013, dass der Mensch die Hauptursache für die globale Erwärmung ist, die zu katastrophalen Klimaereignissen führen wird, ist weit verbreitet diskreditiert. Forscher weisen darauf hin, dass die Zahl eher bei 1.6 % liegt, aber die ursprüngliche, unzutreffende Behauptung eines nahezu universellen Konsenses, die von Barack Obama und John Kerry aufgestellt wurde, bleibt eine beliebte Technik von Politikern, um Ideologie in die Wissenschaft zu bringen.
Johann Clauser gewann den Nobelpreis für Physik für seine Arbeit zur Teilchenverschränkung und dient als Beispiel dafür, dass die angesehensten und kompetentesten Wissenschaftler nicht vor Vorwürfen gefeit sind, wenn sie das Narrativ des Klimawandels in Frage stellen. Dr. Clauser erklärte öffentlich, dass dies der Fall sei kein Klimanotstand und die gefährliche Korruption der Wissenschaft bedroht die Weltwirtschaft und das Wohlergehen von Milliarden Menschen. Mainstream-Medien verbündeten sich erwartungsgemäß mit klimawissenschaftlichem Aktivismus marginalisiert der angesehene Physiker mit ad hominem Angriffe und schlussfolgerten, dass nur echte Klimawissenschaftler wie Dr. Michael Mann, der Urheber der weithin entlarvten Hockeyschläger-förmiges Temperaturbeschleunigungsprofil, sind qualifiziert, zu diesem Thema zu sprechen.
Der Plan des Verteidigungsministeriums zur Reduzierung der Treibhausgasemissionen erwähnt nicht die stabilisierenden Vorteile steigender atmosphärischer CO2-Konzentrationen in Bezug auf die Lebensmittelproduktion oder die schwache Korrelation zwischen Temperatur und CO2-Gehalt in den letzten 570 Millionen Jahren. In den letzten 20 Jahren ist die weltweite Biomasse um 40 % gestiegen, und CO2 ist für 70 % dieses Nutzens verantwortlich. Einige der instabilsten Regionen der Welt haben ein gewisses Maß an Ernährungssicherheit erreicht, da sich die üppige Pflanzenwelt umgekehrt hat Desertifikation. Während Trockenstress Sowohl C3- als auch C4-Pflanzen benötigen bei erhöhten CO2-Werten weniger Wasser, was teilweise für die robuste globale Getreideproduktion von Grundnahrungsmitteln verantwortlich ist, da sich die Erde nur geringfügig erwärmt hat. Die Erhöhung der wirtschaftlichen Stabilität ansonsten volatiler Dritte-Welt-Länder verschafft den Vereinigten Staaten einen militärischen Vorteil.
Die Festlegung langfristiger nationaler Verteidigungsprioritäten auf der Ideologie des Klimawandels stellt dies in Frage Integrität von Militärführern, die Entscheidungen treffen, die gegen die historischen Lehren der Militärwissenschaft verstoßen – eine Nation muss ihren Zugang zu natürlichen Ressourcen optimieren, Kriegspläne entwickeln, die Flexibilität und maximale Machtprojektion ermöglichen, und zu dem Schluss kommen, dass sich ihre Feinde nicht um Kohlenstoff kümmern werden Spuren, wenn es darum geht, einen großen militärischen Konflikt zu überleben und zu gewinnen.
Kein Befehlshaber informiert potenzielle Feinde absichtlich darüber, dass die Streitkräfte jahrzehntelang auf bestimmte, unerprobte Technologien und ungetestete Einsatzstrategien beschränkt sein werden, die ausschließlich zur Einhaltung des Klimawandel-Dogmas entwickelt wurden. Zukünftige und gegenwärtige Gegner unterliegen keinen derartigen Zwängen und werden ihre Ressourcen entsprechend den besten Erfolgsaussichten einsetzen. Die Elektrifizierung der Streitkräfte erfordert einen einfachen Zugang zu einer Fülle von Seltenerdmetalle die in China und Russland lokalisiert und abgebaut werden. Unser Mangel an diesen natürlichen Ressourcen verschärft strategische Schwachstellen. Die Effizienz von Batterien, die ein Netto-Null-Militär antreiben wird, fällt bei kalten Temperaturen steil ab – dem rauen Klima, das in Ländern herrscht, die jetzt unsere wichtigsten militärischen und wirtschaftlichen Rivalen sind.
Die Annahme des Verteidigungsministeriums, dass der Klimawandel hauptsächlich durch die atmosphärische CO2-Konzentration verursacht wird, widerspricht den Gesetzen der Physik, die von einigen der größten Köpfe auf diesem Gebiet beschrieben wurden. In 1900 Max Planck, der Begründer der Quantenmechanik, beschrieb die Beziehung zwischen dem elektromagnetischen Strahlungsfluss und seinem Frequenzspektrum. Diese Entdeckung zeigte, dass ohne Treibhausgase der gesamte in den Weltraum abgegebene Infrarotenergiefluss (IR) 394 Watt pro Quadratmeter (W/m) betragen würde2).
In 1915 Karl Schwarzkind, der als erster eine analytische Lösung für Einsteins Allgemeine Relativitätstheorie fand, entwickelte die Gleichungen für den atmosphärischen Strahlungsenergietransfer, die es Wissenschaftlern ermöglichten, den tatsächlichen IR-Energiefluss in den Weltraum in Gegenwart der Treibhausgase H20, N2O, CO2 und CH4 zu berechnen . Der Unterschied zwischen dem Energieabfluss zwischen Plancks theoretischem Zustand ohne Atmosphäre (394 W/m2) und der tatsächliche Fall der Treibhausgasemissionen (277 W/m).2), entspricht der von diesen Gasen absorbierten Energiemenge (117 W/m).2) und beschreibt das Energiegleichgewicht der Erde zwischen der einfallenden Sonnenstrahlung und der von der Erde ausgehenden Infrarotstrahlung – das Grundprinzip der globalen Erwärmung.
In jüngerer Zeit, Dr. William Happer, emeritierter Professor für Physik an der Princeton University und einer der weltweit führenden Experten für atmosphärische Strahlungsenergieübertragung, baute auf diesen Theorien auf, um die Strahlungseigenschaften der globalen Erwärmung zu quantifizieren. Er zeigte, dass die CO2-Konzentration beim aktuellen Niveau von 400 Teilen pro Million (ppm) für 30 W/m verantwortlich ist2 oder 26 % der gesamten Treibhausgasabsorption.
Es besteht ein weitverbreiteter Irrglaube, dass große Veränderungen des atmosphärischen CO2 zwangsläufig zu ähnlich großen Veränderungen des Treibhauseffekts führen. Das IPCC behauptet, dass eine Verdoppelung der atmosphärischen CO2-Konzentration von 400 auf 800 ppm bis zum Ende des Jahrhunderts zu einer katastrophalen globalen Erwärmung führen wird. Dr. Happer unterzog diese Behauptung einer wissenschaftlichen Strenge, indem er die berechnete CO2-Sättigungseffekt und fanden heraus, dass diese Verdoppelung der CO2-Konzentration zu dürftigen 3 W/m führt2 Erhöhung der ausgehenden IR-Absorption. Dieser Anstieg der Absorption um 1 % führt zu einem Temperaturanstieg von 0.71 °C – viermal niedriger als der vom IPCC vorhergesagte Wert.
Die Anwendung von Strahlungsübertragungsmethoden lässt Zweifel an der Behauptung aufkommen, dass CO2 seit der vorindustriellen Zeit die Hauptursache für die beobachtete globale Erwärmung um 1 °C gewesen sei. Diese IPCC-Hypothese besagt, dass CO2 ausgehende IR-Strahlung mit einem Wert von 5.4 (W/m) absorbieren muss2). Happers Berechnungen deuten jedoch auf eine CO2-Absorptionsstärke von lediglich 2.2 (W/m²) hin2) im gleichen Zeitraum. Das IPCC gleicht diese 2.5-fache thermodynamische Diskrepanz aus, indem es unwissenschaftlich nachgewiesene positive Rückkopplungsmechanismen einführt, die wenig mit den atmosphärischen CO2-Konzentrationen zu tun haben.
Die Ausbeutung von positiven Rückkopplungsmechanismen ist eine gängige Taktik der Klimabewegung und widerspricht der Vorrangstellung schützender, negativer Rückkopplungsschleifen, wie sie von beschrieben wird Das Prinzip von Le Chatalier– Wenn ein dynamisches Gleichgewicht durch eine Änderung der Bedingungen gestört wird, verschiebt sich die Lage des Gleichgewichts, um der Änderung entgegenzuwirken und ein Gleichgewicht wiederherzustellen.
Die Fixierung des IPCC auf CO2 als zentrales Element des katastrophalen Untergangs der Erde führt zu fehlerhaften Vereinfachungen und inspiriert, wie im Fall des Klimaplans des Verteidigungsministeriums, zu institutionellen Transformationen, die zum Scheitern verurteilt sind und mit übermäßigen Kosten und Störungen einhergehen. Das IPCC lehnt natürliche Ursachen für eine moderate globale Erwärmung ab, darunter Wasser in seinen gasförmigen, flüssigen und festen Zuständen. In seiner gasförmigen Form ist Wasserdampf im Wesentlichen das stärkste Treibhausgas und übertrifft die Absorption der von der Erde ausgehenden Strahlung durch CO2 bei weitem. In Form von Eis und Wolken reflektiert es mehr als 30 % der einfallenden Sonnenstrahlung, was Hunderten von W/m entspricht2.
Im Gegensatz zu CO2, das sich gleichmäßig in der globalen Atmosphäre verteilt, verteilt sich H2O ständig neu und ändert seinen Zustand in mikrophysikalischen Prozessen, die nicht gut verstanden und nur sehr schwer zu simulieren sind. Der Irrtum und die Ungewissheit über den Beitrag von Wasser zum Energiehaushalt der Erde stellen alle vom IPCC propagierten und vom Verteidigungsministerium blind akzeptierten CO2-Effekte in den Schatten.
Tugendhafte Klimaforscher und ihre pflichtbewussten DOD-Schüler, die echte Wissenschaft ignorieren und eine Politik verfolgen, die Gesellschaften verarmen lässt, ohne dass ein nachgewiesener Nutzen vorliegt, werden von den größten Physikern der Geschichte entlarvt und zurückgewiesen, deren zeitlose Weisheit und Einsichten schwachsinnige Förderer offenbaren, die die Wissenschaft kapern der Name der Politik.
Veröffentlicht unter a Creative Commons Namensnennung 4.0 Internationale Lizenz
Für Nachdrucke setzen Sie bitte den kanonischen Link wieder auf das Original zurück Brownstone-Institut Artikel und Autor.