Umfragen: Die einen sagen so – die anderen so!

Zugegeben, den größten Teil dieser schönen Schlagzeile habe ich von Henryk M. Broder auf ACHGUT geklaut. Und der entnahm sie vermutlich einem uralten, etwas delikatem Witz[1]. Doch uns beiden fiel wohl gleichzeitig einige Berichte über Umfragen auf, die zum Nachdenken Anlass geben.

Bei Broder liest sich das so:

Von Henryk.M. Broder.

äußerst oder sehr wichtig“ für ihre Wahlentscheidung halten. Eine Woche später ergab eine Umfrage der Gesellschaft für Konsumforschung, dass kein anderes Thema die Deutschen so sehr umtreibt „wie die Zuwanderung und Integration von Ausländern“. Seltsam, nicht wahr? Der Unterschied könnte mit der Methodik der Umfragen zu tun haben. Während Emnid einer wie immer „repräsentativen Auswahl“ von Bügern die Frage stellte „Wie wichtig sind Ihnen für Ihre Stimmabgabe bei der Bundestagswahl die folgenden Aufgabenbereiche?“ und die Bereiche auflistete, waren bei der GfK-Umfrage keine Antworten vorgegeben. Die Teilnehmer der Umfrage konnten „frei antworten, in Worte fassen, was sie am meisten besorgt“. – So einfach kann eine Erklärung für das Unerklärliche sein. Und wie einfach es ist, das Ergebnis einer Umfrage durch die Art der Fragestellung zu manipulieren.  / Link zum Fundstück

Umfrage des Kantar Emnid Instituts, dass Klimawandel das dringendste Problem der Gegenwart ist.“

Diese Erkenntnis des jetzt Kantar Emnid Institutes wurde recht breit auch in anderen Medien und nicht nur von Funke verbreitet.

Im Einzelnen findet man im Beitrag der Morgenpost:

Danach sagen 71 Prozent der Befragten, die Veränderung des Weltklimas bereite ihnen persönlich besonders große Sorgen. 65 Prozent führen neue Kriege als beherrschende Furcht an. Bei 63 Prozent sind es Terroranschläge, 62 Prozent nennen Kriminalität, und 59 Prozent ängstigen sich vor Altersarmut. Mit einigem Abstand folgt die Zuwanderung von Flüchtlingen (45 Prozent). Arbeitslosigkeit ist mit 33 Prozent die geringste der genannten Sorgen.

Weil mir diese Reihenfolge angesichts der täglichen Berichte in allen Medien komisch vorkam, nicht nur in Bezug auf das Klima, rief ich bei Kantar Emnid an, und bat um die Nennung der Fragestellung, die dieser Umfrage zugrunde lägen.

Man beschied mich abschlägig, da diese Eigentum der Funke Mediengruppe seien, und sie nicht darüber verfügen dürften. Und auch aus mehreren Artikeln anderer Medien konnte man nirgends entnehmen, wie und was gefragt wurde. Da gab ich auf.

Aber fast zeitgleich wurde eine Studie des PEW Centers mit 1000 Befragten in Deutschland (z.B. hier) veröffentlicht, die transparenter ist, und bei welcher der Klimawandel nur auf Pos. 3 der Besorgnisse landete. Aber immerhin noch von 63 % der Befragten angegeben wurde.

Und nun die Umfrage der Gesellschaft für Konsumforschung (GFK)!

Überraschung: Darin taucht die Angst vor Klimawandel überhaupt nicht auf.

Stattdessen steht die Furcht vor Zuwanderung/Migration deren Belastung und Kosten ja gerade erst beginnen sich in unserem Alltag zu verfestigen, an prominent erster Stelle.

Warum?

Die zu beantwortende Frage lautet: „Was sind Ihrer Meinung nach die dringendsten Aufgaben, die heute in Deutschland zu lösen sind?“

Und da liegt das Thema Zuwanderung/Migration mit ca. 63 %, also Riesenabstand, weit, weit vorn.

Die Angst vor Klimawandel kommt einfach nicht vor.

Die einen sagen eben so, die anderen so.

Wobei man zu Annahme kommen könnte, dass die einen die Meinungsmacher – genannt Umfrage-Institute- sind, während die anderen, die Leute von der Straße sind, also wir!

Und es drängt sich die Frage auf: Ist die Beeinflussung der Befragten nicht auch bei anderen Umfragen gängige Praxis?

Seufz! Fragen über Fragen.

Die weise Aussage eines Staatmannes „glaube keiner Statistik die Du nicht selber gefälscht hast“ bestätigt sich eben immer wieder.

 

[1] Der Witz geht so: Fragt ein Freund den anderen: „Na, wie ist denn Deine Frau so im Bett?“ Darauf der Andere: „Die einen sagen so, die andern so!“




Der größte Teil der jüngsten Erwärmung könnte natürlichen Ursprungs sein

Der Mainstream-Klimawissenschaft zufolge ist der größte Teil der jüngsten globalen Erwärmung unsere Schuld – verursacht durch menschliche CO2-Emissionen. Diese Prämisse ist eine spekulative Theorie über die Absorption und Emission infraroter Strahlung durch Kohlendioxid, welche auf das Jahr 1896 zurückgeht. Es wird nicht bestritten, dass CO2 infrarote Strahlung absorbiert. Unsicher ist lediglich die Sensitivität des Klimas hinsichtlich steigender atmosphärischer Konzentrationen.

Diese Sensitivität wurde vor über 120 Jahren von Svante Arrhenius erheblich überschätzt. Dennoch bestehen diese Übertreibungen in den Computer-Simulationsmodellen fort, welche die moderne Klimawissenschaft unterstreichen [2]. Wir wissen es einfach nicht, teilweise weil die entscheidenden Experimente niemals durchgeführt worden sind [2].

Was ich tatsächlich habe sind Spiele-Computer, auf denen künstliche neuronale Netzwerke laufen können. Diese sind eine Form des Lernens seitens der Maschine: man denke an Big Data und künstliche Intelligenz.

Mein Kollege Dr. John Abbot hat dieses Verfahren seit über einem Jahrzehnt angewendet, um die wahrscheinliche Richtung einer bestimmten Aktie an der Börse vorherzusagen – für morgen.

Seit dem Jahr 2011 habe ich mit ihm zusammen seine gleiche Technologie zur Vorhersage von Regenmengen angewendet – für jeweils den nächsten Monat und die nächste Jahreszeit [5, 6, 7]. Und es gibt jetzt eine Reihe von Studien in internationalen Klimawissenschafts-Journalen zur Anwendung dieses Verfahrens, wobei sich zeigte, dass dieses Verfahren bessere Ergebnisse liefert als die General Circulation Models des Australian Bureau of Meteorology bzgl. der Vorhersage der monatlichen Regenmenge.

Während des vergangenen Jahres haben wir diese Arbeiten erweitert, um Modelle zu konstruieren für die Vorhersage, welche Temperaturen herrschen würden beim Fehlen menschlicher CO2-Emissionen – für mindestens 100 Jahre.

Wir dachten uns: Falls wir die jüngsten Datengewinnungs-Verfahren anwenden, um natürliche Zyklen von Erwärmung und Abkühlung nachzustellen – im Einzelnen, um die Temperaturen des 20. Jahrhunderts beim Fehlen einer industriellen Revolution vorherzusagen – dann würde die Differenz zwischen den von den Modellen vorhergesagten Temperaturprofilen und den tatsächlichen Temperaturen eine Abschätzung erlauben, welcher menschliche Beitrag durch die Industrialisierung geleistet wurde.

Zuerst analysieren wir einige der längeren Temperaturreihen: Proxy-Reihen, welche bereits in der Mainstream-Literatur der Klimawissenschaft veröffentlicht worden waren.

Diese Aufzeichnungen basieren auf Dingen wie Baumringe und Korallen-Bohrkerne, welche eine indirekte Messung von Temperaturen der Vergangenheit zulassen. Die meisten dieser Aufzeichnungen zeigen Zyklen von Erwärmung und Abkühlung mit einer Fluktuation in einer Bandbreite von etwa 2°C.

Beispielsweise gibt es viele Beweislinien, die zeigen, dass es während eines unter der Bezeichnung Mittelalterliche Warmzeit bekannten Zeitraumes in Westeuropa etwa 1 Grad wärmer war. Tatsächlich gibt es Unmengen von veröffentlichen Verfahren auf der Grundlage von Proxy-Aufzeichnungen. Sie zeigen ein relativ warmes Temperaturprofil für diesen Zeitraum [7]. Er korrespondiert mit dem Bau von Kathedralen in ganz England, und vor der Kleinen Eiszeit, als es zu kalt für die Besiedlung von Grönland war.

Ich datiere die MWP von 986, als die Wikinger sich in Südgrönland ansiedelten, bis 1234, als ein besonders kalter Winter den letzten in Deutschland wachsenden Olivenbäumen den Garaus machte. Ich datiere das Ende der Kleinen Eiszeit auf das Jahr 1826, wenn Upernavik in Nordwest-Grönland wieder unbewohnbar war – nach einem Zeitraum von 592 Jahren.

Die derzeitige Bewohnbarkeit von Upernavik korrespondiert auch mit dem Beginn des Industriezeitalters. Zum Beispiel war es am 15. September 1830, als der erste Kohle-Zug aus Manchester in Liverpool ankam: manche machen dies als den Beginn der Modernen Ära aus, gekennzeichnet durch schnelle, fossil betriebene Transporte für Massen in kurzer Zeit.

Das Ende der Kleinen Eiszeit korrespondiert also mit dem Beginn der Industrialisierung. Aber verursachte die Industrialisierung globale Erwärmung?

In unserer im GeoResJ veröffentlichten Studie stellen wir die Hypothese auf, dass ein künstliches neurales Netzwerk (ANN), angepasst an Proxy-Temperaturdaten bis zum Jahr 1830, in der Lage wären, die kombinierten Auswirkungen natürlicher Klimazyklen während des 20. Jahrhunderts vorherzusagen.

Wir analysierten sechs Proxy-Reihen aus verschiedenen Regionen, wobei hier das Komposit der Nordhemisphäre diskutiert wird. Die Temperaturreihe beginnt im Jahre 50 und endet im Jahr 2000. Abgeleitet ist sie aus Pollen, See-Sedimenten, Stalagmiten und Bohrlöchern. Typisch für derartige Proxy-Temperaturreihen ist der Zick-Zack-Verlauf innerhalb einer Bandbreite von vielleicht 0,4°C über einen kurzen Zeitraum von vielleicht 60 Jahren. Über den längeren, fast 2000 Jahre langen Zeitraum zeigt sich ein Erwärmungstrend bis etwa zum Jahr 1200, wonach es bis zum Jahr 1650 abwärts geht, um danach bis zum Jahr 1980 wieder zu steigen – um dann bis zum Jahr 2000 wieder zu sinken. Siehe in Abbildung 12 unserer neuen Studie in GeoResJ.

Abbildung 1: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) auf der Grundlage des Inputs aus der Spektralanalyse für dieses Multiproxy der Nordhemisphäre. Das ANN wurde für den Zeitraum für den Zeitraum 50 bis 1830 ausgerichtet, der Test-Zeitraum lief von 1830 bis 2000.

Die Abnahme am Ende der Aufzeichnung ist typisch für viele derartige Temperatur-Rekonstruktionen und in der technischen Literatur bekannt unter der Bezeichnung „Divergenz-Problem“. Um es klar zu sagen: während Temperaturaufzeichnungen auf der Grundlage von Thermometern und Satellitenbeobachtungen allgemein im Verlauf des 20. Jahrhunderts eine Erwärmung zeigen, zeigt die Proxy-Aufzeichnung, welche herangezogen wird, um die Temperaturänderungen der letzten 2000 Jahre zu beschreiben – ein Zeitraum, der Thermometern und Satelliten vorausgegangen war – allgemein ein Absinken ab dem Jahr 1980, zumindest für die Messpunkte auf der Nordhemisphäre, wie die Abbildung zeigt. Dies ist besonders bei Baumringen der Fall. Anstatt diesen Umstand anzusprechen sind die relevanten Klimawissenschaftler dafür bekannt, instrumentelle Temperaturreihen den Proxy-Reihen von 1980 aufzupfropfen, um buchstäblich den ;Rückgang zu verschleiern‘ [8].

Unter Verwendung der Proxy-Aufzeichnung des Komposits der Nordhemisphäre erzeugten wir eine Vorhersage für den Zeitraum von 1830 bis 2000, nachdem wir sie mittels einer Signal-Analyse zerlegt haben und dann die resultierenden Sinuswellen als Input in ein ANN verwendet hatten.

Abbildung 13 aus unserer neuen Studie im GeoResJ zeigt, wie gut die Proxy-Temperaturaufzeichnung (blaue Linie) und unsere ANN-Vorhersage (orange gestrichelte Linie) von 1880 bis 2000 zusammenpassen. Beide Linien zeigen eine allgemeine Zunahme der Temperaturen bis etwa 1980 gefolgt von einer Abnahme.

Abbildung 2: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) für eine Komponente des Testzeitraumes 1880 bis 2000.

Die mittlere Divergenz zwischen der Proxy-Temperaturaufzeichnung aus diesem Nordhemisphären-Komposit und der ANN-Projektion für diesen Zeitraum 1880 bis 2000 beträgt lediglich 0,09°C. Dies zeigt: selbst wenn es keine industrielle Revolution und die Verbrennung fossiler Treibstoffe gegeben hätte, wäre es immer noch zu einer gewissen Erwärmung im 20. Jahrhundert gekommen – mindestens bis 1980.

[Hervorhebung vom Übersetzer]

Betrachtet man die Ergebnisse aller sechs geographischen Gebiete wie in unserer Studie besprochen, zeigt der Output der ANN-Modelle, dass die Erwärmung durch natürliche Klimazyklen im Verlauf des 20. Jahrhunderts in der Größenordnung von 0,6°C bis 1°C gewesen wäre., abhängig von der geographischen Lage. Die Differenz zwischen dem Output der ANN-Modelle und der Proxy-Aufzeichnungen beträgt höchstens 0,2°C; dies war die Lage für die Studien von der Schweiz und Neuseeland. Folglich zeigen wir hiermit, dass der Beitrag der Industrialisierung zur Erwärmung während des 20. Jahrhunderts in der Größenordnung von 0,2°C gelegen hätte.

[Hervorhebung vom Übersetzer].

Die Schätzungen des IPCC schätzen die Erwärmung mit etwa 1°C, ordnen diese aber ausschließlich der Industrialisierung zu.

Das IPCC kommt mit einer sehr viel anderen Abschätzung daher, weil es im Wesentlichen die Proxy-Temperaturreihen neu modelliert, bevor sie sie vergleichen mit dem Output der General Circulation Models. Beispielsweise folgerte das IPCC im letzten Zustandsbericht:

„Auf der Nordhemisphäre war der Zeitraum von 1983 bis 2012 wahrscheinlich der wärmste 30-Jahre-Zeitraum der letzten 1400 Jahre“.

Falls wir 1400 Jahre zurückgehen, sind wir in der Periode, welche unmittelbar auf den Zerfall des Römischen Imperiums folgte und der Mittelalterlichen Warmzeit vorangegangen war. Damit leugnet das IPCC schlicht und ergreifend, dass es während der Mittelalterlichen Warmzeit mindestens so warm war wie derzeit.

Die offizielle Konsens-Wissenschaft lautet: Temperaturen der letzten 1300 Jahre sind flach verlaufen und dann nach dem Jahr 1830 und mit Sicherheit nach 1880 rasant zu steigen – ohne Abnahme im Jahr 1980.

Klar gesagt: Während die Mainstream-Klimawissenschaft angefüllt ist mit veröffentlichten Studien zu Proxy-Temperaturen, die zeigen, dass die Temperaturen zyklisch gestiegen und gefallen sind während der letzten 2000 Jahre – mit Wärmespitzen zur Mittelalterlichen Warmzeit und dann um das Jahr 1980 (Abbildung 12) – leugnen die offiziellen IPCC-Konstruktionen (welche dem Paris-Abkommen zugrunde liegen) derartige Zyklen. Auf der Grundlage dieses Leugnens können Führer innerhalb dieses ach so verehrten Gremiums behaupten, dass es etwas Ungewöhnliches hinsichtlich der gegenwärtigen Temperaturen gebe: dass wir durch die Industrialisierung eine katastrophale globale Erwärmung haben.

Link: https://wattsupwiththat.com/2017/08/23/most-of-the-recent-warming-could-be-natural/

——————————————–

Eine Studie zum gleichen Thema gibt es von H.J. Luedecke, C.O.Weiss; The Open Atmospheric Science Journal 2017, 11, 44-53. Eine Zusammenfassung davon zeigt Anhang 1. Die ausführliche Studie zeigt das PDF in Anhang 2. Die Autoren dieser Studie sind damit auch an die Autorin des obigen Beitrags herangetreten, und zwar mit dem folgenden Begleitbrief [Rückübersetzung]:

Dear Jenny

Our last paper ( attached with a summary ) comes to exactly your result. Different from your work we Fourier-analysed the 2000 year proxy data and obtain 3 dominant cycles ( known before from local studies ). The Proxy Data smoothed by 30 year running average ( definition of „climate“ ) yields the climate . This climate curve shows all historically known temperature extrema. The 3 dominant cycles alone yield the temperature increas from 1850 to 1995, as well as the present temperature plateau.

Thus there is little doubt that the influence of CO2 is minor.

Carl

Dear Jenny,

in unserer jüngsten Studie (beigefügt mit einer Summary) sind wir genau zu dem gleichen Ergebnis gekommen. Anders als Sie es gemacht haben, haben wir die 2000 Jahre alten Proxy-Daten einer Fourier-Analyse unterzogen und 3 dominante Zyklen gefunden (die durch lokale Studien schon zuvor bekannt waren). Die über 30 Jahre gleitend gemittelten Proxy-Daten (Definition von „Klima“) ergeben das Klima. Diese Klimakurve zeigt alle historisch bekannten Temperaturextreme. Die drei dominanten Zyklen allein ergeben den Temperaturanstieg von 1850 bis 1995 ebenso wie das gegenwärtige Temperaturplateau.

Folglich gibt es kaum Zweifel daran, dass der CO2-Einfluss sehr gering ist.

Anhang_1                                  Anhang_2

Übersetzt von Chris Frey EIKE




WAHLKAMPFPANIK! Stickoxide und die Daten des Umweltbundesamtes

Der Kampf gegen das Auto geht weiter. Bundesumweltministerin Hendricks mit dem sagenhaften Absturz der SPD im Nacken, legte mit einer Untersuchung des Umweltbundesamtes nach. Neue Steuerprogramme allein seien nicht genug, um den Stickoxid-Ausstoß der Fahrzeuge ausreichend zu verringern.

Am 2. August beschlossen Autohersteller und Politik beim Diesel-Gipfel bekanntlich eine Reihe von Maßnahmen, damit die Messwerte auch an den Stellen in der Stadt niedriger werden, an denen die Messstellen an einigen Tagen höhere Werte anzeigen. Drei Wochen später wissen die Fachleute im Umweltbundesamt bereits, dass diese Maßnahmen nicht ausreichen.

 

Abgasskandal durch Grenzwertwillkür?

Austauschprämie für neue Autos und ein Update der Steuersoftware nützten nichts. Hendricks fordert jetzt mit Panik vor der Bundestagswahl vor der Türe eine Nachrüstung der Fahrzeuge. Sie hat wohlweislich nicht dazu gesagt, ob zusätzliche Filter mit ihren tiefen Eingriffen in die komplizierten Motorverhältnisse technisch und finanziell möglich sind. Das dürfte vor allem in den meisten mit Technik eng vollgestopften Kleinwagen ein Ding der Unmöglichkeit sein.

Der Händlerverband klatscht freudig und plädiert vehement für eine Nachrüstung. An der verdient er am meisten. Ob die Autos später einwandfrei laufen, kann egal sein, im Zweifel verdienen die Werkstätten auch mit Nacharbeiten.

Zusätzlich schlagen die Kampftruppen der Abmahnorganisation Deutsche Umwelthilfe (DUH) in dieselbe Kerbe. Nach den PR-trächtigen Klagen unter anderem in Stuttgart will sie gegen 45 weitere Städte klagen.

»Wir fordern saubere Luft bereits im Jahr 2018 für alle 62 Städte, die aktuell die NO2-Grenzwerte um 10 Prozent oder mehr überschreiten“, sagte der DUH-Geschäftsführer Resch. Noch ist er gnädig: Die DUH gebe den zuständigen Städten und Landesbehörden die Möglichkeit, der Organisation mitzuteilen, ob sie geeignete Maßnahmen ergreifen wollen, damit 2018 in den betroffenen Städten die Stickoxid-Grenzwerte unterschritten werden. Aber wehe, droht in markigen Worten die durch nichts außer dem Willen zum Geldabzocken legitimierte NGO, »wenn die Antworten nicht zufriedenstellend ausfallen, werden wir weitere Rechtsverfahren prüfen und gegebenenfalls kurzfristig einleiten«.

 

Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit

Diese Auseinandersetzung hat mit den wirklichen Verhältnissen in den Städten nicht mehr viel zu tun. Stickoxide in den Städten sein zu hoch, sagt zwar die Bundesumweltministerin gerne immer wieder laut. Doch mit dieser Aussage steht sie im Widerspruch zu den Fakten, die das ihr unterstellte Umweltbundesamt veröffentlicht. Dessen Daten sprechen eine andere Sprache.

Sie bestätigen, was jeder auch wahrnehmen kann: Die Werte für Luftschadstoffe sind in den vergangenen knapp 30 Jahren in den Städten dramatisch gesunken. Das zeigen die Ergebnisse der Messungen, wie sie das Umweltbundesamt veröffentlicht. Das listet für jedermann gut sichtbar in nationalen Trendtabellen die Entwicklung der Emissionen seit 1990 auf, sauber nach den einzelnen Schadstoffen unterteilt. In der Tabelle für Stickstoffoxide finden wir für das Jahr 1990 bundesweit hochgerechnet noch einen Gesamtwert von 2,887 Mio Tonnen Ausstoß.

Die Kurve in der Tabelle geht nach unten, die Werte sinken seit 27 Jahren kontinuierlich. Für das Jahr 2015 liest man in der Tabelle den Wert von 1,186 Mio Tonnen pro Jahr ab. Das bedeutet: fast 40 % weniger Stickoxide in der Luft als 1990.

 

Deutsche Umwelthilfe (DUH) – Klage gegen Stuttgart

Interessant ist die Aufschlüsselung nach den einzelnen Quellen: Das verarbeitende Gewerbe nimmt einen sehr geringen Anteil ein, ebenso die Energiewirtschaft, also im wesentlichen die Kraftwerke. Hier haben sich die mit Millionaufwand eingebauten Filteranlagen bezahlt gemacht. Den größten Anteil hat naturgemäß der Verkehr. Dessen Anteil an den Stickoxiden geht am stärksten kontinuierlich zurück. Ein Ergebnis der Verbesserungen der Motorforschung und verbesserten Antriebstechnik im Automobilbau.

Halten wir fest: Die Luft in den Städten ist nach den Angaben des Umweltbundesamtes in den vergangenen 30 Jahren deutlich sauberer geworden.

Nimmt man jetzt noch die Aussagen von Fachärzten, nach denen die Stickoxid-Belastung kein Problem darstellt, bleibt die die Frage: Worüber reden wir eigentlich?

Die Frage stellt sich, was mit der aktuellen Diskussion bezweckt werden soll. Vor allem muss die Bundesumweltministerin die Frage beantworten, warum sie wieder besseres Wissen vor die Kameras tritt und falsche Behauptungen aufstellt. Die Daten, die ihr eigenes Haus veröffentlicht, sprechen eine andere Sprache als Hendricks im Wahlkampf und eine DUH, die das Geld der kleinen Leute abzockt, die den Spaß bezahlen müssen.

Es gibt nur eine Lösung: Grenzwerte wieder rauf, damit die unselige Auseinandersetzung beendet ist. Mit Fragen der Gesundheit hat sie nämlich nicht das Geringste zu tun. Die dürften einem wie Resch sonstwo vorbeigehen.

Quelle: Daten des Umweltbundesamts




Berlin – einmal fahrradfrei gedacht

Walter Fett

Weit und breit hemmen nun in Berlin Baustellen den Verkehrsfluß. Das muß nun eben sein, es muß ja (nun endlich!) überall rapariert werden. Dies hat zur Folge, daß über große Strecken hinweg der Straßenbelag ein einschränkendes Linienraster aufbemalt bekam, sortiert für fahrende wie parkende Autos, für Busse, Radfahrer und die verbleibenden Fußgänger.

Das machte offensichtlich Appetit. Denn bei dieser Gelegenheit wurde die jeweilige Nutzungskapazität neu verteilt. Wo früher zwei Autos nebeneinander herfahren und sich überholen konnten, reicht es nur noch für ein Auto. Von den mehrspurigen Fahrstraßen abgesehen ist der Verkehr streng genommen nurmehr noch einspurig möglich. Also bestimmt das langsamste Fahrzeug die nachfolgende Verkehrsgeschwindigkeit; ein stocken­des Auto – weshalb auch immer – stoppt die ganze Reihe, zumindest solange Radfahrer, (und es sollen ja so viel wie möglich werden), wenn schon nicht am Überholen, sie dann doch am Rechtsabbiegen hindern. Auch dürfen Radfahrer die Straße benutzen, selbst wenn ihnen ein eigener Radweg zur Verfügung gestellt ist. Lediglich wenn an jeder einzelnen Straßenecke auf den Radweg verwiesen ist, müßten sie ihn auch benutzen. Diese Situation ist aber selten der Fall. Und wollte man mit dem Auto den seitlichen Abstand von einem Meter einhalten, ist auch bei mittlerer Straßenbreite kein Überholen des Radfahrers möglich. Radfahrer diktieren dann den Verkehrsfluß, besser gesagt das Verkehrs-Rinnsal. Das verradfahrte Berlin – überholungs(be)frei(t)?

Das in der Berliner Zeitung (7. August 2017, S. 9) angekündigte, zunächst nur geplante Mobilitätsgesetz ist dahingehend schon ziemlich ambitioniert: Radschnellverbindungen mit eigenen Grünen Wellen werden verheißen; Radbahnen statt Autobahnen, stets breit genug zum Überholen. Fahren auch gegen den Einbahnverkehr wird gewünscht: Hat man den Sinn einer solchen Verkehrsart vergessen, weil die Enge der Straße gerademal einem Auto die Durchfahrt erlaubt? Die soll nun durch entgegenkommende Radfahrer gesperrt werden? Und schließlich sollen alle Hauptverkehrsstraßen Radverkehrsanlagen bekommen; und für den Standverkehr seien 100 000 Radstellplätze zu schaffen.

Ist das vielleicht eine unauffälligere Methode der zwangsweisen Verkehrsberuhigung? Kommt darauf an, wie man es sieht. Wenn man dann noch eine möglichst stadtweite Ausweitung der 30 km/h-Geschwindigkeitsbegrenzung draufsetzt, so besteht die „Beruhigung“ aus einer Reihe folgender Konse­quenzen, sofern kein Kraftfahrer auf seine Fahrt verzichtet (der Einfachheit halber wird ange­nommen, daß man jetzt „30“ – oder „25“ – fährt, wo man zuvor „60“ – oder „50“ – fuhr) :

* Jede Fahrt dauert doppelt so lang.

* Es sind doppelt so viele Autos gleichzeitig auf der Straße.

* Der Verkehr ist doppelt so dicht.

* Der Abstand zwischen den Autos ist nur noch halb so groß, während die Zeit für Fußgänger,    zwischen den Autos die Straße zu überqueren, aller­dings gleichbleibt.

* Die Brems- und Wiederbeschleunigungsphasen eingerechnet (be­dingt durch die Rot-Ampelphasen oder Vorfahrteinschränkungen) steigt der durch­schnittliche Ver­brauch an Benzin und insbesonders an Dieselkraftstoff.

* Die Aufwands­kosten für Fahr­personal verdoppeln sich; die Preissteigerung würde jedoch an die Kundschaft durchgereicht.

* Bis dahin ausgelastete Fuhrbetriebe müssen ihren Fuhrpark verdoppeln: Will man das – oder weiß man das nur nicht, hat also nicht zu Ende gedacht?

Es käme hoffentlich erstmal nur auf ein Experiment an. Vielleicht retten uns die dann gemachten Erfahrungen vor einer dauerhaften Durchführung. Die Strategie eines derartigen Vorgehens wurde ja bereits mit der kurzfristigen Einführung des Abbauplans der nun wirklich tsunamifernen Kernkraftwerke vorgeführt. Dafür kam das Kernkraftunglück im fernen Fokushima höchst gelegen, obwohl dort dadurch nicht ein einziges direktes Todesopfer zu beklagen war: Bei einer – lediglich! – Landtagswahl (Baden-Württemberg 2016) galt es, die Argumente der konkurierenden Partei (GRÜNE) mit einem Male zu den eigenen zu machen und dieser Partei dadurch die GRÜNE-sympathisierenden Wähler abzuluchsen; zwar nicht durch Diktatur, aber doch durch Ethikratur. Wir wissen, dass das erhoffte Übertrumpfen – oder gar Ausschalten – der GRÜNEN nicht geklappt hat; diese wurden sogar die stärkste Partei! Aber nun war ein Zurück in der Kernkraftfrage nicht mehr möglich. Man kann sich schließlich nicht zweimal hintereinander einen analogen Opportunismus leisten! Stattdessen müssen wir nun mit unermeßlich viel Geld für die Stromkosten eines jeden von uns schlichtweg nur noch durchhalten! Solch Opfern hat ja bei den Deutschen schon früher stets gewirkt. Sie lassen sich von Mißstimmungswalzen erst einmal überrollen – und bleiben dann aber in ihrem Mitläufertum verschlimmbessernd konsequent, was bei ihnen dann Treue heißt – was auch nur besser klingt als Herdentrieb.

Die von unserer Bundeskanzlerin vorgeführte Weise, mal kurzerhand die Lahmlegung der Kernkraft in Deutschland in Gang zu setzen, sollte auch im Verkehrswesen praktiziert werden dürfen. Ein Versuch (wenn auch eventuell nur so vorübergehend wie hoffentlich der mit der Kernkraftstilllegung) bestände in der Erprobung, den städtischen Radverkehr stillzulegen! Im Gegensatz zum Atomausstieg wäre das gesamtwirtschaftlich nur eine eventuell reversible Notwehrmaßnahme.

Vorschlag für solch eine Gegenwelt:

Innerhalb des städtischen Personenverkehrssystems ist jedwedes Radfahren durchgehend verboten. Um die Entwöhnung zu fördern, wäre auch die sichtbare Zurschaustellung von Fahrrädern – außer in Museen – strafbar. Da Radfahrer auch bisher bereits durch keinerlei Fahrzeugsteuer belastet waren, entstände dem Fiskus dennoch keinerlei Einnahmeverlust.

Die potentiellen Folgen sähen fast vollständig positiv aus:

Sämtliche durch die Existenz von Radfahrern bedingten Unfälle würden absolut vermieden. Dadurch würde das Gesundheitssystem entlastet. Beträchtliche Zusatzeinnahmen kämen dem öffentlichen Personenverkehr zugute. Es gäbe keine störenden und stets gefährlichen Hindernisse mehr durch Fahrradständer. Außerdem profitierte man mittels Schrottgewinnung durch die aufgegebenen Fahrräder; gefördert eventuell mit öffentlichem Prämienangebot. Auch führte es zur Platzgewinnung im bisherigen Aufbewahrungsbereich. Kein umweltstörendes Fahrradklingeln nervte mehr, kein zuvor nötiges Warnen durch die Autohupen belästigte uns mehr. Ein gesundheitsfördernder Gewinn ergibt sich durch den gesteigerten Fußgeherbetrieb. An Endstationen des Berliner Verkehrssystem wäre eine Fahrradausleihe eventuell anzudenken. Ab dort gilt dann generell eine Kennzeichnungspflicht durch Nummernbeschilderung zwecks Haftungsverfolgung: Dieses Vorgehen entspricht einer Gleichstellung mit dem Autofahrer und steigert das Verantwortungsgefühl ebenso wie die Verfolgbarkeit. Durch Entfernung der Fahrradspuren würde an Straßenbreite gewonnen, womit wieder ein allgemein zweispuriger Autoverkehr mit Überholungsmöglichkeit erzielt würde. Das führte weiterhin zu einem zügigeren Verkehrsfluß mit entsprechender Schadstoffminderung. Nicht zuletzt wäre die Einsparung an der Straßenbeschilderung und der Belagbemalung vorteilhaft. Also: lieber radfrei als ratlos!

       Unterscheidet sich ein derartiges Vorhaben denn grundsätzlich vom volkswirtschaftlich schwerwiegenden Maßnahmenkatalog der CO2-Minderung und deren angeblichen Folgen? Denn auch für eine solche CO2-verarmte Gegenwelt konnte sich noch kein Faktenscheck auf einen hinreichend positiven Erfolg berufen!

Zugegeben: Wer beim Lesen dieses Textes gewisse sokratisch-ironische Tendenzen aufzuspüren meint, liegt nicht völlig falsch. Die Möglichkeit zum Aufkommen von Ironie weist stets auf die Gegebenheit eines iritierenden Anlasses hin. Zu solchen gehört auch, dass wir gegenwärtig in einer schon zwei jahrzehntelangen Klimakonstanz gestrandet zu sein scheinen! Auch wenn derlei Wahrnehmung den Ökofanatikern in ihrer Klimawahnwelt wie Gestank im Ohr wirkte: Angesichts eines angestrebten, zumindest gern gesehenen Diskussionsverbotes sollte man wenigstens schnell noch einmal achselzuckend entgegen schmunzeln dürfen – und beim Ausspruch des Philosophen Friedrich Nietzsche – bereits aus dem Jahre 1886 – mit dem Kopfe nicken:

Sonnenkönig Asbeck: Bankrotteur und Schloßbesitzer

Der subventionierte Aufstieg

Die erste (nahezu) Pleite

 
 
Anfang des Jahres 2013 kam es fast zum Zusammenbruch von Solarworld. Jahrelange Verluste bei gleichzeitig hohen Kosten hatten die Ressourcen des Unternehmens aufgezehrt. Eigentlich hätte Asbeck schon damals Konkurs anmelden müssen, aber die grüngläubigen Aktionäre waren mit einem drastischen Kapitalschnitt (150 alte Aktien für 1 neue) einverstanden und ließen ihren Vorstandschef weiter machen. Allerdings sollte Asbecks Anteil an der Firma von 26 Prozent auf 1 Prozent sinken.
 

Asbeck wird Schlossbesitzer

 
 
 
 

Die zweite (wirkliche) Pleite
Aber der Abstieg der Firma Solarworld ging weiter. Regelmäßig überstiegen die Kosten (für Mitarbeiter und Material) die Erträge und im Frühjahr 2017 war die Kasse endgültig leer. Am 11. Mai 2017 musste Asbeck den Insolvenzantrag stellen. Seitdem herrscht bei Solarworld der Konkursverwalter Horst Piepenburg, ein erfahrener Sanierer. Rund 2.600 Beschäftigte im sächsischen Freiberg und im thüringischen Arnstadt fürchten um ihren Lohn, zuzüglich einiger Hundertschaften in Hillboro, Oregon.
 
Die Gründe für den Niedergang sind eindeutig: Solarworld hat zu lange am Massenprodukt der multikristallinen Zellen festgehalten. Die staatlichen Subventionen waren zu verlockend. Aber inzwischen werden diese Art von Zellen nicht nur massenhaft in China gefertigt, sondern sogar im Low-Tec-Land Vietnam. Und zwar zu unschlagbar niedrigen Preisen! Die PERC-Technologie, welche mit verspiegelten Zellenrückwänden höhere Energieausbeuten ermöglicht, hat man in Deutschland nie auf den Markt bringen können.
 
 

Phönix aus der Asche

 
Aber damit ist die Story von Frank Asbeck und seiner Solarworld noch nicht zu Ende. Am vergangenen Freitag (11. August) hatte Konkursverwalter Piepenburg die Gläubiger ins Bonner Landgericht geladen. Es ging um Resteverwertung. Eine erst kürzlich gegründete Firma, die Solarworld Industries GmbH hatte Interesse bezeugt an den beiden Kollektorfabriken in Freiberg und Arnstadt. Tatsächlich erhielt sie den Zuschlag für ca. 96 Millionen Euro, wie man danach aus Teilnehmerkreisen hörte.
 
 
Frank bleibt, wie ein Fettauge, immer oben.
Übernommen von Willy Marth´s Rentnerblog hier