Die Klimaritter, eine antikapitalistische Revolte
Seite 40 von 158 Neuester Beitrag: 27.12.22 12:49 | ||||
Eröffnet am: | 01.05.16 00:56 | von: lumpensamm. | Anzahl Beiträge: | 4.948 |
Neuester Beitrag: | 27.12.22 12:49 | von: hello_again | Leser gesamt: | 917.489 |
Forum: | Talk | Leser heute: | 182 | |
Bewertet mit: | ||||
Seite: < 1 | ... | 37 | 38 | 39 | | 41 | 42 | 43 | ... 158 > |
Du gehst davon aus, dass die Art und Weise wie Menschen in 30 Jahren leben werden ähnlich ist wie Heute, die Wege und Möglichkeiten auf denen von Heute beruhen.
Es berücksichtig jedoch nicht, dass sich die Technologien, Möglichkeiten und Wege sowie die Gesellschaft selbst weiterentwickelt und verändert.
Betrachtet man den heutigen Verkehr bzw. Nutzung des PKW, LKW, etc. so ist diese äußerst ineffizent und schreit förmlich nach mehr Effizienz.
Ein großer Teil der Fahrtwege sind Pendler die zur Arbeit pendeln und dies zu großen Teilen noch allein. Dies ist ineffizient und technische Möglichkeiten werden dazu führen, dass das Pendeln weniger werden wird. U.a. weil es Kosten spart und für die Arbeitnehmer einen höheren Komfort bedeutet. Home Office wird weiter ausgebaut werden und viele Jobs zukünftig entweder von Robotern oder von zu Hause aus erledigt. Car- sowie Ridesharingsysteme organisieren vollautomatisch Transporte von A nach B.
Natürlich wird das Aufladen der Fahrzeuge herausfordernd sein, Internet of Things wird es jedoch möglich machen, dass das E-Auto zum passenden Zeitpunkt aufgeladen wird.
Vermutlich werden die E-Autos vollautomatisch selbst die Ladestationen kontaktieren, nämlich dann wenn der Fahrer das Auto nicht benötigt, was den Fahrer jedoch ohnehin nicht interessiert, weil er gar kein eigenes Auto mehr besitzt sondern sich ein Auto nach Wahl über eine App bestellt und dieses Auto dann automatisch angefahren kommt.
Internet of Things macht es auch möglich, das Netz nicht mehr nach dem chaotisch verteilten Bedarf der Verbraucher einzuregeln, sondern den Bedarf effektiv über den Preis zu steuern.
D.h. wenn Überkapazitäten im Netz vorhanden sind, so sinkt der Preis, schalten sich vollautomatisch E-Autos, Waschmaschinen, Geschirrspüler, usw. zu um das Netz wieder zu stabilisieren.
Im Falle von Unterkapazitäten im Netz steigt der Preis, womit sich Verbraucher wieder aus dem Netz verabschieden und auf günstigere Zeitpunkte warten.
Natürlich steht es dem Verbraucher nach wie vor frei seine Verbraucher ans Netz zu schalten wann er dies für richtig erachtet. Auch dies regelt man über dem Preis, indem eben das Beziehen von Energie zum ungünstigen Zeitpunkt teurer ausfällt als wenn man es dem Netz selbst überlässt.
D.h. die manuelle Zuschaltung der Verbraucher hebt den Preis an, womit Verbraucher sich wieder aus dem Netz verabschieden, womit das Netz wieder stabilisiert werden kann.
Es gibt bereits Ansätze in diese Richtung und mit dem Aufkommen von IoT wird sich unser Alltag am Energiemarkt maßgeblich verändern und sich die Verbraucher vollautomatisch den Erzeugern ausrichten.
Des Weiteres wird auch der heutige Güterverkehr nicht so bleiben sondern ein Wandel stattfinden, d.h. man auch hier Effizenzen durch IoT und technisierte Logistiksysteme, nicht zuletzt durch Kooperationen erreichen. D.h. viele Wege die heute durch Lastwagen vollzogen werden, werden in Zukunft nicht mehr notwendig sein, weil eine wesentlich effizentere Planung erfolgt und ein Zusammenwirken über Ridesharingsysteme stattfinden wird.
Ich jedenfalls finde das hohe Verkehrsaufkommen nicht zukunftsfähig und auch nicht wirklich attraktiv.
Mehr saubere Luft, weniger Verkehr und Lärm wird sich am Ende durchsetzen. Ich denke dass mit der E-Mobilität auch der Schwanzvergleich auf den Straßen abnehmen wird, schlichtweg weils den Verbrauch spürbar nach oben treibt. Viele vor allem jüngere Menschen sehen im Auto längst nicht mehr dass was ältere Generationen darin sehen, nämlich Prestige.
Deshalb bin ich der Ansicht, dass die genannten Herausforderungen weitaus geringer ausfallen werden als #975 oder andere Beiträge kund tun.
Dem entgegen stehe z.B. ich der grundoptimistisch auf Veränderungen schaut und auf die Wandlungsfähigkeit des Menschen vertraut.
Vermutlich wird irgendwo dazwischen die Wahrheit liegen.
Vermutlich wird man die erneuerbaren Energien annähernd in Richtung 100% ausbauen aber es wird vermutlich eben nicht bis 2050 realisiert sein.
Meiner Meinung nach sind die Vorteile konventioneller Energieerzeugung nicht ausreichend groß als dass die die Nachteile die sie mit sich bringen, aufwiegen.
Fakt ist, dass zu Zeiten vor der Energiewende es mitnichten so war, dass die Energiepreise nicht gestiegen sind.
Fakt ist, dass konventionelle Energieerzeugung ein Votum für eine zentralisierte Energieversorgung ist, denn damit die günstigen Preise erreicht werden braucht es eine gewisse Größe.
Eine zentralisierte Energiewirtschaft bedeutet, dass einzelne Energieerzeuger, im Regelfall Stadtwerke oder große Unternehmen, die Preise bestimmen können und auch werden.
Zudem besteht eine hohe Abhängigkeit von einzelnen Kraftwerken und ein Ausfall führt dann nicht selten zumindest temporär für flächendeckende Stromausfälle.
Nicht zu verachten der Sicherheitsaspekt. Ein Kraftwerk kann noch so sicher sein, allein durch die punktuelle Konzentrierung an Energie ist im Havariefall äußert bedrohlich.
Allein dieser Zentralisierungsaspekt stellt alle Vorteile die ein solches Konzept hat in den Schatten.
In Zeiten in denen in der Marktwirtschaft jeder Cent mehr Profit zählt halte ich es für ziemlich optimistisch zu glauben, dass Energieversorger ihre Machtposition nicht ausnutzen werden, dass Energieversorger nicht versuchen werden die Sicherheitskonzepte auszuhöhlern um Kosten sparen zu können.
In Zeiten der Vernetzung stellt eine solche zentralisierte Energiewirtschaft ein latentes Risiko dar, weil es Hacker geradezu einlädt sich in diese zentralen Systeme einzuhacken und diese lahm zu legen.
In Zeiten des Terrorismus und Extremismus welcher mittlerweile global agiert, stellen solche Energiekonzepte ebenfalls ein erhöhtes Risiko dar.
Was nützt am Ende der günstige Erzeugerpreis, der niedrige EROI und die gute Regelbarkeit wenn man sich die Risiken einer Zentralisierung ins Hause holt und zu gegebener Zeit unter dessen gravierenden Auswirkungen leiden wird.
In einer dezentralisierten Energiewirtschaft bestehend aus erneuerbaren Energien bietet man Hackern, Terroristen und auch Energieerzeugerb eben keine Bühne mehr.
Es ist für Jene mit fragwürdigen Absichten eben wesentlich schwieriger Macht ausüben zu können und dies ist es meiner Meinung nach wert die Nachteile der erneuerbaren Energien in Kauf zu nehmen und Lösungen zu erarbeiten, auch wenn diese aufwändig sein mögen.
Da ich mich ziemlich aktiv in alternativen Bewegungen, Projekten und Organisationen bewege, kann ich aus meiner Sicht sagen, dass die konventionellen Energieträger kaum bis keine Rolle hier spielen und sich die jungen findigen Leute von Heute nahezu ausschließlich mit erneuerbaren Energien auseinandersetzen wollen. U.a. eben vor allem wegen des Dezentralisierungsaspektes. Es gibt schlichtweg viel zu viel Beispiele dafür wie Zentralisierungen so manch negative Effekte mit sich gebracht haben und bringen, so dass sich eine zunehmende Allergie gegen jedwede Zentralität herausbildet.
Oder anders gesagt, man vertraut den Mächtigen nicht mehr, man hat aus der Vergangenheit gelernt, dass dies einzig dazu führt, dass die Mächtigen übermäßige Macht ausüben.
Man will davon weg, man will unabhängig sein und dies geht eben nicht mit einem Thorium-Reaktor oder konventionellen Kraftwerk sondern nur mit erneuerbare Energien.
http://www.aps.org/policy/statements/upload/...seminar-transcript.pdf
und eine zugegeben einseitige Zusammenfassung der Diskussion aus skeptischer Sicht:
https://cei.org/sites/default/files/...0Stoking%20Climate%20Alarm.pdf
Misst man die Toten/kWh stehen ganz oben auf der Liste die Wasserkraft und die Kohle. Während bei Hydro nur sehr selten etwas passiert, ist es bei der Kohleförderung fast Dauerzustand, v. a. in Schwellen- oder Entwicklungsländern. Wenn jedoch ein Damm bricht, ist das Potenzial zum Supergau riesig. In beiden Fällen gehen die bisherigen Opferzahlen in die Hunderttausende. Bei Gas ist es schon wesentlich besser. Die sichersten konventionellen Kraftwerke sind nach wie vor Kernkraftwerke. Läppische 65 Tote auf 40 Jahre ist trotz der Propaganda nichts. Die Regenerativen sind schwer zu beurteilen. Bei ihnen sind die Todesfälle bei Abbau von Eisenerz, Kalkstein, Silizium, Lithium, Cobalt, ... bei der Herstellung von Stahl, Zement, PV Modulen, Batteriezellen und bei der Installation von Windrädern und PV Modulen miteinzurechnen. Sie schlagen wegen des um den Faktor 20 bis 70 niedrigeren EROIs deutlich härter zu als bei Kraftwerken. Ich vermute, sie werden mit der Kernkraft nicht mithalten können.
2. Dezentralisierung
Das ist nicht unbedingt ein Argument für EE. Blockheizkraftwerke für einen Stadtteil oder eine Kleinstadt sind genauso möglich. Im Gegenteil, die Regenerativen sind wegen ihrer erratischen Energieerzeugung geradezu auf den Verbund über große Flächen mit unterschiedlichen Quellen angewiesen. In der Regel kann dies nur ein großes Netz gewährleisten. Ein autarkes Modell fürs Privatheim auf Basis 100% regen. Energien ist auch gar nicht machbar, von den Kosten gar nicht zu reden. Selbst 100% regenerativer Strom würde bei einem Vielfachen des heutigen Preises liegen. Nimm ein 2 MW Windrad, das mit einer Batterie gekoppelt ein 700 Einwohnerdorf versorgt. Aus dem System dürften ca 2 Millionen kWh pro Jahr herauskommen. Dazu bräuchte man einen Speicher von 150.000 kWh für die Pufferung plus Regeltechnik und Netz. Macht ca. 45 Millionen €. Bei einer Lebensdauer von 30 Jahren, das ist superoptimistisch, kommen 60 Millionen kWh zusammen. Inkl. Finanzierung dürften aus den 45 auch 60 Millionen werden. D. h. alleine Investkosten von 1€/kWh. Inkl. Betrieb, Wartung und Entsorgung wahrsch. 1,10 bis 1,20€. Viermal soviel wie unser heutiger Preis. Da lasse ich mich lieber für ein Viertel von den Konzernen über den Tisch ziehen. Die Notwendigkeit, Autarkie zum Selbstzweck zu erheben, sehe ich nicht, solange wir in einem Rechtsstaat ohne Rationierung leben. Ebenso haben es Hacker und Terroristen leichter, in kleine Systeme einzudringen, weil die sich in der Regel den Schutz der Großen gar nicht leisten können. Das gleiche gilt für Sicherheitstechnik.
3. Physik ist weder Geschmackssache noch politische Anschauung
Es hilft nichts, vor den Gesetzen die Augen zu schließen und aufs Herz zu zählen. Ob du nun glaubst oder willst oder hoffst, ist piepegal. Das Gesetz des EROI schlägt gnadenlos zu, sobald du den Weg gehst, ob Pessimist, Optimist, oder Sonstwas. Das wissen die Protagonisten der globalen Energiewende auch. Deshalb verordnen sie ja die Transformation.
1. Gescheiterter Versuch mit dem schnellen Brüter in 1985 sowie alle anderen Versuche auch gescheitert. Ursache Korrosion.
2. Tritium tritt aus. Stark gesundheitsgefährdend!
3. Ethisch wegen der radioaktiven Abfälle nicht vertretbar.
1. Schneller Brüter gescheitert
Bei dem „größeren Unfallrisiko” handelt es sich ausschließlich um ein chemisches Risiko, bedingt durch das leicht enflammbare Kühlmittel Natrium, welches aber nicht in allen zukünftigen Reaktoren eingesetzt werden muss. Diese Brandgefahr wird durch einen höheren technischen Aufwand kompensiert, so dass auch diese Reaktoren das gleiche Sicherheitsniveau, aber einen höheren Preis verglichen mit konventionellen Kernreaktoren haben. Dafür nutzen sie den Kernbrennstoff erheblich effektiver. Die Wiederaufbereitung ist quasi inklusive.
Korrosion ist tatsächlich ein Problem, aber kein unlösbares. Es wird halt teurer. Das ist auch der Grund, wieso die schnellen Brüter oder Flüssigsalzreaktoren nicht weiterverfolgt wurden. Der fallende Uranpreis machte es nicht notwendig. Die Antiatombewegung und der unsinnige Abwehrreflex beim Thema Wiederaufbereitung taten das Übrige.
Eine glatte Lüge ist, dass alle Versuche gescheitert wären. In Frankreich gab es funktionieren Prototypen schon in den 80ern und in Russland hat das erste KKW nach diesem Prinzip in 2016 den regulären Betrieb aufgenommen. http://www.ingenieur.de/Fachbereiche/Kernenergie/...t-voller-Leistung
2. Tritium, das tödliche Gift
Die Umweltbehörden des Landes Baden-Württemberg geben für ihre Kernkraftwerksblöcke Emissionen in das Wasser (in die Luft ist es viel weniger) von 10.000, maximal 20.000 Gigabecquerel an – das ist 0,005% der von der Natur selbst ständig erzeugten Tritiummenge. Selbst alle Kernkraftwerke auf der Erde zusammen können nicht näherungsweise die natürliche Tritiumproduktion erreichen.
Tritium ist also fast ausschließlich natürlichen Ursprungs. Aber selbst von einem „Schluck” Tritium werden nur 3% tatsächlich auch von den Zellen aufgenommen, und nach 6 Wochen ist die Hälfte davon schon wieder ausgeschieden. Radioaktiver Kohlenstoff, ebenfalls natürlichen Ursprungs, befindet sich sogar in 150-facher Menge wie Tritium im Körper, in allen Organen und auch in den Genen. Und der strahlt auch noch mit zehnfacher Energie.
Schließlich noch ein interessanter Vergleich: Die in Deutschland zugelassene Höchstgrenze von Tritium-Leuchten, die man als Schlüsselanhänger verwendet, ist 1 Gigabecquerel, im Ausland sogar bis zu 80 Gigabecquerel. Das Kernkraftwerk Krümmel emittierte knapp 30 Gigabecquerel pro Jahr in die Luft.
3. Die Ethik
Laut Lesch wäre es verantwortungslos, Kernkraft weiterzuverfolgen, weil der radioaktive Abfall „Übelmännern“ in die Hände fallen könnte. Tatsache ist, dass gerade Thoriumreaktoren, aber auch andere schnelle Brüter einen nur schwach radioaktiven Abfall erzeugen.
Spaltprodukte für schmutzige Bomben verwenden – unsinniger geht es nicht mehr. Zum einen sind diese extrem schwierig zu beschaffen, zum anderen extrem schwierig zu verarbeiten, und zum dritten großflächig verteilt extrem wirkungslos. Selbst die theoretischen gesundheitlichen Beeinträchtigungen würden sich erst nach Jahrzehnten bemerkbar machen. Im Gegensatz zu Chemikalien baut sich die Radioaktivität außerdem selbst ab – eine dauerhafte Unbewohnbarkeit kann man damit also nicht erreichen.
Schnelle Brüter können Plutonium erzeugen, wenn dies zum Aufbau weiterer Schneller Brüter erwünscht ist, sie müssen es aber nicht. Sie lassen sich jedoch so bauen, dass dieses erbrütete Plutonium im Normalbetrieb aufgrund der Isotopenzusammensetzung mitnichten waffenfähig ist. Den Betrieb des Brüters auf waffenfähiges Plutonium umzustellen wäre erheblich aufwändiger, als waffenfähiges Uran durch Anreicherung herzustellen und fiele überdies der Atomaufsicht sehr schnell auf. Es ist ein weitverbreiteter Mythos, dass die nukleare Waffentechnologie auf Kernreaktoren angewiesen ist.
In Summe: Ein echter Lesch, außer Propaganda nicht viel dahinter.
2. 30.000 Haushalte mit 129.000 kWh zu versorgen ist ein Witz, der die Groteske weit hinter sich lässt. Das ist purer Aktionismus. In Realität dürfte das 50-fache für eine sichere Versorgung erforderlich sein.
http://www.spiegel.de/wirtschaft/unternehmen/...etrieb-a-1181326.html
„Der Energiespeicher sei "der Beginn einer neuen Geschichte", sagte der Regierungschef des Bundesstaates South Australia, Jay Weatherill, bei der offiziellen Inbetriebnahme. Das Akkusystem in der Nähe des Ortes Jamestown nördlich von Adelaide ist an einen Windpark angeschlossen und soll mehr als 30.000 Haushalte mit Strom versorgen.
Die Batterie hat eine Leistung von 100 Megawatt und eine Kapazität von 129 Megawattstunden und soll helfen, den Strombedarf zu decken - insbesondere in den heißen Sommermonaten, wenn in Australien die meiste Energie verbraucht wird. Im vergangenen Sommer hatten extrem hohe Temperaturen wiederholt zu Stromausfällen in einigen Regionen Australiens geführt.
Tesla-Chef Elon Musk hatte im Juli angekündigt, den Batteriepark binnen 100 Tagen zu bauen. Die geschätzten Kosten für die Anlage gab Musk mit mindestens rund 42 Millionen Euro an.“
http://www.nature.com/news/nuclear-energy-radical-reactors-1.11957
Ergänzung zur obigen Lesch Kritik. Da wurde zwar vom schnellen Brüter gesprochen, aber die meisten Prototypen aus den 80ern sowie der aktuelle russische Reaktor wurden mit einer Brutrate von 1 oder kleiner gefahren. D. h. es wurde max. soviel Spaltmaterial erzeugt, wie auch verbrannt wurde. Solche Reaktoren nennt man schnelle Brenner.
Du unterstellst, dass ein Wasserkraftwerk dessen Damm bricht, 100.000te Opfer bringen könnte und stellst das Kernkraftwerk als das scheinbar Sicherste in den Raum?
Wenn ein Kernkraftwerk eskaliert, z.B. in Folge eines Terroranschlags so gehen die Schäden noch wesentlich weiter. Während nach dem Dammbruch alles wieder aufgebaut werden kann, hast du mit einem Kernkraftwerk ganze Flächen für längere Zeiten unbewohnbar gemacht, ganz zu schweigen von den Langzeitschäden. Sorry so schön sachlich deine Beiträge auch geschrieben sind, sie sind ziemlich einseitig in ihrer Bewertung.
2.
Auch das Thema Dezentralität und Sicherheit geht an der Sache vorbei. Es gibt bereits mehrere Fälle in denen große Kraftwerksanlagen gehackt und abgeschalten werden konnten. Ich will nicht wissen was passiert, wenn man es schaffen würde ein Kernkraftwerk so zu manipulieren, dass es heiß läuft.
Zwar ist es richtig, dass bedingt geringerer Sicherheitsvorkehrungen der einzelne Teilnehmer leicher zu hacken ist. Du vergisst dabei aber, dass das Ding nicht annähernd skaliert. d.h. 1 hochsicheres Kraftwerk zu hacken ist einfacher als 100.000 weniger hoch gesicherte Erzeuger hacken zu wollen.
Wie ich zudem bereits erwähnte, entstehen bereits neue Technologien die es auch den 100.000 Erzeugern ermöglichen hochsicher agieren zu können. Z.B. IOTA ist ein solches Projekt.
3.
Der EROI ist weder Physik noch Gesetz, sondern eine rein betriebswirtschaftliche Betrachtung die unter Anderem eigentlich kaum Anwendung bzw. Nutzung findet, weil dessen Nutzen fragwürdig ist. U.a. wird diese Kennzahl beim Verkauf von Kraftwerken, z.B. von Herstellern wie Siemens, gar nicht erhoben.
Wenn ich Beispielsweise 100% erneuerbare Energien mit EROI > 1 habe, damit den Bedarf decken kann, so kostet mich die Energie fast nix mehr, weil ...
- die Energie zur Herstellung neuer Anlagen bereits in den > 1 enthalten ist
- es im Regelfall keine oder kaum neue Rohstoffe bedarf, sondern man die Altanlagen recycelt, u.a. auch bereits in der EROI enthalten
- ausgehend davon, dass Personal zukünftig durch Roboter ersetzt werden wird, entfallen auch diese Kosten zu großen Teilen, so wie auch große Teile der Verwaltungskosten.
- was bleibt sind die Entwicklungskosten, welche bedingt Open Source Ökonomie ebenfalls gegen Null tendieren
- selbst die Pufferung wird ebenfalls über recycling Kreisläufe nahezu keine weiteren Kosten verursachen
Bei konventionellen Kraftwerken ist all dies zwar ähnlich, was aber stets hinzu kommt sind die Rohstoffe die nachgeführt werden müssen, so dass langfristig die Kosten deutlich höher, nämlich um die Beschaffung dieser Rohstoffe höher liegt. Historisch rückblickend betrachtet kann man davon ausgehen, dass die Beschaffung immer aufwändiger und kostspieliger werden wird.
Wer denkt man hätte noch genügend Ressourcen für mehrere hundert Jahre der vergisst dabei, dass viele der Ressourcen schwer zugängig sind oder fragwürdige Konsequenzen nach sich ziehen. U.a. das Fracking in den USA, welches nachweislich massive Umweltschäden verursacht und ganze Flächen dauerhaft unbewohnbar macht.
Selbst in Dtl. gibt es bereits solche Flächen.
Ich halte es für naiv zu glauben, dass diese Art der Rohstoffgewinnung mit zunehmendem Verbrauch nicht noch fragwürdiger wird.
Und was bei aller Diskussion auch etwas unter geht ist, dass es die Energiewende im globalen Kontext eigentlich bislang gar nicht gibt. Trotz aller Maßnahmen, trotz Ausbau erneuerbarer Energien, usw. steigt der tägliche Verbrauch an Öl, Kohle, Gas, usw. nach wie vor spürbar weiter an. D.h. das Einzige was wir bislang tun ist es den MEHRVerbrauch zu bremsen.
Von einer Dekarbonisierung wie hier gern geschrieben wird ist da noch nicht Ansatzweise etwas zu sehen. Im Gegenteil, ausgehend davon dass Asien sowie vor allem auch Afrika in den kommenden Jahren deutlich wachsen wird, wird man froh sein können, wenn der MEHRVerbrauch nicht weiter zunimmt.
Ebenfalls sollte man bedenken sind solch Änderungsprozesse extrem träge.
D.h. eine Energiewende zu 50% ( global ) wird selbst mit dem heutigen Tempo nicht wesentlich vor 2050 erreicht sein und 100% vermutlich noch ein ganzes Stück länger bedürfen,
In dieser Zeit werden sich viele Bedingungen wesentlich verändern. Neue Technolgien werden verfügbar sein, ein Akku der heute 1000€ kostet, kostet dann nur noch 10€, die Solarzelle die heute 1000€ kostet, kostet dann auch nur noch 10€.
Gleichzeitig aber kostet Öl dann nicht mehr 60€ sondern 600€
Und dann ist die EROI Kalkulation von Heute ziemlich wertlos.
Die letzte Quelle weiter unten listet die verschiedenen Energiequellen mit den Todesraten pro Energieeinheit nach WHO inkl. (für mich sehr zweifelhafter) statistischer Methoden nach der LNT Hypothese. Selbst danach ist die Kernenergie die sicherste Form, sogar noch deutlich vor Wind und Solar. Deine Ängste von Kernkraftwerkskatastrophen mit Hunderttausenden Opfern und der Unbewohbarkeit ganzer Erdteile sind Phantasien. Diese Katastrophen sind bereits passiert und es wurden deutlich weniger Menschen getötet/verletzt als bei anderen Energieträgern, es leben sogar bereits wieder Menschen am Ort des Geschehens. Das ist die Realität, die diametral anders aussieht als die grüne Propaganda dazu.
Quellen: http://www.unscear.org/unscear/en/chernobyl.html
http://www.unscear.org/unscear/en/fukushima.html
https://www.hrw.org/legacy/reports/1995/China1.htm
https://scilogs.spektrum.de/go-for-launch/vajont_1963_katastrophe/
https://www.forbes.com/sites/jamesconca/2012/06/...paid/#5512785b709b
2. Mag sein, dass man ein KKW so sabotieren kann, wie es Hollywood zeigt. In der Praxis dürfte es aber wesentlich schwieriger sein als im Film. Bei zukünftigen Technologien wird das immer schwerer, da die Kettenreaktion zur Herstellung von spaltbarem Material mit zunehmender Wärme automatisch bremst.
Insgesamt begibst du dich mit dieser Argumentation in eine unheilvolle Abwärtsspirale, wenn du nur noch Sachen zulässt, die, kriminelle Energie vorausgesetzt, zum Tod von Menschen führen können. Da dürfte es keine Autos, keine Messer, keine Chemie, keine Pharmazie, kein Hochhaus, keine Stadt, am Ende gar nichts mehr geben.
3. Der EROI ist eine Aufstellung der Energieflüsse. Der EROI ist eben keine betriebswirtschaftliche Größe, weil letztere die Realität durch Währungsungleichgewichte oder Subventionen verdecken können. Beim EROI werden stur alle Energieanteile zur Herstellung, Betrieb und Entsorgung einer Energiequelle aufsummiert. Dieser Energiemenge wird im Zähler die gesamte Energieernte über die Lebenszeit dieses Trägers gegenübergestellt. Danach bekomme ich einen Wert, ob der Träger überhaupt Sinn macht. Alles unter 10 ist sehr fraglich. Unter 5 würde ich sagen beginnt die langfristige Umweltkatastrophe, da Unmengen an Kapazitäten erforderlich sind, die zur Herstellung der Energeiträger selbst benötigt werden. Deine Ausführungen legen den Verdacht nahe, dass du die Bedeutung noch gar nicht erkannt hast. Ein EROI von 1 bedeutet, dass du eine Menge X aufwenden musst um einen Träger herzustellen, zu betreiben und zu entsorgen und dass du am Ende ebenso eine Menge X geerntet hast, ein Nullsummenspiel. Das heißt, der Träger kann sich nur selbst reproduzieren, er produziert NULL Nutzenergie. Es ist egal, ob das Ding dann mehr oder weniger kostenlos Energie liefert. Das sieht viell. auf den ersten Blick gut aus, ist aber physikalischer Mist, der sich über die Zeit auch betriebswirtschaftlcih und umwelttechnisch bemerkbar macht. Der Großteil seiner Energie wurde bereits vor seiner Inbetriebnahme bereits an anderer Stelle verbraten. Je höher der EE-Anteil weltweit, desto teurer werden sie auch in der Herstellung. Die momentanen Kosten der EE verzerren aufgrund der billigen Energie und Arbeitskraft im kohlelastigen China das reale Bild dramatisch. Hättest du tatsächlich 100% EE hier installiert, würde sie zwar fast kostenlos Strom liefern, aber du hättest die katastrophalen Kosten bereits vorher gehabt, als du die Systeme (inkl. Batterien) erstanden hast. Den Rest hättest du nach 20 oder 30 Jahren, wenn du sie wieder abbaust. Und nochmal 50 Jahre später, wenn mal alle auf dem EE-trip sind, bricht die wirtschaftliche und umwelttechnische Hölle los. Jetzt mach die Rechnung für die konventionelle Energieerzeugung, in die du zwar permanent Roshstoffe investierst, aber am Ende um ein Vielfaches mehr davon wieder herausbekommst. Was dich aber noch mehr interessieren sollte. Ein EROI im einstelligen Bereich bedeutet immer auch eine hohe Rohstoffintensität und/oder eine permanente Abhängigkeit von anderen Systemen. D.h. der Träger ist nicht nur physikalisch und betriebswirtschaftlich, sondern auch aus Umweltgründen kontraproduktiv.
Wie sollen bei so ineffizienter Energieerzeugung, energiefressende Produkte wie Solarzellen oder Batteriezellen im Preis um 99% fallen? Die Fortschritte in der Halbleiterindustrie sind mitnichten auf alles übertragbar. Und willst du wirklich in Zukunft mit 3 Windrädern pro km² leben, überall in Deutschland? Glaubst du, das ist natürliches Gleichgewicht? Selbst wenn du keine Dekarbonisierung anstrebst, sondern nur das Wachstum der Konventionellen stoppen willst. Es wird unterm Strich mit den EE nicht möglich sein. Die minimale CO2 Reduzierung, die wir durch unsere EE hier haben, haben wir in China wieder oben drauf gepackt. Das alles sagt mir der EROI. Ich verstehe den Sinn nicht. Da lügt man sich doch nur selbst an.
Dass Tschernobyl und Fukushima nur 70 Tote gebracht hat ist ein schlechter Witz.
Aber klar, wenn man die ganzen verseuchten Tiere und Menschen nicht mit in die Rechnung einbezieht, die einige Jahre später versterben, dann kommt man auf solch sehr optimistische Zahlen.
2.
Ich habe nicht geschrieben, dass ich per se Kernkraftwerke ablehne. Es gibt sicherlich Fälle in denen Kernkraftwerke sinnvoll sein können, z.B. für Weltraummissionen.
Nur für den irdischen Einsatz sehe ich langfristig keine Vorteile. Dies wäre so als würde man versuchen eine Kerze mit einem Flammenwerfer anzünden zu wollen, obwohl es der einfache Anzünder auch macht und der Anzünder dezentraler und sicherer ist.
3.
Die EROI Rechnung ist wie bereits mehrfach geschrieben, nicht zielführend.
So liegen die EROI selbst bei PV & Co. bei deutlich über 1. Diese Werte werden auch zukünftig weiter steigen, weil sich vor allem im Bereich PV noch wesentliche Verbesserungen ergeben werden. Die Effizienz wird sich Vervielfachen. Man wird PV Zellen z.B. ausdrucken können, womit der Energieaufwand auf ein Bruchteil sinkt. Die klassischen PV Panelen die wir heute kennen wird man dann nicht mehr verwenden, sondern mit dünnen Folien oder Beschichtungen arbeiten, welche einen Bruchteil des heutigen Materials und Energie benötigen. Deshalb ist eine EROI von Heute nicht zielführend, weil es von statischen Rahmenbedingungen ausgeht.
Ich wüsste nicht wo in einem geschlossenen Recyclingkreislauf ein erhöhter Rohstoffbedarf sein soll.
Der Trend denke ich ist längst erkennbar. Kernkraftwerke werden kaum noch neu gebaut und auch Kohle- / Öl- und Gaskraftwerke haben es zunehmend schwerer.
Wie ich bereits schrieb, bin ich oft und viel in alternativen Gefilten unterwegs, dort wo Visionen für die Zukunft gestrickt und neue Lösungen erarbeitet werden.
Dort spielen die konventionellen Kraftwerke nahezu keine Rolle mehr und warum?
Weil die damit verbundene Zentralität, d.h. zentrale Abhängigkeit unpopulär ist. Man hat mit derartigen Systemen schlichtweg derartig viel negative Erfahrungen gemacht, dass der Bedarf nach Dezentralität und Unabhängigkeit von großen Versorgern groß ist.
Und Ansätze einer dem Stromkunden wohlgewonnen Energieversorgung gibt es bislang nicht.
Des Weiteren ist die Gewinnung von Öl-, Kohle und Gas äußert fragwürdig und mit massiven Umweltverschmutzungen und Umweltzerstörungen verbunden. Natürlich gilt dies auch für die Metalle zur Herstellung erneuerbarer Energien, doch besteht hierbei zumindest die Hoffnung aus dieser fragwürdigen Situation herauskommen zu können.
Ansätze einer nachhaltigen Rohstoffgewinnung jedenfalls gibt es ebenfalls nicht. Und dass die großen Konzerne wie Chevron, Exxon, usw. Rohstoffe nachhaltig abbauen, daran glaubt man nicht, darauf vertraut man nicht.
Ich sehe jedenfalls wesentlich mehr Vorteile bei erneuerbaren Energien als bei konventionellen Kraftwerken.
Aus Sicht eines Heimbesitzers kann ich davon ausgehen mich langfristig komplett selbst versorgen zu können ohne einen höheren Strompreis als momentan zahlen zu müssen.
Heutige Akkus erreichen bereits Preise um die 10cent / kWh
2. Gerade auf der Erde ist Kernkraft sinnvoll. Nichts ist sicherer, nichts umweltschonender und nichts hat soviel Potenzial, langfristig steigende Energienachfrage zu decken
3. Es stimmt, dass der Westen sich von der grünen Propaganda hat einlullen lassen und keine Kernkraftwerke mehr baut. Dafür tun das jetzt Russland, China und Indien umso mehr. Diese Aktivität wird noch zunehmen, sobald der erste Flüssigsalzreaktor auf dem Markt ist. Dort spielt auch zukünftig die Musik, unabhängig davon, ob wir uns schmollend grün anmalen oder nicht.
Wenn ich zuverlässig autark sein will, stell ich mir nen Dieselgenerator in den Keller, muss allerdings damit leben, dass mich der Strom deutlich mehr kostet als beim Versorger.
PV Folien kosten nur ein Bruchteil der Energie, bringen aber auch nur einen Bruchteil der Zellen. Am Ende steht dieselbe Zahl oder sogar noch schlechter.
1. Kernkraftwerke werden nur noch Wenige gebaut, selbst in den von dir genannten Ländern.
Die meisten Reaktoren werden in China gebaut, wenn man jedoch genauer hinschaut, sind das fast alles nur Reaktoren die bereits lange geplant wurden. Neue Projekte werden geplant jedoch nur wenige davon auch gestartet.
Wenn man zudem noch bedenkt, dass jene genannten Länder generell einen sehr geringen Anteil Kernenergie am Energiemix haben, z.B. China 4% und Indien 3%, so kann man diese Neubauten wohl eher als eine Beimischung betrachten.
Das größte Geld in China geht in Erneuerbare Energien.
2. PV Zellen auf Folie, auch hier bist du nicht up to date. Der Wirkungsgrad liegt mittlerweile bei 7% und höher.
Im Ernst: Die PV-Folien finde ich auch super. Gerade in der Gebäudetechnik z.B. zum Betrieb von Klimaanlagen, wo der Energiebedarf mit der verfügbaren Leistung korreliert. Nur überall da, wo frei verfügbare Energie gefordert wird (z.B. als Quelle in unserem öffentlichen Netz), haben sie nichts verloren. Denn der schlechte EROI kommt nur untergeordnet von den Zellen selbst sondern von den Batterien und Ersatzkapazitäten, die vorgehalten werden müssen, wenn keine Sonne scheint.
Ein Wirkunsgrad von 7%, 10% oder 20% sagt nichts über die Sinnhaftigkeit aus, solange nicht klar ist, was man zur Herstellung reinstecken muss und wie lange die Dinger in welcher Umgebung halten. V.a. beim letzten Punkt hätte ich generell mal Bedenken angemeldet. Werte habe ich hierzu aber keine. Prinzipiell gibt es sicher genügend Einsatzmöglichkeiten, die hier Sinn machen, wenn der Energieinput stimmt, nur eben bitte nicht als Kraftwerk.
https://blog.energybrainpool.com/...n-inmitten-thermischer-erzeugung/
Richtig ist, dass der Anteil an Wind und PV nach wie vor gering ist.
Richtig ist aber auch, dass der Mehrverbrauch mittlerweile zur Hälfte über erneuerbare Energien abgedeckt wird, Tendenz steigend.
Richtig ist auch, dass China viel mehr Geld mittlerweile für erneuerbare Energien in die Hand nimmt als für konventionelle Kraftwerkstechnologien.
Nach wie vor gibt es weder für heutige Kernkraftwerke noch für Flüssigsalzreaktoren irgend eine vernünftige und vor allem langfristig bezahlbare Endlagermöglichkeit.
Wenn sich eine neue Technolgie durchsetzen wird dann meiner Meinung nach Kernfusion.
http://www.zeit.de/news/2017-12/05/...zu-abgaswerten-zurueck-05092602
Der wesentlich günstigere Preis für E-Autos wird letztendlich dazu führen.
Neupreis: 16.000€ und dies noch nichtmal in größerer Serie gefertigt.
Ich gehe davon aus, dass der Preiskampf erst losgeht und sich die Hersteller gegenseitig unterbieten werden. Denke dass ein Auto in Kompaktklasse zukünftig nicht wesentlich mehr als 10.000€ kosten wird und dies bei einer Lebenserwartung die vermutlich deutlich mehr als die 15 Jahre sein wird.
inkl. Motor!
https://www.dacia.de/dacia-modellpalette/...elluebersicht/dokker.html
Wir sind schizophren! Einerseits erfahren wir täglich die Realität. Wir gehen zur Arbeit, liegen in der Sonne, gehen in ein schickes Restaurant, trinken Bier in einer Kneipe, fahren oder fliegen in Urlaub, lachen mit unseren Kindern, uns geht es besser als allen Generationen zuvor, mit anderen Worten wir erarbeiten und genießen einfach unseren Wohlstand. Andererseits glauben wir, in einer Hölle aus Bedrohungen zu leben, die permanent unser Leben gefährden und am Ende unsere Welt vernichten werden. Wir glauben all das, ohne je ein Opfer oder einen Beweis dafür gesehen zu haben. Uns reichen Behauptungen von Menschen, die wir nicht kennen und denen wir anscheinend blind trauen. Diese virtuelle Welt ist die Matrix, die bereits begonnen hat, die reale Welt in ihren Würgegriff zu nehmen.
Fast keine der Gefahren, die uns eingebläut werden, existiert wirklich. Sie entspringen zunächst einem (nicht selten politisch oder religiös motivierten) Aberglauben und werden anschließend pseudowissenschaftlich belegt, um danach über den grün angemalten (Quelle, S.13) oder zumindest willfährigen Medientross über uns ergossen zu werden. Der wissenschaftliche Kern der jeweiligen Hexenjagd ist frappierend oft derselbe. Es startet mit einem anerkannt existenten aber harmlosen Problem, das ungerechtfertigt zu einem Elefanten aufgeblasen wird. Die zentrale These ist selten falsifizierbar und wird, weil sie ebensowenig beweisbar ist, über ein Computermodell belegt. Das erspart den mühsamen Umweg über in der Realität verifizierte Wirkzusammenhänge. Man behauptet eine Übertreibung eines anerkannten Effektes, berechnet mit dubiosen Computermodellen den katastrophalen Effekt und fertig ist die Bedrohung.
Ob Klimawandel, Stickoxide, Partikel, das Eisbärensterben, Cholesterin, Zucker, Salz, überall wenden findige Wissenschaftler ein Computermodell an, um eine geforderte, steile These zu belegen. Bei den Stickoxiden beispielsweise wird der Stickoxidgehalt an wenigen zentralen Messstellen tatsächlich gemessen. Daraus errechnet ein Computermodell die Konzentration an einer Adresse eines Probanden, die davon kilometerweit entfernt liegt. Da die Konzentration schon nach wenigen Metern von der Messstelle um teilweise mehr als 50% fällt und je nach Beschaffenheit der Umgebung und Wetterlage um weitere 50% schwankt, ist das Resultat des Modells jenseits von Gut & Böse. Damit nicht genug unterstellen die Studien den Millionen von Probanden genau dieser an der Haustür errechneten Konzentration auch 24h täglich ausgesetzt zu sein. Dass der Mann oder die Frau tagsüber ganz woanders ist, oder vielleicht im 5. Stock auf der Rückseite wohnt und dort nur 90% der errechneten Konzentration vorherrschen, interessiert nicht. Um dem Ganzen die Krone aufzusetzen, wird die Sterberate in der untersuchten Gegend auch noch einmal mit einem statistischen Computermodell angepasst, um die sozialen Einflussgrößen zu applizieren. Am Ende werden beide Ergebnisse übereinander aufgetragen und man erhält, wenn man die richtigen Modelle (es gibt zig unterschiedliche zur Auswahl) wählt und die richtigen Parameter eingibt, tatsächlich den gewünschten Zusammenhang, dass pro 10 µg mehr im Kubikmeter Luft 5% mehr Menschen früher sterben, obwohl bei gesunden Menschen eine Wirkschwelle für den harmlosen, erhöhten Atemwiderstand im Bereich von 4.000 µg liegt. Objektiv betrachtet ist das errechnete Ergebnis eine fingierte Korrelation zwischen zwei Computermodellen. Mit dem tatsächlichen Einfluss einer Messgröße auf die tatsächliche Sterblichkeit hat das nicht im Geringsten zu tun. Den wissenschaftlichen Vogel schießt man ab, indem man diese vollkommen willkürliche Computerkorrelation als reales Ursache-Wirkungsprinzip verkauft.
Diese epidemiologischen Tricksereien werden bei fast allen Krankheits- und Sterblichkeitsuntersuchungen angewandt, wo die Toxikologie keinen Hinweis auf Gefährdung liefert, man diese aber aus politischen oder nicht selten finanziellen Interessen heraus gerne haben möchte. Die Verbiegung der Statistik geht auf auf die mittlerweile widerlegte (hier oder hier), aber immer noch praktizierte LNT Hypothese im Bereich Strahlung zurück, wonach auch Kleinstmengen von Strahlung bzw. - danach grundlos in der Toxikologie adaptiert - Stoffen lebensgefährdend sein können. Es ist für alle Beteiligten ein lohnendes Win-Win-Geschäft. Die Politik beauftragt die Wissenschaft, kann sich mit den Ergebnissen selbst als sorgende Mutter und/oder ihre politische Agenda rechtfertigen. Die Wissenschaft bekommt die Fördergelder und legitimiert damit die Forderung nach stetem Nachfluss, die NGOs erreichen ihr politisches Ziel und natürlich mehr Spendengeld. Denn umsonst ist nur der Tod und selbst der kostet manchmal Rechenzeit.
Beim Klima ist es zwar nicht zuvorderst die Statistik, dort sind es zunächst die immensen Unsicherheiten in den Rechenmodellen. Man versucht, ein extrem komplexes System mit vielen heute noch unbekannten Parametern und Wirkgrößen extrem lange in die Zukunft zu rechnen und nimmt absichtlich zu hohe Werte für entscheidende Parameter an. Auf der anderen Seite jagt man reale Messdaten durch Computeralgorithmen, um sie den vorher überzogenen Solldaten anzupassen, damit das Narrativ nicht gefährdet wird. Als drittes Element nutzt man die unzuverlässigen Computermodelle und berechnet auf deren Basis mittels äußerst fragwürdiger Statistik, wieviel die konstruierte Erwärmung die Natur, eine bestimmte Spezies, unsere Gesundheit oder auch unser Wirtschaftswachstum gefährdet. Diese Ergebnisse sind aufgrund der enormen und über mehrere Schritte potenzierten Unsicherheiten nicht einmal die Bytes wert, die zur Speicherung der Arbeiten erforderlich sind.
Selbstverständlich wird jeder, der sich dieser Gefahrenmaschinerie, die die Matrix und deren Profiteure am Leben hält, in den Weg stellt, als Verweigerer, Gefährder, Rechtsextremist oder rückständiger Idiot diffamiert. Die identitäre Masche der Diskriminierung ist der Schutzwall um die ideelle Wagenburg und ihre Tricks.
Die aktuelle Posse aus diesem Zirkus: Nachdem mit dem letzten offiziellen Bericht der PSBG über die Eisbären klar wurde, dass deren Bestände gestiegen statt gesunken sind, versucht man, die Kritiker mit Diffamierung zum Schweigen zu bringen. Statt deren Argumente wissenschaftlich zu widerlegen, wird eine wissenschaftliche Arbeit produziert, die allen Ernstes zählt, auf wievielen "Denier-Blogs" und auf wievielen anerkannten "Klimablogs" eine der Hauptkritikerinnen (S. Crockford) zitiert wird, um sie zu diskreditieren. Kann das Niveau in der Wissenschaft noch tiefer sinken?
Seit kurzem schlagen die "Denier" zurück und zwingen die Aktivisten, per Gesetz relevantes Material herauszugeben. Der berühmte Hockeystick wurde auf diesem Wege dekonstruiert. Die per FOIA übermittelten emails aus der wissenschaftlichen Eisbärenaktivistenszene offenbaren, wie wenig wissenschaftlich aber wie politisch es da zugeht. Hier ging es ausschließlich darum, den Status "Gefährdet" zu erhalten und nie um das objektive, wissenschaftliche Ergebnis einer Populationserfassung. Das Narrativ der sterbenden Eisbären versuchte man mit einem speziellen Computermodell, dem wiederum ein Klimamodell zugrundeliegt, zu belegen. Der IUCN, der letzten Endes über die Bedrohung einer Spezies in der Red List entscheidet, drohte an, dass man dieses dubiose Unterfangen nicht mehr akzeptieren werde und den Eisbären nicht mehr auf die Red List setze, wenn nicht realistisch gerechnet werde. Genau aus diesem Grund haben die Aktivisten das Klimacomputermodell begraben und durch ein anerkanntes, statistisches Modell zur Erhebung von Populationen ersetzt. Und siehe da, plötzlich stiegen die Zahlen! Bei so offensichtlicher Korruption möchte man meinen, der Überführte müsste schon aus Anstandsgründen aufgeben, aber weit gefehlt. Er schaltet einen Gang höher.
Bestes Beispiel der Glyphosatskandal: Alle Labore und unabhängigen Prüfstellen bestätigen dem Mittel keine Krebsgefährdung. Nur eine, das IARC, ermittelt unter dubiosen Umständen eine solche. Zumindest der Verdacht der wissenschaftlichen Korruption liegt bei dieser Faktenlage nahe. Es wundert deshalb auch nicht, dass das IARC bisher mehr als 900 Substanzen untersucht hat und allen bis auf einer wurde eine Krebsgefährdung attestiert. Wie hoch ist die Wahrscheinlichkeit, bei 901 Versuchen 900 mal ins Schwarze zu treffen? Obwohl alle neutralen Stellen sowie über 3.000 überwachte Untersuchungen, zu denen der Hersteller verpflichtet ist, dem Mittel Unbedenklichkeit attestieren und die einzige Behörde, das dem Mittel eine Gefährdung beimisst, der Fingierung wissenschaftlicher Berichte überführt ist, kann sich unsere Umweltfee hinstellen und ob der Unklarheit erhebliche Bedenken anmelden. Selbst wenn das Entsetzen über den vorlauten CSU-Bauern nur inszeniert wäre, stimmte alleine die Tatsache, dass sich die Politik so massiv vor dem Druck aus der Matrix beugen muss, mehr als bedenklich. In fünf Jahren will man wieder zusammenkommen und über das Mittel entscheiden.
Die ganze Matrixmaschinerie kann nur hoffen, dass wir nie wieder kälteres Wetter bekommen. Denn wenn die Leute am eigenen Leib erfahren, dass die meisten der von uns angeblich zukünftig verursachten Gefährdungen und Katastrophen reine Fiktion sind, dann bricht das ganze Kartenhaus zusammen. Zuerst die Klimasause samt Energiewende, anschließend der Rest der Pseudowissenschaft im Gesundheitssektor, am Ende die ganze grüne Scheinkatastrophenwelt. Die nächsten Jahre wären prädestiniert dazu. Wir gehen einem Solar Minimum entgegen. Der AMO hat gedreht und mit der Sonnenaktivität negativ korrelierende und temperaturmoderierende Phänomene (Wolkenbildung aufgrund kosmischer Strahlung sowie Vulkanausbrüche) nehmen zu.
Die Gefahr bei diesem Szenario ist, dass extremistische Gruppierungen, die seit langem und notgedrungen in der Kritikerszene vertreten sind, aus dem Zusammenbruch der Matrix erhebliches politisches Kapital schlagen könnten. Der Begriff der "Lügenpresse" wäre legitimiert, große Teile der Politik und Wissenschaft diskreditiert. Der berechtigte Verlust an Glaubwürdigkeit auf so breiter Front eröffnete ein bedrohliches Potenzial für die nächsten Demagogen und ihre Agenden.
Fakt ist aber auch, dass das Leben, die Art zu Leben des Menschen sich immer weiter von der Natur entfernt hat. Vor allem die Ernährung hat sich ziemlich weit von der Natur entfernt. Glyphosat sowie diverse Ergänzungsstoffe, Massentierhaltung mit fragwürdiger Präventivmedikamentierung, Einsatz von fragwürdigen Desinfektionsmitteln, übermäßig viel Zusatz von Zucker, Salz oder Weizen. Alles Dinge dessen Langzeitwirkung fraglich ist.
U.a. gibt es ein zunehmend hohes Maß an Allergien, Unverträglichkeiten und Magen-Darm-Erkrankungen. Die Ursache dafür ist bislang nicht geklärt, deutet jedoch sehr stark auf die Art und Weise unserer Ernährung hin.
U.a. interessant, dass in der DDR der Anteil an Allergien und Unverträglichkeiten deutlich niedriger lag, mit der Wende der Anteil jedoch immer weiter zunahm und Heute näherungsweise auf dem Niveau der BRD liegt.
Man untersuchte dieses Phänomen und kam letztendlich auf die Schlussfolgerung, dass wohl die Art und Weise der Ernährung einen großen Anteil haben müsse.
Denn die These verstärkter Hygiene zieht nicht, weil die Hygiene in der DDR nicht wirklich schlechter war, man den Leuten das Händewaschen eingetrichtert hat. Ferner ist bedingt größerer Mobilität der Kontakt mit Keimen eher noch größer.
Also bleibt am Ende nur die Ernährung und da habe ich bereits familiär selbst so einige Erfahrungen gesammelt, dass die Unverträglichkeitserscheinungen von z.B. konventionellem Obst größer ist als von Bio-Obst. Nicht bei jeder Obstsorte aber z.B. ist es bei Äpfeln spürbar. Nicht von Jedermann, doch wer empflindlich darauf reagiert, der hat damit gewisse Probleme.
Z.B. Weizenunverträglichkeit, diese betrifft in meinem nahen familiären Umfeld gleich mehrere Personen. Mit dem Wechsel von Weizen auf Dinkel hat es sich schon deutlich verbessert, mit dem Verzicht auf glutenhaltiges Getreide sind die Symptome verschwunden.
Auch hier ist zu beobachten, dass die Getreideunverträglichkeiten immer weiter zunehmen.
Zu behaupten, dass das Alles nur Panikmache ist, blendet die latente diffuse aber eben existende Realität aus.
Ich halte nichts von irgendwelchen Ergänzungsstoffen, irgendwelchen Pestiziten und Zusätzen.
Diese ganzen Zusätze dienen meiner Meinung nach nur dazu, damit sich einige mächtige Konzerne einmal mehr die Taschen füllen können.
Eine echte Notwendigkeit besteht eigentlich nicht. Die Mehrerträge sind zumeist marginal bzw. liesen sich durch eine etwas klügere Landwirtschaft ebenfalls erreichen, auch mit Unkraut.
Naja und das Thema Dezentralität hatten wir ja bereits.
Die großen Energiekonzerne, Rohstoffexplorer, usw. haben durch verantwortungsloses Handeln gesellschaftlich verspielt, was letztendlich den Wunsch nach PV usw. noch fördert.
Man vertraut schlichtweg den großen Energieversorgern nicht mehr und will lieber ein Stück weit unabhängiger sein.
Mit PV auf dem Dach kann man diese Unabhängigkeit erreichen und dies ist dann auch ein gewisser Aufpreis wert, so wie letztendlich auch der Audi oder BMW seinen Aufpreis wert ist, obwohl es auch der Dacia tun würde.
Zu den Getreideunverträglichkeiten kann ich wenig sagen. Vielleicht sind es Pestizide, vielleicht ebenso fehlende Immunisierung durch zuviel Hygiene, vielleicht Psychologie, ...