Quelle: www.sz-online.de (Kommentare von Franz Hein)
Eine Studie Dresdner Forscher zeigt jetzt: Der Energiehandel wird dem Stromnetz gefährlich.
Ohne Strom geht es nicht. Unser Alltag, unser Leben ist abhängig von einer sicheren und zuverlässigen Versorgung mit elektrischer Energie. Ob zu Hause, unterwegs oder auf der Arbeit. Immer mehr Geräte brauchen immer mehr Strom. Das ist eine Herausforderung für Stromerzeuger und Netzbetreiber. Dresdner Wissenschaftler aber gehen nun der Frage nach: Wie lange geht das noch gut? Droht eine Überlastung des Stromnetzes? Wird es bald ganz oft einfach zappenduster? Gemeinsam mit Kollegen aus Göttingen, Jülich, London und Tokio gingen Benjamin Schäfer und Marc Timme vom Dresdner Forschungszentrum Cfaed diesen Fragen nach. Dabei erlebten sie Überraschungen.
Das Stromnetz in Deutschland und in ganz Europa funktioniert mit einer Netzfrequenz von 50 Hertz. Sie wird meist mittels Turbinen erzeugt, zum Beispiel in Wasser- und Kohlekraftwerken. Diese rotieren mit 50 Umdrehungen pro Sekunde. Doch genau diese Netzfrequenz kann absinken. Das geschieht genau dann, wenn dem Stromnetz mehr elektrische Energie entzogen wird. Das passiert unter anderem, wenn ein großes Industriewerk den Betrieb aufnimmt. In diesem Fall wird mehr Energie in das Netz eingespeist, um die vorherige Frequenz wiederherzustellen. Eine zu große und zu lange Abweichung vom eigentlichen Sollwert von 50 Hertz kann schlimme Folgen haben. Gerade empfindliche Geräte, die am Netz angeschlossen sind, können dabei kaputt gehen.
Anmerkung F. Hein: Es wird nicht die Frequenz wieder „hergestellt“, sondern zunächst die Auslenkung des Gesamtsystems aus dem sich laufend verändernden Leistungsgleichgewicht zurückgeführt. Bei einem Ungleichgewicht wird, wenn Leistungsmangel herrscht, den rotierenden Massen von der in der Drehbewegung steckenden Energie so viel „abgezogen“ (inhärent, da der Energieerhaltungssatz gilt), wie im elektrischen Teil des Gesamtsystems fehlt. Das lässt die Maschinen langsamer drehen. Damit sinkt die Frequenz, welche bei Synchronmaschinen exakt mit der Drehzahl übereinstimmt. Einrichtungen, welche diese Frequenz als Kenngröße für ihre Primärregelaufgaben nehmen, versuchen dann überall im gesamten Stromsystem durch das Einspeisen zusätzlicher Energie das Leistungsgleichgewicht wieder herzustellen, um damit die eingetretene Frequenzabsenkung zu stoppen. In dem Regelbereich, in dem das Leistungsungleichgewicht aufgetreten ist, muss in der Folge die Sekundärreglung versuchen, durch darüber hinaus gehende Energieeinspeisung im Gesamtsystem die Netzfrequenz wieder auf den Sollwert anzuheben. Die abgesunkene Frequenz muss wieder auf den Sollwert gebracht werden. Das macht nicht die Primärregelung, sondern die Sekundärregelung. Dazu muss zunächst erkannt werden, in welchem Regelbereich das Ungleichgewicht verursacht wurde. Das erfordert Leistungsmesswerte an allen Rändern der Regelbereiche und einen Vergleich mit dem geplanten Leistungsflüssen über diese Ränder hinweg. Während also das Stoppen einer Frequenzabsenkung ein gemeinschaftliches Bemühen ist, ist das Wiederherstellen der Sollfrequenz eine regelbereichsspezifische Aufgabe. Bei einem Leistungsüberschuss passiert genau das Gleiche, nur in anderer „Leistungs“-Richtung. Als Konsequenz bewegt sich die Frequenz als Indikator für das Leistungsgleichgewicht innerhalb eng vorgegebener Grenzen. Jede beabsichtigte Leistungsänderung müsste also konsequenterweise „angemeldet“ werden, damit das Gesamtsystem sich auf die Beherrschung eines bevorstehenden Leistungsungleichgewichts vorbereiten kann.
Aber auch das Gewinnen erneuerbarer Energien wie etwa aus Windkraft oder Photovoltaikanlagen verursacht solche Schwankungen im Netz. Der Wind weht einfach nicht immer mit der gleichen Stärke oder Wolken verhindern eine gleichmäßige Produktion von Energie aus Solaranlagen. Kritiker dieser Art der Stromerzeugung behaupten immer wieder, dass das die Versorgungssicherheit im Stromnetz dramatisch beeinflusst. Inwieweit das stimmt, analysierten die Dresdner mit ihren internationalen Partnern ebenfalls.
Um eine Antwort zu finden, haben die Wissenschaftler zunächst Messungen aus Deutschland, Frankreich, Großbritannien, Finnland, Mallorca, Japan und den USA zusammengetragen. Deutschland erzeugt und verbraucht Strom dabei nicht isoliert und für sich allein. Über das europäische Verbundsystem Strom tauscht es Strom mit anderen Ländern aus. Die Analyse des Datenmaterials brachte gleich zwei Überraschungen. Die erste: Alle 15 Minuten kommt es zu besonders starken Schwankungen im europäischen Netz. Der Grund dafür ist der Stromhandel. „In dieser Zeitspanne einigen sich die Erzeuger auf dem Strommarkt in Europa auf eine neue Verteilung für die Produktion“, erklärt Marc Timme. Damit ändert sich auch, wo genau wie viel Strom in das Netz eingespeist wird. „Interessanterweise erscheinen die durch den Stromhandel hervorgerufenen Netzschwankungen bedeutender als die durch Einspeisung erneuerbarer Energien.“
Anmerkung F. Hein: Der Stromhandel folgt vereinbarten Fahrplänen, die sich bei jedem Viertelstundenwechsel in der Leistungshöhe sprungartig verändern können. Das ist die Folge einer „Digitalisierung“ durch den Gebrauch von Zahlengrößen, ohne die immer begrenzte Änderungsgeschwindigkeit von allen technischen Komponenten zu berücksichtigen. Dieser künstlich hervorgerufene Gleichzeitigkeitsfaktor infolge des Fahrplanwechsels führt, auch wenn zahlenmäßig sämtliche Bilanzen vor und nach dem Wechsel stimmig sind, zu Leistungsungleichgewichten und damit zu Ausschlägen bei der Kenngröße „Frequenz“. Da sämtliche betroffenen Komponenten keineswegs alle exakt gleichzeitig beginnen, den neuen Leistungssollwert erreichen zu wollen und das auch ganz unterschiedlich schnell können, gibt es zu jedem Viertelstundenwechsel unvermeidliche Leistungsungleichgewichte. Der Gleichzeitigkeitsfaktor beim Fahrplanwechsel einerseits und die Unschärfe des Reaktionszeitpunkts zusammen mit der immer begrenzten Leistungsänderungsgeschwindigkeit sind also die Ursache der beobachteten, regelmäßig auftretenden Frequenzabweichungen.
Zweites Ergebnis der Studie: Die Schwankungen des Netzes folgen keinen statistischen Gesetzmäßigkeiten.Stattdessen sind extreme Abweichungen viel wahrscheinlicher als bisher angenommen. Das erhöht den Druck auf Stromerzeuger und Netzbetreiber. Wollen sie in Zukunft im Zuge einer Energiewende verstärkt auf erneuerbare Energien zurückgreifen, muss klar sein, wie groß die zu erwartenden Probleme sind und wann sie auftreten. Die Wissenschaftler haben dafür nun ein mathematisches Modell entworfen, welches genau diese Fragen beantworten soll. Mit dessen Hilfe berechnen sie die erwarteten Schwankungen je nach Netzgröße und schätzen ab, wie sehr die Störungen von erneuerbaren Energien abhängen.
Ein Vergleich mehrerer Regionen zeigt, dass größere Schwankungen in Netzen mit einem größeren Anteil an erneuerbaren Energien auftreten. So ist beispielsweise der Anteil der Wind- und Solarerzeugung in Großbritannien um ein vielfaches höher und auch die Schwankungen der Netzfrequenz sind deutlich größer als beispielsweise in den USA. Damit der Anteil an Solarenergie oder Windkraft künftig aber trotzdem erhöht werden kann, empfehlen die Forscher Investitionen in neue Technik zur besseren Regelung der Stromnetze. Dabei geht es um eine intelligente Anpassung von Stromerzeugung und Stromverbrauch an die Netzfrequenz. Ein Ansatzpunkt: intelligente Stromzähler, die die Elektrogeräte entsprechend der Situation im Netz an- und abschalten.
Anmerkung F. Hein: Leider ist das eine unzureichende oder sogar für das Gesamtsystem gefährliche Vorgehensweise. Zum einen ist kein Stromzähler intelligent, er stellt nur die Energiemenge fest, welche in dem zurückliegenden Messintervall über den Messpunkt geflossen ist. Die „Intelligenz“ muss in Energieassistenzsystemen „gesteckt“ werden, welche das Energiemanagement insgesamt beherrschen. Zum anderen steckt in dem Vorschlag immer noch das zentrale Denken, mit dem in der Vergangenheit bei noch relativ wenigen, gut regelbaren Kraftwerken die Netzregelaufgabe gemeistert werden konnte. Hier ändert sich aber das Gesamtsystem grundlegend in Richtung einer Vielzahl von kleineren Einheiten, die allein schon aufgrund ihrer Anzahl nicht mehr zentral geregelt werden können. Im Übrigen ist jede zentrale Regelung störungsanfällig, weil die dazu erforderlichen Informationsverarbeitungen wie auch die Informationsweiterleitungen immer durch Angriffe im Informationsnetz fehlgeleitet werden können. Der damit erreichbare Gleichzeitigkeitsfaktor bei einer Leistungsänderung ist dann von keiner Netzregelung mehr beherrschbar. Die zentrale Regelung ist eine Technik, die in der Vergangenheit gut war, in der Zukunft aber an den neuen Rahmenbedingungen scheitert. Wir müssen wie in einem Orchester mit einer Vielzahl von Mitspielern und hier mit der im Wechselstromnetz überall verfügbaren Kenngröße „Frequenz“ (vergleichbar mit dem Klang des gespielten Stückes) ein Miteinander zur Gewährleistung der Netzstabilität erreichen.
Anmerkung Herbert Saurugg: Auch aus komplexitätswissenschaftlicher Sicht wird ein zentrales Steuern in einem komplexen System nicht funktionieren. Der einzig wirklich über Millionen Jahre erprobte und erfolgreiche Ansatz ist ein zelluläres System, wie es sich in der Natur durchgesetzt hat: Dezentrale, autonome Strukturen, die auch mit Fehlern umgehen könne („Fehlerfreundlichkeit“)
Es gibt noch ganz andere Ideen. Eine davon plant mit sogenannten Microgrids, also die Aufteilung des großen Stromnetzes in viele kleine Zellen. Damit könnte beispielsweise eine Stadt oder Gemeinde mit einem Blockheizkraftwerk und ihrer eigenen Wind- und Photovoltaik-Erzeugung weitestgehend autonom von anderen Stromquellen existieren. Ein Modell, das versuchsweise auch in einigen Regionen Deutschlands schon ausprobiert wird.
Doch die Realität sieht anders aus, belegt nun die Studie. In der Untersuchung zeigen kleinere Netze, wie etwa in Mallorca oder Großbritannien, stärkere Schwankungen als die größeren. „Unsere Ergebnisse zeigen, dass eine Aufteilung zu größeren Frequenzschwankungen in diesen kleinen Netzen führt, als es in dem gemeinsamen europäischen Verbundnetz der Fall ist“, sagt Benjamin Schäfer. Technisch seien Microgrids deshalb nur eine Option. Die Forscher wollen sich weiter mit dieser Frage beschäftigen, sammeln derzeit zusätzliche Daten in Irland und Island und bereiten Experimente vor.
Anmerkung F. Hein: Micorgrids (Energiezellen) können und müssen zwar alle autonom ihren Leistungsbedarf im gemeinsamen Netzverband beeinflussen, damit dieser Bedarf sich stochastisch und nur innerhalb zulässiger Abweichungs“bändern“ bewegt. Aber das allein reicht nicht. Es muss den Micorgrids als Hilfestellung für ihr dann gemeinschaftsdienlichem Wirken die Gesamtsicht des jeweiligen Netzverbandes zeitnah und möglichst auch mit einer zutreffenden Prognose zur Verfügung stehen. Eine solche Gesamtsicht ist zum „Orchestrieren“ und damit zum Einhalten eines gemeinschaftsdienlichen Verhaltenscodex unerlässlich. Die als „Leitplanke“ für das dezentrale, autonome Verhalten ankommende Gesamtsicht muss zudem dezentral auf Plausibilität geprüft werden, damit keine sich ausweitende Störung breit machen kann. Nur so kann die notwendige Robustheit des Gesamtsystems erreicht werden.
Anmerkung Herbert Saurugg: Der Systemumstieg wird nicht kostenlos sein. Vor allem, da wir mit einem hoch optimierten System als Referenz konkurrieren müssen. Aber aus derzeitiger Sicht ist dieser Umstieg wirklich alternativlos, außer man nimmt bewusst ein Chaos in Kauf. Denn das zentralisierte System scheint zwar stabiler zu sein, ist aber massiv verwundbarer und das unabhängig von möglichen Auslöseereignissen. Auch in den anderen genannten Ländern kann man mit den auftretenden Frequenzschwankungen umgehen. Also ist das grundsätzlich technisch möglich. Dieses Wissen wird nur in Mitteleuropa kaum eingesetzt, weil ja alles so gut funktioniert. Und hier kommt wieder die Truthahn-Illusion ins Spiel: Das Verwechseln der Abwesenheit eines Beweises (für eine Gefahr) mit dem Beweis für die Abwesenheit, das heißt die Nichtexistenz (dieser Gefahr). – Keine Beweise für die Möglichkeit großer Ereignisse != Beweis für keine möglichen Schwarzen Schwäne!(Antifragilität – Anleitung für eine Welt, die wir nicht verstehen, Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse, Nassim Taleb)
Noch eine andere Sache könnte dem Stromnetz gefährlich werden. Wie eine jetzt veröffentlichte Studie der Unternehmensberatung Oliver Wyman behauptet, bedroht die wachsende Zahl von Elektroautos die Versorgung in Deutschland. Ab einer E-Auto-Quote von 30 Prozent könne Elektroenergie fehlen. Deshalb könnte in einigen Gebieten „bereits in fünf bis zehn Jahren regelmäßig der Strom ausfallen – ab 2032 ist damit flächendeckend in Deutschland zu rechnen“, heißt es in der in München veröffentlichten Studie. 2035 werde mehr als jedes dritte Auto auf deutschen Straßen ein E-Auto sein. Für diese Menge an Elektromobilen sei das deutsche Stromnetz nicht ausgelegt. Um Stromausfälle zu vermeiden, müssten die Netzbetreiber bei einer Kfz-Elektrifizierung von 50 Prozent bis zu elf Milliarden Euro in den Ausbau ihrer Netze investieren. Eine Alternative wäre, die Autos möglichst in der Nacht zu laden. Wenn 93 Prozent der Autofahrer das täten, „wird ein Ausbau des Netzes überflüssig, selbst wenn die E-Auto-Quote 100 Prozent beträgt.“
Anmerkung F. Hein: Auch beim Laden der E-Autos tritt das Problem des zu hohen Gleichzeitigkeitsfaktors auf, der hier nicht nur zur Gefahr für die Netzstabilität führt, sondern zusätzlich auch zu nicht mehr beherrschbaren Leistungsspitzen in den betroffenen Netzen. Das Laden müsste konsequent möglichst aus dezentralen, lokalen Einrichtungen erfolgen, in denen laufend ein genügend hoher Energievorrat angesammelt und bereit gehalten wird. Ohne eine solche Pufferwirkung möglichst „flächig“ verbreiteter, lokaler Speichereinheiten sind die Anforderungen der E-Mobilität nicht zu meistern. Mit einem Netzausbau ist es überhaupt nicht getan, denn ein Stromnetz kann keine Energie speichern, sondern nur transportieren und das auch nur im begrenzten Umfang. Neben der Netzstabilität müssen auch die Netzsicherheit und die Einhaltung von Grenzwerte gewährleistet sein. Es gibt kein unendlich leistungsfähiges Netz, das den zum Laden benötigten Strom an jeder beliebigen Stelle und gar noch verlustlos bereitstellen kann.
Ohne Beachtung der Wirklichkeit und Einhaltung der Naturgesetze, hier besonders auch der physikalischen Gesetzmäßigkeiten, funktioniert keine Technik. Ausführliche und selbst auch noch so penibel, (angeblich) sämtliche denkbare Missverständnisse und Fehldeutungen vermeidend formulierte Gesetze oder ein noch so raffiniert geregelter Markt ersetzen nicht die Notwendigkeit, Naturgesetze zu beachten. Dummerweise muss auch noch die menschliche Dummheit oder auch die immer mögliche menschliche Bosheit ebenfalls beachtet werden. An die Endlichkeit menschlicher Dummheit konnte selbst Albert Einstein nicht glauben.
Anmerkung Herbert Saurugg: Ich fürchte, dass der Ansatz „Autos möglichst in der Nacht zu laden“ ebenfalls einem Trugschluss unterliegt. Wir hatten zwar bisher in der Nacht einen Stromüberschuss, da die klassischen Kraftwerke einfach weitergelaufen sind. Je weniger wir von diesen haben, desto eher wird sich die Stromüberschussspitze in den Nachmittag verlegen, wenn die Sonne scheint, was wir ja schon heute sehen. Zum anderen wird es immer weniger planbare Zeiten geben, da zwar der Wind meistens auch in der Nacht weht, jedoch auch sehr unterschiedlich.
Starke Abweichung der Netzzeit
Auch Markus von www.netzfrequenz.info beobachtet derzeit eine viel zu niedrige Netzfrequenz.
Seit Tagen liegt der Mittelwert der Netzfrequenz viel zu niedrig. Das ist insbesondere für Synchronuhrenschlecht, da diese die Netzzeit als Zeitbasis nehmen. Mittlerweile läuft deren Uhrzeit fast 5 Minuten nach.
Die Netzfrequenz ist normalerweise ein guter Taktgeber, da sie im Mittel immer genau 50Hz beträgt. Falls die Zeitabweichung durch Schwankungen in der Frequenz auf über 20 Sekunden anwächst, dann wird die Sollfrequenz von 50Hz um 10mHz erhöht/erniedrigt, um diesen Gangfehler auszugleichen. Derzeit liegt die die Sollfrequenz bei 50,01Hz. Das ist schon seit ein paar Tagen so. Trotzdem läuft die Netzzeit immer weiter hinterher.
Die aktuelle Netzfrequenz und die offizielle Abweichung kann bei Swissgrid angesehen werden
Eine derartig hohe Abweichung bei der Netzzeit habe ich bei meinen Beobachtungen in den letzten Jahren noch nie gesehen. Der Grund, warum derzeit im Mittel „zu wenig Strom“ erzeugt wird, ist mir unbekannt.
Anmerkung F. Hein: Die aktuell beobachtete extreme Abweichung der Synchronzeit führt mit an Sicherheit grenzender Wahrscheinlichkeit von einem Fehlverhalten in einem Regelbereich her. Früher wäre das in der Verantwortung des entsprechenden ÜNB gelegen. Jetzt aber hat sich offenbar ein Händler (oder es haben sich gleich mehrere Händler) unzulässig verhalten und die per Fahrplan angekündigte Einspeisung erfolgte nicht bzw. in zu geringer Höhe. So etwas habe ich schon einmal erlebt (noch in der Zeit der UCPTE). Damals hat sich ein ganzer Staat fehlerhaft verhalten. Die jetzige Größenordnung der Abweichung spricht auch dafür, dass ein Fehlverhalten in einem größeren Umfang vorliegt.
Trackbacks/Pingbacks