Zum Inhalt springen

Stromnetz der Zukunft: Versorgungssicherheit, Blackouts, Erneuerbare Energien, Stabilität, Netzsteuerung und KI.

Funktionsweise und Stabilität des Stromnetzes, Verlust der Massenträgheit und zunehmende Komplexität des Systems.

Stromnetz der Zukunft: Versorgungssicherheit, Blackouts, Erneuerbare Energien, Stabilität, Netzsteuerung und KI.


6.11.2025

Warum blieb Stromverbrauch in der Schweiz in den letzten 10 Jahren etwa konstant?

Der Stromverbrauch in der Schweiz blieb in den letzten 10 Jahren etwa konstant. Dies geschah, obwohl gleichzeitig die Bevölkerung wuchs und neue, stromverbrauchende Technologien wie Elektromobilität und Wärmepumpen eingeführt wurden. Die Konstanz des Stromverbrauchs ist hauptsächlich auf massive Effizienzsteigerungen im Umgang mit Elektrizität zurückzuführen:

1. Allgemeine Effizienzsteigerungen: Der Strom wurde insgesamt effizienter eingesetzt. Dies betrifft sowohl die LED-Beleuchtung als auch bessere Effizienz in den Prozessen.

2. Kompensation des Mehrbedarfs: Die Effizienzgewinne waren stark genug, um den Mehrbedarf, der durch das Bevölkerungswachstum sowie die Verbreitung von Elektroautos und Wärmepumpen entstand, auszugleichen oder zu kompensieren.

Obwohl der Stromverbrauch in den letzten Jahren konstant blieb, wird erwartet, dass er in Zukunft (ab den 2030er/2040er Jahren) ansteigen wird, da die Dekarbonisierung die Elektrifizierung des Wärme- und Verkehrssektors stark vorantreibt und die kumulativen Effizienzgewinne im Basisverbrauch dann nicht mehr ausreichen, um den gesamten zusätzlichen Bedarf auszugleichen. 

Wie ist der Energiemix in der Schweiz – ein Vergleich der letzten 20 Jahre.

Die nachfolgende Tabelle zeigt Vergleichsdaten für den Endenergieverbrauch in der Schweiz für die Jahre 2010 und 2023 sowie allgemeine Trends der letzten zehn Jahre. Eine exakte Tabelle, die den Energiemix über die vollen 20 Jahre (z. B. 2003 bis 2023) quantitativ abbildet, ist in nicht enthalten, aber die wichtigsten Komponenten und deren Entwicklung sind im direkten Vergleich 2010 und 2023 ersichtlich.

Dieser Vergleich zeigt insbesondere die massive Reduktion fossiler Brennstoffe und die Konstanz des Stromverbrauchs trotz Bevölkerungswachstum.

Vergleich des Endenergieverbrauchs (2010 vs. 2023).

Die folgende Übersicht basiert auf dem Szenariovergleich des Endenergieverbrauchs, der die Entwicklung bis 2050 einordnet, aber die Messdaten von 2010 und 2023 vergleicht:

Energiequelle, Sektor
Status 2010
Status 2023
Wichtigste Entwicklung (2010–2023)

Brennstoffe (Heizöl etc.)

Hoher Anteil.

Massiv reduziert.

Massive Reduktion im Gebäudebereich, hauptsächlich durch bessere Isolation und Verbote nach der Erdölkrise.

Erdöl Treibstoffe (Mobilität)

Großer Anteil (Benzin, Diesel).

Anteil blieb hoch.

Im Mobilitätsbereich wurde nicht so viel erreicht; der Verbrauch stieg nach dem COVID-Knick wieder an.

Erdgas

Vertreten.

Vertreten.

(Präsenz in Gebäude und Industrie).

Holz

Vertreten.

Vertreten, spielt weiterhin eine Rolle.

(Konstant oder leichte Steigerung).

Elektrizität (Strom)

Vertreten.

Vertreten.

Der Stromverbrauch blieb etwa gleich in den letzten 10 Jahren, trotz Bevölkerungswachstum, Elektromobilität und Wärmepumpen.

Photovoltaik (PV)

Geringer Anteil.

Signifikanter Ausbau.

Die einzige Technologie, die in den letzten 10 Jahren maßgeblich und signifikant ausgebaut wurde.


Wichtige Trends und Konstanten der letzten 10 bis 20 Jahre.

1. Reduktion des Gesamtenergieverbrauchs: Der gesamte Endenergieverbrauch in der Schweiz nahm in den letzten 10 Jahren ab, obwohl die Bevölkerung wuchs. Dies ist primär auf die massive Reduktion des Heizöls im Gebäudebereich zurückzuführen.

2. Konstanter Stromverbrauch: Der Stromverbrauch blieb in den letzten 10 Jahren etwa konstant. Dies gelang, weil massive Effizienzsteigerungen (z. B. durch LED-Beleuchtung und bessere Prozesse) den Mehrbedarf durch Bevölkerungswachstum, Elektromobilität und Wärmepumpen kompensieren konnten.

3. Entwicklung des Strom-Erzeugungsmixes (Seit 1950/70er): Im Strommix stieg die Produktion durch Kernkraft in den 70er Jahren stark an. Die Wasserkraft (Speicher- und Flusswasserkraftwerke) wurde ebenfalls zugebaut. In den letzten 10 Jahren war Photovoltaik die einzige Technologie, die signifikant im Erzeugungsmix ausgebaut wurde.

4. Importabhängigkeit: Die Importabhängigkeit von Energie (fossile und importierte Energie) nahm in den letzten 10 Jahren massiv ab.

Das europäische Stromnetz - welche Länder sind stark vernetzt?

Das europäische Stromsystem ist generell stark vernetzt, was die Grundlage seiner Stabilität darstellt. Insbesondere werden folgende Länder und Regionen als stark vernetzt hervorgehoben:

Europa (Allgemein).

Das europäische Stromnetz ist so stabil und bietet eine so gute Versorgungsqualität mit Strom, weil es eng vermascht (eng vermarscht) und sehr gross ist:

  • Keine Landesgrenzen: Auf einer schematischen Darstellung der Hochspannungsleitungen in Europa sind keine Landesgrenzen zu sehen.
  • Gegenseitige Hilfe: Diese Vernetzung ermöglicht es, dass bei einem unvorhergesehenen Ausfall eines grossen Kraftwerks (etwa in der Schweiz, Deutschland oder Italien) alle Kraftwerke im gesamten Europa automatisch und innerhalb von Sekunden minimal hochfahren, um den Ausgleich wiederherzustellen.
  • Wichtige Nachbarländer: Die Schweiz benötigt ein gutes Auskommen mit ihren Nachbarländern (die alle in der EU liegen), da dies rein technisch für die Versorgungssicherheit des Stroms von entscheidender Bedeutung ist.
Die Schweiz.

Die Schweiz ist in das europäische Netz sehr gut integriert:

  • Sie verfügt über 41 Grenzleitungen.
  • Die Schweiz ist das Land mit den meisten grenzüberschreitenden Leitungen, obwohl sie so klein ist.
  • Diese internationale Vernetzung wurde von Anfang an mit dem Ziel der Versorgungssicherheit angestrebt.

Die mangelnde starke Vernetzung anderer Gebiete dient als implizite Bestätigung für die Wichtigkeit der Vernetzung:

  • Die iberische Halbinsel (Spanien und Portugal) wird als Beispiel dafür genannt, dass sie nicht wahnsinnig stark an Europa angebunden ist. Es wird die Annahme geäussert, dass der dort kürzlich aufgetretene Blackout möglicherweise nicht passiert wäre, wenn die Anbindung stärker gewesen wäre. Je stärker vernetzt und je effizienter der Austausch ist, desto höher ist die Versorgungssicherheit.

Wie verändert der Übergang zu erneuerbaren Energien die Stabilität des Stromnetzes?

Der Übergang zu erneuerbaren Energien führt zu tiefgreifenden Veränderungen in der Funktionsweise und Stabilität des Stromnetzes, primär durch den Verlust der Massenträgheit und die zunehmende Komplexität des Systems.


Die wesentlichen Veränderungen und Herausforderungen für die Netzstabilität sind:

1. Verlust der Massenträgheit und die Umstellung auf Leistungselektronik.

Die traditionelle Stabilität des Wechselstromnetzes (AC-Netz) basierte seit ihrer Erfindung um 1890 auf der cleveren analogen Physik der Synchrongeneratoren:

  • Rotierende Massen als Stossdämpfer: Grossgeneratoren in Kohle- oder Atomkraftwerken stabilisieren das Netz durch ihre Massenträgheit. Diese rotierende Masse (die Generatoren wiegen oft 1000 Tonnen und drehen sich mit Tausenden von Umdrehungen pro Minute) stellt kinetische Energie dar und dient als traditionell wichtigster Stossdämpfer im System. Sie helfen, Frequenzschwankungen zu glätten und das Netz sehr robust zu halten, auch bei Störungen oder Ausfällen.
  • Ablösung durch Wechselrichter: Erneuerbare Energiequellen wie Photovoltaik (PV) produzieren Gleichstrom (DC) und haben keine grossen rotierenden Massen. Der Gleichstrom wird mithilfe von Wechselrichtern (Leistungselektronik) in Wechselstrom (AC) umgewandelt.
  • Digitale, programmierbare Steuerung: Im Gegensatz zu den elektromechanischen Generatoren sind diese Wechselrichter softwarebasiert und digital. Das Verhalten der Leistungselektronik hängt vollständig davon ab, wie sie programmiert wird; es gibt keine robuste, stabile analoge Physik mehr, die das Netz zusammenhält.
2. Zunehmende Komplexität und neue Herausforderungen.

Die Umstellung auf dezentrale, erneuerbare Quellen steigert die Komplexität der Steuerung erheblich:

  • Dezentralisierung und bidirektionale Flüsse: Anstatt des traditionellen linearen Flusses von wenigen Grosskraftwerken zum Endverbraucher, wird das System komplexer. Endverbraucher werden zu Prosumern (z.B. mit PV-Anlagen), was bidirektionale Stromflüsse im Netz erzeugt. Die Steuerung wird dadurch deutlich anspruchsvoller.
  • Systemische Anfälligkeit: Aus wissenschaftlicher Sicht nimmt die Möglichkeit für Grossstörungen tendenziell zu, je komplexer das System wird.
  • Synchronisierungsherausforderungen: Die Koordination und Synchronisierung der zahlreichen neuen, Wechselrichter-basierten Erzeugungsanlagen ist eine gewaltige Herausforderung. Wenn diese sich nicht richtig synchronisieren, kann es zu Oszillationen im Stromnetz kommen.
  • Cyberrisiko: Da die dezentralen, erneuerbaren Anlagen primär softwarebasiert sind, entsteht ein Cyberrisiko (neue Angriffsvektoren), mit dem die Sicherheitsverantwortlichen lernen müssen umzugehen und in dessen Sicherheit investiert werden muss.
3. Notwendigkeit neuer Regelmechanismen.

Die Stabilität des Netzes kann nicht mehr ausschliesslich auf den mechanischen Eigenschaften der Synchrongeneratoren beruhen. Neue, intelligente Lösungen sind erforderlich, um die Stabilität aufrechtzuerhalten:

  • Von Netzfolgend zu Netzbildend: Bisher waren die Wechselrichter oft so programmiert, dass sie passiv der Netzfrequenz folgten (Netzfolgenelektronik), die von den grossen Synchrongeneratoren vorgegeben wurde. Wenn die Zahl der klassischen Generatoren sinkt, kann diese Netzfrequenz selbst instabil werden, wodurch die Netzfolgeregelung versagt.
  • Aktive Netzbildung: Die Wechselrichter der Zukunft müssen netzbildend (Grid-Forming) sein. Sie müssen Algorithmen nutzen (Regelungstechnik, Optimierung, KI), um das Netz aktiv zu bilden und stabile Frequenzstandards zu schaffen, ähnlich wie es früher die Synchrongeneratoren taten.
  • Regelenergie: Obwohl die Massenträgheit reduziert wird, spielen Batteriespeicher eine wachsende Rolle bei der Bereitstellung von Regelenergie, die hilft, das Gleichgewicht zwischen Erzeugung und Verbrauch wiederherzustellen.
  • Intelligente Steuerung: Konzepte wie die Steuerung der Ladung von Elektromobilen oder Wärmepumpen, die laden, wenn viel PV-Strom verfügbar ist (z.B. am Wochenende), erfordern Intelligenz im System, um den Netzausbau zu begrenzen.

Fazit.

Der Übergang stellt die Netzstabilität vor Herausforderungen, ist aber notwendig, um dem Klimawandel zu begegnen. Die grösste technologische Verschiebung liegt im Ersatz der analogen, robusten Physik (Massenträgheit) durch digitale, programmierbare Algorithmen (Wechselrichter). Diese digitalen Systeme müssen so programmiert werden, dass sie die Stabilität, die früher mechanisch garantiert wurde, nun aktiv, schnell und koordiniert gewährleisten. Analogie: Man könnte sich das Stromnetz als ein grosses Orchester vorstellen. In der alten Welt war der Taktgeber (Dirigent) ein massiver, unerschütterlicher Metronom (der Synchrongenerator), der durch seine physische Grösse und Trägheit den Rhythmus hielt. In der neuen Welt wird dieses Metronom durch Milliarden kleiner, digitaler Taktgeber (Wechselrichter) ersetzt. Die Herausforderung besteht nun darin, diese Milliarden von digitalen Geräten so intelligent zu programmieren, dass sie spontan, synchron und robust einen gemeinsamen Takt erzeugen, ohne auf das alte, träge Metronom als alleinige Führung angewiesen zu sein.

Warum bricht clevere Physik aus den Anfängen der Stromerzeugung auseinander?

Das Auseinanderbrechen der „cleveren Physik“ beschreibt den grundlegenden Wandel in der Funktionsweise des Stromnetzes, der durch die Integration neuer, erneuerbarer Energiequellen verursacht wird. Die clevere Physik war das Fundament des Wechselstromnetzes (AC), wie es seit etwa 1890 existiert:

1. Synchrongeneratoren: Die Stromerzeugung basierte auf Synchrongeneratoren (z.B. in Kohle-, Atom- oder Grosswasserkraftwerken). Diese Generatoren nutzen rotierende Massen (oft 1000 Tonnen schwere Eisenkerne), um durch die Bewegung in einem Magnetfeld Wechselstrom zu induzieren.

2. Massenträgheit: Diese grosse rotierende Masse stellt kinetische Energie dar. Sie fungierte als der traditionell wichtigste Stossdämpfer im System, der Fluktuationen und Störungen im Netz dämpfte und glättete.

3. Analoge Stabilität: Die Generatoren synchronisierten sich stabil, analog und von selbst über das Stromnetzwerk (Leitungen), sodass alle bei der gleichen Frequenz (50 Hz) liefen. Dieses Prinzip war unglaublich schlau und hielt das gesamte Netz ohne Automatisierung oder Software zusammen.

Warum bricht diese Physik auseinander?

Der Grund für das Auseinanderbrechen ist die Art und Weise, wie erneuerbare Energien (wie Photovoltaik und Windkraft) in das Netz eingespeist werden:

  • Gleichstromerzeugung: Erneuerbare Quellen produzieren primär Gleichstrom (DC), nicht Wechselstrom.
  • Einsatz von Leistungselektronik: Dieser Gleichstrom muss mithilfe von Wechselrichtern (Invertern), die auf Leistungselektronik basieren, in Wechselstrom umgewandelt werden, um mit dem Netz kompatibel zu sein.
  • Verlust der Trägheit: Bei dieser Technologie gibt es kein Schwungrad und keine grosse Masse, die sich im Kreis dreht.
  • Digital statt Analog: Die Wechselrichter sind im Kern nur schnelle Schalter, die sehr oft (Tausende Male pro Sekunde) auf- und zugehen, um eine AC-Kurve zu erzeugen. Das Verhalten dieser kompletten Elektronik ist digital und vollständig programmierbar. Es gibt keine robuste, stabile analoge Physik mehr, die das Netz zusammenhält.

Die wissenschaftliche Gemeinschaft sieht dies als die wirkliche Herausforderung der Energiewende: nicht primär die Variabilität der erneuerbaren Energien, sondern wie man das Netz stabil hält, wenn das Kernprinzip der Synchronisierung – die clevere, analoge Physik der rotierenden Massen – durch Milliarden digital gesteuerter Komponenten ersetzt wird, die dekoppelt sind und nur tun, was man ihnen programmiert.

Metaphorisch gesprochen: Das Stromnetz verliert seine dämpfenden, mechanisch gekoppelten Schwungräder und muss diesen natürlichen Halt nun durch schnelle, koordinierte Software-Algorithmen (Regelungstechnik, Optimierung, KI) ersetzen.

Was ist die Resilienz-Definition als dynamisches Konzept?

 Die Resilienz wird vor allem aus psychologischer Sicht definiert und als ein dynamisches Konzept verstanden. Die zentrale Definition, geprägt durch den Resilienzforscher George Bonano, beschreibt Resilienz wie folgt:

Resilienz ist die Fähigkeit von Erwachsenen, die sich in ansonsten normalen Lebensumständen befinden, ein relativ stabiles Muster gesunden psychologischen und körperlichen Funktionierens zu erhalten. Diese Stabilität muss erhalten bleiben oder schnell wiederhergestellt werden, nachdem die Person einem einmaligen und potenziell sehr erschütternden Ereignis ausgesetzt war, wie beispielsweise einer lebensbedrohlichen Situation.


Wichtige Aspekte der Definition:
  • Dynamischer Prozess: Resilienz ist kein statischer Zustand oder eine einzelne genetische Eigenschaft, sondern ein dynamischer Aspekt. Es handelt sich um die Rückkehr zu einem früheren Funktionsniveau.
  • Wenig Einschränkung: In Studien zeigte sich, dass die resiliente Gruppe jene ist, die ganz am Anfang schon nur sehr milde, ganz wenig Einschränkung in ihrem Funktionsniveau aufweist und relativ schnell wieder zu diesem herkömmlichen oder früheren Funktionsniveau zurückkehrt.
  • Selbstwirksamkeit: Ein wichtiger Faktor der Resilienz ist das Vertrauen in die eigene Fähigkeit, schwierige Situationen zu meistern.
  • Reaktion als Schlüssel: Zusammenfassend lässt sich sagen, dass die Reaktion auf eine Krise, nicht die Krise selbst, darüber entscheidet, wie sehr sie uns zu schaffen macht.

Was ist der Rebound-Effekt?

Der Rebound-Effekt (auch als Boomerangeffekt bezeichnet) beschreibt ein Phänomen, bei dem Effizienzgewinne auf individueller Ebene durch eine massive Zunahme der Gesamtnutzung der betreffenden Technologie wieder aufgehoben oder sogar übertroffen werden:

1. Ausgangspunkt (Effizienzgewinn): Der Effekt tritt auf, wenn eine Technologie besser, effizienter oder günstiger wird, beispielsweise wenn jeder einzelne Rechenschritt energieeffizienter ist.

2. Verstärkter Einsatz: Wird die Technologie effizienter, wird sie gleichermassen stärker eingesetzt (stärkere Zunahme der Nutzung).

3. Netto-Ergebnis (Boomerangeffekt): Die Folge dieses verstärkten Einsatzes ist, dass trotz der Effizienzgewinne auf Einzelkomponentenebene der Gesamtstromverbrauch trotzdem höher ausfällt.

Relevanz im Kontext von KI und HPC.

Der Rebound-Effekt ist eine grosse gesellschaftliche Frage, insbesondere im Hinblick auf den Energiehunger von KI und Hochleistungsrechnern (HPC):

  • Zunehmende Nutzung von KI: Es wird erwartet, dass zukünftige Fortschritte bei der Optimierung von KI-Methoden zu einer verbesserten Effizienz führen. Wenn KI-Technologie jedoch stärker eingesetzt wird, kann dies den Rebound-Effekt auslösen.
  • Schwierige Prognose: Es ist enorm schwer vorherzusagen, wie stark dieser Effekt sein wird, insbesondere im Hinblick auf die breite Nutzung in der Gesellschaft.
  • Beispiele: Die Nutzung von KI-generativen Methoden (z.B. Large Language Models oder Bildmodellen) in sozialen Netzwerken könnte zu einem riesigen Strombedarf führen, der heute nicht gut prognostiziert werden kann.

Blackout in Spanien und Portugal – wie lange dauerte dieser?

Die Dauer eines spezifischen Blackouts, wie zum Beispiel der Ausfalls in Spanien und Portugal auf der iberischen Halbinsel, sowie allgemeine Einschätzungen zur Dauer solcher Ereignisse sind ein elementares Thema in der Forschung.

Zum Blackout in Spanien und Portugal:

Die Wiederherstellungszeit dieses überregionalen Ereignisses wurde als sehr positiv und überraschend schnell bewertet:

  • Die Grundversorgung war nach etwa 10 Stunden wiederhergestellt.
  • Die Vollversorgung wurde in unter 24 Stunden wiederhergestellt.
  • Dies war unerwartet, da Netzbetreiber in einem solch grossen Fall normalerweise von mindestens ein bis zwei Tagen, wenn nicht sogar drei Tagen, ausgehen würden, bis die gesamte Stromversorgung wiederhergestellt ist.
Allgemeine Kontextualisierung der Dauer:

Generell wird ein Blackout als ein überregionales Ereignis im Übertragungsnetz definiert, das von kurzer oder langer Dauer sein kann.

Die Dauer eines grossflächigen, langanhaltenden Stromausfalls ist entscheidend, da eine exponentielle Wirkbeziehung zwischen der Ereignisdauer, dem Schadensausmass und der Wiederherstellungszeit besteht. Je länger der Stromausfall dauert, desto prekärer wird die Situation.

Eine oft genannte "magische Grenze" für die Vorsorge kritischer Infrastrukturen liegt bei 72 Stunden (drei Tagen), da für diesen Zeitraum Notstromaggregate und Diesel vor Ort sind.

Das Szenario eines Stromausfalls in einer Grossagglomeration der Schweiz (wie Zürich) wird in einer Risikoanalyse angenommen, bei dem 1,5 Millionen Menschen für zwei bis vier Tage ohne Strom wären.

Wann schalteten Kraftwerke ab?

Kraftwerke (alle Erzeugungsanlagen) schalten unter normalen Umständen ab, wenn die Netzfrequenz bestimmte kritische Grenzwerte über- oder unterschreitet.

1. Allgemeine Frequenzgrenzwerte.

Kraftwerke sind so eingestellt, dass sie sich automatisch vom Netz trennen, wenn die Frequenz in einen kritischen Bereich gelangt:

  • Untergrenze: 47,5 Hz
  • Obergrenze: 51,5 Hz

Das Abschalten an diesen Punkten ist erwartbar und soll die physische Infrastruktur (die Generatoren, aber zunehmend auch die Wechselrichter) vor der physischen Zerstörung bewahren, damit das Netz später wieder aufgebaut werden kann. Sobald dies geschieht, ist der Blackout-Zustand erreicht.

2. Der Blackout in Spanien und Portugal.

Beim Blackout auf der iberischen Halbinsel wurde beobachtet, dass das Abschalten der Kraftwerke durch eine Ereigniskaskade sehr schnell erfolgte:

  • Auslöser: Nach Oszillationen und einem Spannungsanstieg im Netz fiel zunächst unerwartet ein grosser Solarpark (eine Erzeugungsanlage) aus, was zu einem Absinken der Frequenz führte.
  • Kaskade: Dieser Frequenzabfall und ein gleichzeitiger Anstieg der Stromspannung führten zu Folgeausfällen weiterer Erzeugungsanlagen.
  • Unerwartetes Verhalten: Interessant war, dass diese Anlagen ausfielen, obwohl die Frequenz den Grenzwert noch nicht einmal überschritten hatte. Dies deutet auf unerwartetes Verhalten bestimmter Netzelemente hin.
  • Geschwindigkeit: Der Zusammenbruch ging in den letzten Momenten extrem schnell vonstatten. Innerhalb von nur vier Sekunden sank die Frequenz von 50 Hz, was zum zweiten und dritten Ausfall der Erzeugungsanlagen führte, bevor das Netz endgültig zusammenbrach und sich vom europäischen Verbundnetz trennte.

Wurde die Schweiz vom Blackout in Spanien betroffen?

Der Blackout auf der Iberischen Halbinsel (Spanien und Portugal) war ein überregionales Ereignis. Es hatte jedoch keine direkten negativen Auswirkungen oder Störungen auf das Schweizer Stromnetz als Folge dieses spezifischen Ausfalls. Vielmehr wurde das restliche europäische Netz, in das die Schweiz eng integriert ist, von dem Ereignis abgeschirmt:

  • Begrenzte Ausbreitung: Das Ereignis fand "zum Glück" nur auf dem Festland von Spanien und Portugal statt. Die begrenzte geografische Ausbreitung wurde teilweise darauf zurückgeführt, dass die Iberische Halbinsel "nicht wahnsinnig stark an Europa angebunden" ist und nur "wenig vorhandene Grenzverbindungen nach Frankreich" besitzt.
  • Schutz des Verbundnetzes: Das Zusammenbrechen des iberischen Netzes führte dazu, dass es sich vom französischen Netz trennte, um "eben den Rest des europäischen Netzwerks auch zu schützen".

Obwohl die Schweiz generell mit 41 Grenzleitungen sehr gut in das europäische Netz integriert ist und prinzipiell immer das Risiko besteht, dass eine Grossstörung in einem Nachbarland (wie Deutschland) kaskadieren und die Schweiz mitbetreffen kann, scheint die Isolation des iberischen Netzes dies in diesem Fall verhindert zu haben.

Hintergrundinformationen zur Vernetzung der Schweiz:

Die Schweiz ist auf ein gutes Auskommen mit ihren Nachbarländern angewiesen, da die enge Vermaschung des europäischen Netzes dazu dient, die Stabilität zu gewährleisten. Fällt in einem Land ein grosses Kraftwerk aus, fahren alle Kraftwerke im gesamten Europa minimal hoch, um den Ausgleich innerhalb von Sekunden wiederherzustellen. Dies schafft allerdings auch eine Abhängigkeit von Ereignissen im Ausland.

Was sind kritische Netzknotenpunkte?

Kritische Netzknotenpunkte sind als Umspannwerke (Substations) innerhalb des Übertragungsnetzes definiert:

  • Identifikation und Anzahl: Die Umspannwerke stellen im Übertragungsnetz die kritischen Netzknotenpunkte dar. Im Schweizer Übertragungsnetz, welches die höchste Netzebene bildet, gibt es 147 Umspannwerke.
  • Netzebene: Das Übertragungsnetz dient traditionell dazu, den Strom von den Grossverbrauchern (z. B. Kern-, Kohle- oder Grosswasserkraftwerken) zum Endverbraucher zu leiten.
  • Systemische Relevanz: Der Ausfall eines Umspannwerks kann weitreichende Konsequenzen haben und eine Ereigniskaskade auslösen. Im Falle des Blackouts in Spanien und Portugal kam es zu einem unerwarteten Verlust eines Umspannwerks, was unmittelbar den Ausfall eines grossen Solarparks (einer Erzeugungsanlage) zur Folge hatte. Solche Folgeausfälle verstärkten die Störung und führten zum Zusammenbruch des Netzes.

Was macht das Stromnetz so komplex?

Die Komplexität des Stromnetzes ist stark angestiegen und stellt eine enorme Herausforderung dar. Diese Komplexitätssteigerung ist das Resultat des Umbruchs der Energieversorgung und der technologischen Umstellung von traditionellen Grosskraftwerken hin zu dezentralen, erneuerbaren Quellen.


Folgende Faktoren machen das Stromnetz so komplex:

1. Zunehmende Komplexität durch Dezentralisierung.

Die traditionelle, relativ lineare Struktur des Stromnetzes weicht einem hochgradig vermaschten, bidirektionalen System:

  • Bidirektionale Stromflüsse: Traditionell schickten Grossverbraucher (Kern-, Kohle-, Grosswasserkraftwerke) den Strom linear über das Übertragungsnetz zum Endverbraucher. Heute wird das System komplexer, da der Endverbraucher zu einem Prosumer wird (z. B. durch private PV-Anlagen) und zu Hause Strom erzeugt, was bidirektionale Stromflüsse im Netz bewirkt.
  • Anspruchsvolle Steuerung: Diese Dezentralisierung macht die Steuerung des gesamten Systems deutlich anspruchsvoller.
  • Wissenschaftliche Erwartung: Aus wissenschaftlicher Sicht betrachtet man komplexe Systeme so, dass die Möglichkeit für Grossstörungen tendenziell grösser wird, je komplexer das System ist.
2. Verlust der stabilisierenden, analogen Physik.

Der tiefgreifendste Komplexitätsfaktor ist der Verlust der eingebauten Stabilität, die das Netz über Jahrzehnte zusammenhielt:

  • Verlust der rotierenden Masse: Die Stabilität des Wechselstromnetzes basierte historisch auf der Massenträgheit der Grossgeneratoren (in Kohle- oder Atomkraftwerken), welche als wichtigste Stossdämpfer Fluktuationen glätteten.
  • Ersatz durch Software: Erneuerbare Energien (PV, Wind) sind über Wechselrichter (Leistungselektronik) mit dem Netz verbunden. Diese Wechselrichter sind im Wesentlichen schnelle Schalter und ihre Funktionsweise ist vollständig programmierbar. Das Netz verliert dadurch die robuste, stabile analoge Physik.
  • Synchronisierungsherausforderung: Die neue Herausforderung besteht darin, all diese Milliarden von Schaltern (Wechselrichtern) europaweit so zu steuern und zu synchronisieren, dass sie sich untereinander vertragen und das Netz stabil halten. Die gesamte Koordination muss nun digital über Algorithmen und Software gelöst werden.
3. Externe und infrastrukturelle Herausforderungen.

Zusätzlich zur systemimmanenten Komplexität erhöhen äussere Stressfaktoren und die Infrastrukturprobleme die Anfälligkeit:

  • Zunehmende Extremwetterereignisse: Es ist davon auszugehen, dass Extremwetterereignisse (sowohl in Intensität als auch in Frequenz) zunehmen. Stürme, die Übertragungsleitungen niederreissen, sind ein Problem für die Stromnetzsicherheit.
  • Überalterung der Infrastruktur: In Teilen des europäischen Auslands gibt es eine Überalterung der Netzinfrastruktur, wodurch Netze anfälliger für Störungen sind.
  • Geopolitische Risiken: Geänderte geopolitische Lagen führen zu neuen Risiken, darunter Sabotage und das Cyberrisiko. Da dezentrale, erneuerbare Anlagen primär Software-basiert sind, entstehen neue Angriffsvektoren, in deren Sicherheit investiert werden muss.
  • Lieferkettenprobleme: Der notwendige Netzausbau wird durch strapazierte Lieferketten erschwert, wobei kritische Komponenten wie Grosstransformatoren mittlerweile Lieferzeiten von vier bis sechs Jahren aufweisen können.

Warum ist das europäische Stromnetz stabil?

Die Stabilität des europäischen Stromnetzes beruht hauptsächlich auf zwei fundamentalen Säulen: seiner physischen Grösse und engen Vermaschung sowie dem historisch robusten Funktionsprinzip der Stromerzeugung.



1. Die physische Architektur: Grösse und Vernetzung (eng vermascht).

Das europäische Stromsystem zeichnet sich durch seine Grösse und die hohe Vernetzung aus, was als entscheidendes Geheimnis für seine Stabilität und die gute Versorgungsqualität gilt:

  • Eng vermaschte Struktur: Das Netz ist "eng vermascht" und so konzipiert, dass auf schematischen Darstellungen der Hochspannungsleitungen in Europa keine Landesgrenzen sichtbar sind.
  • Gegenseitige Unterstützung: Diese enge Vernetzung ermöglicht es, dass sich die Länder gegenseitig helfen können. Wenn ein grosses Kraftwerk unvorhergesehen ausfällt (sei es in Deutschland, Italien oder der Schweiz), fahren alle Kraftwerke im gesamten Europa automatisch und innerhalb von Sekunden minimal hoch, um das Gleichgewicht zwischen Erzeugung und Verbrauch wiederherzustellen.
  • Integration der Schweiz: Die Schweiz ist mit 41 Grenzleitungen sehr gut in dieses europäische Netz integriert. Dies war von Anfang an (seit dem Stern von Laufenburg) ein strategisches Ziel zur Sicherung der Versorgung. Diese technische Integration ist von entscheidender Bedeutung für die Versorgungssicherheit.
2. Das traditionelle Funktionsprinzip: Clevere analoge Physik.

Die historische Stabilität des Wechselstromnetzes (AC) basiert auf der Technologie, die seit dem Stromkrieg (um 1890) etabliert wurde:

  • Synchrongeneratoren: Die traditionellen Grosskraftwerke (Kohle, Gas, Atom, Grosswasserkraft) nutzen Synchrongeneratoren, die auf rotierenden Massen (Schwungrädern) basieren.
  • Massenträgheit als Stossdämpfer: Diese Masse (die Generatoren können 1000 Tonnen wiegen und drehen sich mit Tausenden von Umdrehungen pro Minute) stellt kinetische Energie dar. Sie ist der traditionell wichtigste Stossdämpfer im gesamten System, da sie Fluktuationen und Störungen im Netz dämpft und so zur Robustheit beiträgt.
  • Automatische Synchronisierung: Die Generatoren synchronisieren sich durch die clevere analoge Physik der Elektromechanik von selbst über das Stromnetzwerk (die Leitungen) auf eine gemeinsame Frequenz von 50 Hz. Diese Technologie war so "unglaublich schlau", dass sie das Netz bis heute zusammenhält.
  • Frequenz als Indikator: Die Netzfrequenz (50 Hz) ist ein direkter Indikator für das Gleichgewicht zwischen Erzeugung und Verbrauch. Dieses globale Signal, das jeder messen kann, zeigt an, ob mehr oder weniger Leistung produziert werden muss.

Die Kombination aus dieser robusten, analogen Physik und der grossräumigen, engen Vernetzung gewährleistet das enorm gute Niveau der Versorgungsqualität. Der Übergang zu erneuerbaren Energien stellt diese Stabilität allerdings vor grosse Herausforderungen, da die neue Technologie (Wechselrichter) die Massenträgheit im System reduziert und die "clevere Physik" auseinanderbricht.

Welche Rolle spielen Regelungstechnik, Optimierung und KI für zukünftige Stromnetze?

Die Regelungstechnik, Optimierung und Künstliche Intelligenz (KI) spielen eine fundamentale und transformative Rolle für zukünftige Stromnetze. Da die traditionelle Stabilität durch rotierende Massen (Schwungräder) grosser Synchrongeneratoren (wie Kohle- oder Kernkraftwerke) schwindet und durch dezentrale, Inverter-basierte Erzeugung (Solar, Wind) ersetzt wird, muss die Stabilität des Netzes zunehmend durch Software und Algorithmen gewährleistet werden.



1. Regelungstechnik (Feedback Control).

Die Regelungstechnik, auch bekannt als Feedback-Regelkreise, bildet die notwendige neue Theorie, um die Probleme im modernen, durch Leistungselektronik dominierten Netz zu lösen:

  • Ersatz der analogen Physik: Die neuen, auf Wechselrichtern basierenden Stromquellen (wie Photovoltaik und Windkraft) produzieren Gleichstrom (DC), der mittels schneller Schalter (Leistungselektronik) in Wechselstrom (AC) umgewandelt wird. Dieses Verhalten basiert nicht mehr auf robuster, stabiler analoger Physik, sondern ist vollständig programmierbar und hängt von einer cleveren Regelung ab.
  • Netzfolgen vs. Netzbildung: Das traditionelle Netzmodell war das Netzfolgen, bei dem die Elektronik einfach der Frequenz eines stabilen, starken Netzes folgte. Dieses Prinzip funktioniert nicht mehr, wenn die klassischen Generatoren schwinden oder die Frequenz selbst nicht stabil ist.
  • Netzbildende Wechselrichter: Zukünftige Netze benötigen Netzbildende Wechselrichter. Diese müssen das Netz aktiv bilden und steuern, ähnlich wie es die Synchrongeneratoren taten, indem sie stabile Frequenzvorgaben erzeugen.
  • Synchronisierung: Die Regelungsalgorithmen müssen in Echtzeit (Millisekunden oder schneller) Entscheidungen treffen und die Schalter in den Wechselrichtern entsprechend programmieren. Es wurden Algorithmen entwickelt, die es den Wechselrichtern ermöglichen, sich spontan zu synchronisieren, indem sie das Prinzip mechanischer Kopplung (wie bei Pendeluhren von Christian Huygens) nachahmen und die Kopplung über den Strom herstellen.
  • Grundprinzip: Zusammenfassend lässt sich sagen, dass Leistung nichts wert ist, wenn man sie nicht geregelt kriegt, oder plakativ: "Power is nothing without control".
2. Optimierung.

Optimierungsalgorithmen dienen dazu, den Betrieb der Netzinfrastruktur effizienter und stabiler zu gestalten, insbesondere im Umgang mit variabler Einspeisung:

  • Spannungs- und Stromspitzen: Durch den rapiden Anstieg der Solareinspeisung kommt es zu Spannungs- und Stromspitzen, für die die bestehenden Verteilnetze ursprünglich nicht ausgelegt wurden.
  • Effiziente Steuerung statt Ausbau: Optimierung bietet eine Alternative zum teuren und langwierigen Ausbau der Leitungen ("mehr Kupfer im Boden vergraben").
  • Praxisbeispiel: Durch die Implementierung weniger Zeilen Optimierungscode in einer Leitstelle (z. B. im Aargau) konnten optimale Einstellungen der Wechselrichter berechnet werden, um Spannungsspitzen zu verhindern und die Spannung zu regeln. Solche Massnahmen helfen, das Netz stabil zu halten und können Netzbetreibern sogar ermöglichen, zusätzliche Einnahmen zu erzielen.
3. Künstliche Intelligenz (KI).

KI-Methoden sind essenziell, um die notwendigen Steuerungsalgorithmen in einer Umgebung zu entwerfen, in der verlässliche physikalische Modelle fehlen:

  • Umgang mit Blackbox-Systemen: Die Entwicklung klassischer Algorithmen hängt von guten Modellen der Windturbine und des Netzes ab, die in der Praxis jedoch oft nicht verfügbar sind. Das Netzwerk ist eine Blackbox, und es ändert sich ständig.
  • Datenbasierte Algorithmen: Daher muss man sich in der Praxis auf Daten und KI (Machine Learning Methoden) verlassen, um die Wechselrichter zu betreiben und die Regelungsalgorithmen zu entwerfen.
  • Beschleunigte Implementierung: KI-Algorithmen können den Prozess der Einstellung und Abstimmung (Tuning) von Wechselrichtern drastisch beschleunigen. Zum Beispiel konnte ein 100-kW-Wechselrichter mit einem KI-Algorithmus innerhalb einer Stunde betriebsbereit gemacht werden, während dies für ein Team von Ingenieuren zuvor ein halbes Jahr in Anspruch genommen hatte.
  • Entlastung kritischer Infrastrukturen: Intelligente Steuerung wird auch in Verteilnetzen eingesetzt, um Verbraucher wie Elektromobile und Wärmepumpen so zu laden und zu steuern, dass sie das Netz entlasten (z. B. Laden bei Sonnenschein), wodurch ein übermässiger Netzausbau verhindert werden kann.
  • Wissenschaftliche Anwendung: KI-basierte Modelle können auch mechanistische Modelle ergänzen oder ersetzen, wodurch bestimmte Berechnungsprobleme (z. B. in der Wettervorhersage) mit deutlich weniger Rechenleistung gelöst werden könnten, was indirekt den Energiebedarf senkt.

Zusammenfassend lässt sich festhalten: Die Steigerung der Komplexität des Stromnetzes durch dezentrale, Inverter-basierte Erzeugung ist eine enorme Herausforderung. Die Technologien Regelung, Optimierung und KI sind die neuen Taktgeber, die benötigt werden, um die digitale Synchronisierung und Koordination der Milliarden von Schaltern zu bewerkstelligen und das hohe Niveau der Versorgungsqualität in Zukunft aufrechtzuerhalten.

Welches ist die Innovation von Professor Florian Dörfler an der ETH Zürich?

Die Innovationen von Professor Florian Dörfler und seinem Forschungsteam konzentrieren sich auf die Entwicklung cleverer Algorithmen und Regelungstechniken, um die Stabilität des Stromnetzes in der Ära der erneuerbaren Energien zu gewährleisten, da die analoge Physik der rotierenden Massen (Synchrongeneratoren) zunehmend schwindet.

Dörfler nennt insbesondere drei zentrale Innovationsbereiche:

1. Algorithmus zur spontanen Synchronisierung (Netzbildende Wechselrichter).

Die wichtigste theoretische und patentierte Innovation ist die Entwicklung von Algorithmen, die es den dezentralen Wechselrichtern (Invertern) ermöglichen, spontan zu synchronisieren und somit die Rolle der netzbildenden Taktgeber zu übernehmen:

  • Pendeluhr-Prinzip: Diese Algorithmen basieren auf dem Prinzip der Synchronisierung von Pendeluhren, das erstmals von Christian Huygens im 17. Jahrhundert beschrieben wurde (Art Kind of Sympathy).
  • Umsetzung: Dörfler und sein Team programmierten die Wechselrichter so, dass sie sich wie Pendeluhren verhalten, wobei die Kopplung nicht mechanisch über einen Balken, sondern über den Strom hergestellt wird.
  • Resultat: Dieser Algorithmus ermöglicht eine sehr robuste und einfache Synchronisierung der Wechselrichter und ist patentiert und bereits verbaut.


Siehe Artikel vom 30.5.2025:

Neue Algorithmen ETH Zürich für netzbildende, taktvorgebende Wechselrichter.

Stabiles Schweizer Stromnetz, neue Algorithmen ETH Zürich für netzbildende, taktvorgebende Wechselrichter. Gridforming, Fehlerstützung, Schwungmasse, Bereitstellung harmonischer Ströme oder Ungleichgewichte.

Stabiles Schweizer Stromnetz.


Siehe Artikel vom 16.5.2025:

Swissgrid: Netz der Zukunft.

Swissgrid: Netz der Zukunft – Weiterentwicklung des Schweizer Höchstspannungsnetzes.

Und Integration der Schweiz in das entstehende europäische Gleichstromnetz, das sogenannte Supergrid.

Swissgrid: Netz der Zukunft.


2. Optimierungscode zur Spannungsregelung.

Eine hochwirksame praktische Innovation war der Einsatz von Optimierungscode, um Spannungs- und Stromspitzen im Verteilnetz zu verhindern, die durch die rapide Einspeisung von Solarstrom entstehen:

  • Praxisbeispiel (AEW): In der Nordwestschweiz (Aargau) konnte durch die Integration von lediglich drei oder vier Zeilen Optimierungscode in der Leitstelle die optimale Einstellung der Wechselrichter berechnet werden. Dies half, Spannungsspitzen zu regeln und zu verhindern.
  • Auszeichnung: Diese Massnahme, die den teuren Netzausbau reduzierte und es dem Netzbetreiber sogar ermöglichte, Geld mit der Spannungsregelung zu verdienen, brachte Dörflers Team den Watt d'Or Award (den grössten Innovationspreis der Schweizer Energiebranche) ein.
3. KI-gestützte Methoden für schnelleres Inverter-Tuning.

Angesichts der Tatsache, dass in der Praxis oft keine guten, aktuellen Modelle des sich ständig ändernden Stromnetzes vorliegen (das Netz wird als Blackbox betrachtet), nutzt Dörflers Forschung Künstliche Intelligenz (KI) und Machine Learning, um die Regelungsalgorithmen zu entwerfen und zu validieren:

  • Beschleunigter Einsatz: Mithilfe eines KI-Algorithmus konnte ein 100-kW-Wechselrichter in einem Test in München innerhalb von etwa einer Stunde komplett betriebsbereit gemacht und auf das Netz abgestimmt werden.
  • Effizienzgewinn: Zuvor hatte es ein Team von 20 bis 30 Ingenieuren ein halbes Jahr gebraucht, diesen Wechselrichter einzustellen und abzustimmen (Tuning).
Dirigenten im Orchester - Neue Taktgeber im Stromnetz:
Professor Florian Dörfler.


28.10.2025  ETH Zürich.
Algorithmen können die Stromflüsse koordinieren, wie Dirigenten ein Orchester. 

Kann KI Strombedarf senken?

Ja, Künstliche Intelligenz (KI) und KI-gestützte Methoden haben das Potenzial, den Energiebedarf zu senken, allerdings steht diesem Potenzial ein deutliches Risiko einer Gesamtverbrauchserhöhung gegenüber.


1. Potenzielle Senkung des Energiebedarfs.

Der Einsatz von KI kann in spezifischen Anwendungen zu einer Reduktion des Stromverbrauchs führen, insbesondere im Vergleich zu herkömmlichen, mechanistischen Modellen:

  • Ersatz mechanistischer Modelle: KI-Modelle, insbesondere Tiefe Neuronale Netze (DNNs), können bestimmte physikbasierte oder mechanistische Modelle ergänzen oder ersetzen. Wichtige Probleme, beispielsweise in der Wettervorhersage, können mithilfe dieser DNN-basierten Modelle mit deutlich weniger Rechenleistung gelöst werden, während sie dennoch gute Ergebnisse liefern.
  • Algorithmen-Effizienz: Die Effizienz der verwendeten Algorithmen ist ein sehr wichtiger Faktor für die Energieeffizienz von Hochleistungsrechnern (HPC). KI-Methoden können hier einen Beitrag zur Verbesserung leisten. Beispielsweise wurde gezeigt, dass KI-gestützte Methoden (Machine Learning) verwendet werden können, um die Aerodynamik von Fahrzeugen (CW-Wert) sehr viel schneller zu berechnen als physikbasierte Methoden.
  • Fortlaufende Optimierung: Die KI-Methoden befinden sich in einer rasanten Weiterentwicklung. Es wird erwartet, dass gerade bei der Optimierung des Trainings und der Auswertung (Inferenz) in Zukunft grosse Fortschritte erzielt werden.
  • Intelligente Netzsteuerung (Indirekte Einsparung): Obwohl dies eher dem Bereich der Regelungstechnik und Optimierung zuzuordnen ist, erfordert die Steuerung des zukünftigen, dezentralen Netzes Intelligenz im System. Durch den Einsatz von Optimierungscodes und Algorithmen konnte beispielsweise in der Nordwestschweiz die Spannung geregelt werden, wodurch Spannungs- und Stromspitzen verhindert wurden. Solche intelligenten Steuerungen (z. B. das Laden von Elektrofahrzeugen, wenn viel PV-Strom vorhanden ist) begrenzen den Netzausbau, was indirekt Energie für die Herstellung und den Betrieb einer massiv überdimensionierten Infrastruktur spart.
2. Das Risiko des Rebound-Effekts.

Trotz der Effizienzgewinne auf individueller Ebene besteht das erhebliche Risiko, dass der Gesamtenergiebedarf aufgrund des steigenden Einsatzes der Technologie zunimmt:

  • Zunehmende Nutzung: Wenn die Technologie selbst besser, effizienter oder günstiger wird, wird sie gleichzeitig auch stärker eingesetzt.
  • Der Boomerangeffekt: Dies kann zu einem Rebound-Effekt führen: Obwohl jeder einzelne Rechenschritt effizienter ist, kann die starke Zunahme der Nutzung gesellschaftlich betrachtet insgesamt trotzdem einen höheren Stromverbrauch zur Folge haben.
  • Schwierige Prognose: Dieser Rebound-Effekt ist enorm schwer vorherzusagen, insbesondere bei der breiten Nutzung in der Gesellschaft. Die Nutzung von generativen KI-Methoden in sozialen Netzwerken beispielsweise könnte zu einem riesigen Strombedarf führen, der heute nicht gut prognostiziert werden kann.

Fazit.

KI liefert die Werkzeuge und die Algorithmen (z. B. durch bessere Algorithmen oder den Ersatz mechanistischer Modelle), um Prozesse effizienter zu gestalten und Rechenleistung einzusparen. Diese Gewinne könnten jedoch durch die breitere und intensivere Anwendung von KI in der Gesellschaft, wie bei generativen Modellen, vollständig übertroffen werden, was zu einem Anstieg des Gesamtstromverbrauchs führen würde.


Weitere Artikel zum Thema Stromnetz der Zukunft.


Das Netz der Zukunft.

Swissgrid: Netz der Zukunft – Weiterentwicklung des Schweizer Höchstspannungsnetzes.

Swissgrid will mit dem «Netz der Zukunft» das Schweizer Übertragungsnetz für die bevorstehende Transformation des Energiesystems fit machen.

«Netz der Zukunft».


Dekarbonisierung, Dezentralisierung, Digitalisierung.

Stromnetz der Zukunft: Dekarbonisierung, Dezentralisierung, Digitalisierung – das neue Schweizer Smart Grid.

Eine Übersicht zu den aktuellen Entwicklungen im Schweizer Stromnetz.

Dekarbonisierung, Dezentralisierung, Digitalisierung.



SWEET: 
«SWiss Energy research for the Energy Transition».

 CROSS 

Disclaimer / Abgrenzung

Stromzeit.ch übernimmt keine Garantie und Haftung für die Richtigkeit und Vollständigkeit der in diesem Bericht enthaltenen Texte, Massangaben und Aussagen.

Fotos: © Bruno Giordano, stromzeit.ch
Grafiken, Bilder: © Autoren


Quellenverzeichnis (November 2025).

Mit bestem Dank an das Team des Youtube-Kanals ETH Treffpunkt Science City:
@ETHTreffpunktScienceCity:
https://www.youtube.com/@ETHTreffpunktScienceCity

Und an die Referenten der folgenden Vorträge:

ETH Vortragsreihe Stromzukunft.

Dirigenten im Orchester - Neue Taktgeber im Stromnetz - Florian Dörfler.
https://m.youtube.com/watch?v=BuQy0z148lw

Kann die Schweiz erneuerbar? Ausblick auf die Energieversorgung von morgen - Christian Schaffner.
https://m.youtube.com/watch?v=BYKJrq-W7ZQ

Blackouts - Wie sicher sind wir? - Leonard Schliesser.
https://m.youtube.com/watch?v=OwvqZMCnzA4&pp=ygUWZXRoIGJsYWNrb3Qgc2NobGllc3Nlcg%3D%3D

Energiehunger von KI - Hochleistungsrechner und Stromverbrauch - Bernd Rinn.
https://m.youtube.com/watch?v=BYzY-3Cz_G8

Krisen meistern - Wie Resilienz gestärkt wird - Birgit Kleim.
https://m.youtube.com/watch?v=U1eOtskaoPA


Anmelden , um einen Kommentar zu hinterlassen
«Solarexpress»: Aktueller Stand beim Ausbau der alpinen Solaranlagen Schweiz, Förderziele deutlich verfehlt.
Hochalpine Photovoltaik-Grossanlagen: geplante, realisierte, verworfene oder abgebrochene Projekte.