Swissgrid baut ihre Masten und Leitungen für jeweils 80 Jahre. Diese aussergewöhnlich lange Lebensdauer steht im Kontrast zum rasanten Wandel des gesamten Energiesektors. Dieser stellt höhere Ansprüche an alle Unternehmen in der Branche, so auch an Swissgrid. Gerade bei der Überwachung und der Steuerung des Netzes haben die Herausforderungen zugenommen. Die Operateure müssen sich aufgrund der Energiewende und der immer kurzfristigeren Dynamikauf den Strommärkten ständig auf neue Situationen im Netz einstellen.

Eine Antwort auf dieses komplexere Umfeld ist Data Science. Data Science ermöglicht, grosse Mengen an Daten zu verarbeiten, Muster sowie Zusammenhänge zu erkennen und damit zuverlässigere Prognosen zu ermöglichen. Data Science ist interdisziplinär: Es kommen Methoden aus verschiedenen Bereichen wie Mathematik, Statistik, Informatik, konkret auch Machine Learning als eine neue Form der künstlichen Intelligenz zum Einsatz.

Swissgrid hat mit verschiedenen Pilotprojekten Erfahrungen bei der Anwendung von Data Science gesammelt. Eines davon ist der «Probabilistic Nodal Load Forecast», den Tim Rohner und Koen van Walstijn als Teil ihrer Master- bzw. ihrer Doktorarbeit erarbeitet haben. Das Projekt hat nicht nur interessante Resultate hervorgebracht, sondern – und ebenso wichtig – viel Erfahrung im Umgang mit Data Science im Unternehmen generiert. Im Interview sprechen sie über ihre Erkenntnisse und Herausforderungen.

Im Interview: Koen van Walstijn (links) und Tim Rohner (rechts)
Im Interview: Koen van Walstijn (links) und Tim Rohner (rechts)

Tim und Koen, was war die Problemstellung eurer Arbeit?
Tim: Das Ziel unserer Arbeit war, knotengenau aufzuzeigen, wie hoch die Ein- und Ausspeisung im Übertragungsnetz zu einem bestimmten Zeitpunkt in der nahen Zukunft sein könnten. Was bedeutet das konkret? Wir müssen uns das Netz vorstellen als Graphen aus Linien und Knoten. Die Linien sind Leitungen, die Knoten grösstenteils Unterwerke. An jedem dieser rund 250 Knoten im Schweizer Netz fliesst Strom rein oder raus. Diese Energieflüsse (sogenannte Nettolasten) pro Knoten wollten wir präzise prognostizieren, denn diese Vorhersagen bilden eine wichtige Grundlage für die Netzsicherheitsrechnungen. Dabei müssen wir in unserer Modellierung berücksichtigen, dass die einzelnen Knoten nicht unabhängig voneinander betrachtet werden dürfen, sondern dass sie in Korrelation stehen. Es ist unglaublich komplex, in kohärentes Bild aller Energieflüsse zu erhalten. Dafür ist Data Science wie geschaffen.

Koen: Mit unserer Forschungsarbeit wollten wir zudem die Unsicherheiten quantifizieren. Gerade bei der Prognose von Lasten im Stromnetz bestehen viele Unsicherheiten: Wie verändert sich das Konsumverhalten? Wann wird wie viel Energie produziert? Das wissen wir nie so genau. Nun können wir einschätzen, wie genau unsere Prognose zu welchem Zeitpunkt und an welchem Knoten sein wird. Data Science ist geeignet, wenn wir ein hoch komplexes System analysieren, das durch zufällige Variablen und nicht bekannte Mechanismen beeinflusst wird.

Data Science ist geeignet, wenn wir ein hoch komplexes System analysieren, das durch nicht bekannte Mechanismen beeinflusst wird.

Koen van Walstijn

 
Welche Methoden habt ihr angewendet, um eure Problemstellung zu lösen?
Tim: Unser Lösungsansatz basiert auf einer Methode aus dem Bereich Machine Learning, konkret das sogenannte Deep Learning. Ein komplexes, neuronales Netz macht Korrelationen ausfindig auf Basis von historischen Daten. Dies können Verbrauchs-, Produktions- aber auch Wetterdaten sein. Das System nutzt diese Korrelationen für die Vorhersage der zukünftigen Energieflüsse pro Knoten.

Koen: Der Lernmechanismus funktioniert so, dass das Modell ganz am Anfang noch komplett zufällige Werte generiert. Die Resultate werden ständig mit den korrekten Werten, d.h. den tatsächlich gemessenen Werten aus der Vergangenheit verglichen. Durch Anpassung des Algorithmus erzielen wir schrittweise bessere Resultate. Zu betonen ist, dass wir dem Algorithmus nicht explizit sagen, welche Zusammenhänge, sondern lediglich, welche Zielgrösse er lernen soll. Darum bezeichnet man das System auch als selbstlernend.

Welches waren die Herausforderungen in eurem Projekt?
Koen: Ich war unsicher, wie auf unsere Arbeit reagiert wird. Wir möchten Swissgrid mit unseren Modellen bei der Überwachung des Netzes unterstützen. Die eingesetzten Methoden liefern probabilistische Vorhersagen wie beispielsweise folgende: Es besteht eine 20-prozentige Wahrscheinlichkeit, dass die Last höher ist als 100 Megawatt. Es ist nicht einfach, solche Prognosen in die bestehenden betrieblichen Prozesse zu integrieren. Wir fragten uns zudem, wie die Operateure mit unseren Resultaten umgehen, insbesondere dann, wenn diese beispielsweise nicht ihren Erfahrungen entsprechen. Hier ist es wichtig, die Chancen aber auch die Grenzen unserer Prognosen genau zu erklären.

Tim: Für mich gab es noch weitere Herausforderungen: Wir haben ein theoretisches Modell gewählt, das aus der Forschung zu Machine Learning stammt. Dieses Modell mussten wir nun auf reelle Daten anwenden. Wir wussten nicht, ob dieses in der Praxis auch wirklich gut funktioniert. Ebenso hat die Datenbeschaffung sehr viel Zeit in Anspruch genommen.

Swissgrid hat das Potenzial erkannt.

Tim Rohner

 
Und, hat das Modell in der Praxis funktioniert?
Koen: Ja. Wir konnten mit unserer Arbeit aufzeigen, dass unser Modell in der Praxis anwendbar ist und die Vorhersage der Lasten und der Unsicherheiten gelingt. Ich versuche nun, dieses noch präziser zu machen für meine Doktorarbeit. Zudem plane ich, ein probabilistisches Modell für das gesamte Netz auf Basis der Prognosen aufzubauen.

Tim: Ebenso sind wir in den Vorbereitungen, dass das Modell im Swissgrid Arbeitsalltag genutzt wird. So unterstützen wir ein internes Projekt mit dem Ziel, die Planung des Netzbetriebs zu verbessern. Unsere Arbeit hat zudem aufgezeigt, dass es möglich ist, ein Data-Science-Projekt von der Idee bis zur Umsetzung im Unternehmen durchzuziehen. Mit der IT-Infrastruktur, die Swissgrid derzeit aufbaut, ist es möglich, noch grössere Data-Science-Projekte durchzuführen. Für Netzbetreiber ist Data Science besonders interessant, da sie sich in einem komplexen Umfeld mit Unmengen an täglich generierten Daten bewegen. Swissgrid hat dieses Potenzial erkannt.


In a Nutshell: Das Modell für Experten

Es handelt sich beim Modell um einen sogenannten Conditional Variational Autoencoder. Dieser ist ein spezifischer Typ eines neuronalen Netzes und wurde in den Jahren 2013 und 2014 von Diederik P. Kingma und Max Welling vorgestellt. Der Variational Autoencoder lernt im Latent Space eine Repräsentierung der Lasten inklusive aller Korrelationen zwischen den Knoten. Durch Sampling im Latent Space können letztlich verschiedene Netzzustände gemäss der gemeinsamen Verteilung der Lasten generiert werden.


Die Interviewpartner

Autorin

Silvia Zuber
Silvia Zuber

Project Manager


Kontakt

Anrede

Bitte wählen Sie die Anrede aus.

Bitte geben Sie Ihren Vornamen an.

Bitte geben Sie Ihren Nachnamen an.

Bitte geben Sie eine gültige E-Mail Adresse ein.

Geben Sie bitte Ihre Nachricht ein.

Klicken Sie bitte die Checkbox an.