30. Januar 2016

Abtauchen in die Datenflut der neuen Stromnetze

Salzburg – Stromproduzenten speisen Energie aus Sonnen- und Windkraft je nach momentanem Vorhandensein ins Netz ein. Überschüsse werden in Speichern gepuffert oder an Stromtankstellen für Elektroautos geschickt. Der Verbrauch wird im Vorhinein abgeschätzt, auf Basis von Wetterdaten wird der anfallende Strom prognostiziert. – Auf diese Art sollen Smart Grids, intelligente Stromnetze, die künftige Energieversorgung managen. Die „Intelligenz“ steckt dabei in der Kommunikationstechnologie, die Teil der Infrastruktur ist: Erzeuger, Speicher, Verbraucher und alle weiteren Akteure des Energiesystems „reden“ miteinander, um Stabilität und Effizienz sicherzustellen. Sie protokollieren jede ausgeführte Aktion und melden jeweils Verbrauchsdaten, Kapazitäten und Störungen weiter.

Die Datenflut, die derart im smarten Netzwerk anfällt, wollen Dominik Engel von der FH Salzburg und Stefanie Rinderle-Ma von der Uni Wien in den Griff bekommen. Im Sondierungsprojekt Promise (Process Mining for Intrusion Detection in Smart Energy Grids) untersuchen die beiden Forscher mit ihren Teams, wie man Big-Data-Strategien anwenden kann, um Erkenntnisse über die Sicherheit und die reibungslose Funktion des Netzes zu gewinnen. Unterstützt wird Promise im Rahmen des Programms IKT der Zukunft der Förderagentur FFG.

Energiediebstahl verhindern

„Die Daten, die etwa Smart Meter produzieren, werden verwendet, um Kunden Rückmeldung über ihren Stromverbrauch zu geben, sonst werden sie aber nur wenig analysiert. Vor allem die Daten über Prozesse, die die Energieversorgung steuern, sind noch wenig beforscht“, erklärt Engel, der an der FH Salzburg das vom Wirtschaftsministerium geförderte Ressel-Zentrum für Anwenderorientierte Smart Grid Privacy, Sicherheit und Steuerung leitet. In ihrer Zusammenschau und richtigen Verknüpfung können die Energiedaten jedoch Aufschluss über Anomalien und mögliche Zugriffe nichtberechtigter Personen auf das Stromnetz geben.

„Ich kenne ein Beispiel für Stromdiebstahl aus den Niederlanden, wo Datenanalysten einen nichtangemeldeten Haushalt entdeckten, in dem in bestimmten Abständen Strom verbraucht wurde“, erzählt Engel. „Es stellte sich heraus, dass das Verbrauchsmuster dem Beleuchtungszyklus der Marihuanaplantage, die sich in dem Haus befand, entsprach.“ Der Suche nach Anomalien steht die Entwicklung von Privacy-Strategien im Rahmen des Ressel-Zentrums gegenüber. Daten sollen so anonymisiert werden, dass ohne Anlassfall wie etwa bei einem Diebstahl oder einem unerlaubten Systemzugriff nicht auf den einzelnen Verbraucher rückgeschlossen werden darf.

Mithilfe der Energiedatenanalyse sei es zudem möglich, einen künftigen Netzausbau besser zu prognostizieren. „Das ist vor allem im Hinblick auf die Elektromobilität wichtig“, so der Forscher. Denn: „Will man einen Tesla-Wagen schnell laden, entsteht ein punktueller Energiebedarf wie in 40 bis 50 Haushalten gemeinsam. Wieder ein Beispiel aus den Niederlanden: Dort gibt es derzeit etwa 4400 Teslas. Wenn nur die vierfache Anzahl der Autos gleichzeitig aufgeladen wird, entspricht das der Stromproduktion eines Atomkraftwerks.“

Prozesse vergleichen

Ein zentrales Analysewerkzeug bringen Stefanie Rinderle-Ma und ihr Team von der Forschungsgruppe Workflow Systems and Technology an der Fakultät für Informatik der Uni Wien ein: Beim sogenannten Process-Mining wird eine Abfolge von relevanten Prozessen formal beschrieben. Dieses Schema einer Reihenfolge von Systemschritten wird mit den tatsächlichen Vorgängen verglichen, die aus den Ist-Daten extrahiert werden. „Wenn etwas nicht zusammenpasst, ist das ein Zeichen, dass etwas schiefgegangen ist“, so Dominik Engel. Wenn eine Trafostation etwa meldet, dass sie geöffnet wurde, ist das ein Hinweis auf einen unerlaubten Zugriff, wenn kein entsprechender Geschäftsprozess vorliegt, der die Entsendung eines Arbeitstrupps dorthin vorsieht. Genauso verhält es sich, wenn etwa ein unerlaubter Updatebefehl von einem Knotenpunkt gesendet wird.

Jene statistischen Anomalien, die aus den Daten extrahiert werden und die zu keinem der Prozesse passen, werden einem Administrator gemeldet – wobei das System allerdings bereits eine kluge Vorauswahl treffen muss. Engel: „Fluktuationen der Datenwerte innerhalb einer bestimmten Bandbreite sind normal und würden zu einer Unzahl an Fehlalarmen führen. Ein zu großer Schwankungsspielraum führt hingegen dazu, dass man relevante Vorfälle übersieht.“ (von Alois Pumhösel, Der Standard, 27.1.2016)