INDUSTRIELLE KOMMUNIKATION: TELEKOMMUNIKATION

Die Automatisierung industrieller Prozesse ist eine Realität, die sich in den letzten Jahren konsolidiert hat und bei der die industrielle Kommunikation eine grundlegende Rolle spielt.

In diesem Umfeld sind industrielle Kommunikationsnetze die Grundlage für das reibungslose Funktionieren der Steuerungs- und Überwachungssysteme sowie für die digitale Transformation der Produktionsprozesse im Werk.

Was ist industrielle Kommunikation?

Industrielle Kommunikationsnetze sind eine Reihe miteinander verbundener elektronischer Geräte, die die schnelle und zuverlässige Übertragung von Informationen ermöglichen. Sie werden eingesetzt, um Anlagen, Maschinen und Verwaltungsgeräte miteinander zu verbinden und industrielle Prozesse einfacher und zuverlässiger zu steuern.

Diese industriellen Kommunikationsnetze bestehen aus physischen Systemen und Softwareanwendungen, die einen schnellen, sicheren und konstanten Informationsfluss ermöglichen und der Industrie eine große Flexibilität bei der Ausführung vieler ihrer täglichen Aufgaben bieten.

Darüber hinaus werden in einem industriellen Umfeld auch spezielle Kommunikationseinrichtungen verwendet, die für den Betrieb und die Sicherheit von grundlegender Bedeutung sind, wie z. B:

Die Netzwerkkommunikation. Sie regeln die Datenübertragung im Industrienetz, von den Servern zu den verschiedenen angeschlossenen Geräten.

Drahtlose Netzwerke. Vor allem Wi-Fi-Netze, die für die Verbindung zahlreicher Geräte in einer Fabrik (wie IoT-Geräte oder das Internet der Dinge) von entscheidender Bedeutung sind.

Sprachkommunikationsnetze. Wie Beschallungs-, Telefonie- oder Gegensprechanlagen.

Prozessüberwachung oder Sicherheit mit CCTV-Systemen. Ein grundlegender Bestandteil der Industrie ist die Kommunikationsinfrastruktur zur Überwachung des Status von Prozessen und Maschinen sowie zum Schutz von Waren und Werten.

Zugangskontrolle. Kommunikations- und Zugangssysteme, die speziell für die vollständige Kontrolle des Zugangs zu den verschiedenen Bereichen eines Werks oder einer Fabrik entwickelt wurden und ein höheres Maß an Sicherheit bieten.

Andere Sicherheits- und Kommunikationseinrichtungen. Wie z. B. die Serverinfrastruktur für das Anwendungsmanagement oder Brandmeldesysteme.

Arten von industriellen Kommunikationsnetzen

Im Bereich der Kommunikation in industriellen Umgebungen gibt es verschiedene Arten von Netzen, die sich an die spezifischen Bedürfnisse der jeweiligen Branche anpassen. Sehen wir uns einige der gängigsten Arten von industriellen Kommunikationsnetzen an:

Verwaltungsnetz

Dieser Netzwerktyp dient der Verbindung der verschiedenen Geräte und Ausrüstungen in einem Industriebetrieb mit dem Ziel, eine Echtzeitkommunikation zwischen den verschiedenen Systemen wie Produktion, Logistik, Wartung, Qualitätssysteme usw. zu gewährleisten.

Das Verwaltungsnetz wird in bestimmten Bereichen des Werks eingesetzt, z. B. in den Büros, im Bereich der Auftragsverwaltung, im Lager, in der Verwaltungs- und Buchhaltungsabteilung und in anderen Bereichen.

Produktionsnetz

Das Produktionsnetz ist eine industrielle Kommunikationsinfrastruktur, die in der gesamten Produktionsanlage installiert ist und alle Geräte und Systeme im Werk miteinander verbinden soll. Dieses Netz ist für den Informationsaustausch und die effiziente Verwaltung der Produktionsprozesse unerlässlich.

Im Rahmen der Produktion müssen diese Kommunikationsnetze in der Lage sein, Nachrichten jeder Größe zu verarbeiten, von kleinen Kontrollnachrichten bis hin zu großen Konstruktionsdatenübertragungen. Darüber hinaus müssen diese Netze in der Lage sein, Nachrichten mit unterschiedlichen Prioritäten zu verarbeiten, um eine schnelle Reaktion auf Notfälle zu ermöglichen und gleichzeitig eine effiziente Übertragung von Entwurfs- und Planungsdateien zu gewährleisten.

Ein weiteres wichtiges Merkmal dieser Netze ist die Fähigkeit, Übertragungsfehler effektiv zu handhaben und Kommunikationsprobleme automatisch zu erkennen und zu korrigieren (um sicherzustellen, dass kritische Informationen zuverlässig und rechtzeitig übertragen werden).

Zellennetz

Produktionszellen sind in sich geschlossene Einheiten innerhalb einer Fabrik, die für eine bestimmte Aufgabe im Produktionsprozess ausgelegt sind, z. B. für die Montage von Komponenten oder die Fertigung von Teilen.

Das Zellennetz ist eine Art industrielles Kommunikationsnetz, das dazu dient, die verschiedenen Anlagen und Geräte in einer Produktionszelle miteinander zu verbinden. Zellennetze stellen eine industrielle Kommunikationsarchitektur dar, die die Verbindung von Fertigungsgeräten ermöglicht, die im sequenziellen Modus arbeiten, wie z. B. Roboter und programmierbare Steuerungen (PLCs). Der Hauptzweck dieser Verbindung besteht darin, die Effizienz bei der Bearbeitung kurzer Nachrichten zu optimieren und ihre Verwaltungskapazität zu stärken.

Feldbusse

Feldbusse basieren auf der Idee, dass Geräte in der Anlage direkt miteinander kommunizieren können, indem sie einen gemeinsamen Bus benutzen (ohne die Notwendigkeit einer separaten Verbindung zu einer zentralen Steuerung).

Feldbusse sind eine industrielle Kommunikationstechnologie, die zur Verbesserung der Effizienz und zur Verringerung des Verdrahtungsaufwands in Steuerungs- und Automatisierungsumgebungen entstanden ist. Im Gegensatz zur analogen Punkt-zu-Punkt-Übertragung, bei der jeder Sensor oder Aktuator direkt mit dem entsprechenden Steuergerät verbunden ist, können mit Feldbussen mehrere Geräte an einen einzigen Bus angeschlossen werden, was die Komplexität der Verdrahtung und die Kosten reduziert.

Die industrielle Kommunikation ist ein wesentlicher Bestandteil des Betriebs in jeder Branche und muss optimiert werden, um einen schnellen, sicheren und effizienten Datenfluss in allen Bereichen zu gewährleisten. Neben der für Produktionsprozesse typischen industriellen Kommunikation spielen in der modernen Industrie 4.0 auch spezielle Kommunikationssysteme eine entscheidende Rolle.

Auf ein spezialisiertes Unternehmen mit jahrelanger Erfahrung im Bereich der industriellen Kommunikation zu setzen, ist die beste Alternative, um die besten Kommunikations- und Informationsaustauschsysteme zu gewährleisten. Zögern Sie also nicht und kontaktieren Sie Microsegur, um ein individuelles Angebot entsprechend den Eigenschaften und besonderen Bedürfnissen Ihres Unternehmens zu erhalten.


Grundlagen der Rechenzentrumsinfrastruktur und Managementlösungen

Die Infrastruktur eines Rechenzentrums bezieht sich auf alle physischen Komponenten in einer Rechenzentrumsumgebung. Diese physischen Komponenten spielen eine wichtige Rolle für den täglichen Betrieb eines Rechenzentrums. Daher sind die Herausforderungen bei der Verwaltung von Rechenzentren ein dringendes Thema, dem IT-Abteilungen Aufmerksamkeit schenken müssen. Zum einen geht es darum, die Energieeffizienz des Rechenzentrums zu verbessern, zum anderen darum, die Betriebsleistung des Rechenzentrums in Echtzeit zu kennen, um einen guten Betriebszustand zu gewährleisten und die Unternehmensentwicklung aufrechtzuerhalten.

Grundlagen der Rechenzentrumsinfrastruktur

Der Standard für die Infrastruktur von Rechenzentren ist in vier Stufen unterteilt, die jeweils aus verschiedenen Einrichtungen bestehen. Dazu gehören vor allem Verkabelungssysteme, Stromversorgungseinrichtungen, Kühlungseinrichtungen, Netzwerkinfrastruktur, Speicherinfrastruktur und Rechenressourcen.

In einem Rechenzentrum gibt es grob zwei Arten von Infrastruktur: die Kernkomponenten und die IT-Infrastruktur. Netzwerkinfrastruktur, Speicherinfrastruktur und Rechenressourcen gehören zu den ersteren, während Kühlanlagen, Stromversorgung, Redundanz usw. zu den letzteren gehören.

Kernkomponenten

Netzwerk-, Speicher- und Computersysteme sind wichtige Infrastrukturen für Rechenzentren, die einen gemeinsamen Zugriff auf Anwendungen und Daten ermöglichen. Außerdem sind sie die Kernkomponenten von Rechenzentren.

Netzwerk-Infrastruktur

Die Netzwerkinfrastruktur von Rechenzentren ist eine Kombination von Netzwerkressourcen, bestehend aus Switches, Routern, Lastausgleich, Analysen usw., um die Speicherung und Verarbeitung von Anwendungen und Daten zu erleichtern. Moderne Netzwerkarchitekturen für Rechenzentren können durch den Einsatz von Virtualisierungsplattformen für Full-Stack-Netzwerke und Sicherheit, die eine Vielzahl von Datendiensten unterstützen, alles von VMs, Containern und Bare-Metal-Anwendungen verbinden und gleichzeitig eine zentrale Verwaltung und fein abgestufte Sicherheitskontrollen ermöglichen.

Speicherinfrastruktur

Rechenzentrumsspeicher ist ein allgemeiner Begriff für die Tools, Technologien und Prozesse zur Entwicklung, Implementierung, Verwaltung und Überwachung von Speicherinfrastrukturen und -ressourcen in Rechenzentren und bezieht sich hauptsächlich auf die Geräte und Softwaretechnologien, mit denen Daten- und Anwendungsspeicher in Rechenzentrumseinrichtungen implementiert werden. Dazu gehören Festplatten, Bandlaufwerke und andere Formen der internen und externen Speicherung sowie Software für die Verwaltung externer Speichereinrichtungen und -lösungen.

Computing-Ressourcen

Ein Rechenzentrumszähler ist ein Speicher und eine Verarbeitungsleistung zur Ausführung von Anwendungen, die in der Regel von High-End-Servern bereitgestellt werden. Im Edge-Computing-Modell können die Verarbeitung und der Speicher, die für die Ausführung von Anwendungen auf Servern verwendet werden, virtualisiert, physisch, auf Container oder auf Remote-Knoten verteilt sein.

IT-Infrastruktur

Da Rechenzentren für den IT-Betrieb von Unternehmen immer wichtiger werden, ist es ebenso wichtig, sie effizient zu betreiben. Bei der Planung der Infrastruktur von Rechenzentren ist es notwendig, die physische Umgebung zu bewerten, einschließlich Verkabelungssystem, Stromversorgungssystem und Kühlsystem, um die Sicherheit der physischen Umgebung des Rechenzentrums zu gewährleisten.

Verkabelungssysteme

Die integrierte Verkabelung ist ein wichtiger Teil des Kabelmanagements im Rechenzentrum, der die Verbindung, die Interkommunikation und den Betrieb des gesamten Rechenzentrumsnetzwerks unterstützt. Das System besteht in der Regel aus Kupferkabeln, optischen Kabeln, Steckverbindern und Verkabelungsausrüstung. Die Anwendung des integrierten Verkabelungssystems für Rechenzentren zeichnet sich durch eine hohe Dichte, hohe Leistung, hohe Zuverlässigkeit, schnelle Installation, Modularisierung, Zukunftsorientierung und einfache Anwendung aus.

Stromversorgungssysteme

Die digitale Infrastruktur von Rechenzentren benötigt für ihren Betrieb Strom. Selbst eine Unterbrechung von einem Bruchteil einer Sekunde hat erhebliche Auswirkungen. Daher ist die Stromversorgungsinfrastruktur eine der wichtigsten Komponenten eines Rechenzentrums. Die Stromversorgungskette eines Rechenzentrums beginnt im Umspannwerk und führt über Gebäudetransformatoren, Switches, unterbrechungsfreie Stromversorgungen, Stromverteilungseinheiten und dezentrale Stromverteiler zu den Racks und Servern.

Kühlungssysteme

Server in Rechenzentren erzeugen im Betrieb viel Wärme. Aufgrund dieser Eigenschaft ist die Kühlung für den Betrieb von Rechenzentren von entscheidender Bedeutung, da sie darauf abzielt, die Systeme am Laufen zu halten. Die Energiemenge, die jedes Rack selbst kühlen kann, begrenzt die Energiemenge, die ein Rechenzentrum verbrauchen kann. Im Allgemeinen kann jedes Rack den Betrieb des Rechenzentrums mit einer durchschnittlichen Kühlungsdichte von 5-10 kW ermöglichen, aber einige können auch höher sein.

Lösungen für das Management der Rechenzentrumsinfrastruktur

Aufgrund der Komplexität der IT-Ausrüstung in einem Rechenzentrum muss der Verfügbarkeit, Zuverlässigkeit und Wartung der Komponenten mehr Aufmerksamkeit geschenkt werden. Ein effizienter Rechenzentrumsbetrieb lässt sich durch ausgewogene Investitionen in die Einrichtungen und die entsprechende Ausrüstung erreichen.

Ausrüstung zur Überwachung des Energieverbrauchs

Herkömmliche Rechenzentren verfügen nicht über die Instrumente und Sensoren zur Überwachung des Energieverbrauchs, die erforderlich sind, um die ASHRAE-Normen zu erfüllen und Messdaten für die Berechnung der PUE des Rechenzentrums zu erfassen. Dies führt zu einer schlechten Überwachungsumgebung für das Energiesystem des Rechenzentrums. Eine Maßnahme ist die Installation von Energieüberwachungskomponenten und -systemen in Stromversorgungssystemen, um die Energieeffizienz des Rechenzentrums zu messen. Unternehmensteams können durch diese Maßnahme wirksame Strategien umsetzen, um die Gesamteffizienz des Energieverbrauchs auszugleichen und den Energieverbrauch aller anderen Knotenpunkte effektiv zu überwachen.

Optimierung der Kühleinrichtungen

Unabhängige Klimaanlagen für Computerräume, wie sie in herkömmlichen Rechenzentren verwendet werden, verfügen oft über separate Steuerungen und Sollwerte, was zu einem übermäßigen Betrieb aufgrund von Temperatur- und Feuchtigkeitsanpassungen führt. Eine gute Möglichkeit, die Kühlung von Servern zu unterstützen, besteht in der Schaffung von Warmgang-/Kaltgang-Layouts, um den Kaltluftstrom zu den Geräteeinlässen und die heiße Abluft aus den Geräteracks zu maximieren. Durch die Schaffung von Warm- oder Kaltgängen kann die Vermischung von Warm- und Kaltluft durch das Hinzufügen von Trennwänden oder Decken vermieden werden.

CRAC-Effizienzverbesserung

DX-Klimaanlagen sind wahrscheinlich der häufigste Typ von Kühlanlagen für kleinere Rechenzentren. Diese Geräte werden oft als CRAC-Geräte bezeichnet. Es gibt jedoch mehrere Möglichkeiten, die Energieeffizienz des Kühlsystems mit DX-Geräten zu verbessern. CRAC-Geräte für Innenräume sind mit verschiedenen Optionen für die Wärmeabfuhr erhältlich.

Wie bei Dachgeräten kann auch bei luftgekühlten CRAC-Geräten der Einsatz von Verdunstungsspray die Effizienz verbessern.

Eine Wasserkühlschlange zur Vorkühlung kann dem Klimagerät vor der Verdampferschlange vorgeschaltet werden. Wenn die Umgebungsbedingungen es zulassen, dass das Verflüssigerwasser so weit abgekühlt wird, dass es die in das Klimagerät eintretende Luft direkt kühlt, wird das Verflüssigerwasser zum Vorkühlregister umgeleitet. Dadurch wird der Bedarf an Kompressorkühlung für das CRAC-Gerät reduziert oder manchmal sogar eliminiert.

DCIM

Das Management der Rechenzentrumsinfrastruktur ist die Kombination von IT und Betrieb zur Verwaltung und Optimierung der Leistung der Rechenzentrumsinfrastruktur in einem Unternehmen. DCIM-Tools helfen den Betreibern von Rechenzentren bei der Überwachung, Messung und Verwaltung der Auslastung und des Energieverbrauchs von rechenzentrumsbezogenen Geräten und Komponenten der Gebäudeinfrastruktur und verbessern so effektiv die Beziehung zwischen Rechenzentrumsgebäuden und ihren Systemen.

DCIM ermöglicht die Verknüpfung von Informationen zwischen verschiedenen Unternehmensbereichen wie Rechenzentrumsbetrieb, Anlagen und IT, um die Nutzung des Rechenzentrums zu maximieren. Betreiber von Rechenzentren schaffen flexible und effiziente Abläufe, indem sie den Temperatur- und Feuchtigkeitsstatus, den Gerätestatus, den Stromverbrauch und die Auslastung der Klimaanlage in Serverräumen in Echtzeit visualisieren.

Vorbeugende Wartung

Neben den oben genannten Management- und Betriebslösungen für die Infrastruktur ist auch die ungeplante Wartung ein zu berücksichtigender Aspekt. Ungeplante Wartung kostet in der Regel das 3-9-fache der geplanten Wartung, vor allem wegen der Kosten für Überstunden, Kollateralschäden, Notfallteile und Serviceeinsätze. IT-Teams können einen wiederkehrenden Zeitplan für die vorbeugende Wartung des Rechenzentrums erstellen. Durch die regelmäßige Überprüfung des Infrastrukturstatus und die rechtzeitige Reparatur und Aufrüstung der erforderlichen Komponenten kann die interne Infrastruktur effizient betrieben sowie die Lebensdauer und Gesamteffizienz der Rechenzentrumsinfrastruktur verlängert werden.


Neuausrichtung der Entwicklung der Übertragungsinfrastruktur

In den letzten Jahrzehnten hat sich die Netzplanung von einem fragmentierten nationalen Bereich zu einem eher EU-weiten Planungsansatz entwickelt, der die Integration des Energiebinnenmarktes unterstützt.

Im Jahr 2003 öffnete die Verordnung (EG) Nr. 1228/2003 die Tür für Investitionen Dritter in die Übertragung, d. h. in kommerzielle Übertragungsleitungen, und die Entscheidung Nr. 1229/2003/EG legte Leitlinien für die transeuropäischen Energienetze fest. Dies geschah vor dem Hintergrund, dass einige Planer von Energienetzen Bedenken hinsichtlich der Notwendigkeit neuer Investitionen in die Erzeugung und die Netze geäußert hatten, um das prognostizierte Nachfragewachstum zu decken. Drei Jahre später wurde mit der Entscheidung Nr. 1364/2006/EG das Konzept des „Vorhabens von europäischem Interesse“ zusätzlich zu den bereits bestehenden Kategorien der Vorhaben von gemeinsamem Interesse (PCI) und der vorrangigen Vorhaben eingeführt.

Eine weitere Europäisierung der Netzplanung erfolgte 2009 mit dem Dritten Energiepaket, mit dem das Europäische Netz der Übertragungsnetzbetreiber für Elektrizität und Gas (ENTSO-E und ENTSOG) geschaffen wurde. Sie wurden verpflichtet, den Zehnjahresnetzentwicklungsplan (TYNDP) für Strom und Gas zu entwickeln und alle zwei Jahre zu veröffentlichen, wobei sie auf nationalen Entwicklungsplänen und den Bedürfnissen der Netznutzer aufbauen und regionale Investitionspläne berücksichtigen. Die TYNDP sind zwar nicht verbindlich, zielen aber darauf ab, Investitionslücken, insbesondere in Bezug auf grenzüberschreitende Kapazitäten, zu ermitteln und den Marktteilnehmern eine Vorstellung von der Entwicklung der europäischen Übertragungsinfrastruktur zu vermitteln.

Im Jahr 2013 wurde mit der Verordnung (EU) Nr. 347/2013 über die transeuropäischen Netze im Energiebereich (TEN-E-Verordnung) der Ansatz für die Auswahl von PCIs aktualisiert, indem der TYNDP zur einzigen Grundlage für Übertragungsprojekte gemacht wurde, die als PCIs in Betracht kommen. Mit der TEN-E-Verordnung wurde auch ein strukturierteres Verfahren für die grenzüberschreitende Kostenzuweisung (CBCA) für Vorhaben von gemeinsamem Interesse eingeführt, um das Problem von Projekten mit ungleicher Verteilung von Kosten und Nutzen auf die beteiligten Länder zu lösen.

Die TEN-E-Verordnung steht nun zur Überarbeitung an.

Der im Dezember 2020 veröffentlichte Legislativvorschlag der Europäischen Kommission zielt darauf ab, die TEN-E-Verordnung besser auf die Dekarbonisierungsziele des Grünen Deals abzustimmen, indem die Entwicklung der Infrastruktur für saubere Energie erleichtert wird. Er konzentriert die Förderung der Energieinfrastruktur – durch Verfahrensstraffung und Finanzierung – auf Strom- und Wasserstoffinfrastruktur und Elektrolyseure, erneuerbare Gase sowie intelligente (Gas-)Netze. Außerdem wird ein obligatorisches Nachhaltigkeitskriterium eingeführt, um sicherzustellen, dass die PCI-Kandidatenprojekte mit den Klimazielen in Einklang stehen.

Darüber hinaus schlägt die Europäische Kommission vor, dass Erdgasinfrastrukturen und Ölpipelines nicht mehr für den PCI-Status in Frage kommen. In diesem Zusammenhang erklärte sie, dass „Erdgas zwar eine Rolle bei der Energiewende im kommenden Jahrzehnt spielen wird, wie der Europäische Rat anerkannt hat, der Sektor jedoch mit der Dekarbonisierung beginnen muss“. Längerfristig wird es durch erneuerbare und kohlenstoffarme Gase, z. B. Biogas und Wasserstoff, ersetzt werden.

Darüber hinaus wird in der Überarbeitung vorgeschlagen, dass bei Entscheidungen über die grenzüberschreitende Kostenzuweisung (CBCA) die vollen Kosten von PCI zugewiesen werden, damit eine Bewertung der Auswirkungen auf die Netztarife vorgenommen werden kann. Bisher wurde in vielen CBCA-Entscheidungen nur ein Teil der Gesamtinvestitionskosten zugewiesen, in der Erwartung, dass der verbleibende Anteil durch EU-Mittel gedeckt würde.

Die Entwicklung von Wasserstoffnetzen

Die EU-Wasserstoffstrategie schlägt Maßnahmen zur Förderung der Entwicklung von Wasserstoff als Energieträger vor, um zur Dekarbonisierung der Wirtschaft beizutragen, insbesondere in schwer zugänglichen Sektoren. Sie räumt erneuerbarem Wasserstoff Vorrang ein und setzt das Ziel, bis 2024 mindestens 6 GW Elektrolyseure zu installieren, die erneuerbaren Wasserstoff erzeugen, und 40 GW bis 2030. Ein Großteil dieses Wasserstoffs könnte jedoch lokal verbraucht werden, so dass es höchst ungewiss ist, wann ein EU-weites Wasserstoffnetz erforderlich sein wird. In dieser Hinsicht gehen die Meinungen weit auseinander. Während eine Gruppe europäischer Gasfernleitungsunternehmen schätzt, dass bis 2030 ein 6800 km langes Pipelinenetz vorhanden sein muss, um das Potenzial von Wasserstoff voll ausschöpfen zu können, und dass dieses Netz bis 2040 auf 23000 km erweitert werden muss, weisen andere Interessengruppen darauf hin, dass die angemessene Größe des Netzes in hohem Maße von der Geschwindigkeit abhängt, mit der sich Nachfrage und Angebot von Wasserstoff tatsächlich entwickeln werden. In diesem Zusammenhang empfehlen ACER und CEER einen schrittweisen Ansatz für die Regulierung des Wasserstoffnetzes entsprechend seiner Entwicklung.

Die EU-Strategie fügt hinzu, dass die Entwicklung von Wasserstoffnetzen eine solide Infrastrukturplanung voraussetzt, die die Grundlage für Investitionsentscheidungen bildet, z. B. in Form von TYNDPs. Dies wird auch private Investoren von Elektrolyseuren darüber informieren, wo sie ihre Projekte ansiedeln sollten. Der TEN-E-Vorschlag schließt die Wasserstoffinfrastruktur in seinen Geltungsbereich ein. Die TYNDP für Gas sollen Wasserstoffnetze enthalten, um ihre Verbreitung zu fördern.

Die Herausforderung der Offshore-Energie

Eine weitere (kommende) Herausforderung für die Netzplanung ist die Integration der Offshore-Energie. Derzeit sind die meisten Offshore-Windparks in Europa und auch weltweit relativ küstennah und radial verbunden, d. h. die Windparks sind einzeln an die Küste angeschlossen, und es gibt keine Koordination zwischen den Parks. Im Dezember 2020 hat das erste Hybridprojekt in Europa, Kriegers Flak“, seine Testphase begonnen. Es verbindet das deutsche und dänische Stromnetz mit Offshore-Windparks.

Um die Ziele des Grünen Deals zu erreichen, schätzt die EU-Strategie für erneuerbare Energien auf See, dass bis 2030 mindestens 60 GW Offshore-Windkapazität und 1 GW Meeresenergiekapazität installiert werden müssen, um bis 2050 300 GW bzw. 40 GW installierte Kapazität zu erreichen. Die Strategie unterstreicht die Herausforderung, die Offshore-Energie auf kosteneffiziente und nachhaltige Weise zu nutzen. Sie fördert eine rationellere Netzplanung und die Entwicklung eines vermaschten Offshore-Netzes. Dies würde eine stärkere Zusammenarbeit bei der Netzplanung zwischen den nationalen Übertragungsnetzbetreibern und den Regulierungsbehörden auf Seebeckenebene erfordern.

Die Offshore-Strategie fügt hinzu, dass „der im Rahmen der TEN-E-Verordnung geschaffene regionale Kooperationsrahmen zur Ermittlung von Projekten von gemeinsamem Interesse ebenfalls ein gutes Modell ist, auf dem man aufbauen kann“.

Außerdem kann der offshore erzeugte Strom vor Ort in Wasserstoff umgewandelt werden, der dann an Land transportiert werden muss. Daher sollte ein Offshore-Wasserstoffnetz neben oder als Alternative zu Offshore-Stromnetzen in Betracht gezogen werden. In diesem Zusammenhang wäre eine integrierte Planung von Strom- und Wasserstoffnetzen sowie von Offshore- und Onshore-Netzen unerlässlich.

Die Integration der Energieinfrastrukturplanung

Um den Dekarbonisierungsprozess weiter voranzutreiben, fordert die EU-Strategie für die Integration der Energiesysteme einen neuen, ganzheitlichen Ansatz für die Planung und den Betrieb der Infrastruktur durch die Integration der Energiesysteme.

Die integrierte Netzplanung gewinnt zwar zunehmend an Bedeutung, doch gibt es bisher nur wenige Anwendungsbeispiele.

Die zweite Erneuerbare-Energien-Richtlinie (EU) 2018/2001 verlangt von den Verteilernetzbetreibern (VNB), das Potenzial von Fernwärme- oder Fernkältesystemen für die Bereitstellung von Systemdienstleistungen zu berücksichtigen. Auch die Elektrizitätsrichtlinie (EU) 2019/944 verlangt von den Übertragungsnetzbetreibern (ÜNB) in ihren TYNDPs und von den Verteilernetzbetreibern (VNB) in ihren nationalen Verteilungsentwicklungsplänen, dass sie das Potenzial der Nutzung von Demand Response, Energiespeicherung und anderen Ressourcen als Alternativen zu herkömmlichen leitungsgebundenen Lösungen berücksichtigen. Diese Anforderung ist für die DSOs besonders wichtig, um vom traditionellen Kupferplatten-Ansatz zu einer effizienteren Netzplanung überzugehen, um die zunehmenden Herausforderungen durch dezentrale Erzeugung, Elektrofahrzeuge und Wärmepumpen zu bewältigen.

Der gemeinsame Strom- und Gasszenariobericht TYNDP von ENTSOG und ENTSO-E (2020) ist ebenfalls ein Beispiel für integrierte Planung, um gemeinsam Lösungen und Wege zur Erreichung der Klima- und Energieziele zu finden. Diese integrierten Pläne, die auch bei der Planung der Verteilungsnetze zu berücksichtigen sind, müssen jedoch durch eine Verordnung durchgesetzt werden. In dem Vorschlag zur Überarbeitung der TEN-E-Verordnung werden ENTSOG und ENTSO-E aufgefordert, gemeinsame Szenarien zu entwickeln, die für die TYNDPs verwendet werden sollen, und für den Gas-TYNDP auch die Wasserstoffinfrastruktur zu berücksichtigen. In den Entwicklungsprozess sollten auch andere Interessengruppen wie die EU-DSO-Entität und die einschlägigen Akteure des Wasserstoffsektors einbezogen werden.


5 Prognosen zur Cybersicherheit für 2022

Was war das für ein Jahr 2021! In mancher Hinsicht war es eine willkommene Abwechslung zum Vorjahr, aber das Jahr 2021 hat auch seine eigenen Herausforderungen mit sich gebracht. In einer Zeit, in der sich IT-Abteilungen darum bemühen, eine der kritischsten Sicherheitslücken seit Jahren zu schließen, Lloyds of London von weiteren Cybersecurity-Geschäften abraten will und Unternehmen mit einer weiteren COVID-Belastung konfrontiert sind, könnten wir wohl einige verständliche Einblicke in das kommende Jahr gebrauchen.

1. Die Verhinderung von Ransomware wird das Ziel Nr. 1 sein

Alle unsere Experten waren sich einig, dass Ransomware im Jahr 2022 nur noch schlimmer werden wird. Die meisten Fachleute in der Branche sehen das wahrscheinlich genauso.

Angesichts der weltweiten Verbreitung von Ransomware-Angriffen besteht kein Zweifel daran, dass Unternehmen ihre Bemühungen zur Verhinderung des Eindringens dieser lähmenden Bedrohung beschleunigen müssen, die Unternehmen im Jahr 2020 nicht nur 21 Milliarden US-Dollar an Ausfallzeiten gekostet hat, sondern auch zu Problemen in der Lieferkette für eine Reihe von Produkten beigetragen hat, darunter ausgerechnet Frischkäse.

Einer der Gründe für die zunehmende Bedrohung ist die Tatsache, dass Ransomware-Gruppen nun auch Personen einbeziehen, die legitimen Zugang zu den Netzwerken haben, auf die diese Bedrohungsakteure abzielen. Diesen Nutzern, den so genannten Initial Access Brokers (IABs), wird viel Geld als Gegenleistung für ihre Kooperation angeboten.

Unternehmen müssen auf KI-basierte Tools zurückgreifen, um Transaktionen innerhalb des Netzwerks in Echtzeit zu untersuchen und Verhaltensanomalien von autorisierten Konten und ungewöhnliche Verkehrsmuster aufzudecken.

2. Enormer Anstieg bei den Risikomanagementdiensten

2022 wird das Jahr sein, in dem wir eine klare Definition für angemessene Sicherheit erwarten können. Sei es durch Rechtsstreitigkeiten oder die wachsende Zahl staatlicher Vorschriften, die in Kraft treten, von Unternehmen wird nun erwartet, dass sie ihrer Sorgfaltspflicht nachkommen und ihr Unternehmen schützen.

Dies bedeutet, dass ausreichende Maßnahmen ergriffen werden müssen, um die sensiblen persönlichen Daten anderer Personen zu schützen, da die staatlichen Aufsichtsbehörden nun damit beginnen, in ihren Anordnungen eine klare Definition für angemessene, risikobasierte Sicherheit zu verwenden. Im Hinblick auf Rechtsstreitigkeiten zeigt eine nachgewiesene Sorgfaltspflicht, dass keine Fahrlässigkeit vorliegt, was ein entscheidender Faktor bei Rechtsstreitigkeiten ist. Inzwischen gibt es eine wachsende Zahl von Sicherheitsrahmenwerken, die Unternehmen dabei helfen können, zu definieren, was „angemessene Sicherheit“ eigentlich ist.

PCI DSS 4.0 wird irgendwann im ersten Quartal 2022 veröffentlicht und wird das letzte der großen Sicherheitskontrollsysteme sein, das das Risiko zur Grundlage für die Einhaltung der Vorschriften macht. Die erste Phase der Bereitstellung von Cybersicherheitspolicen auf dem Markt ist finanziell gescheitert. Infolgedessen werden Versicherer und Versicherungsnehmer damit beginnen, die Öffentlichkeit in die Analyse von Cyberrisiken einzubeziehen, wodurch die Nachfrage nach diesen Dienstleistungen noch weiter steigen wird.

3. MSPs werden angemessene Sicherheitsmaßnahmen von ihren Kunden verlangen

In den letzten Jahren haben wir beobachtet, dass kleine und mittelständische Unternehmen (KMUs) ihre IT-Services nicht mehr im Rahmen von „Break-Fix“-Services anbieten, sondern stattdessen einen Managed-Services-Ansatz verfolgen, da sie ihre Technologieinvestitionen beschleunigt haben, um ihr Geschäft auszubauen. Da laut einer Anhörung des Justizausschusses in Washington im vergangenen Sommer die Hälfte aller Ransomware-Angriffe heute kleine Unternehmen betreffen, sind Managed Service Provider (MSPs) gezwungen, sich im Jahr 2022 stärker auf die Sicherheit zu konzentrieren.

MSPs erweitern jetzt ihr Sicherheitsangebot um Tools wie Endpoint Detection and Response-Lösungen und bieten gleichzeitig zusätzliche Dienste wie Penetrationstests und Schwachstellenbewertungen an. Da so viele Ransomware-Angriffe außerhalb der Geschäftszeiten stattfinden, werden MSPs zunehmend mit Security Operation Centern zusammenarbeiten, um die Netzwerke ihrer Kunden rund um die Uhr zu überwachen. MSPs verlangen von ihren Kunden, dass sie einen schriftlichen Plan für die Reaktion auf Vorfälle haben und diesen aktiv üben.

Viele MSPs werden damit beginnen, die Mindestsicherheitserwartungen an ihre Kunden anzupassen. Kunden, die diese angemessenen Sicherheitsmaßnahmen nicht einhalten, werden zunehmend als Kunden ausscheiden. Natürlich beginnt die Sicherheit innerhalb der eigenen IT-Anlage des MSP.

4. Hybride Arbeitsarchitekturen führen Touchdown Spots und Hot Desking ein

Die im Jahr 2020 über Nacht eingeführten Strategien für die Telearbeit wurden damals nur als Notlösung betrachtet. Da sich die Dinge praktisch über Nacht änderten, blieb wenig Zeit, um Fragen der Sicherheit und des Zugangs zu berücksichtigen.

In den letzten Monaten des Jahres 2021 hat sich das Mantra der Fernarbeit zu hybriden Arbeitsmodellen gewandelt. Bei der hybriden Arbeit geht es um eine größere Arbeitsflexibilität. Anstelle von festen Büros werden die Mitarbeiter „Touchdown-Spots“ haben, zu denen sie an einer bestimmten Anzahl von Tagen in der Woche für Teambuilding, Brainstorming, Kundeninteraktion, Abteilungsbesprechungen und Ähnliches zurückkehren können.

Es handelt sich um ein Konzept, bei dem jeder an einem bestimmten Tag einen Arbeitsplatz vor Ort beanspruchen kann. Die Benutzer wählen einfach einen Arbeitsplatz und beginnen zu arbeiten. Dieser Ansatz wird den Unternehmen helfen, ihre Büroflächen zu verkleinern und die Kosten zu senken. Die Herausforderung für hybrides Arbeiten im Jahr 2022 wird darin bestehen, sicherzustellen, dass die Nutzer einen Desktop haben, der überall dort einsatzbereit ist, wo sie zu arbeiten beginnen, sei es ein PC vor Ort, ein mobiler Laptop, eine Remote-VDI-Verbindung oder Windows 365.

5. Die Rolle der IT-Abteilung ändert sich im Jahr 2022

Das Wall Street Journal veröffentlichte kürzlich einen Artikel mit dem Titel „It’s Time to Get Rid of the IT Department“. Zwar glaubt niemand in unserer Runde, dass die IT-Abteilung verschwinden wird, aber sie sehen sie im Jahr 2022 im Wandel.

Laut einer kürzlich von WEI in Auftrag gegebenen IDG-Studie über den Stand der digitalen Transformation verlassen sich Unternehmen zunehmend auf Strategien zur Personalaufstockung, um die benötigten Technologiespezialisten zu finden. Erstaunliche 82 % der Umfrageteilnehmer gaben an, dass die Erweiterung des IT-Personals für ihr Unternehmen sehr wichtig ist, und mehr als jeder Zehnte stufte sie als entscheidend ein. Außerdem gaben sie an, dass 40 % ihres IT-Personals als befristet eingestuft wird.

Technikexperten sagen voraus, dass sich der Mangel an Cybersecurity-Fachleuten im Jahr 2022 weiter verschärfen wird, da die Unternehmen erkennen, dass die Cloud nicht so sicher ist, wie sie gehofft hatten, und beginnen, einige Dienste wieder intern zu nutzen. Unternehmen werden in den kommenden Jahren weniger auf Administratoren angewiesen sein, die sich auf einen bestimmten Bereich wie Speicher oder Netzwerke spezialisiert haben. Stattdessen werden sie auf operatives Personal umsteigen, das weiß, wie sie ihre gesamten Umgebungen betreiben, unabhängig davon, ob sich diese Ressourcen vor Ort oder in der Cloud befinden. Irgendwann werden Unternehmen keine internen Mitarbeiter mehr haben, die die Umgebung aufbauen, sondern sie nur noch verwalten.

Schlussfolgerung

Wir scheinen uns derzeit in unbeständigen Zeiten zu befinden, weshalb viele Unternehmen auf der Suche nach einem Fahrplan sind, der ihnen hilft, diese turbulenten Zeiten zu meistern. Es besteht kein Zweifel, dass wir im Jahr 2022 tiefgreifende Veränderungen erleben werden. Die Frage ist nur, wie wir mit diesen Veränderungen umgehen. Um es mit den Worten von Elon Musk zu sagen: „Manche Menschen mögen keine Veränderungen, aber man muss sie annehmen, wenn die Alternative eine Katastrophe ist.