Was genau ist am WLAN-Standard Wi-Fi 7 besser als bisher – und wer kann die Vorteile praktisch nutzen? Darum kreist Folge 2024/14 des Podcasts Bit-Rauschen.
Der Standard Wi-Fi 7 für drahtlose Netzwerke umfasst zahlreiche Neuerungen, die WLAN schneller und stabiler machen sollen. Die Spitzengeschwindigkeit steigt im Vergleich zu Wi-Fi 6 und Wi-Fi 6E. Doch die lässt sich häufig nur kurzzeitig nutzen, sowie nur dann, wenn die Entfernung zwischen WLAN-Router oder Repeater und Endgerät nicht zu groß ist.
In der Praxis wichtiger sind mehrere andere neue Funktionen. Denn die tragen dazu bei, dass sich im Durchschnitt höhere Datentransferraten ergeben.
Der c’t-Redakteur Ernst Ahlers [7] erklärt im Gespräch mit seinem Kollegen Christof Windeck [8], was Wi-Fi 7 bringt, und in welchen Einsatzbereichen sich diese Vorteile besonders bemerkbar machen: Folge 2024/14 von "Bit-Rauschen: Der Prozessor-Podcast von c’t".
Podcast Bit-Rauschen, Folge 2024/14 :
Wir freuen uns über Anregungen, Lob und Kritik zum Bit-Rauschen. Rückmeldungen gerne per E-Mail an bit-rauschen@ct.de [10].
Alle Folgen unseres Podcasts sowie die c’t-Kolumne Bit-Rauschen finden Sie unter www.ct.de/Bit-Rauschen [11]
URL dieses Artikels:
https://www.heise.de/-9747881
Links in diesem Artikel:
[1] https://ct.de/bit-rauschen
[2] https://Bit-Rauschen.podigee.io/feed/mp3
[3] https://podcasts.apple.com/de/podcast/bit-rauschen-der-prozessor-podcast-von-ct/id1549821753
[4] https://open.spotify.com/show/6JD6gwqgVR27GYZACrWOT1
[5] https://podcasts.google.com/feed/aHR0cHM6Ly9iaXQtcmF1c2NoZW4ucG9kaWdlZS5pby9mZWVkL21wMw
[6] https://www.deezer.com/de/show/2195452
[7] https://www.heise.de/autor/Ernst-Ahlers-4507618
[8] https://www.heise.de/autor/Christof-Windeck-3687176
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] mailto:bit-rauschen@ct.de
[11] https://www.heise.de/meinung/Bit-Rauschen-Der-Prozessor-Podcast-von-c-t-4914290.html
[12] https://www.heise.de/ct/
[13] mailto:ciw@ct.de
Copyright © 2024 Heise Medien
(Bild: iX)
Lancom bringt zwei neue WiFi 7 Access-Points und diverse Switches – vom Core bis zur Access-Ebene. Auch einen Switch für Industrieumgebungen gibt es nun.
Lancom veröffentlicht neue Switches und APs: Neben dem neuen Access Point LX-7500 als Topmodell mit 4x4 Triband Antennen in den Frequenzbändern 2, 4, 5 und 6 GHz liefert der Hersteller noch den LX-7300 mit 2x2 Triband Antennen. Zudem verfügen sie über ein Scan Radio zum permanenten Umgebungsscan. Nach Angaben von Lancom ist dieses jedoch zunächst ausschließlich zum Scan der WLAN-Kanäle nutzbar und nicht für eine gesamte Spektrumsanalyse. Es soll in Kombination mit der Lancom Management Cloud (LMC) nicht nur das Funkfeld sichtbar machen, sondern es auch bewerten und Handlungsempfehlungen zur WLAN-Optimierung für den Administrator geben. Dies soll später auch automatisiert möglich sein.
Beide sollen für die effiziente Frequenznutzung auf das bekannte Multi-User Multiple In-Multiple Out (MU-MIMO) Verfahren setzen und QAM-4096 als Modulation verwenden. Die Kanalbreite beträgt bis zu 320 MHz. Als echte Neuerung gilt Multi-Link Operation, wodurch es je nach eingesetzter Variante möglich ist, parallele Verbindungen auf unterschiedliche Kanäle oder sogar unterschiedliche Frequenzbänder aufzuteilen. Zunächst unterstützt Link Enhanced Multi-Link Single Radio (MLSR). So können alle Multi-Link-fähigen Geräte und Antennen dynamisch auf einen einzigen Link umschalten – sollte das Band dann gestört sein, schaltet es dynamisch auf das zweite Band um. Hinzu kommt Simultaneous Transmit and Receive (STR): Damit können Geräte Daten gleichzeitig über mehrere Verbindungen senden und empfangen, um den Durchsatz zu erhöhen, die Latenz zu reduzieren und die Zuverlässigkeit zu verbessern. Darüber hinaus prüft der Hersteller die Integration weiterer MLO-Varianten, was aber von den Zertifizierungsbedingungen der Wi-Fi Alliance abhängt.
Es steigt aber nicht nur der maximal mögliche drahtlose Durchsatz: Um dies auch ins verkabelte Netz zu transportieren, bieten beide APs zwei Uplink-Ports mit 10G und 2,5G. Damit können die Access-Points auf Basis des Link-Aggregations-Protokolls LACP ein Aktiv/Aktiv-Paar bilden oder auf Basis von Spanning-Tree eine Aktiv/Passiv-Verbindung zu den Switchen formen. Der große Bruder LX-7500 bietet zudem Dual-PoE, wodurch selbst beim Ausfall eines Switches, beispielsweise bei Updates, das WLAN weiter bestehen kann. Aber auch falls die Switching-Infrastruktur noch nicht genügend Leistung über einen Port liefern kann, kann der Access-Point die Leistung beider Ports kombinieren.
Ein In-Service Software-Update für den eigentlichen Access-Point hat der Hersteller in Planung. Auch Secure Boot unterstützen die neuen Modelle. Die APs liefern aber auch BLE 5.1 und lassen sich über USB-Schnittstellen durch weitere IoT-Sensoren ergänzen. Die Access-Points basieren, wie die angekündigten Modelle von Mitbewerbern, auf einem Qualcomm-Chipsatz.
Ferner hat Lancom an Details geschraubt: Unter anderem wurde das Antennendesign für die Deckenmontage verbessert. Aber auch an der physischen Sicherheit wurde gearbeitet: So gibt es eine integrierte Verriegelung gegen unbefugtes Entfernen – zumindest gegen Unbedarfte, die nicht auf den Seiten des Herstellers nachlesen. Ein Neigungs- und Bewegungssensor kann bei falschen Montagewinkeln oder Entwenden warnen.
Zudem verfügt das Gerät über einen integrierten Energieverbrauchsmesser, um die Werte an zentrale Managementsysteme senden zu können. Dem Thema Energiebedarf widmet sich Lancom intensiv. So gibt es auch ein Feature namens Active Power Control, das ein intelligentes Power-Monitoring und -Management bieten soll. Beispielsweise soll perspektivisch die Uplink-Geschwindigkeit in Zeiten geringer Last reduziert werden, um Energie zu sparen. Das bedeutet gemäß Rückfrage beim Hersteller allerdings einen kurzen Link-Down von drei bis fünf Sekunden.
Die Wi-Fi 7 Access-Points [1] sollen ab September 2024 lieferbar sein und zu Listenpreisen von 899 Euro (LX-7300 [2]) und 1190 Euro (LX-7500 [3]) zu haben sein. Die Straßenpreise dürften darunter liegen.
Mit höheren Wireless-Datenraten bedarf es jedoch auch eines Redesigns in der Switching-Infrastruktur. Lancom bringt daher nun neue Switchmodelle, um alle Rollen in Campus-Netzen abdecken zu können – vom Core bis zum Access. Die zugrunde liegenden Hardware-Chips stammen von Broadcom. Im Core und der Distributionsebene positionieren sich das neue Topmodell LANCOM CS-8132F mit 32x 100G QSFP28-Slots und der LANCOM YS-7154CF mit 48x 25G SFP28-Slots und 6x 100G QSFP28. Sie unterstützen auch Virtual Port Channels (VPC bzw. MC-LAG), um in redundanten Netzen auch bei Updates die Verfügbarkeit des Netzwerks gewährleisten zu können. Im Routing unterstützen sie nach Angaben des Herstellers OSPFv2 für IPv4 und OSPFv3 für IPv6, sowie BGP4. Als First-Hop-Redundancy-Protokoll bieten sie VRRP. Netzteile und Lüfter sind redundant und Hot-swappable ausgelegt – und selbst aus Rechenzentrumsswitchen bekannte Funktionen, wie die Auswahl des Luftflusses (vorn nach hinten oder hinten nach vorn), sind mit an Bord.
Auch eine separate CPU und eine 64 GByte große SSD für Zusatzanwendungen stehen bereit – jedoch fehlen diese Funktionen zum Auslieferungsstart noch. Dafür gibt es ein In-Service Software Upgrade (ISSU), um auch bei Updates die Uptime in kritischen Umgebungen gewährleisten zu können.
Die inzwischen bei Mitbewerbern häufig gebotene MACSec-Verschlüsselung bieten sie jedoch nicht. Dazu gab der Hersteller an, dass der Mutterkonzern Rohde & Schwarz mit seinen SITline-Netzwerkverschlüsselern eine Alternative bietet, um auch diesen Anwendungsfall bis zu Link-Geschwindigkeiten von 100G abzudecken. Die Switches sollen zu Listenpreisen von 34.990 Euro (CS-8132F [4]) und 29.990 Euro (YS-7154CF [5]) ab Oktober 2024 lieferbar sein.
Auf Access-Ebene geht der Trend zum Multi-Gigabit Port und im Uplink zu 25G oder höher. So bietet der neue XS-4530YUP [6] beispielsweise 12x 2,5 Gbit/s und PoE gemäß 802.3bt (Typ 4), sowie 12x 10 Gbit/s bei gleichem PoE-Standard. Für Uplink oder Stacking stehen 4x SFP28-Ports (10G oder 25G) und 2x QSFP28 (40G oder 100G) zur Verfügung. Selbst auf Access-Ebene unterstützen die Switches bereits Virtual Port Channel sowie redundante Netzteile und Lüfter. Selbst diese Switches unterstützen ISSU.
Der neue Lancom IGS-3510XUP [7] ist ein Industrie-Switch mit erhöhtem Temperaturbereich von -40 bis +60 °C. Er besitzt ein robustes, passiv gekühltes Metallgehäuse. Im Industriebereich noch unüblich ist die Uplink-Geschwindkeit von 2x 10 Gbit/s. Für den Downlink stehen 4x 1 Gbit/s PoE+ mit bis zu 30W PoE (802.3at) und 4x 2,5 Gbit/s PoE bis zu 90W (802.3bt Type 4) bereit. Insgesamt steht eine PoE-Leistung von bis zu 360W zur Verfügung. Lancom möchte auch noch Industrieprotokolle, wie das Ring-Protokoll ERPS (ITU-T G.8032) nachreichen. Der Switch lässt sich auch zentral über die Cloud verwalten.
URL dieses Artikels:
https://www.heise.de/-9787003
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Kurz-erklaert-Schnelleres-WLAN-mit-Wi-Fi-7-7488584.html
[2] https://www.lancom-systems.de/produkte/wireless-lan/indoor-access-points/lancom-lx-7300
[3] https://www.lancom-systems.de/produkte/wireless-lan/indoor-access-points/lancom-lx-7500
[4] https://www.lancom-systems.de/produkte/switches/core-switches/lancom-cs-8132f
[5] https://www.lancom-systems.de/produkte/switches/aggregation-switches/lancom-ys-7154cf
[6] https://www.lancom-systems.de/produkte/switches/fully-managed-access-switches/lancom-xs-4530yup
[7] https://www.lancom-systems.de/produkte/switches/fully-managed-access-switches/lancom-igs-3510xup
[8] https://www.heise.de/ix/
[9] mailto:fo@heise.de
Copyright © 2024 Heise Medien
FTTH (Fibre to the Holzhaus); die Aufnahme der Verlegearbeiten Northwestels im dünn besiedelten Yukon ist vom August 2022. Beleuchtet wurde das Kabel erst im Mai 2024.
(Bild: Daniel AJ Sokolov)
Bell Canada verkauft sein Festnetz im Norden des Landes an Ureinwohner. Northwestel wird der weltweit größte Netzbetreiber im Eigentum Indigener.
Der Telecomkonzern Bell Canada verkauft seine Tochter Northwestel um ungefähr eine Milliarde kanadische Dollar (rund 680 Millionen Euro) an ein Konsortium aus Ureinwohnervölkern. Es handelt sich also um eine Art Verstaatlichung durch dutzende Völker. Das Unternehmen versorgt die drei Territorien Kanadas sowie den Norden der Pazifikprovinz Britisch-Kolumbien und einen Teil des Nordens Albertas mit ortsgebundenem Internetzugang, Festnetztelefonie und teilweise Kabelfernsehen, außerdem vertreibt es Satellitenanbindungen über Oneweb. Laut den neuen Eigentümern wird Northwestel (NWTel) damit zum weltweit größten Netzbetreiber im Eigentum Indigener - das stimmt zumindest bezogen auf die zu versorgende Fläche.
Denn das Versorgungsgebiet ist riesig: Rund vier Millionen Quadratkilometer sind mehr als die elffache Fläche Deutschlands. Dafür ist das Gebiet sehr dünn besiedelt. In den drei Territorien Kanadas (Nunavut im Osten, Nordwest-Territorien im Zentrum und Yukon im Westen) leben insgesamt nur rund 125.000 Menschen. Hinzu kommen weniger als zehntausend Einwohner im Norden Britisch-Kolumbiens und Albertas. Die Betriebsbedingungen sind extrem, mit sehr kalten, langen Wintern, Waldbränden im Sommer, Permafrostboden, enormen Entfernungen und generell bescheiden ausgebauter Infrastruktur. Fast die Hälfte der knapp hundert angeschlossenen Siedlungen ist nicht durchgehend auf dem Landweg erreichbar. Entsprechend hoch sind die Kosten für Netzerrichtung und -betrieb.
NWTel betreibt die jeweils einzige Glasfaser-Verbindung, die die zentral gelegenen Nordwest-Territorien und das westlich gelegenen Yukon-Territorium mit der Außenwelt verbinden. Das Nunavut-Territorium im Osten hat bislang keinen Anschluss an Glasfaser und ist auf Satelliten angewiesen. Auch in den beiden anderen Territorien gibt es Siedlungen, die die Glasfaser nicht erreicht. Bis zum Markteintritt des Satellitendienstes Starlink Ende 2022 hatte NWTel im Großteil seines Gebietes kaum nennenswerte Konkurrenz. Im östlich gelegenen Territorium Nunavut sowie in Teilen der Nordwest-Territorien gibt es mit SSi Canada zwar einen drahtlosen Mitbewerber, der aber ebenfalls auf den Northwestel-Backbone angewiesen ist und seit jeher über Apothekerpreise für dessen Nutzung klagt.
Für die Ureinwohner ist der Kauf sowohl eine wirtschaftliche als auch eine strategische Entscheidung: "Als indigene Völker waren wir schon lange der Auffassung, dass wir die Besten sind, um notwendige Entscheidungen zu treffen, die Dienstleistungen in unseren Siedlungen betreffen", sagte Tiffany Eckert-Maret, eine für die beteiligten Völker des Yukon tätige Managerin, "Der Kauf Northwestels wird uns die Autonomie geben, in Zukunft diese Investitionen und Entscheidungen zu treffen, um unsere Telecom-Berdürfnisse zu erfüllen." Trotz alledem erwarten die Ureinwohnerregierungen laufende Gewinne: "Der Kauf (NWTels wird Indigenen) Zugang zu langfristig stabilem Cashflow gewähren, den sie in wichtige Infrastruktur wie Wohnraum, Sozialleistungen, Gesundheitsversorgung und Bildungsprogramme" reinvestieren können, steht in der Pressemitteilung [1] zu lesen.
Nur teilweise ist geklärt, wie sich das neue Eigentümerkonsortium zusammensetzen wird. Die neu gegründete Holding heißt Sixty North Unity – ein Bezug auf den sechzigsten Breitengrad, der die Grenze zwischen Kanadas Territorien und Provinzen bildet. Bislang sind drei Eigentümergruppen Sixty North Unitys bekannt: Aus dem Yukon sind 13 der 14 Ureinwohnervölker mit dabei, in den Nordwest-Territorien der Großteil der First Nations (im US-Englisch Indians genannt), offenbar aber keine Inuit (US-Englisch: Eskimos) oder Métis. In Nunavut ist eine Organisation Teilhaber, die den Inuit-Regierungen in Kitikmeot, einer von drei Regionen des Territoriums, repräsentiert. Eingeladen sind auch die übrigen Ureinwohner im Norden Kanadas, teilweise sollen bereits Gespräche stattfinden.
Auch sonst lässt die Ankündigung des Verkaufs viele Fragen offen. Auch auf Nachfrage heise onlines bei allen Beteiligten war beispielsweise nicht zu erfahren, welche Teile der Infrastruktur bei dem Verkauf an die Ureinwohner gehen, und was bei Bell bleibt und fortan an Northwestel vermietet wird. Bells nördliches Mobilfunknetz und -frequenzrechte bleiben sicher bei Bell; aber wer den Glasfaser-Backbone und Satellitenbodenstationen erhält, ist unbekannt. Gleiches gilt für den Verbleib der Markenrechte sowie des Eigentumanteils am noch immer in Bau befindlichen Canada North Fibre Loop, der ersten Glasfaser in Permafrost [2].
Keine Auskunft gibt es außerdem zu etwaigen Übernahmen von Schulden oder andere Verbindlichkeiten, beispielsweise Pensionsansprüchen. Die wettbewerbsrechtliche Genehmigung stehen noch aus; doch da Northwestel schon jetzt keine nennenswerten Konkurrenz hat, dürfte die Wettbewerbsbehörde keine Steine in den Weg legen. Das Closing ist für das vierte Quartal geplant. Das gegenwärtige Northwestel-Management soll auch danach im Amt bleiben.
NWTel ist kein Mobilfunkanbieter; das Geschäft mit Kabelfernsehen schrumpft, und – wie aus Preisregulierungsverfahren hervorgeht – ist die Festnetztelefonie seit langem defizitär. In den Dörfern läuft Internet entweder über Satelliten, die NWTel nicht selbst betreibt sondern nur vermarktet, oder über alte DSL-Einrichtungen, die auch Verluste schreiben. Manche Siedlungen haben inzwischen auch Glasfaser.
Für die Dörfer des Yukon hat NWTel dutzende Millionen Dollar Subventionen erhalten, mit denen es Glasfaser zu den einzelnen Häusern gebracht hat. Die letzten Meilen dieses Glasfasernetzes im Yukon hat NWTel bereits vor zwei Jahren an die 13 Ureinwohnervölker verkauft und umgehend exklusiv zurückgemietet. Dieses Tafelsilber ist also schon verkauft. Jedenfalls dürfte die Glasfaser günstiger zu betreiben sein als DSL, zumindest gemessen pro übertragenem Gigabyte; aufgrund der Ringstruktur der Kupferkabel kann NWTel die DSLAMs aber nicht abschalten, solange auch nur ein Kunde am jeweiligen Ring noch DSL nutzt. Der Umstieg wird Jahre dauern.
Gewachsen ist das Unternehmen zuletzt nur bei Internetanschlüssen, weil die Bevölkerung der Region stark zugenommen hat. Den Yukon ausgenommen ist das Bevölkerungswachstum im Servicegebiet allerdings jüngst zum Erliegen gekommen. Kein Wunder; zwar gibt es zahlreiche unbesetzte und gut bezahlte Arbeitsplätze, doch herrscht im Norden Kanadas großer Mangel an Wohnraum, der vom Mangel an Gewerbeimmobilien noch übertroffen wird. Und seit eineinhalb Jahren wildert Starlink im NWTel-Revier. Starlink hat nicht nur seltener Totalausfälle aufgrund von Kabelbrüchen, auch die monatliche Gebühr lag bis vor kurzem unter der günstigsten Internet-Flatrate NWTels (die nur über Kabel und Glasfaser verfügbar ist, nicht über DSL, wo zusätzliche Datenmengen ordentlich ins Geld gehen).
Erst vor einigen Tagen hat NWTel eine Flatratetarif eingeführt (50/10 Mbit/s über Kabel, 50/50 Mbit/s über Glasfaser), dessen monatlicher Tarif leicht unter dem Starlink-Preis liegt. Ob das reicht, den Verlust an Marktanteilen zu bremsen, bleibt abzuwarten.
Laut heise online vorliegenden Angaben aus Bankenkreisen macht NWTel etwa 275 Millionen Dollar Jahresumsatz, davon zirka 75 Millionen mit anderen Bell-Gesellschaften. Der Gewinn vor Steuern, Zinsen und Abschreibungen (EBITDA) liegt demnach bei ungefähr 135 Millionen Dollar, was eine EBITDA-Marge von erstaunlichen 49 Prozent ergibt. Selbst im hochpreisigen Telecom-Markt Kanada ist das für einen Festnetzbetreiber richtig stark.
Von den 31.000 Internetkunden NWTels beziehen etwa 8.500 auch Kabelfernsehen. Das (großteils bereits 2022 verkaufte) Glasfasernetz verläuft zu oder nahe bei 17.000 Gebäuden, 11.000 Haushalte nutzen noch aktiven Kupferdraht. Auch diese Daten sind nicht offiziell, kursieren aber unter Bankiers.
Unklar ist, wie so wenige Kunden den Kaufpreis von rund einer Milliarde Dollar finanzieren sollen. Der Zinsfuß dürfte bei acht bis zehn Prozent liegen. Selbst bei nur sechs Prozent Zinsen macht alleine die Zinslast 60 Millionen Dollar jährlich aus. Umgelegt auf 31.000 Internetkunden wären das 161 Dollar Zinsen pro Anschluss und Monat, die Tilgung der Schulden nicht eingerechnet.
(Bild: Daniel AJ Sokolov)
Gleichzeitig steigen die Kosten, denn NWTel muss Arbeitsplätze vor Ort schaffen, um bislang von Bells Konzernzentrale mitbetreute Aufgaben erledigen zu können, beispielsweise Rechts- und Finanzabteilung. Zudem haben die neuen Eigentümer vor, Ureinwohner durch Kurse und Mentorships zu Fachkräften heranzubilden, die dann bei NWTel beschäftigt werden können. Auch das kostet. Und der Einkauf, von Kugelschreibern über Netzausrüstung bis zu Softwarelizenzen, wird teurer werden, sobald die von Bell ausgehandelten Mengenrabatte wegfallen.
Nicht zuletzt versprechen die neuen Eigentümer zusätzliche Investitionen. Dazu gehören Gigabit-Anschlüsse für Haushalte (eventuell auch für Kabel-Internet), zusätzliche Infrastruktur für erdnahe Satellitennetze, sowie ein Unterseekabel im Großen Sklavensee, um Yellowknife, der Hauptstadt der Nordwestterritorien, eine zweite Glasfaseranbindung zu verschaffen. Der See ist ungefähr so groß wie Albanien, oder fast so groß wie das deutsche Bundesland Brandenburg. Durch ein Unterseekabel (zusätzlich zur bestehenden Anbindung über Land) werden die häufigen Telecom-Ausfälle aufgrund beschädigter Glasfasern, so die Hoffnung, der Vergangenheit angehören.
Trotz alledem erwarten die Ureinwohnerregierungen "langfristig stabilen Cashflow". Eine Wette mit ungewissem Ausgang. Bell jedenfalls darf sich über eine Milliarde Dollar freuen, die es zur Schuldentilgung nutzen wird. Es muss sich nicht länger mit den besonders schwierigen Bedingungen des kanadischen Nordens herumschlagen und kann Gewinn verbuchen. Der Verkaufspreis soll geschätzt beim zweieinhalbfachen Buchwert liegen.
Northwestel besteht im Yukon und den Nordwestterritorien seit 1979 und war damals eine Tochterfirma der staatlichen Canadian National Railways, die so hoch im Norden aber gar keine Schienen hatte. 1988 übernahm Bell Canada den Netzbetreiber und verschmolz ihn 1992 mit dem Bell-Betrieb im heutigen Nunavut. Mangels Konkurrenz ist NWTel der einzige Internetprovider Kanadas, dessen Endkundenpreise reguliert sind. Die schrittweise Einführung von Internet-Flatrates für Kabel- und Glasfaserkunden erfolgte ab Ende 2020, im inoffiziellen Austausch gegen Millionensubventionen für den Ausbau von Fibre to the Home (FTTH). Der günstigste Flatrate-Tarif im Yukon kostet heute 130 Dollar pro Monat netto, umgerechnet 89 Euro zuzüglich Steuer; Businesskunden zahlen mindestens 300 Dollar monatlich (205 Euro).
Die Geschichte der Telekommunikation beginnt im Norden Kanadas 1865. An regionaler Telecom-Geschichte Interessierten sei das Büchlein "In Direct Touch with the Wide World, Telecommunications in the North 1865-1992" von Dianne Green empfohlen, das Northwestel 1992 aufgelegt hat (ISBN-10: 096961280X).
URL dieses Artikels:
https://www.heise.de/-9781701
Links in diesem Artikel:
[1] https://www.nwtel.ca/sixty-north-unity-northwestel-and-bell-canada-announce-transformative-partnership-advance-economic
[2] https://www.heise.de/news/Kanada-Erste-Glasfaser-im-Permafrost-hilft-deutschen-Satelliten-4258742.html
[3] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: Cisco)
Im Rahmen der Hausmesse Live hat Cisco mehrere neue Firewall-Serien vorgestellt. Neben dem neuen Topmodell gab es auch einen GenAI-Assistenten zu sehen.
Cisco kümmert sich um die Auffrischung des Desktop-Firewall-Portfolios für Zweigstellen und kleine Unternehmen. Die neue Cisco Secure Firewall der 1200er-Serie soll für die performante und sichere Anbindung kleiner Zweigstellen dienen. Für die Cloud-verwalteten Meraki-MX-Firewalls gibt es ein neues Topmodell namens MX650. Gleichzeitig bringt Cisco einen KI-Assistenten für Firewalls.
Es soll ab Oktober 2024 drei neue Modelle [1] geben: Die kleinste 1210 CE bringt 3 Gbit/s Firewall- und 2 Gbit/s IPSec-VPN-Durchsatz. Sie besitzt 8*1000BASE-T Kupferports. Die 1210 CP liefert auf vier der acht Ports zusätzlich noch UPoE+, um beispielsweise WLAN Access-Points oder Telefone mit Strom zu versorgen. Falls es etwas mehr Durchsatz braucht oder der Internet-Uplink oder eine Verbindung zu einem Switch per Lichtwellenleiter erfolgen soll, liefert die 1220 CX zusätzlich zu 8*1000BASE-T Kupferports noch 2*SFP+-Slots und bis zu 6 Gbit/s Firewall- und 4 Gbit/s IPSec-VPN-Durchsatz. Alle drei Varianten kommen mit einem externen Netzteil daher.
Der Hersteller benennt im iX-Interview ein bis zu dreimal besseres Preis-/Durchsatzverhältnis im Vergleich zu Mitbewerbern. Konkrete Preise nannte Cisco auf der Live jedoch nicht, wodurch sich die Angaben nicht überprüfen lassen.
Cisco hat darüber hinaus die neue Software-Version 7.6 von Firewall Threat Defense (FTD) angekündigt, die für alle physischen und virtuellen Firewalls von Cisco verfügbar ist. Sie soll den Rollout von Zweigstellennetzwerken mit vorgefertigten SD-WAN- und Firewall-Vorlagen sowie Zero-Touch-Provisioning unterstützen.
Das neue Topmodell der cloud-verwalteten Meraki-MX-Firewall stellt die nun frisch vorgestellte MX650 [2] dar. Sie bietet einen SFP28-Einschub für bis zu 25G dediziert auf WAN-Seite sowie konfigurierbar auf LAN-Seite einen 25G SFP28- und zwei 10G SFP+- sowie acht 1G SFP-Einschübe. Sie soll mit bis zu 25 Gbit/s über 5-fachen maximalen IPSec-Durchsatz und mit 16 Gbit/s Durchsatz für erweiterte Sicherheitsfunktionen mehr als doppelte Performance im Vergleich zur MX450 bieten. Auch die maximale empfohlene Client-Anzahl steigt von 10.000 bei der MX450 auf 50.000 Clients bei der MX650. Das Ganze kommt auf Basis einer Höheneinheit daher.
Zudem gab es auf der Cisco Live in Las Vegas auch einige Informationen zum sogenannten AI Assistant for Security [3]. Er baut auf dem Firewall Management Center (FMC) oder dem Cisco Defense Orchestrator (CDO) aus der Cloud auf. Mit dieser Kombination sollen Administratoren ihre Firewalls verwalten, Richtlinien konfigurieren und bei Bedarf auf Referenzmaterialien zugreifen, um effizienter zu werden. Dabei handelt es sich nach Angaben des Herstellers um ein generatives KI-Tool auf Basis eines LLMs mit Natural Language Processing (NLP). Auch bei Fehlverhalten, wie unkontrollierten Neustarts, soll der Assistent Empfehlungen geben, beispielsweise Softwareupdates mit entsprechenden Hinweisen.
URL dieses Artikels:
https://www.heise.de/-9759186
Links in diesem Artikel:
[1] https://www.cisco.com/site/us/en/products/security/firewalls/secure-firewall-1200-series/index.html
[2] https://documentation.meraki.com/MX/MX_Overviews_and_Specifications/MX650_Datasheet
[3] https://blogs.cisco.com/security/give-your-firewall-admins-superpowers-with-cisco-ai-assistant-for-security
[4] https://www.heise.de/ix/
[5] mailto:fo@heise.de
Copyright © 2024 Heise Medien
Das Aachener Start-up Black Semiconductor sichert sich eine Viertelmilliarde Euro für die Fertigung von Graphen-Optelektronik.
Die Europäische Union (EU) sowie private Investoren stecken insgesamt 254,4 Millionen Euro in das junge Aachener Unternehmen Black Semiconductor. Dessen Name bezieht sich auf die schwarze Farbe von Kohle, denn das superdünne Material Graphen mit besonderen elektrischen und optischen Eigenschaften ist eine Modifikation von Kohlenstoff.
Black Semi will eine Pilot-Fertigungsanlage für schnelle optoelektronische Komponenten aus Graphen [1] auf 300-Millimeter-Wafern bauen. Ziel ist es, optische Interconnects mit Graphen-Technik in "normale" CMOS-Logikchips wie Prozessoren, Systems-on-Chip (SoCs) und Rechenbeschleuniger zu integrieren: Co-integrated Optics (CIO). Das soll sehr leistungsfähige und energetisch effiziente Chip-zu-Chip-Kommunikation auch über längere Distanzen ermöglichen.
Der Mitgründer Dr. Daniel Schall forscht seit Jahren an Graphen-Optoelektronik [2] und war auch für die Gesellschaft für Angewandte Mikro- und Optoelektronik mbH (AMO GmbH) tätig, die das Advanced Microelectronic Center Aachen (AMICA) betreibt [3]. Black Semiconductor [4] wurde 2019 aus der AMO GmbH ausgegründet.
Auch andere Firmen tüfteln daran, CMOS-Logikchips und optische Interconnects eng zu koppeln. Intel meldet seit rund 20 Jahren immer wieder Fortschritte [5] bei Silicon Photonics, also bei in Siliziumtechnik umgesetzter Optoelektronik.
Nvidia-CEO Jensen Huang wies vor wenigen Monaten auf die Nachteile der Umwandlung von elektrischen in optische Signale [6] hin und erklärte, dass man für die schnelle Vernetzung von KI-Clustern per NVLink daher bisher auf Kupferkabel setze. Die Integration optischer Interconnects direkt in Logikchips könnte die Energieeffizienz optischer Interconnects in der Praxis erheblich steigern.
Ein weiterer Ansatz zur Anbindung optischer Transceiver an CMOS-Chips sind Chiplets. Außerdem arbeiten einige Firmen an optischen Prozessoren [7].
URL dieses Artikels:
https://www.heise.de/-9751925
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Graphen-Vom-Hype-zur-Anwendung-2792052.html
[2] https://scholar.google.de/citations?user=K6795lYAAAAJ&hl=de
[3] https://www.amo.de/de/ueber-amo/geschichte/
[4] https://blacksemi.com/
[5] https://www.heise.de/news/Intel-plant-Prozessoren-mit-optischen-Schnittstellen-4978154.html
[6] https://www.semianalysis.com/p/nvidias-optical-boogeyman-nvl72-infiniband
[7] https://www.heise.de/hintergrund/Optische-Prozessoren-Aufbau-und-Entwicklungsstand-7446679.html
[8] https://www.heise.de/ct/
[9] mailto:ciw@ct.de
Copyright © 2024 Heise Medien
(Bild: swissdrone / Shutterstock.com)
Wer mit dem Handy durch Deutschland fährt, hat mancherorts noch immer schlechtes Netz. Doch alles in allem werden die Verbindungen besser - auch bei Vodafone.
Der Telekommunikationsanbieter Vodafone will sein 5G-Handynetz in Deutschland weiter ausbauen. Derzeit seien rund 92 Prozent der deutschen Haushalte in Reichweite von 5G-Antennen von Vodafone und bis spätestens März 2025 sollen es 95 Prozent sein, sagte der Vodafone-Deutschlandchef Marcel de Groot der dpa in Düsseldorf. "Zeitgleich statten wir unsere bestehenden Mobilfunkstationen mit zusätzlichen Kapazitäten aus."
Dies geschieht auch mit Blick auf die anstehende Zubuchung (Migration) von Handykunden des Wettbewerbers 1&1. Der hat nur wenige eigene Antennen – dort, wo er nicht selbst funkt, werden dessen Kunden derzeit noch mit dem O2-Netz verbunden. Im Sommer wechselt 1&1 beim "National Roaming" zu Vodafone, rund 12 Millionen 1&1-Kunden müssen dann schrittweise in das Vodafone-Netz übergeführt werden. Das beschert Vodafone Mieteinnahmen und die Auslastung des Netzes steigt, zuletzt hatte die Firma in Deutschland nach eigenen Angaben rund 31 Millionen Mobilfunk-Kunden.
Beim 5G-Handynetz-Ausbau sind die Konkurrenten weiter, die Deutsche Telekom liegt derzeit nach eigenen Angaben bei einer Haushaltsabdeckung von 96 Prozent und O2 Telefónica bei 95 Prozent, beide Firmen peilen bis Ende 2025 einen Wert von nahezu 100 Prozent an.
Dieses Jahr sollte ursprünglich eine Auktion von Mobilfunk-Frequenzen stattfinden, doch dieses Mal will die Bundesnetzagentur darauf verzichten und stattdessen bestimmte Nutzungsrechte um fünf Jahre verlängern [1]. Im Gegenzug dazu müssen sich die Firmen zu einem verstärkten Netzausbau bis 2030 verpflichten. Dann sollen 99,5 Prozent der Fläche Deutschlands mit mindestens 50 Megabit pro Sekunde versorgt sein.
Vodafone-Deutschlandchef de Groot findet den neuen Kurs der Netzagentur – also den Verzicht auf die Auktion – "grundsätzlich gut für die Handynutzer in Deutschland". Schließlich hätten die Netzbetreiber dadurch mehr Geld für den Ausbau. "Jeder Euro, der in Masten statt in Lizenzscheine fließt, ist ein gut investierter Euro", sagte der Manager.
Die vorgeschlagenen Ausbauziele in der Fläche wären aber nur erreichbar, "wenn die Politik den Mobilfunkausbau bundesweit beschleunigt, indem sie gesetzlich festlegt, dass er von überragendem öffentlichen Interesse ist", sagt de Groot. "Und klar ist auch: Wenn der Rückbau von Mobilfunkantennen im ganzen Land angeordnet wird, sind die vorgeschlagenen Versorgungsziele nicht erreichbar."
Mit dieser Bemerkung bezieht er sich auf Überlegungen in der Bundespolitik [2], chinesische Komponenten aus dem deutschen Antennen-Netz entfernen zu lassen. Das würde die drei etablierten Handynetzbetreiber Deutsche Telekom, Vodafone und Telefónica O2 vor Probleme stellen. Schließlich setzen sie im Antennen-Netz alle auch auf den chinesischen Anbieter Huawei, dessen hohe Qualität sie schätzen.
URL dieses Artikels:
https://www.heise.de/-9758840
Links in diesem Artikel:
[1] https://www.heise.de/news/Regulierer-Mobilfunkfrequenzen-fuenf-Jahre-verlaengern-gegen-Flaechenabdeckung-9716578.html
[2] https://www.heise.de/news/Ministertreffen-Deutscher-Umgang-mit-Huawei-bleibt-unklar-9730661.html
[3] mailto:fds@heise.de
Copyright © 2024 Heise Medien
(Bild: asharkyu/Shutterstock.com)
Die Routingtabellen des Internet (BGP) sind anfällig für Manipulation. Daher sollen US-Provider zu Sicherungsmaßnahmen verpflichtet werden.
Internet Service Provider in den USA sollen rechtlich dazu verpflichtet werden, ihre Border Gateways kryptografisch abzusichern, damit sie weniger anfällig gegen falsche oder manipulierte Datenroutings werden. Das hat die Regulierungsbehörde FCC (Federal Communications Commission) am Donnerstag einstimmig beschlossen. Grund ist, dass die Routingtabellen des Internet (Border Gateway Protocol, BGP) anfällig sind für Fehler und absichtliche Manipulation. Durch "BGP-Hijacking" wird Datenverkehr böswillig umgeleitet, untergeschoben oder zum Erliegen gebracht.
"BGP hat Netzbetreibern ermöglicht, zu wachsen und das moderne Internet hervorzubringen, aber es wurde nicht mit ausdrücklichen Sicherheitsfunktionen designt, um Vertrauen in die ausgetauschten Informationen sicherzustellen", sagte FCC-Vorsitzende Jessica Rosenworcel anlässlich des FCC-Beschlusses. "Ich möchte dem Verteidigungsministerium und dem Justizministerium dafür danken, dass sie öffentlich gemacht haben, dass China Telecom BGP genutzt hat, um US-Internetverkehr bei mindestens sechs Gelegenheiten umzuleiten. Diese BGP-Highjackings können personenbezogene Daten offenlegen und Diebstahl, Erpressung und staatliche Spionage ermöglichen." Diese Offenlegung hat Rosenworcel sicherlich dabei geholfen, auch die Unterstützung ihrer FCC-Kollegen aus der Republikanischen Reichshälfte zu bekommen. Denn die Sicherungspflicht für das BGP ist eine Initiative der FCC-Chefin [1], die Demokratin ist.
Die FCC möchte US-Breitbandanbieter zunächst dazu verpflichten, ihre Datenrouten mit RPKI (Resource Public Key Infrastructure) abzusichern. Das hilft gegen irrtümlich falsche Routen. Mindestens jährlich sollen Provider vertrauliche BGP security risk management plans mit Umsetzungsstand und -plänen einreichen. Erst wenn RPKI ausgerollt ist, kann die nächste Sicherheitsmaßnahme BGPsec greifen, die besseren Schutz gegen absichtliches BGP-Hijacking bietet.
Die neun größten ISP des Landes sollen ihre Berichte sogar quartalsweise erstatten, bis sie ein annehmbares Sicherheitsniveau erreicht haben. Zusätzlich sollen sie bestimmte Informationen quartalsweise öffentlich machen müssen. Kleine Betreiber würden von regelmäßiger Berichtspflicht ausgenommen, müssten der FCC allerdings auf Anfrage einschlägige Informationen geben. Die entsprechende FCC-Verordnung geht nun in Begutachtung (Notice of Proposed Rulemaking FCC 24-62), bei der Interessierte Stellungnahmen einreichen können.
Das BG-Protokoll (RFC 1105) spezifiziert den Austausch von Informationen zwischen Routern, auf deren Basis sie die beste Route für die zwischen ihren Netzen – den Autonomen Systemen (AS) – übermittelten Datenpaketen identifizieren können. In Routing-Tabellen halten die Border-Router die besten Pfade fest. Das Border Gateway Protocol krankt daran, dass es aus einer Zeit stammt, als man einander im Netz vertraut hat. Jeder darf beliebige Routen verlautbaren, automatische Kontrollen sind nicht vorgesehen.
Beim sogenannten Präfix-Hijacking gibt ein Angreifer die Präfixe seiner Opfer als eigene aus. Beispielsweise kann das angreifende Netz spezifischere Adressen aus dem Netz des Opfers ankündigen oder behaupten, eine Abkürzung zu bestimmten IP-Adressblöcken zu bieten. Router ohne RPKI müssen das einfach glauben.
Mit RPKI (RFC 6840 plus über 40 weitere RFCs [2]) kann mittels Route Origin Authorisations (ROA )festgelegt werden, für welche IP-Präfixe ein Autonomes System verantwortlich ist. Kündigt es plötzlich andere IP-Präfixe an, löst das Alarm aus. Damit sollen in erster Linie die häufig vorkommenden Fehler bei der Ankündigung von Routen verhindert werden. Das vielleicht bekannteste Beispiel dafür ist die Umleitung von YouTube-Verkehr zur Pakistan Telecom.
Theoretisch gibt es seit 2017 auch eine Waffe gegen absichtliches BGP-Hijacking: BGPsec (RFC 8204) [3]. Es sichert die Routing-Informationen auf dem Weg durch das Netz ab. Statt allein die Authentizität des Ursprungs einer Routenankündigung zu prüfen, soll so sichergestellt werden, dass entlang des Pfades keine Manipulationen passieren. Es hülfe aber nur, wenn erstens RPKI ausgerollt ist und zweitens alle Netzbetreiber gleichzeitig auf BGPsec umstellten, sodass unsignierte Informationen ignoriert werden dürften. Eine solche Umstellung ist nicht in Sicht, weil dafür viele Router ausgetauscht werden müssen und die Netzbetreiber erheblichen Mehraufwand für die Verwaltung all der BGPsec-Schlüssel hätten, die für jeden Routing-Hop notwendig sind.
Außerdem setzt BGPsec voraus, dass man den Ausstellern der kryptografischen Zertifikate vertraut. Stehen diese Stellen jedoch unter staatlicher Kontrolle, ist vielleicht nicht viel gewonnen. Denn die meisten Manipulationen gehen auf Täter aus korrupten Ländern oder gar auf staatliche Akteure, die ihre eigenen Interessen verfolgen, zurück. Sie könnten auch Zertifikate ausstellen, die ihren Attacken den Anschein von Legitimität verleihen.
Berühmt ist ein Fall aus 2013; damals wurde 21 Mal Datenverkehr aus anderen Ländern, darunter Deutschland, Iran, Südkorea und die USA, über Weißrussland geroutet -- manchmal für einige Minuten, manchmal aber auch stundenlang. Aufgefallen ist das erst nach Wochen. Um solche Vorfälle schnell aufzudecken, hat eine Gruppe an der Informatik-Fakultät der Universität Indiana in Bloomington vor sieben Jahren ein Programm namens Bongo veröffentlicht.
Bongo ist für lokale Netze gedacht, die BGP-Routing-Daten [4] von ihrem Internetprovider erhalten, beispielsweise Firmen und Universitäten. Der Administrator kann für jedes Autonome System einstellen, welche Länder im Routing (nicht) auftauchen dürfen. Erspäht die Software eine nicht akzeptable Route, kann sie, je nach Konfiguration, den Administrator alarmieren oder selbst die Firewall anweisen, den Datenstrom zum entsprechenden Autonomen System zu unterbinden.
URL dieses Artikels:
https://www.heise.de/-9751340
Links in diesem Artikel:
[1] https://www.heise.de/news/FCC-Chefin-will-das-Border-Gateway-Protocol-absichern-9721893.html
[2] https://blog.apnic.net/2021/03/15/which-rpki-related-rfcs-should-you-read/
[3] https://datatracker.ietf.org/doc/html/rfc8205
[4] https://www.heise.de/news/Bongo-gegen-BGP-Hijacking-Wohin-lassen-Sie-Ihre-Daten-fliessen-4647808.html
[5] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: Michael Vi/Shutterstock.com)
In Kooperation mit Nvidia will Cisco auch im Bereich der Infrastruktur vom KI-Boom profitieren. Nexus HyperFabric AI Cluster heißt das neue Gesamtpaket.
Cisco möchte künftig die Basisinfrastruktur für KI-Projekte als Gesamtpaket anbieten. Dazu zeigte der Hersteller auf der Hausmesse Cisco Live in Las Vegas sein Konzept Nexus HyperFabric AI Cluster. Das soll die Bereitstellung der Basisinfrastruktur vereinfachen, mit der sich generative KI-Modelle und -Anwendungen implementieren, verwalten und überwachen lassen. Das soll sogar ohne tiefgreifende IT-Kenntnisse und Fähigkeiten machbar sein, verspricht Cisco. Parallel zur Kooperation hat Cisco einen Milliarden-Fonds für KI-Startups aufgelegt.
Dazu setzt sich die Infrastruktur aus unterschiedlichen Bestandteilen zusammen. Als modulare Server-Architektur für KI greift Cisco auf Nvidia MGX zurück. Zur Optimierung der Entwicklung und des Einsatzes von generischen KI-Workloads soll Nvidias AI-Enterprise-Software gepaart mit deren NIM-Microservices zur beschleunigten Bereitstellung der grundlegenden Modelle genutzt werden. Als GPU kommen Nvidias Tensor-Core-GPUs beginnend mit dem Nvidia H200 NVL zum Einsatz. Um Zugriffsgeschwindigkeiten zu optimieren und gleichzeitig Sicherheitsrichtlinien anwenden zu können, setzt man auf Nvidia BlueField-3 DPUs und BlueField-3 SuperNICs als funktionserweiterte Netzwerkkarten. Mit Nvidia arbeitet Cisco bereits auch schon in anderen Bereichen zusammen [1].
Für das Management mit den entsprechenden Workflows stellt Cisco eine Cloud-Anwendung bereit. Die zugrunde liegende Netzwerkinfrastruktur fußt auf Ciscos Nexus-6000-Rechenzentrumsswitchen für eine Leaf-Spine-Architektur. Diese soll eine 400G- und 800G-Fabric bereitstellen, wofür Cisco auch entsprechende QSFP-DD-Optiken bereitstellt. Zur Datenspeicherung und als zugrunde liegende Datenbank setzt Cisco auf die VAST Data Plattform.
Ausgewählte Kunden können das Gesamtpaket ab dem vierten Quartal 2024 testen. Die allgemeine Verfügbarkeit soll laut Cisco kurz darauf folgen.
Parallel dazu hat Cisco einen Investitionsfonds in Höhe von einer Milliarde US-Dollar aufgelegt. Er soll strategische Investitionen in Start-ups tätigen, um die Basis für sichere, zuverlässige und vertrauenswürdige KI-Lösungen zu schaffen. Erste Investments für generative KI flossen bereits in die Start-ups Cohere, Mistral AI und Scale AI. Sie sollen das KI-Ökosystem vervollständigen.
URL dieses Artikels:
https://www.heise.de/-9748560
Links in diesem Artikel:
[1] https://www.heise.de/news/InfiniBand-oder-Ethernet-fuer-den-KI-Cluster-Cisco-und-Nvidia-lassen-die-Wahl-9627166.html
[2] https://www.heise.de/ix/
[3] mailto:axk@heise.de
Copyright © 2024 Heise Medien
CDU-Parteizentrale in Berlin
(Bild: Shutterstock/Electric Egg)
Eine kürzlich geschlossene Schwachstelle in Netzwerksicherheits-Produkten des Anbieters Check Point soll laut Insidern den Angriff auf CDU ermöglicht haben.
Der am Freitag bekanntgewordene Cyber-Angriff auf die CDU-Parteizentrale erfolgte laut gut unterrichteten Kreisen unter Ausnutzung einer Schwachstelle in Check Point Network Security Gateways. Die CDU äußerte sich auf Anfrage von heise online am Montag nicht zum Stand der Untersuchung.
Check Point hatte Ende Mai einen Fix für die als CVE-2024-24919 benannte, als kritisch eingestufte Sicherheitslücke [1] veröffentlicht. Laut Check Point wurden dabei Remote-Zugänge genutzt, die ausschließlich passwortgeschützt waren, um Zugriff auf die Security Gateways zu erlangen und von dort aus weiter ins Netz der Attackierten vorzudringen. Die Schwachstelle wurde bereits aktiv ausgenutzt.
Unter den davon betroffenen Nutzern von Check-Point-Software ist laut mit der Materie vertrauten Personen die Parteizentrale der CDU. In Kombination mit einem Phishing-Angriff habe die Ausnutzung der Lücken zu den am Samstag berichteten Vorfällen bei der CDU [2] geführt.
Auch das Bundesamt für Verfassungsschutz, das einbezogen wurde, äußert sich vorerst nicht weiter zum Geschehen. Die Parteien, der Bundestag sowie die Fraktionsspitzen wurden von der für Spionageabwehr zuständigen Behörde über mögliche zusätzliche Sicherheitsvorkehrungen in Kenntnis gesetzt.
Wie das Bundesinnenministerium am Mittag in Berlin erklärte, handele es sich um einen "schwerwiegenden Angriff". Die Art und Weise des Vorgehens deute auf einen professionellen Akteur hin. Angriffsversuche nach dem Muster der Attacke auf die CDU soll es auch bei Bundestagsfraktionen und anderen Parteien gegeben haben – allerdings wohl ohne Erfolg.
Der Vorfall hatte auch deshalb für große Unruhe gesorgt, weil der Hack nur eine Woche vor den Europawahlen bekannt wurde. Vor kurzfristigen "Hack and Leak"-Aktionen hatten Sicherheitsfachleute im Vorfeld der Europawahlen immer wieder gewarnt: Dadurch erlangte Informationen könnten neu kontextualisiert und für Propaganda gezielt gestreut werden. Sie seien dann bis zum Wahltermin kaum mehr wirksam zu entkräften.
Ob das ein Ziel der Angreifer auf die Systeme der CDU war, ist derzeit unbekannt – genau wie die Urheberschaft. Eine sprachlich misslungene Spear-Phishing-Attacke auf die CDU im Februar war der Gruppe APT29 zugerechnet worden, die zum Umfeld des russischen Militärgeheimdiensts GRU zählt. Dazu gehört auch die Gruppe APT28, der die Attacke auf die SPD über den Jahreswechsel 2022/23 offiziell durch die Bundesregierung zugeschrieben wurde [3].
URL dieses Artikels:
https://www.heise.de/-9745917
Links in diesem Artikel:
[1] https://www.heise.de/news/Notfallpatch-Angreifer-attackieren-VPN-Verbindungen-von-Check-Point-Gateways-9741056.html
[2] https://www.heise.de/news/Notfallpatch-Angreifer-attackieren-VPN-Verbindungen-von-Check-Point-Gateways-9741056.html
[3] https://www.heise.de/news/Bundesregierung-Russland-fuer-Cyber-Angriff-auf-SPD-verantwortlich-9706578.html
[4] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
Chinesische Netzausrüster, Ampel-Versprechen und eine KI-Aufsichtsbehörde: c't hat Volker Wissing zur Digitalpolitik befragt.
Wie erfolgreich ist die Digitalpolitik der Bundesregierung? c't hat Volker Wissing, Bundesminister für Digitales und Verkehr, in Berlin getroffen, um nach drei Jahren Ampelkoalition ein Zwischenfazit zu ziehen. Im Interview betont Wissing den Fortschritt beim Netzausbau, während er sich beim möglichen Ausschluss chinesischer Ausrüster alle Optionen offen hält. Außer Zweifel steht für Wissing der Stellenwert, den KI in unserem Leben einnehmen wird. Er will Aufsicht haben und ein Zertifizierungssystem aufbauen – und hat bereits seinen Favoriten für eine KI-Aufsichtsbehörde ausgewählt.
(Bild: c't/Nadja Wohlleben)
Herr Wissing, das Fortschrittsversprechen der Ampel wurde auch für die Digitalisierung gegeben. Wie viel davon ist eingelöst worden?
Wir haben große Fortschritte bei der digitalen Infrastruktur. 97 Prozent Abdeckung mit 4G, gut 91 Prozent mit 5G, 50 Prozent mehr Glasfaseranschlüsse innerhalb eines Jahres. Die Gigabit-Strategie fliegt. Wir haben Fortschritte bei der Umsetzung der Digitalstrategie: in der Gesundheitspolitik das E-Rezept, die elektronische Patientenakte, das Gesundheitsdatennutzungsgesetz und damit die Zukunftssicherung für den Pharma- und Medizin-Forschungsstandort Deutschland. Wir haben i-KFZ und den Einstieg in die digitale Zulassung, die e-ID, die der Schlüssel ist, um digital mit dem Bürger zu kommunizieren.
Überall sieht man, dass sich etwas tut. Bei der Bahn, der Modernisierung des ÖPNV, haben wir die Digitalisierung ebenfalls vorangetrieben, aber noch nicht in allen Strukturen nachvollzogen.
Die e-ID ist ein sogenanntes Hebelprojekt der Digitalstrategie: Voraussetzung für erfolgreiche Digitalisierung. Passiert ist dabei wenig. Heißt das, die Digitalstrategie kann nun nicht mehr funktionieren?
Nein. Das Innenministerium steht in der Verantwortung, dass eine anwenderfreundliche digitale Identität kommt – und das BMI arbeitet daran, auch was die Einbindung in ein gesamteuropäisches Konzept angeht. Die e-ID ist ein ganz wichtiger Hebel: Wenn der Staat Identität nicht digital feststellen kann, gibt es immer nur eine teildigitale Verwaltung.
Als Mittel knapp wurden, wurde hier zuerst gespart. Digitalisierung sollte zu Beginn der Legislatur prioritär sein, die Idee war ein Digitalbudget als Garantie, dass zentrale Vorhaben garantiert sind – könnte das nun doch noch kommen?
Wir haben bisher gezeigt, dass es ohne Digitalbudget geht, weil einzelne Ressorts umgeschichtet und ausreichend Haushaltsmittel für ihre Digitalprojekte zur Verfügung gestellt haben.
Bei der e-ID gibt es einen größeren Finanzbedarf, aber auch das kann man lösen, indem man nochmal priorisiert. Ob ein Digitalbudget zur Umsetzung der e-ID notwendig ist, kann man erst nach Ende der Haushaltsberatungen sagen.
(Bild: c't/Nadja Wohlleben)
Die KI-Verordnung ist verabschiedet, wird in Kraft treten. Kritik daran gibt es aus vielen Richtungen. Ist Deutschland für das KI-Zeitalter gerüstet?
Künstliche Intelligenz wird unseren Alltag, unsere Wettbewerbsfähigkeit und Sicherheit in einem Maße bestimmen, dass wir diese Technologie selbst in den Händen halten müssen. Wir dürfen hier keine Fehler machen und dadurch Souveränität verlieren.
Deswegen dürfen wir bei der Regulierung die Entwicklung von KI nicht behindern, sondern müssen durch innovationsfreundliche Regelungen unterstützen. Das erfordert Mut. Weil wir heute nicht alles wissen, was KI kann oder in naher Zukunft können wird. Die Entwickler selbst stehen ja mit Demut vor den Möglichkeiten. Wenn aber der Staat bremsend eingreift, suchen sich kreative Köpfe andere Standorte. Es muss experimentiert werden, Entwickler brauchen Freiräume.
Sehen Sie dafür Bereitschaft bei den Unternehmen in Deutschland?
Ja! Ich sehe mit großer Freude, dass Mittelständler in Deutschland investieren. Und ich finde das sehr gut, weil es auch unsere Werte absichert. Für deutsche Unternehmer ist das nicht nur ein reines Geschäft, sie verfolgen auch ethische Ziele.
Trotzdem müssen wir als Staat darauf achten, nachvollziehen zu können, was passiert. Ich nenne das Beispiel Bankenkrise. Da hieß es: Der Staat muss nicht eingreifen, die Banken regulieren sich selbst im Wettbewerb. Im Ergebnis haben sich die Finanzmärkte ein System geschaffen, in dem niemand mehr zur Verantwortung gezwungen wurde.
Das befürchten Sie bei KI auch?
Nein, aber wir müssen aus der damaligen Zeit lernen. Nach der Finanzkrise wurde gefragt: Warum hat der Staat das nicht bemerkt? Es war so ziemlich alles mit Triple-A-Ratings versehen, man hat sich in falscher Sicherheit gewähnt und meinte, da sei kein Risiko. Das System war dem Staat entglitten. Die Geschwindigkeit, mit der die Finanzmärkte sich entfesselt haben, und das Tempo, mit dem Aufsichts- und Kontrollstrukturen aufgebaut wurden, waren völlig asymmetrisch. Dann hieß es: Wie soll der Jurist bei der Bundesanstalt für Finanzdienstleistungen denn Goldman Sachs kontrollieren? Aber genau das war die Aufgabe – und der Öffentlichkeit wurde suggeriert, dass das stattfinde.
Wie kann sichergestellt werden, dass sich das bei KI nicht wiederholt?
Indem wir nicht nur zuschauen, sondern selbst mitmachen. Und sagen: Wir wollen nachvollziehen, wir wollen Aufsicht haben, ein Zertifizierungssystem aufbauen. Aber es gibt einen großen Unterschied zur Bankenkrise: Der Staat ist diesmal nicht nur Aufseher, sondern selbst Nutzer der Technologie.
Derzeit wird die deutsche KI-Aufsichtsbehörde gesucht. Wer soll es werden?
Die Bundesnetzagentur.
Auch in der Ampel setzen sich alte Streitigkeiten fort, Chatkontrolle, Vorratsdatenspeicherung oder Recht auf Verschlüsselung. Letzteres ist ein Vorschlag Ihres Hauses. Hat das eine Chance in dieser Legislaturperiode?
Ja. Eine arbeitsteilige Gesellschaft kann nur mit guter Vertrauenskultur erfolgreich sein. Dazu gehört, dass Kommunikation vertraulich sein kann. Verschlüsselte Kommunikation wird für die gesamte Wirtschaft immer wichtiger. Durch geopolitische Veränderungen gibt es immer mehr Risiken, während zugleich die Abhängigkeit von Daten und digitaler Kommunikation fortschreitet. Es ist aber nicht nur eine wirtschaftliche Frage. Wenn wir unsere private Kommunikation einschränken, verlieren wir, was den größten Wert unserer Gesellschaft ausmacht: die Freiheit.
(Bild: c't/Nadja Wohlleben)
Damit hängt auch die Debatte um chinesische Telekommunikations-Ausrüster zusammen. Wie sehen Sie die aktuell?
Ich habe von Anfang an gesagt: Wenn wir eine solche Frage besprechen, müssen wir Fakten haben. Was konkret sind eigentlich die Sicherheitsrisiken? Ich meine...
Liegen Ihnen denn die Fakten jetzt vor?
Wir haben einen klaren Einblick in das, was im Netz an Technik verbaut ist. Und können einschätzen, ob und in welchem Maße wann Handlungsbedarf besteht. Am Ende ist Politik eine Abwägung: zwischen konkreten Risiken, Risikoszenarien und dem, was an sonstigen Interessen zu berücksichtigen ist. Die Bundesregierung wird weiter beraten und zu einer gemeinsamen Meinung kommen. Das ist aber kein Thema für eine öffentliche Diskussion. Die Abwägung kann aus nationalen Sicherheitsinteressen nicht transparent gemacht werden – das Ergebnis am Ende schon.
Es geht aber nicht nur um 5G-Netze. Komponenten aus Ländern zweifelhafter Verlässlichkeit stecken in vielen Bereichen. Wird das bei allen kritischen Infrastrukturen jetzt jedes Mal diskutiert?
Wir müssen permanent Sicherheitsfragen im Blick haben. Ein 5G-Netz mit Echtzeit-Anwendungen zum Beispiel beim autonomen Fahren hat ganz andere Anforderungen an die Sicherheit als das bisherige Netz.
Deswegen muss man immer in die Zukunft blicken: Sind die heutigen Netze gewappnet für künftige Risiken? Wenn nicht, muss man reagieren und die Dinge anpassen.
Und das gilt von Antennen über die Cloud Services bis…
Aber ja! Unternehmen tun das auch. Wenn Geschäftsmodelle zunehmend datenbasiert sind, bedingt das, sich stärker mit Fragen der Cybersicherheit zu beschäftigen. Kann unser Geschäftsmodell gehackt werden? Was bedeutet Datenabfluss für uns? Welche Auswirkungen hat es, wenn unser System eine Stunde stillsteht? Diesen Fragen stellen sich Unternehmen, schaffen eigene Clouds und eigene Cybersecurity-Systeme. Für uns gilt das Gleiche: Wir müssen uns damit beschäftigen.
Wenn wir das digitale europäische Zugsteuerungssystem ETCS bei der Bahn implementiert haben, sind das ganz andere Sicherheitsanforderungen als heute, wo wir im Grunde genommen noch die Signalsteuerung aus dem letzten Jahrhundert nutzen. Selbstverständlich muss man die Frage stellen: Genügt unser Netz dann? Mit all seinen Komponenten? Da geht es auch um die Supply Chain. Und zwar nicht nur um die Frage: Ist ein Lieferant vertrauenswürdig? Sondern auch darum, ob die Nachlieferung gesichert ist.
Wir haben gesehen, was es heißt, wenn Lieferketten gestört sind. Auch das sind Sicherheitsfragen. Wir können ja nicht sagen: Leider können wir in den nächsten Wochen keine Zugfahrten anbieten, wir bekommen die Ersatzteile nicht. Das darf nicht passieren.
(Bild: c't/Nadja Wohlleben)
Also ist Souveränität die Lösung?
Bei dem, was wir brauchen, etwa Halbleitern, sind wir immer auch auf Souveränität fokussiert und wollen Unabhängigkeit. Aber zur Wahrheit gehört: in einer arbeitsteiligen Welt kann die vollständige Souveränität einer Gesellschaft nicht gewährleistet werden. Weil wir nicht alles, was wir brauchen, selbst herstellen können.
Deswegen müssen wir Risikomanagement betreiben und dürfen uns nicht von Einzelnen abhängig machen. Das ist unsere Aufgabe und die ist groß genug.
URL dieses Artikels:
https://www.heise.de/-9742953
Links in diesem Artikel:
[1] https://www.heise.de/ct/
[2] mailto:dahe@heise.de
Copyright © 2024 Heise Medien
Symbolbild, das keines der betroffenen Geräte zeigt.
(Bild: c't)
In nur 72 Stunden ging beim US-Provider Windstream die Hälfte aller Kunden offline. Hunderttausende Router mussten ausgetauscht werden. Der ISP schweigt.
Ende Oktober sind beim US-Internetserviceprovider Windstream Hunderttausende Router offline gegangen. Binnen dreier Tage verlor etwa die Hälfte der Kunden ihren Internetzugang. Ihre Router waren plötzlich nutzlos und mussten ausgetauscht werden. Zurücksetzungen funktionierten nicht. Der ISP versorgt nicht ganz 1,2 Millionen Haushalte und einige zehntausend Unternehmen in 18 US-Staaten, vorwiegend in ländlichen Regionen. Schuld war laut Sicherheitsforschern Lumens ein schädliches Update der Router-Firmware, eingeschleust mit Malware namens Chalubo.
Merkwürdig an dem alarmierenden Vorfall sind mehrere Dinge: Betroffen waren ausschließlich Router dieses einen ISP, dann aber gleich Modelle zweier verschiedener Hersteller: Actiontec T3200s und Actiontec T3260s sowie Sagemcom-Router, Lumen vermutet das Modell F5380. Ein Scan der Lumen-Sicherheitsforschungsabteilung Black Lotus Labs zeigt für 24. Oktober 875.000 Router Sagemcom, 230.000 von ActionTec und 136.000 anderer Hersteller bei Windstream. Drei Tage später sind alle Actiontec-Geräte offline, und von der Sagemcom-Flotte sind weniger als 90.000 übrig. Dafür ist die Gruppe der Sonstigen um gut 360.000 angewachsen.
Black Lotus schätzt die Zahl der betroffenen Windstream-Kunden konservativ auf 600.000, wahrscheinlich waren es aber um eine Million. Hat sich ein (ehemaliger) Mitarbeiter rächen wollen? Haben Verbrecher versucht, Windstream zu erpressen? War es ein Angriff eines anderen Staates auf US-Infrastruktur? War es ein Zusammentreffen zweier zentral ausgespielter, fehlerhafter Updates?
Hat der Angreifer versucht, die Router zu übernehmen, um sie missbrauchen zu können, sie dabei aber irrtümlich ruiniert? Black Lotus berichtet [1], eingehende Befehle für DDoS-Attacken beobachtet zu haben, die von den Geräten aber nicht ausgeführt wurden. Doch warum würde so ein Täter sich auf einen einzelnen ISP konzentrieren und nicht die gleichen Modelle in verschiedenen Netzen angreifen?
Und wie konnte Windstream in Windeseile 360.000 neue Router anschließen? Das Unternehmen schweigt eisern. Auch gegenüber heise security hieß es lapidar "We don't have a comment." Da die Firma nicht mehr börsennotiert ist, muss sie sich nicht öffentlich erklären. Und weil die Republikanische Partei in ihrem Kampf gegen die Netzneutralität der Telecom-Regulierungsbehörde FCC die Zuständigkeit für ISP-Regulierung entzogen hat, fehlt auch behördliche Aufsicht – obwohl ein Vorfall solchen Ausmaßes die nationale Sicherheit betrifft.
(Bild: Black Lotus Labs by Lumen)
Erst im April hat sich die FCC die Zuständigkeit zurückgeholt [2] und kann jetzt daran gehen, Sicherheitsvorgaben zu machen. Den Anfang sollen Maßnahmen zur Absicherung des Border Gateway Protocol [3] machen, die hier nicht helfen würden.
Wie genau die Täter in die Windstream-Router gekommen sind, konnte Black Lotus nicht eruieren. Die bei der Kommunikation mit Kontrollservern eingesetzten Schlüssel sind bereits seit 2018 bekannt. Die Täter haben sie unverändert weitergenutzt. Schlussendlich sind die Empfehlungen der Forscher allgemeiner Natur: Updates einspielen, Router regelmäßig neu starten, und voreingestellte Passwörter ändern. Administratoren von Routerflotten müssen darauf achten, dass ihre Managementsysteme gut abgesichert und aus dem Internet nicht zugänglich sind.
Ein solch massiver, erfolgreicher Angriff auf einen ISP ist bislang nicht überliefert. Vergleichbar ist lediglich die russische Sabotage des Satellitennetzwerks KA-Sat [4] am 24. Februar 2022, eine Stunde vor dem Überfall auf die Ukraine. Davon betroffen waren auch Fernsteuerungen von Windkraftanlagen in anderen europäischen Ländern. Gerechnet nach Zahl der Anschlüsse war dieses Verbrechen aber um ein bis zwei Größenordnungen kleiner als die bei Windstream angerichtete Zerstörung.
Windstream ist 2006 entstanden; damals wurden die Festnetzteile des Netzbetreibers Alltel mit jenen der Valor Communications Group in Windstream zusammengeführt. Im Jahr davor hatte Alltel Western Wireless übernommen [5]. Aus Western Wireless ist 1999 Voicestream Wireless hervorgegangen, heute bekannt als T-Mobile USA [6]. In gewisser Weise sind Windstream und T-Mobile USA also Basen.
In Österreich besaß Western Wireless den Preisbrecher-Mobilfunker tele.ring, der 2006 ebenfalls von T-Mobile übernommen [7] wurde. Windstream wurde 2019 zahlungsunfähig, reduzierte in einem Insolvenzverfahren seinen Schuldenstand um mehrere Milliarden Dollar und ist seit 2020 in privater Hand.
URL dieses Artikels:
https://www.heise.de/-9742582
Links in diesem Artikel:
[1] https://blog.lumen.com/the-pumpkin-eclipse/
[2] https://www.heise.de/news/Sommer-besiegelt-VoiceStream-uebernahme-38032.html
[3] https://www.heise.de/news/FCC-Chefin-will-das-Border-Gateway-Protocol-absichern-9721893.html
[4] https://www.heise.de/news/EU-und-USA-Russland-fuer-Ausfall-des-Satellitennetzwerks-KA-Sat-verantwortlich-7080650.html
[5] https://www.heise.de/news/Alltel-uebernimmt-Western-Wireless-fuer-sechs-Milliarden-Dollar-126010.html
[6] https://www.heise.de/news/Sommer-besiegelt-VoiceStream-uebernahme-38032.html
[7] https://www.heise.de/news/EU-Kommission-genehmigt-uebernahme-von-tele-ring-durch-T-Mobile-Austria-119879.html
[8] mailto:ds@heise.de
Copyright © 2024 Heise Medien
Nvidia dominiert bei KI-Beschleunigern und koppelt sie per NVLink. Dagegen setzen AMD, Intel, Broadcom, Cisco und die Hyperscaler nun UALink und Ultra Ethernet.
Das explosive Marktwachstum bei den KI-Servern krempelt die Technik um. Nvidia dominiert nicht nur den Markt für KI-Rechenbeschleuniger, sondern dadurch mit dem proprietären NVLink wiederum die dafür nötige, superschnelle Vernetzungstechnik.
Deshalb kooperieren nun die Firmen AMD, Broadcom, Cisco, Google, HPE, Intel, Meta und Microsoft beim offenen Interconnect Ultra Accelerator Link (UALink). Dabei spielen auch Ultra Ethernet sowie der Compute Express Link (CXL) auf Basis von PCIe 5.0 eine Rolle.
Cluster aus aktuellen KI-Hochleistungsrechenbeschleunigern sind anders miteinander vernetzt als etwa ältere Supercomputer. Der Interconnect ist in den einzelnen Rechenknoten nicht mehr an den Hauptprozessoren (CPUs) angebunden, sondern direkt an den KI-Beschleunigern (GPUs). Diese sind einerseits innerhalb des Knotens extrem schnell miteinander gekoppelt, um auch KI-Modelle schnell verarbeiten zu können, die nicht in den lokalen Speicher eines einzelnen Rechenbeschleunigers passen. Andererseits haben mehrere der KI-Beschleuniger auch externe Anschlüsse, um weitere Knoten über einen Switch mit hoher Bandbreite und niedriger Latenz zu erreichen.
Dabei setzt Nvidia seit einigen Jahren auf NVLink. [1] Vor vier Jahren hat das Unternehmen für sieben Milliarden US-Dollar den Netzwerk-Experten Mellanox zugekauft.
(Bild: AMD)
Innerhalb der einzelnen Knoten nutzen die jeweiligen Hersteller von KI-Beschleunigern proprietäre Verfahren wie AMD Infinity Fabric [2] oder den offenen Standard Compute Express Link (CXL) [3]. Der Ultra Accelerator Link soll künftig die externe Brücke zwischen maximal 1024 Knoten eines KI-Clusters bilden.
Mit Infiniband steht zwar seit Jahren ein schneller Interconnect für Cluster bereit. Anscheinend schreitet die Entwicklung dort aber nicht rasch genug voran, und es gibt nur (noch) wenige Firmen, die Infiniband-Hardware fertigen.
Bei Ethernet gibt es mehr Konkurrenz, und die Infrastruktur aus Kabeln und Switches ist flexibler nutzbar. Unter anderem Intel arbeitet bereits an 800G-Ethernet-Adaptern [4], Broadcom an Switch-Chips [5]. An der Spezifikation für 1,6-TBit-Ethernet wird bereits gewerkelt (IEEE P802.3dj draft [6]). Verfahren wie Remote DMA over Converged Ethernet (RoCE) [7] stehen zur Hochleistungsvernetzung von Clustern als Alternative zu Infiniband bereit.
Unter dem Dach der Linux Foundation arbeitet seit Ende 2023 das Ultra Ethernet Consortium (UEC) [8]. Es will Datentransfers auf allen Ebenen beschleunigen und optimieren: Physical Layer, Link Layer, Transport Layer und Software Layer.
Innerhalb der kommenden vier Monate will das Ultra Accelerator Link Consortium eine erste Version der Spezifikation veröffentlichen, sich formal gründen, und dann sicherlich eine Website einrichten. Bisher gibt es nur eine Pressemeldung [9], die wenige Tage vor der Computex 2024 herausgegeben wurde.
URL dieses Artikels:
https://www.heise.de/-9742371
Links in diesem Artikel:
[1] https://www.nvidia.com/de-de/data-center/nvlink/
[2] https://www.heise.de/news/Supercomputer-El-Capitan-Mehr-als-2-Exaflops-mit-AMD-Zen-4-und-Radeon-Instinct-4676080.html
[3] https://www.heise.de/news/PCI-Express-6-0-und-CXL-2-0-sollen-Server-umkrempeln-6324090.html
[4] https://www.heise.de/news/Intel-SmartNIC-Netzwerkadapter-mit-800-Gbit-s-fuer-Cloud-Rechenzentren-7084171.html
[5] https://www.heise.de/news/Broadcom-Tomahawk-5-Netzwerk-Chip-mit-ueber-51-2-TBit-s-7223216.html
[6] https://www.keysight.com/de/de/about/newsroom/news-releases/2024/0319-pr24-051-keysight-demonstrates-first-full-line-rate-1-6-ter.html
[7] https://www.heise.de/news/ARM-Serverprozessor-mit-Ethernet-RDMA-2177226.html
[8] https://ultraethernet.org/
[9] https://www.businesswire.com/news/home/20240530653602/en/
[10] https://www.heise.de/ct/
[11] mailto:ciw@ct.de
Copyright © 2024 Heise Medien
Idylle ohne Internet.
(Bild: ThomBal/Shutterstock.com)
Nach langer Verzögerung hat die Bundesnetzagentur erstmals einen Internetanbieter verpflichtet, einen Haushalt mit Mindestbandbreite zu versorgen – ohne Kabel.
Eigentlich hätte die Bundesnetzagentur schon spätestens Anfang März 2023 erste Provider dazu verdonnern müssen [1], nicht ans Internet angeschlossenen Haushalten hierzulande eine Mindestversorgung auf Basis des seit Anfang Juni 2022 bestehenden Rechts auf "schnelles" Internet [2] anzubieten. Denn damals stand bereits fest, dass zumindest in einem Dutzend Fälle kein Telekommunikationsunternehmen einen angemessenen Internetanschluss zur Verfügung stellen konnte. Mit einem Jahr Verspätung war es inzwischen soweit: Im März 2024 verpflichtete die Regulierungsanbieter erstmals einen Internetanbieter, einen Haushalt in Niedersachsen mit Internet- und Telefondiensten zu versorgen.
Dies hat die Bundesregierung in einer jetzt veröffentlichten Antwort [3] auf eine Anfrage der CDU/CSU-Bundestagsfraktion erklärt. Die Abgeordneten warfen der Regierung darin vor, das Recht auf schnelles Internet nicht umzusetzen. Dem widerspricht das Bundesministerium für Digitales und Verkehr (BMDV), ohne Details zu nennen.
Laut einem Bericht [4] von Netzpolitik geht es um ein Grundstück im niedersächsischen Mittelstenahe bei Cuxhaven. Es sei keiner der in der Region ausbauenden Provider – Telekom und EWE – zur Mindestversorgung angewiesen worden, sondern der Satellitenanbieter Starlink.
Zwischen Juni 2022 und Februar 2024 erreichten die Bundesnetzagentur der Regierung zufolge insgesamt 5581 Eingaben über eine mögliche Unterversorgung. Die meisten Beschwerden kamen demnach von Bürgern sowie juristischen Personen aus Niedersachsen und Bayern. Seit 2021 seien 6451 Vorgänge ohne Verfahren eingestellt worden.
In 29 Fällen habe der Regulierer seit Juni 2022 eine Unterversorgung festgestellt, die etwa 46 Standorte in Niedersachsen, Nordrhein-Westfalen (NRW), Hamburg und Bayern betreffen, schreibt das BMDV. Der Löwenanteil entfalle mit 16 Entscheidungen auf Bayern, wo Altbauten betroffen seien. Elf Feststellungen betrafen laut der Antwort Niedersachsen, jeweils eine Nordrhein-Westfalen und Hamburg. Dabei handele es sich mit einer Ausnahme um Neubauten.
13 Unterversorgungserklärungen seien zwischenzeitlich aufgehoben worden, da die Grundlage für eine formale Verpflichtungsentscheidung entfallen war. In allen diesen Fällen seien "kurzzeitig realisierte Versorgungsmöglichkeiten" über Mobilfunk oder Festnetz geschaffen worden oder würden in absehbarer Zeit sichergestellt.
Die Netzagentur brachte anfangs eine Größe von bis zu 330.000 potenziell von einer Unterversorgung betroffener Haushalte ins Spiel. Das BMDV geht nun davon aus, dass diese Zahl "aufgrund von Verbesserungen am Festnetz gesunken ist". Zu beachten sei zudem, dass Versorgungsmöglichkeiten über Satelliten- und Mobilfunk nicht mit in die erste Sondierung eingeflossen seien.
Gegenüber dem Bundesrat sagte die Bundesregierung Mitte 2022 zu [5], sie werde Mitte 2023 die mit dem Rechtsanspruch verknüpfte Mindestbandbreite im Download von derzeit 10 MBit/s auf mindestens 15 MBit/s sowie auch die Mindestbandbreite im Upload anheben. Letztere beträgt derzeit 1,7 MBit/s. Das Versprechen hat die Regierung noch immer nicht eingelöst [6].
Das BMDV beharrt darauf, dass eine Novelle der Verordnung über die Mindestanforderungen für das Recht auf Versorgung mit Telekommunikationsdiensten [7] (TKMV) erst auf Grundlage einer Evaluation eingeleitet werden könne. Letztere sei nun nach dem Einholen mehrerer Gutachten "weit vorangeschritten".
URL dieses Artikels:
https://www.heise.de/-9742415
Links in diesem Artikel:
[1] https://www.heise.de/news/Unterversorgung-Regulierer-hat-noch-keinen-Provider-zum-Anschluss-verpflichtet-8989241.html
[2] https://www.heise.de/news/TKG-Novelle-Bundestag-beschliesst-schnelles-Internet-fuer-alle-6024446.html
[3] https://dserver.bundestag.de/btd/20/114/2011415.pdf
[4] https://netzpolitik.org/2024/mindestversorgung-mit-internet-starlink-soll-angeblich-deutsche-breitbandluecken-schliessen
[5] https://www.heise.de/news/Bundesrat-sattelt-beim-fuer-Recht-auf-schnelles-Internet-nicht-drauf-7137031.html
[6] https://www.heise.de/news/Bundesregierung-haelt-Zusage-fuer-Recht-auf-schnelleres-Internet-nicht-9288816.html
[7] https://www.heise.de/news/TKG-Novelle-Bundestag-beschliesst-schnelles-Internet-fuer-alle-6024446.html
[8] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
Im Mai 1974 schlug die erste Definition des Transmission Control Protocol wie eine Bombe ein. Das feierte das IEEE kürzlich als erste Keimzelle des Internets.
Das Internet hat bekanntlich viele Geburtstage. Am 19. Mai war so einer, jedenfalls für das Institute of Electrical and Electronics Engineers (IEEE). Im Mai 1974 erschien nämlich in der Verbandszeitschrift "IEEE Transactions on Communication" der Aufsatz "A Protocol For Packet Network Intercommunication" von Vinton Cerf und Robert Kahn. Der Fachwelt wurde erstmals die Idee eines Transmission Control Protocol (TCP) vorgestellt, das sich eignet, um aus mehreren paketvermittelnden Netzen ein Netzwerk der Netzwerke aufzubauen. Es sollte das Network Core Protocol des Arpanet ablösen.
Zum 50. Geburtstag gibt es gleich mehrere Veranstaltungen, denn neben dem speziellen IEEE-Geburtstag würdigte das IEEE auch den Xerox Alto Computer, das Ethernet und den Laserdrucker. Den Abschluss bildete eine Veranstaltung im Computer History Museum. Zum Auftakt wurden drei IEEE-Milestone-Plaketten am PARC-Forum des Stanford Research Institute [1] angebracht. Sie sollen an die herausragenden Erfindungen erinnern, die am damals von Xerox unterhaltenen Palo Alto Research Center (PARC) [2] gemacht wurden.
Eine Plakette erinnert an den Xerox Alto als Urvater der Personal Computer [3], mit dem der Mythos vom großen Benutzeroberflächenraub [4] verbunden ist. Eine weitere Plakette feiert den ebenfalls an PARC entwickelten Laserdrucker mit dem nerdigen Namen EARS (Ethernet-Alto Research Character Generator Scanning Laser Output Terminal) und eine dritte Plakette das am PARC entwickelte Ethernet beziehungsweise den IEEE-Standard 802.3. Ethernet-Erfinder Bob Metcalfe [5] erhielt im Jahre 2023 den Turing Award und war bei dieser im Stream abrufbaren Hybrid-Veranstaltung zusammen mit Vint Cerf vor Ort.
Der extrem rührige und gut vernetzte Metcalfe war auch derjenige, der nach den Erinnerungen von Vint Cerf Ende 1973 nach einer Computerkonferenz im britischen Brighton Cerf den Herausgebern der IEEE vorstellte. Metcalfe zeigte den Teilnehmenden, wie das Arpanet funktioniert und erklärte sein Ethernet mitsamt den Wurzeln im ALOHAnet [6], das Norman Abramson entwickelt hatte. Cerf gab einen ersten Einblick in die Überlegungen von Robert Kahn und ihm. Diese sollten schließlich zu TCP führen und an den Erläuterungen Cerfs ist auch gut zu erkennen, wie und warum das veraltete NCP-Protokoll des Arpanets abgelöst wurde.
Nach der Konferenz arbeitete er zusammen mit seinem Partner Robert Kahn [7] fieberhaft an dem für die IEEE vorgesehenen Artikel (PDF) [8], der in der Fachwelt wie eine Bombe einschlug. Aus diesem Grund feierte das IEE zusammen mit Cerf und Kahn am vergangenen Wochenende die Veröffentlichung des Artikels [9].
Zum Zeitpunkt der Veröffentlichung war TCP weit davon entfernt, ein fertig definiertes Protokoll zu sein. Der an der Unversität von Kalifornien lehrende Informatiker Cerf [10] überließ es seinen Studenten, die Details des Protokolls auszuarbeiten. "Ich musste für zwei Wochen weg und beauftragte nach der groben Skizze Yogen Dalal [11] und Carl Sunshine [12], die Details zu beschreiben", erzählte Cerf die Entstehung im Buch "Soul of the Internet". Dementsprechend finden sich auch die Namen der beiden Promovierenden im RFC-Dokument 675 [13], mit dem TCP im Dezember 1974 im Arpanet angekündigt wurde.
Doch aus heutiger Sicht muss die Liste um Gérard Le Lann und Hubert Zimmermann erweitert werden. Die beiden Franzosen waren 1974 Sommergäste an der Universität von Kalifornien. Daheim arbeiteten sie am Projekt Cyclades, das ihr Professor Louis Pouzin [14] ins Leben gerufen hatte. Die Spuren dieser Zusammenarbeit finden sich in den Fußnoten zu RFC 675. Pouzin war zuvor Teilnehmer einer französischen Delegation gewesen, der das Arpanet vorgestellt wurde und entwickelte mit Cyclades und den Cigales genannten "Datagrams" die französische Variante eines paketvermittelnden Datennetzes. Im April 1974 besuchten Vint Cerf und Bob Kahn das Institut von Pouzin in Frankreich. Zurück in Kalifornien begann die detaillierte Arbeit an TCP.
(Bild: Stanford Research Institute)
"Ich habe eine sehr lebendige Erinnerung daran, wie Bob Metcalfe, Le Lann und ich auf dem Boden meines Hauses in Palo Alto riesige Diagramme malten, wie das System arbeiten sollte." Sie finden sich als ASCII-Kunstwerk im erwähnten RFC 675, dem ersten Dokument, in dem von einem Internet die Rede ist.
Dieses Request-Dokument war erst der Anfang der technischen Entwicklung des Internet Transmission Control Protocol. "Im Frühjahr 1976 begannen wir, das Protokoll in zwei Hälften aufzuteilen. Ich wechselte von der Universität zu ARPA und arbeitete dort unter der Leitung von Bob Kahn," erinnerte sich Cerf später an die Entstehung von TCP/IP, die mit ihren vielen "Requests for Comment" im RFC 9293 dokumentiert ist [15]. Zu diesem Teil der weitschweifigen Internetgeschichte gehörten auch Tests, wie jener des "Brotlasters", der 1976 das erste TCP-Paket auf eine transkontinentale Internetrundreise [16] schickte. Die große Umstellung erfolgte nach vielen Testläufen erst im Januar 1983 [17].
Vint Cerf und Bob Kahn waren auch bei der Online-Gedenkfeier zum 50. Jahrestag des IEEE-Artikels über TCP [18] dabei. Mit von der Partie war auch die Informatikerin Judy Estrin, die TCP als Doktorandin unter Cerf auf Herz und Nieren getestet hat. Ihr Vater Jerry Estrin war der Professor, der Vint Cerf als Assistent an die Universität von Kalifornien holte und seine Dissertation betreute. Jerry Estrins Ehefrau, die Informatikerin Thelma Estrin [19] war die erste Vizepräsidentin der IEEE.
Die Feier ging am Montag mit einem Stream aus dem Computer History Museum [20] weiter, allerdings unter etwas anderen Vorzeichen. Es wurde diskutiert, wie nach dem TCP-Vorschlag von Cerf und Kahn das IEEE 802-Standardisierungs-Komitee (PDF) [21] entstand und was es mit den Plaketten für den Xerox Alto, das Ethernet und den Laserdrucker auf sich hat.
Außerdem wurde eine weitere Milestone-Plakette vergeben. Sie ging an Googles Page Rank [22], den Algorithmus, der zur Gründung von Google in den Jahren 1996 bis 1998 führte. Entsprechend der nichtstofflichen Natur des Algorithmus gibt es nur eine virtuelle Gedenk-Plakette. Sie könnte der 80-jährige Vint Cerf annehmen, der nunmehr als "Chief Internet Evangelist" seit 2001 bei Google angestellt ist [23]. Dort arbeitet er an dem interplanetarischen Internet als nächster Entwicklungsstufe von TCP [24].
URL dieses Artikels:
https://www.heise.de/-9725646
Links in diesem Artikel:
[1] https://www.sri.com/press/story/sri-to-be-presented-with-three-ieee-milestones-for-innovations-that-have-transformed-our-lives/
[2] https://www.heise.de/news/Vor-50-Jahren-Xerox-eroeffnet-das-Forschungszentrum-PARC-4800890.html
[3] https://www.heise.de/news/Desktop-Pionier-Einblick-in-den-Source-Code-des-Xerox-Alto-2429865.html
[4] https://www.heise.de/blog/Der-grosse-Benutzeroberflaechenraub-3911701.html
[5] https://www.heise.de/news/Turing-Award-fuer-Ethernet-Erfinder-Bob-Metcalfe-8116158.html
[6] https://www.heise.de/news/Surfin-in-the-USA-zum-Tode-des-Informatikers-Norman-Abramson-4988176.html
[7] https://www.heise.de/news/TCP-IP-Entwickler-erhalten-den-Turing-Award-2004-135628.html
[8] https://www.cs.rice.edu/~eugeneng/teaching/f07/comp529/papers/ck74.pdf
[9] https://ieee-region6.org/2024/ieee-triple-milestone-event-50th-anniversary-internet-tcp-ip/#i50
[10] https://optimism.ucla.edu/profiles/cerf/
[11] https://ethernethistory.typepad.com/about.html
[12] https://ieeexplore.ieee.org/author/38275605600
[13] https://datatracker.ietf.org/doc/html/rfc675
[14] https://www.internethalloffame.org/inductee/louis-pouzin/
[15] https://datatracker.ietf.org/doc/html/rfc9293
[16] https://www.heise.de/select/ct/2021/27/2120416053681489063
[17] https://www.heise.de/news/Vor-30-Jahren-Arpanet-stellte-auf-TCP-IP-um-1775269.html
[18] https://ieee-region6.org/2024/ieee-triple-milestone-event-50th-anniversary-internet-tcp-ip/#i50
[19] https://ethw.org/Thelma_Estrin
[20] https://computerhistory.org/
[21] https://grouper.ieee.org/groups/802/802%20overview.pdf
[22] https://www.heise.de/hintergrund/Das-steckt-hinter-dem-Google-Algorithmus-4691138.html
[23] https://spectrum.ieee.org/vint-cerf
[24] https://www.heise.de/meinung/Einfach-neue-Software-hochladen-275768.html
[25] https://www.heise.de/ct/
[26] mailto:dz@ct.de
Copyright © 2024 Heise Medien
Der echte Biden (Bild) war not amused (nicht im Bild).
(Bild: Weißes Haus)
Automatisierte Anrufe mit KI-generierter Biden-Stimme sollten Wähler in die Irre führen. Sie könnten den Auftraggeber ins Gefängnis führen.
New Hampshire erhebt vier Anklagen gegen Steve Kramer, der Anfang des Jahres Bürger mit automatisierten Anrufen (Robocalls) belästigt und dabei eine Deepfake-Stimme US-Präsident Joe Bidens eingesetzt hat. Zusätzlich drohen Millionenstrafen der Telecom-Regulierungsbehörde FCC. Kramer ist zum grundsätzlichen Sachverhalt geständig und behauptet, mit den Anrufen auf die Gefahren von Deepfakes [1] aufmerksam machen zu wollen. Er ließ den KI-generierten Biden sagen, dass die Wähler nicht zur Vorwahl gehen sollen.
Bei der Vorwahl entscheiden wahlberechtigte Einwohner New Hampshires, wer die Kandidaten der Parteien der Demokraten sowie der Republikaner sind, die bei der Wahl im November auf dem Stimmzettel stehen werden. Der Vorwahl in New Hampshire kommt stets besondere Aufmerksamkeit zugute, weil es die erste im Reigen der US-Vorwahlen ist.
Kramer engagierte sich in der Kampagne eines Demokraten-Politikers, der Präsidentschaftskandidat seiner Partei werden wollte – ein Wunsch mit geringen Erfolgsaussichten, möchte doch der amtierende US-Präsident Joe Biden wieder antreten. Die KI-generierte Biden-Stimme empfahl den Angerufenen, nicht zu wählen, um sich ihre Stimme für die Präsidentenwahl im November "aufzuheben". Tatsächlich dürfen Wahlberechtigte sowohl bei der Vorwahl als auch bei der eigentlichen Wahl im November jeweils eine Stimme abgeben. Außerdem soll sich Kramer bei den Anrufen fälschlich als Kandidat ausgegeben haben.
Der Rat, sich die Stimme "aufzuheben", ist irreführend; wer darauf hereinfällt, verliert seinen Einfluss bei der Vorwahl, ohne bei der eigentlichen Wahl einen Vorteil zu haben. Hätte Kramer die richtigen Leute hereingelegt, hätte das die Chancen "seines" Kandidaten verbessert. Dieser gibt an, von Kramers Machenschaften nichts gewusst zu haben, und distanziert sich ausdrücklich davon. Der Auftragnehmer, der die falsche Biden-Stimme generiert hat, gibt das ebenfalls zu, will aber nichts vom geplanten Einsatzzweck gewusst haben. Er ist nicht angeklagt. Biden gewann die Vorwahl haushoch.
Nun erhebt New Hampshire Anklage gegen Kramer: 13 Mal wegen des Verbrechens der Wählerunterdrückung, worauf jeweils 3,5 bis 7 Jahre Haft stehen, und 13 Mal wegen des Vergehens, sich fälschlich als Kandidat auszugeben, wofür Geldstrafen drohen. Jeweils 13, weil Kramer für den Prozess 13 Anrufe nachgewiesen werden sollen. Diese gingen an Anschlüsse in vier verschiedenen Countys, weshalb sich Kramer gleich vier parallelen Strafprozessen stellen muss. Das hat Justizminister John Formella, ein Republikaner, am Donnerstag bekanntgegeben [2].
Die FCC (Federal Communications Commission) hat ebenfalls ein Verfahren gegen Kramer eröffnet (Az. FCC 24-59). Sie möchte ihm eine Geldstrafe von Höhe von sechs Millionen US-Dollar aufbrummen. Einerseits ist es in den USA illegal, Anrufe zu Mobiltelefonen sowie Festnetzanschlüssen in Privatwohnungen "mit künstlicher oder voraufgezeichneter Stimme" [3] durchzuführen, sofern der Angerufene nicht vorab zugestimmt hat. Andererseits soll Kramer auch gegen das Verbot gefälschter Rufnummern (Caller-ID) verstoßen haben.
Laut Medienberichten ließ er es so aussehen, als kämen die Anrufe vom Anschluss einer ehemaligen Parteivorsitzenden der Demokraten in New Hampshire. Die Dame kam unschuldig zum Handkuss.
Zwei Millionen Dollar Strafe möchte die FCC über den Netzbetreiber Lingo Telecom verhängen (Az. FCC 24-60). Dieser soll die Anrufe in Kramers Auftrag vermittelt und dabei mit digitalen Signaturen nach STIR/SHAKEN signalisiert haben, dass die angezeigte Caller-ID korrekt sei. STIR/SHAKEN ist gerade ein Mittel im Kampf gegen Telefon-Spam [5]. Der Netzbetreiber wäre verpflichtet gewesen, die Identität des Auftraggebers zu prüfen (Know Your Customer, KYC), soll diese Pflicht aber nicht erfüllt haben.
Die Strafverfahren heißen alle State of New Hampshire v. Steven Kramer und tragen folgende Aktenzeichen: 211-2024-CR-00211 (Belknap County Superior Court), 215-2024-CR-00203, 215-2024-CR-00204, 215-2024-CR-00205 (Grafton County Superior Court), 217-2024-CR-00443, 217-2024-CR-00444 (Merrimack County Superior Court) sowie 218-2024-CR-00480 (Rockingham County Superior Court).
URL dieses Artikels:
https://www.heise.de/-9730391
Links in diesem Artikel:
[1] https://www.heise.de/news/EU-Studie-Forscher-sehen-durch-Deepfakes-die-Demokratie-gefaehrdet-6224455.html
[2] https://www.doj.nh.gov/news/2024/20240523-kramer-voter-suppression.html
[3] https://www.heise.de/news/Auch-Telefon-Spam-mit-KI-Stimme-ist-Spam-9623364.html
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/news/STIR-SHAKEN-Nordamerika-signiert-Rufnummern-im-Kampf-gegen-Spam-6127147.html
[6] mailto:ds@heise.de
Copyright © 2024 Heise Medien
Ein Klassiker: Die runde "Dishy"-Antenne für Starlink
(Bild: Daniel AJ Sokolov)
Um mehr Geräte ans Internet anzuschließen, gelten Starlink & Co als Mittel der Wahl. Doch oft bleiben nur kurze Zeitfenster für Datenaustausch.
Ein neues Modell zur effektiveren Anbindung von Geräten ans Internet haben katalanische Wissenschaftler entwickelt. Sie wollen das Internet of Things (IoT) durch bessere Synchronisierung der Verbindungszeiten mit Satelliten unterstützen, konkret mit erdnahen Konstellationen wie Starlink, OneWeb und das geplante Kuiper [1]. Aktuell sind geschätzt 15 Milliarden Objekte wie Autos, Bewässerungssensoren, Wetterstationen und autonome Drohnen Teil des Internets der Dinge. Bis 2030 soll sich diese Zahl verdoppeln. Eines der Haupthindernisse auf dem Weg dorthin: Viele der Geräte stehen an entlegenen Orten ohne Mobilfunk.
Als beste Lösung gelten dann Satellitennetzwerke. Doch oft bleiben aufgrund Besonderheiten auf beiden Seiten nur kurze Zeitfenster für den Datenaustausch, sodass ausgefeilte Abstimmung nötig ist. Guillem Boquet und Borja Martínez von der Wireless-Networks-Gruppe des interdisziplinären Instituts der Universitat Oberta de Catalunya (UOC) in Barcelona zeigen in einer jetzt veröffentlichten Studie [2] Möglichkeiten zu verbesserter Koordination zwischen Objekten auf der Erde und erdnahen Satelliten [3] (LEO für Low Earth Orbit).
Für die Nutzung dieser Trabanten spricht Boquet zufolge viel: "Sie benötigen weniger Sendeleistung, um eine zuverlässige Kommunikation zu erreichen." Das spart Energie, verlängert die Batterielebensdauer und reduziert damit Wartungskosten. Außerdem sind die Satellitenverbindungen günstiger als andere Anbindungen und bieten bessere Abdeckung.
IoT-Geräte sind in der Regel batteriebetrieben und verfügen über regelmäßige Schlaf- und Aktivitätsintervalle, um Energie zu sparen. Für diese Arbeitszyklen sind sogar eigene Standards etabliert. Da LEO-Satelliten aber nicht unbedingt ununterbrochene Abdeckung bieten, kommt es den Forschern zufolge zu kleinen, unregelmäßigen Kommunikationsfenstern. Entscheidend seien daher "fortschrittlichere Synchronisierungsstrategien", um passgenauen und zuverlässigen Zugriff sicherzustellen.
Um die Ansprüche beider Seiten unter einen Hut zu bringen, ist eine Vorhersage der Verbindungsfenster erforderlich. Die Wissenschaftler haben ein Modell entwickelt, das Satellitenumlaufbahnen ausgehend von einem bekannten Ausgangspunkt berechnet. Dieser Ansatz hat aber seinen Preis: Die Berechnung braucht Energie, ebenso die Aktualisierung der Daten, falls die tatsächlichen Gegebenheiten abweichen. Ein erster Test der Lösung in einer realen Kommunikationssituation mit dem Nanosatelliten Enxaneta der katalanischen Regierung [4] ist vielversprechend verlaufen: Die Satellitenzugriffsrate habe sich um bis zu 99 Prozent verbessert, was eine langfristige Netzwerkverbindung gewährleiste, berichten die Forscher. Gleichzeitig sei der Energieverbrauch minimiert worden.
Als Nächstes möchte das Team die Kosten-Nutzen-Analyse der Implementierung des Modells unter Berücksichtigung verschiedener Anwendungen, Dienstnetzwerke, Arten von Satellitenkonstellationen, IoT-Geräten und Kommunikationsverfahren eruieren, dann energiesparende Modi vorschlagen und umsetzen. Mittelfristig soll sich die Lösung automatisch den Kommunikationsbedürfnissen und den sich ändernden Bedingungen nicht-terrestrischer Netzwerke anpassen.
URL dieses Artikels:
https://www.heise.de/-9728917
Links in diesem Artikel:
[1] https://www.heise.de/news/Amazon-bringt-erste-Prototypen-seines-Satelliteninternets-in-den-Orbit-9325384.html
[2] https://ieeexplore.ieee.org/document/10190364
[3] https://www.heise.de/thema/Satellit
[4] https://www.fullsdenginyeria.cat/lenxaneta-senlaira-amb-exit
[5] mailto:ds@heise.de
Copyright © 2024 Heise Medien
(Bild: iX)
Im Oktober startet in Hamburg die S2N, die heise-Konferenz zu Storage, Server, Network. Jetzt ist das Programm online. Frühbucher können kräftig sparen.
Am 9. Oktober beginnt in Hamburg die S2N, die zweitägige heise-Konferenz zu Storage, Server, Network. Jetzt steht das Vortragsprogramm [1]. Für begrenzte Zeit gibt es noch Tickets mit einem sehr attraktiven Frühbucherrabatt: Für Very Early Birds kostet das Ticket bis zum 3. Juni nur 399 Euro, statt 499 zum regulären Preis.
Die S2N [2] gibt Administratoren und IT-Leitern Gelegenheit, sich intensiv mit modernen Speicherlösungen, Netzwerkarchitektur und -management, Trends und Praxiserfahrungen von Kollegen auseinanderzusetzen. Die Konferenz führt die Speicherkonferenz storage2day mit neuem Namen, breiterem Themenkonzept und noch einmal erweitertem Vortragsprogramm fort. In Hamburg finden jetzt vier Tracks parallel statt.
In den Vorträgen geht es um die aktuellen Herausforderungen, denen sich RZ-Profis heute entgegensehen: Der Umstieg auf Open-Source-Virtualisierung von Servern und Storage, etwa mit Proxmox, Ceph und OpenStack ist genauso ein Thema wie das praktische Umsetzen moderner Netzwerk-Konzepte wie EVPN Fabric oder die Herausforderungen, die Machine Learning an die Infrastruktur im Rechenzentrum stellt. Hier können Administratoren vor allem von den Erfahrungen im High Performance Computing profitieren, denn der KI-Boom lässt Enterprise-IT und HPC zusammenrücken. Daneben kommen auch die Security-Themen nicht zu kurz, etwa der Schutz vor Ransomware, die Wiederherstellung nach einem Totalausfall oder das Absichern des Active Directory mit Tiering-Konzepten.
Veranstalter der S2N sind iX, das Magazin für professionelle IT, und der dpunkt.verlag. Wer über den Verlauf der Konferenz informiert werden möchte, kann sich auf der Konferenz-Website für den Newsletter [3] eintragen.
URL dieses Artikels:
https://www.heise.de/-9724533
Links in diesem Artikel:
[1] https://s2n.heise.de/programm.php
[2] https://s2n.heise.de/
[3] https://s2n-heise.de/
[4] https://s2n-heise.de/index.php
[5] https://s2n-heise.de/location.php
[6] https://s2n-heise.de/programm.php
[7] https://www.heise.de/ix/
[8] mailto:ulw@ix.de
Copyright © 2024 Heise Medien
(Bild: Telefónica Deutschland)
Telefónica Deutschland can draw on a digital twin of its own mobile network for network planning and fault management.
Telefónica Deutschland has created a "digital twin" of its mobile network that shows the current state of the network and can help analyze problems. The tool resembles an interactive map of the network and was developed internally, the company announced on Tuesday.
The digital twin shows the status of the network's 28,000 antenna sites, routers and other hardware as well as over 50,000 fiber optic or radio relay links in real time. With the help of the software, Telefónica's network technicians can see in detail how the individual components are working and how the network is utilized.
"The digital network twin provides us with comprehensive real-time information and routes - like a map app for the network," explains CTO Mallik Rao. "We work ten times faster with the self-developed application than with previous tools. We can optimize our network in a more targeted manner, better identify performance restrictions and identify alternative transport routes more quickly."
Telefónica Deutschland also wants to be able to react more quickly to disruptions with the tool. The digital twin can be used to simulate failure scenarios and various solutions - for example, which routes are suitable for bypassing failed hardware and how they cope with additional load. In an emergency, the digital twin then suggests sensible alternative routes.
The company also hopes to gain insights into how to cope with the growing volume of data on the network. According to the company, mobile data usage in O2's network is increasing "exponentially". In 2023, the network will have processed 4.8 billion gigabytes of mobile data.
A digital twin is the digital representation of a physical object or process. This digital image makes it possible to carry out simulations and analyses without affecting the real object. A digital twin can be built for machines, real estate or immaterial processes or even entire cities [1]. It combines all information and functions.
URL dieses Artikels:
https://www.heise.de/-9724574
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Digitaler-Zwilling-Entwicklung-vom-3-D-Stadtmodell-zur-Metaverse-City-7459718.html?from-en=1
[2] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Telefónica Deutschland)
Für Netzplanung und Störungsmanagement kann Telefónica Deutschland auf einen digitalen Zwilling des eigenen Mobilfunknetzes zurückgreifen.
Telefónica Deutschland hat einen "digitalen Zwilling" seines Mobilfunknetzes geschaffen, der den aktuellen Zustand des Netzes abbildet und bei der Analyse von Problemen helfen kann. Das Tool gleicht einer interaktiven Karte des Netzes und wurde intern entwickelt, teilte das Unternehmen am Dienstag mit.
Der digitale Zwilling bildet den Status der 28.000 Antennenstandorte, Router und andere Hardware sowie über 50.000 Glasfaser- oder Richtfunkstrecken des Netzes in Echtzeit ab. Mithilfe der Software können Netztechniker von Telefónica detailliert nachvollziehen, wie die einzelnen Komponenten funktionieren und wie das Netz ausgelastet ist.
"Der digitale Netz-Zwilling versorgt uns mit umfassenden Echtzeitinformationen und Routen – wie eine Karten-App fürs Netz", erklärt CTO Mallik Rao. "Mit der selbstentwickelten Applikation arbeiten wir zehnmal schneller als mit bisherigen Tools. Wir können unser Netz zielgerichteter optimieren, Performanceeinschränkungen besser erkennen und alternative Transportrouten schneller identifizieren."
Telefónica Deutschland will mit dem Tool auch schneller auf Störungen reagieren können. Anhand des digitalen Zwillings lassen sich Ausfallszenarien und verschiedene Lösungsansätze simulieren – etwa welche Routen sich eignen, um ausgefallene Hardware zu umgehen, und wie die mit zusätzlicher Last klarkommen. Im Ernstfall schlägt der digitale Zwilling dann sinnvolle Alternativrouten vor.
Auch im Hinblick auf die Bewältigung der wachsenden Datenmengen im Netz verspricht sich das Unternehmen Erkenntnisse. Die mobile Datennutzung im Netz von O2 [1] steigt laut Unternehmensangaben "exponentiell an". Im Jahr 2023 habe das Netz 4,8 Milliarden Gigabyte an mobilen Daten verarbeitet.
Ein digitaler Zwilling ist die digitale Repräsentation eines physischen Objekts oder Prozesses. Dieses digitale Abbild ermöglicht es, Simulationen und Analysen durchzuführen, ohne das reale Objekt zu beeinträchtigen. Ein digitaler Zwilling kann für Maschinen, Immobilien oder immaterielle Prozesse oder auch ganze Städte [2] gebaut werden. Er fasst sämtliche Informationen und Funktionen zusammen.
URL dieses Artikels:
https://www.heise.de/-9724470
Links in diesem Artikel:
[1] https://www.heise.de/thema/O2
[2] https://www.heise.de/hintergrund/Digitaler-Zwilling-Entwicklung-vom-3-D-Stadtmodell-zur-Metaverse-City-7459718.html
[3] mailto:vbr@heise.de
Copyright © 2024 Heise Medien
(Bild: Maximumm/Shutterstock.com)
The Internet has been susceptible to data routing errors. RPKI would remedy this, but ISPs are not obliged to do so. The head of the FCC wants to change that.
The routing tables of the Internet (Border Gateway Protocol, BGP) are susceptible to manipulation. Through "BGP hijacking", data traffic is maliciously rerouted, foisted or brought to a standstill. In addition, incorrect entries are made by mistake, resulting in disruptions. The Chairman of the US regulatory authority FCC, Jessica Rosenworcel, now wants to oblige US broadband providers to at least take precautions against erroneous incorrect routes.
Resource Public Key Infrastructure (RPKI) is used for this purpose. Only once RPKI has been rolled out can the next security measure, BGPsec, which offers better protection against deliberate BGP hijacking, take effect. Rosenworcel wants to convince her four colleagues at the FCC that the agency should require US broadband providers to secure their data routes with RPKI.
The nine largest ISPs in the country will also have to submit reports: A secret report outlining their plans to implement RPKI, as well as quarterly public progress reports that should also show whether the implementation plan is reasonable. Rosenworcel cites [1] unspecified security warnings from US intelligence agencies, as well as the results of an FCC investigation from 2022 and a Border Gateway Protocol Security Workshop from last summer.
The problem of unsecured data routes has been known for a long time. Even when BGP was introduced in 1989, experts pointed out that traffic on the internet could easily be redirected so that attackers could see, change or simply make the data traffic disappear. Little happened for a long time. About 20 years ago, cryptographic protection of the routing system was finally designed using RPKI and BGPsec. However, implementation has been slow, even though state attackers, particularly from Russia, have repeatedly attacked the Internet infrastructure.
However, it is easy to explain why the FCC is only now taking action: shortly before the end of Donald Trump's term of office as US President, the FCC withdrew its responsibility for internet regulation. In this way, the Republican majority in the FCC at the time managed to abolish net neutrality. And after Democrat Joe Biden took office, Republicans in the US Parliament prevented the appointment of a Democratic FC Commissioner for a long time.
It was only a few weeks ago that the FCC was able to regain responsibility for regulating internet service providers and reintroduce net neutrality [2]. This will take effect at the end of June. Accordingly, it now makes sense to tackle further aspects of internet regulation.
The BG protocol (RFC 1105) specifies the exchange of information between routers, because of which they can identify the best route for the data packets transmitted between their networks – the Autonomous Systems (AS) –. The border routers record the best paths in routing tables. The Border Gateway Protocol suffers from the fact that it originates from a time when people still trusted each other in the network. Anyone can declare any route they want, there are no automatic controls.
In so-called prefix hijacking, an attacker passes off the prefixes of his victims as his own. For example, the attacking network can announce more specific addresses from the victim's network or claim to offer a shortcut to certain IP address blocks. Routers without RPKI simply have to believe this.
With RPKI (RFC 6840 plus over 40 other RFCs [3]), Route Origin Authorizations (ROA ) can be used to determine which IP prefixes an autonomous system is responsible for. If it suddenly announces other IP prefixes, this triggers an alarm. This is primarily intended to prevent the frequently occurring errors when announcing routes. Perhaps the best-known example of this is the redirection of YouTube traffic to Pakistan Telecom.
Theoretically, there has also been a weapon against deliberate BGP hijacking since 2017: BGPsec (RFC 8204) [4]. It secures the routing information on its way through the network. Instead of simply checking the authenticity of the origin of a route announcement, the aim is to ensure that no manipulation occurs along the path. However, it would only help if, firstly, RPKI was rolled out and, secondly, all network operators switched to BGPsec at the same time so that unsigned information could be ignored. Such a changeover is not in sight, because this would require the replacement of many routers and the network operators would have considerable additional work to manage all the BGPsec keys required for each routing hop.
In addition, BGPsec requires that the issuers of the cryptographic certificates are trusted. However, if these bodies are under state control, there may not be much to be gained. This is because most manipulations are the result of perpetrators from corrupt countries or even state actors pursuing their own interests. They could also issue certificates that give their attacks the appearance of legitimacy.
URL dieses Artikels:
https://www.heise.de/-9721902
Links in diesem Artikel:
[1] https://docs.fcc.gov/public/attachments/DOC-402579A1.pdf
[2] https://www.heise.de/news/USA-Die-Netzneutralitaet-ist-wieder-da-9698966.html?from-en=1
[3] https://blog.apnic.net/2021/03/15/which-rpki-related-rfcs-should-you-read/
[4] https://datatracker.ietf.org/doc/html/rfc8205
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] mailto:ds@heise.de
Copyright © 2024 Heise Medien