Ab dem 4. April um 21 Uhr MESZ können Claude-Kunden Openclaw oder andere externe Tools nicht mehr mit ihrem Abo betreiben, sondern müssen separate Nutzungspakete kaufen. Diese werden außerhalb des bestehenden Abonnements abgerechnet.
Als Überbrückung erhalten Bestandsnutzer eine einmalige Gutschrift in Höhe ihres monatlichen Abopreises. Wer dies nicht in Anspruch nehmen will, kann stattdessen eine vollständige Rückerstattung beantragen.
Boris Cherny, der bei Anthropic Claude Code verantwortet, begründete den Schritt öffentlich : Abonnements seien nicht dafür ausgelegt, das Nutzungsvolumen aufzufangen, das Tools wie Openclaw erzeugten. Anthropic priorisiere seine Kapazitäten künftig für die eigenen Produkte und die API.
Openclaw erregte Anfang des Jahres Aufmerksamkeit, weil der Agent Aufgaben wie Postfachverwaltung, Kalenderüberwachung und sogar automatisches Einchecken bei Flügen übernimmt. Die Beliebtheit hatte offenbar spürbare Auswirkungen auf Anthropics Infrastruktur.
Openclaw-Gründer Peter Steinberger arbeitet mittlerweile bei OpenAI . Steinberger erklärte , er und Stiftungsratsmitglied Dave Morin hätten mit Anthropic verhandelt, das beste erreichbare Ergebnis sei eine einwöchige Verzögerung des Rollouts gewesen. Ob Steinbergers Job bei OpenAI die Entscheidung beeinflusst hat, ließ Anthropic offen.
Der Fall zeigt, wie fragil die Beziehung zwischen KI-Plattformen und Drittentwicklern ist: Was heute als nützliche Erweiterung gilt, kann morgen als Kapazitätsproblem eingestuft werden. Und dann kostet es extra.
Für Kunden, die Openclaw derzeit mit einem Abo von Claude verwenden, kann ein Wechsel zu OpenAI helfen: Hier sind Nutzer des Agenten willkommen und können die Software ohne separate API-Gebühren für OpenAI-Modelle im Rahmen ihres Abos nutzen.
Openclaw nutzt eine OAuth-Authentifizierung, um sich mit einem bestehenden ChatGPT-Plus-Abo zu verbinden. Es gilt das Fair-Use-Prinzip: Auch mit Plus-Abo gibt es Limits, die bei exzessiver Nutzung zur vorübergehenden Deaktivierung der Modelle führen können.
Elon Musk soll im Vorfeld des geplanten SpaceX Börsengangs von beteiligten Banken verlangt haben, Abos für den KI-Chatassistenten Grok abzuschließen und Werbung auf dem Kurznachrichtendienst X zu schalten. Wie die New York Times unter Berufung auf anonyme Quellen berichtet , soll Musk diese Forderung auch an Anwaltskanzleien, Wirtschaftsprüfer und weitere Berater gerichtet haben, die an dem Börsengang beteiligt sind.
Einige Banken hätten zugestimmt, zweistellige Millionenbeträge für Grok auszugeben, und bereits mit der Integration des Chatbots in ihre IT-Systeme begonnen, hieß es weiter. Dies sei aber nicht freiwillig geschehen, sondern weil Musk darauf bestanden habe.
Laut der New York Times ist es nicht ungewöhnlich, dass sich Banken vor größeren Börsengängen mit dem jeweiligen Unternehmen und dessen CEO gutstellen. Dass Musk in der Lage sei, derartige Aufträge zu sichern, verdeutliche aber den enormen Einfluss, den er auf den Bankensektor ausübe, hieß es weiter.
Das Unternehmen xAI, das Grok entwickelt, wurde im Februar 2026 von SpaceX übernommen . Da die Einnahmen mit Grok hauptsächlich durch Privatkunden generiert werden, erhält die KI-Sparte von SpaceX durch die Vereinbarungen mit den Banken einen deutlichen Schub.
Der Börsengang von SpaceX könnte bis zu 50 Milliarden US-Dollar einbringen und für die beteiligten Banken Beratungsgebühren von bis zu 500 Millionen US-Dollar generieren. Bislang sollen die Bank of America, die Citigroup, Goldman Sachs, JPMorgan Chase und Morgan Stanley an dem Vorhaben beteiligt sein.
Bild: Shutterstock.com
Vom "Schutzschirm" bis zur "Modernisierung": Wie verschleiernder Sprachgebrauch nukleare Risiken verharmlost – und die Illusion von Sicherheit erzeugt.
Bei der Verwendung von Schlüsselbegriffen der Sicherheitspolitik in der Öffentlichkeit sollen Tatsachen suggeriert werden, welche dazu dienen, die Menschen zu beruhigen. Allerdings bestünden viele Gründe für eine Beunruhigung, die auch Friedenskräfte freisetzen könnte.
Angesichts der wiederholten Drohungen [1] vom US-Präsidenten Donald Trump, die USA aus der Nato herauszunehmen, dürfte die Diskussion über einen nuklearen Schutzschirm für Europa und für Deutschland wieder intensiviert geführt werden.
Der Politologe und Historiker Herfried Münkler forderte [2] bereits 2023 eine europäische Atombombe. Derzeit wird zunehmend heftiger diskutiert, ob Deutschland angesichts der russischen Aggression in der Ukraine unter den atomaren Schutzschirm Frankreichs schlüpfen sollte.
Die Fraktionsführerin der Sozialdemokraten im Europaparlament, Katarina Barley, thematisiert [3] 2024 ebenfalls die Anschaffung von Atombomben im Zuge einer europäischen Bewaffnung.
Auch die deutschen und französischen Regierungschefs, Merz und Macron bahnen [4], – so Merz in seiner Rede auf der Münchener Sicherheitskonferenz Anfang 2026 – Gespräche über eine europäische nukleare Bewaffnung bzw. die Ausdehnung des französischen nuklearen Schutzschirms an. Immer wieder wird von einem atomaren Schutzschirm gesprochen [5].
Bereits in dieser Wortwahl wird die Problematik deutlich. Ein solcher Schutzschirm, den man nur aufspannen müsste, um damit geschützt zu sein, existiert nämlich nicht.
Dieser Begriff suggeriert, dass Deutschland oder gar Europa vor angreifenden Raketen mit Nuklearsprengköpfen geschützt sein würde, wenn der nukleare Schutzschirm installiert sein würde. Doch vor Dutzenden gleichzeitig angreifenden Hyperschallraketen mit nuklearen Mehrfachsprengköpfen gibt es keinen Schutz. Die wenigen Minuten Reaktionszeit reichen für eine erfolgreiche Gegenwehr nicht aus [6].
Wer den nuklearen Schutzschirm in diesem Sinne verspricht, versucht die Menschen über die tatsächliche Gefahr einer nuklearen Auseinandersetzung zu täuschen, um seine tatsächlichen militärstrategischen Ziele durchsetzen zu können.
Wer sich etwas besser auskennt, weiß, dass mit dem Begriff des nuklearen Schutzschirms eher die nukleare Abschreckung eines potenziellen Angreifers gemeint ist. Diese Abschreckung würde sich aus der nuklearen Zweitschlagfähigkeit ergeben, wenn ein nuklearer Erstschlag im Gange ist bzw. bereits erfolgt ist.
Die Frage ist natürlich hierbei, ob noch ein nuklearer Zweitschlag möglich ist, wenn der Erstschlag mit Atomwaffen nicht abgewehrt werden konnte. Auch hier ist also die Rede von einem nuklearen Schutzschirm problematisch.
Auch die Unterscheidung zwischen strategischen und taktischen Atomwaffen birgt ein semantisches Problem in sich. Hier wird in einer technologischen Sprache suggeriert, als ob es eine klar abgrenzbare Unterscheidung gäbe.
Taktische Atomwaffen sind Waffen, die aufgrund ihrer geringeren Sprengkraft, geringeren Reichweite sowie ihrer Stationierung für einen begrenzten Einsatz vorgesehen sind. Doch sind die Grenzen fließend und auch werden taktische Waffen von Russland als strategisch angesehen [7].
Verwendet man diese Unterscheidung dennoch, so würde dann der Einsatz begrenzterer (taktischer) Nuklearwaffen grundsätzlich anders betrachtet werden können als der Einsatz hinsichtlich der Sprengkraft größerer und weitreichenderer Nuklearwaffen.
Gesteigert wird zusätzlich die begriffliche Problematik durch die sogenannten "Mini-Nukes". Somit wird mit der Abstufung und Differenzierung der Nuklearwaffen so getan, als ob ein Nuklearkrieg regional bzw. lokal eingrenzbar geführt werden könnte.
Hiermit wird lediglich die nukleare Schwelle abgesenkt [8] und damit das Risiko einer nuklearen Eskalation heruntergespielt. Im Übrigen liegen [9] sogenannte "Mini-Nukes" zwischen zehn und 20 Kilo-Tonnen TNT-Äquivalent und also in der ungefähren Größenordnung der Hiroshima- und Nagasaki-Bomben.
Dies stellt also ebenfalls eine sprachliche Verdrehung und Verniedlichung einer schrecklichen Waffe dar.
Der russische Überfall auf die Ukraine im Februar 2022 war ein eindeutiger Kriegsakt, allerdings ohne Kriegserklärung. Der inzwischen nun über vier Jahre andauernde Krieg Russlands gegen die Ukraine wurde mit dem Begriff der "militärischen Spezialoperation" getarnt.
Bis heute verweigert der Kreml seinem Krieg die begriffliche Wahrheit. Hierdurch versucht er vor seiner Bevölkerung und auch vor der Welt die Illegalität und das Barbarische seiner Aggression zu verharmlosen.
"Militärische Spezialoperation" hört sich eher nach einem sauberen, technischen Eingriff an. Wer in Russland von einem Krieg in der Ukraine spricht, muss mit Bestrafung rechnen.
Manipulativer und repressiver kann man mit Sprache nicht umgehen, wenn man bedenkt, dass diesem Krieg bereits Hunderttausende Menschen zum Opfer gefallen sind, Millionen Menschen geflohen sind, die lebensnotwendige Infrastruktur in der Ukraine und die Ökologie zerstört wurden.
Genauso problematisch ist der von Putin immer wieder verwendete [10] Begriff der "russischen Welt" ("Russkij Mir"). Eine russische Welt als solche gibt es selbst in Russland nicht, da es sich hier um einen mit Zwang und militärischer Gewalt hergestellten Vielvölkerstaat mit sehr unterschiedlichen kulturellen Eigenarten dieser Völker handelt.
So dient die Rede von der "Russkij Mir" dazu, militärische Aggressionen gegen andere Staaten mit dem Argument zu rechtfertigen, dass die russische Welt und die Menschen mit russischer Sprache dort bedroht seien. Auch ist dieser völkisch zu verstehende Begriff das zentrale ideologische Konstrukt um Staaten, wie Belarus und der Ukraine die staatliche Eigenständigkeit zu beschneiden.
Da Deutschland durch den 2+4-Vertrag sowie den Atomwaffensperrvertrag es nicht erlaubt ist, Nuklearwaffen zu besitzen, hat man sich innerhalb der Nato auf das Prinzip der "nuklearen Teilhabe" verständigt.
Doch auch dieser Begriff dient der Verschleierung harter sicherheitspolitischer Tatbestände. Nach Berichten [11] lagern in Büchel (Rheinland-Pfalz) bis zu 20 US-amerikanische Atombomben des Typs B61-3/4 kombiniert mit Tornados der deutschen Luftwaffe, die in der Lage sind, Atomsprengköpfe an ein feindliches Ziel zu bringen.
Doch die dort – und auch in anderen europäischen Nato-Staaten lagernden nuklearen Kapazitäten der Amerikaner ermöglichen eben keine Teilhabe der deutschen Bundesregierung. Teilhabe unterstellt Mitsprachemöglichkeiten.
Allerdings macht die US-Regierung immer wieder deutlich, dass der mögliche Einsatz dieser Nuklearwaffen ausschließlich der jeweiligen US-Regierung unterliegt [12].
Es wird also der Atomwaffensperrvertrag der Vereinten Nationen über die nukleare Teilhabe von Nato-Staaten unterlaufen bzw. hintergangen und gleichzeitig wird mit diesem Begriff die Tatsache der Fremdsteuerung dieser Waffen verschleiert.
Auch wird verharmlost, welches Gefahrenpotenzial die "Modernisierung" der Atomwaffen beinhaltet. Auch der sicherheitspolitisch verwendete Begriff der "Modernisierung" unterstellt eine positive Entwicklung von Nuklearwaffen – das Moderne stellt ja eine positive Neuerung im Sprachgebrauch dar – und verdeckt die zunehmende Gefährlichkeit dieser Waffensysteme.
Ein besonders problematischer Teilaspekt dieser Modernisierung ist der Einbau von Künstlicher Intelligenz und die Ausweitung deren Funktionsweise im Rahmen der Nuklearstrategien. Doch KI funktioniert nach dem Prinzip der Wahrscheinlichkeitsrechnung und ist ausgesprochen fehleranfällig.
Die Informationen von Hunderten Sensoren, die eine KI in kürzester Zeit zu einer Aussage führt, z.B. über angreifende Atomraketenschwärme, können von den Verantwortlichen in den wenigen Minuten der zur Verfügung bestehenden Zeit grundsätzlich nicht sicher überprüft werden. Ein Atomkrieg aus Versehen kann aber durch diese Entwicklung wahrscheinlicher werden [13].
Wenn der deutsche Verteidigungsminister Pistorius davon spricht, Deutschland müsse "kriegstüchtig" werden [14], dann widerspricht dies dem Verteidigungsauftrag des Grundgesetzes und dem Verbot eines Angriffskriegs (GG Art. 26 (1) und 115a).
Der Begriff des Krieges beinhaltet sowohl Verteidigung als auch Angriff. Daher müsste eine Bundesregierung, wenn sie sich an das Grundgesetz hält, nur davon sprechen und entsprechende Maßnahmen unternehmen, verteidigungsfähig zu werden.
Die Kriegstüchtigkeit basiert auf dem Postulat der militärischen Stärke durch Abschreckung. Da sich kein Staat freiwillig einer militärischen Überlegenheit eines gegnerischen Staates bzw. Militärbündnisses gegenübersehen will, wird dieser Staat immer mehr Anteile seines Staatshaushaltes für weitere Aufrüstungsmaßnahmen verwenden, um wiederum den Gegner in seiner militärischen Stärke zu übertreffen. Dies führt zu einer Rüstungsspirale und – so zeigt [15] z.B. der Erste Weltkrieg – letztendlich zum Krieg.
Verteidigungsfähigkeit bedeutet die Priorität militärischer Abwehrfähigkeiten, z.B. hinsichtlich der Abwehr von Drohnenangriffen, in Verbindung mit einer verbesserten "Resilienz" kritischer Infrastruktur.
Auch eine derartige Resilienz ist für keinen Staat derzeit herstellbar. Heutige Industriestaaten im digitalen Zeitalter sind kaum gegen hybride Angriffe, insbesondere dem Hacken von Strom- und Wärmenetzen, zu schützen [16]. Wer suggeriert, dass dies vollständig möglich sei, erzeugt ein falsches Sicherheitsgefühl.
Wenn aber sich Menschen mit dem sicherheitspolitischen Kurs ihrer Regierungen zufriedengeben, der durch ein System der Tatsachen verbergenden Begriffsverwendung abgesichert ist, dann wird ihnen ein falsches Bewusstsein hegemonial induziert.
Ihnen wird die zivilgesellschaftliche Kraft genommen, gegen einen riskanten Kurs ihrer Regierung Widerstand zu leisten. Dies charakterisiert auch das Dilemma der gegenwärtigen Friedensbewegung.
Obwohl sie die Gefahren einer militärischen Eskalation und eines Nuklearkriegs in ihren Aufrufen deutlich anspricht, findet sie nicht den Anklang, der eigentlich in der gegenwärtigen Krisensituation zu erwarten wäre.
Die für November 2026 vorgesehene Stationierung dreier verschiedener Raketensysteme, u.a. von Hyperschallwaffen, folgt dem Verdikt einer Stärke durch Abschreckung. Diese Waffensysteme werden unter US-Befehl in Deutschland stationiert.
Dies wurde ohne eine Debatte im Bundestag am Rande des Nato-Gipfels in New York im Sommer 2024 zwischen Biden und Scholz verabredet [17]. Die Stationierung wird ohne ein begleitendes Verhandlungsangebot an Russland vorgenommen.
Es handelt sich hierbei um sogenannte "Enthauptungswaffen", also Waffen, die nicht primär der Verteidigung dienen, so wie es im Grundgesetz festgelegt ist.
Auch in diesem Fall der US-Raketenstationierung von "Sicherheitspolitik" zu sprechen, ist problematisch. Es könnte durchaus sein, dass diese Stationierung die Unsicherheit und das Eskalationsrisiko für Deutschland erhöhen könnte.
Diese Waffensysteme, die durchaus eine Bedrohung für Russland darstellen, könnten zum Ziel für russische Raketenangriffe werden, die wiederum eine entsprechende Vergeltungsspirale, möglicherweise auch in nuklearer Hinsicht, auslösen würden.
Aber Verteidigungsfähigkeit setzt auf die Priorität von Verhandlungen, Diplomatie und systematisch koordinierten Kontroll- und Abrüstungsverträgen. Hierbei ist der Aufbau einer militärischen Verteidigung und der Versuch der Sicherung kritischer Infrastruktur durchaus notwendig und legitim.
Die vorgesehene US-Raketen-Stationierung unterläuft jedoch diese verteidigungspolitische Zielsetzung. Was wird Russland in diesem Fall unternehmen?
Es darf nicht verschwiegen werden, dass Russland bereits Hyperschallraketen des Typs Zirkon und Kinschal, z.B. in Kaliningrad [18], stationiert hat und bereits zumindest zweimal [19] die bisher kaum zu verteidigende Hyperschallwaffe Oreschnik im Ukraine-Krieg eingesetzt hat.
Wenn nun der Nato-Westen nicht bereit ist, die Abrüstungs- und Kontrollverträge neu zu verhandeln, wird Russland sicherlich versuchen, bei einer erfolgten Stationierung der US-Raketen zum Ende des Jahres 2026 danach selbst wiederum das eigene Arsenal auszuweiten und gefährlicher auszubauen.
Die Offenlegung der Gefahren, die im sicherheitspolitischen Sprachgebrauch im Zusammenhang mit Nuklearwaffen impliziert sind, bedeutet keinen Defätismus und auch keine Resignation vor einem bis an die Zähne konventionell und nuklear bewaffneten Gegner.
Wenn sich Menschen jedoch durch eine beschwichtigende Begrifflichkeit und ihre sicherheitspolitische Verwendung im öffentlichen Diskurs täuschen lassen, ist eine gefährliche Ruhigstellung dieser Menschen gegeben.
Ihnen wird mit den sicherheitspolitischen Versprechen, die dahinterstehen, ein Sicherheitsgefühl vermittelt, das nicht dem eigentlichen Risiko entspricht, wenn Staaten auf militärische Aufrüstung, insbesondere Weiterentwicklung von Nuklearwaffensystemen, und auf militärische Eskalation setzen.
Mit der Offenlegung realer Gefahren wird keine sicherheitspolitische Ängstlichkeit und Handlungsunfähigkeit als Ziel angestrebt, sondern ein Bewusstsein tatsächlich vorhandener Gefahren. Dies ist die Grundlage für die prioritäre Notwendigkeit einer verbesserten Verteidigungsfähigkeit und hierbei insbesondere für die Priorität von Verhandlungen und Diplomatie.
Zusammenfassend lässt sich daher feststellen: Das sicherheitspolitische Ziel müsste die Verteidigungsfähigkeit in zivilgesellschaftlicher, aber auch mit Augenmaß und unterhalb der Eskalationsschwelle in militärischer Hinsicht sein.
Hierzu gehört auch ein bereits mehrfach angesprochener Abrüstungsvorschlag, in einem durch die Vereinten Nationen kontrollierten Rahmen, dass die beiden militärischen Großmächte, USA und Russland, eine schrittweise Abrüstung aller Waffensysteme, einschließlich der Nuklearwaffen, auf das Niveau der VR China vornehmen.
In einem nächsten Schritt müsste es im Rahmen einer auf Transparenz setzenden Kontrolle durch internationale Institutionen, wie der UN und der OSZE, die Abrüstung dieser drei Staaten auf das Niveau der kleineren Staaten erfolgen, bis z.B. hinsichtlich der Nuklearwaffen, der Atomwaffenverbotsvertrag der Vereinten Nationen vollständig umgesetzt ist.
Dies wäre eine effektive und vernünftige Sicherheitspolitik, die ihren Namen verdient. Auch wenn es derzeit große geopolitische Hindernisse gibt, die einer derart kontrollierten und transparenten internationalen Abrüstung im Wege stehen, darf diese Frieden bringende Abrüstungsstrategie nicht aus dem Auge verloren werden.
Auch könnten die Billionen-Beträge, die im Zuge einer Abrüstung und einer wegfallenden weiteren Aufrüstung von allen beteiligten Staaten eingespart werden, zumindest mittelfristig ein gewichtiges Argument für eine derartige international koordinierte und ausbalancierte Abrüstungsstrategie sein.
Die historische Erfahrung einer Politik der Abschreckung durch militärische Stärke zeigt hingegen, dass eine militärische Aufrüstungsspirale die Wahrscheinlichkeit einer militärischen Auseinandersetzung erhöht.
Eine Sicherheitspolitik, die sich an Verteidigungsfähigkeit und nicht an Kriegstüchtigkeit orientiert, müsste auch eine andere Sprache verwenden.
Verschleiernde Begriffe, die in einen Bedeutungskontext eingelagert und semantisch so angelegt sind, dass sie militärische Risiken eher verdecken anstatt offenlegen, sind Teil einer medial vermittelten militärischen Strategie, die nicht zum Frieden führen wird.
Klaus Moegling [20], habilitierter Politikwissenschaftler, er lehrte an verschiedenen Universitäten und Institutionen der Lehrerbildung, zuletzt an der Universität Kassel als apl. Professor im Fb Gesellschaftswissenschaften, er ist u.a. Autor des im open Access [21] veröffentlichten Buches "Neuordnung. Eine friedliche und nachhaltig entwickelte Welt ist (noch) möglich."
(international in veränderter Form veröffentlicht: u.a. in: Common Dreams,
The Only True Nuclear Protective Shield Is Global Disarmament [22], 26.2.2026
und in: Pressenzia.
URL dieses Artikels:
https://www.heise.de/-11245844
Links in diesem Artikel:
[1] https://www.spiegel.de/ausland/usa-donald-trump-denkt-offenbar-ueber-nato-austritt-der-usa-nach-a-5c5e3955-84cf-4bc4-97a4-5f4de96dd102
[2] https://www.spiegel.de/politik/deutschland/militaerische-abschreckung-herfried-muenkler-raet-europa-zur-atomaren-aufruestung-a-49e8f606-1ca4-4b48-82dd-099d611f33d6
[3] https://www.t-online.de/nachrichten/ausland/eu/id_100342772/katarina-barley-spd-haelt-eu-atombombe-fuer-moeglich.html
[4] https://www.tagesschau.de/inland/innenpolitik/merz-muenchner-sicherheitskonferenz-100.html
[5] https://www.wiwo.de/politik/europa/nukleare-abschreckung-wie-realistisch-ist-ein-europaeischer-atom-schirm/100200793.html
[6] https://www.pressenza.com/de/2026/01/abruestung-jetzt-warum-es-keine-vertretbare-alternative-hierzu-gibt-teil-2/
[7] https://www.atomwaffena-z.info/glossar/begriff/taktische-atomwaffen
[8] https://www.pressenza.com/de/2026/02/muenchener-sicherheitskonferenz-2026-ist-eine-rueckkehr-zu-friedenspolitischer-vernunft-moeglich/
[9] https://www.deutschlandfunk.de/das-neue-atomare-wettruesten-2-6-mini-nukes-100.html
[10] https://www.bpb.de/themen/europa/russland/522375/russkij-mir/#footnote-target-1
[11] https://www.das-parlament.de/inland/verteidigung/staatsgeheimnis-buechel
[12] https://www.atomwaffena-z.info/heute/atomwaffenstaaten/usa
[13] https://www.peacemagazine.org/archive/index.php?id=3024
[14] https://www.youtube.com/watch?v=ZCmpbDbYO8A
[15] https://www.freitag.de/autoren/der-freitag/haben-wir-1914-historische-parallelen-und-unterschiede-zum-ersten-weltkrieg
[16] https://www.freitag.de/autoren/der-freitag/bundeswehr-was-ein-verteidigungskrieg-fuer-deutschland-konkret-bedeuten-wuerde
[17] https://dserver.bundestag.de/btd/20/126/2012636.pdf
[18] https://www.berliner-zeitung.de/news/russland-verlegt-hyperschallraketen-nach-kaliningrad-li.258005
[19] https://www.tagesschau.de/ausland/europa/russland-oreschnik-ukraine-100.html
[20] https://www.klaus-moegling.de/ueber-mich/
[21] https://www.klaus-moegling.de/aktuelle-auflage-neuordnung/
[22] https://www.commondreams.org/opinion/no-nuclear-protective-shield
[23] https://www.pressenza.com/fr/2026/03/il-nexiste-pas-de-bouclier-nucleaire-manipulation-de-la-politique-de-securite-par-un-langage-obscur/
Copyright © 2026 Heise Medien
Foto: Christian Bartels
Braunschweig hat ein besonderes Schloss: Es dient als Einkaufszentrum. Anders als in Berlin und Potsdam wurde hier neu interpretiert – überraschend stimmig.
Die traditionsreichen ostdeutschen Haupt- und ehemaligen Residenzstädte Potsdam und Berlin haben einiges gemeinsam. Unter anderem steht dort jeweils ziemlich zentral ein Schloss, das nach alten Plänen komplett neu errichtet wurde, nachdem es in der Nachkriegszeit komplett abgerissen worden war.
Ob es zwischenzeitlich vermisst worden war, ob es nun dem, ähm, Stadtbild guttut oder sinnvoll genutzt wird, darüber lässt sich jeweils gut streiten.
Das Potsdamer Schloss fungiert als Landtag des Zweieinhalb-Millionen-Einwohner-Bundesländchens Brandenburg. Das Stadtschloss in der von Brandenburg umschlossenen 3,5 Mio.-Einwohner-Stadt Berlin enthält so einige Museen, die die weiterhin relativ zahlreichen Touristen durchaus anziehen und ergänzt insofern die attraktiveren, doch wegen Baustellen teils langjährig geschlossenen Museumsinsel-Museen.
Gerade bemüht es sich, nicht zum Gewalt-Brennpunkt [1] zu werden.
Was beide Schlösser gemeinsam haben: Rekonstruiert wurden komplett bzw. (in Berlin) zu drei Vierteln nur die Fassaden. Innen wurden keine Festsäle und Seidenwandbespannungen im Stil länger vergangener Jahrhunderte nachgestaltet, sondern Räume funktional für die Gegenwart gestaltet. Wobei sich im Berliner Schloss (wie überall in Berlin) darüber streiten lässt, ob von Funktionalität die Rede sein kann.
Vorexerziert wurde das Muster des kompletten Schloss-Neu-Nachbaus gut 200 Kilometer westlich. In Braunschweig, bis 1918 ebenfalls Haupt- und Residenzstadt, wurde das Schloss bereits 2007 wiedereröffnet – nachdem es genau wie das in Potsdam 1960 kriegsbeschädigt abgerissen worden war.
Seither erfüllt es eine in die Gegenwart passende, vom Publikum angenommene Funktion: Es ist ein Einkaufszentrum [2] (bzw. der schönste Teil eines monströs großen, immerhin innen recht großzügig statt nach gängigen Profit-pro-Quadratmeter-Regeln gestalteten Einkaufszentrums).
Das ist viel diskutiert worden, vor allem kritisch. Wenn man heute am Braunschweiger vorbeikommt, macht der bereits patinierte Bau den Eindruck, organisch in die alte, freilich sehr weltkriegszerstörte und daher sowieso wiederaufgebaute Stadt zu passen.
Aus dem westdeutschen Rahmen fällt das Braunschweiger Schloss aus mehreren Gründen. Während es in der DDR offiziell zur Ideologie gehörte, Relikte des Feudalismus zu zerstören und durch ideologisch passendere Bauten – Aufmarschplätze oder auch den innovativen "Palast der Republik" – zu ersetzen, gehörte es im Westen gerade nicht zur Ideologie.
Das Braunschweiger Residenzschloss war das einzige in der BRD, das abgerissen wurde. Anfang 1960 hatte die SPD im Stadtrat mit zwei Stimmen Mehrheit für den Abriss votiert. Außer Denkmalschützern und der CDU war auch noch Viktoria Luise, die Tochter des letzten Kaisers Wilhelm, die als letzte Herzogin von Braunschweig weiterhin in der Stadt lebte, dagegen.
Besonders alt war das Schloss zum Zeitpunkt seines Abrisses nicht gewesen, bloß 119 Jahre. Zum vorherigen, 1841 eröffneten Neubau hatten auch deutschlandweit singuläre Gründe geführt. Der Vorgängerbau war im Rahmen der einzigen rabiateren deutschen Revolution des 19. Jahrhunderts zerstört worden.
Anno 1830 hatten die Braunschweiger Herzog Karl II. gestürzt und vertrieben, indem sie sein Schloss in Brand steckten. Ein ungemein republikanischer Aufstand war es nicht. Die Revolutionäre zeigten sich zufrieden, als Karls Bruder Wilhelm ihr neuer Landesvater wurde.
Während Karl sein Vermögen, bei dem es sich mehr oder weniger um Landesvermögen handelte, schon zu seinen Regierungszeiten auf Reisen etwa in Paris (wo 1830 auch eine, international bekanntere Revolution stattfand) verprasst hatte und nach seiner Absetzung mit dann privatem Vermögen genau so fortfuhr, ließ Wilhelm in Braunschweig sich ein neues Schloss bauen.
Das war ein schickes auf der Höhe der spätklassizistischen Zeit. Architekt Carl Theodor Ottmer hätte vermutlich auch Hofbaumeister im schon damals größeren, wichtigeren Berlin werden können, wo er unter anderem das heutige Gorki-Theater errichtet hatte, entschied sich aber für seine Heimat Braunschweig. Dass das Shopping-Schloss hübsch aussieht, ist vor allem Ottmers Verdienst.
Auch von den Herzögen Karl und Wilhelm führen einige Stränge in die Gegenwart, zumindest in die niedersächsische, in der sich zweimal pro Saison riesige Polizeiaufgebote um Fußballspiele zwischen Eintracht Braunschweig und Hannover 96 kümmern müssen.
Das hängt nicht nur damit zusammen, dass Hannover meist einen Tick weiter oben in der Zweitligatabelle steht, Braunschweig aber von sich behaupten kann, Bundesliga-Gründungsmitglied und Deutscher Meister oder sowieso "Wiege des deutschen Fußballs [3]" gewesen zu sein. Es zeugt noch von jahrhundertlanger Rivalität.
Schon im 18. und 19. Jahrhundert hatte Hannover Braunschweig abgehängt. Unter anderem, weil gleich zwei Braunschweiger Herzöge, die heute wieder als Reiterstandbilder vorm Einkaufszentrum stehen, persönlich in die Kriege gegen die französischen Revolution und Kaiser Napoleon gezogen und dabei ums Leben gekommen waren.
Karls Großvater Karl Wilhelm Ferdinand hatte mit dem "Manifest des Herzogs von Braunschweig" (das auf Französisch als "Manifeste de Brunswick" viel bekannter ist) indirekt-unglücklich die Revolution bis hin zur Königspaar-Guillotinierung eskaliert – wobei der bereits alte Mann das Manifest mitnichten verfasst hatte, sondern sich eher von der französischen Aristokratie hatte instrumentalisieren lassen.
Nach der epochalen preußischen Niederlage in der Schlacht bei Jena und Auerstedt 1806 floh der Herzog als Oberbefehlshaber schwer verletzt und erblindend nach Norden und starb im damals dänischen, heutigen Hamburg-Ottensen.
Daher konnte sein Sohn Friedrich Wilhelm keinen Kleinstaat übernehmen, sondern ritt als "Schwarzer Herzog" mit einer Freischärler-Guerilla durch Europa. Ende 1813 zog er zwar als siegreicher Landesherr wieder in Braunschweig ein, mit seiner "Schwarzen Schar" aber den zurückweichenden Franzosen gleich weiter hinterher und fiel ganz am Ende der Feldzüge, zwei Tage vor der Schlacht bei Waterloo.
Weil er nur zwei minderjährige Söhne hinterließ, setzte sich, als Europa nach der Napoleonszeit auf dem Wiener Kongress neu verteilt wurde, niemand für Braunschweiger Interessen ein. Die verwandten Kurfürsten von Hannover, die als englische Könige in London residierten, vergrößerten ihr Nebenreich und ließen es zum eigenen Königreich Hannover erheben.
Braunschweig erstand als das unbedeutendete, zersplitterte Herzogtum wieder, das es im 18. Jahrhundert gewesen war [4].
Dabei ist Braunschweig wesentlich älter als Hannover, wie sich schon wenige hundert Meter entfernt vom Shopping-Schloss auf dem Burgplatz zeigt. Der Löwe mittig auf dem Platz wird stolz als "die erste monumentale Freifigur nördlich der Alpen" bezeichnet.
Er erinnert an den Stadtgründer Heinrich den Löwen – den großen Loser der hochmittelalterlichen Geschichte, der nie Kaiser wurde, sondern von Kaiser Barbarossa geächtet fliehen musste, andererseits aber so viele Städte gründete, dass man sich an ihn heute mehr als an irgendwelche anderen Zeitgenossen erinnert. (Und dass Fußballer und Fans nicht nur aus Braunschweig, sondern auch des sympathischen Münchener Vereins, 1860, sich "Löwen" nennen, führt auch zurück zu Heinrich ...).
Drumherum um den Platz stehen der alte Dom und die alte "Burg". Wobei die streng genommen nur teilweise alt ist. Vor allem wurde Heinrichs Burg Dankwarderode in den Jahren um 1900 nach damaligem historistischem Geschmack wiederaufgebaut.
Was zeigt, dass sich zwar Zeitgenossen über neu nachgebaute Schlösser und so etwas echauffieren können, es ein, zwei Generationen später aber weitgehend egal ist, ob Bauwerke "original" und so alt sind, wie sie vielleicht aussehen, oder aus diesen oder jenen Gründen in einer viel späteren, aber auch bereits vergangenen Vergangenheit errichtet wurden.
Und zerstört und wiederaufgebaut worden ist in Braunschweig ohnehin vieles ...
In Teil 2 des Artikels geht es morgen weiter mit Hitler, Fritz Bauer und Brunonia, der oben auf dem Shopping-Schloss thronenden Braunschweiger "Stadt- und Landesgöttin".
Dieser Artikel erschien auf Telepolis erstmals am 8. November 2025.
URL dieses Artikels:
https://www.heise.de/-11064478
Links in diesem Artikel:
[1] https://www.welt.de/vermischtes/plus68dbe769e12da109b804f4a7/humboldt-forum-in-berlin-vom-touristenmagnet-zum-kriminalitaetshotspot.html
[2] https://www.schloss-arkaden.de/
[3] https://www.braunschweig.de/leben/stadtportraet/geschichte/konradkoch/fussballkonradkoch.php
[4] https://de.wikipedia.org/wiki/Manifest_des_Herzogs_von_Braunschweig
Copyright © 2026 Heise Medien
EU-Recht stärkt das Recht auf Reparatur. Hersteller müssen sieben Jahre Teile liefern. Doch wer bei Temu kauft, könnte leer ausgehen.
Die EU-Richtlinie (EU) 2024/1799 zum "Recht auf Reparatur" muss bis zum 31. Juli 2026 in deutsches Recht umgesetzt werden, um Verbraucherreparaturen attraktiver zu machen. Sie soll nachhaltigen Konsum durch einheitliche Reparaturpflichten für Hersteller fördern, eine europäische Reparaturplattform und eine Verlängerung der Gewährleistung bei Reparatur.
Als Hersteller wird im Verständnis der EU nicht der Produzent eines technischen Gutes bezeichnet, sondern derjenige, der es in Europa auf den Markt bringt. Manche Produkte wie die von der Richtlinie (EU) 2024/1799 betroffenen Smartphones werden zumeist außerhalb der EU produziert.
Beim letzten deutschen Produzenten, der vom Elektrokonzern Siemens abstammenden Firma Gigaset in Bocholt, handelt es sich zwar um eine deutsche Firma. Sie ist jedoch zu 100 Prozent im Besitz chinesischer Eigentümer und hat jetzt die Fertigung ihrer Festnetztelefone nach China verlagert und die Endmontage ihrer Mobilgeräte "Made in Germany" in Deutschland angesiedelt.
Dass Smartphones einzelner Marken in Deutschland plötzlich vom Markt verschwinden, geschieht nicht gerade selten und geht zumeist auf rechtliche Streitereien zurück, weil man sich nicht auf ein Lizenzmodell für eine bestimmte Technik einigen konnte.
So hat Nokia in den letzten Jahren erfolgreich mehrere Verkaufsverbote in Deutschland durchgesetzt, hauptsächlich gestützt auf standardessentielle Patente (SEPs) im Bereich Videocodierung (HEVC/H.265) sowie bestimmte Mobilfunktechnologie. Diese rechtlichen Schritte richteten sich gegen Unternehmen, die Nokias Technologien nutzten, ohne entsprechende Lizenzgebühren zu zahlen.
Nachdem Nokia in Patentprozessen gegen die chinesischen Smartphone-Hersteller Oppo, OnePlus und Vivo, die ihre Optiken unter Lizenz von Zeiss in Oberkochen nutzen, gesiegt hatte, wurden zeitweise Verkaufsstopps in Deutschland verhängt.
Oppo und Nokia unterzeichneten erst im Januar 2024 eine Lizenzvereinbarung, welche den Streit beendete. Aber auch Smartphones der Marke Nokia fielen in der Vergangenheit in verschiedenen europäischen Ländern einschlägigen Urteilen [1] zum Opfer.
Das neue europäische Recht auf Reparatur bringt signifikante Änderungen für die Lagerhaltung von Ersatzteilen mit sich. Hersteller werden jetzt verpflichtet, Ersatzteile für sieben Jahre nach Produktionseinstellung und zu angemessenen Preisen bereitzuhalten.
Wer die betroffenen Produkte künftig in Deutschland auf den Markt bringt, muss sowohl die benötigten Ersatzteile als auch die benötigten Reparaturinformationen für unabhängige Reparaturwerkstätten zugänglich machen.
Zudem müssen die Ersatzteile innerhalb einer angemessenen Frist von fünf bis zehn Werktagen lieferbar sein, um Reparaturen zu erleichtern. Für Produzenten, die außerhalb der EU fertigen, wird damit eine Lagerhaltung innerhalb der EU zwingend.
Die Pflicht zur Lagerhaltung von Ersatzteilen gilt jedoch nur für Produkte der bestimmten Produktgruppen, die zum Zeitpunkt der Einführung des Rechtes auf Reparatur noch nicht verkauft waren. Die Pflicht zur Lagerhaltung führt zu neuen Herausforderungen für die Ersatzteillogistik, da diese eine langfristige Verfügbarkeit sichern muss, um einen vorzeitigen Neukauf von Geräten zu vermeiden.
Da für die Lagerhaltung und die Ersatzteillogistik Kosten anfallen, stellt sich die Frage, wer diese Kosten tragen wird. Da die Kosten für Reparaturen möglichst günstig sein sollen und die Lagerhaltungskosten mit Beginn der Gültigkeit des einschlägigen Gesetzes anfallen werden, ist damit zu rechnen, dass die Kosten beim Erstverkauf einkalkuliert werden.
Neben einer erwünschten reparaturfreundlicheren Gerätekonstruktion dürfte im Interesse günstigerer Ersatzeillagerkosten künftig mehr Gleichteile bei der Hardware zum Einsatz kommen und sich die Besonderheiten einzelner Modelle auf die Softwareausstattung konzentrieren. Die Vertragslaufzeit der Softwareausstattung kann dabei durchaus begrenzt werden, so dass nach Ablauf dieser Zeit nur noch die Grundfunktionen verfügbar sein können.
Das Recht auf Reparatur für ein in einem anderen EU-Land erworbenen Smartphone soll durch harmonisierte EU-Vorgaben ermöglicht werden. Verbraucher können ihr Gerät auch in Deutschland reparieren lassen, da sich der Anspruch in der Regel direkt gegen den Hersteller richtet und somit nicht vom Kaufort abhängt.
Produzenten außerhalb der EU benötigen entweder eine Niederlassung in der EU oder einen Bevollmächtigten, an den man sich wenden kann.
So erhofft man, dass Verbraucher Reparaturen leichter im eigenen Land durchführen lassen können. Zusätzlich soll bis 31. Juli 2027 eine europäische Online-Plattform eingerichtet werden. Dort sollen Verbraucher Reparaturbetriebe in ihrer Nähe finden oder auch lokale Initiativen wie Reparaturcafés entdecken können. Die Plattform soll in allen EU-Sprachen verfügbar sein und soll von der Europäischen Kommission technisch betreut werden.
In Deutschland soll es entweder einen eigenen Bereich auf dieser Plattform geben oder eine vergleichbare nationale Plattform, die den Zugang zu Reparaturangeboten erleichtert.
Es ist davon auszugehen, dass die Ansprüche gegenüber den Herstellern auch direkt durch Reparaturbetriebe oder Händler abgewickelt werden können, obwohl juristisch zuerst die Hersteller verantwortlich sind, die das Produkt in Deutschland auf den Markt bringen.
Kauft man jedoch über eine Onlineplattform wie Amazon, Temu oder Wish, ist es möglich, dass alle diese Akteure ihren Sitz im Ausland haben und rechtlich hierzulande nicht greifbar sind. Dann lässt sich das Recht auf Reparatur in der Praxis nicht durchsetzen.
URL dieses Artikels:
https://www.heise.de/-11241756
Links in diesem Artikel:
[1] https://www.t-online.de/digital/aktuelles/id_100005250/herber-schlag-fuer-nokia-verkaufsverbot-von-smartphones-in-deutschland.html
Copyright © 2026 Heise Medien
(Bild: heise medien)
Die Entwicklung an der Bild- und Video-KI Amuse wurde eingestellt, die Quellen als Open Source veröffentlicht. Nun gibt es erste Updates.
Die Entwicklung der lokal arbeitenden Bild- und Video-KI-Software Amuse hatte Hersteller TensorStack-AI eigentlich eingestellt und die Quellen veröffentlicht [1]. Jetzt hat das Open-Source-Projekt in der Nacht zum Freitag dieser Woche ein erstes Update veröffentlicht. Die Entwicklung geht damit weiter.
In dem Amuse-GitHub-Projekt [2] hat es seit Dezember einige Änderungen gegeben. Die Konzentration und starke Optimierung für AMD-Hardware ist Vergangenheit. Nun hebt das Projekt insbesondere HP-KI-Geräte werblich hervor. Konkrete Anpassungen an die Hardware des Herstellers lassen sich allerdings nicht erkennen.
Das offizielle Changelog zur aktuellen Version Amuse 3.2.0 [3] fällt zunächst übersichtlich aus. Die Migration auf .NET 10 aller Komponenten solle demnach einen Performance-Schub aufgrund besserer Speicherverwaltung und Optimierungen des JIT-Compilers bringen. Das Update auf die OnnxRuntime 1.23.0 führt demnach zu mehr Stabilität und liefert Unterstützung zum Einbinden neuerer KI-Modell-Architekturen. Die Ausführungs-Provider sollen ebenfalls verbessert sein und mehr Geschwindigkeit bringen. Die Dependencies wurden modernisiert und die internen NuGet-Bibliotheken auf die jüngsten stabilen Versionen aktualisiert. Das sorge für mehr Sicherheit, Stabilität und Kompatibilität.
Beim kurzen Test mit einem eher schwachbrüstigen AMD-Ryzen-7640HS-System mit 64 GByte RAM, das lediglich eine 10-TOp/s-NPU enthält, sind die Ergebnisse jedoch durchwachsen. Das Changelog erwähnt die Änderungen an der Bedienoberfläche nicht, etwa die Anzeigen zu Prozessor-, GPU- und NPU- sowie jeweiliger Speicherauslastung wurden eingedampft. AMD-Optimierungen wie der KI-basierte und flinke „AMD XDNA Super Resolution“-Upscaler sind rausgeflogen.
Die AMD-AI-optimierten Modelle sind in der Software nicht mehr auffindbar. Die allgemeinen Modelle funktionieren jedoch in weitgehend ähnlichem Tempo wie zuvor. Allerdings stürzt die OnnxRuntime nun bei Modellen mit mehr Speicherhunger öfter mit der Fehlermeldung ab, dass die Grafikkarte keine Befehle mehr annehme. Die kleineren Modelle bis etwa 4 GByte funktionieren jedoch problemlos.
Es bleibt spannend, ob die Weiterentwicklung diese Probleme aufnimmt und löst. Lokale Künstliche Intelligenz [4] liefert mehr Privatsphäre, und Amuse ist die bislang einfachste Möglichkeit zur lokalen Erstellung von Bildern und Videoschnipseln. Lösungen wie ComfyUI sind zwar eine Alternative, jedoch deutlich schwieriger zu bedienen.
URL dieses Artikels:
https://www.heise.de/-11245717
Links in diesem Artikel:
[1] https://www.heise.de/news/KI-Video-und-Bild-Ersteller-Amuse-am-Ende-ComfyUI-als-Ersatz-11147232.html
[2] https://github.com/TensorStack-AI/AmuseAI
[3] https://github.com/TensorStack-AI/AmuseAI/releases/tag/v3.2.0
[4] https://www.heise.de/thema/Kuenstliche-Intelligenz
[5] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[6] mailto:dmk@heise.de
Copyright © 2026 Heise Medien
(Bild: Natalia Klenova / Shutterstock.com)
Kleine, aber interessante Meldungshäppchen vom News-Buffet zu Ky, Qt for Python, Android Media3, node.js, Postman, PHP Debugger, RAD Studio, VS Code und Docker.
In unserem leckeren Häppchen-Überblick servieren wir alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:
State-Objekt), Umbenennungen (prefixUrl zu prefix) und geändertes Verhalten von .json(). Neu sind unter anderem Optionen wie totalTimeout und baseUrl, ein erweitertes Fehlerhandling (inkl. HTTPError.data, NetworkError) sowie strengere Retry-Logik und zusätzliche Hooks.MockModuleOptions.defaultExport und MockModuleOptions.namedExports sind zusammengelegt zu MockModuleOptions.exports. Ein Migrationstool findet sich auf GitHub [5]."python.analysis.enableParallelIndexing": true in den JSON-Settings.Solltest du ein schmackhaftes Thema vermissen, freuen wir uns über deine Mail [13].
URL dieses Artikels:
https://www.heise.de/-11244789
Links in diesem Artikel:
[1] https://github.com/sindresorhus/ky/releases/tag/v2.0.0-0
[2] https://www.qt.io/blog/qt-for-python-release-6.11-is-out
[3] https://android-developers.googleblog.com/2026/03/media3-110-is-out.html
[4] https://nodejs.org/en/blog/release/v25.9.0
[5] https://github.com/nodejs/userland-migrations/tree/main/recipes/mock-module-exports
[6] https://enterjs.de/ai.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_ejs_ai.empfehlung-ho.link.link&LPID=34830
[7] https://enterjs.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_ejs_ai.empfehlung-ho.link.link&LPID=34830#AI
[8] https://blog.postman.com/announcing-the-postman-plugin-for-claude-code/
[9] https://github.com/php-debugger/php-debugger
[10] https://blogs.embarcadero.com/announcing-the-availability-of-rad-studio-13-florence-update-1/
[11] https://devblogs.microsoft.com/python/python-in-visual-studio-code-march-2026-release/
[12] https://www.docker.com/blog/docker-sandboxes-run-agents-in-yolo-mode-safely/
[13] mailto:developer@heise.de?subject=Ein%20Vorschlag%20f%C3%BCr%20die%20Developer-H%C3%A4ppchen
[14] mailto:who@heise.de
Copyright © 2026 Heise Medien
Das Anker Solix Power Dock kann man ohne Elektriker auf 32 Panels mit 14 kWp, 64 kWh Akku und Wallboxen erweitern. Auch vorhandene Balkonkraftwerke erkennt es.
Das Anker Solix Power Dock schließt eine Lücke bei Solaranlagen, und zwar zwischen Balkonkraftwerken und der PV auf dem Dach. Balkonkraftwerke kosten teils unter 300 Euro, dürfen aber nur 800 Watt liefern. Die Photovoltaik auf dem Dach liefert viel mehr, aber muss aufwendig geplant werden und kostet eher über 10.000 Euro.
Das Power Dock muss man einmal zusammen mit einem Elektriker anschließen und anmelden, kann es dann aber alleine erweitern. Man kann ein bestehendes Balkonkraftwerk einbinden, neue Balkonkraftwerke direkt anschließen, zwei Wallboxen einstöpseln – und das System mit Modulen von Anker ausbauen: So ein Solarmodul steuert maximal acht PV-Panels mit 3,6 kW an, hat 2,7 kWh Akku und lässt sich um fünf Akkumodule mit weiteren je 2,7 kW erweitern. Bis zu vier dieser Türme sind möglich, insgesamt also 32 Panels mit 14,4 kW Leistung und Akkus mit 64 kWh Kapazität.
Diese Folge von c’t Phasenlage klärt unter anderem, was genau man anschließen kann, welche auch älteren Solarbanks von Anker funktionieren und welche Messmethoden das Power Dock unterstützt. Sie finden c’t Phasenlage auf YouTube [2], auf Peertube [3] und auf den gängigen Podcast-Plattformen [4].
c’t Phasenlage stellt Energiethemen wie Photovoltaik, Solarakkus, Balkonkraftwerke, dynamische Stromtarife, Wärmepumpen und Smart Home miteinander verzahnt dar und sammelt dazu das Know-How der Redaktionen von c’t, heise+ und den anderen heise-Magazinen. Alle zwei Wochen soll ein Video erscheinen.
URL dieses Artikels:
https://www.heise.de/-11245507
Links in diesem Artikel:
[1] https://www.heise.de/ct
[2] https://www.youtube.com/@ctphasenlage
[3] https://peertube.heise.de/c/ct_phasenlage_videos/videos
[4] https://ct-phasenlage.podigee.io/
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] mailto:jow@heise.de
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Eleonore auf einem Historiengemälde aus dem 19. Jahrhundert
(Bild: National Museum Wales/Commons)
Eleonore von Aquitanien herrschte über Reiche und Männer. Ihre Macht wuchs mit jeder Krone. Was machte sie zur vielleicht ehrgeizigsten Frau ihrer Zeit?
Königin von Frankreich, Königin von England, Königin der Troubadore – Eleonore hatte viel zu tun. Als junges Mädchen wurde sie mit einem jungen Prinzen verheiratet, der Ludwig hieß und der nächste König von Frankreich werden sollte. Ludwig war 16 Jahre alt, Eleonore 13. Die Hochzeit fand am Sonntag, dem 25. Juli 1137, in der Kirche Saint-André in Bordeaux statt.
Bordeaux hatte schon dem gallischen Stamm der Bituriger als Zentralort gedient. In der Römerzeit wurde Burdigala zur Hauptstadt der Provinz Gallia Aquitania. Als günstiger Übergang über die Garonne entwickelte sich die Metropole zu einer blühenden Handelsstadt mit strategischer Bedeutung. Zu Eleonores Zeit gehörte sie als Hauptstadt des Herzogtums Aquitanien zum französischen Königreich.
Eleonore soll sehr schön, klug, willensstark und leidenschaftlich gewesen sein. Aber was die Zeitgenossen wirklich interessierte: sie war die Erbtochter eines riesigen Herzogtums im Südwesten Frankreichs.
Aquitanien übertraf die königlich-französischen Besitzung zwischen Paris und Orléans bei Weitem. Als Herzogin von Aquitanien und der Gascogne sowie als Gräfin von Poitiers mit Anspruch auf die Grafschaft Toulouse vereinte sie eine Macht in ihrer Person, die im Königreich einzigartig war. Als ihr Vater, Herzog Wilhelm, im April 1137 überraschend mit nur 38 Jahren starb, erkannte König Ludwig VI. von Frankreich sofort die Chance durch eine Heirat seinen Einflussbereich beträchtlich zu erweitern.
Herzog Wilhelm, dessen einziger Sohn bereits sieben Jahre zuvor verstarb, wünschte ebenfalls eine Verbindung mit dem Königshaus. Das bedeutete Schutz für die noch minderjährige Eleonore sowie hohes Ansehen für die Familie, zu der noch ihre jüngere Schwester und ihr Onkel Raimund von Poitiers, ab 1136 Fürst von Antiochia gehörte.
Kurz nach der Hochzeit starb auch König Ludwig VI. und sein Sohn wurde als Ludwig VII. zwei Wochen später (8. August 1137) König von Frankreich und Eleonore Königin. Was für ein Tempo – innerhalb von vier Monaten Vollwaise, dann Gräfin und Herzogin und zum Schluss Königin von Frankreich. Was sollte da noch kommen?
Als Eleonore heiratete, war sie ein junges Mädchen, als sie zehn Jahre später 1147 mit ihrem königlichen Gemahl auf einen Kreuzzug ins Heilige Land zog, eine erwachsene Frau. Das hatte Folgen. Sie lernte Konstantinopel, die Hauptstadt des byzantinischen Reiches samt dem Kaiserhof mit seiner verwirrenden höfischen Pracht und den aufwendigen Herrschaftsritualen kennen.
Mindestens ebenso tiefen Eindruck hinterließ bei ihr der Aufenthalt in Antiochia, einem Kreuzfahrerfürstentum, im Folgejahr. Dort herrschte seit 1136 ihr Onkel Raimund, gutaussehend und gut gebaut, groß und blond, ein tapferer Ritter und Liebhaber der provenzalisch-okzitanischen Dichtkunst wie sein legendärer Vater, der den Beinamen der Troubadour trug. An Raimunds Hof in Antiochia sprach man die Langue dʼoc, die Muttersprache Eleonores aus ihrer südfranzösischen Heimat.
Ihren Onkel kannte sie noch aus den Kindheitstagen, die sie im Schloss lʼOmbrière in Bordeaux verbracht hatten. In dieser Atmosphäre fühlte sie sich wohl. Ihr königlicher Gemahl, der Nordfranzose, verstand sie nicht – weder ihre Sprache noch ihre politischen Pläne.
Es kam zu Bruch: Eleonore hielt zu ihrem Onkel Raimund, beide planten die türkischen Seldschuken in Aleppo anzugreifen, um später Edessa, das Ziel des Kreuzzuges, zurückzuerobern. König Ludwig wollte lieber in Jerusalem beten. Er nahm Eleonore gegen ihren Willen mit. Sein Angriff auf Damaskus ging gründlich daneben, wie der gesamte Kreuzzug. Die Rückreise traten beide getrennt voneinander an.
Eleonore verlangte die Trennung wegen zu naher Verwandtschaft. Papst Eugen III. versuchte noch zu schlichten. Am Ende vergeblich: im März 1152 – im benachbarten Reich wählten die Fürsten gerade Friedrich Barbarossa zum rex Romanorum – wurde die Ehe Eleonores mit dem französischen König Ludwig annulliert. Ihre beiden Töchter allerdings musste sie aufgeben, sie blieben beim Vater.
Nur zwei Monate später, am 18. Mai desselben Jahres – Eleonore hielt ihr atemberaubendes Tempo bei – hatte sie einen neuen Gemahl: Heinrich Plantagenet, den Herzog der Normandie und Grafen von Anjou. Zusammen mit Eleonores Besitzungen, Aquitanien, der Gascogne und Poitiers, war das Paar deutlich mächtiger als der König von Frankreich. Sie beherrschten den ganzen Westen des Landes, von der Normandie bis an die Pyrenäen.
Und es ging so weiter: am 17. August 1153 wurde Eleonore und Heinrich der erste Sohn mit Namen Wilhelm geboren, im Februar 1155 der zweite mit Namen Heinrich. Dazwischen – so als wäre es nichts – wurden Heinrich und Eleonore in England in der Westminister Abbey gekrönt, er zum englischen König, sie zur englischen Königin. Nach der französischen trug sie nun die Krone Englands.
Da sie ihrem Gemahl regelmäßig weitere Erben schenkte, 1157 Richard (später Löwenherz genannt), 1158 Gottfried, 1166/67 Johann sowie einige Töchter, war auch die Thronfolge in England gesichert. Ihrem Ex, König Ludwig VII. von Frankreich, passte das überhaupt nicht: der König von England hatte mehr Land auf der Insel und in Frankreich, als er selbst, dazu eine Frau, die ihresgleichen suchte.
Während Heinrich II. von England und seiner Gemahlin Eleonore alles zu gelingen schien – im September 1157 stellten sie auch noch zu Kaiser Friedrich Barbarossa ein freundschaftliches Verhältnis her, ging ihm alles nur schwer von der Hand: der Kreuzzug misslungen, bisher keinen männlichen Erben, sein Vasall, der König von England, so übermächtig, dass er ihm auch noch 1158 die Bretagne überlassen musste.
Aber Ludwig von Frankreich erwies sich als zäh. Er nahm seinen ganzen Mut zusammen, als Heinrich und Eleonore 1159 zu einem Feldzug gegen den Grafen von Toulouse rüsteten. Ludwig stellte sich an die Seite seines Lehnsmannes, dem er Schutz versprach. Sie hielten stand. König Heinrich zog sich im Herbst zurück: hohe Kosten und kein Ertrag. Eleonore war tief enttäuscht. Ihre Ansprüche auf Toulouse blieben nur auf dem Papier bestehen. Dennoch gedieh das Zusammenleben der Eheleute noch einige Jahre gut.
Um den Jahreswechsel 1166/67 wurde ihnen erneut ein Sohn geboren. Es war das letzte Kind, dass die mittlerweile über 40jährige Eleonore zur Welt brachte. Innerhalb von 13 Jahren hatte sie ihrem Gemahl, König Heinrich II. Plantagenet von England, neun Kinder geboren. Eine erstaunliche Leistung. Nicht alle überlebten. Drei der Knaben wurden später Könige von England: Heinrich der Jüngere († 1183), Richard Löwenherz († 1199), Johann ohne Land († 1216). Mathilde, die älteste von drei Töchtern, heiratete den mächtigsten Fürsten des Heiligen Römischen Reiches, Heinrich den Löwen, den Herzog von Sachsen und Bayern.
König Heinrich dankte es Eleonore schlecht, dass sie ihm eine so reiche Kinderschar beschied. Im Jahr ihrer letzten Schwangerschaft 1166 brachte er sich von einem walisischen Feldzug eine Geliebte mit, die schöne Rosamunde (Clifford), auch the fair Rosamund genannt. Sie war nicht einmal halb so alt wie Eleonore. Das war zu viel für die stolze, leidenschaftliche Aquitanierin. Von jetzt an herrschte Krieg zwischen den Eheleuten.
Eleonore zog sich in ihre südfranzösischen Besitzungen zurück, ihr Sohn Richard wurde dort 1172 zum Herzog von Aquitanien und Grafen von Poitou erhoben. Seinen älteren Bruder Heinrich ließ der Vater zwar 1170 zum Mitkönig krönen, stattete ihn aber nur unzureichend aus. Als Heinrich 1173 18 Jahre alt wurde und immer noch keine Teilhabe an der Regierung erlangen konnte, verschworen sich die drei ältesten Söhne König Heinrichs II. von England – Heinrich d. J., Richard, Gottfried – gemeinsam mit ihrer Mutter Eleonore gegen ihren Vater.
König Ludwig VII. von Frankreich, der Lehnsherr der drei für Anjou, Aquitanien, die Bretagne, Maine, die Normandie sowie Touraine, und Schwiegervater des jungen Heinrichs, dazu der König von Schottland und englische Hochadlige unterstützten aus Eigeninteresse die Rebellion. Aber Heinrich Plantagenet wurde ihrer Herr. Gestützt auf die Normandie, die ihm treu blieb, und seine Geldressourcen rekrutierte er 20.000 Brabanzonen, Söldner aus Brabant, und reihte militärische Erfolge aneinander. Er ließ seine Ehefrau Eleonore und den schottischen König gefangen nehmen und inhaftieren. Seine Söhne und der französische König baten nach 18 Monaten Kampf um Waffenstillstand oder Frieden.
Eleonore erlangte ihre Freiheit erst wieder, als ihr Ehemann am 6. Juli 1189 starb. Nur einige Monate in den Jahren 1184/85 war ihre Haft etwas gelockert worden. Inzwischen starben ihre Söhne, König Heinrich d. J. 1183 und Herzog Gottfried 1186. Ihr Lieblingssohn Richard wollte sie befreien lassen, doch das hatte sie bereits selbst getan. Im Triumphzug zog sie als Königin von England durchs Land und bereitete die Krönung Richards zum englischen König vor.
Sie musste dabei die Gegnerschaft ihres jüngsten Sohnes Johann kompensieren. Der missgünstige, bösartige, verräterische King John aus den Geschichten um Robin Hood, der seinen Bruder Richard Löwenherz um den Thron bringen will, während der im Heiligen Land gegen Sultan Saladin kämpft, ist dieser Johann. Sein Beiname "ohne Land" (Lackland, Sans-Terre) spielt darauf an, dass er ursprünglich als Letztgeborener bei der Erbteilung, die sein Vater König Heinrichs II. Plantagenet 1169 vornahm, leer ausging.
Eleonore war 1189 beim Tod ihres zweiten, königlichen Gemahls 67 Jahre alt und offensichtlich fit wie ein Turnschuh. Bis zu ihrem Tod im Alter von 80 Jahren am 31. März oder 1. April 1204 wirkte sie unermüdlich für ihren Sohn König Richard, nach dessen Tod für den unseligen Johann, der das beeindruckende Reich, das sie mit ihrem zweiten Gemahl Heinrich 1152/54 begründet hatte, verspielte. Der einzige Sohn ihres ersten Gemahls Ludwig von Frankreich namens Philipp II. August eroberte fast die gesamten französischen Besitzungen der Plantagenets.
Eleonore war eine unvergleichliche Frau in einer Zeit, in der Frauen in fast jeder Hinsicht benachteiligt waren. Es gibt immer Männer, die nicht damit umgehen können, dass eine Frau erfolgreicher ist als sie selbst: Sie musste eine Dämonin gewesen sein, denn nur mit übernatürlichen Kräften konnte sie Männer besiegen. Sie war eine Ehebrecherin, die unnatürliche sexuelle Praktiken nutzte, deren männliche Opfer ihr hilflos ausgeliefert waren. Und stieß sie auf weiblichen Widerstand, wurde sie zur Mörderin.
Als die schöne Rosamunde Clifford jung starb, steckte natürlich Eleonore dahinter, obwohl die in Haft ihres königlichen Ehemanns saß. Aber solche "Nebensächlichkeiten" interessierten die misogynen Urheber solcher Hass- und Hämebotschaften nicht. Zum Glück gab es auch Männer, die Eleonore sehr schätzten: die okzitanischen Troubadoure, die ihr ein bleibendes Denkmal in der Literatur verschafft haben.
Literatur:
Dieser Artikel erschien auf Telepolis erstmals am 18. November 2025.
URL dieses Artikels:
https://www.heise.de/-11083567
Links in diesem Artikel:
[1] https://commons.wikimedia.org/wiki/File:Alienor-d-aquitaine_et_jean_sans_terre.jpg
[2] https://commons.wikimedia.org/wiki/File:Frankreich_1154-DE.svg
[3] https://creativecommons.org/licenses/by-sa/3.0/deed.de
Copyright © 2026 Heise Medien
Sind OLED-Monitore jetzt Mainstream? c't 3003 hat 646 Stunden mit einem aktuellen Modell verbracht. Einbrennen, Helligkeit & Textschärfe im Real-Check!
OLED-Monitore dominieren die Verkaufscharts, aber sind sie auch alltagstauglich? c’t 3003 hat den MSI MPG322URXD 646 Stunden lang als Hauptmonitor genutzt – für Gaming und Textarbeit. Das Ergebnis hat uns überrascht.
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, ich bin hier auf einer Preissuchmaschine und guck mir die meist angeklickten Monitore an. Hm, Platz 1 OLED, Platz 2 OLED, Platz 3 auch OLED, Platz 4 OLED, ah ja, Platz 5 ist ohne OLED, zumindest im Namen, ah, okay, ist auch ein OLED. Ja, okay, einen einzigen Monitor gibt es in den Top 10, der nicht OLED ist. Und das liegt vermutlich auch nur daran, dass der mit 159 Euro extrem preisgünstig ist.
Ja, ich muss zugeben, dass ich nicht so richtig doll im Monitor-Game drinstecke, und deswegen einigermaßen überrascht war, wie populär OLED inzwischen geworden ist. Sind OLEDs jetzt tatsächlich Mainstream? Hatten die nicht immer noch Probleme mit Einbrennen und mit zu niedriger Helligkeit für so sonnendurchflutete Räume? Ja, das gucken wir uns jetzt alles mal an. Ich habe mir den für mich am besten passenden OLED besorgt. Ich habe den ein halbes Jahr lang als Hauptmonitor intensiv getestet, genau 646 Stunden lang. Außerdem zeige ich euch, ganz wichtig, wie ihr den für euch passenden Monitor findet. Und da habe ich wirklich sehr konkrete Tipps, die ihr vielleicht noch nicht kennt. Monitore gehören übrigens zu den Computerteilen, die nicht teurer geworden sind in den letzten Monaten. Nice, bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...
Ja, wenn man ehrlich ist, Hardware kaufen ist ja eigentlich erstmal vorbei, nachdem die Computerhersteller alle beschlossen haben, dass sie nur noch an KI-Rechenzentren liefern wollen und alle anderen völlig egal sind. Aber was ich festgestellt habe, Monitore sind nicht teurer geworden. Und da trifft sich das ganz gut, dass ich meinen 27-Zöller irgendwie zu klein und auch zu kontrastarm fand. So ein Ultra-Wide-Teil wollte ich aber nicht haben, weil ich bei mir die zugegeben sehr spezifische Anwendung habe, dass ich ständig Bildschirmaufnahmen für unsere 3003-Videos mache und unsere Videos sind halt im Seitenverhältnis 16:9 und nicht 21:9. Okay, ja, ja, ja, man kann auch mit 21:9 Monitoren 16:9 capturen. Das bedeutet aber, dass ich da ständig rumkonfigurieren müsste und dazu habe ich keine Lust. Außerdem finde ich 16:9 sowieso irgendwie ganz gut, weil es mein Sichtfeld ausfüllt und ich nicht die ganze Zeit hin und her gucken muss. Aber hey, das ist mein Geschmack, kann bei euch alles total anders aussehen.
Ich bin auf jeden Fall auf geizhals.de gegangen und obwohl ich das schon lange benutze, war ich wirklich überrascht, wie detailliert man da die Dinge filtern kann, wenn man da so richtig reingeht. Und das ist jetzt eine ehrliche Aussage von mir, obwohl, und jetzt Disclaimer, mein Arbeitgeber Heise Mehrheitsaktionär bei Geizhals ist. Übrigens auch Alleingesellschafter da bei billiger.de und guenstiger.de. Okay, über die Namen können wir nochmal sprechen. Die populärste Preissuchmaschine hierzulande ist übrigens Idealo. Die gehört mehrheitlich dem Axel-Springer-Konzern. Idealo kann man natürlich auch benutzen bei der Monitorsuche, aber ganz ehrlich, Geizhals ist vor allem bei Technik-Sachen viel detaillierter. Das sage ich als Keno, nicht als Heise-Mitarbeiter. Und ich finde auf jeden Fall auch, dass die Geizhals-Website sehr gut zu Heise und c't passt. Die verschwendet keine Energie auf Design. Funktion folgt Form. Ganz wichtig.
Hat man das Ding aber einmal gecheckt, ist das wirklich super praktisch. Guck mal, ich klicke hier auf Monitore und dann gibt es da über 3000 Produkte, aber ich grenze das jetzt ein und klicke dann halt das an, was mir wichtig ist. Also ich weiß, dass mir 27 Zoll zu klein sind. Also 31,5 Zoll und maximal bis 37,5 Zoll, weil mehr kriege ich nicht auf meinen Schreibtisch. Und 16:9 will ich auch, hatte ich am Anfang gesagt, also klicke ich das an und dann bleiben noch 384 Modelle übrig. Das ist schon mal deutlich weniger. Außerdem will ich 4K-UHD-Auflösung, aha, nur noch 209. Bildwiederholfrequenz habe ich jetzt keine extrem starke Meinung, aber ich will glaube ich mehr als 60, also ab 120. Und jetzt das Wichtigste, kein IPS oder VA, das ist alles LCD, nein, ich will ja OLED. Zack, runter auf 46.
Ja, und da muss ich erstmal runterscrollen, weil da erstmal so für mich eher unwichtige Sachen kommen. Für mich dann aber wichtig, der USB-C-Teil. Ich will da Laptops und andere Sachen über USB-C anschließen, die dann nicht nur geladen werden, sondern ich auch Tastatur und so verwenden kann, die am Monitor hängen. Also so klassische Dockingstation-Funktion, halt ohne Dockingstation, nur mit dem Monitor. Das Bild soll natürlich auch übertragen werden über USB-C. Das ist für mich praktisch, weil ich sehr oft unterschiedliche Geräte teste und so kann ich die mit einem Kabel anschließen und muss da nicht so ewig rumfummeln. Ich klicke also hier auf DisplayPort inklusive USB-C zweimal und Power Delivery. Ab 65 Watt würde ich mal sagen, das reicht mir, um die Teile aufzuladen. Und dann sind wir auf einmal schon bei 23 Geräten.
So, und jetzt wird es richtig interessant. Das ist so ein Klassiker bei Displays und auch bei Notebooks. Also ist mir schon öfter aufgefallen. Ich checke dann ganz oft nicht, wo die Unterschiede bei so leicht unterschiedlichen Typbezeichnungen sind. Also UXWRD versus UXURXDE versus UXWRD. Aber auch hier ganz schön Acer Predator X32 X5 BMIIPHUZX. Okay, ganz easy, ne? Also wenn da jetzt ein Buchstabe anders ist, wie unterscheidet sich das Gerät dann? Aber was man jetzt machen kann, und das ist in diesem Fall echt für mich das Killer-Feature, also ihr klickt hier auf diese beiden Pfeile und dann wird das Gerät zur Vergleichsliste hinzugefügt und dann klickt ihr alle an, die ihr vergleichen wollt, also für euch in die engere Auswahl kommen und dann werden hier die Unterschiede gelb markiert. Ja, super, und jetzt kann ich auch die Unterschiede sehen bei den leicht veränderten Typbezeichnungen. Wie gesagt, funktioniert nicht nur bei Monitoren, funktioniert auch super mit Laptops unter anderem und auch bei Fernsehern und bei allen möglichen Dingen. Super praktisch.
Ja, und da ist mir dann auch aufgefallen, dass nur einer der Monitore, die hier bei mir in der engeren Auswahl waren, über USB-C DisplayPort 2.1a unterstützt. Was ich schon sehr gerne hätte, weil es ist nicht garantiert, dass die älteren Standards 4K mit 120Hz ohne DSC können. DSC, wenn ihr euch das jetzt fragt, das ist so eine theoretisch fürs Auge unsichtbare Kompression, die aber manchmal Probleme macht. Zum Beispiel habe ich schon mal beobachtet, wenn man mit Alt-Tab aus dem Spiel raustappt und der Bildschirm dann ein paar Sekunden schwarz wird. Also meistens ist DSC kein Problem, aber wenn ich das irgendwie vermeiden kann, dann nehme ich doch lieber DisplayPort 2.1a, weil da geht es ohne Kompression. Und deswegen habe ich mich dann am Ende für den MSI MPG 322URX DE entschieden.
Ja, klick mal auf bestellt. So schnell ist der da. Nice. Und beim Auspacken kickt hier direkt meine Grobmotoriker-Panik ein. Wie fragil ist das Ding bitte? Und sind OLEDs sowieso? Ja, ich check, dass das nice aussieht, wenn es quasi keinen Rahmen gibt. Aber beim Handling muss man da wirklich extrem aufpassen. Auch so Fingerabdrücke sind sofort brutal zu sehen und müssen vorsichtig weggeputzt werden. Und das finde ich, sollte man wirklich immer sagen bei OLEDs. Wenn ihr irgendwas richtig Robustes haben wollt, was man auch ein bisschen grob behandeln kann und was ihr öfter von A nach B tragen wollt, dann sind vor allem so große OLEDs vielleicht nichts für euch. Das ist wirklich oft sehr filigran alles. Ist ja auch logisch, OLEDs brauchen halt keine Hintergrundbeleuchtung, weshalb die extrem dünn gebaut werden können. Das ist ja auch einer der Vorteile. Und das ist meistens natürlich auch kein Problem, wenn ihr das irgendwo fest installieren wollt. Aber ich sag das trotzdem einfach mal dazu, wenn ihr oft auf LANs oder so geht, dann vielleicht besser ein Monitor mit einem stabileren Gehäuse. Wie bei LCDs. Hier seht ihr hier deutlich den Unterschied bei meinem alten LCD-Monitor.
So, das jetzt hier zum Gehäuse. Aber wie ist das Bild denn jetzt? Und ey, ja, das ist super. Ich muss ehrlich sagen, dass das ein riesiger Unterschied gegenüber meinem 4K IPS LCD ist. Guck mal hier, das sind die beiden untereinander. Oben mein alter 27 Zöller mit IPS LCD und unten der 32 Zöller mit OLED. Und das sieht man auch deutlich. Das Schwarz ist halt schwarz und nicht grau. Und die Farben kicken auch richtig rein. Aber wenn man die Vorhänge aufzieht und die Sonne reinkommt, dann sieht man auch, das Display spiegelt definitiv mehr als bei meinem alten Monitor. Das ist jetzt nicht so schön in hellen Umgebungen, aber was ich dann doch erstaunlich fand, die Helligkeit reichte auch bei dem OLED für helle Räume, also wo die Sonne reinknallt. Das sind hier beide Monitore bei voller Helligkeit untereinander, also geht schon. Aber so richtig Spaß macht der OLED halt vor allem in dunklerer Umgebung, das muss man schon sagen.
Und dafür lacht ihr mich jetzt vermutlich aus. Mein alter Monitor hatte maximal 60 Hertz und ich dachte, dass man auch nicht unbedingt mehr braucht für so Büroarbeit. Aber 120 bzw. 240 Hertz ist ein Game Changer. Das habe ich also wirklich in dem Moment, wo ich den OLED angeschlossen habe, sofort gemerkt. Und das Interessante ist, das ist nie nur beim Gaming so, sondern das ist auch schon bei ganz normalen Sachen wie Fenster hin und her schieben, Maus bewegen. Es ist einfach alles viel, viel, viel geschmeidiger und ich will da nicht mehr von weg. Die Frage ist, ob man wirklich mehr als 120 Hertz braucht. Mein Testmonitor hat hier 240 Hertz. Ich bin mir nicht so sicher, ob man den Unterschied 120, 240, ob das so einen Riesenunterschied macht. Sollen wir das mal detailliert testen? Also bis wann Menschen das überhaupt wahrnehmen können? Gerne in die Kommentare schreiben. Aber auf jeden Fall 120 Hertz, das will man schon haben. Also ich zumindest.
Ja okay, und was ich auch noch loben kann, ist die Blickwinkelabhängigkeit. Die ist nämlich nicht vorhanden. Das Teil sieht von allen Seiten super aus. Das ist bei guten LCDs zwar auch besser geworden, aber so gut wie OLED, schwierig. Wir müssen aber natürlich jetzt noch zu den zwei OLED-Elefanten im Raum kommen. Und das ist zum ersten einmal die ungleichmäßige Pixelmatrix, beziehungsweise konkreter. Ich habe bei früheren OLEDs so eine gezackte Textdarstellung wahrgenommen, beziehungsweise Farbsäume. Das war auf jeden Fall bei älteren OLEDs immer ein Problem. Aber ganz ehrlich, ich könnte jetzt das große Fass aufmachen, das alles im Detail erklären. Aber bei dem OLED-Monitor hier ist das für mich kein Problem. Obwohl die RGB-Subpixel nicht gleichmäßig angeordnet sind, sondern ungleichmäßig. Bei der weniger blaue und rote Subpixel als grüne verwendet werden. Das ist so, aber ich kann es nicht wahrnehmen. Guck mal hier, das ist einmal Text auf dem LCD und das ist einmal Text auf dem OLED. Also wenn ich mir einbilde, dann kann ich auf dem OLED so ganz leichte Farbsäume sehen. Also in dieser Videoaufnahme, bloß im Auge, beim normalen Arbeiten nicht. Aber ich kann mir das auch bei dem LCD einbilden, ehrlich gesagt. Ich finde sogar, dass das Bild hier in dieser Aufnahme sogar bei den OLEDs ein bisschen gleichmäßiger aussieht. Aber wie gesagt, das ist ganz dicht dran mit der Kamera. Ihr seid ja mindestens 30 Zentimeter weg davon und dann nehme zumindest ich das alles nicht mehr wahr. Deshalb ist das meines Erachtens kein Problem. Wenn das für euch trotzdem ein Thema ist und ihr Angst davor habt, dass ihr das wahrnehmt, dann könnt ihr auch einfach noch ein bisschen abwarten, denn sowohl Samsung als auch LG, also die OLED-Panel-Hersteller, Die haben beide angekündigt, bei den kommenden Modellen die Subpixel klassisch anzuordnen. Also in der RGB-Matrix, beziehungsweise gleichmäßiger. Ich habe einen Heise-Artikel dazu verlinkt, wenn euch das interessiert. Aber wie gesagt, meines Erachtens macht auch die aktuelle Generation, zumindest bei dieser hohen Auflösung, ganz wichtig, kein Problem. Also bei geringeren Auflösungen und bei den 21:9, da kann man es vielleicht wahrnehmen, aber hier bei meinem 4K-Monitor eben nicht.
Und jetzt der zweite Elefant im Raum, Einbrennen. Ein Riesenthema, immer schon, und zwar gerade bei für Büroarbeiten genutzten Monitoren. Ich sag mal, ich schreibe ständig Texte in, ja, Nextcloud Office. Checkt ihr, checkt ihr, ich habe nicht Microsoft Word gesagt. Ja, und da habe ich das Fenster oft an der gleichen Stelle und dann habt ihr natürlich auch immer die Icons vom User Interface an der gleichen Stelle. Und das war ja immer so gefährliches Territory bei OLED. MSI hat aber in dem Monitor, den ich getestet habe, etliche Funktionen eingebaut, die das verhindern sollen, zum Beispiel Pixel Shift. Damit nicht immer die gleichen Pixel die gleichen Farben darstellen müssen, wird das Bild alle zwei Minuten um wenige Pixel verschoben. Hatte ich die ganze Zeit an, ist mir nicht einmal aufgefallen. Das gleiche gilt für Static Screen Detection, Taskbar Detection und Logo Detection. Der Monitor prüft die ganze Zeit, ob es irgendwelche Bildelemente gibt, die sich lange Zeit nicht verändern und dimmt die dann etwas runter. Kann man alles abstellen? Habe ich nicht abgestellt? Hatte ich alles auf Standard? Habe ich nicht einmal wahrgenommen.
Jetzt kommt was, was mir aufgefallen ist, nämlich OLED Care 2.0. Sobald der Monitor vier Stunden gelaufen ist und in den Standby geht, dann läuft so eine Pixel-Auffrischung, wobei dann so Helligkeitsunterschiede ausgeglichen werden. Das heißt, wenn einzelne Pixel viel heller geleuchtet haben als andere, werden die anderen auch gealtert, eben damit gleichmäßig altert. Also angenommen, ihr habt acht Stunden an dem Bildschirm arbeitete und das Teil schaltet sich dann ab, weil ihr Feierabend macht, dann wird nach ungefähr zehn Minuten automatisch dieser OLED-Care-Modus aktiviert und dieser Prozess dauert so eine Viertelstunde immer. Und in vielen Fällen kriegt ihr das also gar nicht mit, weil das passiert nur, wenn der Monitor in Standby geht. Aber wenn ihr während dieses Prozesses wiederkommt und an den Rechner geht, dann wundert ihr euch womöglich, warum der Monitor auf einmal kein Bild anzeigt. Ihr könnt dann den Einschaltknopf drücken und dann wird der Prozess abgebrochen. Ihr könnt wieder ganz normal daran arbeiten oder spielen. Das lässt sich viermal abbrechen. Dann beim fünften Mal, wenn ihr es beim fünften Mal abbrechen wollt, dann zwingt euch der Monitor dazu. Dann müsst ihr also diese Viertelstunde warten. Ich hatte das in meinem halben Jahr mit diesem Monitor nicht einmal, dass ich das nicht abbrechen konnte. Also ich hatte das schon, dass der in diesen Care-Modus gegangen bin, als ich mal wiedergekommen bin oder so, aber dann habe ich es immer manuell abgebrochen und dann hat er den Care-Modus halt gemacht, wenn ich dann das nächste Mal Pause gemacht habe. Also diese viermal beziehungsweise fünfmal habe ich nicht einmal ausgekostet, dass ich da diesen Modus anschalten musste.
Ich habe mir übrigens am Ende des halben Jahres auch ganz genau mit einfarbigen Bildschirminhalten angeguckt, ob ich ein Brennmuster sehen kann und ich habe keine gefunden. Wie gesagt, nach 646 Betriebsstunden und laut Monitor 82 Auffrischungsvorgängen. Aber offenbar auch nach längerer Zeit passieren keine schlimmeren Dinge. Also der YouTube-Channel Monitors Unboxed hat das nämlich zwei Jahre lang ausprobiert. Interessanterweise mit dem Vorgängermodell von dem, was ich hier getestet habe, dem MPG 321 statt MPG 322. Die benutzen beide das gleiche von Samsung hergestellte OLED-Panel Und ja, da kann man bei genauem Hingucken was erkennen, richtig viel ist das nicht. Was ich ganz interessant finde, obwohl da 659 dieser Auffrischungsvorgänge durchgelaufen sind, ist die SDR-Maximalhelligkeit nur von 243 auf 238 Nits runtergegangen. Das ist ziemlich wenig. Also für mich heißt das, Einbrennen macht mir persönlich keine großen Sorgen. Gibt bei MSI auch noch eine 3-Jahres-Einbrenn-Garantie.
Ich könnte jetzt auch nochmal alle kleinen, kleinen Gaming-Funktionen hier durchhecheln, aber da habe ich ehrlich gesagt keine Lust zu, weil da sind die meisten auch eher quatschig. Also vor allem die Bildverbesserungsfunktionen, die sehen meiner Meinung nach gruselig aus. Okay, man kann eine sogenannte Optix-Funktion anschalten, da wird ja der mittlere Teil des Bildschirms so vergrößert, hilft womöglich bei Shootern. Ja, habe ich nicht verwendet, wir Profis brauchen das nicht, ne, wisst ihr? Ne, keine Ahnung.
Was ich aber wirklich oberpraktisch finde, die USB-Hub-Funktion. Man hat halt einmal eine USB-C Buchse plus zweimal USB-A und einmal USB-B. Und da kann ich dann einfach zum Beispiel mein Notebook über ein USB-C Kabel anschließen. Und dann wird das aufgeladen, das Bild wird übertragen, mein Audio Interface ist verbunden, was am Monitor hängt mit Mikrofon und Lautsprechern und meine Tastatur, die auch über USB am Monitor hängt auch. Will ich einen anderen Rechner benutzen, stöpsel ich einfach mein eines USB-C Kabel um und zack, fertig. Das geht übrigens auch unter Linux, hier zum Beispiel mit meinem Framework Laptop hier. Und das auch übrigens problemlos mit 240 Hertz. Kurioserweise geht das mit meiner Linux-Maschine sogar besser als mit meinem Apple MacBook Air M2. Das kann nämlich nur 120 Hertz, aber das liegt nicht am Monitor, sondern an Apple. Für 240 Hertz braucht man Pro, Max oder Ultra bei Apple. Ja, okay.
Mein Fazit. Wäre das kein Testgerät, was ich zurückschicken muss, würde ich den Monitor auf jeden Fall behalten. Ich muss mir mal überlegen, ob ich jetzt wirklich 850 Euro auf den Tisch legen will dafür. Aber mir hat das alles schon sehr gut gefallen. Also das super tintige Schwarz, die 32 Zoll Größe, die USB-C Hub-Funktion, vor allem die 240 Hertz. Ich habe echt Probleme, jetzt wieder zurück zu meinem alten 27 Zöller mit 60 Hertz zu gehen. Die Sachen, die ich für mich kritisieren würde, sind an erster Stelle ganz klar die krass spiegelnde Oberfläche. Die stört mich interessanterweise am meisten von allen Kritikpunkten. Also deutlich mehr als die etwas geringere Helligkeit. die reicht für mich auch, wenn die Sonne richtig reinknallt. Aber die Spiegelungen, die nerven mich. Ja, und ich finde auch etwas beunruhigend, dass das Teil so papierdünn ist und ich hätte echt Angst, wenn ich damit umziehen müsste. Ja, okay, ist vielleicht eine Spezialangst bei mir. Ja, und diese Zwangspausen mit der OLED-Auffrischung, ah, das ist so ein Mini-Ärgernis, was mich letztendlich nicht so richtig nervt. Weil das kann man ja eben viermal abbrechen, bis man dazu gezwungen wird, diese Viertelstunde zu warten. Und das habe ich bei mir immer hingekriegt. Also klar, wenn ihr jetzt so Leute seid, die irgendwie 30 Stunden am Stück gamen oder so, aber also normalen Nutzungszyklen sollte das eigentlich immer passen, dass das dann gemacht wird, wenn ihr den Monitor gerade nicht benutzt. Achso, der Monitor hat übrigens auch keinen Lüfter, falls euch das noch interessiert. Da gibt es ja manchmal Geräte, die manchmal so unangenehme Geräusche machen, ist hier nicht der Fall.
Ja, am Ende muss man sich halt einfach selbst überlegen, ob man sich so einen Luxusmonitor gönnen will. Es ist ja alles super individuell. Es gibt natürlich auch gute Monitore, die deutlich günstiger sind oder auch mal auf dem Gebrauchmarkt gucken. Ich würde aber sagen, dass ich glaube ich an anderer Stelle eher sparen würde als am Monitor. Ist aber wie gesagt meine Meinung. Wie seht ihr das? Gerne in die Kommentare schreiben. Ich lese das alles, zumindest an den ersten Tagen nach Veröffentlichung. Und ja, tschüss.
c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
URL dieses Artikels:
https://www.heise.de/-11245290
Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de
Copyright © 2026 Heise Medien
Sind OLED-Monitore jetzt Mainstream? c't 3003 hat 646 Stunden mit einem aktuellen Modell verbracht. Einbrennen, Helligkeit & Textschärfe im Real-Check!
OLED-Monitore dominieren die Verkaufscharts, aber sind sie auch alltagstauglich? c’t 3003 hat den MSI MPG322URXD 646 Stunden lang als Hauptmonitor genutzt – für Gaming und Textarbeit. Das Ergebnis hat uns überrascht.
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, ich bin hier auf einer Preissuchmaschine und guck mir die meist angeklickten Monitore an. Hm, Platz 1 OLED, Platz 2 OLED, Platz 3 auch OLED, Platz 4 OLED, ah ja, Platz 5 ist ohne OLED, zumindest im Namen, ah, okay, ist auch ein OLED. Ja, okay, einen einzigen Monitor gibt es in den Top 10, der nicht OLED ist. Und das liegt vermutlich auch nur daran, dass der mit 159 Euro extrem preisgünstig ist.
Ja, ich muss zugeben, dass ich nicht so richtig doll im Monitor-Game drinstecke, und deswegen einigermaßen überrascht war, wie populär OLED inzwischen geworden ist. Sind OLEDs jetzt tatsächlich Mainstream? Hatten die nicht immer noch Probleme mit Einbrennen und mit zu niedriger Helligkeit für so sonnendurchflutete Räume? Ja, das gucken wir uns jetzt alles mal an. Ich habe mir den für mich am besten passenden OLED besorgt. Ich habe den ein halbes Jahr lang als Hauptmonitor intensiv getestet, genau 646 Stunden lang. Außerdem zeige ich euch, ganz wichtig, wie ihr den für euch passenden Monitor findet. Und da habe ich wirklich sehr konkrete Tipps, die ihr vielleicht noch nicht kennt. Monitore gehören übrigens zu den Computerteilen, die nicht teurer geworden sind in den letzten Monaten. Nice, bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...
Ja, wenn man ehrlich ist, Hardware kaufen ist ja eigentlich erstmal vorbei, nachdem die Computerhersteller alle beschlossen haben, dass sie nur noch an KI-Rechenzentren liefern wollen und alle anderen völlig egal sind. Aber was ich festgestellt habe, Monitore sind nicht teurer geworden. Und da trifft sich das ganz gut, dass ich meinen 27-Zöller irgendwie zu klein und auch zu kontrastarm fand. So ein Ultra-Wide-Teil wollte ich aber nicht haben, weil ich bei mir die zugegeben sehr spezifische Anwendung habe, dass ich ständig Bildschirmaufnahmen für unsere 3003-Videos mache und unsere Videos sind halt im Seitenverhältnis 16:9 und nicht 21:9. Okay, ja, ja, ja, man kann auch mit 21:9 Monitoren 16:9 capturen. Das bedeutet aber, dass ich da ständig rumkonfigurieren müsste und dazu habe ich keine Lust. Außerdem finde ich 16:9 sowieso irgendwie ganz gut, weil es mein Sichtfeld ausfüllt und ich nicht die ganze Zeit hin und her gucken muss. Aber hey, das ist mein Geschmack, kann bei euch alles total anders aussehen.
Ich bin auf jeden Fall auf geizhals.de gegangen und obwohl ich das schon lange benutze, war ich wirklich überrascht, wie detailliert man da die Dinge filtern kann, wenn man da so richtig reingeht. Und das ist jetzt eine ehrliche Aussage von mir, obwohl, und jetzt Disclaimer, mein Arbeitgeber Heise Mehrheitsaktionär bei Geizhals ist. Übrigens auch Alleingesellschafter da bei billiger.de und guenstiger.de. Okay, über die Namen können wir nochmal sprechen. Die populärste Preissuchmaschine hierzulande ist übrigens Idealo. Die gehört mehrheitlich dem Axel-Springer-Konzern. Idealo kann man natürlich auch benutzen bei der Monitorsuche, aber ganz ehrlich, Geizhals ist vor allem bei Technik-Sachen viel detaillierter. Das sage ich als Keno, nicht als Heise-Mitarbeiter. Und ich finde auf jeden Fall auch, dass die Geizhals-Website sehr gut zu Heise und c't passt. Die verschwendet keine Energie auf Design. Funktion folgt Form. Ganz wichtig.
Hat man das Ding aber einmal gecheckt, ist das wirklich super praktisch. Guck mal, ich klicke hier auf Monitore und dann gibt es da über 3000 Produkte, aber ich grenze das jetzt ein und klicke dann halt das an, was mir wichtig ist. Also ich weiß, dass mir 27 Zoll zu klein sind. Also 31,5 Zoll und maximal bis 37,5 Zoll, weil mehr kriege ich nicht auf meinen Schreibtisch. Und 16:9 will ich auch, hatte ich am Anfang gesagt, also klicke ich das an und dann bleiben noch 384 Modelle übrig. Das ist schon mal deutlich weniger. Außerdem will ich 4K-UHD-Auflösung, aha, nur noch 209. Bildwiederholfrequenz habe ich jetzt keine extrem starke Meinung, aber ich will glaube ich mehr als 60, also ab 120. Und jetzt das Wichtigste, kein IPS oder VA, das ist alles LCD, nein, ich will ja OLED. Zack, runter auf 46.
Ja, und da muss ich erstmal runterscrollen, weil da erstmal so für mich eher unwichtige Sachen kommen. Für mich dann aber wichtig, der USB-C-Teil. Ich will da Laptops und andere Sachen über USB-C anschließen, die dann nicht nur geladen werden, sondern ich auch Tastatur und so verwenden kann, die am Monitor hängen. Also so klassische Dockingstation-Funktion, halt ohne Dockingstation, nur mit dem Monitor. Das Bild soll natürlich auch übertragen werden über USB-C. Das ist für mich praktisch, weil ich sehr oft unterschiedliche Geräte teste und so kann ich die mit einem Kabel anschließen und muss da nicht so ewig rumfummeln. Ich klicke also hier auf DisplayPort inklusive USB-C zweimal und Power Delivery. Ab 65 Watt würde ich mal sagen, das reicht mir, um die Teile aufzuladen. Und dann sind wir auf einmal schon bei 23 Geräten.
So, und jetzt wird es richtig interessant. Das ist so ein Klassiker bei Displays und auch bei Notebooks. Also ist mir schon öfter aufgefallen. Ich checke dann ganz oft nicht, wo die Unterschiede bei so leicht unterschiedlichen Typbezeichnungen sind. Also UXWRD versus UXURXDE versus UXWRD. Aber auch hier ganz schön Acer Predator X32 X5 BMIIPHUZX. Okay, ganz easy, ne? Also wenn da jetzt ein Buchstabe anders ist, wie unterscheidet sich das Gerät dann? Aber was man jetzt machen kann, und das ist in diesem Fall echt für mich das Killer-Feature, also ihr klickt hier auf diese beiden Pfeile und dann wird das Gerät zur Vergleichsliste hinzugefügt und dann klickt ihr alle an, die ihr vergleichen wollt, also für euch in die engere Auswahl kommen und dann werden hier die Unterschiede gelb markiert. Ja, super, und jetzt kann ich auch die Unterschiede sehen bei den leicht veränderten Typbezeichnungen. Wie gesagt, funktioniert nicht nur bei Monitoren, funktioniert auch super mit Laptops unter anderem und auch bei Fernsehern und bei allen möglichen Dingen. Super praktisch.
Ja, und da ist mir dann auch aufgefallen, dass nur einer der Monitore, die hier bei mir in der engeren Auswahl waren, über USB-C DisplayPort 2.1a unterstützt. Was ich schon sehr gerne hätte, weil es ist nicht garantiert, dass die älteren Standards 4K mit 120Hz ohne DSC können. DSC, wenn ihr euch das jetzt fragt, das ist so eine theoretisch fürs Auge unsichtbare Kompression, die aber manchmal Probleme macht. Zum Beispiel habe ich schon mal beobachtet, wenn man mit Alt-Tab aus dem Spiel raustappt und der Bildschirm dann ein paar Sekunden schwarz wird. Also meistens ist DSC kein Problem, aber wenn ich das irgendwie vermeiden kann, dann nehme ich doch lieber DisplayPort 2.1a, weil da geht es ohne Kompression. Und deswegen habe ich mich dann am Ende für den MSI MPG 322URX DE entschieden.
Ja, klick mal auf bestellt. So schnell ist der da. Nice. Und beim Auspacken kickt hier direkt meine Grobmotoriker-Panik ein. Wie fragil ist das Ding bitte? Und sind OLEDs sowieso? Ja, ich check, dass das nice aussieht, wenn es quasi keinen Rahmen gibt. Aber beim Handling muss man da wirklich extrem aufpassen. Auch so Fingerabdrücke sind sofort brutal zu sehen und müssen vorsichtig weggeputzt werden. Und das finde ich, sollte man wirklich immer sagen bei OLEDs. Wenn ihr irgendwas richtig Robustes haben wollt, was man auch ein bisschen grob behandeln kann und was ihr öfter von A nach B tragen wollt, dann sind vor allem so große OLEDs vielleicht nichts für euch. Das ist wirklich oft sehr filigran alles. Ist ja auch logisch, OLEDs brauchen halt keine Hintergrundbeleuchtung, weshalb die extrem dünn gebaut werden können. Das ist ja auch einer der Vorteile. Und das ist meistens natürlich auch kein Problem, wenn ihr das irgendwo fest installieren wollt. Aber ich sag das trotzdem einfach mal dazu, wenn ihr oft auf LANs oder so geht, dann vielleicht besser ein Monitor mit einem stabileren Gehäuse. Wie bei LCDs. Hier seht ihr hier deutlich den Unterschied bei meinem alten LCD-Monitor.
So, das jetzt hier zum Gehäuse. Aber wie ist das Bild denn jetzt? Und ey, ja, das ist super. Ich muss ehrlich sagen, dass das ein riesiger Unterschied gegenüber meinem 4K IPS LCD ist. Guck mal hier, das sind die beiden untereinander. Oben mein alter 27 Zöller mit IPS LCD und unten der 32 Zöller mit OLED. Und das sieht man auch deutlich. Das Schwarz ist halt schwarz und nicht grau. Und die Farben kicken auch richtig rein. Aber wenn man die Vorhänge aufzieht und die Sonne reinkommt, dann sieht man auch, das Display spiegelt definitiv mehr als bei meinem alten Monitor. Das ist jetzt nicht so schön in hellen Umgebungen, aber was ich dann doch erstaunlich fand, die Helligkeit reichte auch bei dem OLED für helle Räume, also wo die Sonne reinknallt. Das sind hier beide Monitore bei voller Helligkeit untereinander, also geht schon. Aber so richtig Spaß macht der OLED halt vor allem in dunklerer Umgebung, das muss man schon sagen.
Und dafür lacht ihr mich jetzt vermutlich aus. Mein alter Monitor hatte maximal 60 Hertz und ich dachte, dass man auch nicht unbedingt mehr braucht für so Büroarbeit. Aber 120 bzw. 240 Hertz ist ein Game Changer. Das habe ich also wirklich in dem Moment, wo ich den OLED angeschlossen habe, sofort gemerkt. Und das Interessante ist, das ist nie nur beim Gaming so, sondern das ist auch schon bei ganz normalen Sachen wie Fenster hin und her schieben, Maus bewegen. Es ist einfach alles viel, viel, viel geschmeidiger und ich will da nicht mehr von weg. Die Frage ist, ob man wirklich mehr als 120 Hertz braucht. Mein Testmonitor hat hier 240 Hertz. Ich bin mir nicht so sicher, ob man den Unterschied 120, 240, ob das so einen Riesenunterschied macht. Sollen wir das mal detailliert testen? Also bis wann Menschen das überhaupt wahrnehmen können? Gerne in die Kommentare schreiben. Aber auf jeden Fall 120 Hertz, das will man schon haben. Also ich zumindest.
Ja okay, und was ich auch noch loben kann, ist die Blickwinkelabhängigkeit. Die ist nämlich nicht vorhanden. Das Teil sieht von allen Seiten super aus. Das ist bei guten LCDs zwar auch besser geworden, aber so gut wie OLED, schwierig. Wir müssen aber natürlich jetzt noch zu den zwei OLED-Elefanten im Raum kommen. Und das ist zum ersten einmal die ungleichmäßige Pixelmatrix, beziehungsweise konkreter. Ich habe bei früheren OLEDs so eine gezackte Textdarstellung wahrgenommen, beziehungsweise Farbsäume. Das war auf jeden Fall bei älteren OLEDs immer ein Problem. Aber ganz ehrlich, ich könnte jetzt das große Fass aufmachen, das alles im Detail erklären. Aber bei dem OLED-Monitor hier ist das für mich kein Problem. Obwohl die RGB-Subpixel nicht gleichmäßig angeordnet sind, sondern ungleichmäßig. Bei der weniger blaue und rote Subpixel als grüne verwendet werden. Das ist so, aber ich kann es nicht wahrnehmen. Guck mal hier, das ist einmal Text auf dem LCD und das ist einmal Text auf dem OLED. Also wenn ich mir einbilde, dann kann ich auf dem OLED so ganz leichte Farbsäume sehen. Also in dieser Videoaufnahme, bloß im Auge, beim normalen Arbeiten nicht. Aber ich kann mir das auch bei dem LCD einbilden, ehrlich gesagt. Ich finde sogar, dass das Bild hier in dieser Aufnahme sogar bei den OLEDs ein bisschen gleichmäßiger aussieht. Aber wie gesagt, das ist ganz dicht dran mit der Kamera. Ihr seid ja mindestens 30 Zentimeter weg davon und dann nehme zumindest ich das alles nicht mehr wahr. Deshalb ist das meines Erachtens kein Problem. Wenn das für euch trotzdem ein Thema ist und ihr Angst davor habt, dass ihr das wahrnehmt, dann könnt ihr auch einfach noch ein bisschen abwarten, denn sowohl Samsung als auch LG, also die OLED-Panel-Hersteller, Die haben beide angekündigt, bei den kommenden Modellen die Subpixel klassisch anzuordnen. Also in der RGB-Matrix, beziehungsweise gleichmäßiger. Ich habe einen Heise-Artikel dazu verlinkt, wenn euch das interessiert. Aber wie gesagt, meines Erachtens macht auch die aktuelle Generation, zumindest bei dieser hohen Auflösung, ganz wichtig, kein Problem. Also bei geringeren Auflösungen und bei den 21:9, da kann man es vielleicht wahrnehmen, aber hier bei meinem 4K-Monitor eben nicht.
Und jetzt der zweite Elefant im Raum, Einbrennen. Ein Riesenthema, immer schon, und zwar gerade bei für Büroarbeiten genutzten Monitoren. Ich sag mal, ich schreibe ständig Texte in, ja, Nextcloud Office. Checkt ihr, checkt ihr, ich habe nicht Microsoft Word gesagt. Ja, und da habe ich das Fenster oft an der gleichen Stelle und dann habt ihr natürlich auch immer die Icons vom User Interface an der gleichen Stelle. Und das war ja immer so gefährliches Territory bei OLED. MSI hat aber in dem Monitor, den ich getestet habe, etliche Funktionen eingebaut, die das verhindern sollen, zum Beispiel Pixel Shift. Damit nicht immer die gleichen Pixel die gleichen Farben darstellen müssen, wird das Bild alle zwei Minuten um wenige Pixel verschoben. Hatte ich die ganze Zeit an, ist mir nicht einmal aufgefallen. Das gleiche gilt für Static Screen Detection, Taskbar Detection und Logo Detection. Der Monitor prüft die ganze Zeit, ob es irgendwelche Bildelemente gibt, die sich lange Zeit nicht verändern und dimmt die dann etwas runter. Kann man alles abstellen? Habe ich nicht abgestellt? Hatte ich alles auf Standard? Habe ich nicht einmal wahrgenommen.
Jetzt kommt was, was mir aufgefallen ist, nämlich OLED Care 2.0. Sobald der Monitor vier Stunden gelaufen ist und in den Standby geht, dann läuft so eine Pixel-Auffrischung, wobei dann so Helligkeitsunterschiede ausgeglichen werden. Das heißt, wenn einzelne Pixel viel heller geleuchtet haben als andere, werden die anderen auch gealtert, eben damit gleichmäßig altert. Also angenommen, ihr habt acht Stunden an dem Bildschirm arbeitete und das Teil schaltet sich dann ab, weil ihr Feierabend macht, dann wird nach ungefähr zehn Minuten automatisch dieser OLED-Care-Modus aktiviert und dieser Prozess dauert so eine Viertelstunde immer. Und in vielen Fällen kriegt ihr das also gar nicht mit, weil das passiert nur, wenn der Monitor in Standby geht. Aber wenn ihr während dieses Prozesses wiederkommt und an den Rechner geht, dann wundert ihr euch womöglich, warum der Monitor auf einmal kein Bild anzeigt. Ihr könnt dann den Einschaltknopf drücken und dann wird der Prozess abgebrochen. Ihr könnt wieder ganz normal daran arbeiten oder spielen. Das lässt sich viermal abbrechen. Dann beim fünften Mal, wenn ihr es beim fünften Mal abbrechen wollt, dann zwingt euch der Monitor dazu. Dann müsst ihr also diese Viertelstunde warten. Ich hatte das in meinem halben Jahr mit diesem Monitor nicht einmal, dass ich das nicht abbrechen konnte. Also ich hatte das schon, dass der in diesen Care-Modus gegangen bin, als ich mal wiedergekommen bin oder so, aber dann habe ich es immer manuell abgebrochen und dann hat er den Care-Modus halt gemacht, wenn ich dann das nächste Mal Pause gemacht habe. Also diese viermal beziehungsweise fünfmal habe ich nicht einmal ausgekostet, dass ich da diesen Modus anschalten musste.
Ich habe mir übrigens am Ende des halben Jahres auch ganz genau mit einfarbigen Bildschirminhalten angeguckt, ob ich ein Brennmuster sehen kann und ich habe keine gefunden. Wie gesagt, nach 646 Betriebsstunden und laut Monitor 82 Auffrischungsvorgängen. Aber offenbar auch nach längerer Zeit passieren keine schlimmeren Dinge. Also der YouTube-Channel Monitors Unboxed hat das nämlich zwei Jahre lang ausprobiert. Interessanterweise mit dem Vorgängermodell von dem, was ich hier getestet habe, dem MPG 321 statt MPG 322. Die benutzen beide das gleiche von Samsung hergestellte OLED-Panel Und ja, da kann man bei genauem Hingucken was erkennen, richtig viel ist das nicht. Was ich ganz interessant finde, obwohl da 659 dieser Auffrischungsvorgänge durchgelaufen sind, ist die SDR-Maximalhelligkeit nur von 243 auf 238 Nits runtergegangen. Das ist ziemlich wenig. Also für mich heißt das, Einbrennen macht mir persönlich keine großen Sorgen. Gibt bei MSI auch noch eine 3-Jahres-Einbrenn-Garantie.
Ich könnte jetzt auch nochmal alle kleinen, kleinen Gaming-Funktionen hier durchhecheln, aber da habe ich ehrlich gesagt keine Lust zu, weil da sind die meisten auch eher quatschig. Also vor allem die Bildverbesserungsfunktionen, die sehen meiner Meinung nach gruselig aus. Okay, man kann eine sogenannte Optix-Funktion anschalten, da wird ja der mittlere Teil des Bildschirms so vergrößert, hilft womöglich bei Shootern. Ja, habe ich nicht verwendet, wir Profis brauchen das nicht, ne, wisst ihr? Ne, keine Ahnung.
Was ich aber wirklich oberpraktisch finde, die USB-Hub-Funktion. Man hat halt einmal eine USB-C Buchse plus zweimal USB-A und einmal USB-B. Und da kann ich dann einfach zum Beispiel mein Notebook über ein USB-C Kabel anschließen. Und dann wird das aufgeladen, das Bild wird übertragen, mein Audio Interface ist verbunden, was am Monitor hängt mit Mikrofon und Lautsprechern und meine Tastatur, die auch über USB am Monitor hängt auch. Will ich einen anderen Rechner benutzen, stöpsel ich einfach mein eines USB-C Kabel um und zack, fertig. Das geht übrigens auch unter Linux, hier zum Beispiel mit meinem Framework Laptop hier. Und das auch übrigens problemlos mit 240 Hertz. Kurioserweise geht das mit meiner Linux-Maschine sogar besser als mit meinem Apple MacBook Air M2. Das kann nämlich nur 120 Hertz, aber das liegt nicht am Monitor, sondern an Apple. Für 240 Hertz braucht man Pro, Max oder Ultra bei Apple. Ja, okay.
Mein Fazit. Wäre das kein Testgerät, was ich zurückschicken muss, würde ich den Monitor auf jeden Fall behalten. Ich muss mir mal überlegen, ob ich jetzt wirklich 850 Euro auf den Tisch legen will dafür. Aber mir hat das alles schon sehr gut gefallen. Also das super tintige Schwarz, die 32 Zoll Größe, die USB-C Hub-Funktion, vor allem die 240 Hertz. Ich habe echt Probleme, jetzt wieder zurück zu meinem alten 27 Zöller mit 60 Hertz zu gehen. Die Sachen, die ich für mich kritisieren würde, sind an erster Stelle ganz klar die krass spiegelnde Oberfläche. Die stört mich interessanterweise am meisten von allen Kritikpunkten. Also deutlich mehr als die etwas geringere Helligkeit. die reicht für mich auch, wenn die Sonne richtig reinknallt. Aber die Spiegelungen, die nerven mich. Ja, und ich finde auch etwas beunruhigend, dass das Teil so papierdünn ist und ich hätte echt Angst, wenn ich damit umziehen müsste. Ja, okay, ist vielleicht eine Spezialangst bei mir. Ja, und diese Zwangspausen mit der OLED-Auffrischung, ah, das ist so ein Mini-Ärgernis, was mich letztendlich nicht so richtig nervt. Weil das kann man ja eben viermal abbrechen, bis man dazu gezwungen wird, diese Viertelstunde zu warten. Und das habe ich bei mir immer hingekriegt. Also klar, wenn ihr jetzt so Leute seid, die irgendwie 30 Stunden am Stück gamen oder so, aber also normalen Nutzungszyklen sollte das eigentlich immer passen, dass das dann gemacht wird, wenn ihr den Monitor gerade nicht benutzt. Achso, der Monitor hat übrigens auch keinen Lüfter, falls euch das noch interessiert. Da gibt es ja manchmal Geräte, die manchmal so unangenehme Geräusche machen, ist hier nicht der Fall.
Ja, am Ende muss man sich halt einfach selbst überlegen, ob man sich so einen Luxusmonitor gönnen will. Es ist ja alles super individuell. Es gibt natürlich auch gute Monitore, die deutlich günstiger sind oder auch mal auf dem Gebrauchmarkt gucken. Ich würde aber sagen, dass ich glaube ich an anderer Stelle eher sparen würde als am Monitor. Ist aber wie gesagt meine Meinung. Wie seht ihr das? Gerne in die Kommentare schreiben. Ich lese das alles, zumindest an den ersten Tagen nach Veröffentlichung. Und ja, tschüss.
c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
URL dieses Artikels:
https://www.heise.de/-11245290
Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de
Copyright © 2026 Heise Medien
Die Tech-Welt wird nicht nur von großen Unternehmen und bekannten Namen geprägt – sondern vor allem von Menschen: Entwicklerinnen, Analysten, Youtubern, Hackerinnen, Gründern, Aktivistinnen und klugen Stimmen, die Debatten anstoßen und neue Perspektiven eröffnen.
Wer sind die wichtigsten dieser Leute für dich? Wer inspiriert dich, bei wem interessiert dich besonders, was er oder sie denkt, wen sollte man kennen?
Uns interessieren auch, aber nicht nur die üblichen Verdächtigen, wir suchen nach Persönlichkeiten aus der DACH-Region, die euch wirklich geprägt haben – egal ob sie große Reichweiten haben oder eher in Nischen unterwegs sind.
Wir meinen zum Beispiel:
Kurz: Wer sind die Köpfe, die man kennen sollte, wenn man sich für Technologie, Digitalisierung und Netzpolitik im DACH-Raum interessiert?
Achtung: Wir möchten eure Erlebnisse eventuell zu einem späteren Zeitpunkt veröffentlichen. Unser Tool bietet völlige Anonymität. Bitte achtet auch bei euren Beiträgen darauf, sie so zu anonymisieren, dass wir sie im Artikel unterbringen können, ohne größere Änderungen vornehmen zu müssen.
Im März 2026 hat der britische Verteidigungsstaatsminister Vernon Coaker bekanntgegeben, dass das Dragonfire-Programm vorgezogen wird, wie Army Recognition berichtet .
Statt in den frühen 2030er Jahren sollen die ersten Systeme bereits 2027 auf Typ-45-Zerstörern der Royal Navy installiert sein. Der Hersteller MBDA erhielt bereits im November 2025 einen Produktionsauftrag für die ersten zwei Einheiten.
Dragonfire ist ein 50-kW-Faserlaser, entwickelt von MBDA UK, Leonardo UK , Qinetiq und dem Defence Science and Technology Laboratory. Das System bündelt mehrere Laserquellen zu einem einzigen Strahl und richtet ihn über einen stabilisierten Turm mit adaptiver Optik auf Ziele. Bei Tests auf den Hebriden traf der Laser eine Britische Pfundmünze auf einen Kilometer Entfernung. Als Energiequelle dient die Schiffsstromversorgung, kinetische Munition braucht es nicht.
Ein Dragonfire-Abschuss kostet rund zehn Pfund (11,46 Euro) an Strom. Eine Aster-Rakete, die derzeit Drohnen und Projektile abwehrt, kann Hunderttausende Pfund kosten. Die Royal Navy sieht in Dragonfire ein Mittel gegen Massenangriffe billiger Drohnen, ohne dabei teure Raketenvorräte verbrauchen zu müssen. Das Programm ist auf bis zu 200 Millionen Pfund veranschlagt und soll bis 2027 für die Ausrüstung von vier Schiffen dienen. Anwendungen für gepanzerte Fahrzeuge und das künftige GCAP-Kampfflugzeug sind bereits in der Entwicklung.
Dragonfire reiht sich ein in eine wachsende Klasse von militärischen Laserwaffen. Das US-Militär setzt das Helios-System ein und plant, einen Laser der 300-kW-Klasse auf einem Zerstörer zu testen. Der israelische Iron Beam und das US-amerikanische Odin sind ebenfalls in der Entwicklung. Wenn die Technologie ausgereift ist, wird die gerichtete Energie voraussichtlich einen großen Einfluss auf die Verteidigungsfähigkeit haben.
Gemma 4 ist da . Kurz vor dem Osterwochenende hat Google seine neuen Open-Weight-Modelle veröffentlicht. Das sind KI-Sprachmodelle, deren trainierte Gewichte öffentlich zugänglich sind und lokal betrieben werden können, im Gegensatz zu rein cloudbasierten Diensten wie Gemini.
Mit Gemma 4 wechselt Google auf die Apache-2.0-Lizenz und räumt damit einen der größten Kritikpunkte an der bisherigen Reihe aus dem Weg: Die frühere Gemma-Lizenz hatte kommerzielle Deployments für viele Organisationen erheblich erschwert.
Die neue Generation umfasst vier Varianten : das 26B-Mixture-of-Experts-Modell und ein 31B-Dense-Modell für leistungsstarke Hardware sowie die Edge-optimierten Varianten E2B und E4B für Smartphones, Raspberry-Pi-Boards und ähnliche Geräte. Das 31B-Modell belegt laut Google aktuell Platz drei auf dem Arena-AI-Leaderboard für offene Modelle, das 26B-Modell Platz sechs – wobei sich diese Einordnung im Alltagsbetrieb noch beweisen muss.
Die größeren Modelle sind auf eine einzelne Nvidia-H100-GPU ausgelegt, quantisierte Versionen sollen auch auf Consumer-Hardware laufen. Das 26B-MoE-Modell aktiviert beim Inferenz nur 3,8 Milliarden seiner Parameter – was laut Google gegenüber vergleichbar großen Dense-Modellen spürbar schnellere Token-Generierung bringt. Die Edge-Varianten entstanden in Zusammenarbeit mit Googles Pixel-Team, Qualcomm und Mediatek.
Die frühere Gemma-Lizenz hatte kommerzielle Deployments für viele Organisationen erschwert. Apache 2.0 gibt Entwicklern nun deutlich breitere Rechte bei Nutzung, Modifikation und Distribution – ein Schritt, der die praktische Einsetzbarkeit grundlegend verändert, wenn man Google glaubt.
Alle vier Modelle unterstützen multimodale Eingaben mit Bild und Video, die Edge-Modelle zusätzlich Audio. Die Kontextfenster reichen von 128.000 Token bei den Edge-Varianten bis zu 256.000 Token bei den größeren Modellen. Strukturierte JSON-Ausgabe und Function-Calling sind modellübergreifend enthalten. Trainiert wurde über mehr als 140 Sprachen hinweg.
Die Modelle sind ab sofort über Hugging Face , Kaggle und Ollama verfügbar, mit direkter Kompatibilität für vLLM, llama.cpp, MLX und Keras.
Google gibt in seinem Blogpost an, dass Gemma-Modelle seit dem Start der ersten Generation über 400 Millionen Mal heruntergeladen wurden und die Community mehr als 100.000 Modellvarianten erstellte. Ob Gemma 4 diesen Schwung fortsetzt, wird die praktische Nutzung in den kommenden Wochen zeigen.
Der Irankrieg könnte den Südkaukasus zur globalen Schlüsselregion aufsteigen lassen - oder zum Opfer einer umfassenden humanitären Krise machen. Eine Analyse.
Der Iran wird derzeit völkerrechtswidrig von den Vereinigten Staaten und Israel angegriffen. Bombardements von Tausenden Zielen im Iran haben eine Kettenreaktion ausgelöst, die zu Gefechten an mehreren Fronten im Nahen Osten geführt hat.
Einen besonders einschneidenden Wendepunkt stellt die Tötung von Ayatollah Ali Khamenei dar, die das regionale Machtgefüge nachhaltig verändern könnte. Als Reaktion greift Teheran US-Stützpunkte, Einrichtungen in der Golfregion sowie Israel mit Raketen und Drohnen an.
In diesem Kontext rückt eine Nachbarregion des Konflikts in den Fokus: der Südkaukasus. Der Konflikt unterstreicht die wachsende Bedeutung der Diversifizierung von Handels- und Transportrouten. Insbesondere die transkaspische internationale Transportroute – der sogenannte "Mittlere Korridor [1]" – gewinnt an strategischer Relevanz.
Eingebettet zwischen Russland und dem Iran verläuft diese Route durch den Südkaukasus, über das Kaspische Meer bis nach Zentralasien. Historisch etabliert, hat sie in den letzten Jahren wieder deutlich an Aufmerksamkeit gewonnen und Investitionen auf sich gezogen.
In der vergangenen Woche hat sich dieser Korridor zudem von einer reinen Transitroute zu einem humanitären Korridor entwickelt.
Da Flughäfen in der Region aufgrund von Drohnen- und Raketenangriffen zeitweise geschlossen waren und der zivile Luftverkehr den iranischen Luftraum umging, spielten Nachbarländer eine entscheidende Rolle. Armenien, Aserbaidschan und Turkmenistan – allesamt an den Iran grenzend und an den Korridor angebunden – unterstützten die Evakuierung ausländischer Staatsangehöriger.
Bereits Tausende Zivilisten konnten über diese Länder in Sicherheit gebracht werden, und bei anhaltenden Kämpfen dürfte ihre Zahl weiter steigen.
Im Zentrum der Entwicklungen steht Aserbaidschan. Als einziges Land, das sowohl an Russland als auch an den Iran grenzt, nimmt es eine Schlüsselrolle in potenziellen Handelsrouten zwischen Europa und Asien ein, die die Kontrolle Moskaus und Teherans umgehen. Bereits heute fungiert das Land als wichtiger Transitknoten für Energie aus dem kaspischen Raum.
Über die Pipeline Baku–Tiflis–Ceyhan gelangt Öl aus Kasachstan auf die Weltmärkte. Perspektivisch könnte auch Gas aus Turkmenistan über eine transkaspische Verbindung und den Südlichen Gaskorridor nach Europa fließen – ein Schritt, der die Abhängigkeit Europas von russischer Energie deutlich verringern würde.
Die geopolitische Bedeutung Aserbaidschans spiegelt sich auch in aktuellen politischen Signalen wider. Nachdem vermutlich iranische Drohnen die Exklave Nachitschewan angegriffen [2] hatten, forderte Präsident Ilham Aliyev eine Entschuldigung aus Teheran und drohte andernfalls mit einer entschlossenen Reaktion. Gleichzeitig verurteilte das White House die Angriffe scharf und bezeichnete Aserbaidschan ausdrücklich als "Partner" – eine Wortwahl, die auf eine strategische Annäherung hindeutet.
Trotz dieser Spannungen sendet Baku zugleich Signale der Deeskalation. Wenige Tage nach dem Drohnenangriff stellte Aserbaidschan rund 30 Tonnen humanitäre Hilfe [3] für den Iran bereit, darunter Lebensmittel, Trinkwasser und medizinische Güter.
Die Lieferung erfolgte nach einem Telefonat zwischen Präsident Ilham Aliyev und dem iranischen Präsidenten Masoud Pezeshkian, in dem Teheran jede Verantwortung für den Angriff zurückwies. Gleichzeitig hob Baku Beschränkungen an der Grenze auf und betonte, keine Angriffe auf iranisches Territorium zuzulassen.
Diese parallele Strategie aus Abschreckung und Kooperation verdeutlicht den Versuch Aserbaidschans, eine weitere Eskalation zu vermeiden.
Auch neue Infrastrukturprojekte unterstreichen die wachsende Bedeutung der Region. So wurde mit der "Trump Route for International Peace and Prosperity [4]" (Tripp) ein Korridor vorgeschlagen, der Aserbaidschan über Nachitschewan mit der Türkei und Europa verbinden soll. Ziel ist es, Energie, Rohstoffe und Handelsgüter über eine Route zu transportieren, die Russland und den Iran umgeht.
Das Projekt geht über eine regionale Verbindung hinaus: Tripp würde einen zentralen Abschnitt des Mittleren Korridors vervollständigen und den Zugang der Türkei zum Kaspischen Raum sichern.
Damit erhielten die USA direkten Zugang zu zentralasiatischen Märkten und Ressourcen. Gleichzeitig könnte die Route zusätzliche Investitionen aus dem Westen und der türkischen Welt anziehen, Russlands Einfluss relativieren und den Korridor insgesamt widerstandsfähiger gegenüber politischen und wirtschaftlichen Störungen machen.
Über die Rolle als Transitland hinaus beinhalten die aserbaidschanisch-iranischen Beziehungen auch eine ethnische Dimension. Aserbaidschaner stellen die größte Minderheit im Iran und sind tief in dessen politische und wirtschaftliche Strukturen eingebunden. Sie besetzen wichtige Positionen im religiösen Establishment, im Militär und in der Verwaltung. Auch Mojtaba Khamenei, der neue religiöse Führer des Iran, wird dieser ethnischen Gruppe zugerechnet.
Vor diesem Hintergrund wäre ein Szenario der Zersplitterung des iranischen Staates für Aserbaidschan trotz möglicher kurzfristiger Vorteile besonders riskant. Zwar könnte ein geschwächter Iran Baku größere Handlungsspielräume eröffnen und den Einfluss von Aserbaidschan und der Türkei stärken, zugleich würden jedoch schwer kalkulierbare Erwartungen unter den iranischen Aserbaidschanern entstehen.
Langfristig überwiegen jedoch klar die Risiken. Kulturelle Nähe bedeutet nicht automatisch politische oder gesellschaftliche Übereinstimmung. Instabilität im Iran könnte Erwartungen schüren, die Baku kaum erfüllen kann. Und jede tatsächliche oder wahrgenommene Einmischung würde das Risiko von Gegenmaßnahmen und einer regionalen Eskalation erhöhen.
In diesem Zusammenhang sollte Aserbaidschan seine Grenzsicherheit stärken und sich auf mögliche Flüchtlingsbewegungen sowie Sicherheitsbedrohungen vorbereiten, ohne das Gleichgewicht zwischen nationalen Ambitionen und strategischem Pragmatismus zu verlieren.
Ein alternatives Szenario wäre eine Machtübernahme durch Hardliner oder das Militär im Iran. Auch wenn dies politisch unerwünscht wäre, würde es für Baku ein gewisses Maß an Berechenbarkeit schaffen.
In diesem Fall könnte Aserbaidschan seine Infrastrukturprojekte schrittweise weiterentwickeln und die Kooperation mit der Türkei vertiefen, ohne eine offene Konfrontation zu riskieren. Dennoch bliebe das grundlegende Misstrauen Teherans bestehen – insbesondere angesichts der engen [5] Beziehungen zwischen Aserbaidschan und Israel, die im Iran als sicherheitspolitische Bedrohung wahrgenommen werden.
Direkte Schäden des aktuellen Iran-Krieges in Georgien sind unwahrscheinlich, doch die wirtschaftlichen Auswirkungen sind bereits spürbar. Steigende Energiepreise erhöhen den Druck auf Transport und Logistik, während globale Spannungen die Inflation anheizen.
Gleichzeitig wächst die strategische Bedeutung Georgiens als Transitland: Eine anhaltende Instabilität im Persischen Golf könnte Energie- und Handelsströme verstärkt über den transkaspischen Korridor lenken. Dies würde Georgiens Rolle stärken, zugleich aber seine Verwundbarkeit gegenüber geopolitischem Wettbewerb erhöhen.
Mittelfristig zeichnen sich mehrere Szenarien ab. Eine weitere Eskalation könnte den gesamten Südkaukasus destabilisieren, da der Iran enge Beziehungen zu Armenien unterhält und zugleich mit Aserbaidschan konkurriert. Georgien gerät damit in ein Spannungsfeld zwischen seiner pro-westlichen Ausrichtung und einer zunehmend instabilen Nachbarschaft.
Ein erneuertes Atomabkommen erscheint derzeit unwahrscheinlich, während ein möglicher Machtwechsel im Iran sowohl Risiken als auch Chancen für Tiflis birgt.
Daher hängt die Zukunft der georgisch-iranischen Beziehungen maßgeblich von der inneren Entwicklung des Iran ab. Ein demokratischer Wandel mit anschließender Annäherung an den Westen würde Georgiens Rolle als "Grauzonen-Vermittler" beenden und die wirtschaftlichen Beziehungen transparenter machen.
Gleichzeitig würde Russlands Einfluss durch den Bedeutungsverlust iranischer Transitkorridore sinken. Für den georgischen Staat wäre dies stabilisierend, auch wenn es innenpolitische Anpassungen erfordern würde.
Der Zerfall des iranischen Staates würde hingegen erhebliche Risiken mit sich bringen. Migration, Handelsstörungen sowie Sicherheitsbedrohungen wie Schmuggel und organisierte Kriminalität könnten zunehmen. Georgien würde in diesem Fall zu einer Pufferzone regionaler Instabilität werden, ohne daraus langfristige Vorteile zu ziehen.
Am problematischsten scheint jedoch die Etablierung eines Hardliner-Regimes im Iran. In diesem Fall könnten sich die Beziehungen zwischen Tiflis und Teheran vertiefen und stärker strategisch ausrichten, etwa in den Bereichen Handel, Logistik und Sanktionen.
Dies würde den Einfluss autoritärer Akteure wie Russland und China verstärken und den Druck des Westens auf Georgien erhöhen – mit möglichen Folgen für Wirtschaft, EU-Perspektive und staatliche Souveränität.
Bislang ist Armenien das einzige Nachbarland Irans, das nicht direkt von militärischen Angriffen betroffen ist. Auch künftig bleibt die Wahrscheinlichkeit unmittelbarer Sicherheitsvorfälle – etwa durch Raketenüberflüge oder Drohnenangriffe – vergleichsweise gering.
Risiken könnten jedoch mittel- bis langfristig aus US-armenischen Projekten entstehen, die Iran als bedrohlich wahrnehmen könnte, etwa geplante Technologieprojekte oder eine mögliche US-Truppenpräsenz im Rahmen des Tripp-Korridors. Der Krieg hat zudem die skeptische Haltung Teherans gegenüber solchen Initiativen verstärkt.
Langfristig könnte eine Instabilität im Iran auch Armeniens militärische und logistische Verbindungen beeinträchtigen, insbesondere bei Waffenlieferungen aus südlichen Märkten wie Indien.
Wirtschaftlich sind die direkten Auswirkungen bislang begrenzt, doch strukturelle Risiken bleiben erheblich. Zwar macht der Handel mit Iran nur rund 3,6 Prozent des Gesamtvolumens aus, dennoch ist Armenien bei bestimmten Gütern – etwa Bitumen, Zement oder Energie – stark abhängig.
Über 20 Prozent des Außenhandels verlaufen über iranisches Territorium, darunter wichtige Importe aus China sowie Exporte in den Nahen Osten. Eine langfristige Unterbrechung dieser Routen könnte Inflation und Versorgungsengpässe auslösen.
Besonders sensibel ist der Energiesektor. Armenien importiert Gas aus Iran im Austausch gegen Strom. Störungen der iranischen Energieinfrastruktur könnten daher direkte Auswirkungen auf Preise und Versorgung haben.
Auch der Tourismus wäre betroffen: Iranische Besucher zählen zu den wichtigsten Gruppen, und ihr Wegbleiben könnte das Wirtschaftswachstum bremsen.
Hinzu kommt die humanitäre Dimension. Ein Zusammenbruch staatlicher Strukturen im Iran könnte zu Flüchtlingsbewegungen führen und die ohnehin begrenzten Kapazitäten im Sozial- und Gesundheitswesen Armeniens stark belasten. Bereits in den vergangenen Jahren wurde das System durch mehrere Flüchtlingswellen stark beansprucht.
Selbst moderate Zuwanderung könnte soziale Spannungen verstärken, insbesondere wenn ethnische Dynamiken politisch instrumentalisiert werden. Zudem besteht die Möglichkeit, dass Angehörige iranischer Sicherheitsstrukturen im Falle politischer Umbrüche Zuflucht suchen. Solange staatliche Strukturen im Iran stabil sind, bleibt das Risiko eines massiven Flüchtlingszustroms jedoch gering.
Sollte sich der Konflikt jedoch ausweiten, könnte sich das jedoch schnell ändern. Aus politischer Sicht bleibt daher Vorsorge entscheidend – sowohl im Bereich humanitärer Hilfe als auch zur Stärkung gesellschaftlicher Resilienz.
Trotz der Bedeutung der Azeris in Religion und Politik des Iran dürfte sich die Umsetzung des Tripp-Projekts auf unbestimmte Zeit verzögern. Gleichzeitig hängt der Friedensprozess zwischen Armenien und Aserbaidschan nicht ausschließlich von den Vereinigten Staaten ab. Die wachsende Bedeutung des Mittleren Korridors eröffnet beiden Ländern die Möglichkeit, Konnektivität auch bilateral voranzutreiben.
Um dieses Potenzial auszuschöpfen, sollten Aserbaidschan, Armenien und Georgien den Korridor jedoch gemeinsam als kooperativen Raum gestalten und den Einfluss externer Akteure ausbalancieren. Ein abgestimmtes Vorgehen könnte nicht nur die Leistungsfähigkeit des Mittleren Korridors stärken, sondern auch die Entwicklung der Nord-Süd-Verbindung [6] fördern.
Unter diesen Voraussetzungen hätte der Südkaukasus die Chance, sich von einem Schauplatz geopolitischer Konkurrenz zu einem eigenständigen strategischen Akteur zu entwickeln – als Region, die eine der wichtigsten Schnittstellen zwischen Europa und Asien aktiv mitgestaltet.
URL dieses Artikels:
https://www.heise.de/-11244308
Links in diesem Artikel:
[1] https://www.german-economic-team.com/newsletter/chancen-und-herausforderungen-des-mittleren-korridors/
[2] https://www.euronews.com/2026/03/05/iranian-drones-strike-azerbaijans-razi-airport-in-nakhchivan
[3] https://www.aa.com.tr/en/world/azerbaijan-sends-humanitarian-aid-to-iran-amid-regional-escalation/3857773
[4] https://www.geopoliticalmonitor.com/power-tripp-the-trump-route-and-the-logic-of-transactional-diplomacy/
[5] https://en.wikipedia.org/wiki/Azerbaijan%E2%80%93Israel_relations
[6] https://en.wikipedia.org/wiki/International_North%E2%80%93South_Transport_Corridor
Copyright © 2026 Heise Medien
KI-generierte Grafik
Während das Pentagon Truppen verlegt, wächst eine strategische Lücke: Iran und Russland setzen auf Drohnen – die USA holen nur langsam auf. Eine Einschätzung.
Das Pentagon bereitet, vielen Anzeichen nach, Bodenoperationen im Iran vor — möglicherweise seit Wochen.
Wie die Washington Post [1] berichtet, umfassen die Planungen angeblich Kommandounternehmen durch Spezialkräfte und konventionelle Infanterie sowie mögliche Operationen entlang der iranischen Küste, darunter die Einnahme strategisch wichtiger Inseln im Persischen Golf.
Tausende US-Soldaten und Marineinfanteristen sind bereits in die Region verlegt worden. Das 31. Marine-Expeditions-Korps mit rund 2.200 Mann wurde laut Washington Post in den vergangenen Wochen in die Region beordert.
Wie es aussieht, hat die seit dem 28. Februar laufende US-israelische Luftkampagne nach mehr als vier Wochen weniger erreicht, als es die Ankündigungen des US-Präsidenten verstehen ließen. Es gibt einige Probleme, und die sind nicht klein.
Die Straße von Hormus ist für die Schifffahrt gesperrt. Das hat weltweite Auswirkungen. Und überdies dauern die iranischen Drohnen- und Raketensalven gegen Golfstaaten, US-Stützpunkte und Israel an. Die Aufgabe des iranischen Atomprogramms bleibt eine offene Frage.
Offenbar wird, dass in Washington der Druck steigt, militärisch nachzulegen. Stellt sich die Frage: Wie gut wären die USA auf eine Bodenoperation im Drohnenzeitalter vorbereitet?
Zu bedenken ist: Der Krieg in der Ukraine hat die Regeln des Bodenkampfes neu geschrieben. Die FPV-Drohne — ein handelsüblicher Quadkopter mit Kamera und Sprengstoff — kann einen Kampfpanzer im Wert von Millionen Dollar zerstören.
Laut Aussage [2] von General Christopher Cavoli, damals Oberbefehlshaber des US-Europakommandos, vor dem Streitkräfteausschuss des US-Senats wurden allein auf russischer Seite schätzungsweise 3.000 Kampfpanzer sowie 9.000 gepanzerte Fahrzeuge vernichtet. Als Hauptwaffe der ukrainischen Seite identifizierte Cavoli die Einwegdrohne zum Herstellungspreis von rund 400 Dollar.
Armin Papperger, Chef des deutschen Rüstungskonzerns Rheinmetall, einem der weltgrößten Panzerhersteller, zeigte sich gegenüber The Atlantic [3] davon unbeeindruckt. "Das ist wie mit Lego spielen", wird er zitiert. Und weiter:
"Was ist die Innovation der Ukraine? Sie haben keinen technologischen Durchbruch. Sie machen Innovationen mit ihren kleinen Drohnen und sagen: 'Wow!' Das ist großartig. Na und. Aber das ist nicht die Technologie von Lockheed Martin, General Dynamics oder Rheinmetall."
Im Artikel von The Atlantic wundert man sich, dass Rheinmetall bis heute keine Schutzvorrichtungen gegen Drohnenangriffe für seine Panzer entwickelt hat.
Allem Anschein nach steht der Konzernchef damit exemplarisch für eine strukturelle Unfähigkeit westlicher Militärapparate, die neuen Schlachtfeldrealitäten anzuerkennen. Was in der Ukraine gerade passiert, gilt wohl als Behelfslösung von Amateurstaaten.
Was aus dem Iran kommt, gilt als Bedrohung zweiter Klasse. Der Krieg in der Ukraine und der Krieg gegen den Iran zeigen allerdings, wie gefährlich diese Haltung ist.
Denn wir sehen eine grundlegende Verschiebung im Charakter des Krieges: Wirkung wird nicht mehr primär durch komplexe Plattformen erzeugt, sondern durch massenhaft verfügbare, präzise und verlusttolerante Wirkmittel. Drohnen, Sensoren und günstige Angriffssysteme bilden ein Gefechtsfeld, auf dem nicht mehr einzelne Systeme dominieren, sondern ihre Skalierung. Und bald schon ihre Vernetzung.
Der Iran hat das offenbar verinnerlicht. Am 17. Januar 2025 unterzeichneten Russland und Iran in Moskau einen Zwanzigjahresvertrag über eine umfassende strategische Partnerschaft, der unter anderem engere Geheimdienstkooperation, gemeinsame Militärübungen und die Entwicklung militärisch-technischer Zusammenarbeit vorsieht.
Vor allem aber bestätigte Russlands Präsident Wladimir Putin bei der Unterzeichnung öffentlich, was westliche Geheimdienste seit Jahren vermuteten: Moskau informiere Teheran regelmäßig über den Verlauf des Ukraine-Krieges, wie Reuters [4] berichtete.
Russland hatte ab 2022 iranische Shahed-Drohnen in der Ukraine eingesetzt, sie dort weiterentwickelt — mit verbesserter Navigation, Antijamming-Systemen, teils Jet-Antrieb, teils KI-Steuerung — und liefert nun verbesserte Varianten zurück [5] an den Iran.
Der britische Militärgeheimdienst stufte es laut AP als nahezu sicher ein, dass Russland den Iran vor Kriegsbeginn mit Training und Informationen über Drohnentechnologie und elektronische Kriegsführung versorgt hat.
Erst im Januar 2025 integrierte die iranische Armee nach Angaben der Staatszeitung Tehran Times [6] 1.000 neue Drohnen in ihre Kampfverbände — darunter Systeme für Aufklärung, Angriff und elektronische Kriegsführung.
Eine weitere Tranche folgte im Januar 2026, deren technische Spezifikationen nach offiziellen iranischen Angaben ausdrücklich aus den Erfahrungen des Zwölf-Tage-Krieges vom Juni 2025 abgeleitet wurden.
Im Mai 2025 präsentierte die iranische Armee in Zahedan drei neue Drohnentypen: den Homa, einen VTOL-Aufklärer für elektronisch umkämpften Luftraum, den Dideban für koordinierte Schwarmeinsätze, und den Shahin-1 — eine FPV-Suiziddrohne gegen mobile Ziele. Brigadegeneral Kioumars Heidari, Kommandeur der Heereslandstreitkräfte, brachte die Strategie auf eine Formel, die Tehran Times [7] zitierte:
"Unsere Vision ist es, eine Streitmacht aufzubauen, die auf diesen Technologien aufgebaut ist."
Dass die Anstrengungen erfolgreich gewesen sein könnten, zeigen die jüngsten Ereignisse im Irak: Am 24. März 2026 veröffentlichten iranisch unterstützte irakische Milizen Videoaufnahmen eines Angriffs auf die Victory Base am Flughafen Bagdad, einen formal an die irakische Regierung übergebenen, aber weiterhin von US-Kräften genutzten Komplex.
Das Filmmaterial, das mit einer glasfasergesteuerten [8] FPV-Drohne aufgenommen wurde, zeigt einen US-amerikanischen Black-Hawk-Hubschrauber sowie ein Sentinel-Luftüberwachungsradar als Ziele. Dem Fachmagazin The War Zone [9] zufolge handelte es sich um den ersten bekannten erfolgreichen Angriff dieser Art auf ein US-Militärluftfahrzeug.
Bereits Mitte März hatte eine mit dem Iran verbündete Miliz eine FPV-Drohne fast zwei Minuten lang ungehindert über das Gelände der US-Botschaft in Bagdad fliegen [10] lassen. Gegenmaßnahmen waren in keinem der Fälle zu erkennen.
Glasfasergesteuerte FPV-Drohnen senden keine Funksignale — sie sind damit immun gegen elektronische Kampfführung und Jamming, die bisher als erste Verteidigungslinie gegen kleine Drohnen galten. Sie können in Bodennähe fliegen, wo herkömmliche Radarsysteme blind sind, und Spulen mit bis zu fünfzig Kilometern Glasfaserkabel erlauben Angriffe aus großer Entfernung.
Russland hatte diese Technologie ab März 2024 in der Ukraine eingeführt und damit entscheidende taktische Vorteile erzielt. Dass iranisch unterstützte Milizen sie nun in Bagdad einsetzen, legt nach Einschätzung von Forbes nahe, dass Russland entweder Drohnen direkt geliefert oder technisches Know-how weitergegeben hat.
Auch das Militärkommando der USA zieht Lehren aus dem Ukraine-Krieg. Oberst Donald Ray Neal, Kommandeur des 2. Kavallerieregiments, der größten US-Kampfformation in Europa, beschrieb bei einem Pressegespräch [11] im März 2026 offen, was seine Einheit von ukrainischen Soldaten gelernt hat: den koordinierten Einsatz von Drohnen, Gegendrohnenmaßnahmen und elektronischer Kriegsführung als integriertem System.
Das Projekt "Flytrap", mit dem das Regiment offensive Drohnenabwehrfähigkeiten entwickelt, läuft seit 2025 — die nächste Iteration ist für Mai 2026 in Litauen geplant, mit rund sechzig verschiedenen Geräten von sechzig Anbietern.
Dass ein solches Programm noch in der Erprobungsphase steckt, sagt viel über den Stand der Dinge.
Beim Marinekorps sieht es kaum anders aus. Erst Ende 2025 genehmigte es sechs neue Pilotlehrgänge [12] für kleine unbemannte Systeme, darunter erstmals einen Lehrgang für den tödlichen Einsatz von Angriffsdrohnen. Die ersten FPV-Teams der US-Marines befinden sich laut Wall Street Journal [13] noch in einer frühen Ausbildungsphase.
Michael Kofman, Senior Fellow an der Carnegie Endowment for International Peace, brachte den Befund gegenüber dem Wall Street Journal auf den Punkt:
"Wir befinden uns noch in den frühen Phasen, in denen das US-Militär versucht, die FPV-Technologie zu verstehen und ihre Auswirkungen zu begreifen. Wenn man sich die verfügbaren Abwehrfähigkeiten ansieht, haben wir noch einen langen Weg vor uns, bis wir dort sind, wo die Ukraine heute steht."
US-Präsident Trump hat da eine andere Wahrnehmung. Auf das Angebot Kiews, Drohnenexpertise bereitzustellen, antwortete er im März 2026 lapidar:
"Wir brauchen ihre Hilfe bei der Drohnenabwehr nicht. Wir wissen mehr über Drohnen als irgendjemand sonst."
Der ehemalige ukrainische Außenminister Pawlo Klimkin sah das anders.
"Keine Streitkräfte sind auf diese Herausforderung vorbereitet, nicht die Amerikaner und nicht die Europäer", sagte er dem Wall Street Journal. "Nicht technisch, nicht mental und nicht von der Erfahrung her."
Die genauen Fähigkeiten des Iran im Bereich der Drohnenkriegsführung sind von außen nicht vollständig zu beurteilen. Was sich jedoch aus den verfügbaren Quellen ergibt: Teheran hat vier Jahre Zeit gehabt, die Lektionen des Ukraine-Krieges mit russischer Unterstützung systematisch auszuwerten und in die eigenen Streitkräfte zu integrieren.
Iran besitzt augenscheinlich als eines der wenigen Länder weltweit eine eigenständige Fertigungskapazität für FPV-Kampfdrohnen. Und man hat diese Technologie bereits an regionale Verbündete weitergegeben, die sie gegen US-Ziele einsetzen.
Die USA hingegen stehen vor einer strukturellen Herausforderung, die sich nicht in wenigen Wochen beheben lässt: Ihre Militärdoktrin, ihre Beschaffungslogik und ihre Ausbildung sind auf ein Schlachtfeld ausgerichtet, das es in dieser Form nicht mehr gibt. Die Transformation läuft — aber sie läuft hinterher.
Ob der Iran seine Drohnenfähigkeiten tatsächlich so tief in seine Streitkräfte integriert hat, wie es die jüngsten Ereignisse andeuten, wird sich erst im Ernstfall zeigen.
URL dieses Artikels:
https://www.heise.de/-11245488
Links in diesem Artikel:
[1] https://www.washingtonpost.com/national-security/2026/03/28/trump-iran-ground-troops-marines/
[2] https://www.theatlantic.com/national-security/2026/03/who-needs-tanks-age-drones/686540/
[3] https://www.theatlantic.com/national-security/2026/03/who-needs-tanks-age-drones/686540/
[4] https://www.reuters.com/world/iranian-president-arrives-moscow-treaty-signing-with-putin-tass-says-2025-01-17/
[5] https://apnews.com/article/russia-iran-drones-shahed-war-israel-ukraine-840b4f885d99714bdb7813c0d56213cf
[6] https://www.tehrantimes.com/news/508653/Army-receives-1-000-new-drones-in-move-that-allows-it-to-command
[7] https://www.tehrantimes.com/news/513423/An-army-built-on-drones-top-commander-affirms-as-Iran-unveils
[8] https://www.criticalthreats.org/analysis/iran-update-march-25-2026
[9] https://www.twz.com/air/drone-attack-on-parked-u-s-army-black-hawk-in-iraq-a-harbinger-of-whats-to-come
[10] https://www.forbes.com/sites/davidhambling/2026/03/16/fpv-drone-attack-on-us-victory-base-in-iraq-is-a-stark-warning/
[11] https://www.army.mil/article/290948/2nd_cavalry_regiment_army_current_operations_engagement_tour_media_roundtable
[12] https://news.usni.org/2026/01/16/marines-training-to-field-small-drones-in-combat-units-by-years-end?utm_source=chatgpt.com
[13] https://www.wsj.com/world/middle-east/iran-drone-warfare-russia-ukraine-b7369cf6
Copyright © 2026 Heise Medien
Die lebenden Vorbilder der Terrakottaarmee sind über die Qin-Straße marschiert.
(Bild: chasethestorm.com, shutterstock)
Vor 2200 Jahren baute China eine Straße, die so breit war wie moderne Autobahnen. Archäologen haben nun einen gut erhaltenen Abschnitt gefunden.
Das alte China ist für architektonische Meisterleistungen wie die große Mauer oder den heute noch in Betrieb befindlichen Kaiserkanal bekannt. Doch Straßen konnte das Reich der Mitte ebenfalls bauen – in Dimensionen, die den Vergleich mit römischen Bauwerken aus der Antike nicht zu scheuen brauchen.
Kürzlich haben chinesische Archäologen einen neuen, 13 Kilometer langen Abschnitt der legendären Qin-Straße freigelegt, wie das Forschungsinstitut für Kulturerbe von Yulin in der Provinz Shaanxi mitteilt [1]. Die Entdeckung liefert neue Belege für das 2200 Jahre alte Straßenprojekt, das einst fast 900 Kilometer durch Nordchina verlief.
Die Ausgrabungen zeigen raffinierte Bautechniken: gerade ausgerichtete Grabenpassagen, gestampfte Erdverstärkungen an den Hängen, ein sorgfältig verdichtetes Straßenbett und aufgefüllte Täler. Die Straße war durchschnittlich etwa 40 Meter breit. Das reicht für vier Fahrspuren und entspricht den Dimensionen moderner Autobahnen.
Kaiser Qin Shihuang [2] gab den Bau in Auftrag, nachdem er 221 vor Christus die sechs rivalisierenden Königreiche erobert und China zum ersten Mal geeint hatte. Der Herrscher befahl General Meng Tian, eine Straße zu bauen, die die Guanzhong-Ebene – das Herzland der Qin-Dynastie – mit der Großen Mauer im Norden verbinden [3] sollte.
Meng führte 300.000 Mann der besten Truppen der Qin an, beaufsichtigt von Fu Su, dem ältesten Sohn des Kaisers. Die Straße sollte in erster Linie militärischen Zwecken dienen [4]: den Transport von Soldaten und Nachschub an die Grenzen zu den nomadischen Völkern beschleunigen und die Inspektionsreisen des Kaisers in den gefährlichen Norden erleichtern.
Den berühmten Ausspruch von US-General Omar Bradley, "Amateure reden über Strategie, Profis über Logistik", hat man demnach offensichtlich schon im alten China beherzigt.
Der Historiker Sima Qian, der während der frühen Han-Dynastie die Straße bereiste, hinterließ die frühesten und detailliertesten Aufzeichnungen über das Projekt. Nach seinen Angaben erstreckte sich die Straße von Liangwudi im Kreis Chunhua in Shaanxi bis nach Baotou in der Inneren Mongolei.
Die Arbeiten dauerten nur etwa zweieinhalb Jahre, weil Kaiser Qin Shihuang im Jahr 210 vor Christus plötzlich starb. Trotz der kurzen Bauzeit wurde der Hauptteil der Straße fertiggestellt. Das Ergebnis war eine ebene Straße mit einer Breite von 20 bis 60 Metern, je nach Gelände. Entlang der Straße wurden Dutzende von Kurierstationen, Pässe und Festungen errichtet.
Die Bauherren versuchten, die Hänge sanft zu gestalten, die Straße gerade zu führen und ihre Oberfläche stabil zu machen. Die Mischung für das Straßenbett enthielt Kies und große Mengen an "gekochter Erde" – Erdreich, das auf hohe Temperaturen erhitzt wurde, teilweise um alle Pflanzen und Tiere abzutöten. Reiswasser diente als Bindemittel. Steinwalzen machten die Straßenoberfläche eben und kompakt.
Wang Zijin, ein Historiker an der Renmin-Universität in Peking, der auf die Qin- und Han-Dynastien spezialisiert ist, sagt [5], die Straße habe auch als Verteidigungsbefestigung für Xianyang dienen können, falls feindliche Streitkräfte die Große Mauer durchbrochen hätten. Die Straße verlief entlang des Ziwu-Gebirgszuges und überblickte das Tal auf beiden Seiten – die Hauptroute für Eindringlinge aus dem Norden.
"Die Große Mauer ist wie ein Schild, während die gerade Straße wie ein Speer ist. Und wenn die Große Mauer ein Bogen ist, ist die gerade Straße ein Pfeil", sagte Wang.
Die Straße spielte während der gesamten Han-Dynastie bis etwa 200 Jahre nach Christus eine wichtige Rolle bei der Aufrechterhaltung der Stabilität im Norden, weil der Herrscher über die Straße schnell Truppen entsenden konnte.
Die Straße blieb bis zum Ende der Qing-Dynastie im Jahr 1911 in Betrieb. Über mehr als 2000 Jahre diente sie als Transportader für kommerziellen, kulturellen und religiösen Austausch zwischen den Han-Bauern im Süden und den nomadischen Völkern des Nordens.
Zhang Haibin, ein Forscher bei der Kulturverwaltung der Baotou-Regierung, sagte, die Straße habe vielen Menschen aus dem Süden erst ermöglicht, sich in der Hetao-Ebene niederzulassen, was den Einfluss der Han-Bevölkerung in einer Region verstärkte, in der zuvor die mongolischen und Hui-Ethnien dominierten.
Wang Junmin, ein Bauer im Dorf Liangwudi, dem Startpunkt der Straße, sagte: "Obwohl die Straße heutzutage nicht mehr genutzt wird, hat sie im Leben der örtlichen Bewohner weiterhin Bedeutung. Viele unserer Häuser und Höfe wurden mit antiken Ziegeln und Dachziegeln gebaut, die in ihrer Nähe gefunden wurden. Sie sind von guter Qualität und selbst heute ideale Baumaterialien."
Erst 1962 wurden Archäologen auf die Straße aufmerksam, als eine nationale Zeitung einen Essay eines lokalen Reporters zu diesem Thema veröffentlichte. In den 1970er und späten 1980er Jahren organisierten Archäologen, Historiker und Künstler Feldforschungstouren entlang der verbliebenen Straße. Ihre Erkenntnisse stimmten weitgehend mit Sima Qians Aufzeichnungen überein.
In den 1990er Jahren und im ersten Jahrzehnt dieses Jahrhunderts stellten Shaanxi, Gansu und die Innere Mongolei, die drei Provinzen, durch die die Straße verläuft, einzelne Abschnitte unter staatlichen Schutz und verwandelten einige davon in touristische Attraktionen. Trotz dieser Maßnahmen liegt ein Großteil der einst belebten Straße unter Gras begraben.
Heute können Besucher entlang des Ziwu-Gebirgszuges noch immer Überreste sehen: Der Kamm des Gebirges ist entweder mit kurzem Gras bedeckt oder kahl, was ihn wie einen 10 bis 60 Meter breiten Gürtel aussehen lässt, der sich entlang der Länge des Gebirges schlängelt.
URL dieses Artikels:
https://www.heise.de/-11244613
Links in diesem Artikel:
[1] https://www.scmp.com/news/china/science/article/3337302/chinese-archaeologists-discover-well-preserved-section-2200-year-old-4-lane-highway
[2] https://www.planet-wissen.de/geschichte/archaeologie/archaeologie_in_china/qin-shihuangdi-der-erste-kaiser-von-china-100.html
[3] https://www.chinadaily.com.cn/global/img/attachement/jpg/site1/20190502/a41f726719b21e34773624.jpg
[4] https://www.chinadaily.com.cn/global/2019-05/02/content_37464912.htm
[5] https://www.seetaoe.com/details/31721.html
Copyright © 2026 Heise Medien
(Bild: Mongta Studio/Shutterstock.com)
Google Drive erhält zwei neue Sicherheitsfunktionen: eine Ransomware-Erkennung und eine massenhafte Dateiwiederherstellung.
Google hat für Google Drive zwei neue Sicherheitsfunktionen allgemein freigegeben: eine Ransomware-Erkennung und eine massenhafte Dateiwiederherstellung. Nach einer Beta-Phase, die im September 2025 startete, stehen beide Funktionen nun zur Verfügung.
Die Ransomware-Erkennung arbeitet im Desktop-Client von Drive. Erkennt der Client verdächtige Aktivität, stoppt er automatisch die Synchronisation. Das überarbeitete KI-Modell erkennt dabei laut Google 14-mal mehr Infektionsarten als noch in der Beta-Phase. Der Nutzer sieht eine Warnung auf seinem Rechner und erhält ebenfalls eine E-Mail; der zuständige Administrator bekommt parallel eine E-Mail und einen Alert im Security Center der Admin Console. So soll verhindert werden, dass verschlüsselte Dateien in die Cloud wandern und dort intakte Versionen überschreiben.
Zusätzlich können Nutzer jetzt mehrere Dateien mit einem Schlag auf einen früheren Stand zurücksetzen – etwa auf den Zeitpunkt vor einem Ransomware-Befall. Das erspart das mühsame Wiederherstellen einzelner Dateien und soll laut Googles Ankündigung [1] dafür sorgen, dass Betroffene kein Lösegeld zahlen müssen.
Beide Funktionen sind standardmäßig aktiv. Administratoren können sie in der Admin Console unter den Einstellungen für Drive und Docs auf Ebene einzelner Organisationseinheiten ein- oder ausschalten. Für die vollständige Alert-Funktionalität der Erkennung setzt Google mindestens Version 114 von Drive for Desktop voraus. Bei älteren Versionen pausiert die Synchronisation im Verdachtsfall zwar ebenfalls, die Desktop-Benachrichtigung fehlt jedoch.
Die Dateiwiederherstellung steht allen Google-Workspace-Kunden, Workspace-Individual-Abonnenten und Nutzern mit privatem Google-Konto offen. Die Ransomware-Erkennung beschränkt Google [2] dagegen auf ausgewählte Tarife: Business Standard und Plus, die Enterprise-Editionen Starter, Standard und Plus sowie Education Standard und Plus und Frontline Standard und Plus.
URL dieses Artikels:
https://www.heise.de/-11244868
Links in diesem Artikel:
[1] https://workspaceupdates.googleblog.com/2026/03/ransomware-detection-and-file-restoration-for-Google-Drive-now-generally-available.html
[2] https://www.heise.de/thema/Google
[3] https://www.heise.de/ix
[4] mailto:fo@heise.de
Copyright © 2026 Heise Medien
Ab sofort lassen die USA für Verbraucher nur noch im Inland hergestellte Router zu. Die Vorgaben des FCC sind jedoch unrealistisch und sicherheitsmäßig heikel.
Wie jüngst von der Regulierungsbehörde Federal Communications Commission (FCC) beschlossen wurde, dürfen in den USA neue Router für den Verbrauchermarkt nur noch verkauft werden, wenn sie komplett lokal entwickelt und gefertigt wurden [1]. Die Crux: Es gibt weder Produzenten noch Geräte, die diese Vorgaben erfüllen.
Bereits genehmigte Routermodelle dürfen zwar weiterhin verkauft und vorhandene Exemplare weiter genutzt werden. Sie bekommen aber nur noch bis zum 1. März 2027 Sicherheitsupdates. Als Grund für das umfassende Verbot erklärte die FCC, die ausländischen Verbraucher-Router stellten ein „inakzeptables Risiko für die nationale Sicherheit“ dar.
Dass die Made-in-USA-Vorgaben der FCC unrealistisch sind, zeigt sich schon beim Blick in hiesige Router für Konsumenten. So lässt etwa die Deutsche Telekom ihren Speedport-7-Router von Arcadyan mit Mediatek-Funkchips herstellen, die zugehörigen Repeater namens „WLAN-Verstärker“ mit Qualcomm-WLAN-Bausteinen dagegen bei WNC. Beide Firmen sind in Taiwan beheimatet, betreiben aber nicht nur Fabriken, sondern auch Entwicklungsbüros in China und anderen asiatischen Ländern.
(Bild: Bild: Deutsche Telekom)
In manch asiatischem Routermodell steckt eine mit heißer Nadel aus Open-Source-Quellen zusammengestrickte Firmware. Dass der Hersteller eine Backdoor in die Firmware einpflanzt, ist zwar nicht unmöglich, aber unwahrscheinlich. Denn dann benötigt die Software womöglich mehr Platz, als der ursprünglich vorgesehene billige Flash-Baustein bietet, vielleicht auch mehr RAM; beides treibt die Kosten und ist gerade angesichts der gestiegenen Speicherpreise unrealistisch.
Dabei braucht es meist gar keine Backdoor, es genügen die fast im Monatsrhythmus aufpoppenden Lücken, um das Internet mit einem per Botnet ausgelösten Distributed-Denial-of-Service weltweit empfindlich zu stören. Wenn die vorhandenen Router keine Sicherheitsupdates mehr bekommen, stehen die Scheunentore für Schädlinge weit offen. Außerdem: Welche Geheimnisse fänden sich in einem privaten Router, abgesehen von mehr oder weniger nützlichen Metadaten? Der hindurchgehende interessante Verkehr läuft schließlich, schwer knackbar, TLS-geschützt. Deshalb wäre es effizienter, dessen Quelle oder Senke – also den Server beziehungsweise das Endgerät – zu kompromittieren.
Es bleibt das Risiko, dass der private Router als Sprungbrett ins interne Netz dient. Doch auch da ist es effizienter, die Betriebssystem-Monokulturen und Apps zu unterwandern und das Login gleich mit aufzuschnappen.
Hinzu kommt: Die „Freedom-Router“ werden unweigerlich ausnutzbare Bugs haben, denn Programmierer sind Menschen und Menschen machen Fehler. Die Lücken werden womöglich sogar zahlreicher, wenn man die Firmware der KI überantwortet, weil es daheim zu wenig kompetente Entwickler gibt, um wenigstens die KI-Ergebnisse zu prüfen. Wie sich der Graben zwischen Hier-gebaut-Anspruch und Kompetenz-weit-weg überbrücken lässt, verrät die Regulierungsbehörde nicht.
Unternehmen können zwar Ausnahmegenehmigungen für ihre Router beantragen, müssen dabei aber umfassend über Lieferketten und Interna informieren, etwa zu Firmenstruktur, Partnern und Joint Ventures, Eigentümern sowie Management. Sie müssen für jedes einzelne Modell alle Bestandteile des Routers samt Herkunftsland deklarieren, wo es entwickelt, gefertigt und zusammengebaut wird, woher Firmware und Software kommen und vor allem eine Rechtfertigung, warum das Gerät nicht in den USA produziert wird.
Zusätzlich muss jeder Ausnahmebewerber einen „detaillierten, zeitlich verpflichtenden Plan zur Etablierung oder Erweiterung der Produktion in den USA“ für das jeweilige Modell vorlegen, samt bereits ausgegebener und geplanter Investitionssummen, Geldquellen und exakter Zeitreihen sowie Meilensteine. Genehmigungen werden aber nur befristet erteilt.
Abgesehen von der Preisgabe wettbewerbsrelevanter Informationen bleibt fraglich, ob sich dieser Aufwand bei Routern für den Verbrauchermarkt, die in der Regel geringe Margen abwerfen, für die Anbieter überhaupt rechnet.
URL dieses Artikels:
https://www.heise.de/-11241349
Links in diesem Artikel:
[1] https://www.heise.de/news/USA-verbieten-alle-neuen-Router-fuer-Verbraucher-11222044.html
[2] https://www.heise.de/ct
[3] mailto:uk@ct.de
Copyright © 2026 Heise Medien