(Bild: jhxfilm / Shutterstock.com)
Die Eskalation im Nahen Osten lähmt den Ölhandel durch die Straße von Hormus. Verbrauchern drohen höhere Spritpreise und eine neue Inflationswelle.
Der Krieg, den die USA und Israel gegen den Iran entfacht haben, hat eine der wichtigsten Handelsrouten der Welt lahmgelegt: die Straße von Hormus. Durch die schmale Wasserstraße zwischen Iran und Oman gelangt etwa ein Fünftel des Erdöls auf den Weltmarkt.
Seit dem Wochenende meiden jedoch zahlreiche Tanker die Region, berichtet etwa [1] das Wall Street Journal (WSJ), weil Reedereien das Sicherheitsrisiko als zu hoch einschätzen. Einige Schiffe steuerten demnach Ausweichhäfen in Katar und den Vereinigten Arabischen Emiraten an, andere verließen die Golfregion vollständig.
Am Freitag lag der Preis für die Nordsee-Sorte Brent bei rund 72 Dollar pro Barrel. Fachleute von Capital Economics halten laut WSJ-Bericht bei einer begrenzten Konfrontation einen Sprung auf 80 Dollar für realistisch.
Anders sieht es aus, sollte der Seeweg für längere Zeit blockiert sein. Dann wäre demnach auch die Marke von 100 Dollar erreichbar.
Solche Preissprünge treffen Verbraucher gleich doppelt: Zunächst steigen die Kosten an der Zapfsäule. Ferner verteuert sich Erdöl als Grundstoff für Logistik, Fertigung und Verpackung – und damit würden auch die Preise vieler Alltagsprodukte steigen.
Klettert der Barrel-Preis auf 100 Dollar, könnte die weltweite Teuerungsrate nach Berechnungen von Capital Economics um bis zu 0,7 Prozentpunkte zulegen. Edward Fishman vom Council on Foreign Relations ordnet die Lage gegenüber dem WSJ so ein: "Die Auswirkungen dieses Krieges könnten weitreichend sein, da Öl ein wichtiger Rohstoff für einen Großteil der Weltwirtschaft ist".
Notenbanken weltweit hatten zuletzt begonnen, ihre Leitzinsen vorsichtig zu senken – in der Erwartung, dass die Teuerungswelle der vergangenen Jahre abebbt. Ein erneuter Schub der Energiepreise könnte diesen Kurs abrupt beenden.
Im schlimmsten Fall müssten Zentralbanken wie die US-Notenbank Fed die Zinsen sogar wieder anheben, um die Inflation einzufangen. Für Millionen Kreditnehmer würde das spürbar höhere Raten bei Bau- und Konsumfinanzierungen nach sich ziehen.
Rund um die Meerenge herrscht Verwirrung. Irans Revolutionsgarde funkte Schiffsbesatzungen an, die Passage sei "derzeit unsicher". Außenminister Abbas Araghchi erklärte dagegen, sein Land wolle die Wasserstraße keineswegs sperren.
Fast zeitgleich meldete Teheran am Sonntag jedoch Angriffe auf drei Öltanker [2] in der Nähe der Route.
Mit dem Risiko steigen auch die Versicherungsprämien für Reeder an. Wie Bloomberg berichtet, hätten zwei Versicherer erklärt, dass mit einem drastischen Anstieg zu rechnen sei. Und das dürfte ebenfalls ein Kostenfaktor sein, der am Ende von den Verbrauchern getragen wird.
Trotz der angespannten Lage gibt es Gegengewichte. Saudi-Arabien hat einen Notfallplan in Kraft gesetzt und kann Teile seiner Exporte über eine Pipeline ans Rote Meer umleiten, also an der Meerenge vorbei.
Zusätzlich verständigte sich die Allianz der Förderländer OPEC+ am Sonntag auf eine Ausweitung der Produktion ab April. Marktbeobachter bezweifeln aber, dass dadurch die Preise bei einem längeren Konflikt gedrückt werden könnten. Denn solange Tanker die Golfregion nicht sicher verlassen können, nützt zusätzliches Erdöl an der Quelle wenig.
Einen weiteren Puffer bilden die strategischen Ölreserven der USA und Chinas. Peking hatte in den vergangenen Monaten große Mengen Rohöl eingelagert und könnte bei steigenden Preisen vorübergehend auf Zukäufe verzichten. Auch die weltweit auf Tankern schwimmenden Vorräte befinden sich derzeit auf hohem Niveau.
Die zentrale Frage lautet, wie lange die Blockade anhält. Mehrere Analysten rechnen damit, dass Washington den Druck erhöhen wird, den Schiffsverkehr wieder abzusichern – etwa durch Geleitschutz der US-Marine.
Präsident Trump hatte wiederholt niedrige Energiepreise versprochen; steigende Kosten an der Tankstelle würden den politischen Handlungsdruck erhöhen.
Jorge Leon von der Beratungsfirma Rystad Energy warnt laut Bloomberg dennoch: "Sofern nicht schnell Signale für eine Deeskalation zu erkennen sind, rechnen wir zu Beginn der Woche mit einem deutlichen Anstieg der Ölpreise".
URL dieses Artikels:
https://www.heise.de/-11194406
Links in diesem Artikel:
[1] https://www.wsj.com/world/middle-east/trumps-war-on-iran-threatens-to-drive-up-oil-prices-and-inflation-8fda38a8
[2] https://www.bloomberg.com/news/articles/2026-03-01/oil-s-worst-nightmare-is-here-as-gulf-conflict-hits-hormuz
Copyright © 2026 Heise Medien
Nicht mehr auszuschließen: Schwarzes Loch über dem Himmel von Frankfurt.
(Bild: KI)
Astronomen haben ein Schwarzes Loch gefunden, das mit enormer Geschwindigkeit durch den Weltraum rast und dabei eine Spur aus Sternen gebiert.
Die erste Entdeckung eines frei fliegenden, supermassereichen Schwarzen Lochs haben jetzt Astronomen der Yale-Universität bestätigt. Wie die Nasa mitteilt [1], rast das Objekt mit einer Geschwindigkeit durch den intergalaktischen Raum, die es ihm unmöglich macht, unterwegs noch sehr viel Masse zu verschlingen.
Das Schwarze Loch hinterlässt dabei eine Spur aus neugeborenen Sternen, die 200.000 Lichtjahre lang ist – das entspricht dem doppelten Durchmesser unserer Milchstraße. Die Entdeckung bestätigt eine theoretische Vorhersage, die vor fünfzig Jahren gemacht wurde.
Die Entdeckung erfolgte durch Zufall, wie der leitende Astronom Pieter van Dokkum von der Yale-Universität berichtet. Dabei suchte er eigentlich nach Kugelsternhaufen in einer nahegelegenen Zwerggalaxie, als er in Aufnahmen des Hubble-Weltraumteleskops eine fast schnurgerade Lichtlinie entdeckte.
"Das war reiner Zufall, dass wir darüber gestolpert sind", sagte van Dokkum laut einer Mitteilung der Universität. Zunächst hielt er die Linie für einen Bildfehler, der durch kosmische Strahlung verursacht wurde. Doch nachdem das Team solche Artefakte ausgeschlossen hatte, blieb die Struktur sichtbar.
Die Spur zeigte sich als außergewöhnlich hell – fast halb so hell wie die Heimatgalaxie, mit der sie verbunden ist. Das deutete darauf hin, dass entlang der Linie eine große Anzahl neuer Sterne entstanden sein musste.
Die entscheidenden Beweise [2] lieferte dann das James-Webb-Weltraumteleskop (JWST). Van Dokkum und sein Team nutzten das NIRSpec-Instrument [3] des JWST, das gleichzeitig Bilder aufnimmt und Spektren analysiert. Damit können Astronomen nicht nur Objekte sehen, sondern auch deren Zusammensetzung, Temperatur und Bewegung bestimmen.
Die Beobachtungen zeigten eine Stoßwelle an der Spitze der Struktur. "Wir glauben, dass wir das Kielwasser hinter dem Schwarzen Loch sehen, wo das Gas abkühlt und Sterne bilden kann", erklärte van Dokkum. Das Gas vor dem Schwarzen Loch wurde vorher durch den Aufprall komprimiert und erhitzt.
Diese Kombination aus einer langen Sternenspur und der Bugstoßwelle bestätigt, dass es sich um das erste nachgewiesene fliehende Schwarze Loch handelt.
Das supermassive Schwarze Loch hat nach Schätzungen der Forscher eine Masse zwischen zehn und zwanzig Millionen Sonnen. Es bewegt sich mit einer Geschwindigkeit von etwa 1.000 Kilometern pro Sekunde durch den Raum – das entspricht rund 3,6 Millionen Kilometern pro Stunde.
Das komprimierte Gas kühlt ab und bildet neue Sterne entlang eines schmalen Korridors. An der äußersten Spitze der Spur befindet sich ein auffallend heller Knoten aus ionisiertem Sauerstoff. Die Forscher vermuten, dass das Gas dort entweder durch die Bewegung des Schwarzen Lochs oder durch Strahlung von einer Akkretionsscheibe um das Schwarze Loch herum erhitzt wird.
Die wahrscheinlichste Erklärung für die extreme Geschwindigkeit des Schwarzen Lochs ist ein seltenes Szenario, das die Forscher als "kosmisches Billard" beschreiben. Dabei kollidierten vermutlich drei Galaxien miteinander und somit gerieten auch die Singularitäten in ihren Zentren aneinander.
Zunächst verschmolzen zwei Galaxien, deren Schwarze Löcher ein binäres System bildeten und umeinander kreisten. Als eine dritte Galaxie mit ihrer eigenen Singularität hinzukam, entstand eine chaotische und instabile Konstellation – eine wahrhaft gigantische Variante des Drei-Körper-Problems [6].
Eines der Schwarzen Löcher raubte den beiden anderen offensichtlich einiges von ihrer Bewegungsenergie und wurde dabei aus der Heimatgalaxie geschleudert.
Diese Singularität schießt nun seit etwa 60 Millionen Jahren in die eine Richtung davon, während das verbliebene binäre System in die entgegengesetzte Richtung fliegt. Die Forscher fanden Hinweise auf eine solche Struktur auf der gegenüberliegenden Seite der Ursprungsgalaxie. Zudem gibt es keine Anzeichen für ein aktives Schwarzes Loch im Zentrum der Ursprungsgalaxie mehr.
Eine alternative theoretische Erklärung wäre ein Rückstoß durch Gravitationswellen. Wenn zwei Schwarze Löcher verschmelzen und dabei Gravitationswellen asymmetrisch in eine Richtung aussenden, kann das resultierende Schwarze Loch wie eine Rakete in die entgegengesetzte Richtung geschossen werden [7]. Diese Theorie wurde durch Beobachtungen der Gravitationswellen-Observatorien LIGO und Virgo untermauert.
Die Forscher planen inzwischen Folgebeobachtungen mit dem Chandra-Röntgenobservatorium der NASA, um ihre Erkenntnisse weiter zu bestätigen. Das im Bau befindliche Nancy Grace Roman Space Telescope [8] könnte zudem künftig systematisch nach weiteren solchen Objekten suchen. Maschinelles Lernen könnte dabei helfen, diese einzigartigen "Sternenstreifen" in den Datenmengen zu finden.
Die Entdeckung hat jedoch klar gezeigt, dass das Universum immer wieder wahrhaft gigantische Überraschungen bereithält: Frei im tiefen All herumfliegende Schwarze Löcher sind jetzt nicht mehr bloße Theorie, sondern erwiesene Realität.
URL dieses Artikels:
https://www.heise.de/-11193582
Links in diesem Artikel:
[1] https://science.nasa.gov/missions/hubble/hubble-sees-possible-runaway-black-hole-creating-a-trail-of-stars/
[2] https://www.universetoday.com/articles/thank-the-jwst-for-confirming-the-first-runaway-supermassive-black-hole
[3] https://www.esa.int/Science_Exploration/Space_Science/NIRSpec_factsheet
[4] https://science.nasa.gov/asset/hubble/runaway-black-hole-compass-image/
[5] https://creativecommons.org/publicdomain/zero/1.0/
[6] https://de.wikipedia.org/wiki/Dreik%C3%B6rperproblem
[7] https://www.scientificamerican.com/article/gravitational-waves-send-supermassive-black-hole-flying/
[8] https://science.nasa.gov/mission/roman-space-telescope/
Copyright © 2026 Heise Medien
Betrüger täuschen mit KI-Deepfakes ganze Videokonferenzen vor – und erbeuten so Millionen von ahnungslosen Mitarbeitern.
Neue IT-Systeme bestimmen vielerorts den Arbeitsalltag, in der Praxis kommt es bei der Anwendung aber oft zu Problemen. Künstliche Intelligenz ist weit verbreitet. 40 Prozent der Unternehmen hierzulande nutzen bereits KI, 21 Prozent planen den Einsatz in naher Zukunft.
Das ergab eine Untersuchung [1] des "Instituts für Lernen und Innovation in Netzwerken" der Hochschule Karlsruhe, dabei wurden mittelständische Unternehmen mit 20 bis 500 Beschäftigten befragt.
Das verändert die Anforderungen an die Beschäftigten. Von Umbrüchen am Arbeitsmarkt spricht das Institut für Arbeitsmarkt- und Berufsforschung. "So würden durch KI etwa 1,6 Millionen Stellen in den nächsten 15 Jahren entweder wegfallen oder neu entstehen, was auf deutliche Verschiebungen in einzelnen Wirtschaftsbereichen hinweist. Die Gesamtzahl der Arbeitsplätze bliebe gegenüber dem aktuellen Entwicklungspfad weitgehend stabil", lautet das Szenario [2].
Bereits im Privatleben zeigen sich Veränderungen. ChatGPT ist eine "der größten Erzähl-, um nicht zu sagen Quatsch-Maschinen dieser Welt geworden", bemängelt Kulturkritiker Georg Seeßlen [3] in der Zeitschrift Informationszentrum 3. Welt:
"Wie jener Nachbar, den wir ganz nett, aber meistens nervig finden, hat sie zu allem etwas zu sagen. Sie findet auf jede, selbst eine rhetorische Frage, eine Antwort und gibt sich dabei – einigen symptomatischen Ausfällen zum Trotz – mehr oder weniger diplomatisch. Sie steht halt drüber, die große metaphysisch-technische Klugscheißerin. Chatbots waren wirklich nur unterhaltsam, so lange sie neu waren."
In den Betrieben wird die Technik zunehmend zur Arbeitssteuerung eingesetzt. Arbeitsrechtsexperten warnen vor unregulierten Bereichen. "Künstliche Intelligenz verändert die Arbeitswelt rasant. Damit Chancen genutzt und Risiken vermieden werden, braucht der Einsatz von KI im Betrieb klare Regeln", betont Eva-Maria Stoppkotte [4], Redakteurin der Fachzeitschrift Arbeitsrecht im Betrieb.
Die rechtlichen Folgen sind oft unklar. Gerade beim KI-Einsatz stellt sich die Frage, wer bei Schäden haftet. Die Europäische Union hat versucht, mit dieser Entwicklung Schritt zu halten und 2024 die Verordnung über KI erlassen (KI-Verordnung). "Allerdings sind insbesondere viele Haftungsfragen ungeklärt, nachdem die EU-Kommission den Entwurf einer KI-Haftungsrichtlinie zurückgezogen hat", bemängeln Dr. Nadine Kramer und Dominik Süß [5] von der Wirtschaftskanzlei Covington & Burling in der Legal Tribune Online.
Zunächst sei jedoch das Unternehmen verantwortlich, "denn beim Einsatz von KI-Systemen trifft den Betreiber, hier also den Arbeitgeber, der das Unternehmerrisiko trägt und daher für die Organisation seines Betriebs und der Arbeitsmittel verantwortlich ist, unter anderem die Sorgfaltspflicht, deren Einsatz zu organisieren".
Dazu gehöre auch die Schulungspflicht nach Artikel 4 der KI-Verordnung: Arbeiten Beschäftigte mit KI, hat das Unternehmen KI-Kompetenz zu vermitteln.
"Die Schulungspflicht nach der KI-Verordnung wirkt sich also auf sämtliche Haftungsverhältnisse mit Arbeitnehmerbezug aus. Ihre Einhaltung ist daher essenziell. Problematisch ist, dass die KI-Verordnung keine konkreten Vorgaben macht, wie die Schulungen durchzuführen sind."
Nadine Kramer, Dominik Süß
Schwieriger werden Haftungsthemen bei Hackerangriffen. Große Sorge besteht bei Deepfakes, die derzeit das Internet fluten. Erfundene Videosequenzen können Menschen in verfänglichen Situationen zeigen. Für den Betrug per Telefon gibt es Tools wie ElevenLabs, Resemble.ai oder Speechify, mit denen durch wenige Minuten Sprachmaterial synthetische Stimmen möglich werden.
Laut Digitalverband Bitkom führen Deepfakes bei vielen Menschen zu Verunsicherung [6]. Denn der Laie kann die Realität oft nicht von Fake unterscheiden. Acht von zehn Deutschen (81 Prozent) sagen, sie würden ein Deepfake nicht erkennen. 44 Prozent geben an, schon einmal auf ein Deepfake reingefallen zu sein. 70 Prozent sind der Meinung, Fotos und Videos könne man heute nicht mehr vertrauen und 63 Prozent sagen sogar, Deepfakes machen ihnen Angst.
Im betrieblichen Alltag können die manipulierten Inhalte betrügerischen Absichten dienen. Für Unternehmen kann dies zu einer ernsthaften Bedrohung werden. Ein Trend ist CEO-Fraud – eine Betrugsmasche, bei der Täter sich als Leiter eines Unternehmens (CEO) ausgeben, um vertraulich Zahlungen zu erhalten:
Ein Angestellter erhält die Nachricht des vermeintlichen Finanzvorstand mit der Aufforderung, Geld auf ein Konto zu überweisen. Und zwar ohne im Betrieb andere davon zu informieren. Ist die Person misstrauisch gegenüber dieser geheimen Transaktion, werden weitere Aktionen vorgenommen. Täter nutzen "Social Engineering", um Vertrauen zu erwecken und die Opfer zur unauffälligen Ausführung zu drängen. Dies kann ein Videotelefonat mit mehreren vertrauten Ansprechpartnern sein oder auch eine Schaltung in eine Besprechung von Führungskräften an einem anderen Ort. Meist wird mit Zeitdruck gearbeitet. Für den Beschäftigten alleine wird es schwer, dies alles zu überprüfen.
"Die Täter gehen meist sehr geschickt vor, indem sie sich zunächst möglichst viele Informationen über das Unternehmen und die Strukturen des Unternehmens verschaffen. Ein Augenmerk legen die Täter dabei auf Angaben zu Geschäftspartnern und künftigen Investments, E-Mail-Erreichbarkeiten oder auch Informationen in sozialen Netzwerken zu Mitarbeitern des Unternehmens. […]
So gelingt es ihnen regelmäßig, auch erfahrene Mitarbeiter zur Überweisung hoher Beträge zu bewegen. Der Schaden beträgt inzwischen mehrere Millionen Euro."
Diese Szenarien sind keinesfalls Übertreibungen. So haben bereits 2024 Betrüger in Hongkong 23 Millionen Euro [8] mithilfe einer vorgetäuschten Videokonferenz erbeutet. Sie umgingen die Schwächen der Technik mit der "Chef-Masche": Kriminelle geben sich als hochrangige Manager aus, um hohe Geldtransfers zu veranlassen. Der gesamte Finanzvorstand wurde in dieser digitalen Konferenz per Fake zugeschaltet.
URL dieses Artikels:
https://www.heise.de/-11187530
Links in diesem Artikel:
[1] https://www.h-ka.de/die-hochschule-karlsruhe/aktuelles/news/2025/ki-einsatz-im-deutschen-mittelstand
[2] https://iab.de/presseinfo/kuenstliche-intelligenz-koennte-das-bip-wachstum-in-den-naechsten-15-jahren-um-jaehrlich-08-prozentpunkte-erhoehen/
[3] https://www.iz3w.org/artikel/kuenstliche-intelligenz-veraendert-unser-denken
[4] https://www.bund-verlag.de/zeitschriften/arbeitsrecht-im-betrieb
[5] https://www.lto.de/recht/hintergruende/h/ki-ai-act-haftung-fehler-pflichtverletzung-arbeitsverhaeltnis-privilegierung
[6] https://www.bitkom.org/Presse/Presseinformation/63-Prozent-haben-Angst-vor-Deepfakes
[7] https://polizei.nrw/artikel/ceo-fraud-hohes-betrugsrisiko-fuer-unternehmen
[8] https://www.sueddeutsche.de/wirtschaft/deepfake-betrug-videokonferenz-hongkong-1.6344209
Copyright © 2026 Heise Medien
Nvidia hat den GeForce-Treiberdownload 595.59 offline genommen. Grund sind Probleme mit der Lüftersteuerung des Launch-Treibers für Resident Evil: Requiem.
Der GeForce-Treiber 595.59 macht Probleme, so massive Probleme, dass Nvidia den Download des Treibers nicht mehr anbietet, während die Spezialisten der Firma auf Ursachenforschung gehen.
Eigentlich war der Treiber als optimierter „Game ready“-Treiber [1] für den Titel Resident Evil: Requiem am 26. Februar online gegangen. Er sollte optimal für die Performance des neuen Survival-Horror-Spiels von Capcom abgestimmt sein, welches am 27. Februar in den Verkauf ging. Doch schon am Releasetag des Treibers, also noch vor Resident Evil: Requiem, mehrten sich Nutzerberichte, die von Problemen mit der Lüftersteuerung auf ihren hochgezüchteten GeForce-Grafikkarten berichteten.
Die Probleme reichten von ungewöhnlich niedrigen Taktraten über Stabilitätsprobleme bis hin zu Abstürzen und schwarzen Bildschirmen. Offenbar hat es aber keine dauerhaften Defekte gegeben, die sich auf die Verwendung des GeForce-Treibers zurückführen lassen.
Offenbar drangen diese auch zu Nvidias Treiberabteilung vor und bereits wenige Stunden nach der Veröffentlichung zog man dort die Notbremse und schaltete den Download des Treibers offline [2]. Nutzern, die das Paket bereits installiert hatten und die Probleme mit der Lüftersteuerung bemerkten, empfahl Nvidia einstweilen die Rückkehr zur Version 591.86, solange Fehlersuche und -behebung andauerten – das war vor 5 Tagen. Seitdem forschen die Treiberentwickler bei Nvidia wohl mit Hochdruck nach der gut versteckten Ursache.
Hohn und Spott von Nutzerseite ließen indes nicht lange auf sich warten: Die Firma konzentriere ihre Entwicklerkapazitäten seit der RTX-5000-Reihe nur noch auf KI, lasse wohl mit Vibe-Coding eine KI auch den Treiber verschlimmbessern oder ihr sei die treue Spieler-Fangemeinde angesichts der KI-Milliarden [3] wohl zunehmen egal. Auch wenn das sicherlich Übertreibungen sind, spiegeln sie doch den Frust der GeForce-Nutzer wider.
Tatsache ist, dass Nvidia nicht das erste Mal von umfangreicheren Treiberproblemen heimgesucht wird. Schon die aktuelle GeForce-RTX-5000-Reihe mit den PCIe-5.0-fähigen Blackwell-Grafikchips war von Problemen betroffen [4], die zunächst auf PCIe 5.0 zurückgeführt wurden. Außerdem gab es anfangs einige fehlkonfigurierte RTX-5000-Karten [5] im Handel, wiewohl hier eher die Firmware und nicht der Treiber schuld war – auch wenn Nvidia die Firmware-Ursache bestritt [6].
Kurz darauf fiel wohl die RTX-4000-Reihe durch die Treiber-Qualitätskontrolle und einige Studios empfahlen [7] für ihre Spiele ältere Treiber aus der Vor-Blackwell-Zeit.
Allerdings treten auch schwerwiegende Bugs wie dieser immer mal wieder auf. Schon vor knapp 16 Jahren machte ein gravierendes Lüftersteuerungsproblem die Runde, das damals sogar Totalausfälle der GeForce-Grafikkarten [8] zur Folge hatte.
URL dieses Artikels:
https://www.heise.de/-11194257
Links in diesem Artikel:
[1] https://www.nvidia.com/en-us/geforce/news/resident-evil-requiem-geforce-game-ready-driver/
[2] https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/582871/geforce-grd-59559-feedback-thread-released-22626/
[3] https://www.heise.de/news/Nvidia-uebertrumpft-seinen-Rekord-noch-mal-um-20-Prozent-11190414.html
[4] https://www.heise.de/news/GeForce-RTX-5000-Hakeleien-mit-PCIe-5-0-oder-ist-es-doch-der-Treiber-10275392.html
[5] https://www.heise.de/news/Auch-die-GeForce-RTX-5080-ist-vom-ROP-Mangel-betroffen-10293062.html
[6] https://www.heise.de/news/Mobile-GeForce-RTX-5000-Nvidia-dementiert-fehlende-ROPs-OEMs-sehen-das-anders-10308664.html
[7] https://www.heise.de/news/Zwei-Spielstudios-empfehlen-alte-Treiber-fuer-GeForce-RTX-4000-10334790.html
[8] https://www.heise.de/news/Nvidia-zieht-GeForce-Treiber-196-75-zurueck-Update-947141.html
[9] https://www.heise.de/ct
[10] mailto:csp@heise.de
Copyright © 2026 Heise Medien

Wenn E-Autos in einen Unfall verwickelt sind und abgeschleppt werden müssen, kann das für die Besitzer teuer werden, wenn sie in die Fänge unseriöser Werkstätten und vermeintlicher Spezialisten kommen. Der Spiegel berichtet von einem Fall , bei dem ein Autofahrer auf der Autobahn auf einen Lkw auffuhr, woraufhin sein Peugeot E-208 Schrott war, ein Feuer gab es nicht. Trotzdem sollte er am Ende über 20.000 Euro an den Abschleppdienst zahlen.
Das Fahrzeug wurde als gefährliches Gefahrgut eingestuft, ein sogenannter Batterieexperte baute den Akku aus, der dann eine Woche in Quarantäne verbrachte. Allein sieben Tage Lagerbox kosteten 2.450 Euro netto, der Experteneinsatz weitere 1.650 Euro. Die Kfz-Versicherung übernahm schließlich die Rechnung, doch nach Recherchen des Spiegel ist das kein Einzelfall gewesen.
Bundesweit melden sich Elektroautofahrer mit ähnlichen Erfahrungen. Einem Tesla-Fahrer wurden 38 Standtage in Rechnung gestellt. Ein VW E-Golf kam in Quarantäne, obwohl der Akku beim Unfall intakt geblieben war. Das Muster ist laut Experten erkennbar: Fahrzeuge werden pauschal als gefährlich deklariert, was einen teuren Bergungsprozess auslöst – unabhängig vom tatsächlichen Zustand des Akkus.
Die Unfallforschung der Allianz-Versicherung kommt zu dem Schluss, dass Abschleppkosten und Quarantänezeiten bei Elektroautos überdurchschnittlich hoch sind, technisch aber selten begründbar. Rainer Kühl vom Kraftfahrzeugtechnischen Institut (KTI) sprach gegenüber dem Spiegel von teils völlig überzogenen Standgebühren. Zusammen mit dem Fraunhofer-Institut ließ das KTI Batterien verunfallter Elektroautos per Computertomografie untersuchen: Selbst nach heftigen Kollisionen waren die Akkus im Normalzustand.
Um das Vorgehen öffentlich zu rechtfertigen, haben sich laut KTI bundesweit Netzwerke gebildet. Die Initiativgemeinschaft Bergen Transport eMobilität ( IGBTE ) warnt vor enormem Sicherheitsrisiko beim Umgang mit verunfallten Elektrofahrzeugen. Mitglieder bieten teils eigene Schulungen zum Batterieexperten an und das laut Spiegel ohne externe Zertifizierung. Wie seriös das ist, kann Golem nicht beurteilen.
Auch der ADAC, der ein Netzwerk von 750 Mobilitätspartnern unterhält, hält sich bedeckt. Jeder Unfall müsse individuell betrachtet werden, teilte ein Sprecher dem Magazin mit. Das klingt vernünftig, lässt aber offen, nach welchen Kriterien die Kosten entstehen.
Der Gesamtverband der Deutschen Versicherungswirtschaft stellte gegenüber dem Spiegel klar: Statistisch hätten Elektroautos kein höheres Brandrisiko als Verbrenner. Brennende Elektroautos erscheinen in Medien präsenter, was laut GDV zu einer verzerrten Wahrnehmung führt, die manche Abschleppdienste offenbar gezielt nutzen.
Die Folge: Versicherungsprämien steigen, obwohl Elektroautos im Unterhalt eigentlich günstiger sind als Benziner oder Diesel. Der Verband der Automobilindustrie hat inzwischen einen umfangreichen Leitfaden für den Umgang mit verunfallten Elektrofahrzeugen herausgegeben.

Die Angriffe der USA und Israels auf den Iran haben eine Kettenreaktion von Luftraumsperrungen im Nahen Osten ausgelöst und dadurch sind Hunderttausende Reisende gestrandet, werden umgeleitet oder wurden gar ohne klare Perspektive zurückgelassen, wie der Guardian berichtet .
Großflughäfen in Dubai, Abu Dhabi und Doha stellten den Betrieb ein, nachdem Israel, Katar, Syrien, Iran, Irak, Kuwait und Bahrain ihren Luftraum sperrten. Die Vereinigten Arabischen Emirate verkündeten eine "vorübergehende und teilweise Sperrung" des eigenen Luftraums. Der Flugtracking-Dienst FlightRadar24 zeigt über dem Land keinerlei Flugbewegungen mehr an.
Am härtesten traf es die drei Carrier, die bei diesen Drehkreuzen dominieren: Emirates, Qatar Airways und Etihad. Laut dem Luftfahrtanalyse-Unternehmen Cirium befördern diese Airlines täglich rund 90.000 Passagiere allein durch ihre jeweiligen Heimatflughäfen. Mehr als 1.000 Flüge wurden am Samstag annulliert. Von rund 4.218 planmäßig im Nahen Osten landenden Flügen fielen 966 aus – knapp 23 Prozent. Zählt man auch die gestrichenen Abflüge hinzu, stieg die Zahl auf über 1.800 gestrichene Verbindungen.
Dubais internationaler Flughafen – der weltweit verkehrsreichste für internationale Flüge – soll durch Irans Vergeltungsschläge Schäden erlitten haben, ebenso wie das Wahrzeichen Burj Al Arab. Vier Menschen wurden verletzt. Abu Dhabi Airports meldete per X einen Todesfall und sieben Verletzte am Zayed International Airport in einem Beitrag, den der Airport kurz darauf wieder löschte.
Henry Harteveldt, Luftfahrtanalyst und Präsident der Atmosphere Research Group, sprach gegenüber dem Guardian Klartext: "Für Reisende gibt es keinen Weg, das schönzureden. Bereiten Sie sich auf Verzögerungen und Annullierungen in den nächsten Tagen vor, während sich diese Angriffe entwickeln und hoffentlich enden."
Bis 22:30 Uhr GMT meldete Flightaware weltweit mehr als 18.000 verspätete und über 2.350 annullierte Flüge. Mindestens 145 bereits in der Luft befindliche Maschinen wurden zu Ausweichzielen wie Athen, Istanbul und Rom umgeleitet.
Airlines, die normalerweise über den Nahen Osten fliegen, weichen nun auf südliche Routen über Saudi-Arabien aus – mit stundenlangen Umwegen und erhöhtem Kerosinverbrauch. Diese Mehrkosten könnten bei anhaltender Lage auf die Ticketpreise durchschlagen. Gleichzeitig steigt die Belastung der saudischen Flugsicherung, da immer mehr Flugzeuge dieselben Korridore nutzen.
Dazu kommt: Emirates und Qatar Airways gehören auch zu den größten Frachtfluggesellschaften der Welt, was Lieferketten stören und Luftfracht wesentlich teurer machen könnte. Neben Passagieren sind auch Crews und Flugzeuge gestrandet, die an anderer Stelle nun nicht eingesetzt werden können.
Mike McCormick, ehemaliger FAA-Flugsicherungsbeamter und Professor an der Embry-Riddle Aeronautical University, zeigte sich gegenüber dem Guardian vorsichtig optimistisch: Sobald amerikanische und israelische Stellen mitteilen, wo ihre Militärflüge operieren, könnten betroffene Länder beginnen, Teile ihres Luftraums selektiv wieder zu öffnen. "Diese Länder werden dann sagen können: OK, diesen Teil des Luftraums können wir freigeben, aber jenen halten wir weiter geschlossen" , so McCormick. Ob die Flugesellschaften diese Korridore nutzen oder weiterhin die Gebiete nicht überfliegen, bleibt ihnen überlassen.
Wie lange die Störung anhält, ist offen.
Das Auswärtige Amt veröffentlichte am Samstag eine Reisewarnung für Israel, Libanon, Jordanien, Syrien, Irak, Iran, Bahrain, Kuwait, Oman, Katar, Jemen, Saudi-Arabien und die Vereinigten Arabischen Emirate.

Google hat ein Patent eingereicht und erhalten, das ein System beschreibt, mit dem KI individuelle Landingpages für E-Commerce-Unternehmen direkt innerhalb der Suchergebnisse generieren könnte, also Seiten, die von Google erstellt werden, nicht von den Händlern selbst. Das Patent trägt die Nummer US12536233B1 und wurde im Januar 2026 erteilt.
Das beschriebene System würde bestehende Händler-Landingpages anhand von Metriken wie Absprungrate, Klickrate, Konversionsrate und Designqualität bewerten. Liegt eine Seite unterhalb eines bestimmten Schwellenwerts, könnte Googles KI eine alternative Seite im Auftrag des Händlers generieren und diese Nutzern über die Suchergebnisse präsentieren.
Die KI-generierten Seiten könnten Produkt-Feeds, Call-to-Action-Schaltflächen, KI-Chatbots und personalisierte Überschriften enthalten – dynamisch zusammengestellt auf Basis aktueller und früherer Suchanfragen von Nutzern.
Das System würde kontextuelle Signale aus dem Nutzerkonto auswerten, darunter vergangene Suchanfragen, um die angezeigte Seite individuell anzupassen. Marketinganalysten haben die Tragweite dieser Entwicklung bereits kommentiert: Ersetzt Google die Landingpage eines Händlers durch eine eigene KI-generierte Version, verliert der Händler die direkte Kontrolle darüber, wie seine Marke, Angebote und Produkte potenziellen Kunden präsentiert werden.
Diese Befürchtung ist nicht abstrakt. Googles Performance-Max-Werbeprodukt – das bereits KI nutzt, um Werbemittel und Platzierungen in seinem Netzwerk zusammenzustellen – wurde wegen mangelnder Transparenz kritisiert. Ein System, das diese Logik auf Landingpages selbst ausdehnt, könnte diese Probleme noch verschärfen.
Das Patent hält fest, dass der Navigationslink zu einer KI-generierten Seite innerhalb eines gesponserten Inhalts erscheinen könnte. Das bedeutet: Händler zahlen möglicherweise für Traffic, der auf einer von Google erstellten Seite landet; nicht auf einer, die sie selbst gebaut oder freigegeben haben.
Hinzu kommen rechtliche Risiken. Marken unterliegen Compliance-Vorgaben, die regeln, was über ihre Produkte oder Dienstleistungen gesagt werden darf und was nicht. Eine KI-generierte Seite, die auf Produktdaten eines Händlers zurückgreift, könnte theoretisch Inhalte produzieren, die diese Grenzen überschreiten, beispielsweise im Medizinbereich.
Die weitergehende Sorge betrifft Händler, die stark von organischem Google-Traffic abhängig sind – insbesondere über Kanäle wie Google Discover. Sie könnten sich in einer ähnlichen Lage wiederfinden wie Verlage, die durch Algorithmusänderungen Googles ohne Vorwarnung ihre Sichtbarkeit verloren haben.
Ob und unter welchen Bedingungen Google dieses System kommerziell einsetzen wird, ist bisher nicht bekannt. Oftmals werden Patente nie in die Realität umgesetzt und dafür verwendet, Wettbewerbern bestimmte Optionen zu verbauen.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Digitale Angriffe treffen Deutschland härter als gedacht. Warum IT-Systeme zum strategischen Schwachpunkt werden – und was fehlt.
Am 18. Februar 2026 wurde die Deutsche Bahn nach eigenen Angaben Opfer einer Cyberattacke [1], die Teile der digitalen Steuerungs- und Kommunikationssysteme lahmlegte und den Bahnverkehr stundenweise beeinträchtigte.
Resilienz wird in Deutschland seit Jahren beschworen. Doch im Ernstfall ist das Land auf einen koordinierten hybriden Angriff nur unzureichend vorbereitet. Während die sicherheitspolitische Debatte über Waffenlieferungen, Verteidigungshaushalte und militärische Abschreckung geführt wird, bleibt eine zentrale Frage unterbelichtet:
Wie widerstandsfähig ist die zivile Infrastruktur gegen digitale Angriffe, Sabotage und koordinierte Destabilisierung? Die ehrliche Antwort lautet: weniger, als die politische Rhetorik vermuten lässt.
Hybride Kriegsführung zielt nicht zuerst auf Territorium, sondern auf Funktionsfähigkeit. Wer Stromnetze stört, Krankenhäuser lahmlegt oder Kommunikationssysteme manipuliert, trifft das Nervensystem moderner Gesellschaften. Fällt digitale Infrastruktur aus, gerät nicht nur der Alltag ins Stocken, auch politische Steuerungsfähigkeit, wirtschaftliche Prozesse und gesellschaftliches Vertrauen werden fragil.
Dass diese Bedrohung real ist, zeigen konkrete Fälle. 2021 legte eine Ransomware-Attacke auf den US-Pipelinebetreiber Colonial Pipeline große Teile der Treibstoffversorgung lahm [2].
Tankstellen blieben leer, Notfallpläne mussten aktiviert werden. In Deutschland wurde 2020 das Universitätsklinikum Düsseldorf Ziel eines Cyberangriffs [3]. IT-Systeme fielen aus, Operationen verschoben, eine Patientin verstarb.
Auch Kommunalverwaltungen waren wiederholt betroffen: Landkreise wie Anhalt-Bitterfeld mussten den Katastrophenfall ausrufen [4], Bürgerdienste kamen zeitweise zum Erliegen, Sozialleistungen verzögerten sich.
Das Bundesamt für Sicherheit in der Informationstechnik warnt seit Jahren [5] vor einer "angespannten bis kritischen" Bedrohungslage. Die Zahl der Angriffe steigt, ebenso ihre Professionalität. Angreifer nutzen Sicherheitslücken, Lieferketten und externe Dienstleister als Einfallstore. Kritische Infrastruktur ist längst Teil geopolitischer Machtspiele.
Der Krieg gegen die Ukraine verdeutlicht, wie digitale und physische Angriffe strategisch kombiniert werden. Bereits 2015 und 2016 wurden Teile des ukrainischen Stromnetzes durch Cyberattacken sabotiert, ein weltweit beachteter Präzedenzfall. Seit 2022 sind koordinierte Angriffe [6] auf Energieanlagen, Telekommunikationssysteme und Verwaltungsnetzwerke Teil einer umfassenden Abnutzungsstrategie.
Raketen treffen Umspannwerke, während parallel Schadsoftware Netzwerke lahmlegt. Ziel ist nicht allein Zerstörung, sondern Erschöpfung der Gesellschaft. Die Bevölkerung soll verunsichert, staatliche Institutionen überfordert und wirtschaftliche Prozesse destabilisiert werden.
Gleichzeitig zeigt die Ukraine, wie Resilienz entsteht: Staatliche Daten wurden frühzeitig in Cloud-Strukturen ausgelagert. Internationale Kooperationen mit Technologieunternehmen ermöglichen schnelle Wiederherstellung kompromittierter Systeme.
Mobile Generatoren, Satellitenkommunikation und dezentrale Entscheidungsstrukturen erhöhen die Flexibilität. Solche Maßnahmen verdeutlichen: Resilienz ist kein theoretisches Konzept, sondern harte Überlebensbedingung.
Deutschland verfügt über leistungsfähige Behörden, IT-Experten und regulatorische Rahmenwerke. Dennoch bleiben strukturelle Probleme: Systeme sind historisch gewachsen, föderal fragmentiert und technisch heterogen. Sicherheitsstandards variieren stark zwischen Bund, Ländern und Kommunen. Kleine und mittlere Betriebe, die Teil kritischer Lieferketten sind, verfügen oft nicht über ausreichende Schutzmaßnahmen.
Zudem dominiert ein reaktiver Ansatz. Sicherheitslücken werden geschlossen, nachdem sie ausgenutzt wurden. Investitionen in Prävention konkurrieren mit kurzfristigen Haushaltszwängen. Politisch lässt sich der Bau eines Kampfflugzeugs sichtbarer kommunizieren als die Modernisierung kommunaler IT-Strukturen.
Hybride Angriffe zeigen: Verwundbarkeit ist längst Teil geopolitischer Konflikte. Zivile und militärische Sicherheit lassen sich nicht mehr strikt trennen, digitale Infrastruktur ist Teil der strategischen Verteidigung.
Hybride Kriegsführung bewegt sich unterhalb der formalen Kriegsschwelle und nutzt Grauzonen aus. Sabotage an Bahntrassen, Manipulation sozialer Medien, Angriffe auf Unterseekabel oder Energieinfrastruktur gehören zum strategischen Instrumentarium.
Gerade diese Ambiguität macht hybride Angriffe wirksam: Politische Entscheidungsträger müssen reagieren, ohne klare Eskalationslogik. Wiederholte Störungen können Vertrauen in staatliche Institutionen untergraben.
Digitale Resilienz umfasst deshalb nicht nur technische Abwehr, sondern auch politische Kommunikation. Transparente Information, klare Verantwortlichkeiten und schnelle Reaktionsfähigkeit sind entscheidend, um Verunsicherung nicht in systemisches Misstrauen kippen zu lassen.
Resilienz wurde lange als "Soft"-Konzept wahrgenommen. Als Ergänzung, nicht als Kern strategischer Planung. Doch moderne Streitkräfte und Gesellschaften sind selbst abhängig von digitaler Infrastruktur. Militärische Logistik, Satellitenkommunikation, Cyberabwehr: all das basiert auf stabilen zivilen Netzen. Fällt zivile Infrastruktur aus, verliert auch militärische Verteidigung an Effektivität.
Resilienz umfasst technische Redundanz, organisatorische Vorbereitung und gesellschaftliche Beteiligung gleichermaßen. Sie ist dynamisch: Jedes System hat Grenzen. Kaskadeneffekte, längere Stromausfälle, kombinierte Angriffe auf Kommunikation und Versorgung können Vertrauen und Handlungsfähigkeit untergraben. Resilienz muss kontinuierlich gepflegt und überprüft werden.
Die eigentliche Lehre hybrider Konflikte lautet: Sicherheit entscheidet sich nicht nur an militärischen Frontlinien, sondern in Serverräumen, Leitstellen und Krankenhäusern. Deutschland investiert Milliarden in Verteidigung.
Ohne robuste zivile Infrastruktur bleibt diese Investition unvollständig. Digitale Resilienz ist keine Ergänzung, sondern zentrale Voraussetzung staatlicher Stabilität – und entscheidender Faktor dafür, ob Gesellschaften in einer Ära permanenter Störungen handlungsfähig bleiben.
URL dieses Artikels:
https://www.heise.de/-11190710
Links in diesem Artikel:
[1] https://www.handelsblatt.com/unternehmen/dienstleister/deutsche-bahn-cyberangriff-ursache-fuer-it-stoerung-bei-der-bahn/100201288.html
[2] https://www.katrima.de/DE/Schadensereignisse/2020-20xx/2021_2_INT_Cyberangriff_ColonialPipeline.html
[3] https://www.handelsblatt.com/technik/cyberkriminalitaet-todesfall-nach-hackerangriff-auf-uni-klinik-duesseldorf/26198688.html
[4] https://www.sueddeutsche.de/politik/kommunen-katastrophen-modus-anhalt-bitterfeld-weiter-lahmgelegt-dpa.urn-newsml-dpa-com-20090101-210712-99-355807
[5] https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/Publikationen/Lageberichte/Lagebericht2023.pdf?__blob=publicationFile&v=7
[6] https://www.spiegel.de/netzwelt/web/ukraine-wie-russische-hacker-den-strom-abdrehen-wollten-a-4554b9f1-5267-49cb-b8d5-6ae7570b06e9
Copyright © 2026 Heise Medien
3D-Illustration vom Einsatz eines Stents
(Bild: ART-ur/Shutterstock.com)
Zwei Stent-Techniken nach Herzinfarkt im Test: Culotte gegen DK-CRUSH. Beide gelten als gleichwertig. Doch welche schützt Patienten langfristig besser?
Mit Stents, die über einen Katheter-Eingriff beginnend auf Höhe des rechten Handgelenks eingeführt werden, sollen Verengungen in den Blutgefäßen rund um das Herz aufgeweitet werden. Dass es in den Blutgefäßen auch Verzweigungen, sogenannte Bifurkation [1] gibt, müssen diese Verzweigungen auch bei den Stents realisiert werden.
Eine Bifurkationsläsion bedeutet, dass an der Stelle, an der sich ein Blutgefäß in zwei Äste teilt, eine Verengung vorliegt, die schwieriger zu behandeln ist, denn beide Gefäßäste sind verengt. Wird an einem Ast eine Ballonangioplastie [2] durchgeführt, besteht die Gefahr, dass sich der andere Ast verschließt.
Für die Weitung verengter Blutgefäße im Herzbereich sind heute zumeist zwei verschiedene Techniken gebräuchlich.
Im Rahmen einer am Herzzentrum Bad Krozingen der Universitätsklinik Freiburg noch in der Durchführung befindliche Studie mit dem Titel "Culotte Versus DK-CRUSH [3] Technique in Non-left Main Coronary Bifurcation Lesions (BBK-3)" will man herausgearbeiten, welche Methode auf längere Zeit die besten Erfolge verspricht.
Über diese Vergleichsstudie wird auch in Springer Nature berichtet [4] und in "TUMFIS [5] – Research Information System of the Technical University of Munich".
Literaturstudien ergeben meist das folgende Ergebnis: Die DK-CRUSH-Technik [6] (Double Kissing Crush) wird bei komplexen koronaren Bifurkationsläsionen (insb. Hauptstamm) meist der Culotte-Technik [7] vorgezogen, da sie langfristig (3 Jahre) signifikant niedrigere MACE-Raten (Major Adverse Cardiovascular Events), weniger Zielgefäßrevaskularisationen (TVR) und ein geringeres Risiko für Herzinfarkte (MI) zeigt.
Bei komplexen Bifurkationsläsionen mit Beteiligung von Hauptgefäß und Seitenast stellt sich nicht nur im Bereich des linkskoronaren Hauptstammes die Frage, ob eine Versorgung mit einer 2-Stent-Strategie günstiger ist als eine 1-Stent-Strategie. Dieser Fragestellung wurde am St. Vinzenz-Hospital in Köln Abteilung Innere Medizin III – Kardiologie nachgegangen.
Das Ergebnis wurde unter dem Titel "Sinning, J. Komplexe Bifurkationsläsionen – Zwei Stents sind doch besser als einer!" in Springer Nature Kardiologe 15, 175 (2021) veröffentlicht [8]. Technische Beschränkungen bei den OPs, die auf 49 internationale Zentren verteilt waren, haben möglicherweise nur bedingt verallgemeinerbare Ergebnisse erzielt.
Anders als bei vielen Forschungsprojekten üblich, verlassen sich die Ärzte im Herzzentrum Bad Krozingen bei ihrer aktuellen Studie nicht nur auf den Vergleich vorhandener Fachliteratur – eine Aufgabe, die mittlerweile auch eine KI effizient übernehmen könnte.
Stattdessen geht man einen Schritt weiter: In einem randomisierten Verfahren wird hier direkt vor Ort unter identischen Bedingungen für jeden teilnehmenden Patienten per Zufall eine von zwei Behandlungsmethoden ausgewählt.
Mit ausdrücklicher Zustimmung der Betroffenen werden die Verläufe dann genau dokumentiert und langfristig weiterverfolgt, um so herauszufinden, welches Vorgehen im echten Klinikalltag wirklich die besseren Ergebnisse liefert.
Die Culotte-Technik [9], die teilweise auch als Y-Stent oder Hosenbein-Technik bezeichnet wird, bietet eine nahezu perfekte Abdeckung der Carina (Bifurkationssporn) und des SB (Side Branch)-Ostiums [10]. Bei der Culotte-Technik werden die Stents in die Hauptarterie und den Seitenast eingesetzt und im Hauptgefäß überlappend angeordnet.
Ziel ist es dabei, den Verschluss des Seitenastes durch Plaque-Verschiebung (Carina Shift) während der Stentimplantation im Hauptgefäß (Main Vessel, MV) zu verhindern.
Die DK-Crush-Technik beinhaltet die Stentimplantation in die Seitenarterien und die Aufdehnung von zwei sich überlappenden Ballons.
Sie ist bislang die bevorzugte 2-Stent-Technik für komplexe Bifurkationen, besonders im Hauptstamm. Sie beinhaltet zwei Kissing-Balloon-Inflation-Schritte, was zu besseren Ergebnissen führen soll als Standard-Crush.
Mit dem Setzen der Stents sind die beim Herzinfakt aufgetretenen Probleme nicht durch den chirurgischen Eingriff vollständig gelöst. Mit einem Stent darf man grundsätzlich zwar wieder vieles, aber wichtig ist die konsequente Medikamenteneinnahme zur Blutverdünnung, dabei die ersten sechs Monate nach dem Eingriff spezielle Medikamente für eine Blutverdünnung nach dem Setzen der Stets, konsequenter Verzicht auf Rauchen, gesunde meist mediterane Ernährung, regelmäßige Bewegung und gezielte Stressreduktion.
Unmittelbar nach dem Eingriff sind schwere körperliche Anstrengungen und das Heben schwerer Lasten zu vermeiden, ebenso das plötzliche Absetzen der verschriebenen Medikamente ohne Rücksprache mit dem Arzt. In der weiteren Folge sind auch alle behandelnden Ärzte über den Eingriff und die Einnahme von Blutverdünnern zu informieren. In Absparche mit den Ärzten kann es erforderlich sein die Einnahme des Blutverdünners vor einer OP kurzfristig auszusetzen.
Disclaimer: Der Autor nahm im Oktober 2024 nach einem Herzinfarkt am Herzzentrum Bad Krozingen der Universitätsklinik Freiburg an der Vergleichsstudie Culotte Versus DK-CRUSH teil.
URL dieses Artikels:
https://www.heise.de/-11187207
Links in diesem Artikel:
[1] https://flexikon.doccheck.com/de/Bifurkation
[2] https://www.biotronik.com/de-de/patienten/therapien/ballonangioplastie
[3] https://clinicaltrials.gov/study/NCT04192760
[4] https://www.springermedizin.de/randomised-comparison-of-culotte-versus-double-kissing-crush-ste/51031756
[5] https://portal.fis.tum.de/en/publications/randomised-comparison-of-culotte-versus-double-kissing-crush-sten/
[6] https://www.google.com/search?client=firefox-b-d&q=DK-CRUSH-Technik&mstk=AUtExfAGfa-WWAUE40CfVfPwUIhAyrwD56k1qzj4HFrv3Y72laUyOJqnDRTBA9NRcEDFM2lHZ0pHiNk4Ak4L-qBzHhlUjIeaKWLzzLtKr2m46Z7hLGi76qZPNH9VzVbZKe1_Gyg&csui=3&ved=2ahUKEwjDwc6WjuCSAxWthP0HHQqIO0MQgK4QegQIARAC
[7] https://www.google.com/search?client=firefox-b-d&q=Culotte-Technik&mstk=AUtExfAGfa-WWAUE40CfVfPwUIhAyrwD56k1qzj4HFrv3Y72laUyOJqnDRTBA9NRcEDFM2lHZ0pHiNk4Ak4L-qBzHhlUjIeaKWLzzLtKr2m46Z7hLGi76qZPNH9VzVbZKe1_Gyg&csui=3&ved=2ahUKEwjDwc6WjuCSAxWthP0HHQqIO0MQgK4QegQIARAD
[8] https://doi.org/10.1007/s12181-021-00449-w
[9] https://www.gehealthcare.co.uk/-/media/882857d5e6a64cd19e4dfc2c17ec2708.pdf?la=en-gb
[10] https://befunddolmetscher.de/ostium/herzkatheter
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Deutschlands Kraftwerke, Chemieanlagen und Rechenzentren bergen ein gefährliches Geheimnis – das die Rüstungspläne ignorieren.
Bundeskanzler Friedrich Merz will, dass Deutschland die stärkste konventionelle Armee Europas erhalten soll. Polens Regierungschef, Karol Nawrocki fordert sogar eigene Atomwaffen. Das sei "der Weg, den wir gehen sollten", so der Regierungschef. Das gleicht einem Rüstungsrausch, der keine Grenzen mehr kennt. Wer denkt da noch an Rüstungskontrolle, geschweige denn an Abrüstung ...
Zu Zeiten des Kalten Krieges waren für die Nato die Strategie der Flexible Response und die militärische Vorneverteidigung die Grundlage der Sicherheitspolitik des Bündnisses. Im Falle eines feindlichen Angriffs sollte grenznah verteidigt werden.
Wer vor einem Krieg abschrecken will, muss ihn kämpfen können, war damals – wie auch aktuell – die gültige Maxime der militärischen Sicherheitspolitik. Landesverteidigung ist aber nur dann sinnvoll und gegenüber der eigenen Bevölkerung zu verantworten, wenn das, was verteidigt werden soll, auch geschützt werden kann.
Daran bestehen allerdings berechtigte Zweifel: Militärische Verteidigung moderner Industriestaaten ist in einem unüberwindbaren Widerspruch gefangen – denn sie sind strukturell nicht verteidigbar.[1]
Im Dezember 1988 gründete sich auf der Tagung der Naturwissenschaftler:innen-Initiative "Verantwortung für den Frieden e.V." in Tübingen eine interdisziplinäre Arbeitsgruppe, die es sich zur Aufgabe machte, die zivile Verwundbarkeit moderner Industriegesellschaften primär in Europa zu untersuchen und aus den Ergebnissen sicherheitspolitische Konsequenzen abzuleiten.
Es war die Zeit des Kalten Krieges. Hochgerüstet standen sich in Mitteleuropa entlang der deutsch-deutschen Grenze die Streitkräfte der Nato und des Warschauer Paktes gegenüber. Im Falle eines Krieges wären beide deutschen Staaten unmittelbares Schlachtfeld gewesen.
Deshalb bemühte sich die Tübinger Forschergruppe auch um den Kontakt und den Austausch mit einer ähnlichen Arbeitsgruppe in der DDR, die dem Rat für Friedensforschung an der Akademie der Wissenschaften in Ostberlin angegliedert war.
Der Leipziger Chemiker Karlheinz Lohs referierte schon 1987 auf einem Kongress der IPPNW in Essen über die Risiken, die von industriellen Ballungsräumen der Stoff- und Energiewirtschaft ausgingen. Seine Expertise half bei der Untersuchung der Gefahrenpotentiale der chemischen Großindustrie unter Kriegseinwirkung.
Hochindustrialisiert und extrem verwundbar, so lauten die kennzeichnenden Attribute der heutigen Zivilisation. Dichte Ballungszentren mit großer Industriekonzentration prägen im Besonderen die Situation in Mitteleuropa. Es hat sich eine Lebens- und Arbeitswelt entwickelt, die durch Komplexität, Vernetzung, Arbeitsteilung, Mobilität, Automation und Information gekennzeichnet ist.
Die Interoperabilität fast aller Arbeitsbereiche durch verschiedenste Kommunikations- und automatisierte Informationssysteme trägt zwar zur Produktions- und Effizienzsteigerung bei, erhöht aber gleichzeitig die Störanfälligkeit und Verwundbarkeit des Gesamtsystems. Die Gefahren durch Cyberangriffe auf lebenswichtige Versorgungseinrichtungen einer Gesellschaft wie Strom, Wasser und Logistik sind allgegenwärtig (vgl. BBK 2023, BSI 2022).
Hacker-Angriffe auf die EDV-Systeme des Deutschen Bundestages, Stadtverwaltungen, Banken und Industrieunternehmen waren erfolgreich. Eine Unterbrechung des Kühlsystems von Atomkraftwerken – trotz redundanter Absicherung – wäre ein Super-GAU-Szenario mit unabsehbaren Folgen.
Diese Gefahr wurde der Mehrheitsbevölkerung abrupt sichtbar, als mit der Sprengung des Staudamms von Kachowka Anfang Juni 2023 in den besetzten Gebieten der Ukraine die Kühlkette des größten europäischen Atomkraftwerks unterbrochen zu werden drohte.
"Die Leistungsfähigkeit und Stärke der hochentwickelten Industriestaaten hängen ab vom Funktionieren einer zivilen Infrastruktur, die hochgradig verletzlich ist und bereits mit nichtatomarer Munition und intelligenten Waffenträgern – niedrig fliegende, gelenkte Drohnen, Raketensysteme –ausgeschaltet werden kann."
Knies 1988, S. 81
Ohne diese Infrastruktur sind Industriestaaten weitgehend handlungsunfähig. Allein ein längerer Stromausfall würde die gesamte elektronische und elektrisch gesteuerte Infrastruktur (bspw. Pipelines, Kraftwerke usw.) lahmlegen und alle wichtigen Lebens- und Arbeitsbereiche einer Gesellschaft empfindlich beeinträchtigen.
Um aber die wichtigsten und großen Elektrizitätswerke und die Schaltzentralen zu zerstören, bedarf es keiner Atomwaffen. Es reichen "chirurgische" Einsätze mit zielgenauen konventionellen Waffen – auch dies wurde im Verlauf des Krieges in der Ukraine mit gezielten Angriffen auf Elektrizitäts- und Umspanneinrichtungen deutlich.
Nicht nur den wichtigen Industrieanlagen, auch den lebenswichtigen Bereichen der Trinkwasser-, Fernwärme- und Nahrungsmittelversorgung der Bevölkerung droht in solchen Fällen der Kollaps. Eine hochindustrialisierte Zivilisation ohne Stromversorgung bedeutet Chaos und Desorganisation des gesellschaftlichen Lebens.
Schon 2010 formulierte das Büro für Technikfolgenabschätzung beim Bundestag, dass ein längerer Stromausfall in Deutschland und "die dadurch ausgelösten Folgen […] einer nationalen Katastrophe gleich [käme]. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht beherrschbar, allenfalls zu mindern" (Petermann et al. 2010, S. 237).
Es zeigt sich also, dass es völlig ausreicht, nur die lebenswichtigen Nervenzellen der Industriestaaten zu zerstören, um den ökonomischen und ökologischen Kollaps eines Staates herbeizuführen.
Industriekomplexe sind vor allem in der Nähe von Großstädten und Ballungszentren angesiedelt. Bei technischen Unfällen können diese das Leben vieler Menschen gefährden.
Die Katastrophen von Seveso (Italien 1976), Bophal (Indien 1984), Tschernobyl (Sowjetunion/Ukraine 1986) und Fukushima (Japan 2011) sind Indizien für die Gefährlichkeit, die von Großtechnologien ausgehen kann. Die Flucht und Betroffenheit aber tausender Menschen im direkten Umfeld der Industrieansiedlungen zeigt die Risiken der zivilen Verwundbarkeit deutlich auf.
Industriekatastrophen dieser Art kennen weder nationale Grenzen noch soziale Schranken. Sie kennen nicht einmal zeitliche Grenzen und können Generationen von Menschen treffen. Die Irreversibilität der erzeugten Folgen ist ein wesentliches Novum.
Die geographische Betrachtung der industriellen Struktur Europas zeigt, welches Ausmaß die Ansiedelung chemischer Industrieanlagen vorrangig am Rand oder in der Nähe dichtbesiedelter Gebiete erreicht hat. Die Zentren der chemischen Industrie erstrecken sich von Norditalien bis an die Rhein- und Elbemündungen.
In den Industrieregionen der Chemie werden heute nichtmilitärische Giftstoffe als Vor-, Zwischen- oder Finalprodukte in großen Mengen hergestellt, weiterverarbeitet, gelagert und transportiert. Die Beherrschbarkeit der von der chemischen Industrie ausgehenden Risiken ist nur unter Friedensbedingungen realisierbar.
Schon 1988 dokumentierte der Chemiker und Toxikologe Prof. Karlheinz Lohs am Beispiel der Stoffe Chlor, Phosgen und Zyanwasserstoff, dass durch eine Zerstörung chemischer Großanlagen aus einem "Eurochemia ein Euroshima" entstünde (Lohs 1989, S. 38). Die Produktionskapazitäten lagen schon damals für Chlor bei 25 Mio. Tonnen, für Phosgen bei 1,5 Mio. Tonnen und für Zyanwasserstoff bei 600.000 bis 700.000 Tonnen im Jahr.
So wie Karlheinz Lohs schon 1988 nachwies, würde ein Einsatz konventioneller Waffen – z.B. ein Artilleriebeschuss – zu einer Explosion führen, die hunderte Quadratkilometer verseuchen würden. Die mit Sprengung des Kachowka-Damms in der Ukraine – sehr wahrscheinlich durch die russische Armee – verursachte Flutkatastrophe forderte Menschenleben und überschwemmte weite Gebiete, Dörfer und Städte entlang des Dnipro.
Die mit-angeschwemmten Gift- und Explosionsstoffe – u.a. Pestizide, Schwermetalle und Minen – verseuchten zehntausende Hektar Land, die auf Jahre landwirtschaftlich nicht mehr nutzbar sein werden. Der Ökozid ist inzwischen nicht nur eine Kriegsfolge, sondern eine praktizierte Strategie der Militärs.
Aktuell werden in 12 der 27 Mitgliedstaaten Atommeiler betrieben, in der Slowakei und in Frankreich befinden sich gar zwei neue Kernkraftwerke in Bau. Als Reaktion auf die geänderten Rahmenbedingungen infolge des Ukrainekriegs hat Belgien den beschlossenen Ausstieg auf 2035 verschoben, Spanien hält am Ausstieg fest.
Die mit Abstand meisten Meiler gibt es in Frankreich. Auch Polen beabsichtigt ein Kernenergieprogramm neu zu starten, Tschechien plant ebenfalls den Neubau von Meilern, wie viele, ist noch unklar. 56 der 100 Atomkraftwerke in Europa sind in Frankreich.
Grundsätzlich wird der Bau von 14 oder möglicherweise noch mehr neuer Anlagen in Erwägung gezogen. Außerdem soll die Laufzeit bestehender Kraftwerke verlängert werden, wenn die Sicherheit dies zulässt.
"Als Atommacht setzt Frankreich aber nicht nur aus Gründen der Energieversorgung auf die Kernkraft: Erst kürzlich hat Frankreichs Verteidigungsministerium angekündigt, in zwei Reaktoren des AKW Civaux in Zentralfrankreich Material, das Lithium enthält, anreichern zu wollen. Im Anschluss solle daraus das seltene Gas Tritium gewonnen werden, das für Abschreckungswaffen gebraucht werde."
Obwohl immer wieder behauptet wird, der Schutzmantel der Reaktorblöcke wäre auch bei einer direkten Einwirkung konventioneller Waffen noch intakt, sind Zweifel angebracht. Es ist eher davon auszugehen, dass mit einer Beschädigung zu rechnen ist.
Moderne panzerbrechende Waffen mit einer wesentlich höheren Durchschlagsleistung und Sprengstoffmenge könnten bei einem Direktbeschuss einen Bruch des Schutzmantels bewirken (vgl. Greenpeace 2010).
Die Gefahr einer Kernschmelze besteht im Kriegsfall auch schon bei einem längeren Ausfall der Stromversorgung und der Kühlung der Reaktoren (wie im oben diskutierten Fall des ukrainischen Kernkraftwerkes Saporischschja vielfach sichtbar wurde).
Die USA und Russland besitzen annähernd jeweils 5.000 Atomwaffen, die als Gefechtsfeldwaffen mit niedriger Sprengkraft (ca. 0,3 KT), als taktische Atomwaffen mit bis zu 50 KT TNT, als strategische Nuklearwaffen im Bereich von Mega-Tonnen einsetzbar wären. Die über Hiroshima von den USA abgeworfene Atombombe besaß ca. 15 KT Sprengkraft TNT.
Diese Zahlen dokumentieren, welches Zerstörungspotential eingesetzt werden könnte. Grundlegend verändert haben sich in den letzten drei Jahrzehnten alle Parameter der konventionellen Waffentechnik: vor allem durch die Steigerung der Reichweite, der Durchschlagskraft und Zerstörungswirkung im Zielbereich.
Die Reaktionszeiten verkürzen sich dramatisch, weil feindliche Flugkörper tieffliegend kaum ortbar sind. Hyperschallraketen,konventionell oder gar nuklear bewaffnet, sind in wenigen Minuten im Zentrum gegnerischer Staaten und kaum zu verteidigen. Mit einer fünf bis zehnfachen Schallgeschwindigkeit tragen sie ihre tödliche Last in ein anderes Land.
Enthauptungsschläge werden hierbei auch bei konventioneller Bewaffnung der Raketen möglich. Durch den Einsatz von Cyber-Waffen und KI besteht die Gefahr, dass die Kontrollsysteme der Atomwaffen erheblich gestört werden könnten. Der Kontrollverlust erhöht das Risiko von Fehleinschätzungen und Fehlalarmen. Dadurch würde die Atomkriegsgefahr rapide ansteigen
Die Analyse ließe sich mit etwa gleichen Resultaten auf alle weiteren Lebensbereiche ausdehnen. Mit großer Wahrscheinlichkeit ist auch in der Versorgungs- und Wasserwirtschaft, im Transport-, Kommunikations- und Informationsbereich, im Gesundheitswesen, im Kultur-, Bildungs- und Sozialbereich einer Gesellschaft bei einem Verteidigungskrieg mit großen, vielleicht sogar irreversiblen Schäden zu rechnen.
Wird Deutschland oder ein anderer Nato-Staat – durch Russland – angegriffen, tritt der Verteidigungsfall ein. Hochrangige Militärs und Fachpolitiker:innen sind davon überzeugt, dass mit Erreichen der "Verteidigungsfähigkeit" ein Krieg mit kalkulierbarem Risiko führbar wäre.
Ein auf das Schlachtfeld begrenztes Szenario (wie zuletzt im I. Weltkrieg) ist völlig unrealistisch, da sich ein Krieg nicht mehr regional begrenzen lässt.
Wie sollen Ballungszentren, das Ruhrgebiet, Großstädte wie Berlin, Hamburg oder München militärisch verteidigt werden? Wie sehen realistische Evakuierungspläne für Millionen Menschen aus? Ist mit Flucht von Millionen Menschen zu rechnen? Ist eine medizinische Versorgung Hunderttausender verletzter Soldat:innen und Zivilist:innen überhaupt realisierbar?
An der Scheidelinie zwischen der Nato und Russland stehen sich hochgerüstete Streitkräfte gegenüber. Waffenarsenale aller Art – konventionell wie atomar – könnten bei einem Versagen der Abschreckung im Verteidigungsfall in Europa eingesetzt werden.
Die Schäden, die durch den massenhaften Einsatz konventioneller Flächenwaffen hervorgerufen werden, töten und verletzen nicht nur Soldat:innen auf dem Gefechtsfeld sondern auch die betroffene Zivilbevölkerung.
In konventionellen Kriegen wird das Sterben zunehmend vergesellschaftet. Die Unterscheidung zwischen Kombattant:in und zu schützender Zivilperson trägt nicht mehr.
Auch scheint es zunehmend weniger Hemmungen kriegführender Parteien zu geben, Infrastruktur zu vernichten (Gebäude usw.), obwohl im Kriegsvölkerrecht klar geächtet. Russland praktiziert das täglich gegen die Zivilbevölkerung und die Infrastruktur in der Ukraine.
Die Nato-Staaten haben sich entschlossen, als Reaktion auf den völkerrechtswidrigen russischen Angriff auf die Ukraine ihre Streitkräfte massiv aufzurüsten. Dem Aggressor soll damit abschreckend vor Augen geführt werden, dass ein Krieg und der Angriffskrieg im Besonderen keinen Erfolg haben wird.
Diese Strategie der Wehrhaftigkeit scheint die einzige Option zu sein, der Aggression erfolgreich begegnen zu können. Das kann durchaus gelingen – birgt aber unkalkulierbare Risiken. Der Krieg könnte jederzeit auch eskalieren.
Überall dort, wo die Waffen zum Einsatz kommen, sind die Schäden gewaltig und die betroffene Zivilbevölkerung muss nach den Angriffen ohne Strom, Wasser, Versorgung, in zerstörten Häusern (im Winter in feuchter Kälte) (über-)leben.
"Wenn morgen bei uns Krieg wäre", lautet das neue Buch von Hauke Friedrichs und Rüdiger Barth. Sie spielen ein realistisches Kriegsszenario bei einem Krieg zwischen Russland und der Nato durch.
"Nach einem Jahr Krieg wird Deutschland ein anderes Land sein, Tod und Zerstörung sind allgegenwärtig. ...Tausende Tote und Verwundete täglich haben ihre Spuren in die Gesellschaft gegraben. Trauer, Leid,Verlust die Art verändert, wie wir miteinander umgehen, wie wir miteinander sprechen."
Hauke Friedrichs, Rüdiger Barth[2]
Das ist eine realistische Beschreibung von Krieg und dessen katastrophale Folgen.
Die Autoren fordern von der Gesellschaft, sich umfänglich darauf vorzubereiten und entsprechend Schutzmaßnahmen zu treffen und über resiliente Maßnahmen die lebenswichtige Infrastruktur zu schützen versuchen. Nicht berücksichtigt wird von ihnen in dem Kriegsszenario ein möglicher Einsatz von Atomwaffen.
Dies wirft Fragen auf: Ist die Störanfälligkeit und existentielle Verwundbarkeit hochindustrialisierter Staaten grundsätzlich reduzierbar? Gibt es realistische Szenarien und Maßnahmen, diesen Zustand durch eine Reduzierung der Gefahrenpotentiale, durch technische Maßnahmen oder durch einen verstärkten, verbesserten Zivilschutz aufzuheben?
Im Bereich der Informations- und Kommunikationstechnik gibt es sicher Möglichkeiten, durch Redundanz die Störanfälligkeit des Gesamtsystems zu mindern.
Auch durch Zivilschutzmaßnahmen ließen sich Schäden und gravierende Störungen reduzieren. Ein flächendeckender Schutz ist nach Einschätzung des Büros fürTechnikfolgenabschätzung aber nicht realisierbar (vgl. Petermann et al. 2010).
Inwieweit solche umfassende Schutzmaßnahmen wirklich greifen, ist schwer abschätzbar. Sie fordern allerdings einen hohen Aufwand und Mitteleinsatz. Im Ergebnis führt das zu einer "Gesellschaft im Kriegsmodus".
Eine Demokratie wehrhaft militärisch nach außen zu verteidigen, klingt zwar sehr plausibel, trägt aber dieses unauflösbare Dilemma in sich: Aus der Synergie von Vulnerabilität und vernichtender Waffenwirkung resultiert die "Strukturelle Nichtverteidigbarkeit"moderner Industriestaaten. Sie stellt die Sinnhaftigkeit einer militärischen Wehrhaftigkeit, die auf Verteidigung mit Waffengewalt baut, grundsätzlich in Frage.
Die Verwundbarkeit moderner Industriestaaten ist also eine unumgängliche Faktizität: Die Staaten und ihre Gesellschaften sind nur noch unter Friedensbedingungen lebens- und funktionsfähig.
Deshalb bedarf es eines Instrumentariums, das über Krisenprävention und Diplomatie zwischenstaatliche Konflikte entschärft und zur Deeskalation erfolgreich beiträgt. Kriegsverhinderung bedeutet dann, im Vorfeld eines sich anbahnenden Konflikts Kriseninstrumente zu nutzen, die sich international bewährt haben.
Das Dilemma der Nichtverteidigbarkeit ruft also dazu auf, präventiv Krieg zu verhindern. Moderne Industriestaaten sind nur unter Friedensbedingungen lebens- und funktionsfähig.
Es bedarf einer Renaissance der UN-Charta von 1945, spezifisch ihres Friedensgebotes.
"Alle Mitglieder legen ihre internationalen Streitigkeiten durch friedliche Mittel so bei, dass der Weltfriede, die internationale Sicherheit und die Gerechtigkeit nicht gefährdet werden."
Kapitel I, 2 UN-Charta
Notwendig wäre eine strategische Allianz von (auch und vor allem hochindustrialisierten) Mitgliedsstaaten in der UN, die aus dem Dilemma der Nichtverteidigbarkeit agieren und sich gegen den Widerstand der Vetoakteure USA, Russland und China durchsetzen können.
Dazu gehören auch blockfreie Staaten aus Asien, Südamerika und Afrika. Dass dies gelingen kann, belegen eine Reihe von Abkommen, die durch die UN-Vollversammlung beschlossen wurden, auch gegen den organisierten Widerstand: beispielsweise das Verbot von Antipersonenminen und Streumunition von 1999 oder auch die Gründung des Internationalen Strafgerichtshofes 2002; prominent und von großer Relevanz sind ebenso das Pariser Abkommen zum Klimaschutz von 2015 und der Atomwaffenverbotsvertrag (AVV), der am 22.01.2021 in Kraft trat (vgl. Zumach 2021, S. 16).
"Aus der Erfahrung zu lernen heißt, die zerstörerische Idee des Krieges aus den Köpfen der Menschen weltweit zu verbannen, damit die Idee einer Kultur des Friedens Raum in ihrem Bewusstsein finden kann. Kultur des Friedens bedeutet Gegenentwurf zu einer Welt mit Krieg, Hunger, Hass, Ausbeutung, Zerstörung der Natur und der menschlichen Persönlichkeit"
Abschlussproklamation für eine Kultur des Friedens, Internationaler Kongress "Kultur des Friedens", Tübingen 1988[3]
Eine Vision, die einer Welt struktureller Nichtverteidigbarkeit angemessen wäre. Allerdings ist nicht davon auszugehen, dass die Vereinten Nationen bei der aktuellen Demontage durch Donald Trump das leisten können.
Der Politikwissenschaftler Johannes Varwick bescheinigt der Nichtverteidigbarkeit durchaus Plausibiltät. Allerdings schränkt er ein[4]:
"Wer mithin lediglich moralisch an die Vernunft appelliert, das "Richtige" zu tun, ist womöglich analytisch auf der Höhe, politikfähig ist man damit noch nicht zwingend."
Trotz aller Bemühungen können Diplomatie und Krisenprävention scheitern. Angriffskriege gehören zur Weltgeschichte und sind leider weltweit Realität. Gem. Artikel 51 der UN-Charta hat jeder Staat ein Selbstverteidigungsrecht im Falle eines kriegerischen Angriffs.
Strukturelle Nichtverteidigbarkeit kann Machtpolitik der Weltmächte – allen voran der USA – nicht verhindern. Letztlich nur eine Richtung vorgeben, das Instrumentarium der Konflikt und Krisenprävention stetig zu stärken und Rüstungskontrolle und Abrüstung einzufordern.
Die derzeitige Sicherheitspolitik sollte sich wenigstens auf eine maßvolle und defensive Verteidigung ausrichten. Ansonsten droht – wie deutlich erkennbar – ein Rüstungswettlauf.
Kriegsverhinderung wäre dann eine Kombination aus Diplomatie und eingegrenzter militärischer Verteidigung. Das wäre zumindest eine Umkehr aus dem fatalen Irrweg, auf dem sich Deutschland und die westeuropäischen Nato-Staaten befinden.
[1] Die Wortschöpfung "Strukturelle Nichtverteidigbarkeit"stammt von Michael Kortländer, dem ehemaligen Leiter des Instituts für Psychologie und Friedensforschung e.V. (IPF) in München, um dem Konzept der "Strukturellen Nichtangriffsfähigkeit" des Instituts für Sicherheitspolitik und Friedensforschung der Universität Hamburg (IFSH) ein Pendant gegenüberzustellen. "Strukturelle Nichtangriffsfähigkeit" forderte eine Streitkräftestruktur, die konzeptionell und in der Waffenausrüstung auf effiziente Verteidigung und militärische Abhaltung ausgerichtet ist.
[2] Hauke Friedrichs, Rüdiger Barth, "Wenn morgen bei uns Krieg wäre", Heyne Verlag München 2026, S. 132/133
[3] Im Mai 1988 trafen sich in Tübingen Künstler:innen, Schriftsteller:innen und Wissenschaftler:innen, um einen Gegenentwurf zu unserer bedrohten Welt zu entwickeln. Zu ihnen gehörten u.a. Mikis Theodorakis, Tschingis Aitmatov, Robert Jung, Christa Wolf und Hans Peter Dürr. Die von ihnen proklamierte "Kultur des Friedens" zielt auf Konfliktlösung über Dialog und Diplomatie. Sie basiert auf der Achtung vor dem Leben, der menschlichen Würde und den Menschenrechten.
[4] Johannes Varwick, "Stark für den Frieden", WestendVerlag 2026, S. 115
Weitere Literatur:
Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) (2023): Cybergefahren. Homepagebeitrag, bbk.bund.de. Bundesamt für Sicherheit in der Informationstechnik (BSI)(2022): Die Lage der IT-Sicherheit in Deutschland. BSI-LB22/511, bsi.bund.de.
Greenpeace (2010): Terrorangriff mit einer panzerbrechenden Waffe (AT-14 Kornet-E) auf (ältere) deutsche Atomkraftwerke. Bericht, gekürzte Fassung. Erstellt von Dipl.-Physikerin Oda Becker, im Auftrag von Greenpeace Deutschland e.V.
Knies, G. (1988): Friedfertigkeit durch zivile Verwundbarkeit? S+F 2/88, S. 81-87.
Lohs, K. (1989): Risikopotential Chemie. Wissenschaft und Frieden 1/89, S. 37-38.
Österreichisches Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) (2023): Kernenergie in der EU, Webseite des Ministeriums, bmk.gv.at.
Petermann, T. et al (2010): Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langandauernden Ausfalls der Stromversorgung. Endbericht zum TA-Projekt. Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB), Arbeitsbericht Nr. 141, November 2010.
Zumach, A. (2021): Reform oder Blockade – Welche Zukunft hatdie UNO? Zürich: Rotpunkt Verlag.
URL dieses Artikels:
https://www.heise.de/-11186981
Links in diesem Artikel:
[1] https://www.swp.de/wirtschaft/atomkraftwerke-deutschland-eu-weltweit-73374443.html
Copyright © 2026 Heise Medien
(Bild: Germanru, shutterstock)
Quantencomputer versprechen, bisher praktisch unlösbare Aufgaben zu bewältigen. Noch verhindern Quanteneffekte die reibungslose Nutzung. Ändert sich das jetzt?
Weltweit suchen Physiker nach einem Material, das Quantencomputer revolutionieren könnte. Forscher der Norwegischen Technisch-Naturwissenschaftlichen Universität (NTNU) glauben nun, diesem sogenannten Triplett-Supraleiter auf der Spur zu sein.
"Ein Triplett-Supraleiter steht ganz oben auf der Wunschliste vieler Physiker", erklärt [1] Professor Jacob Linder vom NTNU-Institut für Physik. Die Entdeckung eines solchen Materials gilt in der Quantentechnologie als "heiliger Gral".
Herkömmliche Computer verarbeiten Informationen mit Bits, die entweder den Wert 0 oder 1 annehmen. Quantencomputer hingegen nutzen Qubits, die dank der Quantenmechanik beide Zustände gleichzeitig einnehmen können. Diese als Superposition bezeichnete Eigenschaft erlaubt es Quantencomputern, viele Berechnungen parallel durchzuführen.
Eine weitere entscheidende Eigenschaft ist die Verschränkung: Qubits können miteinander verknüpft werden, sodass der Zustand eines Qubits unmittelbar den Zustand eines anderen beeinflusst – unabhängig von der Entfernung zwischen ihnen. Diese beiden Prinzipien verleihen Quantencomputern [2] ihre außergewöhnliche Rechenleistung.
Doch genau diese Quanteneigenschaften sind extrem fragil. Durch Wechselwirkungen mit der Umgebung – etwa elektromagnetischen Feldern oder thermischen Schwingungen – verlieren Qubits ihre Quanteneigenschaften. Dieser Prozess heißt Quanten-Dekohärenz [3] und ist das größte Hindernis auf dem Weg zu leistungsfähigen Quantencomputern.
"Eine der größten Herausforderungen in der Quantentechnologie ist heute, Computeroperationen mit ausreichender Genauigkeit durchzuführen", sagt Linder. Quanten-Dekohärenz begrenzt die Zeit, in der Qubits ihre Quantenzustände aufrechterhalten können, und ist eine Hauptursache für Rechenfehler.
Je größer Quantensysteme werden, desto schwieriger wird es, die Dekohärenz zu kontrollieren.
Bisher versuchen Forscher, dieses Problem mit verschiedenen Methoden zu bekämpfen: Sie kühlen Quantensysteme auf Temperaturen nahe dem absoluten Nullpunkt, schirmen sie elektromagnetisch ab und entwickeln Fehlerkorrektur-Algorithmen. Oder Quantenoperationen werden so schnell ausgeführt, dass sie abgeschlossen sind, bevor Dekohärenz einsetzen kann.
Doch all diese Verfahren sind aufwendig und begrenzen die Skalierbarkeit von Quantencomputern.
Hier könnten Triplett-Supraleiter eine Lösung bieten. Linder und seine Kollegen haben in Zusammenarbeit mit italienischen Forschern ein Material untersucht, das vielversprechende Eigenschaften zeigt: die Niob-Rhenium-Legierung NbRe. "In unserem veröffentlichten Artikel zeigen wir, dass das Material NbRe Eigenschaften aufweist, die mit Triplett-Supraleitung übereinstimmen", erklärt Linder.
Konventionelle Supraleiter – sogenannte Singlet-Supraleiter – können Elektrizität zwar ohne messbaren Widerstand transportieren. Doch die darin geleiteten Elektronenpaare besitzen keinen Spin, weil sich die Spins der beiden Elektronen gegenseitig aufheben.
Triplett-Supraleiter unterscheiden sich genau darin: Ihre supraleitenden Elektronenpaare – sogenannte Cooper Paare [4] – verfügen über einen Spin, weil der Spin der beiden einzelnen Elektronen in die gleiche Richtung weist.
Dieser Unterschied hat enorme Konsequenzen. "Die Tatsache, dass Triplett-Supraleiter einen Spin haben, hat eine wichtige Folge", sagt Linder. So können die Forscher nun auch Spin-Ströme ohne messebaren Widerstand transportieren. Das aber bedeutet: Informationen könnten mittels Spin übertragen werden, ohne dass dabei Energie verloren geht. In der Praxis würde dies extrem schnelle Computer ermöglichen, die nahezu keine Elektrizität verbrauchen.
Der genaue Mechanismus, wie Triplett-Supraleiter die Dekohärenz verhindern, ist allerdings noch nicht vollständig geklärt.
Und es wird noch exotischer: Triplett-Supraleiter könnten auch zur Erzeugung sogenannter Majorana-Teilchen [5] genutzt werden. Diese Teilchen mit halbzahligem Spin verfügen über die gleichen Eigenschaften wie ihre eigenen Antiteilchen und können Berechnungen in Quantencomputern auf vergleichsweise stabile Weise durchführen [6].
Ein weiterer Vorteil von NbRe ist die Temperatur, bei der es supraleitend wird. "Ein weiterer Vorzug dieses Materials ist, dass es bei einer relativ hohen Temperatur supraleitet", sagt Linder. In diesem Kontext bedeutet "relativ hoch" sieben Kelvin – das sind minus 266,15 Grad Celsius; knapp über dem absoluten Nullpunkt. Andere Kandidaten für Triplett-Supraleitung, müssen jedoch auf Temperaturen um ein Kelvin heruntergekühlt werden.
Trotz der vielversprechenden Ergebnisse mahnt Linder zur Vorsicht. "Es ist noch zu früh, um endgültig zu schließen, ob das Material ein Triplett-Supraleiter ist", sagt er. Die Befunde müssten von anderen Forschergruppen bestätigt und weitere Tests zur Triplett-Supraleitung durchgeführt werden.
Dennoch ist er zuversichtlich: "Unsere experimentelle Forschung zeigt, dass sich das Material völlig anders verhält, als wir es von einem konventionellen Singlet-Supraleiter erwarten würden." Die Studie wurde in der renommierten Fachzeitschrift Physical Review Letters veröffentlicht und von den Herausgebern als eine ihrer wöchentlichen Empfehlungen ausgewählt.
Sollte sich die Entdeckung bestätigen, wäre dies ein bedeutender Schritt für die Quantentechnologie. Triplett-Supraleiter könnten nicht nur die Stabilität von Quantencomputern drastisch erhöhen, sondern auch völlig neue Anwendungen in der Spintronik ermöglichen – einer Technologie, die den Spin von Elektronen statt ihrer elektrischen Ladung zur Informationsübertragung nutzt.
URL dieses Artikels:
https://www.heise.de/-11193266
Links in diesem Artikel:
[1] https://norwegianscitechnews.com/2026/02/physicists-may-have-found-the-missing-link-for-quantum-computers/
[2] https://www.spinquanta.com/news-detail/how-does-quantum-computer-work
[3] https://www.quandela.com/resources/quantum-computing-glossary/quantum-decoherence/
[4] https://de.wikipedia.org/wiki/Cooper-Paar
[5] https://de.wikipedia.org/wiki/Majorana-Fermion
[6] https://news.microsoft.com/source/features/innovation/microsofts-majorana-1-chip-carves-new-path-for-quantum-computing/
Copyright © 2026 Heise Medien
(Bild: BearFotos, shutterstock)
Wie kommt ein Social-Media-Verbot für Jugendliche bei einer Jugendlichen an? Ein Kommentar.
Im Dezember 2025 beschloss Australien ein Gesetz, welches Jugendlichen unter 16 Jahren den Zugang zu Social-Media verbietet. Im Januar 2026 stimmte die französische Nationalversammlung für einen Gesetzesentwurf, welcher Jugendlichen in Frankreich unter 15 Jahren ebenfalls Social-Media verbietet.
Auch in Deutschland fordern immer mehr Menschen eine solche Einschränkung, welche den Zugang für Kinder untersagt. Jugendliche ab 14 Jahren sollen Soziale Medien dann eingeschränkt und ab 16 vollständig nutzen dürfen. So schlägt [1] es jedenfalls die SPD vor.
Eines der häufigsten Argumente für ein Verbot ist, dass die häufige Nutzung Sozialer Netzwerke bei vielen Kindern und Jugendlichen mittlerweile den Austausch mit Gleichaltrigen abgelöst habe. Und ja, eine Studie [2] der Vodafone-Stiftung zeigt, dass fast die Hälfte der Jugendlichen sich einsam fühlt und Social-Media nutzt, um diesem Gefühl entgegenzuwirken.
Schuld an der übermäßigen Nutzung von Sozialen Medien sind aber weniger die Sozialen Medien selbst, sondern eher der große schulische Druck und die fehlende Unterstützung von außen.
Ein Social-Media-Verbot würde daran vermutlich nur begrenzt etwas ändern, da die meisten dann auf andere Online-Angebote ausweichen würden. Hilfreicher wäre ein breiteres und interessanteres Angebot an Alternativen. Die Studie zeigt: Wer sich einsam fühlt, unternimmt gerne etwas mit Freunden.
Aber: Wenn es an spannenden Vorschlägen mangelt, wird meistens doch lieber zum Handy gegriffen. Bei vielen ist der Wunsch nach mehr Kontakt da, aber sie finden nicht zu einander. Doch so, wie Schule heute aufgebaut ist, bleibt wenig Raum, um sich zu treffen.
Bei der Nutzung von Social Media gibt es einen anderen, noch wichtigeren Aspekt als die Nutzungszeit: die Inhalte. Im Google Play Store ist TikTok mit der USK12 versehen, ist also – angeblich – für Kinder ab zwölf Jahren geeignet.
Ja, ein Großteil der Trends ist harmlos, aber andere sind eindeutig nicht für ein solches Alter geeignet. Manche Videos beinhalten nur Tänze, andere zeigen selbstverletzendes Verhalten oder zelebrieren Essstörungen. Solche Videos sind definitiv nicht für Zwölfjährige geeignet. Die Schuld hierfür liegt aber bei den Entwicklern, beziehungsweise den Algorithmen, welche solche Videos zulassen und sie dann auch Nutzern anzeigen.
In diesem Fall ist eine gestaffelte Regulierung der Algorithmen sinnvoller. Denn nur weil man 16 Jahre alt ist, ist man nicht automatisch resistent gegenüber den Auswirkungen solcher Videos.
Das wohl größte Problem bei der Einrichtung eines Verbots Sozialer Netzwerke für Jugendliche ist meiner Meinung nach das ”Wie?” Wie möchte man sichergehen, dass das Alter zuverlässig bestimmt wird? Durch Verifizierung mittels des Personalausweises? Und wie sicher wären diese Daten überhaupt? Ist das überhaupt mit den Datenschutzrichtlinien vereinbar?
Oder sollte man doch lieber das Alter von einer KI durch Gesichts-Scans schätzen lassen? Wie soll sichergestellt werden, dass die KI nicht einfach aufgrund von Make-up ein ganz anderes Alter schätzt?
Der Fall der Plattform Discord zeigt, dass der Zwang zur Altersverifikation Folgen haben kann. Minderjährige mussten ihr Alter verifizieren, zum Beispiel mit einem Bild ihres Ausweises. Das Problem: Die Daten wurden gestohlen. Die Hacker veröffentlichten auf einem Telegram-Kanal Wohnorte, Telefonnummern, Fotos und andere private Daten, meldete [3] Der Standard aus Wien.
Hinzu kommt, dass Altersverifikationen durch VPNs umgangen werden können, da diese den Standort des Nutzers verschlüsseln. Dies zeigt, dass es bisher keine sichere und zuverlässige Möglichkeit gibt, das Alter einer Person zu verifizieren.
Grundsätzlich ist eine Einschränkung des Zugangs zu Sozialen Medien für Kinder und Jugendliche unterhalb eines bestimmten Alters sinnvoll. Im Netz gibt es zu viele Inhalte, die nicht für Kinder geeignet sind. Aber bisher ist vieles noch nicht geklärt und keiner der Vorschläge bringt so viel mehr Sicherheit für Kinder und Jugendliche, um das Risiko der Verbreitung persönlicher Daten einzugehen.
Der freie Zugriff ist vermutlich sicherer als eine Beschränkung mittels Altersverifizierung, welche möglicherweise den Datenschutz und die Privatsphäre verletzt. Deshalb sollten Soziale Medien Kindern und Jugendlichen mindestens so lange erlaubt werden, bis es eine sichere Lösung gibt.
Dringender ist eine Einschränkung dessen, was gepostet werden darf, wie zum Beispiel Kinderfotos, wenn diese noch zu jung sind, um zuzustimmen. Inhalte, die menschenfeindliche Ansichten verbreiten, sollten schneller gelöscht und die Accounts gesperrt werden, wenn nötig. So könnte man Soziale Medien sicherer machen, ohne Kindern und Jugendlichen einen Grundbestandteil ihrer Kommunikation zu sperren.
Mehr Kinder- und Jugendschutz im Netz ist erforderlich, ein Verbot der gesamten Nutzung jedoch nicht zielführend.
Emily Magin geht aufs Gymnasium und hat im Februar 2026 ein Berufsorientierendes Praktikum bei einem Telepolis-Redakteur absolviert. Als sie sich der Redaktionskonferenz vorgestellt hat, entstand die Idee, sie als Betroffene einen Beitrag über das mögliche Social-Media-Verbot für Jugendliche schreiben zu lassen.
URL dieses Artikels:
https://www.heise.de/-11193132
Links in diesem Artikel:
[1] https://www.zdfheute.de/politik/deutschland/social-media-verbot-kinder-jugendliche-studie-sucht-100.html
[2] https://www.vodafone-stiftung.de/generation-einsam/
[3] https://www.derstandard.de/story/3100000291602/discord-hack-zeigt-wie-digitaler-altersnachweis-nicht-funktioniert
Copyright © 2026 Heise Medien
Anthropic-Gründer Dario Amodei
(Bild: Antrophic)
Anthropic-CEO Amodei wehrt sich in einem Interview gegen die Einstufung als Sicherheitsrisiko und beruft sich auf amerikanische Grundwerte.
Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.
Im Interview, das in Auszügen etwa bei YouTube zu sehen ist [1], stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.
Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.
In einer Mitteilung [2] kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag [3] für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.
Wie Amodei in einem parallel veröffentlichten Blogbeitrag [4] auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.
Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.
Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael [5], Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.
Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben [6], dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.
Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.
Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.
URL dieses Artikels:
https://www.heise.de/-11193909
Links in diesem Artikel:
[1] https://www.youtube.com/watch?v=QFDz6q-Qthk
[2] https://www.anthropic.com/news/statement-comments-secretary-war
[3] https://www.heise.de/news/Pentagon-vs-Anthropic-KI-Freigabe-soll-jetzt-mit-Kriegsgesetz-erzwungen-werden-11188431.html
[4] https://www.anthropic.com/news
[5] https://www.cbsnews.com/news/anthropic-ceo-dario-amodei-calls-white-house-actions-retaliatory-and-punitive/
[6] https://www.heise.de/news/OpenAI-erhaelt-wohl-Pentagon-Auftrag-nach-Bruch-mit-Anthropic-11193881.html
[7] mailto:ssi@heise.de
Copyright © 2026 Heise Medien
(Bild: Novikov Aleksey/Shutterstock.com)
Nach dem eskalierten Streit mit Anthropic setzt das Pentagon nun offenbar auf OpenAI. Details des Deals bleiben offen – Sicherheitsfragen stehen im Fokus.
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI [1] als Risiko für die nationale Sicherheit eingestuft hatte.
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X [2]. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte [3] gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag [4], dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
URL dieses Artikels:
https://www.heise.de/-11193881
Links in diesem Artikel:
[1] https://www.heise.de/news/KI-fuer-Waffen-und-Ueberwachung-Pentagon-droht-Anthropic-mit-Sanktionen-11179072.html
[2] https://x.com/sama/status/2027578508042723599
[3] https://www.heise.de/news/KI-Technik-fuers-US-Militaer-Anthropic-weist-das-Ultimatum-des-Pentagon-zurueck-11192161.html
[4] https://www.anthropic.com/news/statement-department-of-war
[5] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[6] mailto:ssi@heise.de
Copyright © 2026 Heise Medien
(Bild: Shutterstock.com/Kitinut Jinapuck)
Die Einführung der elektronischen Identitätskarte in der Schweiz verschiebt sich vom Sommer auf voraussichtlich Ende des Jahres 2026. Sicherheit soll vorgehen.
Der elektronische Ausweis der Schweiz, die E-ID, kommt Ende dieses Jahres, später als gedacht – dafür aber mit Anpassungen und zusätzlichem Fokus auf Sicherheit und Akzeptanz. Das hat die Schweizer Regierung, der Bundesrat, bekanntgegeben. Im September 2025 entschieden sich die Schweizer Bürgerinnen und Bürger in einer Volksabstimmung mit denkbar knapper Zustimmung für die Einführung der E-ID.
Schon einmal, heute vor fast fünf Jahren, wurde über die Einführung einer staatlichen elektronischen Identitätskarte abgestimmt. Die damalige E-ID Version 1.0 sollte jedoch von Privatunternehmen herausgegeben werden, was von den Stimmbürgern mit über 64 Prozent deutlich abgelehnt wurde. Bei der Abstimmung im vergangenen Jahr hat es mit 50,39 Prozent gerade mal gereicht, doch die Akzeptanz eines elektronischen Ausweises war erneut niedrig: Diverse Kritikpunkte und Bedenken blieben trotz oder eher wegen des verhaltenen Ja zur Bereinigung, etwa hinsichtlich des Datenschutzes und der Sicherheit. Diese sollten, so wollte es der Bundesrat nach der letzten Abstimmung, vom Bundesamt für Justiz (BJ) aus der Welt geschafft werden.
Am Mittwoch ließ sich der Bundesrat über die bereits ausgeführten sowie geplanten Anpassungen informieren und gab anschließend bekannt, dass die neue E-ID voraussichtlich ab dem 1. Dezember 2026 eingesetzt werden kann. Ursprünglich war der Sommer 2026 anvisiert worden.
Die E‑ID basiert auf einem staatlichen Wallet („Swiyu“-App) und soll digitale Identitätsnachweise ermöglichen – etwa für den Zugang zu Online‑Diensten (Altersverifikationen) oder den Bezug von amtlichen Dokumenten. Dementsprechend ist sie auch ein Schlüsselprojekt der digitalen Verwaltung.
Im Fokus der zusätzlichen Maßnahmen, die nun zügig angegangen und fortgesetzt werden sollen, stehen das Schließen von Sicherheitslücken sowie die Erhöhung der Vertrauenswürdigkeit bei der Nutzung der E-ID und der dazugehörigen Infrastruktur. So wird es laut aktuellen Plänen des Bundes nur noch für gesetzlich berechtigte Anbieterinnen möglich sein, die AHV-Nummer (Rentenversicherung) der Nutzenden abzufragen. Unautorisierte Anfragen sollen von der Swiyu-Wallet automatisch blockiert werden.
Außerdem würden Anbieter verpflichtet, im Vorhinein ihre gewünschten Datenabfragen und deren Zweck in einem öffentlich zugänglichen Register des Bundes zu hinterlegen, teilt der Bundesrat in einer Medienmitteilung mit. Fehle die Registrierung oder verlange der Anbieter zu viele Informationen über die Nutzenden, erhalten diese in ihrer Swiyu-Wallet eine Warnung und können beim Bundesamt für Justiz eine entsprechende Missbrauchsmeldung machen. Eine „fehlbare Anbieterin“ könne „das BJ als letzte Maßnahme vom E-ID-System und der Vertrauensinfrastruktur ausschließen“, heißt es.
Grundsätzlich soll für die E-ID-Inhaber:innen mehr Transparenz hergestellt werden. Vorgesehen seien auch Hinweise und Warnungen in der Swiyu-Wallet, durch die sich die Nutzenden schnell und unkompliziert über die Vertrauenswürdigkeit der Anbieter informieren könnten, teilt der Bund mit.
Die Eidgenössische Finanzkontrolle (EFK) äußerte Mitte Februar zudem einige Kritik und Bedenken hinsichtlich der sicheren und termingerechten Einführung des digitalen Identitätsausweises. Vor allem gebe es noch Sicherheitslücken, etwa bei der Verschlüsselung der Nutzdaten, die bei der Ausstellung der E-ID zwischen den daran Teilnehmenden übermittelt werden und grundsätzlich Ende-zu-Ende verschlüsselt werden müssten. Die EFK zeigte sich „jedoch überrascht, dass die entsprechende Konzeption der Nutzdatenverschlüsselung bei der E-ID noch nicht abgeschlossen ist“. Beim Projekt „Vertrauensinfrastruktur“ sei noch nicht einmal die Entwicklung einer Verschlüsselungskonzeption konsequent angegangen worden. Die Planungsunterlagen sahen ursprünglich einen Abschluss dieser Aufgaben bis Ende 2025 vor.
Als Vertrauensinfrastruktur wird die technische Plattform bezeichnet, die für die Prozesse beim Einsatz (Ausstellung, Speicherung und Verarbeitung) der E-ID vom Bund zur Verfügung gestellt wird. Die Vertrauensinfrastruktur ist offen gestaltet, sodass auch andere elektronische Nachweise darin abgebildet werden können, wie etwa der elektronische Lernfahrausweis der Schweiz (eLFA) der bereits seit Anfang des Jahres in der Swiyu-App ausgestellt wird.
Aufgrund der noch offenen Aufgaben empfahl das EFK letztlich, die Verschiebung des E-ID-Starttermins in Betracht zu ziehen, was nun auch beschlossen wurde.
URL dieses Artikels:
https://www.heise.de/-11193694
Links in diesem Artikel:
[1] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[2] mailto:kbe@heise.de
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: Natalia Klenova / Shutterstock.com)
Kleine, aber interessante Meldungshäppchen vom News-Buffet zu curl, Clang, Node.js, Delphi, Detroit, CSS, Wayang und Hermit.
In unserem leckeren Häppchen-Überblick servieren wir alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:
async und await. "https://github.com/hermit-os/hermit-rs.git", tag = "hermit-0.13.0". Außerdem gibt es eine neue Dokumentation für die Cargo-Funktionen.Solltest du ein schmackhaftes Thema vermissen, freuen wir uns über deine Mail [12].
URL dieses Artikels:
https://www.heise.de/-11190664
Links in diesem Artikel:
[1] https://daniel.haxx.se/blog/2026/02/25/curl-security-moves-again/
[2] https://www.heise.de/news/curl-Projekt-beendet-Bug-Bounty-Programm-11142345.html
[3] https://releases.llvm.org/22.1.0/tools/clang/docs/ReleaseNotes.html
[4] https://nodejs.org/en/blog/release/v25.7.0
[5] https://nodejs.org/en/blog/release/v24.14.0
[6] https://github.com/MaxiDonkey/DelphiAnthropic/blob/main/Changelog.md
[7] https://architecture.bettercode.eu/?wt_mc=intern.academy.dpunkt.konf_dpunkt_bcc_modern.empfehlung-ho.link.link&LPID=33376
[8] https://devblogs.microsoft.com/azure-sdk/azure-mcp-server-better-python-support/
[9] https://mail.openjdk.org/pipermail/announce/2026-February/000364.html
[10] https://www.w3.org/TR/2026/NOTE-css-2026-20260226/
[11] https://downloads.apache.org/wayang/1.1.1/RELEASE_NOTES
[12] mailto:developer@heise.de?subject=Ein%20Vorschlag%20f%C3%BCr%20die%20Developer-H%C3%A4ppchen
[13] mailto:who@heise.de
Copyright © 2026 Heise Medien
Die Pro-Variante der Playstation 5 erhält einen verbesserten PSSR-Upscaler, der auf AMDs FSR 4 basiert. Das gibt auch PC-Spielern neue Hoffnung.
Sonys Playstation-Chefarchitekt Mark Cerny hat für die Playstation 5 Pro einen verbesserten KI-Upscaler angekündigt. In den nächsten Wochen soll eine neue Firmware verfügbar sein, die die überarbeitete Version von Playstation Spectral Super Resolution (PSSR) mitbringt. Das erste Spiel, das den neuen Upscaler nutzt, ist Resident Evil Requiem, welches seit kurzem im Handel ist.
(Bild: Sony)
Laut Cerny [1] entstammt die neue PSSR-Version der engen Kooperation mit AMD, welche den Hauptprozessor der PS5 Pro für Sony entwickelt hat. Cerny verweist auf AMDs Upscaler FSR 4, der seit vergangenem Jahr für Desktopgrafikkarten der Baureihe Radeon RX 9000 verfügbar ist. Sony habe diese Technik in den vergangenen sechs Monaten verfeinert, sodass sie nun auch auf der Playstation 5 Pro nutzbar sei.
Die explizite Referenz von FSR 4 lässt PC-Spieler aufhorchen. AMD hat FSR 4 bislang ausschließlich auf den 9000er-Radeons freigegeben; diese nutzen die Grafikchiparchitektur RDNA4. Die Playstation 5 Pro verwendet hingegen eine RDNA3-GPU mit Sony-spezifischen Erweiterungen. Für Desktop-Grafikkarten der RDNA3-Generation (Radeon RX 7000) gibt es derzeit kein FSR 4.
In der Gerüchteküche wabert aber schon länger herum, dass FSR 4 auf RDNA3-GPUs zwar stärkere Performanceeinbrüche hätte, aber grundsätzlich durchaus funktionieren würde. Die Aussagen fußen auf internen Betatreibern aus der Zeit vor dem offiziellen FSR-4-Start, wo die Technik auch noch auf RDNA3 anwählbar war. Und in der vergangenen Woche machte die Meldung die Runde, wonach eine geleakte DLL-Datei mit FSR 4.1 [2] erneut RDNA3-GPUs unterstützen würde. Diese Datei entstammt wiederum einem neueren Entwicklungspfad als dem der aktuellen Treiberversion Adrenalin 26.2.2, die vor ein paar Tagen veröffentlicht wurde.
URL dieses Artikels:
https://www.heise.de/-11193995
Links in diesem Artikel:
[1] https://blog.playstation.com/2026/02/27/upgraded-pssr-upscaler-is-coming-to-ps5-pro/
[2] https://videocardz.com/newz/amd-fsr-4-1-dll-reportedly-leaks-and-rdna-3-users-are-already-testing-it
[3] https://www.heise.de/ct
[4] mailto:mue@ct.de
Copyright © 2026 Heise Medien