(Bild: Markus Mainka / Shutterstock.com)
Eine DDoS-Attacke auf die IT-Systeme der Deutschen Bahn hat das Buchungssystem gestört. Bahn.de und DB Navigator waren betroffen.
Ein Cyberangriff auf die Deutsche Bahn (DB) hat zu IT-Störungen geführt. Betroffen waren die Buchungssysteme.
Wie die Deutsche Bahn mitteilte [1], handelte es sich um eine Distributed-Denial-of-Service-Attacke (DDoS). Diese habe Auswirkungen auf die Auskunfts- und Buchungssysteme auf Bahn.de gehabt. Auch die App DB Navigator war betroffen.
Der Angriff begann am Dienstagnachmittag. Zeitweise gab es Schwierigkeiten, Fahrplanauskünfte einzuholen oder Fahrten zu buchen. Am Dienstagabend, meldete die Bahn zunächst, dass die Auskunfts- und Buchungssysteme „seit den Abendstunden wieder weitgehend stabil“ liefen.
Am Mittwochmorgen traten jedoch erneut Probleme auf. Diese seien inzwischen behoben, teilte die DB am späten Mittwochvormittag mit. „Unsere Abwehrmaßnahmen haben gegriffen“, Bahn.de und DB Navigator stünden wieder zur Verfügung.
URL dieses Artikels:
https://www.heise.de/-11180991
Links in diesem Artikel:
[1] https://www.deutschebahn.com/de/presse/Newsblog-12829716
[2] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[3] mailto:wpl@heise.de
Copyright © 2026 Heise Medien
(Bild: Gorodenkoff/Shutterstock.com)
Es sind wichtige Sicherheitsupdates für unter anderem Dell RecoverPoint for Virtual Machines und Avamar Server erschienen. Es gibt bereits Attacken.
Angreifer haben es schon länger auf eine „kritische“ Sicherheitslücke in Dell RecoverPoint for Virtual Machines abgesehen. Sicherheitspatches sind verfügbar. Weiterhin sind noch Dell Avamar Server, Avamar Virtual Edition, Networking OS10, Power Max EEM, Solutions Enabler Virtual Appliance, Unisphere 360, Unisphere for PowerMax und Unisphere for PowerMax Virtual Appliance angreifbar.
Vor den laufenden Attacken auf eine „kritische“ Schwachstelle mit Höchstwertung (CVE-2026-22769 CVSS Score 10 von 10) in Dell RecoverPoint for Virtual Machines warnen Sicherheitsforscher von Google und Mandiant in einem Beitrag [1]. Wie aus einer Warnmeldung des Computerherstellers hervorgeht [2], greifen entfernte Angreifer aufgrund von hartcodierten Zugangsdaten ohne Authentifizierung auf Instanzen zu. Dabei setzen sie sich mit Root-Rechten in Systemen mittels einer Hintertür (Grimbolt) fest und kompromittieren PCs so vollständig.
Dahinter sollen staatliche chinesische Hacker der Gruppe UNC6201 stecken. Die Sicherheitsforscher geben an, dass bereits seit Mitte 2024 Attacken laufen. In welchem Umfang die Angriffe stattfinden und auf welche Zielpersonen es die Angreifer abgesehen haben, ist derzeit nicht bekannt. Admins sollten sicherstellen, dass die gegen die Angriffe abgesicherte Ausgabe 6.0 SP3 (6.0.3.1) installiert ist. Weitere Informationen zum Sicherheitsupdate stehen in der Warnmeldung [3].
Überdies können Angreifer noch weitere Dell-Produkte wie Avamar Server und Unisphere for PowerMax attackieren. Diese Schwachstellen sind mit dem Bedrohungsgrad „mittel“ eingestuft. Setzen Angreifer erfolgreich an den Lücken an, können sie unter anderem eigenen Code ausführen oder Dateien löschen. Angaben zu den Sicherheitsupdates finden sich in den verlinkten Warnmeldungen:
URL dieses Artikels:
https://www.heise.de/-11180541
Links in diesem Artikel:
[1] https://cloud.google.com/blog/topics/threat-intelligence/unc6201-exploiting-dell-recoverpoint-zero-day/?hl=en
[2] https://www.dell.com/support/kbdoc/en-us/000426773/dsa-2026-079
[3] https://www.dell.com/support/kbdoc/en-us/000426773/dsa-2026-079
[4] https://www.dell.com/support/kbdoc/en-us/000429181/dsa-2026-033-security-update-for-dell-networking-os10-vulnerabilities
[5] https://www.dell.com/support/kbdoc/en-us/000425796/dsa-2026-053-security-update-for-dell-avamar-server-and-dell-avamar-virtual-edition-improper-limitation-of-a-pathname-to-a-restricted-directory-path-traversal-vulnerability
[6] https://www.dell.com/support/kbdoc/en-us/000347698/dsa-2025-271-security-update-for-dell-avamar-and-dell-avamar-virtual-edition-multiple-vulnerabilities
[7] https://www.dell.com/support/kbdoc/en-us/000402262/dsa-2025-425-dell-powermaxos-dell-powermax-eem-dell-unisphere-for-powermax-dell-unisphere-for-powermax-virtual-appliance-dell-unisphere-360-dell-solutions-enabler-virtual-appliance-security-update-for-multiple-vulnerabilities
[8] https://www.dell.com/support/kbdoc/en-us/000347698/dsa-2025-271-security-update-for-dell-avamar-and-dell-avamar-virtual-edition-multiple-vulnerabilities
[9] https://www.dell.com/support/kbdoc/en-us/000402262/dsa-2025-425-dell-powermaxos-dell-powermax-eem-dell-unisphere-for-powermax-dell-unisphere-for-powermax-virtual-appliance-dell-unisphere-360-dell-solutions-enabler-virtual-appliance-security-update-for-multiple-vulnerabilities
[10] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[11] mailto:des@heise.de
Copyright © 2026 Heise Medien
(Bild: David Tran Photo/Shutterstock.com)
Mozilla wollte den Support für Firefox unter Windows 7, 8 und 8.1 bereits 2024 kappen. Der erweiterte Support endet nun im Februar.
Firefox 115 hat noch Windows 7, 8 und 8.1 unterstützt. Nachdem Nutzer und Nutzerinnen mit diesen Betriebssystemen auf die Version Firefox ESR 115 gelenkt wurden, erfährt nun auch diese ihr Support-Ende. Damit endet nun auch im Februar die Unterstützung für die veralteten Betriebssysteme.
Das erklären die Mozilla-Entwickler in einem aktuellen Support-Beitrag [1]. „Microsoft hat die offizielle Unterstützung für Windows 7, 8 und 8.1 im Januar 2023 beendet. Nicht unterstützte Betriebssysteme erhalten keine Sicherheitsupdates und enthalten bekannte Schwachstellen. Ohne offizielle Unterstützung von Microsoft wird die Wartung von Firefox für veraltete Betriebssysteme kostspielig und riskant für Nutzerinnen und Nutzer“, führen sie dort aus.
Die Frage, ob Firefox noch sicheres Surfen unter den genannten Windows-Versionen ermöglicht, schreiben die Programmierer sehr klar: „Mozilla stellt bis zum Ende der ESR-Version 115 im Februar 2026 wichtige Sicherheitsupdates über den Firefox-ESR-Kanal bereit. Danach kommen keine weiteren Sicherheitsupdates mehr, und es empfiehlt sich dringend, auf eine noch unterstützte Microsoft Windows-Version zu aktualisieren.“ Sie geben aber auch den Tipp, gegebenenfalls alternative Betriebssysteme in Betracht zu ziehen: „Wenn Ihre aktuelle Hardware aus irgendeinem Grund Windows 10 oder höher nicht unterstützt, können Sie auf ein Linux-basiertes Betriebssystem umsteigen. Die überwiegende Mehrheit der Linux-Distributionen wird mit Firefox als Standardbrowser ausgeliefert.“
Der Wechsel auf einen anderen Webbrowser sei auch keine Option, da etwa Google Chrome den Support für Windows 7, 8 und 8.1 bereits [2] eingestellt hat. Selbiges gelte für Microsoft Edge.
Dass Firefox die Unterstützung für die alten Windows-Versionen einstellt, war schon länger klar. Ursprüngliche Planungen sahen sogar den September 2024 [3] als Schlusspunkt dafür vor – da sollten auch die alten macOS-Versionen 10.12, 10.13 und 10.14 aus dem Support fallen. Dort kündigte die Mozilla-Foundation auch an, dass betroffene Firefox-Installationen automatisch auf den Firefox-ESR-115-Zweig umgestellt werden.
URL dieses Artikels:
https://www.heise.de/-11180671
Links in diesem Artikel:
[1] https://support.mozilla.org/en-US/kb/firefox-users-windows-7-8-and-81-moving-extended-support
[2] https://www.heise.de/news/Webbrowser-Firefox-beendet-Support-fuer-altes-Windows-und-macOS-9154400.html
[3] https://www.heise.de/news/Webbrowser-Firefox-beendet-Support-fuer-altes-Windows-und-macOS-9154400.html
[4] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[5] mailto:dmk@heise.de
Copyright © 2026 Heise Medien
(Bild: Michael Vi/Shutterstock.com)
Nach MySQL-Community-Gipfeln fordert ein offener Brief Oracle zu Dialog über die Zukunft der Datenbank auf. Genügen Oracles jüngste Ankündigungen den Kritikern?
Knapp 200 Entwickler, Anwender und Unternehmen aus dem MySQL-Ökosystem haben Oracle in einem offenen Brief [1] aufgefordert, die künftige Governance der Open-Source-Datenbank zu überdenken. Das Schreiben wurde nach zwei MySQL Community Summits in San Francisco und Brüssel im Januar und Februar 2026 veröffentlicht. Federführend ist das auf MySQL-Services spezialisierte Unternehmen Percona, dessen Co-Founder Vadim Tkachenko für die Initiatoren spricht.
Im Kern kritisiert die Community mangelnde Transparenz, Ressourcenprobleme und fehlende Mitsprache bei der Weiterentwicklung von MySQL. „Die Entwicklung findet hinter verschlossenen Türen statt“, heißt es in einem begleitenden Blogbeitrag von Percona [2]. Private Code-Drops ohne öffentliche Diskussion, intransparente Behandlung von Sicherheitslücken und ein im Herbst 2025 erfolgter Personalabbau von rund 50 Prozent hätten das Vertrauen erschüttert. Seit Monaten gibt es kaum noch Commits im öffentlichen mysql/mysql-server-Repository auf GitHub.
Besonders problematisch sei die fehlende Transparenz bei Sicherheitsbugfixes. Anwender könnten nicht verifizieren, ob bekannte Schwachstellen ihre Installationen betreffen. Zudem sei unklar, wie Oracle künftig Ressourcen für MySQL bereitstellen wolle, nachdem wichtige Entwickler das Unternehmen verlassen haben. Oracle hatte die Entwicklungsressourcen zunehmend in die proprietäre Cloud-Datenbank HeatWave verlagert. Auch Frederic Descamps, langjähriger MySQL Community Manager bei Oracle, kündigte seinen Wechsel zur MariaDB Foundation [3] an.
Die Unterzeichner schlagen Oracle drei unterschiedliche Governance-Modelle vor. Beim ersten, zentralisierten Modell würde Oracle nach dem Vorbild der OpenELA-Initiative eine Foundation anführen, die operative Last aber auf Partner verteilen. Beim zweiten Modell würde Oracle als strategischer Partner in ein von der Industrie geführtes Konsortium eintreten. Das dritte, vollständig autonome Modell sähe eine unabhängige Organisation vor, die MySQL-Advocacy betreibt und überprüft, ob Oracle die Versprechen einhält.
Bis Ende März 2026 soll eine Entscheidung über das Governance-Modell fallen, im zweiten Quartal die rechtliche Struktur geschaffen und im dritten Quartal eine Foundation gelauncht werden. Peter Zaitsev, Mitgründer von Percona, betont die Notwendigkeit unabhängiger Kontrolle: „Wir brauchen jemanden, der mit einer Stimme sprechen und sagen kann: Oracle, das hast du nicht geliefert, und das ist nicht in Ordnung.“
Oracle reagierte bereits am 11. Februar 2026 mit einem Blogpost zur „Neuen Ära des Engagements mit der MySQL-Community“ auf die sich zuspitzende Kritik aus der MySQL-Community. Der Konzern kündigte unter der Führung von SVP Jason Wilcox eine Drei-Säulen-Strategie an: Innovation in der Community Edition, Erweiterung der Developer-Community und mehr Transparenz.
Konkret verspricht Oracle für MySQL 9.7 LTS (erwartet im April 2026) Vektorfunktionen für KI-Workloads, einen standardmäßig aktivierten Hypergraph Optimizer, vollständige JSON-Duality-Unterstützung mit DML sowie modernisierte Foreign-Key-Constraints. Zur Transparenz sollen öffentliche Diskussionen der Vorschläge, besseres Feedback zu abgelehnten Patches und die Veröffentlichung von Security-Bugs nach erfolgten Fixes gehören. Auch eine Roadmap zur geplanten Weiterentwicklung der Datenbank will Oracle veröffentlichen. Die Ankündigungen [4] gehen damit auf zentrale Kritikpunkte des offenen Briefs ein.
Trotz der Oracle-Ankündigungen bleibt die Community skeptisch. „Wir brauchen Verifizierung durch Taten, nicht durch Worte“, heißt es im Percona-Blogpost. Vadim Tkachenko kritisiert: „Das Oracle-MySQL-Team ist derzeit im Chaos.“ Zentrale Fragen zu den nötigen Ressourcen seien unbeantwortet geblieben, eine Ernennung eines Vice President für die MySQL-Entwicklung stehe weiterhin aus.
Der offene Brief ist auch Ausdruck eines größeren Problems: MySQL verliert seit Jahren an Popularität gegenüber PostgreSQL, das zur Standardwahl für neue Projekte geworden ist. PostgreSQL verfügt über eine unabhängige, dezentrale Governance durch die PostgreSQL Global Development Group – genau das, was sich die MySQL-Community von Oracle erhofft. Die Unterzeichner argumentieren, dass eine unabhängige Foundation mit transparenten Entscheidungsprozessen MySQL wieder wettbewerbsfähiger machen und die Weiterentwicklung verbessern könnte.
Die historische Entwicklung von MySQL von der Gründung durch Michael Widenius und David Axmark 1995 über den Kauf durch Sun Microsystems 2008 bis zur Oracle-Übernahme 2009 zeigt: Governance-Fragen begleiten die Datenbank seit jeher. Bereits nach der Oracle-Übernahme entstand mit MariaDB ein Fork unter Führung des MySQL-Gründers Widenius. Ob Oracle diesmal zu substanziellen Zugeständnissen bereit ist oder ob eine neue Fragmentierung des MySQL-Ökosystems droht, wird sich in den kommenden Wochen zeigen.
URL dieses Artikels:
https://www.heise.de/-11180613
Links in diesem Artikel:
[1] https://letter.3306-db.org/
[2] https://www.percona.com/blog/an-open-letter-to-oracle-lets-talk-about-mysqls-future/
[3] https://lefred.be/content/i-joined-the-mariadb-foundation/
[4] https://www.heise.de/news/Kein-Aus-fuer-MySQL-Features-fuer-Community-Edition-und-mehr-Transparenz-11179156.html
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de
Copyright © 2026 Heise Medien
(Bild: Die Produktwerker)
In dieser Podcastfolge geht es um das 3-Horizonte-Modell, das Produktarbeit zwischen Kerngeschäft, Wachstum und Zukunft einordnet.
Was bedeutet das 3-Horizonte-Modell für die Arbeit von Product-Ownern? Darüber diskutieren Tim Klein und Dominique Winter in der aktuellen Podcastfolge. Das Modell stammt zwar aus der Strategiedebatte, dient in der Praxis aber vor allem als Orientierungsrahmen für Produktentscheidungen, Metriken und Erwartungen. Es hilft, Produktarbeit nicht nur auf das Tagesgeschäft zu reduzieren, sondern systematisch im Spannungsfeld von heute, morgen und übermorgen zu betrachten.
Im ersten Horizont steht das bestehende Kerngeschäft im Mittelpunkt. Organisationen sichern hier Wertschöpfung, stabilisieren Produkte, optimieren Abläufe und reagieren auf Marktanforderungen. Die Unsicherheit ist vergleichsweise gering, weil Markt, Nutzergruppen und Geschäftsmodell meist gut verstanden sind. Ziel ist, den Lebenszyklus des Produkts wirtschaftlich tragfähig zu verlängern. Wer jedoch ausschließlich in diesem Horizont plant, riskiert strategischen Stillstand.
Der zweite Horizont umfasst aufkommende Geschäftsfelder und Produktbestandteile, die erste Marktsignale liefern. Im Fokus steht, aus Ideen tragfähige Angebote zu entwickeln und Product-Market-Fit zu erreichen. Kundennähe, schnelles Feedback und konsequentes Lernen prägen diese Phase; der Schwerpunkt verschiebt sich von Stabilität hin zu Wachstum und Skalierung.
Im dritten Horizont geht es um Zukunftsoptionen unter hoher Unsicherheit. Statt gesicherter Umsätze dominieren Hypothesen, Problemverständnis und Experimente, die ausdrücklich scheitern dürfen. Das Modell macht damit sichtbar, dass Innovation nicht nur Tempo, sondern auch geschützten Raum braucht – zum Lernen, Ausprobieren und zum Umgang mit unklaren Ergebnissen.
Für Product-Owner bedeutet das eine bewusste, horizontabhängige Arbeitsweise. Im ersten Horizont dominieren Effizienz, Stabilität und Priorisierung innerhalb eines klaren Rahmens. Im zweiten Horizont stehen Validierung, Marktnähe und schnelles Nachjustieren im Vordergrund. Im dritten Horizont sind Mut, Neugier und Experimentierkompetenz entscheidend.
Als Portfolio- und Kommunikationsinstrument schafft das 3-Horizonte-Modell [4] Transparenz darüber, woran Teams tatsächlich arbeiten. Es verhindert, dass Innovationsvorhaben vorschnell an Kriterien des Kerngeschäfts gemessen werden und schützt umgekehrt etablierte Produkte vor ungerichteter Experimentierfreude. Damit wird das Modell weniger zum theoretischen Konstrukt als zu einem praktischen Werkzeug: Es verbindet Produktstrategie mit konkreter Produktarbeit und unterstützt nachhaltigen Produkterfolg über mehrere Zeitebenen hinweg.
Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Product Owner im 3-Horizonte-Modell [5]“.
URL dieses Artikels:
https://www.heise.de/-11180859
Links in diesem Artikel:
[1] https://product-owner-day.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_pod2.empfehlung-ho.link.link
[2] https://product-owner-day.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_pod2.empfehlung-ho.link.link
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://en.wikipedia.org/wiki/Three_Horizons
[5] https://produktwerker.de/product-owner-im-3-horizonte-modell/
[6] mailto:mai@heise.de
Copyright © 2026 Heise Medien
(Bild: chana/Shutterstock.com)
KI-Tools verändern die Softwareentwicklung grundlegend. Wer in Grundlagenwissen und tiefe Expertise investiert, sichert seine Karriere langfristig.
Die Softwarebranche erlebt gerade einen Umbruch, der viele Entwicklerinnen und Entwickler verunsichert. Tools wie Claude Code, Codex, Copilot und andere KI-gestützte Assistenten übernehmen Aufgaben, die noch vor wenigen Jahren als Kernkompetenz galten. Code schreiben, Fehler finden, Dokumentation erstellen: All das erledigen diese Werkzeuge inzwischen in beeindruckender Qualität. Die Frage, welche Fähigkeiten in einer solchen Welt noch gefragt sind, beschäftigt Einsteigerinnen und Einsteiger ebenso wie erfahrene Fachkräfte.
Doch diese aktuellen Diskussionen sind nur der jüngste Gipfel einer Entwicklung, die ich schon seit über zwanzig Jahren in der Branche beobachte, und meine Antwort auf diese Frage ist eindeutig (und seit jeher die gleiche): Der Schlüssel zu einer erfolgreichen Karriere in der Softwareentwicklung schlechthin war schon immer und ist weiterhin das sogenannte T-förmige Wissen. Doch was früher ein Vorteil war, wird heute zur Notwendigkeit. Wer in Zeiten von KI bestehen will, muss verstehen, was hinter den Werkzeugen steckt, die sie oder er täglich einsetzt. Oberflächliches Wissen, das gestern noch ausgereicht hat, um Aufgaben zu erledigen, genügt morgen nicht mehr.
Das Konzept des T-förmigen Wissens stammt ursprünglich aus dem Management und beschreibt ein Kompetenzprofil, das zwei Dimensionen vereint. Der vertikale Balken des T steht für tiefe Expertise in einem spezifischen Fachgebiet. Hier geht es um echte Meisterschaft, um ein Verständnis, das über die Oberfläche hinausreicht und auch die Randfälle, die Geschichte und die Designentscheidungen eines Themenfeldes umfasst. Der horizontale Balken repräsentiert ein breites Grundlagenwissen, das über die eigene Spezialisierung hinausreicht und es ermöglicht, Verbindungen herzustellen und in verschiedenen Kontexten handlungsfähig zu sein.
In der Softwareentwicklung bedeutet das konkret: Eine Entwicklerin oder ein Entwickler mit T-förmigem Profil beherrscht ein Themenfeld wirklich fundiert, sei es eine bestimmte Technologie, eine Architekturform oder einen methodischen Ansatz. Diese Person kann nicht nur Standardaufgaben lösen, sondern auch ungewöhnliche Probleme analysieren, Entscheidungen begründen und andere anleiten. Gleichzeitig verfügt sie über solides Wissen in angrenzenden Bereichen: Algorithmen, Datenstrukturen, Betriebssysteme, Netzwerke, Security und vieles mehr.
Das unterscheidet T-förmige Fachkräfte sowohl von reinen Spezialisten als auch von Generalisten. Spezialistinnen und Spezialisten kennen ihr Fachgebiet zwar in- und auswendig, können aber außerhalb davon kaum Zusammenhänge herstellen. Sie sind gefangen in ihrer Nische und hilflos, sobald ein Problem die Grenzen ihres Expertenwissens überschreitet. Generalisten wissen von allem ein wenig, erreichen aber nirgendwo eine Tiefe, die echten Mehrwert schafft. Sie können mitreden, aber keine schwierigen Probleme lösen. Das T-Profil kombiniert das Beste aus beiden Welten: tiefes Verständnis dort, wo es zählt, und genug Breite, um größere Zusammenhänge zu erkennen und interdisziplinär zu arbeiten.
In Stellenanzeigen und Diskussionen über Karrierechancen geht es oft um konkrete Technologien. Java oder C#? Python oder Go? React oder Angular? Diese Fragen führen regelmäßig zu leidenschaftlichen Debatten, doch sie lenken vom Wesentlichen ab. Sie suggerieren, dass die Wahl der richtigen Technologie über Erfolg und Misserfolg entscheidet. Das ist ein Irrtum.
Meine Erfahrung zeigt: Es ist nahezu irrelevant, welche Programmiersprache jemand als Erste wirklich beherrscht. Was zählt, ist die Tiefe des Verständnisses. Wer eine Sprache wirklich durchdrungen hat, wer ihre Paradigmen, ihre Stärken und Schwächen, ihre typischen Anwendungsmuster verstanden hat, kann andere Sprachen vergleichsweise schnell erlernen. Die Syntax mag sich unterscheiden, die zugrundeliegenden Konzepte bleiben oft ähnlich.
Objektorientierung funktioniert in Java, C#, Python und vielen anderen Sprachen nach denselben Grundprinzipien. Kapselung, Vererbung, Polymorphie: Diese Konzepte tragen verschiedene Namen und haben unterschiedliche syntaktische Ausprägungen, aber ihr Kern bleibt derselbe. Funktionale Konzepte wie Immutability, reine Funktionen oder Higher-Order-Functions finden sich in Haskell ebenso wie in JavaScript oder Kotlin. Wer diese Konzepte einmal verstanden hat, erkennt sie überall wieder. Der Wechsel von einer Sprache zur anderen wird dann zur Übersetzungsaufgabe, nicht zum Neulernen.
Die Programmiersprache ist ein Werkzeug, nicht das Ziel. Ein Handwerker, der sein Handwerk versteht, kann mit verschiedenen Werkzeugen arbeiten. Er muss nicht für jede Schraube einen neuen Beruf erlernen. Genauso verhält es sich in der Softwareentwicklung: Die Konzepte sind übertragbar, die konkrete Sprache ist austauschbar. Wer das begriffen hat, verliert die Angst vor neuen Technologien und gewinnt die Freiheit, das jeweils passende Werkzeug zu wählen.
Neben der tiefen Beherrschung einer Programmiersprache gibt es einen Kanon an Grundlagenwissen, der für jede Softwareentwicklerin und jeden Softwareentwickler unverzichtbar ist. Dieser Kanon bildet den horizontalen Balken des T. Dabei geht es nicht darum, in jedem dieser Bereiche zum Experten zu werden. Das wäre weder realistisch noch notwendig. Es geht darum, die verschiedenen Abstraktionsebenen zu verstehen und konzeptionell einordnen zu können. Wer die Schichten kennt, auf denen die eigene Arbeit aufbaut, trifft bessere Entscheidungen und erkennt Probleme früher.
Algorithmen und Datenstrukturen bilden das Fundament. Wer nicht versteht, warum eine Hash-Map schneller ist als eine lineare Suche, oder wann ein Baum einer Liste vorzuziehen ist, wird dauerhaft suboptimale Entscheidungen treffen. Das gilt unabhängig davon, ob man diese Strukturen selbst implementiert oder fertige Bibliotheken verwendet. Denn auch die Auswahl der richtigen Bibliothek erfordert dieses Verständnis. Eine falsche Datenstruktur kann den Unterschied zwischen einer responsiven Anwendung und einem trägen System ausmachen.
Eng damit verbunden ist die Laufzeitkomplexität. Die O-Notation mag auf den ersten Blick akademisch wirken, doch sie entscheidet im Alltag darüber, ob eine Anwendung performant läuft oder bei größeren Datenmengen in die Knie geht. Wer einmal erlebt hat, wie eine harmlos aussehende, verschachtelte Schleife einen Server lahmlegt, vergisst diese Lektion nicht mehr. Der Unterschied zwischen O(n) und O(n^2) ist bei kleinen Datenmengen vernachlässigbar, bei großen Datenmengen jedoch fatal.
Auf einer tieferen Ebene liegt das Verständnis von Speicherverwaltung. Stack und Heap, Referenzen und Werte, Garbage Collection und manuelles Memory-Management: Diese Konzepte bestimmen, wie Programme mit Ressourcen umgehen. Auch wer in einer Hochsprache mit automatischer Speicherverwaltung arbeitet, profitiert davon, die darunterliegende Mechanik zu verstehen. Memory-Leaks, Performanceprobleme und schwer zu findende Bugs haben ihre Ursache oft in mangelndem Verständnis dieser Grundlagen. Wer weiß, was unter der Haube passiert, debuggt effizienter und schreibt robusteren Code.
Security ist ein weiteres Feld, das niemand ausklammern sollte. Die häufigsten Sicherheitslücken basieren auf Fehlern, die mit grundlegendem Wissen vermeidbar wären: SQL-Injection, Cross-Site-Scripting, fehlerhafte Authentifizierung. Diese Angriffsvektoren sind seit Jahrzehnten bekannt, und dennoch tauchen sie immer wieder auf. Sicherheit ist keine Aufgabe für Spezialistinnen und Spezialisten allein, sondern muss von allen mitgedacht werden, die Code schreiben. Ein Grundverständnis von Bedrohungsmodellen und Abwehrstrategien gehört zum Handwerkszeug.
Schließlich gehört auch Architekturwissen zum unverzichtbaren Repertoire. Wie strukturiert man eine Anwendung so, dass sie wartbar, erweiterbar und testbar bleibt? Welche Muster und Prinzipien haben sich bewährt? Wann ist ein Monolith die richtige Wahl, wann eine verteilte Architektur? Diese Fragen lassen sich nur beantworten, wenn man verschiedene Ansätze kennt und ihre Vor- und Nachteile einschätzen kann. Architekturentscheidungen haben langfristige Konsequenzen und sind oft schwer zu revidieren. Wer sie fundiert trifft, spart später viel Aufwand.
Technisches Wissen allein macht allerdings noch keine erfolgreiche Karriere. Mindestens zwei weitere Faktoren wirken als Multiplikatoren und unterscheiden durchschnittliche von herausragenden Entwicklerinnen und Entwicklern. Ohne diese Faktoren bleibt technische Kompetenz abstrakt und entfaltet nicht ihr volles Potenzial.
Der erste Faktor ist Domänenwissen. Software existiert nicht im luftleeren Raum. Sie löst Probleme in konkreten Anwendungsfeldern: Finanzwesen, Gesundheitswesen, Logistik, E-Commerce oder unzähligen anderen Bereichen. Wer die Fachlichkeit der eigenen Domäne versteht, wer mit Anwenderinnen und Anwendern auf Augenhöhe sprechen kann, wer die Geschäftsprozesse kennt und ihre Tücken durchschaut, bringt einen Mehrwert ein, den rein technische Expertise nicht bieten kann.
Domänenwissen ermöglicht es, die richtigen Fragen zu stellen. Es schützt davor, technisch brillante Lösungen für die falschen Probleme zu bauen. Es hilft dabei, Anforderungen kritisch zu hinterfragen und Alternativen vorzuschlagen, die den eigentlichen Bedarf besser treffen. Wer versteht, warum ein Geschäftsprozess so funktioniert, wie er funktioniert, kann ihn intelligenter digitalisieren. Diese Fähigkeit wird umso wertvoller, je mehr die reine Code-Produktion automatisiert wird.
Der zweite Faktor ist Kommunikation. Softwareentwicklung ist Teamarbeit. Ideen müssen vermittelt, Entscheidungen begründet, Konflikte gelöst werden. Wer komplexe technische Sachverhalte verständlich erklären kann, wer zuhört und nachfragt, wer Feedback geben und annehmen kann, wird zum wertvollen Bindeglied zwischen Technik und Fachlichkeit. In einer Welt, in der KI immer mehr Routineaufgaben übernimmt, werden genau diese menschlichen Fähigkeiten wichtiger, nicht unwichtiger.
Kommunikationsfähigkeit ist keine Soft-Skill-Nebensache. Sie entscheidet darüber, ob gute Ideen umgesetzt werden oder in Meetings versanden. Sie bestimmt, ob ein Team effektiv zusammenarbeitet oder aneinander vorbei entwickelt. Die beste technische Lösung nützt wenig, wenn sie niemand versteht oder akzeptiert.
KI-gestützte Entwicklungswerkzeuge sind beeindruckend. Sie generieren funktionierenden Code aus natürlichsprachlichen Beschreibungen. Sie schlagen Vervollständigungen vor, die oft genau das treffen, was man ohnehin schreiben wollte. Sie finden Fehler, erklären komplexe Codepassagen und erstellen Dokumentation. Für Routineaufgaben sind sie bereits heute unverzichtbare Helfer.
Doch diese Fähigkeiten haben Grenzen, die sich bei genauerem Hinsehen offenbaren. KI-Tools sind gut darin, Muster zu erkennen und zu reproduzieren. Sie versagen dort, wo es um echtes Verständnis geht. Sie generieren Code, der syntaktisch korrekt ist, aber subtile logische Fehler enthält. Sie schlagen Lösungen vor, die funktionieren, aber nicht skalieren. Sie produzieren en passant Sicherheitslücken, weil sie den Kontext nicht verstehen. Ohne menschliche Überprüfung entsteht technische Schuld im Zeitraffer.
Hier zeigt sich der Wert von t-förmigem Wissen: Wer die Grundlagen versteht, kann KI-generierten Code bewerten. Wer Algorithmen kennt, erkennt ineffiziente Lösungen. Wer Security-Prinzipien verinnerlicht hat, sieht Sicherheitslücken, bevor sie zu Problemen werden. Wer Architekturerfahrung mitbringt, kann einschätzen, ob ein Vorschlag ins Gesamtbild passt oder nicht.
KI verschiebt die Anforderungen, aber sie eliminiert sie nicht. Routineaufgaben werden automatisiert, doch die Fähigkeit, diese Automatisierung sinnvoll einzusetzen, erfordert mehr Verständnis, nicht weniger. Der Programmierer der Zukunft wird weniger Zeit mit dem Schreiben von Boilerplate-Code verbringen, aber mehr Zeit mit dem Verstehen, Bewerten und Integrieren von Lösungen. Das erfordert fundiertes Wissen, das über Copy-Paste-Kompetenz hinausgeht.
Meine These ist klar: Wer nur einen einzelnen Aspekt aus der beschriebenen Kombination abdeckt, wird es in Zukunft schwer haben. Die Zeit der Spezialisten ohne Breite und der Generalisten ohne Tiefe neigt sich dem Ende zu.
Wer nur eine Programmiersprache kennt, aber weder Tiefe noch Breite mitbringt, ist austauschbar. Die Syntax einer Sprache beherrscht jedes KI-Tool aus dem Stegreif. Das Verständnis der dahinterliegenden Konzepte nicht. Wer Java schreiben kann, aber nicht erklären kann, warum ein bestimmtes Pattern in einem bestimmten Kontext sinnvoll ist, verliert gegenüber einer KI, die dasselbe schneller produziert.
Wer nur Grundlagenwissen hat, ohne es praktisch anwenden zu können, bleibt theoretisch. Wissen, das nie zur Anwendung kommt, verliert seinen Wert. Die Fähigkeit, Theorie in funktionierende Lösungen zu übersetzen, macht den Unterschied zwischen akademischem Interesse und beruflicher Kompetenz.
Wer nur Domänenwissen mitbringt, ohne technisches Verständnis, kann zwar Anforderungen formulieren, aber nicht einschätzen, was realistisch umsetzbar ist. Die Brücke zwischen Fachlichkeit und Technik kann nur schlagen, wer beide Seiten versteht. Andernfalls entstehen Spezifikationen, die an der Realität vorbeigehen.
Wer nur kommunizieren kann, aber weder technisch noch fachlich fundiert ist, wird schnell als oberflächlich wahrgenommen. Kommunikation ohne Substanz erzeugt keinen Mehrwert. Sie führt zu Meetings ohne Ergebnisse und Präsentationen ohne Tiefgang.
Die Zukunft gehört denen, die diese Fähigkeiten kombinieren. Das bedeutet nicht, dass jede Einzelperson in allem exzellent sein muss. Es bedeutet, dass ein solides Fundament in allen Bereichen notwendig ist, ergänzt durch tiefe Expertise in mindestens einem davon. Diese Kombination macht den Unterschied zwischen ersetz- und unverzichtbar.
T-förmiges Wissen ist kein Zustand, den man einmal erreicht und dann für immer hält. Technologien verändern sich. Domänen entwickeln sich weiter. Was heute tiefe Expertise darstellt, kann in zehn Jahren Basiswissen sein. Was heute als Grundlage gilt, wird möglicherweise durch neue Paradigmen abgelöst. Die einzige Konstante in unserer Branche ist der Wandel.
Der eigentliche Karrierehebel ist deshalb nicht das Wissen selbst, sondern die Fähigkeit, kontinuierlich zu lernen. Wer gelernt hat zu lernen, wer weiß, wie man sich neue Themenfelder erschließt, wer die Disziplin aufbringt, regelmäßig in die eigene Weiterbildung zu investieren, kann sich immer wieder neu aufstellen. Diese Fähigkeit ist wichtiger als jedes konkrete Wissen, denn sie ermöglicht es, konkretes Wissen immer wieder zu erneuern.
Diese Lernfähigkeit ist selbst eine Fähigkeit, die man entwickeln kann. Sie umfasst das Wissen darum, wie man effektiv lernt, welche Ressourcen zuverlässig sind, wie man Wichtiges von Unwichtigem unterscheidet. Sie erfordert die Bereitschaft, sich immer wieder auf Anfängerniveau zu begeben, Fehler zu machen und daraus zu lernen. Das ist unbequem, aber unvermeidlich.
KI-Tools können bei diesem Lernprozess unterstützen. Sie können Konzepte erklären, Beispiele generieren, Fragen beantworten. Doch die Entscheidung, was man lernt und warum, bleibt beim Menschen. Die Integration neuen Wissens in das eigene Verständnisgebäude ist eine kognitive Leistung, die keine KI abnehmen kann. Lernen bleibt Arbeit, auch wenn die Werkzeuge besser werden.
Wer heute in T-förmiges Wissen investiert, tut also mehr, als nur aktuelle Kompetenzlücken zu schließen. Sie oder er entwickelt die Grundlage für lebenslanges Lernen in einer Branche, deren einzige Konstante der Wandel ist. Und genau das macht den Unterschied zwischen einer Karriere, die von technologischen Umbrüchen bedroht wird, und einer, die von ihnen profitiert.
URL dieses Artikels:
https://www.heise.de/-11165151
Links in diesem Artikel:
[1] mailto:rme@ix.de
Copyright © 2026 Heise Medien
Ungeachtet der viel diskutierten KI-Blase investieren Unternehmen und Fonds weiterhin in KI-Start-ups – verstärkt auch in Europa. Kann das gutgehen?
Allen Befürchtungen einer bald platzenden Blase zum Trotz gedeiht die KI-Szene weiterhin prächtig. Investoren pumpen ordentlich Kapital in vielversprechende Start-ups – verstärkt auch in Deutschland und Europa. In Deutschland sind 2025 sogar drei KI-Schmieden zu besonders wertvollen, sogenannten Einhörnern geworden: die Drohnenfirma Quantum Systems aus Gilching bei München, der Prozessautomatisierer n8n sowie Parloa (Interaktion mit Kunden) aus Berlin. Bereits Ende 2024 schaffte es das im selben Jahr gegründete, auf Bildgenerierung spezialisierte Black Forest Labs aus Freiburg – um gleich im Folgejahr förmlich durch die Decke zu gehen.
Als Einhörner bezeichnet man junge, noch nicht börsennotierte Unternehmen, die eine Bewertung von einer Milliarde US-Dollar erreicht haben. Oft schaffen sie das enorme Wachstum binnen weniger Monate – durch ein oder mehrere Investorenrunden, die zig bis Hunderte Millionen US-Dollar frisches Kapital bringen. Ob diese Bewertung, die einflussreiche Investoren festlegen, etwas mit dem realen Wert der Firma zu tun hat, ist umstritten. In der Regel liegt sie ein Vielfaches höher als das hineingeflossene Wagniskapital. Black Forest Labs beispielsweise hat insgesamt 450 Millionen US-Dollar eingesammelt, bewertet wird es mit 3,25 Milliarden. Zum Vergleich: Das nach wie vor nicht börsennotierte OpenAI liegt bei 500 Milliarden US-Dollar und könnte mit der nächsten Finanzierungsrunde auf 750 Milliarden steigen.
Trotz der übermächtig erscheinenden Konkurrenz erweisen sich die hiesigen KI-Start-ups insgesamt als widerstandsfähig. Während vielen klassischen Gründern aufgrund der schlechten Wirtschaftslage das Geld ausgeht und sich Börsengänge verschieben, werden die auf künstliche Intelligenz und Verteidigung spezialisierten weiterhin gut gefüttert. Wir werfen einen Blick auf die europäische Szene, beginnend mit der deutschen KI-Landschaft.
URL dieses Artikels:
https://www.heise.de/-11098245
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Deutsche-KI-Start-ups-im-Spannungsfeld-von-Milliardeninvestitionen-und-KI-Blase-11098245.html
[2] https://www.heise.de/tests/Claude-Opus-4-6-im-Hands-on-Maechtige-KI-Agenten-treiben-Kosten-in-die-Hoehe-11174875.html
[3] https://www.heise.de/ratgeber/OpenClaw-im-Selbstversuch-Erste-Schritte-mit-dem-Super-KI-Agenten-11167211.html
[4] https://www.heise.de/hintergrund/Vision-Language-Model-Wie-FastVLM-hochaufloesende-Bilder-im-Browser-analysiert-11156884.html
[5] https://www.heise.de/ratgeber/Privates-Wissensarchiv-Anleitungen-und-Co-mit-lokaler-KI-durchsuchen-11141754.html
[6] https://www.heise.de/hintergrund/Parameter-in-KI-Modellen-Was-sie-bei-grossen-Sprachmodellen-wirklich-bedeuten-11139376.html
[7] https://www.heise.de/hintergrund/IT-Recht-Rechtskonformer-Einsatz-von-KI-Agenten-11133778.html
Copyright © 2026 Heise Medien

Das britische Investmentunternehmen Palliser Capital hat den Vorstand von Japans größtem Toilettenhersteller Toto dazu aufgefordert, das Segment der Hochleistungskeramik stärker zu fördern. Wie die Financial Times berichtet , erwirtschaftet Toto mittlerweile 40 Prozent seines operativen Gewinns mit entsprechenden Produkten, die eine wichtige Rolle in der Halbleiter-Lieferkette spielen.
Toto habe sich "still und leise von einem traditionellen Marktführer für Sanitärkeramik zu einem aufstrebenden Giganten im Bereich Hochleistungskeramik für die Halbleiterfertigung entwickelt" , so Palliser. Das Unternehmen sei "der am meisten unterschätzte und übersehene Nutznießer von KI-Speichern" , heißt es weiter.
Diese Einschätzung führt Palliser darauf zurück, dass Toto elektrostatische Chucks produziert, die für die Herstellung von Nand-Speicherchips verwendet werden. Toto nutzt in der Chuck-Produktion Keramik, die auch bei sehr niedrigen Temperaturen stabil bleibt und die somit Siliziumwafer während der Chipherstellung sicher fixieren können. Damit sind sie für das Kryoätzen geeignet, welches zunehmend an Bedeutung gewinnen wird.
Toto stellt seit den 1980er Jahren elektrostatische Spannfutter her und nutzt dabei die Erfahrung, die es bei der Herstellung von Toiletten im Bereich der Keramik sammeln konnte. Ein profitables Geschäft entwickelte sich damit aber erst durch die vom KI-Boom ausgelösten Preissteigerungen im Halbleiterbereich .
Palliser zeigt sich überzeugt, dass Toto einen Wettbewerbsvorsprung von mindestens fünf Jahren hat und in diesem Bereich in den nächsten zwei Jahren eine Umsatzsteigerung von 30 Prozent oder mehr erzielen könnte. Toto habe es aber versäumt, seinen Aktionären die Bedeutung dieses Segments angemessen zu erklären und lasse zu wenige der geplanten Investitionen darin einfließen, so Palliser.
Die Financial Times fügt hinzu, dass Toto nicht das einzige Unternehmen sei, das branchenfremd auch im Halbleiterbereich arbeite. So sei Ajinomoto zwar für seine Suppenbrühen bekannt, stellt aber auch Harz her, das aus seiner Expertise im Bereich Umami-Aromen gewonnen wird, um Isoliermaterial zwischen Chips und Motherboards herzustellen.

Wegen Brandgefahr muss bei Tausenden Elektroautos von Mercedes-Benz die komplette Batterie ausgetauscht werden. Das Unternehmen habe sich entschieden, "bei bestimmten Fahrzeugen der Baureihen EQA und EQB eine neue Hochvoltbatterie einzubauen" , teilte ein Firmensprecher auf Anfrage von Golem mit und bestätigte damit einen Bericht des Blogs MBPassion . Hintergrund ist dem Sprecher zufolge, "dass bei einem sehr hohen Ladezustand der Batterie in sehr seltenen Fällen ein Brandrisiko infolge eines internen Kurzschlusses einer Batteriezelle nicht vollständig ausgeschlossen werden kann" .
Betroffen sind laut MBPassion die Versionen EQA 250+ und EQB 250+, die bislang mit Farasis-Batterien ausgestattet waren und über eine Kapazität von 70,5 Kilowattstunden (kWh) verfügen. Das Kraftfahrt-Bundesamt (KBA) startete zu dem Problem bereits im Februar 2025 einen Rückruf (Referenznummer 14775R). Dieser betraf weltweit 52.881 Fahrzeuge, darunter 4.677 in Deutschland, die zwischen dem 20. Februar 2021 und dem 23. Januar 2024 produziert worden waren.
Damals wurde als Maßnahme angeordnet: "Die Software des Batteriemanagementsystems wird aktualisiert." Doch dies erwies sich als nicht ausreichend. "Unsere laufende und intensive Feldbeobachtung sowie darauf aufbauend weitere umfassende Untersuchungen haben gezeigt, dass das im Rahmen der bisherigen Feldmaßnahme durchgeführte Softwareupdate das Brandrisiko in seltenen Einzelfällen nicht vollständig beseitigt" , teilte Mercedes weiter mit.
Zudem führte das Softwareupdate dazu, dass die Akkukapazität nicht mehr vollständig zur Verfügung stand, so dass sich die Reichweite reduzierte. Die Rechtsanwaltskanzlei Dr. Stoll & Sauer reichte deshalb im Oktober 2025 beim Landgericht Dortmund eine Klage ein .

Mercedes bittet die Kunden bis zum Werkstatttermin, das Fahrzeug nicht über 80 Prozent zu laden und im Freien zu parken. Der Austausch der Batterie werde kostenlos durchgeführt und dauere in der Regel wenige Stunden. Welcher Hersteller die neuen Akkus liefert, teilte Mercedes nicht mit. Es hieß lediglich: "Mit dem Einbau der neuen Batterie wird der nutzbare Energiegehalt sowie die Ladeleistung wieder auf den technischen Stand einer Batterie in einem Neufahrzeug gebracht."
Der Autohersteller hatte sich im Juli 2020 am chinesischen Akkuhersteller Farasis beteiligt . Damals gab es noch Pläne für den Bau einer Batteriezellfabrik in Sachsen-Anhalt, die sich im Mai 2022 jedoch zerschlugen . Im Juli 2021 gab es zudem Berichte über angebliche Qualitätsprobleme. Diese wies Mercedes damals zurück .

Der für gewöhnlich gut unterrichtete Bloomberg-Journalist Mark Gurman hat neue Details zu Apples geplanten KI-Wearables bekanntgegeben. In einem längeren Bericht fasst Gurman die neuen Informationen zusammen, die er von anonymen Quellen innerhalb Apples bekommen hat.
Demnach plant Apple eine Brille, einen Anhänger und Airpods mit KI-Unterstützung. Alle Geräte sollen mit der geplanten KI-Version von Siri verbunden sein, die Apple nach langen Verzögerungen mit iOS 27 veröffentlichen will. Apples CEO Tim Cook soll in einem Meeting erklärt haben, dass Apple in Zukunft stark an KI-Geräten arbeiten werde.
Die geplante KI-Brille soll das Gerät mit den meisten Funktionen sein und als bessere Variante von Metas Ray-Ban-Brillen fungieren. Wie Metas Brillen soll auch Apples Modell mit dem Codenamen N50 kein Display haben; stattdessen werden die Informationen über die eingebauten Lautsprecher an die Nutzer weitergegeben.
Neben Mikrofonen für die Spracheingabe soll Apples KI-Brille auch zwei Kameras haben: eine für Fotoaufnahmen und eine für die KI-Bilderkennung. Diese Technologie soll der des VR-Headsets Vision Pro ähneln. Auch dank der Kameras soll Apples Brille als KI-Begleiter für den Alltag fungieren.
Das Brillengestell baut Apple selbst, nachdem zuvor auch eine Kooperation mit einem Brillenhersteller in Betracht gezogen worden war. Offenbar war es für Apple aber einfacher, das Gestell selbst zu entwickeln und alle Bauteile darin zu integrieren.
Gurman zufolge will Apple sich durch die Fertigungsqualität und die Kamerafunktionen von Meta abheben.
Der geplante KI-Anhänger soll ebenfalls eine Kamera enthalten und eine derartige Umgebungserkennung ermöglichen. Anders als die Brille soll das Gerät aber stärker auf das angeschlossene iPhone angewiesen sein – auch, was die Datenverarbeitung betrifft. Apples Insider bezeichnen den Anhänger als "Augen und Ohren" des iPhones.
Unklar scheint aktuell noch zu sein, ob der Anhänger einen Lautsprecher bekommen soll. Damit könnten Nutzer ihr iPhone öfter in der Tasche lassen und nur mit dem Anhänger kommunizieren.
Zu den Airpods mit eingebauten Kameras gab es bereits Gerüchte . Die Kopfhörer sollen dank der Kameras wie die Brille und der Anhänger die Umgebung erkennen und mittels KI auswerten können. Die Kamera-Airpods sollen in diesem Jahr erscheinen.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: nikkimeel / Shutterstock.com)
In iOS 27 entrümpelt Apple laut einem Medienbericht den Maschinenraum des Betriebssystems. Das könnte sich auf Apps von Drittanbietern auswirken.
Die Zeichen stehen auf Frühjahrsputz in Cupertino: Apple entrümpelt angeblich den Code seines iPhone-Betriebssystems und will verkaufte und künftige Geräte damit im nächsten Herbst deutlich flotter und energiesparender machen. iOS 27 trage den Codenamen Rave, berichtet Bloomberg-Reporter Mark Gurman [1] unter Berufung auf anonyme Quellen im Unternehmen, was übersetzt für Toben und Feiern steht. Und genau diese rasante Feierlaune strebe das Softwareteam von Craig Federighi an.
Um dieses Ziel zu erreichen, kümmerten sich die Apple-Entwickler vor allem um die Hintergrundprozesse und die Kommunikation der Software mit den Hardware-Komponenten. Im bald 20 Jahre alten Betriebssystem schlummerten noch einige Relikte aus früheren Zeiten, heißt es. Diese Hintergrundprozesse seien durch stetige Hardware- und Akku-Verbesserungen nicht so schwer ins Gewicht gefallen, dass Apple sie bislang entfernt habe. Allerdings können sie auch für unerwünschte Wechselwirkungen sorgen und damit zu einem beschleunigten Akkuverbrauch führen.
Mit dem Entfernen von altem, überflüssigem Code werde das Betriebssystem auch für künftige Aufgaben optimiert. Dazu könnte ein faltbares iPhone zählen. Refactoring ist allerdings nicht neu bei Apple, sondern eine Daueraufgabe. So hat Apple auch schon diverse Komponenten seiner Software von den Programmiersprachen C, C++ oder Objective-C auf Swift umgestellt [2].
Die Umbauarbeiten in iOS 27 sollen jedoch weitreichender sein. Sie haben aber auch ihren Preis: Allerhand Apps von Drittanbietern müssen angepasst werden. Einige, die nicht aktiv weiterentwickelt werden, könnten ihren Dienst einstellen. Mit der Entschlackungskur für das Betriebssystem werde auch manche stillgelegte Entwicklerschnittstelle (API) entfernt. Vielfach zeigt Apple Entwicklern den Deprecated-Status jahrelang an, ohne dass etwas passiert. Dadurch bleiben Apps funktionsfähig, auch wenn Entwickler nichts ändern. Diese Rückwärtskompatibilität könnte nun massiv eingeschränkt werden.
Unklar bleibt, ob Apple den Umbau im Sommer auf der Entwicklerkonferenz WWDC auch öffentlich ankündigt. Seit den ersten Gerüchten, dass iOS 27 ein großes Aufräum-Update werden könnte, ziehen Beobachter einen Vergleich zu Mac OS X Snow Leopard [3]. Die im Jahr 2009 veröffentlichte Hauptversion hatte erklärtermaßen Leistung, Effizienz und Stabilität im Fokus. Und obwohl es gerade jüngeren Apple-Nutzern aufgrund des Alters gar nichts mehr sagen dürfte, gilt es immer noch als beispielgebend.
Deutlich prestigeträchtiger dürfte aus Sicht Apples der zweite Schwerpunkt von iOS 27 sein [4], von dem Gurman berichtet. So soll mit dem Update eine überarbeitete, Chatbot-artige Siri Einzug halten. Hier ist allerdings Voraussetzung, dass Apple seine gesteckten Ziele wirklich erreicht. Gurman säte zuletzt Zweifel, dass das der Fall ist. Und ein stabileres, effizienteres Betriebssystem würde Nutzer abholen, denen der Schwerpunkt KI nicht so wichtig ist, die aber von Apple erwarten, dass die Geräte stabiler und energiesparender funktionieren.
URL dieses Artikels:
https://www.heise.de/-11180187
Links in diesem Artikel:
[1] https://www.bloomberg.com/news/newsletters/2026-02-15/tesla-carplay-delays-related-to-ios-26-and-fsd-apple-s-new-siri-delays-ios-27
[2] https://www.heise.de/news/Eigenbedarf-So-stark-setzt-Apple-in-iOS-16-auf-Swift-7329409.html
[3] https://www.heise.de/news/Viele-Fixes-wenige-Neuerungen-Wird-iOS-27-ein-neues-Snow-Leopard-11088649.html
[4] https://www.heise.de/news/iOS-27-Vor-allem-Fehlerbehebungen-aber-Siri-Chatbot-11169708.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Volla Tablet mit /e/ OS
(Bild: Volla)
Das Remscheider Unternehmen Volla Systeme hat eine Kooperation mit Murena angekündigt: Das Volla-Tablet unterstützt jetzt auch /e/ OS.
Deutschland meets Frankreich: Der deutsche Hersteller Volla macht mit dem französischen Softwareentwickler Murena gemeinsame Sache: Neben Volla OS und Ubuntu Touch kann das Volla Tablet fortan auch mit der entgoogelten Android-Variante /e/ OS [1] konfiguriert werden.
Das mobile Betriebssystem /e/ OS von Murena, dem Unternehmen des Linux-Urgesteins Gaël Duval, basiert auf LineageOS und AOSP (Android Open Source Project). /e/OS wird als quelloffenes, datenschutzfreundliches Betriebssystem beschrieben, das ohne Google-Dienste auskommt. Die Funktion „Advanced Privacy“ blockiert zudem Tracker in Apps und ermöglicht das Verschleiern von Standort und IP-Adresse.
Murena bietet als Alternativen zu Googles Diensten eine eigene „Online-Plattform für Dateiverwaltung, Fotobibliotheken, kollaboratives Arbeiten an Office-Dokumenten sowie Synchronisation von E-Mails, Kontakten, Kalendern, Aufgaben und Notizen mit anderen Smartphones, einem PC oder Mac“ an.
Um auch bei der Suche unabhängig von Google zu sein, hat Murena den für Datenschutz bekannten Suchmaschinenanbieter Qwant für die Suche „Murena Find“ an Bord geholt. Qwant arbeitet standardmäßig im „No-Tracking“-Modus, mit dem die Suchanfragen der Nutzer privat bleiben.
Hardwareseitig steckt im Volla-Tablet ein etwas älterer MediaTek Helio G99-Chip [2], der im 6-nm-Verfahren produziert wird und schon 2022 eingeführt wurde. Er wird von 12 GByte RAM und 512 GByte Flashspeicher begleitet. Der interne Speicher kann mittels einer microSD-Karte um bis zu einem TByte erweitert werden. Der IPS-Bildschirm verfügt über eine Diagonale von 12,6 Zoll mit einer Auflösung von 1600 × 2560 Pixel.
Über Pogo-Pins kann an das Tablet eine optionale Tastatur angeschlossen werden. Für das Anfertigen von Skizzen oder Notizen kann das Tablet in Kombination mit einem ebenso optionalen Stylus genutzt werden.
Volla bietet das Tablet wie bereits erwähnt mit Ubuntu Touch oder mit dem hauseigenen Volla OS an, das sich von der Bedienoberfläche stärker vom herkömmlichen Android unterscheidet. Es ist minimalistischer, hat aber einen ähnlichen Anspruch an Privatsphäre und Datenschutz wie /e/ OS. Nutzer von Volla OS können zudem über den „Volla Boot Manager“ ein zweites Betriebssystem parallel installieren und zwischen beiden wechseln. Alle drei Modelle sind im Volla-Onlineshop [3] erhältlich und kosten jeweils knapp 700 Euro. Wie es um künftige Updates und Sicherheitspatches steht, verrät Volla nicht.
URL dieses Artikels:
https://www.heise.de/-11180073
Links in diesem Artikel:
[1] https://www.heise.de/news/e-OS-3-0-Murena-kuendigt-neue-Version-des-entgoogelten-Android-an-10431883.html
[2] https://www.mediatek.com/products/smartphones/mediatek-helio-g99
[3] https://volla.online/de/shop/volla-tablet/
[4] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[5] mailto:afl@heise.de
Copyright © 2026 Heise Medien

Starlink hat neue Tarife für sein Satelliteninternet in Deutschland vorgestellt. "Bei den Tarifen Privathaushalt 100 MBit/s und Privathaushalt 200 MBit/s sind die Download-Geschwindigkeiten auf 100 MBit/s beziehungsweise 200 MBit/s beschränkt" , erklärte der US-Konzern . Damit fällt aber der bisherige Tarif Starlink Privathaushalt Lite weg , der Download-Geschwindigkeiten von 45 bis 130 MBit/s versprach.
Nur beim Tarif Privathaushalt – Max wird die maximal verfügbare Datenrate nicht gedrosselt. Das Datenvolumen bleibt bei allen drei Tarifen aber weiter unbeschränkt.
Der Tarif Privathaushalt 100 kostet 29 Euro im Monat und Privathaushalt 200 ist für 49 Euro erhältlich. Beim 200 Tarif wurden für den Preis bisher bis 270 MBit/s geboten. Auch hier also weniger für den gleichen Preis.
Der Max-Tarif kostet 69 Euro im Monat. Beim neuen Modell Max kommt Starlink Mini zur Miete für die Nutzung auf Reisen sowie Tarife für unterwegs hinzu.
Die Download-Geschwindigkeiten sind mit über 400 MBit/s angegeben, liegen aber laut Starlink typischerweise bei 170 bis 320 MBit/s und beim Upload 20 bis 40 MBit/s.
Starlink hat sich innerhalb von sechs Jahren zu einem LEO-Netzwerk mit 9.500 Satelliten entwickelt und bietet Internetversorgung in Regionen an, die bisher von der Kommunikation praktisch ausgeschlossen waren.

Verbraucherschützer verlangen ein deutlich besseres Recht auf Reparatur. Das geht aus einer Stellungnahme des Verbraucherzentrale Bundesverbands (Vzbv) zum Gesetzesentwurf von Bundesjustizministerin Stefanie Hubig (SPD) hervor, die Golem vorliegt. Demnach sollten Hersteller verpflichtet sein, schnell und günstig Ersatzteile zur Verfügung zu stellen. Das spare Zeit und Nerven und mache das Reparieren attraktiver, forderte der Vzbv.
Bei der Lieferung von Ersatzteilen soll die Frist höchstens fünf Tage betragen. Keo Sasha Rigorth, vom Team Mobilität und Ressourcenschutz der Verbraucherzentrale, sagte zuvor : "Wenn das Smartphone kaputtgeht, ist schnelle Hilfe gefragt. Mehrere Wochen auf ein Ersatzteil zu warten, ist bei einem Elektrogerät im täglichen Gebrauch eine Zumutung."
Zudem seien Reparaturen schlicht zu teuer. Ein Elektrogerät zu reparieren, statt es wegzuwerfen, sollte die Umwelt und gleichzeitig den Geldbeutel der Menschen schonen, erklärte sie.
Justiz- und Verbraucherschutzministerin Hubig hatte Mitte Januar einen Gesetzentwurf präsentiert, mit dem sie die EU-Richtlinie für das Recht auf Reparatur fristgerecht bis zum 31. Juli in nationales Recht umsetzen will, berichtete die Neue Osnabrücker Zeitung . "Die Wegwerfgesellschaft hat keine Zukunft" , begründete die SPD-Politikerin den Schritt.
Zentral ist eine Verpflichtung für Hersteller, Produkte "während der üblichen Lebensdauer zu einem angemessenen Preis zu reparieren" und dafür Ersatzteile vorrätig zu halten. Während die Konzerne und der IT-Branchenverband Bitkom vor "erheblichen zusätzlichen Belastungen für den Handel" warnen, wenn Deutschland über die EU-Vorgaben hinausgehe, fordert genau dies der Vzbv, auch mit Blick auf die langfristigen Kosten der Wegwerfprodukte für die Menschheit.
Um eine neue Reparaturkultur zu etablieren, "ist jedoch mehr nötig als eine Eins-zu-eins-Umsetzung der Recht-auf-Reparatur-Richtlinie" , heißt es in der Stellungnahme. Zudem müsse sich die Bundesregierung bei der EU dafür einsetzen, "dass die Gewährleistungsdauer verlängert wird und sich an der Lebensdauer der Produkte orientiert" .
Und weiter: "Die Bundesregierung muss sich auf europäischer Ebene für eine verpflichtende Angabe der Lebensdauer einsetzen, die gut sichtbar auf dem Produkt oder bei den Produktbeschreibungen angebracht werden sollte." Am sinnvollsten sei es, "den Fokus von vornherein auf die Produktion langlebigerer Güter zu legen" , betonte der Vzbv.

Die IG Metall hat Strafanzeige wegen übler Nachrede gegen den Geschäftsführer des Tesla-Werks in Grünheide, André Thierig, gestellt. Zudem sei beim Arbeitsgericht Frankfurt/Oder eine einstweilige Verfügung beantragt worden, um Thierig "die weitere Verbreitung falscher Behauptungen zu untersagen" , teilte die Gewerkschaft am 17. Februar 2026 mit . Darüber hinaus werde eine Klage wegen der Behinderung von Gewerkschaftsarbeit (Union Busting) vorbereitet.
Hintergrund der Anzeige sind Äußerungen Thierigs, wonach ein Gewerkschaftssekretär eine Betriebsratssitzung aufgezeichnet und damit eine Straftat begangen habe. Dies behauptete Thierig in einer E-Mail an die Beschäftigten. Tesla erstattete wegen des angeblichen Vorfalls Strafanzeige. Die Staatsanwaltschaft Frankfurt/Oder nahm anschließend die Ermittlungen auf .
Die Gewerkschaft wies die Vorwürfe in der Mitteilung ein weiteres Mal zurück. Nach Einschätzung der IG Metall sind die Vorwürfe ein Versuch, die im März 2026 anstehende Betriebsratswahl in Grünheide zu beeinflussen. "Wir werden nicht zulassen, dass Tesla mit diesem Angriff auf die Demokratie im Betrieb durchkommt. Unser Interesse ist, dass das von Tesla initiierte Strafverfahren gegen einen IG Metall-Beschäftigten schnell abgeschlossen wird" , sagte der Bezirksleiter Berlin-Brandenburg-Sachsen, Jan Otto.
Die Staatsanwaltschaft beschlagnahmte inzwischen den Laptop, auf dem die Sitzung aufgezeichnet worden sein soll. "Um die Ermittlungen zu beschleunigen und sich besser gegen die von Tesla verbreiteten falschen Vorwürfe wehren zu können, hat der IG Metall-Kollege über seine Anwälte den Ermittlungsbehörden angeboten, mit seinem Passwort den Laptop für sie zur Durchsicht zu öffnen" , teilte die Gewerkschaft mit und erläuterte: " Wir wollen, dass die Ermittlungsergebnisse vor der Betriebsratswahl Anfang März vorliegen. Dann können sich die Beschäftigten selbst ein Bild machen, wer die Wahrheit und wer die Unwahrheit sagt."
WHOIS-Abfrage-Formular auf der Seite des DENIC
(Bild: heise medien)
Die DENIC-Domainabfrage zeigt bei Unternehmens-Domains Name, Anschrift und Kontaktdaten öffentlich an. Hintergrund ist die NIS2-Richtlinie.
Seit dem 6. Dezember 2025 gelten in Deutschland neue Transparenzpflichten für .de-Domain-Registrierungen. Wie DENIC in seinem Blog [1] mitteilt, wirken sich die Regelungen auch unmittelbar auf die WHOIS-Abfrage für .de-Domains aus. Hintergrund ist die nationale Umsetzung der europäischen NIS2-Richtlinie zur Cybersicherheit.
Die Domainabfrage stellt nunmehr zusätzliche Informationen bereit. Bei allen .de-Domains wird grundsätzlich das jeweils verwaltende DENIC-Mitglied veröffentlicht – also der Provider, über den die Domain registriert und administrativ betreut wird. Damit gibt es zu jeder .de-Domain eine klar benannte und kontaktierbare Stelle, selbst wenn die Inhaberdaten aus Datenschutzgründen nicht angezeigt werden dürfen.
Bei Domains juristischer Personen wie Unternehmen, Vereinen oder Organisationen werden Name und Anschrift des Domaininhabers, E-Mail-Adresse und Telefonnummer sowie das Datum der Domainregistrierung öffentlich sichtbar. Hinzu kommen Name und Kontaktdaten des verwaltenden DENIC-Mitglieds. Bei Domains natürlicher Personen bleiben personenbezogene Inhaberdaten hingegen weiterhin geschützt – hier sind lediglich das Registrierungsdatum sowie Name und Kontaktdaten des DENIC-Mitglieds einsehbar. Diese waren früher einmal auch frei einsehbar.
Die Änderungen sind Teil der umfassenden NIS2-Umsetzung in Deutschland [2]. Das NIS2-Umsetzungsgesetz verschärft die Cybersicherheitsanforderungen erheblich und zwingt Unternehmen sowie staatliche Stellen, Informationssicherheit als strategische Daueraufgabe zu begreifen. Deutschland nutzt den Spielraum der Richtlinie konsequent aus und geht teilweise über die europäischen Mindestvorgaben hinaus.
Domaininhaber können weiterhin ihre eigenen, bei DENIC gespeicherten Daten einsehen. Dazu ist eine entsprechende Legitimation im Rahmen der Domainabfrage erforderlich, etwa durch Eingabe der Postleitzahl oder Bestätigung per E-Mail-Link. Darüber hinaus können Dritte wie Rechteinhaber, Behörden, Insolvenzverwalter oder Anspruchsteller mit vollstreckbarem Titel bei Vorliegen eines berechtigten Interesses und nach Einzelfallprüfung Einsicht in nicht öffentlich sichtbare Daten erhalten. DENIC stellt dafür spezialisierte Formulare bereit.
Die WHOIS-Abfrage [3] liefert die erweiterten Informationen in strukturierter Form als Text oder JSON. Die Regelungen sollen insbesondere Missbrauch durch falsche oder unvollständige Registrierungsdaten reduzieren und die Kontaktaufnahme bei rechtlichen Problemen erleichtern.
In Phase II, die am 14. April 2026 startet, werden Contact- und Domainaufträge einem automatisierten Risk Assessment unterzogen. Das System arbeitet mit einem Ampel-Prinzip und klassifiziert Domains nach Risikograd (Low/Suspicious/High Risk). Auffälligkeiten in den Registrierungsdaten – etwa verdächtige IP-Adressen, Namen oder Muster – lösen eine Verifizierungsanfrage beim zuständigen DENIC-Mitglied aus.
Reagiert der Provider nicht oder kann die Daten nicht verifizieren, drohen Konsequenzen: Die betroffene Domain wird in Quarantäne versetzt, was ihre DNS-Auflösung deaktiviert, und kann bei weiterem Ausbleiben einer Reaktion gelöscht werden. Domaininhaber werden innerhalb der ersten drei Wochen zusätzlich per E-Mail über die Verifizierungsanfrage informiert. DENIC-Mitglieder müssen künftig sicherstellen, dass alle Registrierungsdaten korrekt und verifizierbar sind, einschließlich valider Telefonnummern und E-Mail-Adressen.
Die NIS2-Richtlinie erfasst DNS- und TLD-Anbieter wie DENIC als kritische Infrastruktur. Die Anforderungen von NIS2 gelten auch für Klein- und Kleinstunternehmen [4], die für ihre Kunden Domains verwalten. In Deutschland sind schätzungsweise 29.500 Unternehmen von den neuen Cybersicherheitspflichten betroffen.
Unternehmen sollten ihre .de-Domains umgehend überprüfen und sicherstellen, dass alle Registrierungsdaten vollständig, korrekt und aktuell sind. Besonders wichtig ist die Validierung von E-Mail-Adressen und Telefonnummern, da diese in Phase II systematisch geprüft werden. Die EU-Kommission arbeitet bereits an weiteren Anpassungen der NIS2-Richtlinie [5].
URL dieses Artikels:
https://www.heise.de/-11179990
Links in diesem Artikel:
[1] https://blog.denic.de/neue-gesetzliche-vorgaben-zur-denic-domainabfrage-whois/
[2] https://www.heise.de/select/ix/2026/1/2531809594380530401
[3] https://webwhois.denic.de/
[4] https://www.heise.de/hintergrund/Richtlinie-Das-bedeutet-NIS2-fuer-DNS-und-TLD-Anbieter-9825625.html
[5] https://www.heise.de/news/Cybersicherheit-EU-Kommission-schraubt-weiter-an-der-NIS2-Richtlinie-11149231.html
[6] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[7] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Matthias Lindner
Entspannte Stunden im Friseursalon – für viele Ukrainerinnen in Kiew eine Erinnerung an die Zeit vor den russischen Angriffen auf die Energieinfrastruktur. Heute kämpfen Salons bei Temperaturen um den Gefrierpunkt ums Überleben.
(Bild: koldo_studio / Shutterstock.com)
Russische Angriffe auf die Stromversorgung treffen Ukraines Mittelstand hart. Salons schließen, Restaurants kämpfen ums Überleben.
Seit nunmehr vier Jahren tobt der Ukraine-Krieg [1] unerbittlich, und zunehmend kommen kleine und mittlere Betriebe unter die Räder. Russland greift systematisch das Stromnetz in der Ukraine an. Jetzt im Winter bedeutet das Ausfälle bei Strom [2], Wasser und Heizung.
Für viele kleine Unternehmen sieht die Lage deshalb schlecht aus. Ob Friseursalons, Gaststätten und Hotels oder lokale Dienstleister – viele mussten schließen oder ihre Energiekosten gingen durch die Decke. Wie viele unter diesen Bedingungen noch länger durchhalten können, ist unklar.
Der Salon von Nataliia Bilostotska sei hier exemplarisch erwähnt. Reuters stellte die Salonbetreiberin, die ihr Geschäft in Irpin, einem Vorort von Kiew, betreibt, in einem Bericht [3] vor.
Nach den russischen Angriffen auf die Energieversorgung ging es auch mit den Temperaturen in ihrem Salon nach unten, zeitweise auf gerade einmal zwei Grad Celsius. Eine ihrer Angestellten dokumentierte laut Reuters in einem Video, dass sich ihre Finger vor Kälte kaum noch bewegen ließen.
Unter diesen Bedingungen konnte der Salon nicht länger seine Dienste anbieten. Der einzige Ausweg war, ihn vorübergehend zu schließen.
Als der Salon Anfang Februar wiedereröffnet wurde, herrschten im Innenraum nur rund sechs Grad. Die Kundinnen mussten ihre Daunenjacken während der Behandlung anbehalten. Für das Haarewaschen erhitzten die Angestellten Wasser im Wasserkocher, weil die reguläre Warmwasserversorgung ausfiel.
Solche improvisierten Abläufe prägen laut Reuters mittlerweile den Geschäftsalltag in weiten Teilen der ukrainischen Hauptstadt. Viele Cafés und Restaurants in Kiew stehen demnach ohnehin schon leer, weil ihre Betreiber den finanziellen Druck der Kriegswirtschaft [4] nicht mehr tragen konnten.
Die wirtschaftlichen Belastungen [5] gehen weit über die Verluste hinaus, die durch Schließtage entstehen. Bilostotska beziffert ihre monatliche Stromrechnung auf umgerechnet rund 1.340 US-Dollar – das Vierfache des Vorjahresniveaus.
Zusätzlich verschlingt der Betrieb eines Notstromgenerators weitere 350 US-Dollar monatlich für Treibstoff und Instandhaltung. Gleichzeitig fehlen die Einnahmen, um diese Mehrkosten zu decken.
Eine Weitergabe an die Kundschaft scheidet aus Sicht der Unternehmerin aus, da höhere Preise die ohnehin belasteten Kundinnen abschrecken würden. Ihr Salon verzeichnet derzeit monatliche Verluste von umgerechnet rund 925 US-Dollar.
Um die laufenden Kreditraten weiterhin bedienen zu können, arbeitet Bilostotska inzwischen zusätzlich in Teilzeit in einem Büro. Dieses Muster zieht sich durch zahlreiche Branchen des ukrainischen Dienstleistungssektors.
Der geschilderte Fall ist kein Einzelfall. Die Energiekrise trifft den ukrainischen Mittelstand in seiner Gesamtheit. Laut einer Erhebung der National Restaurant Association of Ukraine, auf die sich Reuters beruft, stufen 60 Prozent der befragten Betriebe in der Gastronomie die Versorgungsengpässe als gravierende Gefahr für ihre unternehmerische Existenz ein.
Die Kyiv School of Economics schätzt demnach, dass eine anhaltende Stromknappheit das Bruttoinlandsprodukt um bis zu drei Prozent schmälern könnte. Die ukrainische Zentralbank korrigierte ihre Wachstumsprognose bereits von 2,0 auf 1,8 Prozent nach unten.
Diese Zahlen gewinnen zusätzliche Brisanz durch die Struktur des ukrainischen Arbeitsmarktes: Kleine Unternehmen beschäftigen etwa die Hälfte aller Erwerbstätigen im Land. Jede Firmenpleite erhöht die Arbeitslosigkeit und verstärkt den Anreiz zur Abwanderung.
Seit Kriegsbeginn haben bereits mehrere Millionen Ukrainer das Land verlassen. Ökonomin Nataliia Kolesnichenko vom Centre for Economic Strategies in Kiew ordnet die Energiekrise als jüngsten Rückschlag in einer Kette von Belastungen ein, zu denen auch Fachkräftemangel [6] und Sicherheitsrisiken für Lieferketten zählen.
Hinter den betrieblichen Nöten steht eine kalkulierte militärische Strategie. Am 17. Februar griffen russische Streitkräfte die Energieinfrastruktur [7] in zwölf Regionen gleichzeitig an – nur Stunden vor dem Beginn neuer Friedensgespräche in Genf.
Die ukrainische Luftwaffe registrierte dabei fast 400 Drohnen und 29 Raketen [8]. Drei Mitarbeiter eines Energieversorgers kamen ums Leben, als eine Drohne [9] ihr Fahrzeug nahe dem Kraftwerk Slowjansk traf.
Das Energieunternehmen DTEK meldete schwere Schäden an Anlagen im Großraum Odessa [10] und prognostizierte langwierige Reparaturarbeiten.
Der ukrainische Energieminister bezifferte die aktuelle Stromnachfrage auf rund ein Drittel über der verfügbaren Erzeugungskapazität. Solange diese Lücke bestehen bleibt, stehen Zehntausende Kleinunternehmer vor der täglichen Frage, ob sich das Weitermachen noch lohnt.
URL dieses Artikels:https://www.heise.de/-11180006
Links in diesem Artikel:[1] https://www.heise.de/tp/article/Ukraine-verliert-taeglich-Soldaten-weil-Europa-Illusionen-nachjagt-11115268.html[2] https://www.heise.de/tp/article/Die-Ukraine-friert-und-zeigt-Europas-Verwundbarkeit-11174500.html[3] https://www.reuters.com/business/aerospace-defense/ukraines-small-businesses-struggle-russian-strikes-turn-off-power-2026-02-17/[4] https://www.heise.de/tp/article/Putin-verliert-Milliarden-Ukraine-zerstoert-systematisch-Russlands-Oel-Imperium-11118117.html[5] https://www.heise.de/tp/article/EU-Plan-fuer-Ukraine-Hilfe-droht-an-norwegischer-Absage-zu-scheitern-11076799.html[6] https://www.heise.de/tp/article/Ukraine-Wer-soll-das-Land-nach-dem-Krieg-wieder-aufbauen-11103518.html[7] https://www.heise.de/tp/article/Zwischen-Abschaltung-und-GAU-Die-nukleare-Gratwanderung-der-Ukraine-11089260.html[8] https://www.reuters.com/business/energy/russia-pummels-ukraines-power-grid-before-talks-2026-02-17/[9] https://www.heise.de/tp/article/Fliegende-Falle-im-Ukraine-Krieg-Shahed-Drohnen-greifen-jetzt-Flugzeuge-an-11136697.html[10] https://www.heise.de/tp/article/Odessa-Wie-ein-Hafen-die-Ukraine-am-Leben-haelt-11094033.html
Copyright © 2026 Heise Medien
Luca Schäfer
Fälle von Debanking nehmen zu
(Bild: Elena Abrazhevich/Shutterstock.com)
Kein Gericht, kein Urteil, kein Einspruch – und trotzdem verlieren Organisationen und Personen weltweit ihre Bankkonten. Was hinter der Debanking-Welle steckt.
Was die Deutsche Kommunistische Partei [1], den britischen Konservativen Nigel Farage [2], die Rote Hilfe [3] und den AfD-Kreisverband Minden-Lübbecke [4] verbindet, liegt nicht direkt auf der Hand. Politische Kontrahenten vereint in der finanzpolitischen Repression: alle verloren ihr Bankkonto.
Debanking heißt das Phänomen, das inzwischen auch die Vereinigung der Verfolgten des Naziregimes, eine anarchistische Splittergruppe aus Dresden sowie britische Krypto-Händler [5] erfasst hat.
Allein in Deutschland häufen sich die Fälle seit Ende 2025 deutlich. Die Finanzzeitung Ad Hoc News spricht [6] gar von einer "Debanking-Welle" für deutsche Firmen und Vereine. Ausführende Organe waren eine breite Sammlung: von Postbank über Deutsche Bank bis hin zur GLS-Bank und Volksbank.
Das Muster dahinter ist stets dasselbe: vorauseilender Gehorsam, wachsende Übervorsichtigkeit, politische Gleichschaltung durch private Compliance-Abteilungen. Droht eine stille finanzpolitische Disziplinierung aus geopolitischen Gründen?
Ausgerechnet die Bochumer Ökobank GLS sorgte zuletzt für Schlagzeilen. Sie kündigte der Roten Hilfe, der Deutschen Kommunistischen Partei und dem anarchistischen Verein Black Cross Dresden die Konten – ohne tragfähige Begründung [7].
Das löste eine Solidaritätsbewegung linker Organisationen aus sowie eine Unterschriftensammlung aus. Die GLS Bank reagierte mit einer Stellungnahme [8], erklärte sich "selbstverständlich als Bank gegen jedes Debanking" – und ließ alle betroffenen Organisationen trotzdem zwangsweise das Institut wechseln.
Der Prozess ist denkbar unspektakulär: Die Bank klassifiziert einen Kunden intern als Risiko, die Compliance-Abteilung prüft – ohne den Betroffenen zu informieren – und kündigt bei Bedarf. Eine Begründung ist nach geltendem deutschen Recht in der Regel nicht erforderlich [9]. Betroffene können bestenfalls spekulieren, warum sie ihr Konto verloren. So vermutete die DKP einen Kuba-Bezug [10], die Rote Hilfe die US-Hatz auf den Antifaschismus und die AfD ihre politischen Gegner als Gründe hinter den Kündigungen.
Die Folgen sind gleichwohl konkret: eingeschränkte Handlungsfähigkeit, gefährdete Existenz, lahmgelegter Spendenverkehr – wie der Fall des DKP-Parteivorstands [11] exemplarisch belegt, konnten Spenden kaum mehr entgegengenommen werden, kostet ein Wechsel Arbeitszeit und Energie und bedroht im schlimmsten Fall die Geschäftsfähigkeit.
Debanking ist keine deutsche Erfindung. Seine Wurzeln reichen in die USA nach dem 11. September zurück: Verschärfte Anti-Geldwäsche- und Antiterrorvorschriften veranlassten Banken, Geschäftsbeziehungen schneller zu kappen. Zunächst befanden sich – oftmals unbescholtene – muslimische Kunden auf der Kündigungsliste.
Debanking wurde nach 9/11 zur Standardtechnik des Risikomanagements [12]. Den zugespitzten politischen Zungenschlag verlieh ihr die Operation Choke Point [13] – ein Programm des Department of Justice aus den USA der 2010er Jahre, das bestimmte Branchen gezielt unter Druck setzte. Ins Visier der US-Justiz gerieten damalig primär Drogen- und Waffenhändler, eine Klientel deren Kontrolle durchaus im Interesse der Allgemeinheit liegen dürfte.
Kritiker erkannten früh das Missbrauchspotenzial: Je nach politischer Großwetterlage, im Kongress, im Weißen Haus oder in den dutzenden Geheimdiensten des Landes, könnten Finanzkontrollinstrumente gegen Unbequeme, Marginalisierte oder Unbotmäßige eingesetzt werden.
Donald Trump erklärte sich nach seiner ersten Amtszeit zunächst zum Opfer: Er behauptete, JP Morgan und die Bank of America [14] hätten ihm die Bankdienstleistungen verweigert, klagte auf fünf Milliarden Dollar Schadensersatz [15] und stilisierte Konservative zum systematischen Willküropfer einer politisch agierenden Bankenbranche hoch.
Seine Umfrage hatte politischen Erfolg bei seiner Klientel: Laut Umfragen sahen 74 Prozent der Trump-Wähler [16] Debanking als ernstes Problem an. Zurück im Weißen Haus erließ er im Sommer 2025 eine Executive Order [17], das schärfste, instrumentelle Schwert des Präsidenten zur Durchsetzung seiner Agenda, dass Banken untersagt, Dienstleistungen aus politischen oder religiösen Gründen zu verweigern.
Für seine politischen Gegner gilt dieser Schutzmechanismus nicht: Mit der Einstufung der Antifa als Terrororganisation [18] – explizit auch der Antifa Ost aus Deutschland [19] – löste Trump eine Kaskade von Debanking-Folgewirkungen aus. Banken, die US-Sanktionslisten ignorieren, riskieren den Ausschluss vom US-Finanzmarkt. Im vorauseilenden Gehorsam wirken US-Sanktionen demnach extraterritorial bis nach Deutschland [20].
In Deutschland ist Debanking jünger: Eine erste große Welle traf 2017 die Marxistisch-Leninistische Partei Deutschlands [21], der die Deutsche Bank alle Konten kündigte. Im Fall der MLPD spielten jedoch andere Gründe eine Rolle. So hatten proisraelische Akteure die Partei im Wahlkampf wirkmächtig bezichtigt für palästinensische Organisationen Propaganda zu betreiben und zudem Spendengelder zu aquirieren.
Nach dem Fall Farage 2023 [22] (bei dem der britische Rechtsaußen-Politiker seine Konten verlor) nahm die Praxis auch in Deutschland erneut an Fahrt auf.
Auch politisch spitzte sich die Lage Ende 2025 zu: Die AfD-Bundestagsfraktion forderte im November Schutzmaßnahmen gegen Debanking [23] – ausdrücklich für alle politischen Gesinnungen: "Zahlungs- und Bankdienstleistungen sollen nicht aufgrund von politischen Meinungen, Parteizugehörigkeiten oder rechtlich zulässigen Geschäftstätigkeiten verweigert werden." Die bayerische Staatsregierung erklärte lapidar, das Thema nur in engen Grenzen beeinflussen zu können – und lehnte jede Definition ab.
Die deutsche Berufspolitik mauert – verschanzt sich fußend auf dem deutschen Halbvasallenstatus gegenüber Washington hinter Bank- und Betriebsgeheimnis, lehnt bisweilen eine eigenständige, intervenierende Politik ab.
Das US-Imperium stützt seine Existenz als Welthegemon primär auf drei Säulen: militärische Macht, kulturelle Soft Power und finanzpolitische Dollar-Dominanz. Auch deutsche Banken brauchen Zugang zu US-Dollar und fürchten den Ausschluss vom internationalen Interbankenmarkt – demnach wirken US-Entscheidungen extraterritorial auch in die Welt hinein. Trump ist nicht der Ursprung des deutschen Debankings – aber ein hochkonzentrierter Brandbeschleuniger.
Was im geopolitischen Großen seit Jahrzehnten gegen den Iran [24] oder Kuba eingesetzt wird, greift nun im Kleinformat gegen Einzelpersonen und unliebsame Gruppen. Was auf Kuba humanitäre Krisen auslösen soll, stellt in Deutschland der Verlust des Bankzuganges dar – die Ebenen mögen sich unterscheiden, die intendierte Wirkung und dessen politische Praxis gleichen sich.
Banken werden – indirekt durch US-Druck – zu politischen Gatekeepern. Das Finanzsystem gerät zur Repressionsfläche. Fehlende Transparenz und die Umgehung demokratischer Verfahren durch ominöse Compliance-Abteilungen privater Konzerne betreiben den schleichenden Tod des demokratischen Wettbewerbs.
Während bei internationalen Konfliktlagen Finanzsanktionen aus Gründen des Humanismus, des Schutzes der Zivilbevölkerung oder auf Basis des Verstoßes gegen internationales Recht sanktioniert wie bekämpft gehören, tritt bei den in Deutschland vorliegenden Fällen die demokratische Komponente hinzu.
Fehlende Transparenz und die Umgehung demokratischer Verfahren durch ominös-gehaltende Compliance-Abteilungen privater Konzerne sorgen neben Abschreckung für einen schleichenden Tod des demokratischen Wettbewerbes.
URL dieses Artikels:https://www.heise.de/-11179800
Links in diesem Artikel:[1] https://www.nd-aktuell.de/artikel/1190621.gls-bank-kuendigt-konten-der-deutschen-kommunistischen-partei.html[2] https://www.reuters.com/world/uk/brexit-campaigner-nigel-farage-natwest-settle-debanking-dispute-2024-04-05/[3] https://www.focus.de/politik/deutschland/gruene-bank-roter-aerger-warum-die-gls-linken-organisationen-die-konten-kuendigt_id_260140784.html[4] https://www.euronews.com/2024/09/18/german-co-op-banks-close-afd-accounts-prompting-party-outcry-over-political-move[5] https://coingeek.com/uk-banks-crypto-firewall-40-of-transfers-blocked-amid-debanking-surge/[6] https://www.ad-hoc-news.de/boerse/news/ueberblick/debanking-welle-deutsche-firmen-und-vereine-verlieren-konten/68541829[7] https://www.focus.de/politik/deutschland/gruene-bank-roter-aerger-warum-die-gls-linken-organisationen-die-konten-kuendigt_id_260140784.html[8] https://www.gls.de/privatkunden/aktuelles/stellungnahme-kontokuendigungen/[9] https://www.verbraucherzentrale-hamburg.de/wissen/bank-und-versicherung/konten-und-karten/darf-meine-bank-oder-sparkasse-mein-konto-kuendigen-13846[10] https://www.heise.de/tp/article/Ofac-Die-maechtigste-US-Behoerde-von-der-Sie-nie-gehoert-haben-9994719.html[11] https://www.dkp.de/kein-cent/[12] https://digitalfinancenews.io/debanking-a-comprehensive-analysis/[13] https://a16z.com/how-did-the-de-banking-movement-come-about/[14] https://www.whitehouse.gov/briefings-statements/2025/08/fact-sheet-president-trump-guarantees-fair-banking/[15] https://apnews.com/article/trump-jpmorgan-lawsuit-debanking[16] https://thehill.com/business/4998765-poll-three-quarters-of-trump-voters-concerned-about-debanking/[17] https://www.dlapiper.com/en/insights/publications/bank-regulatory-news[18] https://www.whitehouse.gov/presidential-actions/2025/01/designating-cartels-and-other-organizations-as-foreign-terrorist-organizations/[19] https://apnews.com/article/trump-antifa-europe-terror-designation[20] https://freilich-magazin.com/us-terrorliste-wirkt-bis-nach-deutschland-banken-kappen-konten-linker-netzwerke/[21] https://www.mlpd.de/alle-mlpd-konten-gekuendigt/[22] https://www.reuters.com/world/uk/brexit-campaigner-nigel-farage-natwest-settle-debanking-dispute-2024-04-05/[23] https://www.bundestag.de/presse/hib/kurzmeldungen-1005552[24] https://www.heise.de/news/SWIFT-kappt-Irans-Banken-Zugang-zum-Zahlungsverkehrssystem-3377794.html
Copyright © 2026 Heise Medien
Bernd Müller
(Bild: FOTOGRIN / Shutterstock.com)
Eine BDEW-Studie deckt auf, warum Wasserstoff-Projekte trotz Förderzusagen scheitern. Die Risiken sind zu groß – und sie verstärken sich gegenseitig.
Wasserstoff [1], vor allem grüner Wasserstoff [2], soll das Rückgrat der Energiewende werden. Er soll der Industrie helfen, Prozesse ohne fossile Energieträger wie Erdgas [3] zu gestalten. Doch, während die Politik große Ziele ausgibt, ist die wirtschaftliche Realität eine andere.
Das geht aus einer Analyse hervor, die jetzt vom Bundesverband der Energie- und Wasserwirtschaft (BDEW) gemeinsam mit Capgemini Invent vorgelegt wurde. Erstmals, so wird erklärt, wird systematisch erfasst, wie groß die Kluft zwischen Anspruch und Wirklichkeit ist.
Das Ergebnis [4] fällt ernüchternd aus: Der Hochlauf der Wasserstoffwirtschaft scheitert nicht an mangelndem Interesse oder fehlender Technik. Für Unternehmen haben sich vielmehr zahlreiche Hürden aufgetürmt, die sie nicht mehr schultern können. Genannt werden: finanzielle Risiken, staatliche Regulation und fehlende Infrastruktur.
Die Autoren der Studie arbeiteten elf Kernrisiken heraus, die den gesamten Weg des Wasserstoffs betreffen – von der Herstellung im Elektrolyseur [5] über Pipelines und Speicher bis hin zur Nutzung in Stahlwerken oder Chemieanlagen.
Das eigentliche Problem liegt dabei nicht in einem einzelnen Stolperstein. Vielmehr greifen die Risiken ineinander und verstärken sich wechselseitig.
Torben Schuster, bei Capgemini Invent verantwortlich für den Bereich Energiewende, formuliert es [6] gegenüber dem Magazin HZwei so: "Die kumulierten Unsicherheiten übersteigen schlicht die Risikotragfähigkeit der Unternehmen."
Weil Transportleitungen [7] fehlen, zögern Abnehmer. Weil Abnehmer zögern, scheuen Produzenten die Investition. Und weil Produzenten nicht investieren, lohnt sich der Leitungsbau nicht.
Im Zentrum der wirtschaftlichen Schwierigkeiten steht eine hartnäckige Preisdifferenz. Wer Wasserstoff auf Basis erneuerbarer Energien herstellt, zahlt derzeit mindestens sieben Euro pro Kilogramm. Fossile Verfahren liefern das gleiche Molekül für rund 3,50 Euro.
Verschärfend wirken die EU-Regeln [8] für sogenannte erneuerbare Kraftstoffe nicht-biogenen Ursprungs, kurz RFNBO. Diese Vorschriften legen strenge Kriterien an die Herkunft und zeitliche Zuordnung des eingesetzten Stroms an.
Laut der Studie könnten sie die Produktionskosten bis 2030 um weitere drei bis vier Euro je Kilogramm nach oben treiben. Branchen wie Stahl oder Chemie operieren jedoch mit hauchdünnen Margen im globalen Wettbewerb und können solche Aufschläge kaum an Endkunden weiterreichen.
Daraus entsteht ein klassisches Henne-Ei-Dilemma bei der Finanzierung. Kreditgeber verlangen für Großprojekte verbindliche Abnahmezusagen über 15 bis 20 Jahre. Industriekunden hingegen binden sich ungern länger als fünf Jahre, weil sie auf fallende Preise oder alternative Technologien setzen. Ohne belastbare Verträge stufen Banken die Vorhaben aber als zu riskant ein – und finale Investitionsentscheidungen bleiben aus.
Auch der regulatorische Rahmen verunsichert mehr, als er dafür sorgt, ein Vorhaben gut zu planen.
Das Problem: Bis Mai 2025 verfehlten sämtliche EU-Mitgliedstaaten mit Ausnahme Dänemarks die Frist zur nationalen Umsetzung zentraler Richtlinien. Gleichzeitig fehlt ein verbindlicher Schutz für bereits getätigte Investitionen. Unternehmen befürchten nun, dass nachträgliche Verschärfungen laufende Projekte wirtschaftlich entwerten könnten.
Beim Infrastrukturausbau zeigt sich ein ähnliches Bild: Das geplante Wasserstoff-Kernnetz mit rund 1.800 Kilometern Länge ist zwar genehmigt, doch Verzögerungen bei Speichern, Importterminals und regionalen Anschlüssen bremsen die gesamte Kette.
Die Studie empfiehlt ein zeitlich befristetes Maßnahmenpaket, das an drei Stellen ansetzt.
Erstens soll die Politik die strengen RFNBO-Kriterien entschärfen und die Befreiung von Netzentgelten für Elektrolyseure über 2029 hinaus verlängern.
Kirsten Westphal aus der BDEW-Hauptgeschäftsführung fordert: Das Ziel der Politik müsse sein, "den Aufbau vollständiger Wertschöpfungsketten zu ermöglichen". Sinnvoller als der Bau exklusiver Erzeugungsanlagen sei es, vorhandene Kapazitäten im Energiesystem [9] mitzunutzen.
Zweitens sollen staatliche Differenzverträge die Preislücke zu fossilen Energieträgern vorübergehend schließen und Ausfallbürgschaften das Risiko für Netzbetreiber senken.
Drittens benötige die Nachfrageseite verbindliche Quoten für klimafreundliche Grundstoffe sowie Vorgaben in der öffentlichen Beschaffung, um stabile Absatzmärkte zu schaffen.
URL dieses Artikels:https://www.heise.de/-11179738
Links in diesem Artikel:[1] https://www.heise.de/tp/article/Wasserstoff-Vom-Hoffnungstraeger-zum-Sorgenkind-der-Energiewende-11128989.html[2] https://www.heise.de/tp/article/Gruener-Wasserstoff-Technologie-Kosten-und-Zukunft-11108597.html[3] https://www.heise.de/tp/article/Gasspeicher-unter-50-Prozent-Deutschland-faehrt-auf-Sparflamme-11137938.html[4] https://www.bdew.de/media/documents/260211-BDEW-Broschure-Risikominimierung_entlang_der_Wasserstoff-Wertsch%C3%B6pfungskette.pdf[5] https://www.heise.de/tp/article/Wasserstoff-Produktion-in-Deutschland-Reicht-unser-Wasser-fuer-die-Energiewende-10573785.html[6] https://www.hzwei.info/politik-und-recht/politik-und-recht-bdew-studie-kumulierte-risiken-blockieren-wasserstoffhochlauf[7] https://www.heise.de/tp/article/Wasserstoff-Revolution-Neue-Wunderfluessigkeit-macht-Transport-einfach-10495733.html[8] https://www.heise.de/tp/article/Europa-verliert-sich-in-Detailregeln-beim-Wasserstoff-10633390.html[9] https://www.heise.de/tp/article/Europa-erreicht-den-Wendepunkt-der-Energiewende-11150212.html
Copyright © 2026 Heise Medien