Forscher konnten Nachrichten mitlesen, Standorte fälschen und beliebige Uhren übernehmen – demonstriert aus der Perspektive einer kinderfressenden Waldhexe.
Nils Rollshausen von der TU Darmstadt hat auf dem 39. Chaos Communication Congress (39C3) in Hamburg gravierende Schwachstellen in Kinder-Smartwatches des norwegischen Herstellers Xplora präsentiert. Der Vortrag „Watch Your Kids: Inside a Children's Smartwatch" [1] basierte weitgehend auf den Arbeiten eines Masterstudenten, der die Sicherheitsarchitektur systematisch analysierte. Die Uhren werden nicht nur in Norwegen, sondern weltweit verkauft – nach eigenen Angaben über 1,5 Millionen Stück. In Deutschland werden sie unter anderem von der Telekom in Bundle-Deals angeboten.
„Wir sind eine kinderfressende Hexe"
Rollshausen wählte einen ungewöhnlichen narrativen Rahmen: „Für die Zwecke dieses Talks sind wir eine kinderfressende Hexe, die im Wald lebt." Das Problem der Hexe: Früher wanderten Kinder einfach zur Hütte, doch heute tragen alle GPS-Tracker und die Eltern können sie finden. „Wenn wir nicht verhungern wollen, müssen wir wohl etwas Recherche betreiben."
Der Einstieg gelang über FCC-Zulassungsdokumente, in denen Fotos eines Entwickler-Ladegeräts mit vier statt zwei Pins auftauchten. Die Forscher bastelten einen Adapter – und tatsächlich meldete sich die Uhr als USB-Gerät.
Für den Debug-Modus fragten sie sich: „Was ist die dümmste mögliche Lösung?" Mehrfaches Tippen auf die Versionsnummer, wie sonst auch bei Android. Es funktionierte. Dann erschien ein PIN-Feld. Während Rollshausen über automatisierte Angriffe nachdachte, ging der Masterstudent nach Hause und tippte zwei Stunden lang jede vierstellige Kombination manuell ein und fand die richtige Kombination.
Statische Schlüssel ermöglichen Vollzugriff
Da sich die Uhr mit aktiviertem Debug-Zugang wie ein normales Android-Gerät verhielt, konnten die Forschenden mit Standardtools alle Hersteller-Apps extrahieren. Dabei fanden sie das Kernproblem: Die Authentifizierung basierte auf statischen Geheimnissen in der Firmware.
In Kombination mit öffentlich zugänglichen Daten wie Zeitstempeln und Seriennummern konnten Angreifer gültige API-Schlüssel für beliebige Uhren generieren – und damit alles tun, was die echte Uhr auch kann.
Kinder virtuell nach Pjöngjang teleportieren
Live demonstrierte Rollshausen die möglichen Folgen – weiterhin aus Hexenperspektive:
Nachrichten mitlesen: „Sehr nützlich für die Kommunikation"
Gefälschte Nachrichten senden: „Damit die Kinder wissen, wo sie uns finden, denn sie sind so beschäftigt mit ihren Handys, dass sie den Wald nicht mehr finden"
Standort manipulieren: Für dies Manipulation braucht es laut Rollshausen immer zwei Versuche. Doch dann klappt die „Teleportation" – dann stand das Kind plötzlich in Pjöngjang, Nordkorea, oder einem anderen frei wählbaren Ort.
Uhren aus der Ferne zurücksetzen: „Das sieht auf dem Bildschirm nicht sehr interessant aus", räumte er ein, bevor die Uhr auf der Bühne herunterfuhr
„Das ist eine For-Schleife davon entfernt, alle Uhren mit diesem Modell zu kompromittieren. Und das sind viele Uhren", so Rollshausen.
Zähe Kommunikation mit dem Hersteller
Die Offenlegung der Schwachstellen verlief zunächst holprig. Das Vulnerability-Disclosure-Programm auf der Website war falsch verlinkt, E-Mails blieben unbeantwortet – bis etwa eine Woche vor dem 39C3-Talk.
Ein Firmware-Update im August sorgte bei Rollshausen für Nervosität: Würde der Debug-Zugang weiterhin funktionieren? Vorsorglich installierte Rollshausen eine eigene App, die das Debug-Menü direkt aufruft. Diese Maßnahme erwies sich als sinnvoll, denn die bisherige PIN war anschließend ungültig. Die Analyse zeigte, dass die PIN nun sechs statt vier Stellen umfasste und das System nach drei Fehlversuchen gesperrt wurde. An den eigentlichen Schwachstellen hatte sich jedoch nichts geändert. „Sie haben nicht einmal die Zugangsdaten rotiert“, so Rollshausen.
Auch das Firmware-Update im Oktober erforderte lediglich minimale Anpassungen der bestehenden Exploits. Erst kurz vor dem Congress nahm Xplora direkt Kontakt auf. In einem Gespräch am 22. Dezember versicherte das Unternehmen, die Ursachen mit einem Update im Januar 2026 beheben zu wollen. Zudem wurde das Disclosure-Programm überarbeitet, und der beteiligte Masterstudent erhielt eine „ansehnliche“ Bug-Bounty-Vergütung.
Signal auf der Kinderuhr
Als ironische Zwischenlösung zeigte Rollshausen den Signal-Messenger auf einer Xplora-Uhr: „Ich musste alle Größenwerte durch zehn teilen, damit das auf den Bildschirm passt – aber technisch können Sie Signal auf der Smartwatch Ihres Kindes laufen lassen."
Die Botschaft: „Wir können mit Herstellern zusammenarbeiten, um Dinge sicherer zu machen – aber wir müssen nicht. Wir können auch einfach unser eigenes Ding machen."
URL dieses Artikels: https://www.heise.de/-11126122
Links in diesem Artikel: [1] https://media.ccc.de/v/39c3-watch-your-kids-inside-a-children-s-smartwatch [2] https://pro.heise.de/security/?LPID=45883_HS1L0001_33064_999_0&wt_mc=intern.fd.secuirtypro.Aktionsende25.disp.disp.disp [3] mailto:vza@heise.de
Der E-Mail-Client MailMaven für macOS bietet Tagging und umfangreiche Ordnungsfunktionen. Wir haben die App getestet.
Nachdem Apple seine Plug-in-Schnittstelle beschnitten hatte, beschlossen die Macher von MailMaven, ihre eigene App zu entwickeln.
Die auf Deutsch lokalisierte Anwendung basiert auf dem früheren MailSuite-Plug-in für Apple Mail. Um Funktionen wie Tagging und umfangreiche Aktionen auf Tastendruck anzubieten, mussten die Entwickler wegen der von Apple gestrichenen Schnittstelle einen eigenen Client programmieren.
Eine Importfunktion erleichtert den Umzug von Apple Mail.
URL dieses Artikels: https://www.heise.de/-11091118
Mit modernen Methoden zur Organisation von Entwicklungsteams wie Team Topologies rücken die Einflussmöglichkeiten von Softwarearchitekten in den Vordergrund.
Scheinbar geht es bei Softwarearchitektur nur um die Strukturierung von Software und die Umsetzung von nicht funktionalen Anforderungen. Aber in Wirklichkeit ist die Software für Menschen da und Menschen schreiben die Software. Daher ist es notwendig, sie als ein soziotechnisches System zu begreifen. Das hat Auswirkungen auf das Verständnis von Softwarearchitektur.
Der Begriff Soziotechnisches System steht für eine organisierte Menge von Menschen und mit diesen verknüpfte Technologien, die in einer bestimmten Weise strukturiert sind, um ein spezifisches Ergebnis zu produzieren. Er geht auf Forschung unter anderem im Steinkohlebergbau in Großbritannien in den 1950er-Jahren zurück. Die Idee von soziotechnischen Systemen ist somit nicht neu und schon gar keine Mode. Eine Kernerkenntnis ist, dass der Erfolg eines Unternehmens davon abhängt, wie es als soziotechnisches System funktioniert, nicht einfach als ein technisches System mit ersetzbaren Individuen, die hinzugefügt werden und sich anpassen müssen.
Die Bezeichnung sagt bereits, worum es geht: Das System besteht aus einer technischen Komponente (etwa Maschinen) und einer sozialen Komponente (Mitarbeiterinnen und Mitarbeiter, die technische Komponenten bedienen und nutzen). Beide lassen sich nur gemeinsam betrachten, da sie eng miteinander verknüpft sind. Deswegen muss man auch menschliche Kommunikation neben der Mensch-Maschine-Kommunikation betrachten.
Dieser Ansatz ist für Softwareentwicklung und -architektur gleich aus mehreren Gründen interessant: Erstens wird Softwareentwicklung oft als eine rein technische Aufgabe begriffen und betrieben. Das ist sie aber nur scheinbar. Software als soziotechnisches System zu behandeln, birgt die Chance, wesentliche Verbesserungen zu erreichen. Zweitens löst die meiste Software keine rein technischen Probleme, sondern muss für Anwenderinnen und Anwender sowie andere Stakeholder einen wirtschaftlichen Nutzen haben.
Damit steht die Software in einem wichtigen Verhältnis zu dieser Personengruppe, da der Wert der Software sich an dem wirtschaftlichen Nutzen für diese Gruppe orientiert. Dieser soziale Aspekt ist zentral für den Erfolg eines Softwareentwicklungsprojekts. Und schließlich wird Software in Teams implementiert. Auch bei der Entwicklung gibt es also ein soziales Geflecht, das es zu verwalten gilt. Wenn man diese Aufgabe besonders gut erfüllt, wird man effektiv und effizient entwickeln.
Tatsächlich steht Softwarearchitektur in einem engen Zusammenhang mit beiden sozialen Systemen – Entwickler und User (siehe Abbildung 1). Softwarearchitektur muss eine technische Lösung finden, die Nutzerinnen und Nutzer ausreichend unterstützt. Dabei sind Qualitäten der Software wie Benutzerfreundlichkeit, Performance, Skalierbarkeit oder Sicherheit zu betrachten. Dieser Teil der Architektur ist daher nur im Zusammenspiel mit diesem sozialen System bewertbar. Eine Architektur lässt sich nur daran messen, ob sie ausreichende Qualitäten für die Benutzergruppe mit sich bringt. Was für einige Personen subjektiv unmöglich zu benutzen ist, kann für andere akzeptabel oder gar ideal sein – man denke nur an die Auseinandersetzungen zu Editoren wie Vim oder Emacs.
Softwarearchitektur bietet für Developer eine Strukturierung des Codes und muss für User die Einhaltung der Qualitäten garantieren (Abb. 1).
Die Aufteilung eines Systems in Module dient dazu, die Komplexität des Systems beherrschbar zu machen. Damit ist die Modularisierung nur im Zusammenspiel mit dem jeweiligen Entwicklungsteam bewertbar. Auch eine scheinbar gute Modularisierung kann für das Team schwer verständlich sein und zu geringer Produktivität führen. Beispielsweise kann ein Team ein System ohne eine gute Übergabe von einem anderen Team übernommen haben, sodass das neue Team es trotz guter Modularisierung schwer verstehen und ändern kann.
Es ist auch denkbar, dass das System zwar schlecht strukturiert ist, aber das Team sich über einen längeren Zeitraum an diese Struktur gewöhnt hat und daher das System ausreichend gut ändern kann. Dann kann das Team die Software schwerlich abgeben, weil ein neues Team Schwierigkeiten hätte, sie zu verstehen. Das ist weniger ein technisches Problem, sondern lässt sich als ein soziales Problem auffassen.
Das Gesetz von Conway
Das Gesetz von Conway besagt [1], dass eine Organisation ein System entwickeln wird, dessen Design die Kommunikationsstrukturen der Organisation kopiert. Für die Softwareentwicklung bedeutet das beispielsweise: Wenn zwei Teams zwei Aufgaben haben und darüber bei Bedarf miteinander kommunizieren, werden sie in der Software zwei Module aufbauen, die eine Schnittstelle haben. Klassisch hat man das Gesetz von Conway eher als ein Hindernis begriffen: Wenn Teams in einer bestimmten Art organisiert sind, können sie nur bestimmte Architekturen erstellen. Sind ein UI- und ein Backend-Team vorhanden, werden auch ein UI und ein Backend in der Architektur entstehen.
Dabei wird jedoch das Organigramm mit Kommunikation verwechselt. Aber Menschen und Teams kommunizieren auch dann, wenn sie im Organigramm keine offensichtlichen Beziehungen besitzen. Zwar kann das Organigramm einen wesentlichen Einfluss auf die Kommunikation ausüben, aber es ist nicht deckungsgleich. Das ist auch eine gute Nachricht: Während das Organigramm statisch ist, kann jede involvierte Person die Kommunikationsflüsse im Projekt beeinflussen.
Aus dem Zusammenhang zwischen Kommunikation und Architektur ergibt sich ein weiteres Problem: Wenn die Kommunikation nicht mehr effektiv ist oder zusammenbricht, leidet die Architektur des Systems darunter. Gerade bei großen Projekten ist es schwierig, eine gute Kommunikation zu bewahren. Daher kann es insbesondere hier dazu kommen, dass zunächst die Kommunikation schwierig und dann die Architektur in Mitleidenschaft gezogen wird.
Solche Probleme hat Melvin Conway schon 1967 im ursprünglichen Paper zu seinem Gesetz beschrieben. Wenn Softwarearchitektinnen und -architekten die Qualität der Architektur erhalten oder gar verbessern wollen, müssen sie auf die Kommunikation im Projekt Einfluss nehmen und gewährleisten, dass sie funktioniert.
Durch das Inverse Conway Maneuver [2] (siehe Abbildung 2) hat sich im Rahmen der Microservices-Bewegung das Verständnis für das Gesetz von Conway gewandelt: Statt es als Hindernis zu verstehen, will man es nun für die Gestaltung der Architektur nutzen. Wenn Teams definiert werden und jedes eine bestimmte Verantwortung erhält, werden diese Teams voraussichtlich jeweils ein Modul oder einen Microservice implementieren, der ihrer Verantwortung entspricht. Das Aufstellen der Organisation auf eine bestimmte Weise definiert somit indirekt die Architektur. Das Inverse Conway Maneuver versteht Software demnach als soziotechnisches System und wirkt durch Maßnahmen auf der sozialen Seite auf die technische ein.
Inverse Conway Maneuver: Die Organisation bestimmt die Architektur (Abb. 2).
Inverse Conway: So einfach ist das nicht
Leider ist das Inverse Conway Maneuver aus zwei Gründen zu simplifizierend. So beeinflusst das Inverse Conway Maneuver nur das Organisationsdiagramm. Beim Gesetz von Conway geht es aber um die Kommunikation. Natürlich werden Teammitglieder vermutlich enger untereinander kommunizieren als mit anderen Teams. Aber es kann der Fall eintreten, dass Mitarbeitende eine Umorganisation schlicht ignorieren. Und wenn das Organigramm nicht zur Aufgabe passt, werden sich andere Kommunikationswege etablieren. Eine Änderung des Organisationsdiagramms kann also die Kommunikation beeinflussen, aber in Wirklichkeit ist die Situation komplizierter.
Zudem können Softwarearchitektinnen und -architekten die Teamzusammenstellung meist nicht alleine entscheiden. Daher können sie das Inverse Conway Maneuver nicht oder zumindest nicht alleine durchführen. Das ist auch sinnvoll, denn neben der Architektur gibt es noch weitere Einflussfaktoren auf die Organisation: Beispielsweise kann sich die Priorität der Themen auf die Teamaufteilung auswirken. Auch kann es sinnvoll sein, bei einer verteilten Organisation Teams so zu bilden, dass die Mitglieder eines Teams nur an einem Standort arbeiten, was die Zusammenarbeit erleichtert.
Letztendlich ist das Inverse Conway Maneuver wenig überraschend: Einem cross-funktionalen Team eine Geschäftsaufgabe zu geben, die es mit einem bestimmten Teil des Codes des Systems zu erfüllen hat, war schon ein Ziel der agilen Softwareentwicklung. Das Inverse Conway Maneuver ist sehr ähnlich, allerdings aus der Architektur betrieben.
Team Topologies
Wenn das Inverse Conway Maneuver nicht ausreicht, muss es eine Alternative geben. In letzter Zeit hat sich der Ansatz der Team Topologies [3] als eine Alternative für die Organisation insbesondere von Softwareprojekten etabliert. Team Topologies (siehe Abbildung 3) definiert eine geringe Anzahl an Teamtypen:
Stream-aligned Teams decken idealerweise den Fluss der Änderungen bis hin zu den Produktionssystemen für einen Teil des Geschäfts vollständig ab, ohne dass dafür Übergaben an andere Teams notwendig wären. Daher sollte kein anderes Team zwischen einem Stream-aligned Team und dessen Kunden oder Benutzern stehen. Beispiele sind Teams, die Geschäftsfunktionalität in einem bestimmten Bereich implementieren. Die Mehrheit der Teams sollte stream-aligned sein.
Enabling Teams helfen Stream-aligned Teams, Hindernisse zu überwinden, und sie erkennen fehlende Fähigkeiten. Beispielsweise können sie Wissen über Architektur oder bestimmte technische Fertigkeiten in die Stream-aligned Teams tragen.
Complicated Subsystem Teams sind notwendig, wenn zum Beispiel komplexe mathematische Berechnungen oder technische Expertise erforderlich sind.
Platform Teams stellen ein attraktives internes Produkt bereit, um die Arbeit der Stream-aligned Teams zu beschleunigen. Die Qualität des Produkts misst sich daran, wie gut es die Arbeit der Stream-aligned Teams unterstützt und wie sehr es von ihnen genutzt wird. Beispiele können eine Ablaufumgebung oder eine Umgebung zum Bauen der Anwendungen sein.
Beispiel für eine Organisation nach Team Topologies (Abb. 3).
Mit dieser Aufstellung von Teams legt Team Topologies den Fokus auf Stream-aligned Teams, die einen direkten Wert für Kunden erzeugen. Gleichzeitig ergreift der Ansatz Maßnahmen, um die kognitive Last der Teams gering zu halten. Enabling Teams, Complicated Subsystem Teams oder Platform Teams halten den Stream-aligned Teams den Rücken frei, damit sie tatsächlich für die Nutzerinnen und Nutzer arbeiten können.
Außerdem definiert Team Topologies verschiedene Fracture Planes – Ebenen, an denen man die Teams aufteilt. Dazu zählen Bounded Contexts und damit eine fachliche Aufteilung, aber auch Aufteilungen nach Technologien oder nach der Lokation der Mitarbeitenden sind denkbar.
Im Gegensatz zu dem Inverse Conway Maneuver bietet Team Topologies eine deutlich umfangreichere Orientierung, wie der Schnitt der Teams zu erfolgen hat. Für die Interaktion der Teams sieht Team Topologies drei Möglichkeiten vor:
X-as-a-Service bedeutet, dass ein Team einem anderen Team seine Dienste „as a Service“ zur Verfügung stellt. Vorbild sind typische Cloud-Angebote wie SaaS (Software as a Service) oder IaaS (Infrastructure as a Service). Ein Platform Team bietet beispielsweise eine API oder eine Weboberfläche, um Stream-aligned Teams Zugriff auf ihre Dienstleistung zu ermöglichen.
Collaboration ist die Zusammenarbeit über einen festgelegten Zeitraum, um neue APIs, Praktiken oder Technologien zu entdecken.
Bei Facilitation hilft und betreut ein Team ein anderes Team.
Die Zusammenarbeit kann sich über die Zeit hinweg ändern. Zum Beispiel kann ein SRE-Team (Site Reliability Engineering) – ein Enabling Team – zunächst mit einem Stream-aligned Team eine Collaboration eingehen, damit das Stream-aligned Team SRE-Techniken erlernen kann. Dabei können Mitglieder des SRE-Teams sogar kurzfristig die Verantwortung für den Betrieb übernehmen, obwohl damit das Stream-aligned Team nicht mehr für den vollständigen Fluss der Änderungen bis zum Kunden verantwortlich ist.
Wenn das Stream-aligned Team die Techniken ausreichend gut beherrscht, kann sich das SRE-Team wieder vollständig aus dem Betrieb zurückziehen. Es steht dann weiterhin beispielsweise zur Facilitation zur Verfügung, wenn weitere SRE-Techniken erlernt werden müssen.
So stellt Team Topologies Werkzeuge bereit, die die meisten Probleme in der Organisation von Projekten lösen können. Da es nur relativ wenige Werkzeuge sind, ist Team Topologies nicht allzu schwierig zu verstehen und einzusetzen. Aus einer Architektursicht ist es interessant, dass Team Topologies nicht nur die fachliche Aufteilung als relevant bei der Aufteilung der Teams ansieht, sondern auch andere Faktoren wie die Lokation der Teams berücksichtigt.
So kann es eine Aufteilung in zwei Teams geben, wenn das Projekt an zwei unterschiedlichen Standorten stattfindet. Das ist sinnvoll, da es in einem Team, das über verschiedene Standorte verteilt ist, wegen der Distanz zu Kommunikationsproblemen kommen kann. Da zwischen Teams typischerweise weniger Kommunikation als innerhalb eines Teams notwendig ist, kann die Aufteilung in je ein Team pro Standort die Kommunikation verbessern. Nach dem Gesetz von Conway bedeutet diese Art der Kommunikation aber auch zwei Module in der Architektur. Sie ist hier somit nicht durch eine sinnvolle technische oder fachliche Aufteilung getrieben, sondern es geht um die Architektur eines soziotechnischen Systems.
Softwarearchitektinnen und -architekten finden sich in diesem System als Experten in den verschiedenen Teams wieder. Es kann zusätzlich ein Architekturteam als Enabling Team geben, das mit seiner Architekturkompetenz anderen Teams hilft. Dieses arbeitet durch Collaboration für einige Zeit mit Stream-aligned Teams sehr eng zusammen oder steht durch Facilitation zur Verfügung. Das gesamte Team-Topologies-Konstrukt legt den Fokus auf die Stream-aligned Teams, sodass ein Architekturteam eine Unterstützung sein muss.
Und was kann ich als Softwarearchitekt tun?
Software als ein soziotechnisches System zu begreifen, kann für Softwarearchitekten zunächst entmutigend sein. Schließlich ist es die Aufgabe von Managerinnen, Projektleitern und anderen, über die Organisation zu entscheiden. Architektinnen und Architekten können scheinbar nur Architektur beeinflussen, nicht aber das Setup der Teams oder die Kommunikation.
Tatsächlich ist das allerdings Unsinn. Jede Person, die in einem Projekt arbeitet, kann das soziale Gefüge beeinflussen – also auch Softwarearchitekten. Außerdem haben Personen, die sich um Architektur kümmern, meist einen gewissen Einfluss auf das Projekt und dessen Setup. Daher bringt die Einsicht, es mit soziotechnischen Systemen zu tun zu haben, neue Einflussmöglichkeiten.
Außerdem ist die Architektur nur ein Einflussfaktor unter vielen auf die Organisation: Klassische Führungskräfte haben noch viele weitere Gründe, Teams auf eine bestimmte Weise zu organisieren. Diese unterschiedlichen Sichten sollten mit den jeweils einzigartigen Expertisen in die Planung der Organisation einbezogen werden. Architekten haben dabei bestimmte Einblicke – beispielsweise die Auswirkungen auf die Architektur entsprechend dem Gesetz von Conway. Das gemeinsame Betrachten der Expertisen erlaubt das Aufstellen des soziotechnischen Systems passend zu den jeweiligen Herausforderungen und Einflussfaktoren.
Im Übrigen wissen die meisten Architektinnen und Architekten, auf welchen oft verschlungenen Pfaden sie Entscheidungen beeinflussen oder herbeiführen können – auf solchen Wegen können sie auch die Organisation und Kommunikation beeinflussen, was ihnen oft weniger bewusst ist. Aber im Grunde ist das nicht überraschend: Menschen bewegen sich schließlich ständig erfolgreich beruflich und privat in verschiedenen sozialen Systemen und beeinflussen sie.
Soziotechnische Ansätze: Wichtig für Architektur
Menschen entwickeln für Menschen Software. Damit ist die Entwicklung ein soziotechnisches System – und durch das Gesetz von Conway ist das auch seit mehr als fünfzig Jahren bekannt. Mit modernen Ansätzen wie Team Topologies stehen Modelle zur Verfügung, um über die Organisation von Softwareentwicklungsteams pragmatisch nachzudenken.
Softwarearchitektinnen und -architekten mit ihrer starken Expertise hinsichtlich der Organisation von Software sind in einem solchen Kontext gefordert, ihre Perspektive einzubringen und sich ihres Einflusses bewusst zu sein. Gleichzeitig müssen sie bedenken, dass andere Personen das Setup der Teams ebenfalls beeinflussen wollen, um ihre Perspektive und Expertise einzubringen. Nur wenn es gelingt, alle Personen an dem Prozess des Designs der Organisation zu beteiligen, lässt sich das optimale Ergebnis erreichen.
URL dieses Artikels: https://www.heise.de/-11107015
Links in diesem Artikel: [1] https://www.melconway.com/Home/Conways_Law.html [2] https://software-architektur.tv/2021/10/13/epsiode80.html [3] https://www.heise.de/hintergrund/Moderne-Organisationsformen-Team-Topologies-in-der-Softwareentwicklung-7483833.html [4] mailto:who@heise.de
In dieser Episode lädt Richard Seidl zum Jahresrück- und Ausblick rund um die Themen Software Testing, KI und den Podcast.
Richard Seidl spricht in dieser Episode über sein Podcastjahr, Hörerfragen und den Blick nach vorn. Er ordnet Zahlen und Meilensteine ein, erinnert an die Testpyramiden-Folge mit Ronald Brill [1] und den Ausbau auf YouTube und englische Formate. In der Fragerunde geht es um KI im Testing, die veränderte Rolle von Testern, sinnvolles Programmierenlernen und den nüchternen Blick auf Toolwechsel wie zu Playwright.
Er beleuchtet Grenzen der Automatisierung, den Umgang mit instabilen Tests und warum Shift Left im Refinement beginnt. Ein Tonpannen-Lernmoment und Pläne für breitere Themen und mehr Teststrategie runden ab. Am Ende steht die Frage, was Qualität in Teams morgen prägen sollte.
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Signal-Chefin Whittaker warnt vor dem Einsatz agentischer KI in Betriebssystemen und vor Tools wie Microsoft Recall. Das gefährde die Datensicherheit stark.
Meredith Whittaker und Udbhav Tiwari von Signal warnen vor agentischer KI.Bild:
Media.ccc.de / CC-BY 4.0
In den vergangenen Jahren war es vor allem die geplante Chatkontrolle , die die verschlüsselte Kommunikation von Messengern bedrohte. Doch nun hat der Anbieter Signal eine weitere Gefahr ausgemacht. Auf dem 39. Chaos Communication Congress (39C3) in Hamburg warnte Signal-Chefin Meredith Whittaker vor einem "sanften Putsch" durch KI-Anwendungen in Betriebssystemen, die den Entwicklern und Nutzern die Kontrolle über die Geräte entreißen könnten.
Auf den ersten Blick erscheint es nicht ganz nachvollziehbar, warum ein Messenger-Anbieter wie Signal sich intensiv mit diesem Thema beschäftigt und vor dieser Entwicklung warnt. Beim Thema Chatkontrolle ist das offensichtlich, da die Überwachung von Inhalten direkt in den Kommunikationsdiensten erfolgen soll. Doch was Whittaker und Udbhav Tiwari, Vizepräsident für Strategie und globale Angelegenheiten bei Signal, auf dem 39C3 beschrieben, wirkt wie eine Art Chatkontrolle durch die Hintertür.
Doch dieses Tool könnte in Zusammenhang mit dem Einsatz von KI-Agenten eine neue Bedeutung gewinnen – oder gar unverzichtbar werden. Denn laut Whittaker funktionieren solche Agenten, die eigenständig Aufgaben im Auftrag des Nutzers übernehmen, umso besser, je mehr Kontextinformationen zur Verfügung stehen. In einer internen Präsentation für agentenbasierte Produkte habe Microsoft beschrieben, wie der Zugriff auf E-Mails, Chats und Dateien gewährt werde, um dieses "kontextuelle Bewusstsein" zu erlangen.
Je mehr Kontext, desto besser
Kontext bedeute daher, "dass man einen so gut wie uneingeschränkten Zugriff auf alles hat. (...) Je weniger Daten vorhanden sind, desto weniger ist es agentenfähig, je mehr Daten vorhanden sind, desto mehr kann es leisten" , sagte Whittaker. Daher verwalte ein agentenbasiertes Betriebssystem nur Dateien.
"Es nutzt beispielsweise kontinuierliche visuelle Zeichenerkennung im Bildschirmspeicher, um Pixel auszulesen. Es greift auf APIs zu, um alles, was Sie sehen, zu erfassen und dabei die Verschlüsselung auf Anwendungsebene zu umgehen" , sagte Whittaker. Das ähnele dem Vorgehen von Recall oder Google Magic Cue.
Datenweitergabe an Clouddienste wahrscheinlich
Das agentenbasierte System gehe noch weiter. Es sende die gesammelten Daten an ein KI-Modell, üblicherweise ein LLM, und protokolliert sie möglicherweise zuvor in einer Datenbank für Retrieval-Augmented Generation (RAG), wodurch die Daten unter Umständen weiter offengelegt werden. Möglicherweise müsse dazu auf cloudbasierte Dienste zurückgegriffen werden.
In einem letzten Schritt führe das System "basierend auf seiner Wahrscheinlichkeitsberechnung eine Aktion aus, unabhängig davon, ob diese richtig oder falsch ist" , sagte Whittaker. Dazu zählten beispielsweise der Aufruf einer API, das Senden von Daten an einen entfernten Server oder das Überschreiben von Datenbankeinträgen. Das erfolge jeweils ohne Zustimmung oder Initiative für jeden einzelnen Schritt.
Laut Tawiri stellen Tools wie Recall ein großes Sicherheitsrisiko dar.
"Durch die tiefe Integration von Überwachung in das Betriebssystem wird der eigentliche Zweck der Ende-zu-Ende-Verschlüsselung untergraben. Das Betriebssystem kann so eine Art Honeypot mit Ihren sensibelsten und privatesten Informationen erstellen – denselben Informationen, die fast überall sonst verschlüsselt sind – und diese in Form von Screenshots erfassen" , erläuterte er. Signal verhindere dies inzwischen dadurch, dass standardmäßig keine Screenshots von Inhalten erstellt werden könnten.
Doch dieser Schutz hat laut Tawiri schwerwiegende Konsequenzen. So ließen sich Signal-Fenster dadurch nicht mehr teilen. Nutzer mit beeinträchtigtem Sehvermögen könnten sich die Inhalte nicht vorlesen lassen. Die Integration von Funktionen wie agentenbasierten KI-Systemen werde daher die Beziehung zwischen Anwendungen, Nutzern und dem Betriebssystem grundlegend verändern, kritisierte Tawiri.
Prompt Injection als Sicherheitsrisiko
Doch es gebe noch deutlich mehr Gefahren beim Einsatz solcher Agenten. Sie betreffen weniger das Auslesen und Speichern der Nutzerinformationen, sondern die Art und Weise, wie die KI-Systeme manipuliert werden könnten. So lassen sich laut Tawiri beispielsweise bösartige Prompts in Webseiten verstecken, die von den Agenten bei der Erledigung ihrer Aufgaben ausgewertet werden.
Solche Angriffe seien auch beim sogenannten Model Context Protocol (MCP) von Anthropic möglich. Es soll als offener Standard für die Verbindung von KI-Anwendungen mit externen Systemen dienen.
Laut Tawiri entstehen dabei sogenannte Confused-Deputy-Risiken . "Diese entstehen, wenn ein Benutzer einem MCP-Server oder einem System, das auf einen MCP-Server zugreift, Zugriff auf besonders sensible Informationen gewährt. In diesem Fall ist es recht einfach, indirekte Prompt-Injection-Angriffe oder andere Schwachstellen zu nutzen, um diese Informationen zu exfiltrieren" , erläuterte Tawiri.
"Mathematik des Scheiterns"
Darüber hinaus ließen sich über Supply-Chain-Angriffe (g+) Programmbibliotheken kompromittieren, die von MCP-Server genutzt würden. Tawiri verwies zudem auf den sogenannten Echo-Leak-Angriff auf Microsoft Copilot . Dabei wurden schädliche Anweisungen in E-Mails versteckt, die von Copilot ohne Zutun des Nutzers ausgelesen und ausgeführt werden konnten. Daher handelte es sich um eine sogenannte Zero-Click-Schwachstelle.
Doch auch ohne das Ausnutzen von Schwachstellen sind KI-Agenten laut Whittaker sehr anfällig für Fehler. Sie bezeichnete das als die "Mathematik des Scheiterns" . Um sie zu berechnen, ging sie von einer Erfolgsquote von 95 Prozent bei der Erledigung eines Arbeitsschrittes durch einen KI-Agenten aus, was noch großzügig sei. "Wenn Sie diesen Agenten nun bitten, eine Aufgabe mit 30 Schritten auszuführen, beispielsweise von Paris über Berlin zum Berghain, was wahrscheinlich mehr als 30 Schritte erfordert, wird er Probleme haben" , erläuterte Whittaker.
Dann liege die Erfolgswahrscheinlichkeit nur noch bei 21 Prozent. Gehe man von einer 90-prozentigen Erfolgsquote pro Schritt aus, sinke das Gesamtergebnis nach 30 Schritten sogar auf 4,2 Prozent. "Und auf einem System, das bei seinen aktuellen Fähigkeiten in 96 von 100 Fällen versagt, lässt sich keine unternehmensweite Zuverlässigkeit aufbauen" , sagte Whittaker.
Geringe Erfolgsquote
Die Signal-Chefin verwies dabei auf eine Studie der Carnegie-Mellon-Universität (CMU), wonach bei einem Test von agentischen KI-Systemen die maximale Erfolgsquote bei 30 Prozent gelegen habe. "Noch schlimmer: Sie versagten auf seltsame, unberechenbare und gefährliche Weise. Die Forscher nannten dies 'instabile Schlussfolgerungen'. In einem Test beispielsweise konnte der Agent keinen Mitarbeiter in der Datenbank finden, um eine Nachricht zu senden. Anstatt also zu melden, dass der Mitarbeiter nicht gefunden wurde, versuchte er, einen anderen Mitarbeiter in der Datenbank umzubenennen, um die Anfrage zu erfüllen" , sagte Whittaker.
Ihrer Ansicht nach bedeutet die Entwicklung von KI-Agenten einen kritischen Wendepunkt in der Informatik. "Wir befinden uns im Übergang von einem Betriebssystem als Werkzeugkasten unter der Kontrolle von Entwicklern und Nutzern, mit dem wir gemeinsam Aufgaben erledigen können, hin zu einem Betriebssystem als Container für KI-Systeme, die überwachen, vorhersagen und handeln, unter der letztendlichen Kontrolle der Unternehmen und Organisationen, die sie entwickeln" , sagte Whittaker. Der Hype solle jedoch nicht mehr die technische Realität ersetzen.
Früher musste man bei Anträgen Nachweise suchen und zum Amt bringen. Bald sollen Ämter diese selbst digital abrufen können. Eine heikle Sache.
Wenn es um Anträge geht, geht es meist auch um Nachweise. Diese sollen die Ämter künftig selbst abrufen können.Bild:
Dieter_G/Pixabay
Wenn Bürger mit dem Staat zu tun haben, beginnt fast alles mit einem Antrag. Eine Leistung wird beantragt, eine Entscheidung muss getroffen werden. Der Antrag selbst wird digital meist über ein Formularsystem ausgefüllt und über FIT-Connect an die zuständige Behörde übermittelt.
Doch bevor die Behörde entscheiden kann, muss sie in vielen Fällen etwas nachprüfen, zumeist mittels behördlicher Nachweise. Wie alle behördlichen Prozesse soll auch dieser aufgrund einer Registermodernisierung künftig schneller ablaufen. In einigen Artikeln haben wir bereits erklärt, was die Registermodernisierung ist, was sie schaffen soll – und wie . Wir haben diverse Komponenten vorgestellt, etwa das Datenschutzcockpit , das IDA-Verfahren und zuletzt den Data Provider (alle g+). Noch nicht besprochen haben wir den Data Consumer, der eine wichtige Rolle bei den oben genannten Nachweisen spielt.
Chinas Entwurf zur KI -Regulierung soll Regeln für menschenähnliche Chatbots einführen. Geplant sind Interventionspflichten bei heiklen Themen.
KI-Chatbots in China werden wohl reguliert.Bild:
Pexels
Chinas Internetsicherheits-Regulierungsbehörde hat einen Verordnungsentwurf vorgelegt, der KI-Chatbot-Anbieter davon abhalten soll, schädliches Verhalten zu fördern. Die geplanten Regeln würden menschliches Eingreifen verlangen, sobald Suizid zur Sprache kommt, und die Hinterlegung von Kontaktdaten für Erziehungsberechtigte minderjähriger und älterer Nutzer vorschreiben, wie Ars Technica berichtet .
Die Regulierungen würden für jeden öffentlich verfügbaren KI-Service in China gelten, der über Text, Bilder, Audio, Video oder andere Methoden menschliche Konversation simuliert. Laut Winston Ma, außerordentlicher Professor an der NYU School of Law, wären dies die ersten Regeln weltweit, die speziell auf KI mit menschenähnlichen Charakteristiken abzielen, berichtet CNBC .
Nach dem vorgeschlagenen Rahmen müssen Chatbots daran gehindert werden, Inhalte zu generieren, die zu Suizid, Selbstverletzung oder Gewalt ermutigen. Die Systeme dürften auch keine emotionale Manipulation durch falsche Versprechungen oder das, was Regulierer als "emotionale Fallen" bezeichnen, betreiben – Interaktionen, die Nutzer zu unvernünftigen Entscheidungen verleiten könnten.
Design- und Nutzungsbeschränkungen
Die Regeln würden Entwicklern ausdrücklich verbieten, Chatbots zu erschaffen, die auf Sucht oder Abhängigkeit abzielen. Um längere Nutzung zu regulieren, würden die Vorschriften Pop-up-Erinnerungen nach zwei Stunden kontinuierlicher Chatbot-Interaktion verlangen.
KI-Dienste mit mehr als einer Million registrierten Nutzern oder 100.000 monatlich aktiven Nutzern würden laut Entwurf jährlichen Sicherheitsprüfungen unterliegen. Diese Audits sollen Nutzerbeschwerden erfassen, und KI-Unternehmen müssten Meldesysteme für Feedback und Bedenken der Nutzer einrichten.
Die Regulierungen würden Chatbots auch verbieten, Obszönität, Glücksspiel oder kriminelle Aktivitäten zu bewerben.
Unternehmen, die nicht konform sind, dürfen mit der Entfernung aus App-Stores in China rechnen.
Ärgerlich, wenn der Perso-Chip plötzlich nicht mehr funktioniert. Aber muss man dann zwingend einen neuen beantragen? Und wer trägt die Kosten?
Gibt es nicht eine Art von Gewährleistung für den elektronischen Personalausweis, wollte Michael M. von der c’t-Redaktion wissen. Er habe seinen Ausweis jetzt seit gut zwei Jahren. Das Ausweisen mit dessen NFC-Chip und dem Smartphone als Lesegerät habe von Anfang an nur mühsam funktioniert. Stets habe er die Hülle vom Smartphone nehmen müssen, da das NFC-Signal für den Chip offenbar zu schwach war.
Da das Auslesen des Chips inzwischen gar nicht mehr funktioniert, hat er das Bürgeramt aufgesucht. Dort hat man den Chip ebenfalls nicht lesen können und somit bestätigt, dass der Speicher auf dem Ausweis defekt ist. Wenn er die Online-Funktion wieder nutzen wolle, müsse er einen neuen Ausweis beantragen und die Gebühren – aktuell immerhin 37 Euro – dafür bezahlen. Hinzu kämen noch 7 Euro für ein neues Passbild, da das auf dem Ausweis schon älter als sechs Monate ist und deshalb für den neuen Ausweis nicht mehr verwendet werden könne.
Damit wollte sich Michael D. nicht zufriedengeben und fragte bei uns nach, wie es sein kann, dass der eigentlich für zehn Jahre ausgestellte Ausweis nach nur zwei Jahren schon defekt sei und er die Kosten tragen solle – eine interessante Frage. Das aus dem Kaufvertrag bekannte Gewährleistungsrecht kommt hier nicht zum Zuge, jedenfalls nicht zugunsten des Ausweisinhabers. Denn nicht er ist Eigentümer des Ausweises, sondern die Bundesrepublik Deutschland. Und die Ausgabe des Ausweises durch die zuständige Behörde ist auch kein Verkauf. Anders sieht es im Verhältnis zwischen Ausweisbehörde – in der Regel der Kommune – und dem Lieferanten des Ausweises, der Bundesdruckerei, aus. Sie liefert den Ausweis gegen ein Entgelt aus, überträgt dabei aber ebenfalls nicht das Eigentum, sodass es sich auch hier nicht um einen Kaufvertrag handelt, sondern um verwaltungsinterne Abmachungen.
URL dieses Artikels: https://www.heise.de/-11098465
Links in diesem Artikel: [1] https://www.heise.de/hintergrund/Defekter-Personalausweis-Was-man-bei-Stoerung-des-Speicherchips-tun-kann-11098465.html [2] https://www.heise.de/hintergrund/Generative-KI-in-Behoerden-Gefaehrlicher-Hype-oder-wertvolle-Hilfe-10538256.html [3] https://www.heise.de/hintergrund/Drei-Monate-Digitalministerium-zaeher-Aufbau-mutige-Plaene-10511287.html [4] https://www.heise.de/news/Wie-Buerger-kuenftig-mit-dem-Staat-kommunizieren-sollen-Neuer-Anlauf-nach-De-Mail-10392708.html [5] https://www.heise.de/hintergrund/Digitale-Souveraenitaet-in-Abstufungen-T-Systems-Expertin-im-Gespraech-10438235.html [6] https://www.heise.de/hintergrund/Wie-der-Deutschland-Stack-den-Durchbruch-fuer-die-Digitalisierung-bringen-soll-10376056.html [7] https://www.heise.de/news/Digitalisierungsminister-Wildberger-Wenn-Ex-Manager-auf-Beamtenapparat-trifft-10364721.html
Demokratie verspricht Freiheit und Gleichheit. Doch Freiheit entsteht nicht automatisch aus Mehrheiten. Wer ist in der Demokratie wirklich souverän?
Demokratien versprechen ihren Bürgern Freiheit. Doch die unterliegt in der Praxis vielen Grenzen. Ist Demokratie nur eine Mehrheitsherrschaft? Über die notwendigen Aushandlungsprozesse wird wenig gesprochen.
"Demokratie verspricht etwas, was kein anderes politisches System verspricht, nämlich, so idealistisch, so hoch gestochen das klingen mag: Freiheit und Gleichheit."
Das sagt der "bestmögliche Experte", den Die Zeit [1] zur Beantwortung der Frage finden konnte, ob Demokratie die beste Staatsform sei: Jan-Werner Müller [2], Professor an der Princeton University (New Jersey, USA).
Freiheit als Gabe – und von wem?
Allerdings sagt Müller direkt im Anschluss, Demokratie sei ein System, "in dem die Bürgerinnen und Bürger die Freiheit, die ihnen geboten wird, ergreifen können, um politisch tätig zu werden".
Was die Frage aufwirft: Wer gibt denn "Bürgern" in einem System von Freiheit und Gleichheit irgendwelche "Freiheiten"? Wer kann diese demnach auch erweitern oder einschränken?
Selbstbestimmung durch Selbstentmündigung?
Im demokratischen Zirkelschluss wird dann gerne behauptet, das seien die Bürger selbst. Denn durch Wahlen und gegebenenfalls auch Abstimmungen zu Sachfragen legten sie selbst fest, was sie dürfen – und was der Entscheidung irgendeiner anderen Instanz obliegen soll.
Was allerdings eher nach einer selbst gewählten Unmündigkeit klingt. Sich selbst vorübergehend eines Teils der Entscheidungsgewalt über das eigenes Leben zu entledigen, ist zwar auch als Teil von Freiheit zu verstehen – wie etwa bei der selbst beantragten Glücksspielsperre [3].
Aber zu einer freiwilligen Entmündigung gehört eben auch, dass sie widerrufbar ist. Die Bürger einer so verstandenen Demokratie müssten also in der Lage sein, jederzeit ein System, das ihnen nur bestimmte Freiheiten einräumt, wieder zu verwerfen.
Das ist aber offenbar nicht vorgesehen. Auch wenn im deutschen Grundgesetz steht, dieses habe "sich das Deutsche Volk kraft seiner verfassungsgebenden Gewalt" selbst gegeben (Präambel [4]) und dass es seine Gültigkeit verliert "an dem Tage, an dem eine Verfassung in Kraft tritt, die von dem deutschen Volke in freier Entscheidung beschlossen worden ist" (Art. 146 GG [5]), so ist doch nicht nur unter Juristen höchst umstritten, wie das Volk selbst jemals eine neue Verfassung in Kraft setzen können sollte.
Es ist vor allem im Alltag nie die Rede davon, der Bürger selbst könne in irgendeiner Form die von ihm angeblich abgetretenen Freiheiten legal zurückerlangen.
Wer erschafft in der Demokratie wen?
Es wirkt ein wenig wie das Henne-Ei-Problem: Wer erschafft eigentlich wen? Schaffen die Bürger eines Staates (was immer das dann genau sein mag) die Demokratie (in welcher Form auch immer), oder schafft eine (woher auch immer gekommene) Demokratie freie Bürger?
Im Newsletter zum Zeit-Interview [6] mit Professor Müller heißt es, autokratische Systeme seien global betrachtet auf dem Vormarsch, und diese könnten "durchaus mit Erfolgen aufwarten, was Wirtschaftskraft und Verbesserung der Lebensverhältnisse angeht – das zeigt das Beispiel Chinas".
Was eine weitere wichtige Frage aufwirft: Wie wird der Erfolg einer Demokratie (oder anderen Staatsform) gemessen? Also: Was ist gute Politik, was ist schlechte Politik? Was ist gut für die Bürger, was schadet ihnen (vielleicht auch, ohne dass sie es wissen)?
Letztlich dreht sich alles um den Begriff der Freiheit, die ja das wesentliche Merkmal der Demokratie [7] sein soll, wie keineswegs nur Müller behauptet, sondern wie es schon in der Schule gelehrt wird.
Vom einfachen Freiheitsbegriff zur Auslegungssache
Eine wohl kaum verbesserungsfähige Beschreibung von Freiheit findet sich in der französischen Erklärung der Menschen- und Bürgerrechte aus dem Jahr 1789:
"Die Freiheit besteht darin, alles tun zu können, was einem anderen nicht schadet."(Art. 4 [8])
In der Erklärung der Menschenrechte der Vereinten Nationen aus dem Jahr 1948 klingt das schon nicht mehr so klar:
"Alle Menschen sind frei und gleich an Würde und Rechten geboren." (Art. 1 [9])
Nachfolgend werden zwar einzelne Rechte aufgezählt, die jeder Mensch haben soll. Aber es ist eben ein Positiv-Katalog. Was darin nicht erwähnt wird, ist dann Verhandlungs- oder Auslegungssache.
In der deutschen Verfassung ist es etwas anders formuliert. Zunächst wird proklamiert:
"Jeder hat das Recht auf die freie Entfaltung seiner Persönlichkeit, soweit er nicht die Rechte anderer verletzt (...)"
Doch dann kommt direkt einschränkend hinzu:
"...und nicht gegen die verfassungsmäßige Ordnung oder das Sittengesetz verstößt." (Art. 2 GG [10])
Man kann also seine Persönlichkeit in einer Weise entfalten, ohne in die Rechte anderer einzugreifen (dies entspräche der Freiheitsgrenze von 1789), und doch ist es unzulässig: weil es da zusätzlich noch eine "verfassungsmäßige Ordnung" und ein "Sittengesetz" gibt.
Nicht erst Schaden, schon Verbot
Um keine Wortklauberei zu betreiben: In der Praxis wissen wir, dass die Grenze unserer Freiheit mindestens stets da ist, wo ein Gesetz oder eine Verordnung sie definiert. Die Grundrechte der deutschen Verfassung stehen fast sämtlich unter einem "Gesetzesvorbehalt", können also per Gesetz eingeschränkt werden.
Solche Einschränkungen mögen oft genau den Fall benennen, in dem jemand in die Freiheit eines anderen eingreift. Doch dafür wäre eine einzelne Aufführung gar nicht notwendig, siehe die alte französische Deutung von Menschenrechten.
Denn wo ich in die Freiheit eines anderen eingreife, lebe ich ja selbst keine Freiheit mehr aus, sondern Herrschaft: Weil ich einem anderen aufzwinge, mit den Folgen meines Handelns zu leben - ohne dies mit ihm ausgehandelt zu haben. Der andere ist damit in seiner Freiheit von mir beschränkt.
Das Problem der Demokratie ist jedoch, dass es darauf gar nicht mehr ankommt. Man muss nicht erst in die Freiheit eines anderen eingreifen, um rechtlich (oder staatlich) reglementiert werden zu dürfen.
Wenn Mehrheit zur Herrschaft wird
Es genügt ein Mehrheitsbeschluss – wobei für den Moment noch offen bleiben muss, wer eigentlich diese Mehrheit bildet. Denn so wird Demokratie eben auch verstanden: Als Herrschaft der Mehrheit (die sich jederzeit ändern kann, was – konkret auf Regierungen bezogen – stets als eines der Wesensmerkmale demokratischer Systeme bezeichnet wird, weil man eben seinen Beherrscher zu gegebener Zeit gegen einen anderen austauschen können soll).
Wenn man Demokratie als Volksherrschaft übersetzen möchte – wie es regelmäßig geschieht –, dann muss "das Volk" wohl über sich selbst entscheiden können. Was nur bedeuten kann, dass es eben gerade keine Herrschaft gibt, die stets nach Herrschern und Beherrschten verlangt, oder moderner ausgedrückt: nach Regenten (bzw. Regierenden) und Regierten.
Denn sonst herrscht ja nicht das Volk über sich selbst, sondern ein (größerer) Teil von diesem über einen anderen (kleineren). Da sich die Mehrheiten bei jeder Sachfrage anders bilden können, ist möglicherwies jeder mal Teil der Herrscher und mal Teil der Beherrschten.
Das ist dann aber weit weg von einer Freiheit, alles tun zu können, was keinem anderen schadet. Und in der Tat fühlen sich wohl die meisten von irgendwelchen staatlichen Vorgaben gegängelt.
Denn bei der heute gelebten demokratischen Praxis werden die wesentlichen Fragen für Gesetze und andere Vorschriften nicht gestellt.
Um diese wird es im nächsten Teil gehen.
URL dieses Artikels: https://www.heise.de/-11126240
Hunderte Milliarden fließen in Aufrüstung – während Jugendliche und Senioren gemeinsam protestieren und Gewerkschafter warnen.
Moderne Unternehmen zeigen sich offen für Vielfalt, der Unternehmensberater Sattelberger sah Unternehmen schon auf dem Weg zum "demokratischen Unternehmen". Entwicklungen in Politik und Wirtschaft zeigen jedoch, dass gesellschaftliche Herausforderungen weiterhin bestehen: Internationale Konflikte und politische Spannungen beeinflussen auch unternehmerische Entscheidungen.
Gleichzeitig reagieren die Finanzmärkte sensibel auf geopolitische Entwicklungen: Militarisierung [1] ist ein wichtiges Geschäftsfeld für Investoren. Das "neue Börsenmonster" heißt "Friedensangst", schreibt focus.de [2].
Die USA legten kürzlich einen "28-Punkte-Friedensplan" für die Ukraine vor – mit entsprechenden Reaktionen: Für Aktionäre reicht bereits die bloße Aussicht auf ein Ende der Kampfhandlungen, um in den Panikmodus zu schalten, berichtet das Aktien-Portal boerse-express [3].
Protest der Jugend gegen Militarisierung und AfD
Dagegen regt sich Widerspruch – auffallend auch von jungen Menschen. Das zeigte sich bei Protesten in Gießen im November. Zehntausende haben gegen die neue AfD-Jugendorganisation [4] mit fantasievollen Aktionen demonstriert. Die Gründungsveranstaltung verzögerte sich deutlich.
Beim Aktionstag der Initiative "Schulstreik gegen Wehrpflicht" am 5. Dezember protestierten mehr als 40.000 Schüler in 80 Städten gegen Militarisierung. "Wir sollen für Deutschland kriegstauglich werden – doch was ist mit unserem Recht, in Frieden zu leben?", sagte Phil Werring [5] aus Münster.
Die Initiative versteht den Kampf gegen Militarisierung auch als einen Kampf gegen rechts. Sie kritisiert, dass Schüler in den Kasernen "zu Nationalismus erzogen werden". In einer Stellungnahme mit dem Titel "Schulstreik ohne die AfD" verweist die Kampagne darauf, dass die AfD "den wahnsinnigen Militarisierungsdiskurs der Regierung" mitgehe, meldet [6]nd-aktuell.
Der "Kölner Aufruf 70+ Gegen Militarisierung und Kriegsdienst!" zeigt, dass Proteste nicht vom Alter abhängig sind. "Wir sind Kriegs- und Nachkriegskinder des Zweiten Weltkrieges. Wir sind 70 Jahre und älter und viele von uns sind noch durch Trümmerlandschaften gelaufen", so die Unterzeichner [7]. Sie seien "entsetzt über die Leichtfertigkeit, mit der heute eine beispiellose Aufrüstung betrieben" wird und fordern ein Umdenken. "Wir wollen nicht, dass unsere Kinder und Enkelkinder in einen nächsten Krieg geschickt werden."
Angriffe auf den Sozialstaat durch Aufrüstung
Die Ver.di-Betriebsgruppe der FU Berlin kritisiert Pläne zur Einführung der Wehrpflicht [8]. Sie fordert [9] vom Ver.di-Vorstand ein Nein zur Wehrpflicht: "Aufgabe der Gewerkschaften ist es, eine internationale Kampagne aufzubauen, die alle Gewerkschafter:innen dazu aufruft, dem Krieg und denjenigen, die ihn vorbereiten, eine klare Absage zu erteilen!"
Vielen Gewerkschaftsmitgliedern ist klar, dass Umverteilung, der Ausbau der öffentlichen Infrastruktur und der Umbau der Industrie auf eine friedensstiftende Außenpolitik angewiesen sind.
"Die Angriffe auf den Sozialstaat stehen mit der Militarisierung im Zusammenhang. Hunderte Milliarden werden in Aufrüstung gesteckt, der Staat verschuldet sich", erklärt Andreas Engelmann, Bundessekretär der Vereinigung Demokratischer Jurist:innen (VDJ).
Die Gewerkschaftsvorstände halten sich bisher zurück. Aber Engelmann sieht [10] "innerhalb der Gewerkschaftsbewegung eine riesige Strömung", die sich der Militarisierung entgegenstelle. "Man muss in beiden Fragen in die Offensive kommen: breit für Kämpfe für einen besseren Sozialstaat und Antimilitarismus mobilisieren und konkret für die kollektiven Interessen der Gewerkschaftsmitglieder einstehen".
Es fehlt eine Positionierung der Gewerkschaftsvorstände gegen die Ausweitung der Rüstungsproduktion. Wollen Gewerkschafter gegen die Kriegstüchtigkeit aktiv werden, müssen sie vor Ort beginnen.
Arbeitsplätze in der Rüstungsindustrie sind unsicherer als in vielen anderen Branchen. Rüstungsproduktion ist mit Kriegen verbunden - eine Entspannung der internationalen Beziehungen kann zu einem Rückgang der Nachfrage und zum Verlust von Arbeitsplätzen führen.
Dass Beschäftigte Gegenkonzepte entwickeln können, zeigte sich beim britischen Rüstungsunternehmen Lucas Aerospace: Dort haben in den 1970er Jahren Arbeiter und Techniker mehr als drei Jahre lang gegen eine drohende Massenentlassung 150 alternative Produkte erarbeitet, die Arbeit in den Fabriken gesichert hätten. Statt Waffensystemen sollten vor allem nützliche Güter produziert werden.
Sie forderten, dass die Beschäftigten die Kontrolle über die Arbeitsabläufe und die zu produzierende Waren erhalten. Die Beschäftigten unterteilten die Konzepte in sechs Kategorien: medizinische Apparate, alternative Energiequellen, Transportsysteme, Bremssysteme, maritime Anlagen und telechirurgische Geräte [11].
Dazu zählen Konzepte [12] zu tragbaren Dialysegeräten, Wärmeaustauscher zur Verhinderung von Blutverdickung bei Operationen, Ultraschallapparate für die Krankheitsdiagnose, Solarzellentechnik oder Wärmepumpen. Umgesetzt wurden die Vorschläge vom Management nicht.
URL dieses Artikels: https://www.heise.de/-11125779
Spätestens mit dem "Global War on Terror" wurde der Begriff zur Konstante. Warum und wie die Debatte politisch instrumentalisiert wird. Eine Analyse.
Vier Tage vor Weihnachten raste Taleb A. mit einem SUV in den Magdeburger Weihnachtsmarkt. Er tötete, verletzte [1] und traumatisierte. Der mutmaßliche Täter hatte sich monatelang in den sozialen Medien [2] als vehementer Kritiker des Islams, der Flüchtlingshilfe sowie des deutschen Staates geriert [3].
Wie Analysen seiner Medienaktivitäten zeigen, [4] fiel er durch geschlossen-rassistische Ansichten auf. Verwunderlich ist, dass die Bundesanwaltschaft herausstellte, dass kein hinreichender terroristischer Staatsschutzbezug vorliege, sie lehnte [5] jegliche Ermittlungen ab.
Der Beschuldigte wird als verwirrter, psychisch unzurechnungsfähiger Einzelgänger abgeurteilt werden. Er gilt – im Gegensatz zur linken "Hammerbande [6]" – nicht als Terrorist. Die Momentaufnahme von Magdeburg materialisiert subjektives Empfinden: Wird der Terrorismusbegriff politisch instrumentalisiert?
Recht oder Gerechtigkeit?
Als Negation der äußeren Aufrüstung lässt sich eine innere Haltungswende beobachten. Seit Monaten bauen die Justizministerien administrative Mauern gegen innere Feinde auf: so öffnen [7]Verfassungstreueüberprüfungen juristisch das Feld hin zu Kriminalisierungen. Eine staatliche "Cancel Culture", die nicht selten bewusst eng am Diskursfeld der "terroristischen Vereinigung" operiert, bildet die Leitschnur der öffentlichen Debatte.
Das Bundeskriminalamt ordnet [8] den Begriff des Terrorismus als die "extremste Ausprägung politisch motivierter Kriminalität" ein. Auffallend ist, dass oftmals nicht die entscheidenden rechtlichen Normen [9] (§ 129a StGB – Bildung terroristischer Vereinigungen) bemüht werden, sondern es sich vielmehr um einen politisch-medial zu füllenden Resonanzrahmen handelt.
Zwar gibt das Bundesministerium des Inneren [10] sehr klar formulierte Definitionsbereiche an, jedoch müssen formales Recht und zur Legitimation verwendete Rhetoriken unterschieden werden. So subsumiert das Bundeskriminalamt neben schweren Straftaten zudem auch die weit gefasste Formulierung einer Tatbegehung, die darauf gerichtet ist, die "wirtschaftlichen und sozialen Grundstrukturen (...) ernsthaft zu destabilisieren oder zu zerstören" in den Bereich des Terrorismus.
"Es lebe Hamas, es lebe Hisbollah" genügte den deutschen Sicherheitsbehörden im Herbst unter dem Eindruck des israelischen Gaza-Krieges [11] für einen schwerwiegenden Eingriff in die Musikindustrie – trotz mehrfacher Gewaltentsagungen der irischen Rap-Kombination Kneecap, wurde deren Auftritt wegen "Terror-Ermittlungen" verhindert [12]. Fernab belegbarer Verbrechen, nutzt die deutsche Staatsräson geschickt eine multimediale Vorverurteilungskampagne zu eigenen Gunsten.
Chronologie der Entgrenzung
Dabei stellen die Hamburger Konzertabsagen, so trivial sie wirken, den Endpunkt einer langfristigen transatlantischen Entwicklung dar. Deren Anfang in den USA liegt: dort unterscheidet [13] das geltende Recht zwischen inländischem und ausländischem Terrorismus.
In der Verbindung aus geopolitischen Opportunitäten und vermeintlichen Binnengefahren kulminierten US-Strategien im Terrorismus-Begriff, der die Brücke zwischen In- und Ausland mit Leben füllte. Mit der militärischen Expansion nach 9/11 wurde der Terrorismus zum globalen, dauerhaften Kriegsrahmen einer zügellosen US-Kriegsmaschinerie. Statt staatlich umrissener Adressaten wurde durch die Entgrenzung des Terrorismusbegriffs auch die "Feind"-Erkennung ausgedehnt.
Nicht unerwähnt [14] sollte bleiben, dass keiner der 19 Täter der Flugzeugentführungen aus Afghanistan [15] stammte, dies störte Kriegswilligen nur peripher. Passend dazu erklärte die Nato [16] – nach 1990 – die Terrorismusbekämpfung zu ihrer Daseinsberechtigung.
Im Zuge der "Heimkehr" des dschihadistischen Terrorismus in die Metropolen – Anschlag auf das Bataclan [17] oder den U-Bahn-Bombardierungen in London – rüsteten die kontinentaleuropäischen Staaten innenpolitisch auf. Sie setzten weitreichende Antiterrorbefugnisse.
Transfer in zivile Sphären
Was zunächst in den liberalen westlichen Medien argwöhnisch beäugt wurde, begann in den illiberalen Systemen der Türkei oder Russlands und übersetzte sich mit zunehmender Krisenhaftigkeit des westlichen Wirtschaftstyps offener auf die westliche Hemisphäre. Die Türkei stufte [18]die kurdische Bewegung – im Prinzip seit der Gründung der Republik – als Terrorbande und außerhalb des Rechts stehend ein. Russland nutzte [19]Terror-Destabilisierungsvorwürfe – ob als Reaktion auf westliche Geschicke sei dahingestellt – gegen prowestliche Regime-Change-Apologeten.
Wie die Stiftung Wissenschaft und Politik 2018 beobachtete [20], übertrugen die westlichen Industrienationen militärische Logiken auf polizeiliche Praktiken und übernahmen somit indirekt US-Vorbilder. In der Mischung aus geheimdienstlicher Datensammlung, polizeilicher Gefährderansprache und militärischen, außerordentlichen Maßnahmen wurde ein enges Feld der Frontbegradigung gegen politische Andersdenkende geschaffen.
Bekannte Systematiken aus der Zeit militärischer Interventionen wurden als vage Bestimmungen im innenpolitischen Ringen weitestgehend normalisiert. Zentrales Ideologem bildete eine weitestgehend imaginiert-übersteigerte terroristische Gefahr.
Sprache des Imperiums
Domenico Losurdo, marxistischer Denker, schuf [21] mit seinem begriffsphilosophischen Werk "Die Sprache des Imperiums" 2011 ein wichtiges Mosaikstück zur intellektuellen Durchdringung von Form und Wirkung eines imperialen Sprachgebrauchs. Das Imperium verwende selektive Definitionen: Die Nutzung von Gewalt durch Alliierte werde stets als Verteidigung oder Intervention gerahmt, Gegner hingegen würden als "Terroristen" markiert und mit moralischer Sprachhoheit konfrontiert.
Neben diesem basalen Effekt führt Losurdo – verkürzt und paraphrasiert – zwei weitere Thesen ein: Eine dauerhafte kriegerische Sprache führt in den breiten Massen zur Normalisierung von Ausnahmezuständen und zu deren erhöhter Akzeptanz. Zudem lässt sie einen Mechanismus entstehen, der ein dauerhaftes Kriegsregime denkbar werden lässt. Andererseits erfüllt die imperiale Sprache eine instrumentelle Funktion, indem legitime politische Forderungen als Sicherheitsproblem markiert werden.
Terror-Kreislaufwirtschaft
Nahezu alle auf Losurdo rückzuführenden Mechanismen [22] sind heute in weit fortgeschrittener Form in der deutschen Landschaft beobachtbar.
Es lässt sich beobachten, was die US-amerikanische Denkfabrik Freedom House ursprünglich bei geopolitischen Opponenten analysierte [23]: Eine dauerhafte Normalisierung von Anti-Terror-Exekutivbefugnissen korreliert mit einem langfristigen Rückgang von Freiheitsindikatoren. Gezielt kann durch Sprache ein politischer Rahmen gesetzt werden. Medienberichte, die Gewalt und Fundamentalopposition als "Terror" labeln [24], erhöhen die öffentliche Unterstützung für repressivere Maßnahmen im Inneren und staatliche Gegengewalt nach Außen.
Ein selektiv-angewendeter Terrorismus-Begriff, der im Zuge der Militarisierung massiv ausgeweitet und politisch missbraucht wird, um eine herrschende Mehrheitsmeinung durchzusetzen, ist zu korrigieren. Die Sprache des Imperiums bildet die ideologisch-ordnende Begleitmusik zu massiveren militärischem Banditentum, welches auf lange Sicht die nationale Sicherheit am stärksten untergräbt und, in einer Art Kreislaufwirtschaft – zum Geburtshelfer neuer Keimformen im Imperium terroristisch-wahrgenommenen Widerstandes gegen unterdrückende Suprematie werden wird.
In der US-Praxis werden innere wie äußere als Terroristen markierte Feinde zum Abschuss freigegeben, ihren pervertierten Abschluss findet jene "Terrorismusinflation [25]" (Andreas Wehr) in der kolonial-genozidalen israelischen Praxis.
URL dieses Artikels: https://www.heise.de/-11092957
„EInrollen“ des frischen Akkus bei einem MacBook Pro M5: Apple vermietet dieses und andere Werkzeuge.
(Bild: Apple)
Bislang musste man das komplette Gehäuseoberteil tauschen, wenn man seinem MacBook Pro einen neuen Akku spendierte. Apple ändert das – bei einem Modell.
Teuer und wenig nachhaltig war bislang der Akkuwechsel von MacBook-Pro-Geräten, wenn Nutzer Apples sogenanntes Self-Service-Repair-Programm (SSRP) [1] verwenden wollten. Der Grund: Für die Profi-Notebooks war es im Gegensatz zu den Air-Modellen stets notwendig, ein gesamtes „Gehäuseoberteil mit Batterie und Tastatur“ [2] zu erwerben, womit man dann auch gleich ein neues Keyboard samt gesamtem Topcase erhielt. Preis pro Einheit: Schlappe knapp 600 Euro – nur dann um 100 Euro reduzierbar, wenn man das defekte ersetzte Teil zurückgab. Mit dem MacBook Pro M5 [3] tut sich hier nun endlich etwas: Erstmals im Rahmen des SSRP können Interessierte nur den Akku allein erwerben und austauschen.
Billiger, dafür komplexer
Dies lässt sich Apples offiziellem Vertriebsangebot für Ersatzteile [4], dem Self-Service-Repair-Store, entnehmen, wo die Produkte auch bereits aufgeführt sind. Weiterhin hat Apple eine Reparaturanleitung (auch) in deutscher Sprache [5] samt Animationen für komplexere Schritte publiziert. Der Preis schrumpft dank der weggelassenen Komponenten deutlich: Knapp 240 Euro werden nur für die Batterie fällig, rund 217 Euro bei Rückgabe des Altteils.
Allerdings muss man zusätzlich nochmals jeweils 30 Euro in die Hand nehmen: Für die sogenannte Batteriepressplatte und die Batteriekappe aus Kunststoff. Zudem ist für knapp 55 Euro ein Werkzeugset zu leihen [6], in dem unter anderem der Roller zur Aktivierung des Batterieklebers samt Batteriepresse enthalten ist.
Eigentlich nur für Bastler
Apples Anleitung zum Tausch des Akkus demonstriert, dass dies immer noch kein Job für Anfänger ist: Ganze 14 Schritte beim Auseinanderbau und 27 Schritte beim neuerlichen Zusammensetzen samt neuem Akku sind notwendig. Die Frage ist, für wen sich das lohnt. Denn: Apple selbst verlangt laut Kostenvoranschlag-Website [7] für einen neuen Akku für das MacBook Pro M5 nur 289 Euro, ohne dass man selbst einen Finger krumm machen müsste. Ersatzteile plus Werkzeugset-Leihe liegen also darüber.
Nur wer wirklich Freude am basteln hat, dürfte den SSRP wählen. Hinzu kommt: Aktuell ist ein Batteriewechsel für Nutzer noch kein Thema, da sich jedes erworbene MacBook Pro M5 im ersten Jahr der Gewährleistung (beziehungsweise Apples einjähriger Garantie) befindet. Sollte der Akku jetzt schon nachlassen, dürfte Apple mit großer Wahrscheinlichkeit kostenlos tätig werden.
URL dieses Artikels: https://www.heise.de/-11124285
Handy mit brasilianischer Flagge: Apple muss in immer mehr Märkten das iPhone öffnen – inspiriert von der EU-Regulierung.
(Bild: Marli Anders Esmeriz / Shutterstock)
Nach der EU und Japan sowie teilweise Südkorea und den USA muss Apple auch in Brasilien das iPhone öffnen. Entwickler sind nur semibegeistert.
Apple macht in einem weiteren Land seine App-Landschaft auf dem iPhone auf: Nach der Europäischen Union und Japan [1] sind nun bald auch in Brasilien sogenannte alternative App-Marktplätze („Alternative App Marketplace“) zugelassen. Mit Stichdatum April 2026 werden entsprechende Anordnungen des lokalen Marktaufsehers CADE (Conselho Administrativo de Defesa Econômica) umgesetzt, meldet unter anderem die Nachrichtenagentur Reuters [2]. Damit wird ein drei Jahre andauernder Kartellfall beendet, nachdem die CADE intern über eine Einigung beraten hatte. Apple hatte zuvor eine Öffnung vorgeschlagen, die sich an dem orientiert, was man aus anderen Regionen kennt.
Apple warnt vor Risiken – wie schon in anderen Märkten
Neben den alternativen App-Stores muss Apple auch externe Bezahlwege zulassen. Dies ist neben der EU und Japan bereits aus Südkorea und den USA [3] bekannt. Apple kritisierte, dass die Öffnung der Plattform zu „Risiken für Privatsphäre und Sicherheit der Nutzer“ führen könnte, eine Argumentation, die das Unternehmen seit Jahren bei dem Thema vorbringt.
Der Konzern habe versucht, „Schutzmaßnahmen gegen einige der Bedrohungen“ vorzuhalten, könne aber „nicht jedes Risiko“ ausschließen. App-Anbieter werfen Apple vor, Nutzer mit sogenannten Scare Screens [4] Angst zu machen, alternative App-Angebote zu nutzen. Apple hat insgesamt 105 Tage nach Abschluss der Vereinbarung mit CADE Zeit, um die Regelung umzusetzen – daraus ergibt sich besagter April. Es ist aber auch denkbar, dass die Umsetzung früher erfolgt. Technisch ist der iPhone-Hersteller jedenfalls vorbereitet. Aktuell wird erwartet, dass dem Unternehmen in Australien und Großbritannien eine ähnliche Marktöffnungsverpflichtung droht.
Gebühren für „Kerntechnologie“ und Zahlungen
Sollte Apple die Vereinbarung mit CADE nicht einhalten, droht eine Strafzahlung von bis zu 25 Millionen Euro. Apple plant, Entwickler, die den App Store mit seiner Provision von 15 (bis 1 Million US-Dollar Umsatz) beziehungsweise 30 Prozent nicht nutzen wollen, mit einer Plattformgebühr zu belegen. Lokalen Berichten zufolge, die sich auf CADE-Information stützen, müssen Third-Party-App-Angebote eine „Core Technology Fee“ in Höhe von 5 Prozent zahlen [5].
Bei Verwendung des App Store liegt die Gebühr bei 10 oder 25 Prozent plus 5 Prozent Gebühren für die Zahlungsabwicklung – also so wie bislang. Will ein Entwickler eine externe Website für Bezahlungen nutzen, fallen wohl 15 Prozent Gebühr an.
URL dieses Artikels: https://www.heise.de/-11125741
Links in diesem Artikel: [1] https://www.heise.de/news/iOS-Alternative-App-Marktplaetze-jetzt-in-29-Laendern-11070639.html [2] https://www.reuters.com/legal/litigation/apple-allow-third-party-app-stores-brazil-settle-ios-case-with-regulator-2025-12-23/ [3] https://www.heise.de/news/Nach-App-Store-Gerichtsurteil-Was-Apple-in-den-USA-nun-alles-nicht-mehr-darf-10371042.html [4] https://www.heise.de/news/Sechs-Schritte-Epic-Games-zeigt-Apples-neuen-App-Marketplace-Installer-10699238.html [5] https://tecnoblog.net/noticias/apple-ainda-podera-cobrar-taxas-no-brasil-veja-aliquotas/ [6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [7] https://www.heise.de/mac-and-i [8] mailto:bsc@heise.de
Ausgedrucktes iPhone Fold nach durchgesickerten CAD-Bildern: Etwas gewöhnungsbedürftig auf den ersten Blick.
(Bild: Subsy / MakerWorld)
Aufgeklappte Falt-Smartphone-Displays haben bekanntermaßen ein etwas merkwürdiges Anzeigeverhältnis. Apple will das offenbar auf besonderem Weg lösen.
Handys mit Foldable-Technik bieten im aufgeklappten Zustand zwar einen großen Bildschirm, doch entspricht dieser nicht dem, was man etwa von Tablets gewohnt ist, weshalb man etwa bei Filmen einen schwarzen Rand hat und Apps seitenverhältnismäßig nur unschön unterbekommt. Der Grund: Das Außendisplay soll, wenn das Gerät geschlossen ist, ungefähr so groß sein wie bei einem normalen Handy. Apple scheint sich bei seinem lange erwarteten iPhone Fold [1] nun zu einem Kompromiss durchgerungen zu haben: Angeblich strebt das Unternehmen eine Display-Ratio von gut 4:3 an. Das lässt sich aus Informationen des IT-Newsdienstes The Information [2] schließen.
Ein breiteres iPhone mini
Dieser hatte berichtet, dass das Außendisplay des iPhone-Foldable 5,3 Zoll betragen soll. Das entspricht ziemlich genau dem, was man vom iPhone 12 mini [3] und iPhone 13 mini [4] (von 2021 und 2022) kennt – allerdings breiter und niedriger. Aufgeklappt soll der innere Screen dann 7,7 Zoll haben. Die Anordnung legt nahe, dass Apples Falt-Handy eher das Format eines Reisepasses hat (wenn auch größer) als die üblicher „book style“-Foldables. Wie das ungefähr aussieht demonstrieren Bastler: Ausgedruckt auf X [5] sowie in Form eines auf MakerWorld publizierten 3D-Druck-Dummys [6].
Der 4:3-Formfaktor würde Apples Gerät von bisherigen Foldables absetzen. Die Mock-ups zeigen, dass es sich durchaus ordentlich greifen ließe. iPhone 12 mini und iPhone 13 mini passten zudem prima in eine Hosentasche und waren zumindest bei bestimmten Zielgruppen sehr beliebt. Eine Teilreaktivierung dieses Designs wäre also willkommen. Apple hatte die mini-Familie nach zwei Baureihen eingestellt, weil sie sich offenbar schlecht verkaufte – danach kam das Plus-Modell, das größer war als das Standard-iPhone. Dieses wurde beim diesjährigen iPhone-Jahrgang durch das dünne Air-Modell ersetzt.
Mischt auch Samsung mit?
Spannenderweise ist nicht nur Apple an neuen Formfaktoren für Foldables interessiert. Angeblich steht auch Samsung kurz davor, ein „Wide Foldable“ ins Programm zu nehmen, wie Medien aus Südkorea [7] berichten.
Statt 6,5 Zoll außen wie beim Galaxy Z Fold7 soll die nächste Generation auf 5,4 Zoll heruntergehen. Auch hier wird das Bildschirmverhältnis 4:3 angestrebt. Das nächste Galaxy Fold wird schon im kommenden Jahr erwartet – genauso wie das iPhone-Foldable, das wohl im September erscheint.
URL dieses Artikels: https://www.heise.de/-11125785
Hardware-Sicherheitsfunktionen sind nur so sicher wie ihre Software. Das zeigt der Hack eines älteren Nvidia -Chips, den auch Tesla nutzte.
Den Tegra TX2 verbaute Nvidia in seinen Drive-PX2-Systemen - und verkaufte den an Automobil-OEMs.Bild:
Martin Wolf/Golem.de
Ein eigener Boot and Power Management Processor (BPMP) sowie im Chip integrierte Boot-Firmware sollen bei Nvidias Tegra X2 das Ausführen eigener Software verhindern. Doch die hat Lücken, wie die Hackerin Elise Amber Katze beim 39. Chaos Communication Congress in Hamburg zeigte . Eigentlich wollte sie damit die Magic Leap One (Test) nach Abschaltung der Server des Herstellers frei nutzbar machen. Aber der Chip steckt auch in Teslas Autopilot Hardware 2.
Da der Boot-Prozess mehrere Schritte umfasst, fand die Hackerin gleich drei Angriffspunkte: Zunächst über die dritte Stufe des Bootloaders namens Cboot, aber auch über die Firmware des BPMP, die fest im System-on-Chip (SoC) integriert ist. Im Bootloader Cboot, dessen Quellcode Nvidia veröffentlichte, ist eine Sicherheitslücke, die das Überschreiben des Stacks ermöglicht.
Über das Protokoll Fastboot kann eigener Code eingeschleust werden. Der ermöglichte es, den Code von Cboot und Teile der BPMP-Firmware auszulesen. Über eine manipulierte Partition für den Device Tree (DTB) kann Cboot auf dem TX2 zudem dazu gebracht werden, sich mit beliebigem Code selbst zu überschreiben – was das Laden eines eigenen Bootloaders ermöglicht.
Teil der Firmware versteckt
An die vollständige BPMP-Firmware gelangte die Hackerin mittels Voltage Glitching. Hierbei wird die Versorgsspannung kurzzeitig gezielt abgesenkt, um bewusst Fehler herbeizuführen.
Das hatten bereits im Jahr 2023 Sicherheitsforscher genutzt , um den Sicherheitschip von Teslas Autopilot-Hardware zu überlisten. Beim Tegra X2 wird damit verhindert, dass ein Register gesetzt wird, um einen Teil der BPMP-Firmware aus dem Speicher auszublenden. Damit konnte dieser vollständig ausgelesen werden – und auch er lässt sich kapern.
Dem BPMP eigene Software unterzujubeln, war allerdings komplizierter als bei Cboot.
Einen Angriffsvektor auf die BPMP-Firmware stellt deren USB Recovery Mode zusammen mit einem besonderen Feature des Boot-ROMs dar. Der Recovery Mode ermöglicht es, Daten an das SoC zu übertragen, ähnlich wie Fastboot. Auch hier ist die Software fehlerhaft, daher können beliebig viele Daten übertragen werden. Die schreibt die USB-Hardware dann Stück für Stück in den Adressraum.
Durch einen Fehler in der USB-Hardware kann damit der gesamte 32-Bit-Adressraum überschrieben werden. Dies zum Ausführen eigener Software nutzen, ist allerdings nicht trivial: Der USB-Controller kann nur in den System-RAM schreiben, der BPMP hält aber seinen Stack in einem eigenen, getrennten Speicher. Das verhindert ein einfaches Überschreiben von Rücksprungadressen.
Der isolierte Speicher des BPMP lässt sich teilweise manipulieren, indem die vom USB-Controller verwendeten Datenstrukturen durch diesen selbst überschrieben werden. Das kann genutzt werden, um den Bootloader eine neue Datenstruktur an einer beliebigen, an 16 Byte ausgerichteten Adresse anlegen zu lassen – auch im isolierten Speicher.
Kaputt gepatcht
Die Möglichkeiten sind damit allerdings eingeschränkt, der Inhalt der neuen Datenstruktur kann nicht frei kontrolliert werden. Den BPMP zur Ausführung von Code aus dem RAM zu bewegen, funktioniert aber aufgrund einer weiteren Sicherheitslücke.
Die befindet sich in einem Feature, mit dem sich Nvidia kostspielige Hardware-Revisionen ersparen wollte: Um Fehler in der integrierten Firmware zu korrigieren, kann diese mittels Patches verändert werden. Die werden zwar im Rahmen der Produktion konfiguriert, können aber für komplexere Änderungen Systemrufe auslösen – und der entsprechende Handler lässt sich nutzen, um den BPMP-Code zum Sprung an eine Adresse im System-RAM zu bringen.
Dafür wird ein Teil des Codes manipuliert, was in Kombination mit einem passenden Aufruf – den ergibt das Auslesen des Device Descriptors des USB Control Endpoints – für einen Sprung an eine Adresse im System-RAM genutzt werden kann. Eine Beschreibung aller Sicherheitslücken ist im Codeberg-Repository von Elise Amber Katze nachzulesen.
Ein Problem sollte der Hack derweil nicht darstellen. Nvidia stellte die Produktion des 2016 vorgestellten Tegra TX2 aus der Pascal-Generation ein. Bei späteren Tegra-Varianten wurden zumindest die Sicherheitslücken in Cboot korrigiert.
Der Steam-Konkurrent Gog.com gehört nicht mehr direkt zu CD Projekt . Nun ist ein Gründer der alleinige Besitzer – für mehrere Millionen Euro.
Artwork von Gog.comBild:
Gog.com
Das polnische Unternehmen CD Projekt hat den Verkauf seiner PC-Spiele-Plattform Gog.com an einen der ursprünglichen Gründer bestätigt. Michal Kicinski, Mitgründer von CD Projekt und selbst Aktionär, übernimmt 100 Prozent der Anteile.
Der Vertrag wurde am 29. Dezember 2025 unterzeichnet und soll zum 31. Dezember wirksam werden. Der Kaufpreis liegt bei 90,7 Millionen Zloty, rund 20 Millionen Euro.
Zusätzlich hat CD Projekt kurz vor der Unterzeichnung 44,2 Millionen Zloty (knapp 9,7 Millionen Euro) aus früheren Gewinnen erhalten, weil der Konzern bis dahin Alleineigentümer des Onlineshops war.
Dem Verkauf ging ein Wettbewerbsverfahren mit externer Beratung voraus. Gleichzeitig haben beide Seiten eine neue Vertriebsvereinbarung geschlossen, damit Spiele von CD Projekt weiterhin über Gog.com erscheinen. Für die ersten sechs Jahre wurden dafür neue Zahlungsmodalitäten festgelegt.
CD Projekt verweist darauf, dass der Schritt zur eigenen Strategie passe: Das Unternehmen will sich stärker auf die Entwicklung und Veröffentlichung seiner Marken (The Witcher, Cyberpunk 2077) konzentrieren und den Konzern schlanker aufstellen.
Vorerst keine Änderungen geplant
Für Endkunden soll sich laut der Plattform kaum etwas ändern. Nutzer behalten ihre Bibliotheken und Zugänge, bereits gekaufte Spiele können weiterhin heruntergeladen und wie bisher offline installiert werden.
Konten werden unverändert weitergeführt, und der Galaxy-Client bleibt optional. Außerdem betont Gog.com, dass Kundendaten nicht an Dritte weitergegeben werden.
Der Shop war im Jahr 2008 als Good Old Games gestartet und baute sich mit DRM-freien Spielen und dem Anspruch, Klassiker langfristig spielbar zu halten, eine treue Community auf. Dass nun ein Mitgründer von CD Projekt die Plattform übernimmt, soll den Weg sichern.
Welche inhaltlichen Akzente Kicinski künftig setzt, wird sich noch zeigen. Nach außen lautet die Botschaft aber vor allem: Für Nutzer soll der Übergang möglichst reibungslos sein.
Steigende RAM -Preise könnten den Start der nächsten Konsolengeneration gehörig durcheinanderbringen.
Xbox und Playstation auf einer SpielemesseBild:
ROBYN BECK/AFP via Getty Images)
Die seit Monaten steigenden Preise für Arbeitsspeicher könnten größere Folgen haben, als viele Spieler bislang annehmen. Laut des Online-Portals Insider Gaming diskutieren mehrere Hersteller intern, ob sie geplante neue Konsolen später als vorgesehen auf den Markt bringen – einfach, weil RAM inzwischen so teuer geworden ist.
Sony und Microsoft kündigten offiziell an, dass sie an der Playstation 6 beziehungsweise der nächsten Xbox arbeiten. Details wurden bislang nicht genannt, als Termin wurde bisher Ende 2027 oder Anfang 2028 erwartet.
Dem Bericht zufolge befürchten die Hersteller nun, dass die Kalkulation für Geräte der nächsten Generation kaum noch aufgeht. Selbst kleinere Preisanpassungen würden bei Millionen Stückzahlen enorme Mehrkosten verursachen.
Erst Kapazitäten, dann Konsolen
Es könnte sich lohnen, auf den Bau neuer RAM-Fabriken und in der Folge auf sinkende Preise zu warten. Wie es in dem Bericht weiter heißt, könnten auch bereits verfügbare Konsolen noch einmal teurer werden, sollte die Lage im Jahr 2026 weiterhin angespannt bleiben.
Auslöser ist vor allem die hohe Nachfrage nach Speicherchips für Rechenzentren und KI-Hardware. Große Hersteller priorisieren profitablere Produkte wie HBM-Speicher für Beschleunigerkarten, während klassischer DDR-RAM für PCs und Konsolen knapp und teuer ist.
Auch andere Projekte werden wohl unter Kostendruck geraten. Vor besonderen Herausforderungen dürfte derzeit Valve mit der Steam Machine stehen. Der Steam-OS-PC soll im Frühjahr 2026 mit einem Arbeitsspeicher von 16 GByte DDR5 und 8 GByte Grafikspeicher auf den Markt kommen.
Bisher ist kein Preis bekannt, aber die bei der Ankündigung des Geräts von der Community oft erwarteten 500 US-Dollar dürften übertroffen werden.
Nach Zalando und H&M kündigt nun auch die Fast-Fashion-Marke Zara an, anstelle von Fotoshootings KI-generierte Bilder mit digitalen Klonen der Models zu nutzen.
Die Fast-Fashion-Marke Zara unter dem Dach des spanischen Inditex-Konzerns setzt im großen Stil auf KI-unterstützte Bildproduktion. Der Modekonzern will Fotos realer Models per generativer Software variieren, statt für jede Produktvariante ein neues Shooting anzusetzen. Aus einmal aufgenommenen Fotos von Models sollen per KI zahlreiche Varianten entstehen, etwa mit anderen Farben, Schnitten oder Accessoires.
Pose, Körperform und Gesicht der realen Models bleiben dabei erhalten, während die Kleidung und die Hintergründe ausgetauscht werden. Das soll die Produktionszeit und die Kosten für neue Produktaufnahmen für Webshop und App drastisch reduzieren. Außerdem habe man so die Chance, quasi in Echtzeit auf der sich schnell bewegenden Modewelle zu reiten.
Zara ist nicht das erste einschlägige Unternehmen, das verstärkt auf KI setzt. Bereits vor einigen Monaten hatte H&M angekündigt, künftig verstärkt mit „digitalen Zwillingen“, KI-generierten Images seiner Models, arbeiten zu wollen. Die Rechte an den Klones sollen vollständig bei den Models bleiben, die Vergütung entspräche weitgehend herkömmlichen Honoraren. Auch Zalando hatte im Mai angekündigt [1], dem hohen Tempo, in dem sich Mode verändert, mit KI-Unterstützung zu begegnen.
Die Unternehmen betonen, dass die „Klon“-Strategie die menschliche Arbeit ergänzen und nicht vollständig ersetzen solle. Kritiker, darunter die britische Association of Photographers, sehen das anders. Es stehe zu befürchten, dass der Einsatz von generativer KI die Zahl klassischer Aufträge für Fotografen, Models und Produktionsteams verringern wird. Die Folge könnte ein schleichender Auftragsrückgang sein, der besonders jüngere und freischaffende Kreative trifft. Unklar ist auch, inwieweit künftig eine transparente Kennzeichnungspflicht für KI-generierte Bilder geregelt und durchgesetzt wird.
URL dieses Artikels: https://www.heise.de/-11125753
Links in diesem Artikel: [1] https://corporate.zalando.com/en/technology/zalando-explores-digital-twins-high-fidelity-replicas-real-models [2] https://www.heise.de/ct [3] mailto:swi@heise.de
Die Füllstände liegen deutlich unter dem Durchschnitt der Vorjahre – und drei zentrale Faktoren sind dafür verantwortlich.
Die Heizperiode ist in vollem Gange, und die deutschen Gasspeicher [1] leeren sich deutlich schneller als in den Vorjahren. Aktuell liegt der Füllstand bei rund 59 Prozent – ein Rückgang um mehr als vier Prozentpunkte binnen zwei Wochen.
Zum Vergleich: Am 31. Dezember 2024 waren die deutschen Gasspeicher nach Angaben der Bundesnetzagentur [2] noch zu 79,76 Prozent gefüllt. In diesem Jahr sind die Füllstände deutlich geringer: Am 28. Dezember lagen sie bei 58,20 Prozent [3].
Dieser Füllstand liegt auch deutlich unter dem Durchschnitt der Jahre 2017 bis 2021, als die Speicher Ende Dezember zu rund 74 Prozent gefüllt waren.
Rechtliche Vorgaben erfüllt – aber Risiken bleiben
Laut Gasspeicherfüllstandsverordnung [4] mussten die Speicher bis zum 1. November mindestens zu 70 Prozent gefüllt sein. Diese Vorgabe wurde eingehalten. Bis zum 1. Februar müssen bundesweit noch 30 Prozent Füllstand erreicht werden – für vier bayerische Speicher (Bierwang, Breitbrunn, Inzenham-West, Wolfersberg) gelten 40 Prozent.
Die Bundesnetzagentur bewertet die Lage [5] als stabil: "Die Gasversorgung in Deutschland ist stabil. Die Versorgungssicherheit ist gewährleistet. Die Bundesnetzagentur schätzt die Gefahr einer angespannten Gasversorgung im Augenblick als gering ein".
Dennoch bleibt sparsamer Gasverbrauch wichtig. Wegen der europäischen Importabhängigkeit [6] bestehen weiterhin Risiken, vor allem wenn der Winter extrem kalt wird. Speicherbetreiber warnten bereits [7]: Schon ab Januar könnten bei sehr niedrigen Temperaturen "Unterdeckungen" auftreten – die Nachfrage ließe sich dann nicht vollständig durch gespeichertes Gas decken.
Warum die Speicher niedriger stehen als üblich
Drei Faktoren haben zu den niedrigeren Füllständen geführt: Bereits zu Jahresbeginn waren die Speicher deutlich stärker geleert als in den Vorjahren. Das hatte etwa mit dem kalten Winter 2024/25 zu tun. Aber auch die Industrie verbrauchte mehr Erdgas als prognostiziert.
Hinzu kommen Marktmechanismen, über die Telepolis bereits mehrfach berichtet hat: 2025 war Sommergas zeitweise teurer als Wintergas – Händler hatten dadurch keinen wirtschaftlichen Anreiz zum Einspeichern.
Zudem wurden zwei Sicherungsinstrumente gestrichen: Im Frühjahr 2025 fiel die 90-Prozent-Vorgabe für den 1. November weg, ab Januar 2026 entfällt die Gasspeicher-Sicherheitsumlage, über die der Staat eigene Befüllungen finanziert hatte.
Worauf Verbraucher jetzt achten sollten
Die kommenden Wochen sind entscheidend: Hält die Kälte an, sinken die Füllstände weiter. Experten empfehlen, Speicherstände, EU-Gasverbrauch bei niedrigen Temperaturen und tägliche LNG-Importe nach Europa [8] im Blick zu behalten.
Kurzfristig bringt der Wegfall der Sicherheitsumlage eine kleine Entlastung bei den Gaspreisen [9]. Langfristig fehlt jedoch ein Sicherheitsnetz – wer künftig dafür sorgt, dass die Speicher vor dem Winter zuverlässig gefüllt werden, bleibt offen.
URL dieses Artikels: https://www.heise.de/-11126168
Chinas Militär probt Blockade, Abschreckung und Machtdemonstration – und richtet eine Botschaft an Taiwan, die USA und Japan.
China hat am heutigen 29. Dezember 2025 ein großangelegtes Militärmanöver rund um Taiwan begonnen. Die Volksbefreiungsarmee (VBA) mobilisierte nach eigenen Angaben Heer, Marine, Luftwaffe und Raketenstreitkräfte für die Übung mit dem Namen "Justice Mission 2025 ", wie das Östliche Einsatzkommando der VBA [1] mitteilte.
Oberst Shi Yi, Sprecher des Kommandos, erklärte, die Übungen fänden in der Taiwanstraße sowie nördlich, südwestlich, südöstlich und östlich der Insel statt. Ziel sei es, die Seeherrschaft zu erlangen, wichtige Häfen zu blockieren und "externe Kräfte" abzuschrecken.
Das Manöver sei eine "legitime und notwendige Maßnahme zum Schutz der Souveränität Chinas", stellte Oberst Shi Yi [2]die Lage aus der Perspektive Pekings dar.
Dies sei die höchste Zahl chinesischer Flugzeuge an einem einzigen Tag seit dem 15. Oktober 2024, wie aus einem Bericht von Le Monde [4] hervorgeht. Karen Kuo, Sprecherin des taiwanischen Präsidialamtes, verurteilte das Manöver scharf:
"Als Reaktion auf die Missachtung des Völkerrechts durch die chinesischen Behörden und ihren Einsatz militärischer Einschüchterung zur Bedrohung der Nachbarländer bringt Taiwan seine entschiedene Verurteilung zum Ausdruck."
Für Dienstag, den 30. Dezember, kündigte China Schießübungen mit scharfer Munition in mehreren Zonen rund um Taiwan an. Die Quellen nennen dazu unterschiedliche Zahlen: Einige sprechen von fünf Zonen [6], andere von sieben [7]. Unbeteiligte Schiffe und Flugzeuge wurden gewarnt, diese Gebiete zu meiden.
Die Übungen haben direkte Auswirkungen auf den zivilen Flugverkehr. Nach Angaben der taiwanischen Luftfahrtbehörde sind über 100.000 internationale Passagiere [8] von Flugausfällen oder Umleitungen betroffen. Auch rund 6.000 Reisende auf Inlandsflügen müssen mit Einschränkungen rechnen.
US-Waffenverkäufe und japanische Äußerungen
Als Auslöser für die Eskalation werden in Medienberichten zwei Ereignisse genannt: Anfang Dezember genehmigte die US-Regierung Waffenverkäufe an Taiwan im Wert von über elf Milliarden US-Dollar. Dies ist laut Le Monde [9] das bislang größte Rüstungspaket für die Insel seit 2001. Peking reagierte verärgert und kündigte "entschlossene Maßnahmen" zum Schutz seines Territoriums an.
Zudem sorgte eine Äußerung der japanischen Premierministerin Sanae Takaichi für Spannungen. Am 7. November erklärte sie vor dem Parlament, ein Angriff auf Taiwan könne für Japan eine "die Existenz bedrohende Situation" darstellen und eine militärische Reaktion rechtfertigen. Peking bestellte daraufhin den japanischen Botschafter ein [10] und forderte eine Rücknahme der Äußerung.
Geopolitischer Hintergrund: Taiwan als strategischer Brennpunkt
Taiwan liegt südlich von Japan und in unmittelbarer Nähe wichtiger Schifffahrtsrouten. Die Insel ist Teil der sogenannten "Ersten Inselkette", die den freien Zugang chinesischer Atom-U-Boote zum offenen Pazifik behindert.
Sollte Taiwan unter chinesische Kontrolle geraten, könnte Peking Japans lebenswichtige Schifffahrtsrouten im Raum der Philippinen und im Südchinesischen Meer bedrohen, so ein Asia Times [11]-Bericht.
China betrachtet Taiwan seit Langem als abtrünnige Provinz und droht mit einer militärischen Eroberung zur "Wiedervereinigung". Die Volksrepublik hat in den vergangenen Jahren ihre Militärpräsenz rund um die Insel massiv ausgebaut. Die USA sind gesetzlich verpflichtet, Taiwan Mittel zur Selbstverteidigung bereitzustellen, unterhalten aber keine formellen diplomatischen Beziehungen zu Taipeh.
Botschaft an mehrere Adressaten
Experten deuten die Übung als Botschaft an mehrere Adressaten: Taiwan, die USA, Japan, aber auch an ein heimisches Publikum in China. William Yang, Analyst bei der Crisis Group, sagte gegenüber Al Jazeera [12], das Manöver sei das erste, bei dem China öffentlich das Ziel einer "all-dimensionalen Abschreckung außerhalb der Inselkette" erwähne. Dies sei ein klares Signal an die USA und Japan, sich im Falle eines Konflikts nicht einzumischen.
Die Manöver finden zudem vor dem Hintergrund von Säuberungen und Umbesetzungen in der Führung der chinesischen Volksbefreiungsarmee statt. Erst vergangene Woche ernannte Präsident Xi Jinping einen neuen Befehlshaber für das Östliche Einsatzkommando. Dies hatte Zweifel an der Einsatzbereitschaft der chinesischen Streitkräfte aufkommen lassen, schreibt die New York Times [13].
Lin Ying-yu, Professor an der Tamkang-Universität in Taiwan, wird von der US-Zeitung damit zitiert, dass die Übungen auch als Bewährungsprobe für den neuen Kommandeur dienen könnten.
"Größter Zerstörer des Friedens"
Taiwan versetzte seine Streitkräfte in hohe Alarmbereitschaft und führte eine "Schnellreaktionsübung" durch.
Das Verteidigungsministerium in Taipeh veröffentlichte ein Video, das verschiedene Waffensysteme zeigte, darunter US-amerikanische HIMARS-Raketensysteme. Diese hochmobilen Artilleriesysteme haben eine Reichweite von etwa 300 Kilometern und könnten im Konfliktfall Küstenziele in der chinesischen Provinz Fujian treffen [14].
"Die chinesischen Behörden missachten das Völkerrecht und setzen militärische Einschüchterung ein, um Nachbarländer zu bedrohen. Das bestätigt ihre Natur als Aggressor und macht sie zum größten Zerstörer des Friedens."
Taiwanische Bürger reagierten gelassen auf die Drohungen, wie es Al-Jazeera [16] anhand von einzelnen Aussagen darstellt. So wird Stephanie Huang, eine Innenarchitektin, damit zitiert:
"Chinas Ziel ist es, die Insel zu behalten, nicht die Menschen. Aber die Taiwanesen sehen das anders – wir sind, wer wir sind, und sie sind, wer sie sind."
Und Lin Wei-Ming, ein Lehrer, damit
"Die Übungen sollen uns nur Angst machen. Als gewöhnliche Bürger können wir nur auf uns selbst aufpassen, unsere Arbeit gut machen und unser Leben gut leben."
Kritiker warnen vor hybrider Kriegsführung
Kritiker befürchten, dass Peking neben militärischen Mitteln auch hybride Kriegsführung einsetzen könnte, um Taiwan unter Druck zu setzen.
Am 15. November riet China seinen Bürgern von Reisen nach Japan ab, was den Tourismus schmälern und Arbeitsmöglichkeiten für chinesische Expatriates einschränken könnte. Solche Schritte könnten Japans Wirtschaft belasten, zugleich aber die innenpolitische Unterstützung für Takaichi stärken, deren Zustimmungswerte bereits zu den höchsten seit der Amtszeit Shinzo Abes zählen, so Asia Times [17].
Peking könnte zudem Stellvertreter wie Nordkorea mit Raketentests über dem Japanischen Meer einsetzen, um den Willen und die Belastbarkeit der japanischen Regierung zu testen. Schließlich müsse Japans Behörde für öffentliche Sicherheit und Nachrichtendienste in erhöhter Alarmbereitschaft [18] sein, was Spionage- und Sabotageakte betrifft, falls sich die Spannungen mit China weiter verschärfen.
URL dieses Artikels: https://www.heise.de/-11125893