(Bild: APsystems / heise medien)
Die Wechselrichter von APsystems kommunizieren mit den Cloud-Systemen des Herstellers. Eine Lücke ermöglichte Firmware-Schmuggel.
IT-Forscher haben sich einen Mikro-Wechselrichter von APsystems genauer angeschaut, das Modell EZ1-M. Dabei stießen sie auf Schwachstellen, die Angreifern das Unterjubeln beliebig manipulierter Firmware ermöglichen.
Lücken in den Cloud-Systemen der Wechselrichter-Hersteller sind nichts Neues. Alle größeren und kleineren Anbieter haben damit zu kämpfen. Hoymiles musste 2023 etwa Sicherheitslücken in den Clouddiensten [1] stopfen, durch die sich Wechselrichter etwa zerstören ließen. Anfang vergangenen Jahres haben sich IT-Forscher von Forescout Photovoltaik-Anlagen näher angesehen [2] und stießen dabei auf 46 neue Schwachstellen, während sie zunächst knapp 100 ältere bekannte Sicherheitslecks gesammelt hatten – der Großteil von denen betraf die Solar-Monitor-Systeme und die Cloud-Backends dahinter. Die konkrete Untersuchung jetzt hat jedoch einige Eigenheiten mit interessanten Methoden aufgedeckt.
Die Mitarbeiter der kleinen IT-Sicherheitsfirma Jakkaru aus dem nordhessischen Kassel haben ihr Vorgehen und eine detailliertere Analyse [3] veröffentlicht. Sie haben die Firmware des ESP32-C2-basierten Photovoltaik [4]-Mikro-Wechselrichters APsystems EZ1-M untersucht und dabei die Adresse des herstellereigenen MQTT-Brokers gefunden sowie zwei zufällige Zeichenketten im Kontext. Da das Reverse Engineering der Firmware herausfordernd war, setzten die IT-Forscher auf disassemblierten C-Code, den sie der Gemini-Pro-KI zur Interpretation vorwarfen. Das habe erstaunlich gut funktioniert, sodass der Verbindungsprozess einfach nachvollziehbar wurde. Dabei stellte sich heraus, dass die Geräte-Seriennummer – eine fortlaufende, vorhersehbare Nummer – zusammen mit offenbar statischen Keys AES-verschlüsselt und das Ergebnis nochmals Base64-kodiert wird und schließlich als Username respektive Passwort für den MQTT-Brokerdienst dient.
Bei der weiteren Analyse stießen sie auf MQTT-Topics, die zum Update der Firmware „Over the air“ (OTA) dienen. Direkter Zugriff mit den generierten Zugangsdaten zum Abonnieren solcher MQTT-Topics war nicht möglich. Allerdings kennt MQTT sogenannte „Retained Messages“. Die werden umgehend und persistent an die Clients geschickt, sofern sie sich verbinden. Ein Angriff war also möglich, indem sich bösartige Akteure mit dem MQTT-Broker mit den erstellten Zugangsdaten verbinden, was die Verbindung des echten Mikro-Wechselrichters unterbricht. Dann senden Angreifer eine OTA-Update-Nachricht mit „retained“-Flag, die die eigene Seriennummer enthält. OTA-Update-Nachrichten enthalten zudem einen URL-Parameter als Download-Verknüpfung für die Firmware, den Angreifer beliebig anpassen können. Nach dem Beenden der Verbindung versucht der Wechselrichter wieder, Kontakt aufzunehmen. Er erhält die Nachricht und startet das OTA-Update.
Die IT-Forscher kommen anhand ihrer Scans auf rund 100.000 zugreifbare EZ1-M-Wechselrichter. Es können aber auch andere Geräte anfällig sein, die auf dieselben MQTT-Broker setzen. Angreifer können sich mit manipulierter Firmware etwa in Netze einnisten, DDoS-Angriffe starten, die Geräte zerstören oder etwa durch massenhafte Geräteabschaltungen Stromnetze destabilisieren, führen die Mitarbeiter weiter aus. APsystems haben sie Mitte November des Vorjahrs kontaktiert, die bis Ende Februar 2026 gebraucht haben, die Sicherheitslücken zu schließen und Tests vorzunehmen. Diese konkreten Schwachstellen sind daher inzwischen geschlossen.
URL dieses Artikels:
https://www.heise.de/-11198819
Links in diesem Artikel:
[1] https://www.heise.de/news/Hoymiles-Bedrohliche-Luecken-in-der-S-Miles-Cloud-9319500.html
[2] https://www.heise.de/news/Neue-Sicherheitsluecken-in-Photovoltaik-Systemen-aufgespuert-10331154.html
[3] https://jakkaru.de/de/artikel/apsystems-remote-firmware-injection
[4] https://www.heise.de/thema/Photovoltaik
[5] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[6] mailto:dmk@heise.de
Copyright © 2026 Heise Medien
(Bild: Arduino)
Arduino bringt ein Entwicklerpaket für Matter heraus. Das Bundle kombiniert Nano-Mikrocontroller, Sensoren und Lernmaterial für erste Smart-Home-Projekte.
Arduino hat ein neues Lernpaket vorgestellt, das Maker und Entwickler an den Smart-Home-Standard Matter heranführen soll. Das sogenannte Matter Discovery Bundle kombiniert mehrere Hardware-Komponenten mit einem Lernprogramm, um erste Matter-kompatible Geräte zu bauen und zu testen.
Im Zentrum des Bundles steht der Arduino Nano Matter. Herzstück des Boards ist ein 32-Bit-Arm Cortex-M33 mit 78 MHz. Dem Controller stehen 1536 KB Flash und 256 KB RAM zur Verfügung. Für die Funkkommunikation integriert das Modul IEEE-802.15.4 für Thread, außerdem Bluetooth Low Energy 5.3 und Bluetooth Mesh. Die 2,4-GHz-Antenne ist bereits auf dem Board integriert. Zum Programmieren wird das Board über USB-C angeschlossen, während für eigene Hardware typische Mikrocontroller-Schnittstellen wie I²C, SPI, UART, PWM, A/D- und D/A-Wandler bereitstehen. Dazu kommen mehrere digitale I/O-Pins, eine RGB-Status-LED und ein User-Button. Die Sicherheitsfunktionen basieren auf Secure Vault High von Silicon Labs, das unter anderem sichere Schlüsselverwaltung ermöglicht. Die Board-Größe beträgt 18 × 45 Millimeter. Ergänzt wird das mit drei sogenannten Modulino-Boards: einem Relais-Modul (Latch Relay), einem Distanzsensor (Distance) und einem Temperaturmodul (Thermo). Die Sensoren und Aktoren lassen sich über das Qwiic-System direkt verbinden, wodurch erste Experimente mit wenigen Handgriffen möglich sind.
Ergänzt wird das Setup durch den Arduino Nano-Connector-Carrier, eine kleine Erweiterungsplatine für Boards im Nano-Formfaktor. Es dient vor allem dazu, Sensoren und Aktoren anzuschließen. Dafür stehen mehrere Grove-Anschlüsse für analoge und digitale Signale sowie Ports für (Qwiic-)I²C und UART bereit. Außerdem ist ein MicroSD-Kartenslot integriert. Praktisch ist auch ein Spannungswahlschalter, mit dem sich die I/O-Spannung zwischen 3,3 Volt und 5 Volt umstellen lässt, sodass sowohl Low-Voltage-Sensoren als auch 5-Volt-Module genutzt werden können. Mit 28 × 43 Millimetern bleibt auch diese Platine relativ kompakt.
Technisch interessant ist vor allem der Fokus auf Matter-over-Thread. Matter ist ein Smart-Home-Standard, der von großen Herstellern und Plattformbetreibern unterstützt wird. Ziel ist es, Geräte verschiedener Hersteller ohne proprietäre Schnittstellen miteinander kompatibel zu machen.
Thread spielt dabei eine zentrale Rolle. Dabei handelt es sich um ein IPv6-basiertes Mesh-Netzwerk, das speziell für energieeffiziente IoT-Geräte entwickelt wurde. Anders als klassische WLAN-Geräte kommunizieren Thread-Knoten untereinander und leiten Daten im Mesh weiter. Das Netzwerk kann dadurch stabiler und stromsparender arbeiten. Gleichzeitig ermöglicht die IP-basierte Struktur eine direkte Integration ins Heimnetzwerk.
Für Maker bedeutet das vor allem weniger proprietäre Hürden. Wer ein eigenes IoT-Gerät entwickelt, kann mit Matter theoretisch direkt mit verschiedenen Plattformen kompatibel sein, beispielsweise mit unterschiedlichen Sprachassistenten oder Smart-Home-Systemen. Die komplexe Kommunikation übernimmt dabei eine Matter-Bibliothek, während sich Entwickler stärker auf die eigentliche Gerätefunktion konzentrieren können.
Das Bundle soll diesen Einstieg erleichtern. Neben der Hardware stellt Arduino ein Online-Lernprogramm mit sieben Kapiteln bereit. Darin geht es unter anderem um die Grundlagen von Matter, den Aufbau eines Thread-Netzwerks sowie praktische Übungen mit dem Nano Matter Board. Später werden auch fortgeschrittene Funktionen und mögliche Produktintegration behandelt.
Für Maker ist das Paket vor allem als Prototyping-Plattform interessant. Mit dem Relais-Modul lassen sich beispielsweise nicht-smarte Geräte wie Lampen oder Lüfter in ein Matter-kompatibles Smart Home integrieren. Der Distanzsensor kann für Automatisierungsprojekte genutzt werden, etwa zur Anwesenheitserkennung oder für Gestensteuerungen. Das Temperaturmodul eignet sich wiederum für einfache Umweltmessungen oder Heizungssteuerungen.
Arduino positioniert das Discovery Bundle damit als Experimentierplattform für alle, die sich mit Matter und IoT-Geräten beschäftigen wollen.
Das Matter Discovery Bundle ist für 62,04€ im Arduino-Store [1] erhältlich.
Wer jetzt direkt einen Einstieg in Matter über ESP32 plant, kann sich dafür unseren Matter-Einsteiger-Artikel [2] anschauen.
URL dieses Artikels:
https://www.heise.de/-11198815
Links in diesem Artikel:
[1] https://store.arduino.cc/products/matter-discovery-bundle
[2] https://www.heise.de/ratgeber/Eigene-Matter-Geraete-bauen-Einstieg-mit-ESP-und-Arduino-11116697.html
[3] https://www.heise.de/make
[4] mailto:das@heise.de
Copyright © 2026 Heise Medien
IoT verstehen statt nur nutzen: Mit Makey:Lab stellen Make und der Umwelt-Campus Birkenfeld eine neue Plattform für eigene Technikprojekte vor.
(Bild: Andreas Wodrich / heise medien)
Mit Makey:Lab erscheint in Kürze eine Plattform für IoT-Technik. Es richtet sich an junge Menschen, die Technik nicht nur nutzen, sondern auch verstehen wollen.
Technik ist heute allgegenwärtig: Smartphones, smarte Lautsprecher, Sensoren, Internet, Cloud-Dienste gehören für viele Jugendliche zum Alltag. Wie die einzelnen Komponenten solcher Systeme miteinander verbunden sind und zusammenwirken, bleibt dabei oft unklar.
Mit Makey:Lab kann man die gleichen Techniken spielerisch in eigenen Projekten einsetzen und so die Zusammenhänge besser verstehen.
Makey:Lab ist eine kompakte Lern- und Experimentierplattform. Robust gebaut, übersichtlich und tragbar. Ein ESP32 übernimmt die Rechenarbeit. Hinzu kommen ein BME680-Umweltsensor für Temperatur, Luftfeuchtigkeit, Luftdruck und Luftqualität, ein Farbsensor, ein MEMS-Mikrofon, ein Buzzer, ein OLED-Display, zwei RGBW-LEDs und ein Dreh-drück-Encoder für Interaktionen.
Mehrere Erweiterungsanschlüsse öffnen Makey:Lab für zusätzliche Sensoren und Aktoren. Eine Kontaktleiste ermöglicht zudem die Nutzung von BBC-micro:bit-kompatibler Hardware.
Viele dieser Bausteine kennen Maker aus eigenen Projekten, meist als einzelne Module, die erst beschafft, kombiniert und verdrahtet werden müssen. Makey:Lab bündelt diese Hardware auf einer einzigen Platine. Das spart Zeit und senkt die Einstiegshürde deutlich.
Die Plattform ist kompakt, übersichtlich aufgebaut und ohne lose Kabel. So lässt sie sich problemlos mitnehmen und spontan einsetzen – vom eigenen Schreibtisch bis zur Arbeit mit vielen Händen in der Schule oder in Workshops.
Damit Ideen schnell umgesetzt werden können, setzt Makey:Lab softwareseitig auf die „IoT-Werkstatt“. Die Entwicklungsumgebung arbeitet blockbasiert und baut intern auf der bekannten Arduino IDE und Ardublock auf.
Unter der Oberfläche entsteht echter C++-Code für den ESP32, automatisch generiert, aber jederzeit einseh- und editierbar.
Die Blockprogrammierung erleichtert Anfängern den Einstieg. Die Sensoren, das Display und das WLAN lassen sich ohne das Wissen um Protokolle und technische Details zur Elektronik einfach nutzen. Die Blöcke liefern einfach die gewünschten Daten oder schreiben Werte auf das Display. Dabei bleiben grundlegende Konzepte in der Programmierung trotzdem sichtbar: Variablen, Bedingungen, Schleifen.
Das beiliegende Playbook umfasst über 200 Seiten und ist als Arbeitsbuch konzipiert. Es verbindet Erklärung, Dokumentation und Projektarbeit.
Der erste Teil führt in die Plattform, die IoT-Werkstatt und grundlegende Programmierlogik ein. Der zweite Teil besteht aus Projekten, die Themen aus dem Alltag aufgreifen, etwa Wetter, Raumklima, Geräusche, Licht oder Internetanbindung.
Die Ansprache richtet sich klar an Jugendliche und bleibt auf Augenhöhe. Ziel ist es, Technik verständlich zu vermitteln, ohne banal zu werden.
Die Projekte im Playbook greifen Alltagsthemen konkret auf. Zu Beginn wird Makey:Lab zum Wetterfrosch. Temperatur, Luftdruck und Luftfeuchtigkeit werden gemessen, angezeigt und eingeordnet. Was sagt ein fallender Luftdruck aus? Wie unterscheiden sich Innen- und Außenwerte?
Im Kapitel „Frische Luft fürs Gehirn“ misst Makey:Lab die Luftqualität im Raum und steuert eine Lüftungsampel. Grün, Gelb, Rot: Bauchgefühl wird durch Messwerte ersetzt.
Praktisch wird es auch mit der sogenannten Duschpetze. Steigen Temperatur und Luftfeuchtigkeit zu stark, meldet sich das System. Das spart Energie, reduziert Schimmelgefahr und macht Klimadaten unmittelbar erfahrbar.
Ein weiteres Projekt ist eine einfache Zimmer-Alarmanlage mit Internetanbindung. Erkennt Makey:Lab Bewegung, Lichtänderungen oder Geräusche, gibt es eine Benachrichtigung per WhatsApp. Für viele Jugendliche ist das der Moment, in dem klar wird, was Internet of Things und smarte Vernetzung konkret bedeuten.
Makey:Lab ist aus der praktischen Arbeit entstanden. Am Umwelt-Campus Birkenfeld setzt Prof. Dr. Klaus-Uwe Gollmer seit Jahren die Vorgängerplattform Octopus in der Lehre ein, mit Studierenden, in Projekten und bei Hackathons. Das Hardwaredesign stammt von Guido Burger (FabLab.eu).
Ziel war und ist es, Sensorik, Internet of Things und Nachhaltigkeit so zu vermitteln, dass Zusammenhänge verstanden werden, statt nur Messwerte zu sammeln. Gollmer beschreibt diesen Ansatz als IoT² – Internet of Things and Thinking.
Auf dieser Grundlage entstand Makey:Lab als nächste Entwicklungsstufe, ergänzt um die Erfahrung der Make-Redaktion, komplexe Technik verständlich zu erklären.
Makey:Lab ist als langfristiger Begleiter angelegt. Weitere Playbooks zu Themen wie KI, Robotik und Energie sowie zusätzliche Hardwareerweiterungen sind bereits in Planung. Ergänzend entstehen Onlinematerialien und eine Plattform zum Austausch, in der Projekte geteilt und weiterentwickelt werden können.
Einsatzmöglichkeiten gibt es viele: zu Hause, in Makerspaces, in der Schule oder im Studium. Überall dort, wo Technik nicht nur erklärt, sondern ausprobiert werden soll.
Die Idee dahinter ist einfach: Wer Technik versteht, kann sie gestalten. Makey:Lab liefert dafür die Werkzeuge – praxisnah und mit genug Tiefe, damit es nicht beim LED-Blinken bleibt.
Zum Zeitpunkt dieses Artikels befindet sich Makey:Lab in der finalen Produktionsphase. Der offizielle Start ist in Kürze geplant. Aktuelle Informationen gibt es in diesem Beitrag. [7]
URL dieses Artikels:
https://www.heise.de/-11153763
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Die-Makey-Lab-Plattform-11153763.html
[2] https://www.heise.de/ratgeber/Wie-Maker-Skills-in-der-Schule-gefoerdert-werden-ein-Erfahrungsbericht-10299421.html
[3] https://www.heise.de/hintergrund/Raspberry-Pi-Projektideen-fuer-junge-Programmierer-10001876.html
[4] https://www.heise.de/ratgeber/Wie-man-Kinder-fuer-Elektronik-und-Programmieren-begeistert-10564591.html
[5] https://www.heise.de/ratgeber/Roboter-und-Baukaesten-Lern-Gadgets-fuer-Kinder-ausprobiert-10642803.html
[6] https://www.heise.de/make
[7] https://www.heise.de/hintergrund/Makey-Lab-Der-leichte-IoT-Einstieg-fuer-junge-Maker-10498312.html
Copyright © 2026 Heise Medien
Selbst T-Shirts in DTF-Technik zu bedrucken, ergibt hervorragende Ergebnisse, ist aber wartungsintensiv. xTool verspricht eine einfach funktionierende Lösung.
Wenn man sich auf der Maker Faire Hannover umschaut, scheint es etwas zu geben, was offensichtlich fast alle Maker cool finden: bedruckte T-Shirts! Je nerdiger das Motiv, desto besser. Am besten mit eigener Idee.
Der chinesische Hersteller xTool, bekannt für Lasercutter und -gravierer, hat mit dem Apparel Printer einen Drucker im Sortiment, der sich dafür eignen soll.
Wir haben das Gerät getestet und dabei auch einen Blick auf die Wartung geworfen, die bei solchen DTF-Druckern der große Pferdefuß ist.
DTF steht für „Direct to Film“. Der Drucker überträgt das Motiv also nicht direkt auf den Stoff, sondern druckt es auf eine Folie, von der es anschließend mit einer Thermotransferpresse auf T-Shirt, Hoodie und Co. übertragen werden kann. Hinter das eigentliche Motiv wird noch eine weiße Schicht gedruckt, sodass die Farben auf dunklen Stoffen nicht absaufen. Damit der Druck am Stoff festklebt, bestreut der Drucker die noch feuchte weiße Tinte des Ausdrucks mit einem Klebepulver und backt sie anschließend. Dadurch trocknet die Farbe und das Klebepulver verschmilzt zu einem Klebefilm, der in der Presse durch Hitze aktiviert werden kann.
Was für das Motiv gut ist, ist jedoch schlecht für den Drucker: Die weiße Farbe enthält große Titandioxidpartikel in hoher Konzentration, die sich im Tank absetzen und Schläuche und Druckkopf verkleben können.
Die Chinesen versprechen hier, dieses Problem durch Hinzumischen von Additiven, automatische Wartungszyklen und Erinnerungen an manuelle Reinigungsaufgaben in den Griff bekommen zu haben.
Tatsächlich hatte unser Testgerät über den Testzeitraum von rund vier Wochen keinerlei Probleme mit verstopften Düsen, obwohl wir eine Nicht-Druck-Pause von 14 Tagen hatten. Ein von uns vor Jahren für DTF umgebauter Epson-Drucker [5] war dagegen schon nach 48 Leerlaufstunden nur noch mit massivem Reinigungsaufwand in Betrieb zu nehmen und wurde deswegen irgendwann genervt ausrangiert.
Zwar landeten bei unserem Testgerät ein paar weiße Farbkleckse im Druckraum, wo sie eigentlich nicht hingehören, ein Quirl in der weißen Farbe sowie regelmäßige, automatische Selbstreinigung haben das Verkleben von Schläuchen und Druckkopf aber zuverlässig verhindert. Dazu kommen vom Benutzer auszuführende Reinigungsaufgaben wie das Abwischen des Druckkopfes mit einem in Reinigungsflüssigkeit getränkten Wattestäbchen, für das man sich allerdings etwas verrenken muss. Damit der Drucker die automatischen Reinigungszyklen ausführen kann, muss er dauerhaft mit Strom versorgt werden.
Der Hersteller scheint jedoch den eigenen Reinigungsprogrammen nur bedingt zu trauen: Während auf den Drucker und den Ofen (dazu gleich mehr) eine Garantie von 12 Monaten gegeben wird, gilt für den Druckkopf: Nach einem Monat ist Schluss. Möchte man die Druckkopfgarantie auf immerhin sechs Monate verlängern, muss man ein Onlinevideotraining absolvieren und anschließend ein Quiz bestehen, das sicherstellen soll, dass man die Bedienung und Fehlerbehebung verstanden hat.
Statt auf Tintenpatronen setzt der Apparel Printer auf Druckfarbe aus Flaschen, die in die Tanks des Druckers eingefüllt werden. Die Tanks für Cyan, Magenta, Yellow und Schwarz fassen dabei etwa 250 ml. Der Tank für die weiße Farbe ist 500 ml groß.
Ebenfalls 500 ml fasst der Tank für das Feuchtigkeitsfluid, das der Drucker für die automatische Reinigung sowie das Feuchthalten des Druckkopfes in der Ruheposition benötigt.
Die Kosten für einen Druck lassen sich in der zum Drucker gehörenden Software xTool Studio vor dem Starten eines Druckes für das geladene Motiv ablesen. Ein 25 × 25 Zentimeter großer Druck mit einem vollflächig bunt bedruckten Motiv kostet rund einen Euro. Das beinhaltet auch die Kosten für die Folie, auf die gedruckt wird.
Theoretisch könnte man auch Tinten von anderen Herstellern einsetzen, einen Schutz dagegen gibt es nicht. Nutzt man allerdings den zum Drucker passenden Schüttelofen, muss man mindestens die Folie direkt von xTool beziehen, denn sie verfügt am Rand über Löcher, mit denen der Ofen die Folie durch den Backraum befördern kann.
Die kostenfreie xTool-Studio-Software (Download) [6], ohne die der Drucker nicht betrieben werden kann, ist auf Deutsch verfügbar, läuft unter MacOS und Windows und kann Motive via KI generieren, den Hintergrund entfernen, skalieren und drehen etc. Wer eigene Motive umsetzen möchte, sollte jedoch sattelfest im Umgang mit Gimp, Inkscape oder ähnlichen Grafikprogrammen sein.
Der xTool-Drucker ist wahlweise einzeln oder im Set mit einem speziellen Backofen erhältlich. Ein Messer im Drucker trennt den aktuellen Druck von der Folienrolle. Er läuft dann vom Drucker nach unten in den Backofen. Dort wird er mit Klebepulver bestreut und anschließend geschüttelt, damit das Pulver den ganzen Druck bedeckt. Anschließend wird die Folie in dem xTool-Ofen für etwa 10 Minuten gebacken und dann ausgegeben. Währenddessen lässt sich bereits der nächste Druck starten, der dann wieder den gleichen Prozess durchläuft. Ein optional erhältlicher Luftreiniger von xTool saugt alle entstehenden Dämpfe ab. Im Test vergaßen wir einmal, den Lüfter zu starten, woraufhin beim Backen eine große weiße Wolke aus dem Drucker waberte.
Der Druckvorgang funktioniert komplett automatisch und hat in unserem Test immer gute Ergebnisse geliefert. Laut Hersteller soll der Drucker so pro Stunde bis zu 4,65 Quadratmeter mit Farbe füllen und backen können. Das entspricht rund 50 bedruckten T-Shirts mit einem 30 × 30 Zentimeter großen Motiv.
Wenn die fertig bedruckte Folie aus dem Drucker kommt, muss sie noch auf den Stoff übertragen werden. Dafür bietet xTool eine 450 Euro teure Presse an, die auf Knopfdruck die Heizplatte motorbetrieben auf den Stoff senkt, nachdem man T-Shirt und Folie samt Motiv eingelegt hat.
Verwendet man Farbe und Folie von xTool, beträgt die Presszeit sechs Sekunden bei 160 Grad. Waschfest ist der Druck nach zwei Pressdurchgängen mit 30 Sekunden Pause, großflächige Motive soll man dreimal pressen.
Wir haben eines der ersten bedruckten Shirts 19-mal bei 40 Grad gewaschen und im Trockner getrocknet. Betrachtet man das Motiv aus der Nähe, sieht man, dass erste Risse im Druck entstanden sind. Aus normaler Betrachtungsentfernung sind sie aber noch nicht zu sehen und der Druck löst sich auch nicht vom Shirt.
Ohne Trockner scheinen die Motive weniger schnell Risse zu bekommen. Das entspricht etwa dem, was man auch von spezialisierten Dienstleistern erwarten kann. Auch deren Drucke werden oft in DTF-Technik hergestellt und beginnen nach etwa 15 bis 25 Wäschen sichtbar zu altern.
So viel Freude es macht, sich eigene Motive auszudenken, sie zu zeichnen oder mit KI-Tools zu generieren und anschließend auszudrucken, so schnell vergeht dem Hobby-Maker aber der Spaß, wenn der Blick auf die Anschaffungskosten fällt. Der Drucker kostet mit einem Satz Tinte, 25 Metern Folie sowie Reinigungsmaterial 5.819 Euro. Im Set mit Schüttelofen, Klebepulver und Luftreiniger sind 8.078 Euro fällig.
Um das zu rechtfertigen, muss man viele T-Shirts bedrucken und am besten verkaufen. Professionellen T-Shirt-Shops bietet der Apparel Printer aber die Möglichkeit, Kleidung für Kunden innerhalb weniger Minuten individuell zu bedrucken. Auch für Vereine, die regelmäßig Trikots für ihre Mitglieder bedrucken wollen, oder für Maker Spaces, die eine günstige Möglichkeit bieten wollen, Stoffe zu bedrucken, kann sich die Anschaffung lohnen. Auch für Fanartikel ist der Einsatz des Apparel Printer gut vorstellbar.
Bei der Lieferung war in unserem Testgerät der Schlauch für die gelbe Druckfarbe kurz vor dem Druckkopf so abgeknickt, dass zunächst keine Farbe bis zum Druckkopf fließen wollte. Über das Menü am Drucker lässt sich jedoch der Pumpvorgang wiederholt auslösen, was die Farbe schließlich bis zum Druckkopf gedrückt hat. Obwohl der Schlauch beschädigt aussieht, ist er bisher dicht und die Drucke klappen problemlos und ohne Streifen.
Das Gerät funktionierte in unserem Test zuverlässig genug, um auch ungeübten Personen binnen weniger Minuten die Funktionsweise und Handhabung erklären zu können und sie mit dem Drucker allein zu lassen. Die automatischen Wartungsintervalle verrichten zuverlässig ihren Dienst. Nur an die manuelle Reinigung des Druckkopfes muss man sich ein wenig gewöhnen und sie vielleicht morgens als Dehnübung ins Sportprogramm einbauen.
Für unter 1.000 Euro und mit viel Geduld und Spucke kann man sich einen DTF-Drucker auch selbst bauen, der ähnlich gute Resultate erzielt, aber extrem viel Pflege erwartet. Wir haben das vor knapp vier Jahren mal mit einem Epson L1800 ausprobiert, der damals 700 Euro gekostet hat. Der L1800 ist ein normaler Tintendrucker mit externen, nachfüllbaren Tintentanks. Mit ein paar Handgriffen kann man ihn als DTF-Drucker betreiben. Im Wesentlichen muss man nur einige Blattführungen und Rollen entfernen, die sonst den Druck der weißen Tinte stören würden. Beispielvideos zum Umbau führen wir unter dem Kurzlink auf. Fun Fact: Offenbar nutzen viele Betreiber von T-Shirt-Shops in Fernost diese günstigen Umbauten für ihre Produktion, und so findet man viele nützliche Praxisanleitungen mit asiatischen Protagonisten im Bild.
Ist der Umbau erledigt, füllt man statt der normalen Tinte die DTF-Tinte in die Tanks und installiert sich die sogenannte Raster-Image-Processor-Software, kurz RIP, die aus dem zu druckenden Bild dann einen DTF- oder beim direkten Textildruck dann einen DTG-Druck macht. Hier kommt allerdings der erste Haken. Die Software ist im Verhältnis zur Hardware absurd teuer: die Preise liegen zwischen 300 und 1.000 Dollar. Zur Wahl stehen AcroRIP, DTG RIP, DevStudio und CADLink und andere. Offenbar befeuern diese hohen Preise eine ganze Cracker-Szene. So gibt es viele dubiose Anbieter, die geknackte Versionen oder Lizenzkeys dieser Software offen im Internet, etwa auf Etsy, für Bruchteile des Preises anbieten.
Hat man die Software- und Hardwarehürde genommen, so steht der erste Druck an, wobei die Folie nicht zwingend von der Rolle kommen muss. Die Folien sind auch als A4 verfügbar. Auf den Druck muss man anschließend per Hand das Klebepulver streuen. Hier kommt der nächste Haken: In unseren Tests blieb das Klebepulver oft dort noch hängen, wo gar kein Druck war. Beim Aufpressen, etwa auf schwarze T-Shirts, wären dann weiße Kleberreste auf dem T-Shirt zu sehen gewesen. Die Hersteller machen für überschüssiges Pulver in der Regel eine zu hohe oder zu niedrige Luftfeuchte verantwortlich. Als Notbehelf haben wir das Pulver mit einem Pinsel von den Folien gefegt. Alternativ kann man auch schwarzes Klebepulver nehmen, sodass man die Sprenkel auf schwarzen Shirts nicht sieht.
Im nächsten Schritt geliert man den Kleber auf der Folie im Backofen bei 120 Grad, bis die Oberfläche nach Orangenhaut aussieht. Die aus dem Ofen entweichenden Dämpfe sollte man lieber nicht einatmen. Ist der Kleber geliert, kann man den DTF-Druck aufs Shirt pressen oder aufbügeln. Die Ergebnisse sind in der Regel hervorragend und halten viele Waschgänge aus.
So weit, so gut: Die weiße Tinte ist leider auch hier der Endgegner jedes ambitionierten T-Shirt-Fans. Druckt man nicht regelmäßig und rüttelt die Tintentanks, fällen die Partikel aus, verklumpen und verstopfen die Düsen im Druckkopf. In der Regel hilft die Düsenreinigungsfunktion des Druckers allein auch nicht mehr. Das Problem ließ sich bei unserem Umbau nach einigen Wochen nur beheben, indem wir den ganzen Druckkopf ausbauten und die Düsen vorsichtig mit einer Isopropanolmischung und Einwegspritzen manuell durchspülten. Irgendwann war aber der Druckkopf kaputt und wollte partout kein Weiß mehr drucken.
In Onlineshops meist fernöstlicher Provenienz findet man sowohl Rührmechanismen für den L1800 zum Nachrüsten als auch komplett umgebaute L1800 mit Rühreinheit. Ob das ausreicht, damit die Düsen nicht verstopfen, wissen wir nicht. Wir haben jedenfalls unsere Shirtproduktion mit dem L1800 eingestellt – Faxen dicke!
Ein Hinweis am Rande: Man kann den L1800 auch zum DTG-Printer (Direct to Garment) umbauen. Dazu muss man aber den kompletten Unterbau entfernen und eine zusätzliche Transporteinheit für die unterliegenden Textilien anbauen. Dann spart man sich den Umweg über Folie und Kleber. Das Problem mit der verklumpenden weißen Farbe bleibt allerdings.
URL dieses Artikels:
https://www.heise.de/-11184414
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Wie-Sie-Sensoren-mit-BTHome-nutzen-11155571.html
[2] https://www.heise.de/ratgeber/Bastel-Projekt-Wie-man-ein-Raspi-basiertes-RC-Auto-ueber-das-Internet-steuert-11152192.html
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/make
[5] https://www.heise.de/ratgeber/T-Shirt-Drucker-von-xTool-im-Test-11184414.html?artikelseite=6#anchor_1
[6] https://de.xtool.com/pages/xtool-studio?srsltid=AfmBOopG5jXyqx5sFASXWqUpZWYyHl8vEwAGwidN9vsr8cXtE1ts7NpN#1
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8]
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] mailto:jom@heise.de
Copyright © 2026 Heise Medien
(Bild: Nice to meet you / Shutterstock.com)
Das Open-Source-Projekt npmx dient der schnellen Suche nach npm-Paketen. Es legt den Fokus auf UX, zeigt Vulnerability-Warnungen und bietet einen Dark Mode.
Auf der neuen Website npmx.dev können Entwicklerinnen und Entwickler nach npm-Paketen suchen sowie deren Quellcode anzeigen lassen. Die Seite ähnelt damit npmjs.com, soll jedoch kein Ersatz dafür sein. Das Open-Source-Projekt npmx zielt auf Geschwindigkeit und ein modernes User-Interface. Erst im Januar dieses Jahres entstanden, befindet sich npmx noch im Alpha-Status.
Wie das npmx-Team betont, ist npmx weder ein Paketmanager noch eine Paket-Registry. Vielmehr soll es eine verbesserte User Experience im Umgang mit der npm Package Registry bieten. Die genauen Unterschiede im Vergleich mit npmjs.com sind im GitHub-Repo aufgeführt [3]. Dank URL-Kompatibilität können Entwickler in URLs npmjs.com mit xnpmjs.com oder npmx.dev ersetzen.
npmx präsentiert sich im modernen Interface, das einen Dark Mode, Keyboard-Navigation und Quellcode-Ansicht mitsamt Syntax-Highlighting bietet. Zudem besteht eine Anbindung an alternative Registries wie JSR.
(Bild: npmx.dev)
Auf Basis der OSV-Datenbank [4] spielt npmx Warnungen vor Vulnerabilities in npm-Paketen aus. Darüber hinaus zeigt npmx Package-Details wie READMEs, Dependencies und Metadaten an, ebenso wie wöchentliche Download-Statistiken, Deprecation-Hinweise und die vollständige Installationsgröße mitsamt transitiver Dependencies.
User-Profile mit ihren öffentlichen Packages lassen sich via /~username ausgeben, Unternehmensseiten via /@orgname.
Die Idee für npmx entstammt dem Leiter des Nuxt-Core-Teams, Daniel Roe. Er tätigte am 22. Januar 2026 [5] den ersten Commit, und auf Bluesky [6] entstand am nächsten Tag auf seine Frage hin eine rege Diskussion darüber, welche Punkte an npmjs.com frustrierend sind. Schon innerhalb der ersten 16 Tage erzielte das neue Projekt 1500 GitHub-Sterne. Es beteiligten sich 105 Personen an dessen Entwicklung.
Inzwischen konnte das Open-Source-Projekt Vercel, VoidZero, vlt, Netlify und Bluesky als Sponsoren gewinnen. Als OSS-Partner sind zahlreiche Projekte mit an Bord, darunter Vue.js, Nuxt, Storybook, Vite und JSR.
Weitere Informationen liefern der npmx.dev-Blog [7] und das npmx-Repository auf GitHub [8].
URL dieses Artikels:
https://www.heise.de/-11199070
Links in diesem Artikel:
[1] https://enterjs.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[2] https://enterjs.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[3] https://github.com/npmx-dev/npmx.dev?tab=readme-ov-file#comparison-with-npmjscom
[4] https://osv.dev/
[5] https://github.com/npmx-dev/npmx.dev/commit/e39e56c08fd1e7bdb556c8565c6b11b3c34c8934
[6] https://bsky.app/profile/danielroe.dev/post/3md3cmrg56k2r
[7] https://npmx.dev/blog/alpha-release
[8] https://github.com/npmx-dev/npmx.dev
[9] mailto:mai@heise.de
Copyright © 2026 Heise Medien
Das Google Pixel 10a wirkt auf den ersten Blick wie ein Abklatsch seines Vorgängers mit fast identischer Hardware. Wir haben aber einige Unterschiede gefunden.
Bislang folgte Google mit seinen Pixel-Phones einem simplen Ablauf: Im Herbst erscheint die neue Modellreihe und im darauffolgenden Frühjahr kommen die weitgehend identischen Mittelklassemodelle mit leicht abgespeckter Hardware in Form der a-Serie auf den Markt. Wer sich mit geringfügig schlechteren Fotos oder kleinerem Speicher zufriedengab, bekam die gleiche CPU-Power und sparte beim Griff zum a-Pixel einen dreistelligen Eurobetrag.
Nach dieser Logik müsste das Pixel 10a wie das Pixel 10 und das 10 Pro einen Tensor-SoC (System-on-Chip) der 5. Generation an Bord haben. Doch dieses Jahr weicht Google vom bisherigen Prozedere ab und rüstet das Pixel 10a mit einem Tensor G4 aus – also derselben Recheneinheit, die das Pixel 9, 9 Pro und 9a antreibt.
Möglicherweise handelt es sich dabei um eine erzwungene Sparmaßnahme: Nachdem der KI-Boom die Preise für RAM- und Flash-Speicher explodieren lassen hat, wurde vermutet, dass das 10a im Preis steigen wird. Tatsächlich bietet Google das Smartphone mit 549 Euro zum selben Preis an wie vor einem Jahr seinen Vorgänger. Das 256-GByte-Modell kostet wieder 649 Euro.
URL dieses Artikels:
https://www.heise.de/-11187956
Links in diesem Artikel:
[1] https://www.heise.de/tests/Google-Pixel-10a-im-Test-11187956.html
[2] https://www.heise.de/tests/Alles-im-Blick-Android-Smartphone-Vivo-X300-Pro-mit-Zeiss-Kamera-im-Test-11155219.html
[3] https://www.heise.de/tests/Klassenprimus-Xiaomi-Poco-F8-Pro-mit-Snapdragon-8-Elite-im-Test-11130595.html
[4] https://www.heise.de/tests/Huawei-Mate-X7-Falt-Smartphone-im-Test-11130464.html
[5] https://www.heise.de/tests/Honor-Magic8-Pro-und-Magic8-Lite-Android-Smartphones-im-Vergleich-11087939.html
[6] https://www.heise.de/tests/Realme-GT-8-Pro-High-End-Smartphone-im-Test-11113932.html
[7] https://www.heise.de/tests/Huawei-Pura-80-Ultra-Google-freies-Smartphone-im-Test-11087925.html
[8] https://www.heise.de/tests/Android-Smartphone-Motorola-Edge-70-im-Test-11087921.html
Copyright © 2026 Heise Medien
Bei der Betriebsratswahl im Tesla-Werk Grünheide hat die gewerkschaftsunabhängige Liste Giga United gewonnen. Nach dem vorläufigen Wahlergebnis seien 24 von 37 möglichen Sitzen an nicht gewerkschaftlich organisierte Listen gefallen, teilte eine Tesla-Sprecherin am 4. März 2026 der Nachrichtenagentur dpa mit. Die Liste Giga United, die von der aktuellen Betriebsratsvorsitzenden Michaela Schmitz angeführt wird, habe mit Abstand die meisten Stimmen erhalten.
Einem Bericht des Handelsblatts zufolge (Paywall) erhielt Giga United 40,4 Prozent der Stimmen. Die Liste der IG Metall sei auf 31,1 Prozent gekommen. Bei der Wahl 2024 hatte die Gewerkschaftsliste noch 39,4 Prozent erhalten. Drittstärkste Kraft wurde demnach die Polnische Initiative, die sich explizit an die rund 2.000 in Grünheide beschäftigten polnischen Mitarbeiter richtete. Die Wahlbeteiligung lag dem Bericht zufolge bei 87 Prozent, sechs Prozentpunkte weniger als 2024.
Laura Arndt und Philipp Schwartz von Tesla Workers GFFB sagten: "Wir werden uns auch im neuen Betriebsrat mit aller Kraft dafür einbringen, dass sich für uns und unsere Kolleginnen und Kollegen etwas ändert in der Gigafactory." Nach der Betriebsratswahl vor zwei Jahren stellte die IG Metall zwar die größte Gruppe, die Sitzmehrheit ging aber an nicht gewerkschaftlich organisierte Vertreter.
Der Ausgang der Wahl, die am 2. März 2026 begonnen hatte, war wegen eines Konflikts zwischen Tesla und der IG Metall mit Spannung erwartet worden. Es ging aus Sicht beider Seiten um eine Richtungsentscheidung, ob die Gewerkschaft mehr Einfluss bekommt oder der geplante Ausbau des Werks weitergeht. Elf Listen standen zur Wahl. 550 Kandidaten bewarben sich um 37 Mandate.
Tesla-Chef Elon Musk hatte sich vor der Wahl mit einer Videobotschaft an die Belegschaft in Brandenburg gewandt , um indirekt vor der Gewerkschaft zu warnen. "Die Dinge werden sicherlich schwieriger, wenn es sozusagen externe Organisationen gibt, die Tesla in die falsche Richtung drängen" , sagte Musk und fügte hinzu. "Wir werden die Fabrik nicht schließen, aber realistisch gesehen werden wir auch nicht erweitern." Musk will die Fabrik ausbauen, wenn Behörden und Bevölkerung mitmachen.
Die IG Metall wirbt für einen Tarifvertrag, den Tesla-Werksleiter André Thierig ablehnt. Bei der jüngsten Betriebsratssitzung war es zu einem Eklat gekommen. Tesla warf einem IG-Metall-Vertreter vor, heimlich die Besprechung mitzuschneiden . Den Vorwurf wies die Gewerkschaft zurück. Ermittlungen laufen. Beide Seiten einigten sich vor dem Arbeitsgericht im Streit um Äußerungen auf einen Vergleich.
Die schwedischen Tageszeitungen Göteborgs-Posten und Svenska Dagbladet haben in einer umfassenden Recherche problematische Datenschutzrisiken bei der Verwendung von Metas neuen Ry-Ban-KI-Brillen aufgedeckt. Die Zeitungen haben unter anderem festgestellt, dass Tausende Mitarbeiter der Datenannotationsfirma Sama private Aufnahmen manuell verarbeitet hatten.
Bei der manuellen Datenannotation beschreiben und kennzeichnen Sama-Mitarbeiter Bilder und Videos für das Training von Metas KI-Modellen. Dabei sichten sie regelmäßig intimes Material, wie Aufnahmen von Badezimmerbesuchen, nackten Personen und Sexszenen, sowie die Eingabe von PINs am Bankautomaten.
Die Analyse des Materials findet in einer Sama-Außenstelle in Kenia, Nairobi, statt. Dortige Angestellte sagten den Zeitungen, dass sie sich unwohl dabei fühlten, solche privaten Aufnahmen ansehen zu müssen. Hinzu komme, dass die Anonymisierung häufig fehlschlage und Gesichter von Personen, die eigentlich unkenntlich gemacht sein sollten, klar zu erkennen seien.
Viele Beschäftigte hätten zudem das Gefühl, dass sich die Träger von Ray-Ban-KI-Brillen nicht bewusst seien, dass ihre Aufnahmen ausgewertet werden. Bei Besuchen in schwedischen Brillengeschäften stellten Reporter der Zeitungen fest, dass Verkäufer oft falsche Angaben machten und sagten, dass die Daten privat blieben oder nur lokal auf dem Gerät gespeichert würden.
Tests der Journalisten zeigten allerdings, dass die KI-Funktionen zwingend eine Verarbeitung auf den Servern von Meta erfordern und nicht lokal bleiben. Die Nutzungsbedingungen von Meta bestätigen ebenfalls, dass die Interaktionen mit der KI sowohl automatisiert als auch manuell durch Menschen überprüft werden können.
Datenschutzexperten und Juristen kritisieren eine mangelnde Transparenz gemäß der DSGVO, da Nutzer nicht ausreichend darüber informiert werden, wann die Kamera der Ray-Ban-Brillen aufzeichnet und dass ihre Daten für das Training von KI verwendet werden. Hinzu komme laut den Zeitungen, dass die Übermittlung der Daten nach Kenia rechtlich umstritten ist, da für das Land derzeit kein EU-Beschluss über ein angemessenes Datenschutzniveau vorliegt.
Meta musste sich bereits in der Vergangenheit mit Datenschutzbedenken wegen Funktionen seiner smarten Brillen auseinandersetzen. Auch die geplante Wiedereinführung der automatischen Gesichtserkennung stößt auf Bedenken.
Viele moderne Laptops setzen auf ein besonders schlankes Design. Was schick aussieht und die Portabilität erhöht, geht jedoch häufig zulasten der Anschlussvielfalt. Anstelle mehrerer USB-Ports, eines HDMI-Ausgangs und eines Kartenlesers bieten viele Geräte nur eine kleine Auswahl an Anschlüssen. Gerade wenn man mehrere Geräte gleichzeitig nutzen möchte, kommt es zu Problemen.
Diesen kann man mit einem USB-C-Port beikommen. Die praktischen Geräte bieten meist verschiedene Anschlüsse und werden einfach über den USB-C-Port des Hostgeräts verbunden.
Einen interessanten USB-C-Port von Anker gibt es derzeit bei Amazon günstig im Angebot. Erhältlich ist der mit 40 Prozent Rabatt auf die unverbindliche Preisempfehlung
Der USB-C-Hub hat insgesamt sieben Anschlussmöglichkeiten. Ausgestattet ist er mit einem HDMI-Anschluss, zwei USB-A-3.0-Ports, einem USB-C-Datenanschluss, einem USB-C-PD-Eingang und Dual-Slots für SD- und microSD-Karten.
Über den HDMI-Anschluss ist eine Bildausgabe bis zu 4K bei bis zu 60 Hz möglich. Die USB-A-Ports sowie der USB-C-Anschluss bieten Datenraten von jeweils bis zu 5 Gbps. Die Datenraten der Speicherkartenslots sind mit 104 MB/s angegeben. Damit eignet sich der Hub sowohl für den Anschluss von Monitoren und Speichermedien als auch von der Peripherie wie Mäusen oder Tastaturen.
Der Hub wird über ein integriertes USB-C-Kabel mit dem Hostgerät verbunden. Über den USB-C-PD-Eingang lässt sich das Hostgerät mit Strom versorgen. Zwar ist die maximale Eingangsleistung mit 100 W angegeben, laut Hersteller kommen in der Praxis aber bis zu 85 W an. Dennoch reicht die Leistung auch zur Stromversorgung von Laptops aus. Um von der maximalen Ladeleistung zu profitieren, sind ein entsprechendes Ladekabel und ein Netzteil notwendig. Beides ist nicht im Lieferumfang enthalten.
Anker zufolge ist der USB-C‑Hub mit vielen Systemen kompatibel: von Windows-Laptops, über Macbooks bis zu Smartphones, Tablets und Handheld-PCs. Mit Linux-Systemen und der Nintendo Switch soll er aber nicht genutzt werden können.
In der Praxis scheint der USB-C-Hub von Anker zu überzeugen. Zumindest lassen darauf die Bewertungen auf Amazon schließen. Bisher wurden 2.581 Rezensionen mit einem Wertungsschnitt von 4,6 von 5 Sternen abgegeben.
Wer sich selbst von dem USB-C-Hub überzeugen möchte, sollte derzeit einmal bei Amazon vorbeischauen. Dort gibt es ihn aktuell mit 40 Prozent Rabatt
Anker 7-in-1 USB-C Hub mit 4K@60Hz HDMI
Jetzt mit 40 Prozent Rabatt sichernWenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Von Anker gibt es viele weitere Gadgets zu entdecken. Eine Übersicht liefert der Amazon-Store von Anker
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Führende US-Politiker sehen sich als Gotteskrieger und der Krieg gegen dem Iran dient auch dazu, die Rückkehr von Jesus Christus vorzubereiten.
(Bild: Billion Photos / Shutterstock.com)
US-Soldaten beschweren sich: Ihre Kommandeure rechtfertigen den Iran-Krieg mit biblischer Endzeit-Rhetorik. Trump sei von Jesus gesalbt worden.
Mehrere internationale Medien, darunter The Guardian und t-online, berichten über einen brisanten Vorgang innerhalb der US-Streitkräfte: Militärkommandeure sollen den laufenden Krieg gegen den Iran gegenüber ihren Truppen als göttliche Mission dargestellt haben.
Die Military Religious Freedom Foundation (MRFF), eine US-Organisation zum Schutz der Religionsfreiheit im Militär, zählt inzwischen [1] mehr als 200 Beschwerden aus allen Teilstreitkräften – darunter Marineinfanterie, Luftwaffe und Weltraumstreitkräfte.
Besonders detailliert fällt die Schilderung eines Unteroffiziers aus, der sich stellvertretend für 15 Kameraden an die MRFF wandte.
Seine Einheit befindet sich zwar außerhalb der unmittelbaren Kampfzone, steht jedoch in Bereitschaft für einen jederzeitigen Einsatz gegen den Iran. Unter den 15 Soldaten sind laut der Beschwerde elf Christen, ein Muslim und ein Jude.
Der Unteroffizier beschreibt, wie sein Kommandeur eine Lagebesprechung mit religiösen Appellen verknüpfte. Demnach habe der Vorgesetzte seine Unteroffiziere angewiesen, den Soldaten zu vermitteln, der Krieg sei "alles Teil von Gottes göttlichem Plan".
Dabei habe er sich wiederholt [2] auf die Offenbarung des Johannes berufen – jenes biblische Buch, das die endzeitliche Schlacht von Armageddon zwischen Gut und Böse beschreibt.
Laut der Beschwerde erklärte der Kommandeur zudem, Präsident Trump sei [3] "von Jesus gesalbt worden, um das Signalfeuer im Iran zu entzünden, um Armageddon auszulösen und seine [Christus] Rückkehr auf die Erde zu markieren".
Diese Aussagen hätten bei vielen Anwesenden Entsetzen ausgelöst, schreibt der Unteroffizier. Er betont, das Verhalten seines Kommandeurs zerstöre die Moral und den Zusammenhalt der Einheit und stehe im Widerspruch zum Eid auf die US-Verfassung.
Die MRFF registrierte die Meldungen nach eigenen Angaben seit dem Beginn der Angriffe auf den Iran am vergangenen Samstag. Sie stammen aus mehr als 40 verschiedenen Einheiten an mindestens 30 Militärstandorten im ganzen Land.
MRFF-Gründer Mikey Weinstein, selbst ein Luftwaffen-Veteran, ordnet die Vorfälle gegenüber dem Guardian als Teil eines wiederkehrenden Musters ein:
"Immer wenn Israel oder die USA im Nahen Osten involviert sind, hören wir dieses Gerede von christlichen Nationalisten, die unsere Regierung und sicherlich auch unser US-Militär übernommen haben."
Wie weit dieses Phänomen verbreitet ist, zeigte auch eine [4] Arte-Doku: Die Nahost-Politik der US-Regierung ist weniger durch rationale Argumente zu verstehen als durch den in den USA weitverbreiteten religiösen Fundamentalismus.
Weinstein weist jetzt jedenfalls darauf hin, dass sich Soldaten gegen eine religiöse Vereinnahmung durch Vorgesetzte kaum zur Wehr setzen können. Ein militärischer Befehlshaber verfüge über weitreichende Macht über seine Untergebenen – Widerspruch könne Karrieren gefährden oder disziplinarische Folgen haben.
Die Beschwerden rücken auch US-Verteidigungsminister Pete Hegseth in den Fokus. Der ehemalige Fox-News-Moderator hat seit seinem Amtsantritt evangelikale Praktiken auf höchster Ebene des Pentagons etabliert.
Er initiierte monatliche Gebetstreffen, die im gesamten Ministerium übertragen werden, und nimmt regelmäßig an einem Bibelkreis im Weißen Haus teil. Diesen leitet ein Prediger, der die Unterstützung Israels als göttlichen Auftrag lehrt.
Hegseth vertritt zudem offen die Doktrin der sogenannten Sphärenhoheit – ein Konzept aus dem christlichen Rekonstruktionismus, das eine streng religiös geprägte Gesellschaftsordnung anstrebt.
Im August 2025 verbreitete er auf der Plattform X einen Beitrag des christlich-nationalistischen Pastors Doug Wilson, der darin erklärte: "Ich möchte, dass diese Nation eine christliche Nation ist, und ich möchte, dass diese Welt eine christliche Welt ist".
Auf die Anfrage des Guardian zu den Soldatenbeschwerden ging das Pentagon inhaltlich nicht ein. Stattdessen verwies es auf öffentlich zugängliche Videoclips, in denen Hegseth über die Militäroperation im Iran spricht.
Die MRFF verlangt eine strafrechtliche Aufarbeitung nach dem Militärstrafgesetzbuch, dem sogenannten Uniform Code of Military Justice.
Weinstein stellt klar, dass der Eid aller Militärangehörigen ausschließlich der US-Verfassung gelte. Diese schreibe im ersten Verfassungszusatz die Trennung von Kirche und Staat fest.
Die Vorgänge erinnern an frühere Grenzüberschreitungen. Nach den Anschlägen vom 11. September 2001 bezeichnete Präsident George W. Bush den Kampf gegen den Terrorismus als "Kreuzzug" – ein Begriff, den er nach scharfer internationaler Kritik rasch zurückzog.
Frankreichs damaliger Außenminister Hubert Védrine warnte seinerzeit davor, in die "monströse Falle" zu tappen, die Al-Qaida mit den Anschlägen gestellt habe. Unter der aktuellen US-Regierung zeichnet sich ein solches Einlenken bislang nicht ab.
URL dieses Artikels:
https://www.heise.de/-11198967
Links in diesem Artikel:
[1] https://www.theguardian.com/world/2026/mar/03/us-israel-iran-war-christian-rhetoric
[2] https://www.t-online.de/nachrichten/ausland/usa/id_101153640/usa-beschwerdewelle-erschuettert-armee-armageddon-im-iran-.html
[3] https://jonathanlarsen.substack.com/p/us-troops-were-told-iran-war-is-for
[4] https://www.youtube.com/watch?v=FHaKVySsPOQ
Copyright © 2026 Heise Medien
Bild: Shutterstock.com
Warum Frauen selten über männliche Schönheit sprechen – und was sie wirklich an Männern attraktiv finden. Einblicke aus Forschung und Interviews.
Über den männlichen Blick auf Frauen, speziell auf den Körper von Frauen, wird viel geschrieben. Demgegenüber ist über den Blick von Frauen auf Männerkörper erstaunlich wenig zu lesen.
Manche Männer zeigen sich gleichwohl vollkommen davon überzeugt, dass ein muskulöser, durchtrainierter Körper mit gut definierten Bauchmuskeln die Chancen auf begehrliche Blicke von Frauen deutlich erhöht. Ob da nicht wieder vor allem der männliche Blick die Quelle dieser Hoffnung ist?
Jedenfalls hat sich da augenscheinlich ein Trend entwickelt. Immer mehr Männer präsentieren demonstrativ ihren trainierten Körper und nutzen Gelegenheiten, ihre Muskeln zu zeigen: im Gym, in der Sauna, im Privaten – oder bald wieder in den Freibädern.
Grund genug also, etwas über den "weiblichen Blick auf den Männerkörper" zu erfahren. Dazu hat sich in der französischen Zeitung Le Monde [1] kürzlich die Anthropologin Morgane Tocco [2] geäußert. Sie forscht zu Sexualität, Begehren und kulturellen Körperbildern. Für ihre Dissertation befragte sie über drei Jahre hinweg mehr als 80 Frauen zwischen 18 und 85 Jahren dazu, wie sie Männerkörper wahrnehmen und begehren.
Schon die Überschrift des Interviews formuliert eine zentrale These: "Viele Frauen haben Schwierigkeiten, über die körperliche Schönheit von Männern zu sprechen."
Eine der zentralen Beobachtungen Toccos: Viele Frauen haben Schwierigkeiten, über die körperliche Schönheit von Männern zu sprechen. Auf ihre Frage – "Erzählen Sie mir von Männerkörpern" – reagierten viele Interviewpartnerinnen zunächst ausweichend. Schönheit, hieß es häufig, sei "nicht das Entscheidende".
Zwar konnten die Befragten durchaus körperliche Merkmale nennen – definierte Muskeln, helle Augen, ein bisschen Po, zerzaustes Haar. Doch rasch verschob sich die Beschreibung auf andere Dimensionen: Ausstrahlung, Haltung, der Eindruck von Intelligenz oder innerer Festigkeit. Auch Stimme und Geruch wurden häufig erwähnt. Begehren, so eine häufige Formulierung, sei vor allem "eine Frage der Haltung".
Forschende der Australian National University präsentierten über 800 Teilnehmenden – Männern und Frauen – computergenerierte männliche Figuren, die in drei Merkmalen variierten: Penisgröße, Körpergröße und Körperform (Schulter-Hüft-Verhältnis).
Die Ergebnisse, veröffentlicht Anfang dieses Jahres im Fachjournal PLOS Biology [3], waren eindeutig: Frauen bewerteten größere Männer mit V-förmigem Körper und größerem Penis übereinstimmend als sexuell attraktiver.
Allerdings gab es einen wichtigen Unterschied: Bei Frauen flachte der Attraktivitätsgewinn bei sehr großen Ausprägungen ab. Männer hingegen schätzten Rivalen mit diesen Merkmalen linear als immer attraktiver ein – sie überschätzten also die Bedeutung dieser Merkmale für die weibliche Partnerwahl.
Der offene Blick auf den männlichen Körper bleibt kulturell heikel. Frauen wachsen meist mit dem Bewusstsein auf, selbst Objekt von Blicken zu sein. Der weibliche Körper gilt als der "sichtbare" Körper, der gepflegt, präsentiert und bewertet wird. Männer hingegen lernen seltener, über ihr Aussehen zu verführen.
Manche Frauen vermeiden detaillierte Beschreibungen ihrer Partner, weil sie sich dabei "voyeuristisch" fühlen würden, so die Anthropologin im Le-Monde-Interview – als würden sie ein Verhalten reproduzieren, das lange als typisch männlich und abwertend galt.
Hinzu kommt ein Reputationsrisiko: Frauen, die offen begehrende Blicke riskieren, riskieren damit, als leichtfertig oder "nymphoman" abgestempelt zu werden. Vielleicht hängt damit zusammen, was die Anthropologin auch beobachtet hat: dass männliche Attraktivität oft relativiert wird.
Einige Interviewpartnerinnen erklärten sogar, besonders gut aussehende Männer seien häufig schlechtere Liebhaber – zu selbstbewusst, zu sehr "Frauenhelden".
Ein weiteres Risiko besteht darin, Opfer von Gewalt oder sexuellen Übergriffen zu werden. "Da ist dieser Reflex aus der Erfahrung mit Straßenbelästigung: Man darf den Blick nicht kreuzen, sonst gilt das als Einladung", zitiert Tocco eine Studienteilnehmerin.
Als Frau einen Mann anzusehen, heißt, sich zu fragen: Wie wird er reagieren?
Interessanterweise bewerten Männer Rivalen mit größerer Körpergröße, V-Form und größerem Penis als bedrohlicher und schätzen sie als attraktiver für Frauen ein, wie die Studie zeigt.
Allerdings zeigte sich auch, dass Männer die Bedeutung dieser Merkmale für die weibliche Partnerwahl überschätzen.
Bemerkenswert ist, dass Männer die Penisgröße offenbar auch als Signal für Kampfstärke deuten. Die Studie liefert damit erstmals experimentelle Belege, dass Männer die Kampffähigkeit von Rivalen teilweise anhand der Penisgröße einschätzen – möglicherweise, weil Testosteron sowohl die Penisentwicklung als auch Muskelaufbau und Aggressivität beeinflusst.
Laut der Anthropologin Tocco ist für viele Frauen die Haltung eines Mannes entscheidender für das Begehren als rein körperliche Merkmale. Eye-Tracking-Studien [4] zeigen, dass die Aufmerksamkeit von Männern und Frauen bei der Betrachtung sexueller Szenen stark auf die Gesichter gerichtet ist. Das unterstreicht deren hohe Bedeutung für die soziale und emotionale Interaktion.
Einige Frauen erleben es als befreiend, Männerkörper bewusst anzuschauen und zu erotisieren, so Tocco im Interview. Sie deutet das auch als eine politische Geste: Frauen würden damit das Recht auf eigenes Begehren beanspruchen.
Die Forschung zeigt: In experimentellen Studien haben Frauen durchaus klare Präferenzen für bestimmte körperliche Merkmale. Im Alltag jedoch fällt es vielen schwer, offen über männliche Schönheit zu sprechen, wie die qualitativen Interviews der Anthropologin nahelegen.
URL dieses Artikels:
https://www.heise.de/-11198897
Links in diesem Artikel:
[1] https://www.lemonde.fr/intimites/article/2026/02/28/morgane-tocco-anthropologue-beaucoup-de-femmes-ont-du-mal-a-parler-de-la-beaute-corporelle-des-hommes_6668726_6190330.html
[2] https://lap.ehess.fr/membres/morgane-tocco
[3] https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.3003595
[4] https://www.sciencedirect.com/science/article/abs/pii/S0378512225005225
Copyright © 2026 Heise Medien
Was bedeutet Khameneis Tod für den Iran und darüber hinaus?
Khamenei geht für die Schiiten als Märtyrer in die Geschichte ein. USA und Israel hätten dem 86-Jährigen keinen größeren Gefallen erweisen können. Eine Analyse.
Oft war der bärtige Turbanträger totgesagt worden: tödlich erkrankt [1] sei er. Nun ist der oberste religiöse Führer der Islamischen Republik Iran wirklich tot [2]. Doch statt Stabilität regiert in der Region das Chaos. Den größten Dienst, den Washington und Tel Aviv dem 86-jährigen Ayatollah Ali Khamenei [3] möglicherweise noch erweisen konnten, war sein Märtyrertum.
In den religiösen Zentren Qom und Maschad wehen [4] zum zweiten Mal seit Juni 2025 die roten Fahnen – Symbol der Trauer, aber auch für Rache. Am zentralen Enghelab-Platz (Revolutionsplatz in Teheran) sowie landesweit versammelten [5] sich Zehntausende zu Kundgebungen, skandierten "Tod den USA/ Israel".
Westliche Medien zeigten vor allem Bilder feiernder Exil-Iraner – ein Bild, das nicht die Stimmungslage im Iran selbst widerspiegelt. Viele Menschen dort verfolgen die Entwicklungen mit gemischten Gefühlen angesichts der Gewissheit, dass ihrer Heimat heftige Wochen bevorstehen und womöglich ein Bürgerkrieg droht.
Im Zuge der Eskalation weiteten sich die Kampfhandlungen auf weitere Akteure aus: Die libanesische Hisbollah [6] sowie die jemenitischen Huthi-Rebellen, beide mit engen Verbindungen zur Iranischen Revolutionsgarde (IRGC), eröffneten [7] weitere Fronten im regionalen Konflikt.
Britische Militäreinrichtungen auf Zypern wurden durch iranische Drohnen attackiert [8], was die diplomatische Lage zwischen dem Iran und westlichen Staaten erheblich verschärfte. Großbritannien [9], Frankreich [10] und Deutschland [11] signalisierten daraufhin eine mögliche stärkere Einbindung in den Konflikt – womit dieser zunehmend eine internationale Dimension annimmt.
Um die Sog- und Signalwirkung des Todes von Ali Khamenei zu verstehen, muss man tiefer in die schiitische Welt eintauchen. Erstaunlich: Der vom katarisch-sunnitischen Herrscherhaus Al-Thani finanzierte Sender Al-Jazeera publizierte [12] binnen kürzester Zeit eine Khamenei würdigende Dokumentation – Tenor: Khamenei habe den Widerstand des Iran geprägt.
Khamenei stand [13] an der Spitze, als Teheran ein breites Netzwerk aus Verbündeten aufbaute und den umfassenden westlichen Sanktionen trotzte. Von Syrien über den Libanon, Gaza, Jemen und Irak profitierte [14] die kurze Blüte nicht zuletzt von den törichten Machenschaften der USA: Als Washington mit dem Irak-Krieg Saddam Hussein beseitigte und das Land verheerte, profitierten schiitische Milizen [15] und letztlich Teheran vom entstandenen Vakuum.
Zuvor war Khamenei an sich nicht qualifiziert genug für seine Berufung als Khomeini-Nachfolger – dies gestand er offen zu. Seit der Revolution von 1979 war vorgesehen, dass der Oberste Führer ein Marjaʿ-e Taqlid (Quelle der Nachahmung) sein sollte. Diesen Rang besaß Khamenei zum Zeitpunkt seiner Wahl nicht.
Eine Verfassungsänderung senkte [16] die Anforderungen ab; entscheidend blieb, dass er ein linientreuer Gefolgsmann Khomeinis und politisch zuverlässig war. Seine kolportierte Bescheidenheit und asketische Lebensweise (seine letzte Auslandsreise unternahm [17] er 1989 gen Nordkorea) brachten [18] ihm in der Region zunächst dezente Sympathien ein. Es gelang ihm, die Revolutionsgarden und Basij-Milizen auf seine Person einzuschwören und eine gewisse, blutgetränkte Einheit des Landes zu bewahren.
Innenpolitisch blieb der Kleriker repressiv, seine Macht baute maßgeblich auf Gewalt: nicht nur bei den jüngsten Protesten ging [19] er sprichwörtlich über Leichen. Ökonomisch taumelte [20]der Iran seit Jahrzehnten von Krise zu Krise – trotz enormer Energiereserven versinkt die Gesellschaft in Inflation, Armut und Missmanagement. Nicht zuletzt durch ausländische Sanktionen hervorgerufen, stand Teheran vor einem Dilemma.
Religiös-spirituell bedeutet der Verlust Khameneis – insbesondere in der Zeit einer Vakanz – den Verlust der einigenden Klammer der schiitischen Muslime.
Die Shia, eine Minderheitsströmung des Islam, besitzt eine reichhaltige und politisch genutzte Inspirationsgeschichte aus Verlust, Tod und Verrat. Mit den wiederkehrenden Muharram-Feierlichkeiten werden diese im Iran exzessiv reproduziert.
Für die libanesische Hisbollah ist die Lage überlebenswichtig [21]: Ohne finanzielle Stützen aus Teheran könnten weder der militärische noch der parlamentarische Arm aufrechterhalten werden. Ihr bleibt – gemeinsam mit den Huthis – die Wahl zwischen halb-suizidaler Rache und einer demütigenden Existenz.
Im Irak wie in Pakistan zeigt sich, dass marginalisierte, schiitische Gruppierungen – ohne direkte Kontrolle aus dem Iran – zu blindem, teils gewalttätigem Verhalten übergehen [22]. Der Wegfall des "Kompass Khamenei" ist eine gewisse Black Box: Von der finalen Niederlage der Achse des Widerstands bis zum noch geballteren Gegenschlag scheint viel denkbar.
Mit längerer Fortdauer des Krieges könnte das US-israelische Momentum umschlagen [23]: Innerhalb der USA hat der Krieg keine Mehrheit. Nähme die Zahl der Gefallenen signifikant zu oder stünde eine Bodeninvasion an, dies könnte mit der kolportierten Bewaffnung kurdischer Separatisten vorbereitet werden, wäre mit massivem Binnenwiderstand zu rechnen.
Asymmetrische Fähigkeiten, ein hohes Arsenal an Flugkörpern oder verteilte Kommandostrukturen lassen aus iranischer Sicht nicht alles verloren erscheinen [24]. US-Überlegenheit garantiert – siehe Vietnam oder Afghanistan – keinen Sieg. Noch nie zuvor hat sich ein Land dermaßen offensiv – der Iran beschoss dutzende Anrainer wie Basen – gegen einen US-Angriff zur Wehr gesetzt.
Die israelisch-amerikanische Achse mag den bekanntesten Sänger des schiitischen Liedes zum Schweigen gebracht haben – die Melodie aber ist intakt [25].
Man stelle sich vor, der römische Papst wäre gleichsam politisches Schwergewicht in Berlin und würde durch eine verfeindete Macht gezielt ermordet: Die katholische Kirche bräche als System nicht zusammen, schon gar nicht die militärischen Kommandostrukturen der Bundeswehr. Gleiches gilt für die Islamische Republik.
Ein Vakuum besteht nur bedingt: Ein dreiköpfiger Übergangsrat hat die Amtsgeschäfte übernommen [26], ein Gremium von 88 Klerikern – der Expertenrat – berät über einen Nachfolger. Formal wird mit Zwei-Drittel-Mehrheit gewählt, informell in politischen Seilschaften ausgehandelt [27]. Kandidaten sind unter anderen Khameneis Sohn Mojtaba, Ali Larijani, Hashem Hosseini Bushehri oder Hassane Khomeini – sowie Ali Arifi, den Washington bereits ins Visier genommen [28] haben soll.
Der in staatlichen iranischen Medien vermarktete Märtyrertod Khameneis gefährdet den Fortbestand der iranischen Theokratie nur bedingt – Massenerhebungen gegen das Regime bleiben ebenso aus wie offen ausgetragene Machtkämpfe.
Sofern das US-Kalkül darin lag, den Iran und seine Führungsmannschaft zu bereitwilligen Verhandlungen zu bomben, ist jene Mission bislang unerreicht. Mit dem Blick auf die Machtstrukturen und die potenziellen Kandidaten – alle entspringen dem inneren Zirkel des Systems – dürften Kapitulationsverhandlungen kein Thema sein.
Entgegen landläufiger Meinung könnte sich die Tötung Khameneis rächen: Für die Hardliner ist es ein religiös-nationaler Affront, für die Moderaten ein Verstoß gegen die Würde – und der verdrängten Opposition wurde die Chance genommen, der herrschenden Clique selbst ein Ende zu setzen.
Im Taumel des Krieges entsteht ein Gemisch, das vor allem von den Protesten des Januar abzulenken [29]scheint. Während die USA und Israel erklärtermaßen auf strategische Ziele abzielen, die über die Nuklearanlagen hinausgehen und auf die Machtstrukturen des Regimes selbst gerichtet sind, bleibt der Zeitrahmen einer solchen Operation schwer abschätzbar.
Sollte der völkerrechtswidrige Krieg vor einem vollständigen Machtwechsel sein Ende finden, könnte dies zur Konsolidierung eines neu formierten Sicherheits- und Repressionsstaates führen, der unabhängig von der Person Khameneis fortbesteht.
URL dieses Artikels:
https://www.heise.de/-11198731
Links in diesem Artikel:
[1] https://www.israelheute.com/erfahren/irans-oberster-fuehrer-schwer-krank-bericht/?mc_cid=864b7daf85&mc_eid=220791ce14
[2] https://www.spiegel.de/ausland/iran-ali-khamenei-ist-tot-nachruf-auf-den-mann-der-die-zukunft-seines-landes-aufs-spiel-setzte-a-26c874ab-6b43-4402-811e-727afa08cddc
[3] https://en.wikipedia.org/wiki/Ali_Khamenei
[4] https://www.blick.ch/ausland/nach-israel-angriff-iran-hisst-die-rote-flagge-der-rache-id20957066.html
[5] https://www.latimes.com/world-nation/story/2026-03-01/in-tehran-celebrations-of-joy-after-khameneis-death
[6] https://www.tagesspiegel.de/internationales/hisbollah-greift-in-den-nahostkrieg-ein-welche-gefahr-geht-von-der-schiitenmiliz-aus-15306631.html
[7] https://www.nau.ch/politik/international/hisbollah-im-libanon-verspricht-solidaritat-mit-iran-67100217
[8] https://www.heise.de/tp/article/Kolonialer-Fluch-Wie-britische-Militaerbasen-Zypern-zum-Ziel-machen-11196474.html
[9] https://www.oe24.at/welt/kehrtwende-paris-berlin-london-militaer-allianz-gegen-iran/671468765
[10] https://www.oe24.at/welt/kehrtwende-paris-berlin-london-militaer-allianz-gegen-iran/671468765
[11] https://www.heise.de/tp/article/Macht-vor-Recht-Wie-sich-Europa-vom-Voelkerrecht-verabschiedet-hat-11197158.html
[12] https://www.youtube.com/watch?v=ZkzErjYRk0Y
[13] https://www.al-monitor.com/originals/2025/07/irans-supreme-leader-ali-khamenei-architect-regional-expansion-declared-dead
[14] https://www.wilsoncenter.org/article/part-1-irans-role-iraq
[15] https://www.wilsoncenter.org/article/part-1-irans-role-iraq
[16] https://www.britannica.com/biography/Ali-Khamenei
[17] https://www.bgnes.com/conflicts/khamenei-the-unyielding-revolutionary-at-the-helm-of-the-islamic-republic
[18] https://www.washingtonpost.com/obituaries/2026/02/28/ayatollah-khamenei-dead-iran/
[19] https://www.tagesanzeiger.ch/chamenei-wie-irans-diktator-37-jahre-an-der-macht-blieb-375449738593
[20] https://www.nzz.ch/pro/waehrungskollaps-und-soziale-unruhen-vier-grafiken-zeigen-die-wirtschaftslage-in-iran-ld.1919813
[21] https://www.aljazeera.com/features/2026/3/2/hold-analysis-khameneis-killing-leaves-irans-axis-in-disarray
[22] https://www.straitstimes.com/world/protests-break-out-in-pakistan-iraq-over-khameneis-death
[23] https://www.telepolis.de/article/Krieg-ohne-Mehrheit-US-Bevoelkerung-lehnt-Angriff-auf-Iran-ab-11196900.html
[24] https://www.telepolis.de/article/USA-und-Israel-Die-Enthauptungsstrategie-gegen-Iran-und-die-Probleme-11194543.html
[25] https://timesofindia.indiatimes.com/defence/international/despite-khameneis-death-iran-will-continue-attacks-as-it-has-2500-missiles-in-arsenal/articleshow/128957516.cms
[26] https://www.business-standard.com/world-news/iran-supreme-leader-contenders-ayatollah-khamenei-mojtaba-power-structure-125061800663_1.html
[27] https://www.theweek.in/news/middle-east/2026/03/01/with-khamenei-gone-iran-confronts-an-uncertain-and-fiercely-contested-succession-process.amp.html
[28] https://www.livemint.com/news/who-is-ayatollah-arafi-iran-names-interim-supreme-leader-following-the-killing-of-ali-khamenei-11772360409799.html
[29] https://www.telepolis.de/article/Iran-Krieg-Der-Angriff-der-das-Regime-staerkte-11194913.html
Copyright © 2026 Heise Medien
Das Aqara-Schloss U200: Wenn es knarzt, braucht es Schmierung.
(Bild: Aqara)
Beim U200 kann es vorkommen, dass nach einigen Monaten Getriebeprobleme auftreten, berichten Nutzer. Aqara räumt einen „Komponentenfehler“ ein.
Manche der vom chinesischen Hersteller Aqara offerierten Smart-Locks mit Apple Home Key [1] haben ein nicht ausreichend gefettetes Getriebe und können deshalb nach einigen Monaten der Benutzung ausfallen. Entsprechende Nutzerberichte gibt es unter anderem auf Reddit [2] und YouTube [3]. Das Unternehmen bestätigte das Problem auf Nachfrage von Mac & i. Der Fehler liegt demnach an „frühen defekten Komponenten“, die man mittlerweile ausgetauscht habe. Von Schwierigkeiten berichtet hätte aber nur eine „kleine Anzahl von Nutzern“, sagt Aqara.
Die Geräte der U200-Serie arbeiten den betroffenen Usern zufolge zunächst zuverlässig, bis sie beim Schließvorgang lauter werden und den Schlüssel schließlich nicht mehr korrekt drehen. Schlimmstenfalls droht dann eine Aussperrung des Nutzers: Nicht nur, weil sich das Schloss elektronisch nicht mehr öffnen lässt, sondern auch, weil ein solches „Jamming“ das Öffnen mit einem physischen Schlüssel verhindern kann. Dann muss ein Schlüsseldienst her, der die Tür – oder zumindest den Schließzylinder – gegebenenfalls beschädigen könnte.
Abhilfe schafft nur, das Schloss regelmäßig zu fetten, was allerdings eine längere Aktion ist, die Einsteigern nicht zugemutet werden kann. Entsprechende Anleitungen gibt es ebenfalls bei Reddit [4], allerdings besteht die Gefahr, dass man damit die Bedingungen der Gewährleistung verletzt. Es ist daher besser, das Schloss bei Anzeichen einer Schwergängigkeit gegebenenfalls tauschen zu lassen. Aqara gab an, das bereits getan zu haben. Man empfehle, das Serviceteam oder den Retail-Partner zu kontaktieren, wenn das Gerät noch in der Gewährleistung ist. Offen bleibt, was passiert, wenn diese nach zwei Jahren abgelaufen ist.
Aqara machte keine näheren Angaben dazu, welche „frühen defekten Komponenten“ das Problem auslösen. In einem auf YouTube beschriebenen Fall traten die Schließ- und Öffnungsfehler allerdings mit gleich zwei U200-Geräten auf – einem ersten und dem Austauschmodell. Beim Auseinanderbauen zeigte sich dann, dass nur noch eine sehr geringe Fettung übrig war. Die fehlende oder zu geringe Fettung scheint jedoch nicht das einzige Problem zu sein, sondern auch besagte fehlerhafte Komponenten. Bei ersten Anzeichen von Problemen, erkennbar durch eine erhöhte Lautstärke oder Schwergängigkeit, sollte man den Support kontaktieren, um nicht ins Jamming zu geraten.
Der chinesische Smart-Home-Spezialist zählt zu den ersten Anbietern, die Apple-Technik umsetzen. Das U200 war das erste in Europa erhältliche smarte Schloss mit Home Key [5]. Zuletzt brachte Aqara mit dem U400 auch das erste UWB-fähige Home-Key-Smart-Lock [6]. Aktuell steht es nur in einer US-Variante bereit, Angaben zu einer EU-Version wollte Aqara noch nicht machen.
URL dieses Artikels:
https://www.heise.de/-11195598
Links in diesem Artikel:
[1] https://www.heise.de/tests/Tuerwaechter-Schloss-mit-Apples-HomeKey-im-Test-10028799.html
[2] https://www.reddit.com/r/Aqara/comments/1ic080b/aqara_u200_maintenance_louder_and_sounds_like_it/
[3] https://www.youtube.com/watch?v=iXetVAL35Q8
[4] https://www.reddit.com/r/Aqara/comments/1jhj9mw/aqara_u200_disassembly_and_lubrication_fix_when/
[5] https://www.heise.de/news/Nachruestbar-und-mit-Apple-Home-Key-Aqara-bringt-Smart-Lock-U200-9795133.html
[6] https://www.heise.de/news/Home-Key-faehiges-Schloss-mit-UWB-Aqara-U400-oeffnet-bei-Annaeherung-11133517.html
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Lautsprecher von Sonos, hier der Era 300.
(Bild: Sonos)
Die App des Lautsprecher- und Kopfhörerspezialisten ist immer noch nicht so gut wie früher. Nun wurden weitere Verbesserungen angekündigt.
Sonos arbeitet weiter an einer neuen iOS-App, nachdem der Konzern wegen eines großen und vielfach kritisierten Softwarewechsels in schweres Fahrwasser geraten [1] war. Laut einem Bericht soll es in den kommenden Monaten ein Update geben, das endlich wieder eine Kontrollmöglichkeit der Wiedergabe auf dem Sperrbildschirm [2] für die Lautsprecher des Herstellers ermöglicht.
Umgesetzt werden soll das Feature aber per Live-Aktivität, nicht über die „normale“ Art der Lockscreen-Steuerung unter iOS. Wie bequem das wird, bleibt abzuwarten. Die Android-App hatte Sonos bereits aufgerüstet, sie lässt sich bereits wieder über den Lockscreen kontrollieren, wie das Nutzer eigentlich erwarten. Die Steuerung per Sperrbildschirm hatte Sonos bereits in der Version 15.6 der iOS-App [3] im Sommer 2023 gestrichen und seither nicht wieder eingeführt. Neben der seither fehlenden Möglichkeit, Songs ohne Entsperrung des iPhone zu wechseln, wurde auch die Anpassung der Wiedergabelautstärke über dessen Volume-Tasten gestrichen. Beides sind Komfort- und eigentlich Standardfeatures.
Seit dem Flop mit der neuen Sonos-App, zu deren Verwendung Nutzer gezwungen [4] wurden, hatte der Lautsprecherspezialist immer wieder Anpassungen vorgenommen. Allerdings gelten auch diese immer noch nicht als perfekt, besonders die fehlende Steuerungsmöglichkeit vom Sperrbildschirm aus blieb ein wunder Punkt. Offenbar gelang es den Sonos-Ingenieuren nicht, die Funktion erneut auf Basis der neuen App aufzubauen.
Laut Angaben von Sonos-CEO Tom Conrad, der bereits Ende Februar ein Interview gegeben hatte, gestaltet sich die Umsetzung als „trickreicher als gedacht“ und sie werde Monate dauern. Wie erwähnt wird die Umsetzung zudem „wahrscheinlich” via Live-Aktivität [5] erfolgen. Man habe erkannt, dass Nutzer Freude empfänden, wenn die App sich präzise anfühle. „Nach diesem Gefühl jagen wir”, so Conrad.
Conrad hatte sein Team zunächst ganz darauf eingeschworen, die App-Probleme zu beheben, so wurden neue Hardware-Produkte verschoben. Die negativen Kommentare wurden weniger. Dennoch gelang es Sonos bislang nicht, das Sperrbildschirm-Feature wiederzubeleben. Das Unternehmen hatte Umsatzeinbrüche und Entlassungen hinnehmen müssen.
URL dieses Artikels:
https://www.heise.de/-11197190
Links in diesem Artikel:
[1] https://www.heise.de/news/Sonos-feuert-200-Mitarbeiter-10272038.html
[2] https://www.bloomberg.com/news/articles/2026-02-24/sonos-plans-another-app-revamp-everything-we-should-have-done-the-first-time
[3] https://www.heise.de/news/Sonos-App-Musik-nicht-mehr-ueber-iPhone-Sperrbildschirm-steuerbar-9228365.html
[4] https://www.heise.de/news/Kein-Update-kein-Setup-Kopfhoerer-Sonos-Ace-zwingen-iOS-Nutzer-zur-Ortsfreigabe-10225543.html
[5] https://support.apple.com/de-de/guide/iphone/iph28f50d10d/ios
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Personen mit zwei neuen Studio-Displays.
(Bild: Apple)
Apple hat seine Studio-Displays endlich überarbeitet. Ein 32-Zoll-Modell wurde ersatzlos gestrichen. Auch sonst müssen Nutzer auf die Details achten.
Apples neue Studio-Display-Bildschirme [1], die der Konzern nach drei Jahren [2] erstmals überholt hat, sind keineswegs perfekt. Das liegt nicht nur an der nach wie vor sehr hohen Bepreisung, sondern auch am Formfaktor sowie den technischen Details.
So zeigt ein Blick in die Spezifikationen, dass sowohl Studio Display 2 als auch Studio Display XDR nur noch mit Apple-Silicon-Maschinen – also Macs ab 2020 mit M-Chip – kompatibel sind. Intel-Rechner führt Apple nicht (mehr) in seiner Kompatibilitätsliste. Angaben dazu, warum das so ist, macht Apple nicht. Bei Apple-Silicon-Macs geht es mit dem Mac mini mit M1 von 2020 los – an Thunderbolt-Defiziten scheint es also nicht zu liegen. Intel-Maschinen verkauft Apple schon seit längerem nicht mehr, macOS 26 alias Tahoe [3] ist zudem das letzte Betriebssystem, das überhaupt auf diesen Rechnern läuft.
Beim Studio Display 2 gibt es zudem Kritik am Panel: Offenbar verbaut Apple hier einfach das alte Modell weiter, das mit 600 Candela und fehlendem HDR sowie 60 Hertz Bildwiederholfrequenz aus der Zeit gefallen ist. Zwei Thunderbolt-5-Ports mit 96 Watt sind neu, außerdem eine bessere Basswiedergabe (Apple: „30 Prozent tiefer“) und einen Desk-View-Modus für die 12-Megapixel-Webcam. Nicht einmal der Ständer wurde verändert. Eine Höhenanpassung ist nach wie vor nicht möglich, ohne dass man 400 Euro Aufpreis zahlt. Mit 1700 Euro ist das Gerät preislich dennoch Oberklasse.
Beim Studio Display XDR, das das Pro Display XDR ablöst, gönnt Apple den Usern zwar ein neues Panel mit 120 Hertz, Mini-LED-Hintergrundbeleuchtung und HDR-Wiedergabe (bis 2000 Candela). Es hat aber ebenfalls nur 27 Zoll wie das Studio Display (2). Viele Profis hätten sich eine größere Bildschirmdiagonale gewünscht. Mindestens 3500 Euro für einen 27-Zöller ist zudem ebenfalls kein Schnapper. Beim Pro Display XDR (32 Zoll) ging es allerdings zuletzt erst bei 5500 Euro (Apple-Preis) los – ohne Ständer, den man für 1100 Euro dazukaufen [4] musste. Dieser ist nun dabei und sogar höhenverstellbar. Wer stattdessen einen Vesa-Mount benötigt, muss das beim Kauf auswählen, dann lässt Apple (zum gleichen Preis) den Ständer einfach weg.
Das Studio Display XDR beherrscht neu den Standard DICOM Medical Imaging für radiologische Bildgebung, kann also mit für Radiologen passenden Farbprofilen versehen werden – das könnte, wenn man die Preise für Spezialbildschirme kennt, sogar eine Art Schnäppchen sein. Die 120 Hertz, die das Studio Display XDR leistet, laufen nicht an allen Macs: M1, M1 Pro, M1 Max, M1 Ultra, M2 und M3 stellen nur 60 Hertz [5] dar. In Sachen Recycling erfreut Apple hingegen: Die Umverpackungen von Studio Display 2 und Studio Display XDR lassen sich nun nach Geräteentnahme zusammenklappen, damit sie leichter in die Altpapiertonne passen.
Modelle korrigiert, die nur 60 Hertz am Studio Display XDR ausgeben können.
URL dieses Artikels:
https://www.heise.de/-11198029
Links in diesem Artikel:
[1] https://www.heise.de/news/Neue-Apple-Monitore-Studio-Display-2-und-Studio-Display-XDR-11197630.html
[2] https://www.heise.de/tests/Fuenf-Monitore-gegen-Apples-Studio-Display-So-finden-Sie-den-richtigen-Screen-7328212.html
[3] https://www.heise.de/ratgeber/macOS-26-Tahoe-auszreizen-20-Tipps-fuer-Apples-neues-System-10646553.html
[4] https://www.heise.de/news/Pro-Display-XDR-Bildschirm-Reinigung-nicht-ganz-einfach-4630638.html
[5] https://www.apple.com/de/studio-display-xdr/specs/
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
(Bild: amgun/ Shutterstock.com)
Die IT-Sicherheitsbehörde CISA warnt vor aktuell laufenden Angriffen auf VMware Aria Operations. Verfügbare Updates helfen dagegen.
Die US-amerikanische Cybersicherheitsbehörde CISA warnt vor beobachteten Angriffen auf eine Sicherheitslücke in VMware Aria Operations und auf Qualcomm-Prozessoren von Android-Geräten. Admins von VMware Aria Operations können sich mit dem Anwenden von Updates behelfen, für einige verwundbare Android-Geräte stehen ebenfalls Aktualisierungen bereit.
Die CISA hat die beiden attackierten Schwachstellen [1] in der Nacht zum Mittwoch dieser Woche in den „Known Exploited Vulnerabilities“-Katalog (KEV) aufgenommen. Eine der Lücken betrifft die Qualcomm-Prozessoren von Android-Mobilgeräten. Darin können Angreifer einen „Speicherfehler bei Verwendung von Ausrichtungen (Alignments) für die Speicherallokation“ missbrauchen – solche Speicherfehler können oftmals zum Ausführen von eingeschleustem Schadcode führen (CVE-2026-21385 [2], CVSS 7.8, Risiko „hoch“). Da die CISA keine Hinweise gibt, wie die Angriffe aussehen, ist jedoch unklar, in welchem Umfang die Attacken laufen. Auch Google hat den Missbrauch der Lücke zum Android-Patchday [3] am Dienstag dieser Woche eingeräumt, aber auch hier fehlen jedwede Details. Die Lücken sollen die Android-Sicherheitspatch-Level 2026-03-01 sowie 2026-03-05 schließen.
In der vergangenen Woche hatte Broadcom eine Warnung veröffentlicht, die Sicherheitslecks in VMware Aria Operations [4] betraf. Die Software kommt auch in Cloud Foundation, Telco Cloud Platform, Telco Cloud Infrastructure und vSphere Foundation zum Einsatz, sodass auch diese verwundbar sind.
Die CISA meldet nun Angriffe auf eine Schwachstelle, die nicht authentifizierten Akteuren das Ausführen beliebiger Befehle und in der Folge von beliebigem Schadcode aus dem Netz in VMware Aria Operations ermöglicht. Die Software muss dazu jedoch im Status einer Support-unterstützten Produktmigration sein (CVE-2026-22719 [5], CVSS 8.1, Risiko „hoch“). Unklar ist, ob die Angreifer die Software selbst in diesen Status bringen können. Broadcom hat die eigene Warnung [6] aktualisiert und darin ergänzt, dass dem Unternehmen Berichte bekannt seien, denen zufolge die Lücke in freier Wildbahn attackiert werde. Es könne deren Wahrheitsgehalt jedoch nicht unabhängig prüfen. Admins sollten unabhängig von der Broadcom-Einschätzung die verfügbaren Aktualisierungen zügig anwenden, um die Angriffsfläche der eigenen IT-Infrastruktur zu reduzieren.
URL dieses Artikels:
https://www.heise.de/-11198060
Links in diesem Artikel:
[1] https://www.cisa.gov/news-events/alerts/2026/03/03/cisa-adds-two-known-exploited-vulnerabilities-catalog
[2] https://nvd.nist.gov/vuln/detail/CVE-2026-21385
[3] https://www.heise.de/news/Patchday-Attacken-auf-Android-Smartphones-beobachtet-11196456.html
[4] https://www.heise.de/news/Diverse-VMware-Produkte-ueber-mehrere-Sicherheitsluecken-angreifbar-11189099.html
[5] https://nvd.nist.gov/vuln/detail/CVE-2026-22719
[6] https://support.broadcom.com/web/ecx/support-content-notification/-/external/content/SecurityAdvisories/0/36947
[7] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[8] mailto:dmk@heise.de
Copyright © 2026 Heise Medien
(Bild: quietbits / Shutterstock.com)
Der KI-Agent in Android Studio kann nun komplette neue Anwendungen erstellen. Auch die Dependency-Verwaltung bestehender Apps soll die KI erledigen können.
Google hat Android Studio Panda 2 veröffentlicht. Die neue Version stattet die integrierte Entwicklungsumgebung für Android-Apps mit erweiterten KI-Möglichkeiten aus: Per KI-Agent lassen sich komplette neue App-Prototypen erstellen. Aber auch im Umgang mit vorhandenen Codebasen soll der KI-Agent unterstützen können und Entwickler von Boilerplate-Code befreien.
(Bild: Google)
Wie das Android-Team ausführt, soll der KI-gestützte „New Project“-Flow das Erstellen eines App-Prototyps mit nur einem Prompt ermöglichen. Dabei können Developer neben einer Beschreibung der geplanten App auch Bilder hochladen. Der KI-Agent setzt dann die Pläne in die Tat um und nutzt dazu Technologien wie Kotlin und Compose unter Befolgung der Best Practices in der Android-Entwicklung. Die App wird letztlich zu einem Android-Emulator deployt und Developer können jeden Screen dahingehend prüfen, ob er ihren Anforderungen entspricht.
Nicht nur neue Apps, sondern auch bestehende Codebasen sollen von den Fähigkeiten des KI-Agenten profitieren. Der Version Upgrade Assistant in Android Studio kann nun mithilfe von KI Dependencies verwalten. Dazu klicken Entwickler im Versionskatalog mit der rechten Maustaste, wählen AI und anschließend Update Dependencies aus. Auch aus dem Refactor-Menü lässt sich die KI-Funktion aktivieren: Update all libraries with AI.
(Bild: Google)
Dann soll der KI-Agent mehrere automatisierte Runden durchführen, bis er Dependency-Konflikte behoben hat und der Build schließlich erfolgreich verläuft.
Neben dem kostenfreien Standard-Modell in Android Studio kann der KI-Agent für zahlende Kunden auf weitere Optionen zugreifen. Entwicklerinnen und Entwickler können ihren eigenen API-Key für Google AI Studio eingeben, um einen zahlungspflichtigen Gemini-API-Key einzubinden. Das ermöglicht Zugriff auf neuere und schnellere Modelle von Google zum Erstellen neuer Apps, darunter das KI-Bildmodell Nano Banana [1] und Gemini 3.1 Pro Preview [2], was das Generieren verbesserter Designs ermöglichen und die Codequalität erhöhen soll.
Android Studio Panda 2 steht bei Google zum Download bereit [3]. Weitere Informationen bietet der Blogeintrag zur Ankündigung [4].
URL dieses Artikels:
https://www.heise.de/-11198132
Links in diesem Artikel:
[1] https://www.heise.de/news/Nano-Banana-2-bringt-Pro-Funktionen-fuer-Gratis-Nutzer-11192662.html
[2] https://www.heise.de/news/Google-bringt-Gemini-3-1-Pro-heraus-11183594.html
[3] https://developer.android.com/studio/releases
[4] https://android-developers.googleblog.com/2026/05/go-from-prompt-to-working-prototype.html
[5] mailto:mai@heise.de
Copyright © 2026 Heise Medien
(Bild: sabthai/Shutterstock.com)
Abstraktion gilt in der Softwareentwicklung als Tugend. Dabei zeigt die Praxis: Falsche Abstraktionen richten mehr Schaden an als gar keine.
Kaum ein Prinzip genießt in der Softwareentwicklung so viel Ansehen wie die Abstraktion. Wer abstrahiert, gilt als vorausschauend. Wer Gemeinsamkeiten erkennt und zusammenführt, gilt als erfahren. Wer Code dupliziert, gilt als nachlässig. Sei es in Code-Reviews, in Architektur-Diskussionen oder in Vorstellungsgesprächen: Abstraktion ist der Maßstab, an dem sich guter Code messen lassen muss. Zumindest wird das häufig so vermittelt.
Ich habe das selbst lange geglaubt. Ich habe abstrahiert, wo es ging, habe Gemeinsamkeiten gesucht, wo keine waren, und habe mich gut dabei gefühlt. Erst mit den Jahren habe ich gelernt, dass das Gegenteil oft näher an der Wahrheit liegt: Dass viele Abstraktionen Code nicht besser machen, sondern schlechter. Dass sie Kopplung erzeugen, wo Unabhängigkeit sein sollte. Und dass eine falsche Abstraktion langfristig teurer ist als gar keine.
Wenn Entwicklerinnen und Entwickler über Abstraktion sprechen, fällt früher oder später das Akronym DRY: „Don’t Repeat Yourself“. Es ist eines der meistzitierten Prinzipien der Softwareentwicklung, und es wird fast überall als technische Anweisung verstanden: „Dupliziere keinen Code“. Es gibt sogar Tools, die Codebasen nach Copy-&-Paste-Mustern durchsuchen und Alarm schlagen, wenn zwei Blöcke zu ähnlich aussehen.
Das Problem: Diese Interpretation hat mit dem, was die Autoren des Prinzips gemeint haben, wenig zu tun. DRY stammt aus dem Buch „The Pragmatic Programmer“ von David Thomas und Andrew Hunt [1]. Dort wird ausdrücklich gesagt, dass es nicht um technische Duplikation geht, sondern um fachliche: Ein fachliches Konzept soll nicht an mehreren Stellen im System implementiert sein, weil das zu Inkonsistenzen bei Geschäftsregeln führt. Hunt und Thomas bringen in ihrem Buch sogar ein explizites Beispiel für technische Duplikation und stellen klar, dass das keine Verletzung von DRY sei!
Das hindert die Branche aber nicht daran, DRY weiterhin als „kopiere keinen Code“ zu verkaufen. Und genau das führt zu einer der häufigsten Formen falscher Abstraktion: Technisch ähnlicher Code wird zusammengeführt, obwohl er fachlich völlig unterschiedliche Dinge repräsentiert.
Um ein Beispiel zu nennen, das viele so oder so ähnlich kennen dürften: Stellen Sie sich vor, eine Anwendung verfügt über eine User-Klasse. Diese Klasse wird für die Persistenz verwendet, für die HTTP-API und für die Fachlogik. Drei verschiedene Kontexte, aber nur eine Klasse, weil die Felder dieselben sind. Wer braucht schon drei User-Klassen?
Die Antwort zeigt sich spätestens nach ein paar Monaten: Für die Persistenz und die API braucht man JSON-Annotationen. Plötzlich trägt die Fachlogik-Klasse Annotationen, die ihr völlig egal sein sollten. Dann ändert sich das Persistenzformat, aber die Annotationen lassen sich nicht einfach anpassen, weil das die API brechen würde. Also fügt man weitere Annotationen hinzu. Dann kommt ein internes Feld dazu, das über die API jedoch nicht sichtbar sein soll. Also braucht man Logik, die bestimmte Felder ausblendet. Und so wächst die Klasse nach und nach zu einer immer größeren Müllhalde, auf der sich immer mehr Sonderfälle und Ausnahmen ansammeln.
Die Lösung wäre so einfach gewesen: drei separate Klassen, eine pro Kontext. Ja, das bedeutet, zwischen ihnen mappen zu müssen. Ja, das ist ein wenig mehr Tipparbeit. Aber jede Klasse existiert aus einem eigenen Grund, ist unabhängig von den anderen evolvierbar, und der Code ist explizit und nachvollziehbar. In der Sprache der Softwarearchitektur: niedrige Kopplung und hohe Kohäsion. Nicht zufällig sind das die beiden grundlegenden Prinzipien guter Architektur. Und nicht zufällig verletzt die zusammengeführte User-Klasse beide.
Viele Entwicklerinnen und Entwickler wehren sich gegen diesen Ansatz. Es wird argumentiert: Drei Klassen für dasselbe Konzept, das sei zu viel Aufwand und zu viel Redundanz. Aber die drei Klassen existieren aus unterschiedlichen Gründen. Sie haben unterschiedliche Lebenszyklen, unterschiedliche Änderungsgründe, unterschiedliche Abhängigkeiten. Sie gehören nicht zusammen, auch wenn sie ähnlich oder (zunächst) sogar gleich aussehen.
Das Muster dahinter ist immer dasselbe: Technische Ähnlichkeit wird mit fachlicher Zusammengehörigkeit verwechselt. Die resultierende Abstraktion erzeugt eine Kopplung zwischen Dingen, die nichts miteinander zu tun haben. Änderungen an einem Kontext ziehen Änderungen in einem anderen nach sich, oder man muss den jeweiligen Kontext durch die Abstraktion hindurchschleifen, was die Komplexität weiter erhöht. Und all das nur, weil jemand irgendwann gesagt hat: „Das sieht doch fast gleich aus, das kann man zusammenfassen.“
Falsche Abstraktionen entstehen jedoch nicht nur durch missverstandene Prinzipien. Sie werden auch von Frameworks geliefert, fertig verpackt und als Feature beworben. Das Versprechen lautet: „Sie müssen das Darunterliegende nicht verstehen. Wir kümmern uns darum. Konzentrieren Sie sich auf Ihre Geschäftslogik.“
Das klingt verlockend, und es funktioniert. Solange man auf dem getrampelten Pfad bleibt, ist alles in Ordnung. Die Dokumentation beschreibt den Happy Path, die Tutorials führen durch den Happy Path, die Community beantwortet Fragen zum Happy Path. Das Problem beginnt, wenn man davon abweichen muss. Und in realen Projekten muss man das früher oder später immer.
Nehmen Sie React als Beispiel: JSX ist eine Abstraktion, die es erlaubt, HTML-ähnliche Syntax in JavaScript zu schreiben. Die meisten React-Entwicklerinnen und -Entwickler nutzen JSX täglich, aber nur wenige können erklären, was dabei eigentlich passiert. Wie wird aus JSX am Ende JavaScript, das der Browser versteht und ausführen kann? Welche Transformationsschritte sind involviert? Warum darf eine Render-Funktion nur einen einzigen Root-Knoten zurückgeben und nicht mehrere?
Die Antwort auf die letzte Frage ist aufschlussreich: In JSX wird jedes Element in einen Funktionsaufruf (sinngemäß: createElement) übersetzt, das heißt, die Render-Funktion gibt das Ergebnis dieses Funktionsaufrufs zurück. Und da eine Funktion in JavaScript nur einen Rückgabetyp haben kann, kann eine Render-Funktion naturgemäß nicht mehrere Elemente auf oberster Ebene zurückgeben – auch wenn sich das in JSX zunächst wie eine valide HTML-Struktur liest.
Wer versteht, was unter der Haube passiert, für den ist die Einschränkung selbstverständlich. Für alle anderen ist sie eine willkürliche Regel, die man auswendig lernt, ohne sie zu begreifen.
Solange alles funktioniert, fällt das fehlende Verständnis nicht auf. Doch sobald man auf ein Problem stößt, das nicht auf dem Happy Path liegt, ändert sich die Situation. Man versteht nicht nur das Problem nicht, sondern auch das Werkzeug nicht, mit dem man es lösen müsste. Statt mit dem Framework zu arbeiten, arbeitet man gegen es. Das ist der Moment, in dem die Abstraktion leckt.
Dasselbe Muster zeigt sich auf einer anderen Ebene auch bei Programmiersprachen beziehungsweise Compilern, beispielsweise TypeScript. TypeScript ist eine Abstraktion über JavaScript, die statische Typisierung hinzufügt. Das Versprechen: mehr Sicherheit, bessere Tooling-Unterstützung, weniger Laufzeitfehler. Und dieses Versprechen löst TypeScript in vielen Fällen auch ein.
Was TypeScript nicht einlöst, ist das implizite Versprechen, dass man JavaScript nicht mehr verstehen müsse. Viele Entwicklerinnen und Entwickler steigen heute direkt mit TypeScript ein, ohne je ernsthaft JavaScript geschrieben zu haben. Sie lernen TypeScript-Syntax, TypeScript-Pattern, TypeScript-Tooling. JavaScript ist für sie eine Art Kompilierungsziel, das man nie direkt anfasst.
Das funktioniert, bis es nicht mehr funktioniert. Viele der Einschränkungen und vermeintlich seltsamen Verhaltensweisen von TypeScript ergeben nur dann Sinn, wenn man JavaScript versteht. Warum verhält sich das Typsystem in bestimmten Fällen unerwartet? Warum gibt es Design-Entscheidungen, die auf den ersten Blick unlogisch wirken? Die Antwort ist fast immer dieselbe: Weil TypeScript abwärtskompatibel zu JavaScript sein will und muss, und es anders schlicht nicht funktioniert.
Wer JavaScript kennt, versteht diese Entscheidungen. Wer JavaScript nicht kennt, steht vor einer Wand aus unerklärlichen Regeln. Die Abstraktion verdeckt genau das Wissen, das man braucht, wenn sie an ihre Grenzen stößt. Und das Paradoxe daran: Auch die meisten Entwicklerinnen und Entwickler, die JavaScript nutzen, kennen JavaScript zu wenig. Die Sprache hat einen Ruf als einfach, der täuscht. Unter der Oberfläche verbergen sich Konzepte, deren Verständnis erheblich dabei hilft, sowohl JavaScript als auch TypeScript besser einzusetzen.
Die jüngste Iteration desselben Musters liefert die künstliche Intelligenz. KI-basierte Coding-Assistenten und -Agenten versprechen, die Softwareentwicklung grundlegend zu vereinfachen. Sie generieren Code, vervollständigen Funktionen, schlagen Architekturen vor, schreiben Tests. Das Versprechen ist vertraut: „Sie müssen sich nicht um die Details kümmern. Die KI übernimmt das. Konzentrieren Sie sich auf die großen Zusammenhänge.“
Das klingt nach demselben Versprechen, das Frameworks seit Jahren geben. Und es funktioniert auf dieselbe Weise: hervorragend auf dem Happy Path. Solange die Anforderungen im Bereich dessen liegen, wofür ausreichend Trainingsmaterial existiert, liefert KI beeindruckende Ergebnisse. In Sekunden entsteht Code, der kompiliert, Tests besteht und auf den ersten Blick korrekt aussieht.
Die Probleme beginnen, wenn die Anforderungen exotischer werden. Wenn die Kombination aus Technologien, Randbedingungen und fachlichen Regeln so spezifisch ist, dass kein Trainingsmaterial dafür existiert. Oder wenn der generierte Code subtile Fehler enthält, die man nicht erkennt, weil man nie gelernt hat, wie der Code unter der Haube funktioniert. Ein Off by One Error in einer Schleife, eine Race Condition in asynchronem Code, ein falsch gesetzter Index in einer Datenbankabfrage: Solche Fehler fallen nur auf, wenn man den Code tatsächlich liest und versteht. Wer das nicht macht, weil die KI es vermeintlich übernimmt, hat ein Problem, das er möglicherweise erst Monate später bemerkt.
Noch bedenklicher ist der schleichende Verlust von Kompetenz. Wer jahrelang Code von Hand geschrieben hat und nun KI einsetzt, verfügt über das Wissen, die Ergebnisse zu beurteilen. Wer aber nie ohne KI gearbeitet hat oder das eigene Wissen nicht mehr pflegt, verliert genau die Fähigkeit, die nötig wäre, um die Grenzen der Abstraktion zu erkennen.
Das Muster ist immer dasselbe. Eine Abstraktion verspricht Einfachheit. Sie löst dieses Versprechen ein, solange alles nach Plan läuft. Und sie versagt genau dann, wenn man sie am dringendsten brauchte: in den Situationen, die vom Plan abweichen. Joel Spolsky hat das 2002 in seinem Artikel „The Law of Leaky Abstractions [2]“ auf den Punkt gebracht: Alle nichttrivialen Abstraktionen sind bis zu einem gewissen Grad undicht. Das galt für Frameworks, es galt für Programmiersprachen, und es gilt für KI.
Nach vier Negativbeispielen wäre es leicht, den Schluss zu ziehen, dass Abstraktion grundsätzlich schädlich ist. Das wäre falsch. Es gibt nämlich durchaus sinnvolle Abstraktionen, die funktionieren, und das seit Jahrzehnten.
Das vielleicht beste Beispiel stammt aus der Unix-Welt: „Everything is a file“. Das bedeutet: In Unix sind Dateien, Geräte, Pipes und Sockets über dasselbe Interface ansprechbar: open, read, write, close. Diese Abstraktion ist inzwischen über fünfzig Jahre alt und funktioniert noch immer hervorragend. Sie ist zu einem Fundament geworden, auf dem ganze Ökosysteme aufbauen.
Was macht diese Abstraktion anders als die gescheiterten Beispiele? Erstens ist sie minimal. Sie versteckt nicht zu viel, sondern genau so viel, wie nötig ist, um eine gemeinsame Schnittstelle zu bieten. Zweitens basiert sie auf einem tiefen Verständnis des Problems. Die Unix-Entwickler haben nicht zuerst abstrahiert und dann geschaut, was man damit machen kann. Sie haben erst verstanden, was sie brauchen, und dann die kleinstmögliche gemeinsame Abstraktion gefunden. Und drittens: Wenn sie leckt (und das tut sie), ist das Leck nachvollziehbar, weil die Abstraktion dünn genug ist, um hindurchzuschauen.
Genau das unterscheidet eine gelungene Abstraktion von einer gescheiterten. Gelungene Abstraktionen setzen Verständnis voraus und machen es nicht überflüssig. Sie entstehen aus Erfahrung, nicht aus Annahmen. Und sie respektieren, dass die Kopplung niedrig und die Kohäsion hoch bleiben muss.
Was lässt sich aus all dem lernen? Joel Spolsky hat neben dem Artikel zu den leckenden Abstraktionen noch einen zweiten Artikel geschrieben, der hierher gehört: „Back to Basics [3]“. Darin kritisiert er, dass zu vielen Entwicklerinnen und Entwicklern die Grundlagen fehlen (und das war, wohlgemerkt, bereits 2001). Dass die Meinung vorherrsche, die Garbage Collection werde es schon richten, ohne dass man verstanden hat, was ein Stack und was ein Heap ist, wann was verwendet wird und welche Auswirkungen das hat.
Natürlich muss man nicht in allem Expertin oder Experte sein, das ist allein aufgrund der Menge an Themen auch gar nicht machbar. Aber die Grundlagen des eigenen Werkzeugs zu verstehen ist keine optionale Zusatzqualifikation, sondern die Voraussetzung dafür, die Abstraktion über diesem Werkzeug sinnvoll nutzen zu können. Wer nicht weiß, wie JavaScript funktioniert, wird an TypeScript scheitern. Wer nicht versteht, was JSX unter der Haube tut, wird an React scheitern. Wer nicht in der Lage ist, Code selbst zu beurteilen, wird an KI scheitern.
Mein Rat lautet daher nicht, auf Abstraktion grundsätzlich zu verzichten. Mein Rat lautet, mit Abstraktion zu warten, also nicht mit einer Abstraktion starten, sondern alles erst einmal explizit machen. Jede Klasse, jede Funktion, jede Schnittstelle so schreiben, dass sie für sich allein verständlich ist. Code wird nur einmal geschrieben, aber viele Male gelesen. Lesbarkeit, Nachvollziehbarkeit und Verständlichkeit sind wichtiger als drei Zeilen weniger Tipparbeit.
Erst wenn man genau weiß, wie sich die Anforderungen verhalten, welche Teile sich tatsächlich gemeinsam ändern und welche nur zufällig ähnlich aussehen, dann und nur dann kann man über Abstraktion nachdenken. Und selbst dann lohnt sich die Frage: Brauche ich die Abstraktion wirklich? Oder mache ich den Code damit nur kürzer, aber nicht besser? Senkt die Abstraktion die Kopplung und erhöht die Kohäsion, oder bewirkt sie das Gegenteil?
Viele der besten Codebasen, die ich in über 30 Jahren Berufserfahrung gesehen habe, zeichneten sich nicht durch clevere Abstraktionen aus, sondern durch Klarheit. Durch Code, den man lesen und verstehen konnte, ohne erst drei Indirektionsebenen nachzuverfolgen. Durch explizite Strukturen, die auf den ersten Blick verrieten, was sie taten und warum. Das ist die wahre Kunst der Softwareentwicklung, und abschließend kann man sagen: Abstraktion ist überbewertet, Verständnis nicht.
URL dieses Artikels:
https://www.heise.de/-11169165
Links in diesem Artikel:
[1] https://www.pearson.de/the-pragmatic-programmer-your-journey-to-mastery-20th-anniversary-edition-9780135957059
[2] https://www.joelonsoftware.com/2002/11/11/the-law-of-leaky-abstractions/
[3] https://www.joelonsoftware.com/2001/12/11/back-to-basics/
[4] mailto:rme@ix.de
Copyright © 2026 Heise Medien
(Bild: Pavel Ignatov/Shutterstock.com)
Postman 12 führt YAML-basierte Collections, den Agent Mode sowie einen zentralen API-Katalog ein – ausgerichtet auf agentengetriebene Entwicklung.
Der API-Werkzeughersteller Postman hat eine grundlegend überarbeitete Version seiner Entwicklungsplattform vorgestellt. Das Update macht die Anwendung vollständig Git-nativ und führt mit dem Agent Mode sowie einem zentralen API Catalog neue Funktionen ein, die auf die Zusammenarbeit mit autonomen KI-Agenten abzielen.
Laut der Ankündigung im Postman-Blog [1] werden APIs immer stärker zur kritischen Schnittstelle zwischen Agenten und der realen Welt. Der zentrale Gedanke dabei: Im Unterschied zum bisher deterministischen Ansatz treffen KI-Agenten zur Laufzeit probabilistische Entscheidungen darüber, welche APIs sie aufrufen, wann und in welcher Reihenfolge. Fehlerhafte oder unzuverlässige Schnittstellen könnten sich in agentengesteuerten Systemen schnell kaskadierend auswirken. Die Neuerungen in Postman sollen Entwicklerteams daher auf die zunehmend agentengetriebene Softwareentwicklung vorbereiten.
Der wohl tiefgreifendste Umbau betrifft die Arbeitsweise mit Versionskontrolle. Die neue Postman-Version ist laut Hersteller von Grund auf Git-nativ aufgebaut. Entwicklerinnen und Entwickler sollen in Postman auf demselben Branch arbeiten können, auf dem sie auch Code schreiben – parallel zu ihrer IDE. Die Git-native Architektur ermögliche zudem Offline-Arbeit.
Ein wesentliches Detail für den Entwickleralltag: Postman führt das neue Collection-3.0-Format ein, das YAML-Dateien statt JSON-Blobs verwendet. Collections werden dabei in einzelne YAML-Dateien aufgeteilt. Die Dateien sollen damit nicht nur für KI-Agenten lesbar und schreibbar werden, sondern sich auch einfacher vergleichen und durch Menschen überprüfen lassen. Sämtliche Postman-Assets – darunter Specs, Flows und lokale Mock-Server – werden zusammen mit dem Code versioniert.
Neu sind außerdem codebasierte lokale Mock-Server, die API-Server simulieren und sowohl lokal als auch in der CI-Pipeline laufen können. Postman verspricht sich davon mehr Flexibilität als von rein statischem Mocking: Mock-Server sollen somit stärker ins Zentrum der Entwicklung rücken, etwa beim Entwurf neuer APIs oder beim Stubbing von Abhängigkeiten.
Moderne Softwaresysteme nutzen selten nur ein einziges Protokoll, doch die meisten Werkzeuge behandeln jedes Protokoll separat. Postman erlaubt es Teams nun, HTTP, GraphQL, gRPC, MCP, MQTT, WebSockets und KI-Requests in derselben Collection zu organisieren. Automatisierung und Validierung über HTTP, GraphQL und gRPC hinweg sollen im Collection Runner möglich sein, weitere Protokolle sollen folgen. Laut Postman ergibt sich daraus ein systemweites Testen, das das tatsächliche End-to-End-Verhalten von Systemen abbilden soll – ohne den Koordinationsaufwand, der entsteht, wenn jede Komponente in einem anderen Tool validiert wird.
Die Postman-CLI soll künftig dieselben Collections, Tests und Mocks sowohl lokal als auch in CI-Pipelines ausführen können, ohne dass Workflows für jede Umgebung neu konfiguriert werden müssen. Das soll CI-spezifische Fehler – etwa, dass Lücken in der Testabdeckung erst nach einem Commit sichtbar werden – reduzieren und Workflows vereinheitlichen.
Unter dem Namen „Agent Mode“ steht ab sofort eine KI-Funktion bereit, die über Postman und angebundene Repositories hinweg arbeiten soll. Der Agent Mode kann laut Ankündigung bestehende Collections, Tests und Mocks bearbeiten, aktualisieren und neue erstellen, die den Standards der jeweiligen Organisation folgen. Entwickler können die KI per Konversation nutzen, ihr komplette Workflows übertragen oder sie direkt auf der Codebasis arbeiten lassen – etwa um Fehler zu beheben, Server-Stubs zu generieren oder Client-Code zu erzeugen. Postman-Assets sollen sich auch komplett neu erstellen lassen, indem die KI auf vorhandenen Code verwiesen wird.
Ergänzend dazu soll die KI-gestützte Testgenerierung automatisch Contract-, Last-, Unit-, Integrations- und End-to-End-Tests für APIs anlegen. Bei fehlgeschlagenen Tests unter anderem im Collection Runner soll der Agent Mode die Ursache diagnostizieren und direkt in den Ergebnissen einen Fix vorschlagen können – sodass Entwickler Requests, Variablen und Environments nicht mehr aufwendig einzeln inspizieren müssen.
Eines der größten Probleme in Entwicklungsorganisationen: Es gibt keinen einzigen Ort, der grundlegende Fragen zu den eigenen APIs beantwortet – welche APIs existieren, ob sie getestet sind, ob sie den internen Standards entsprechen und wie sie in Produktion performen. Diese Informationen verteilen sich laut Postman über Git-Repos, CI-Dashboards, APM-Tools, Wikis und informelles Teamwissen.
Der neue API-Katalog soll als operative Schicht für das API-Portfolio-Management dienen und als „System of Record“ fungieren, das aktuell bleibt, weil es direkt mit den Orten verbunden ist, an denen APIs gebaut, getestet und betrieben werden. Teams sollen ihre gesamte API-Landschaft unabhängig von der darunterliegenden Infrastruktur und über alle Umgebungen hinweg einsehen können.
Der Katalog integriert API-Governance, sodass zentrale Teams Designregeln durchsetzen können, und bietet Analytics zur Messung der API-Gesundheit. Per Agent Mode sollen Nutzer den Katalog in natürlicher Sprache abfragen können – etwa: „Welche APIs in Produktion haben keine OpenAPI-Spec?“ oder „Welche Endpoints haben eine P95-Latenz über 500 ms im Staging?“ Der Agent Mode hat laut Postman Zugriff auf das vollständige Datenmodell des Katalogs und kann Governance-, Test- und Laufzeitdaten in einer einzelnen Abfrage verknüpfen.
Weitere Neuerungen in Postman betreffen unter anderem das Private API Network, das auf Publisher- und Consumer-Seite aktualisiert wurde. Änderungen aus Git synchronisieren sich nun automatisch über die Postman-CLI mit dem Netzwerk. Das ebenfalls überarbeitete UI bietet nun eine einheitliche Workbench, in der Collections, Environments, Specs, Flows und lokale Mock-Server gemeinsam organisiert werden können.
Die Release Notes zu Version 12 [3] (aktuell ist 12.0.3) listen alle konkreten Änderungen im Detail auf.
URL dieses Artikels:
https://www.heise.de/-11197343
Links in diesem Artikel:
[1] https://blog.postman.com/new-postman-is-here/
[2] https://api.bettercode.eu/?wt_mc=intern.academy.dpunkt.konf_dpunkt_bcc_api.empfehlung-ho.link.link&LPID=33456
[3] https://www.postman.com/release-notes/postman-app/
[4] mailto:map@ix.de
Copyright © 2026 Heise Medien