US-Präsident Donald Trump und seine Söhne Don Jr. und Eric. Bild: Shutterstock.com
Das Pentagon investiert Milliarden in Drohnen. Gleichzeitig steigen Donald Trump Jr. und Eric Trump bei Herstellern ein – mit Aussicht auf lukrative Aufträge.
Unlängst wurde an dieser Stelle– anlehnend an eine Analyse des französischen Ökonomen Thomas Piketty – die zugespitzte Frage gestellt, ob Krieg ein Geschäftsmodell der US-Regierung sein könnte.
Das ist im Fall des Iran-Krieges nicht leicht zu beantworten, weil komplexe wirtschaftliche Auswirkungen des völkerrechtswidrigen Angriffs der USA und Israels auf den Iran die Sache nicht auf einen einfachen Reim bringen lassen.
In diesem Zusammenhang ist ein weiterer Artikel, der aktuell bei Le Monde [1] erscheint, von Interesse. Dort geht es um Investitionen von zwei Söhnen des US-Präsidenten. Siepositionieren sich durch gezielte Beteiligungen, um vom Drohnen-Boom zu profitieren. Dies wirft Fragen nach möglichen Interessenskonflikten auf.
Im November 2024 wurde bekannt, dass Donald Trump Jr. als Berater beim Drohnenkomponenten-Hersteller Unusual Machines mit Sitz in Orlando, Florida, fungieren würde. Das Unternehmen stellte ihm dafür kostenlos Aktien in Aussicht.
Bereits vor der öffentlichen Bekanntgabe dieser Personalie schoss der Aktienkurs des Unternehmens in die Höhe. Trump Jr. erzielte damit, wie der Bericht von Le Monde [2] vorrechnet, offenbar einen außerordentlichen Buchgewinn:
"Laut einer Analyse der Financial Times vom April 2025 hatten sich die Aktien des Drohnenkomponentenherstellers Unusual Machines im Monat vor der Bekanntgabe vom 27. November 2024, dass Don Jr. als Berater verpflichtet worden war, nahezu verdreifacht.
Der Präsidentensohn hatte kostenlos 200.000 Aktien erhalten und weitere 131.000 zum Preis von 1,52 Dollar pro Stück erworben. Da der Kurs derzeit bei 17,28 Dollar liegt, wäre seine Beteiligung – sofern er sie nicht verkauft hat – 5,7 Millionen Dollar wert, also ein Buchgewinn von etwa 5,5 Millionen Dollar."
Ein Jahr nach dem Einstieg von Don Jr. als Berater, also Ende 2025, erhielt Unusual Machines laut Bericht der französischen Zeitung einen Pentagon‑Auftrag zur Herstellung von 3.500 Drohnenmotoren. Der zeitliche Zusammenhang lässt aufhorchen.
Zumal noch andere Investments in US-Waffenproduktion aus der Trump-Familie auffallen.
Namhafte Investoren, Merger und Börsengänge
So sind die beiden Söhne des US-amerikanischen Präsidenten, Eric und Donald Jr., "namhafte Investoren“ (DefenseNews [4]) eines neu gegründeten Unternehmens, das autonome Drohnen für das US-Militär herstellen will.
Die Rede ist von Aureus Greenway Holdings Inc., einer Holdinggesellschaft für Golfplätze, die mit dem Drohnenhersteller Powerus Corporation fusioniert hat.
Sollte dieses Unternehmen Aufträge vom US‑Verteidigungsministerium erhalten, so wäre man – wohl nicht nur bei Le Monde – wenig überrascht. Die Zeitung bleibt in ihrer Formulierung zurückhaltend. Man spricht von einer Möglichkeit: Es könnte so kommen.
Der Möglichkeitsraum dazu sieht wie folgt aus.
Dank der in den letzten Monaten erworbenen (100-prozentigen) Tochtergesellschaften – Kaizen Aerospace, Tandem Defense und Agile Autonomy – stellt Powerus Spezialdrohnen her, die, so Le Monde, für "Schwerlasttransporte (über 500 Kilogramm), taktische Verteidigung und maritime Überwachungssysteme ausgelegt sind".
"Das US-Verteidigungsministerium erhöht seine Drohnenkäufe massiv. Im Rahmen einer Initiative im Umfang von 1,1 Milliarden Dollar will das Pentagon die Drohnenbeschaffung stärken und die amerikanische Drohnenproduktion ausbauen."
"Anfang Februar ernannte das US‑Verteidigungsministerium Xtend zu einem der 25 Unternehmen, die eingeladen wurden, an der ersten Phase seines ‚Drone Dominance Program teilzunehmen – einer Beschaffungskampagne, die bis 2027 ein Gesamtvolumen von 1,1 Milliarden Dollar erreichen dürfte."
Die Trump-Regierung hat mit der Executive Order "Unleashing American Drone Dominance [10]" einen politischen Rahmen geschaffen, der die heimische Drohnenindustrie massiv fördern soll. Die Anordnung zielt darauf ab, Rüstungsaufträge zu beschleunigen und US-amerikanischen Herstellern Vorteile zu verschaffen.
Parallel dazu haben US-Behörden ausländische Drohnenhersteller – insbesondere die chinesischen Marktführer DJI und Autel – faktisch vom US-amerikanischen Markt ausgeschlossen [11]. Diese Maßnahmen schaffen einen geschützten Binnenmarkt für US-Unternehmen.
Verdacht auf Interessenkonflikte
Die Investitionen der Präsidentensöhne in Unternehmen, die Pentagon-Aufträge anstreben oder bereits erhalten haben, werfen Fragen auf, die man im Falle von autokratischen Regimes, die Gegner des Westens sind, mit einiger Verve verfolgen würde.
Der Fall Unusual Machines zeigt ein auffälliges Muster: Der Sohn des Präsidenten wird Berater, erhält Gratis-Aktien, deren Wert stark steigt, und ein Jahr später fließt der erste Pentagon-Auftrag.
Die komplexen Firmenkonstruktionen – etwa die Fusion von Powerus mit einer Golfplatz-Firma oder die geplante Börseneinführung von Xtend – erschweren die Nachvollziehbarkeit der Geldflüsse.
Während die Trump-Regierung öffentlich die US-amerikanische Drohnenindustrie fördert und ausländische Konkurrenz ausschaltet, investiert die Präsidentenfamilie gezielt in genau jene Unternehmen, die von diesen politischen Entscheidungen profitieren.
URL dieses Artikels: https://www.heise.de/-11207385
Steinzeitliche Jäger und Sammler kombinierten Pflanzen und Fisch nach festen Mustern. Keramik-Überreste belegen vielfältige Kochtraditionen vor 8000 Jahren.
Jäger und Sammler, die zwischen 6.000 und 3.000 v. u.Z. in Nord- und Osteuropa lebten, bereiteten offenbar weitaus vielfältigere Mahlzeiten zu als bislang angenommen. Sie wählten bestimmte Pflanzen gezielt aus und kombinierten diese mit spezifischen tierischen Zutaten – ein Verhalten, das auf echte kulinarische Traditionen hindeutet.
Das ist das zentrale Ergebnis einer am 4. März im Fachjournal PLOS Oneveröffentlichten Studie [1] eines internationalen Forschungsteams unter der Leitung von Lara González Carretero, Archäobotanikerin an der University of York in England.
"Wir glauben, dass diese kulinarischen Traditionen sehr weit in die Vergangenheit zurückreichen", sagte González Carretero. Bisher ging die Forschung davon aus, dass sich Elemente einer echten Küche – also die bewusste Zubereitung bestimmter Speisekombinationen – erst mit dem Beginn von Ackerbau und Viehzucht entwickelten. "Das geschah möglicherweise viel früher als gedacht", so die Forscherin.
Verkohlte Krusten als Fenster in die Vergangenheit
Für die Studie untersuchte das Team 85 Keramikscherben mit anhaftenden Speiseresten von 13 archäologischen Fundstätten, die sich von Russland bis nach Süddänemark erstrecken. Diese sogenannten "Foodcrusts" – verkohlte Essensrückstände, die an Töpfen haften bleiben – entstehen, wenn Menschen in Gefäßen kochen, ohne sie anschließend zu reinigen. Selbst nach mehrfachem Verbrennen bleiben winzige Zellstrukturen der ursprünglichen Zutaten erhalten.
"Was wir sehen, sind die tatsächlichen Zellen und Gewebe, die sich bestimmten Pflanzen und auch bestimmten Tieren zuordnen lassen", erklärte González Carretero. Manchmal seien sogar Samen oder Früchte mit bloßem Auge erkennbar.
Die Methode kombiniert mehrere Analyseverfahren: Zunächst werden die Krusten mit Stereomikroskopen und digitalen Mikroskopen untersucht. Anschließend kommt ein Rasterelektronenmikroskop (SEM) zum Einsatz, das pflanzliche oder tierische Strukturen im Detail sichtbar macht.
Ergänzend dazu werden Lipide – also Fettmoleküle – chemisch analysiert. Dieser kombinierte Ansatz ist entscheidend, denn die bislang übliche reine Lipidanalyse bevorzugt den Nachweis tierischer Produkte. Pflanzen enthalten weniger Öle, Wachse und Fette, weshalb ihre chemischen Signale von den Verbindungen aus Fisch überlagert werden.
Pflanzen waren allgegenwärtig
In 58 der 85 untersuchten Keramikscherben konnten die Forscher pflanzliche Gewebereste identifizieren – darunter Wildgräser, Hülsenfrüchte, Beeren, Blätter, Wurzeln und Knollen. Die chemische Analyse der Lipide zeigte hingegen vorwiegend Spuren von Süßwasserfisch und Schalentieren; nur wenige Proben enthielten Marker für Hirschfett oder Milchprodukte.
"Das zeigt wirklich die Allgegenwärtigkeit von pflanzlicher Nahrung in dieser Jäger-und-Sammler-Keramik", sagte Dimitri Teetaert, Archäologe an der Universität Gent in Belgien, der nicht an der Studie beteiligt war. "Pflanzliche Nahrung war für alle diese Jäger-Sammler-Fischer-Gemeinschaften wichtig."
González Carretero betonte [2] gegenüber dem Magazin Discover, dass bisherige Studien eine Verzerrung zugunsten tierischer Produkte aufwiesen: "Pflanzen wurden aufgrund der Schwierigkeiten, ihren Zusammenhang mit der menschlichen Ernährung nachzuweisen, übersehen."
Regionale Rezepte statt wahllosem Sammeln
Obwohl viele der identifizierten Pflanzen in der gesamten Region verbreitet waren, zeigten sich deutliche regionale Unterschiede in den Zutatenkombinationen.
"Diese Nahrungsmittel wachsen wirklich überall und sind für viele Menschen verfügbar, aber es scheint, dass sie nur bestimmte davon auswählen, um sie in die Töpfe zu geben", sagte Oliver Craig, archäologischer Wissenschaftler an der University of York und Co-Autor der Studie.
An Fundstätten am Don in Russland fanden sich in den Töpfen Spuren von wilden Hülsenfrüchten und Gräsern, die mit Süßwasserfisch kombiniert worden waren.
An der Wolga und an einem Fundort in Polen hingegen wurden Schneeballbeeren (Viburnum opulus) zusammen mit Fisch gekocht. Am dänischen Fundort Syltholm II wiederum identifizierten die Forschenden Wurzeln und Knollen – möglicherweise von Meerstrandrüben – zusammen mit Pflanzenteilen der Amaranthaceae-Familie und Fisch.
Besonders überraschend war laut González Carretero die weitverbreitete Verwendung eben jener Schneeballbeeren. Diese Beeren sind roh leicht giftig und schmecken unangenehm. "Sie schmecken furchtbar und riechen nach nassen Socken", beschrieb die Forscherin.
Doch beim Kochen verändere sich der Geschmack: Allein gekocht blieben die Beeren bitter, in Kombination mit Fisch würden sie jedoch süßer und "recht angenehm". Noch heute stellen Menschen in Teilen Japans und Russlands eine Art Fischgelee mit Preiselbeeren oder Schneeballbeeren her. In Osteuropa, darunter Polen, der Ukraine und Russland, haben die Beeren bis heute kulturelle Relevanz.
Ebenfalls überraschend war der Nachweis von Pflanzengewebe der Amaranthaceae-Familie – einer Gruppe, zu der unter anderem Rüben und Gänsefuß gehören. "Die Anwesenheit dieser Pflanzen als Teil von Speiserückständen ist der erste direkte Beleg für ihren Verzehr und ihre Rolle in der Ernährung vergangener Gemeinschaften", sagte González Carretero gegenüber Discover. Deren Nutzung als Nahrungsmittel war in der Archäobotanik lange umstritten.
Kochtradition und Keramikherstellung hängen zusammen
Die Ergebnisse deuten auch darauf hin, dass Kochtradition und Töpfertechnik miteinander verknüpft waren. Gefäße, die mit unterschiedlichen Herstellungstechniken gefertigt wurden, dienten offenbar der Zubereitung unterschiedlicher Speisen. Statistische Tests ergaben eine moderate, aber signifikante Korrelation zwischen Keramiktechnologie und kulinarischer Nutzung – auch dann, wenn der Einfluss des Standorts herausgerechnet wurde.
Diese Erkenntnis wirft auch ein neues Licht auf die Frage, warum Jäger und Sammler überhaupt begannen, Keramik herzustellen. Die Studie widerlegt laut den Autoren die These, dass die Töpfe vorwiegend zur Verarbeitung von Fischölen für nicht-kulinarische Zwecke wie Brennstoffe oder Dichtungsmittel dienten. Stattdessen zeigen die Speisereste, dass die Gefäße tatsächlich zum Kochen von Mahlzeiten verwendet wurden.
"Die gewählten Mischungen erzeugten wahrscheinlich neue Aromen und Texturen, die ohne Keramiktechnologie nicht verfügbar gewesen wären", sagte Teetaert. "Das könnte ein wichtiger Anreiz für die Übernahme der Töpfertechnologie gewesen sein."
Kontinuität über Jahrtausende
Die Studie zeigt auch, dass viele dieser wilden Nahrungsmittel selbst in der späteren Jungsteinzeit, als Menschen begannen, Pflanzen anzubauen und Tiere zu domestizieren, weiterhin genutzt wurden. "Sie haben nicht plötzlich Gerste, Weizen und Nutztiere gegen ihre wilden Nahrungsmittel eingetauscht", sagte González Carretero.
Jäger und Sammler hätten etabliertere Esstraditionen gehabt, als man gemeinhin annehme.
Das Forschungsteam plant, die Untersuchungen auf ein größeres geografisches Gebiet und einen längeren Zeitraum auszuweiten. Zudem soll erforscht werden, ob Umweltveränderungen die Kochgewohnheiten beeinflussten.
Die Autoren betonen, dass die Kombination aus Mikroskopie und chemischer Analyse künftig zum Standard werden sollte: "Ohne Pflanzen kennen wir die gesamte Ernährung und Esskultur dieser Menschen nicht wirklich", so González Carretero.
URL dieses Artikels: https://www.heise.de/-11207089
Links in diesem Artikel: [1] https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0342740 [2] https://www.discovermagazine.com/charred-food-in-ancient-pots-reveals-surprisingly-complex-prehistoric-european-cuisine-48772
OpenClaw automatisiert Büroaufgaben – doch China schränkt die Nutzung ein. Sicherheitsexperten warnen vor der "tödlichen Dreifaltigkeit".
Die Chinesen sind begeistert von Technologie – und so ist es nicht verwunderlich, dass die KI-Software OpenClaw bei ihnen reichlich Anklang gefunden hat. Schließlich verspricht sie einen erheblichen Nutzen, wenn sie über KI-Agenten Kalender verwalten, E-Mails senden und selbständig Themen recherchieren kann.
Doch sie weckt auch Zweifel, ob sie sicher ist, und deshalb hat die chinesische Regierung jetzt die Nutzung von OpenClaw in Behörden und staatlichen Stellen eingeschränkt.
Das Problem ist, was Experten als "tödliche Dreifaltigkeit" im digitalen Zeitalter nennen: eine Software, die autonom auf Daten zugreift, die Entscheidungen trifft, und die nach außen kommuniziert.
Staatliche Banken und Behörden erhalten Warnungen
Wie Bloombergberichtet [1], erhielten Behörden und staatliche Unternehmen, darunter Chinas größte Banken, in den vergangenen Tagen interne Warnungen. Sie wurden aufgefordert, keine OpenClaw-Software auf ihren Bürogeräten zu installieren.
Mitarbeiter, die das Tool bereits installiert hatten, mussten dies ihren Vorgesetzten melden, damit die Software auf Sicherheitsrisiken geprüft und gegebenenfalls entfernt werden konnte.
Bestimmten Beschäftigten staatlicher Banken untersagten die Behörden die Installation sogar auf privaten Mobiltelefonen, sofern diese das Firmennetzwerk nutzen. Für Familienangehörige von Militärangehörigen gelte das Verbot ebenfalls, so eine der Quellen, auf die sich Bloomberg beruft.
Das „tödliche Dreigespann" der Sicherheitsrisiken
OpenClaw funktioniert als autonomer KI-Agent, der Posteingänge leert, Kalender verwaltet, E-Mails versendet und eigenständig Recherchen durchführt.
Der vom österreichischen Entwickler Peter Steinberger geschaffene Open-Source-Assistent lässt sich auch mit Messaging-Diensten wie Slack oder WhatsApp verbinden. Genau darin sehen Experten für Cybersicherheit das Problem.
Kasimir Schulz, Direktor für Sicherheitsforschung beim KI-Sicherheitsunternehmen HiddenLayer, erklärte gegenüber [2]Bloomberg, die Software erfülle die Kriterien der "tödlichen Dreifaltigkeit": OpenClaw greift auf private Daten zu, kommuniziert nach außen und kommt mit nicht vertrauenswürdigen Inhalten in Berührung.
Ein konkreter Fall verdeutlicht die Risiken: Ein Nutzer berichtete, der Agent habe nach Zugriff auf iMessage über 500 Spam-Nachrichten an ihn, seine Ehefrau und an zufällige Kontakte verschickt.
Zudem warnen Forscher vor sogenannten Prompt-Injektionen, bei denen Angreifer bösartige Befehle als legitime Eingaben tarnen und so persönliche Daten stehlen können.
Steinberger selbst räumte ein, dass keine „vollkommen sichere" Konfiguration existiere und das Projekt sich an „technisch versierte Menschen" richte, „die die inhärenten Risiken von LLMs verstehen".
Tech-Konzerne setzen trotzdem auf OpenClaw
Trotz der Sicherheitsbedenken integrieren Chinas Tech-Giganten OpenClaw in ihre Produktpaletten. Tencent brachte mit Workbuddy ein Tool auf den Markt, das auf chinesische Büro- und Kommunikationsanwendungen zugreift, schreibt das [3]Wall Street Journal (WSJ).
ByteDance bietet mit ArkClaw eine cloudbasierte Variante an, die keine Installation erfordert. Alibaba entwickelte CoPaw für Messaging-Dienste wie DingTalk und Feishu.
Die Aktien des KI-Start-ups MiniMax stiegen seit dem Börsengang um fast 640 Prozent auf einen Marktwert von rund 49 Milliarden US-Dollar – befeuert durch die Veröffentlichung des eigenen Agenten MaxClaw.
Lokale Subventionen stehen im Widerspruch zum Verbot
Während die Zentralregierung in Peking die Nutzung einschränkt, fördern lokale Regierungen die Technologie aktiv. Der Bezirk Longgang in Shenzhen veröffentlichte einen Richtlinienentwurf, der kostenlose OpenClaw-Bereitstellungsdienste und Subventionen für die Entwicklung von Anwendungen vorsieht, so das WSJ.
Der Hightech-Bezirk Wuxi in der Provinz Jiangsu kündigte demnach Zuschüsse von bis zu fünf Millionen Yuan (rund 724.000 US-Dollar) für die industrielle Nutzung an.
Dieser Widerspruch spiegelt ein grundsätzliches Dilemma wider: Chinas Zentralregierung betrachtet unkontrollierte Datenzugriffe als Bedrohung der nationalen Sicherheit, während die Provinzen im internationalen KI-Wettbewerb nicht zurückfallen wollen.
Für Büroangestellte, die OpenClaw als „digitalen Mitarbeiter" schätzen, bleibt die entscheidende Frage offen: Wie lassen sich die Produktivitätsgewinne autonomer KI-Agenten nutzen, ohne die Kontrolle über sensible Daten zu verlieren?
URL dieses Artikels: https://www.heise.de/-11207219
Links in diesem Artikel: [1] https://www.bloomberg.com/news/articles/2026-03-11/china-moves-to-limit-use-of-openclaw-ai-at-banks-government-agencies [2] https://www.bloomberg.com/news/articles/2026-02-04/openclaw-s-an-ai-sensation-but-its-security-a-work-in-progress [3] https://www.wsj.com/tech/ai/chinas-openclaw-craze-buoys-tech-stocks-fuels-ai-pivot-f529bf4e
Smartphone mit TikTok-Logo vor chinesischer Flagge.
(Bild: Boumen Japet / Shutterstock.com)
Der TikTok-Verkauf an ein US-Konsortium ist durch. Eine Art Geoblocking verhindert nun für amerikanische Bürger den Download chinesischer Apps.
Apple ermöglicht es US-Bürgern nicht mehr, auf chinesische ByteDance-Apps zuzugreifen. Offenbar wurde die Entscheidung im Rahmen der Übernahme der US-Version von TikTok [1] durch amerikanische Investoren getroffen, berichtet [2] das Technik-Magazin Wired. Störend ist das offenbar auch für chinesische Nutzer: Diese können ihre Apps von ByteDance nicht aktualisieren, wenn sie sich innerhalb der USA befinden.
Vorher ging es ohne VPN
Laut dem Bericht war es bislang möglich, unter anderem Douyin, die chinesische Variante von TikTok, in den USA herunterzuladen oder zu aktualisieren. Einzige Voraussetzung war ein App-Store-Account, der in China registriert ist. Üblicherweise legt Apple Länderbeschränkungen anhand der Herkunft des App-Store-Accounts fest. Für ByteDance-Apps gilt das zumindest auf US-Gebiet offenbar nicht mehr: Man benötigt nun ein VPN (offenbar für China), um den Download anzustoßen. In den USA heißt es bei Download- und Update-Versuchen, dass die App „in dem Land oder der Region, in der Sie sich befinden, nicht verfügbar“ sei.
Weder Apple noch ByteDance kommentierten den Bericht. Denkbar ist, dass Apple versucht, sich an US-Recht zu halten. Der sogenannte Protecting Americans from Foreign Adversary Controlled Applications Act verbietet explizit Apps, die mehrheitlich von ByteDance kontrolliert werden. Die US-Variante von TikTok wird vom Joint Venture TikTok USDS betrieben, hinter dem unter anderem Investoren und Oracle stecken. ByteDance hält noch einen Anteil von 15 Prozent.
Die amerikanische Firewall
Üblicherweise nutzen chinesische User ein VPN, um Zugriff auf westliche Apps zu erhalten, die dank der „großen Firewall“ innerhalb der Volksrepublik gesperrt sind. In den USA ist es nun bei ByteDance-Apps andersherum. Neben Douyin sind auch Apps wie Doubao (KI-Chatbot) und die Romanleseplattform Fanqie Novel nicht mehr zugänglich.
Im vergangenen Jahr hatte Apple noch ein Supportdokument auf seiner Website, in dem erklärt wurde, warum TikTok und andere ByteDance-Apps aus dem Store verschwunden [3] waren – allerdings in der US-Version. Mittlerweile sind TikTok (die US-Version), CapCut (Schnittprogramm) und die Social-Media-Plattform Lemon8 im amerikanischen App Store wieder zugänglich. Dass der chinesische App Store auf US-Gebiet teilweise blockiert wird, ist eine neue Entwicklung.
URL dieses Artikels: https://www.heise.de/-11205594
Links in diesem Artikel: [1] https://www.heise.de/news/TikTok-USA-Behoerdliche-Genehmigungen-fuer-Verkauf-sollen-fertig-sein-11151264.html [2] https://www.wired.com/story/bytedance-apps-are-no-longer-available-in-us-app-stores/ [3] https://www.heise.de/news/TikTok-Bann-in-den-USA-Warum-Apple-und-Google-die-App-nicht-wieder-aufnehmen-10254290.html [4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [5] https://www.heise.de/mac-and-i [6] mailto:bsc@heise.de
Im Rahmen der Vorstellung des MacBook Neo gab Apples oberster Hardware-Verantwortlicher auch ein Interview. Zu einer zentralen Frage blieb er wortkarg.
John Ternus, Apples Senior Vice President of Hardware Engineering, und damit oberster Hardware-Chef des Konzerns, hat erstmals zu Spekulationen Stellung bezogen, dass ihm der CEO-Posten beim iPhone-Hersteller angetragen [1] werden soll. In einem TV-Interview anlässlich des Erscheinens des MacBook Neo [2] sagte er, die gute Nachricht sei, dass er den Job liebe, den er bereits habe.
Die tollsten Leute der Welt
„Ich darf mit den tollsten Leuten der Welt zusammenarbeiten, und an Tagen wie heute, an denen wir all diese Produkte vorgestellt haben, ist das der beste Ort, an dem man sein kann“, so Ternus gegenüber dem US-Sender ABC [3]. Auf die direkte Frage nach einem möglichen neuen Job ging er erwartungsgemäß nicht ein. Schon seit dem vergangenen Jahr hatte die Gerüchteküche immer wieder behauptet, Tim Cook stehe vor einem baldigen Abtritt.
In einem großen Artikel der Financial Times hieß es gar, der aktuelle CEO werde zwischen Januar und Juni 2026 den Posten verlassen [4]. Andere Medien ruderten dann allerdings zurück [5]. Geplant war demnach angeblich, dass er danach zum Chairman of the Board, also dem Verwaltungsratsvorsitzenden, wird, um seinen Nachfolger bei der Arbeit zu unterstützen. Cook war im vergangenen Jahr 65 Jahre alt geworden und füllt die CEO-Rolle im August seit 15 Jahren aus. Ternus ist Jahrgang 1975, also 50.
Über Apple Intelligence nicht nachdenken
In dem ABC-Interview wurde Ternus auch über ein aktuelles Problem bei Apple befragt: den Rückstand im KI-Bereich [6], den das Unternehmen mit Hilfe von Googles Gemini einholen will. Er denke, Apple Intelligence werde „wachsen“ und die Dinge künftig „besser und einfacher“ machen. Ternus' Idee von KI ist demnach, dass man sie am besten gar nicht bemerke oder die User nicht darüber nachdenken müssten. „Die haben dann einfach eine neue Funktion, die sie mehr und mehr nutzen werden, weil sie ihnen wirklich gut gefällt.“
Ternus zufolge ist Apple stets darauf konzentriert, den Kunden die richtige Nutzererfahrung zu liefern. Wann das bei Apple Intelligence der Fall sein wird, bleibt unklar. Derzeit soll es noch innerhalb von iOS 26 erste Verbesserungen für Siri geben, doch einen echten KI-Durchbruch erwarten Beobachter nicht vor iOS 27 [7] im Herbst.
URL dieses Artikels: https://www.heise.de/-11205590
MacBook Neo im Farbton Rosa alias „Blush“: Ja, es ist nicht das schnellste.
(Bild: Apple)
Erste Tests des neuen Einsteiger-MacBooks zeigen, wo sich die Hardware platziert. Die Frage ist, ob Einschränkungen den Alltag tangieren.
Heute ist es soweit: Das MacBook Neo [1] geht in die Auslieferung bei Vorbestellern, außerdem kommt es in die Apple-Läden und den Einzelhandel. Das billigste macOS-Notebook aller Zeiten kommt mit einigen Kompromissen, wie unser Test des Macbook Neo [2] zeigt. Käufer müssen sich bewusst sein, dass sie zum Preis ab 699 Euro (799 Euro maximal mit 512 GByte statt 256 GByte und Touch-ID-Funktion) kein Topgerät erhalten. Das Gesamtpaket dürfte den Markt dennoch aufwirbeln [3].
Vergleiche mit anderen Macs – und Apples Einsteiger-Smartphone
Beispiel SSD: Insbesondere die Variante mit 256 GByte lahmt. Moderne Mac-SSDs wie etwa die im MacBook Air M5 [4] erreichen das vierfache Tempo, in einzelnen Benchmarks [5] sind sogar bis zu achtmal mehr Leistung drin (MacBook Pro M5 Max mit 4 TByte). Ein Test ergab, dass das MacBook Air mit M1 und 512 GByte doppelt so schnell lesen konnte. Allerdings liegen uns bislang noch keine Daten zur 512-GByte-Variante des Neo vor. Üblicherweise sind größere SSDs [6] schneller als kleinere, da Apple diese anders anbindet [7]. Ob das bei iPhone-Chips wie im Neo auch der Fall ist, muss sich noch zeigen.
Wenig überraschend ist außerdem, dass der Chip (SoC) im Neo bereits vom iPhone 17e [8], Apples aktuellem Einsteiger-Smartphone, überholt wird. Im Neo steckt ein A18 Pro, der dem im iPhone 16 Pro entspricht, abzüglich eines GPU-Kerns (5 statt 6). Im iPhone 17e spielt hingegen der neuere A19 aus dem iPhone 17. Im Geekbench-Vergleich kommt das 17e so auf einen Mehr-Kern-Score von bis zu 9541 [9], während das Neo leicht darunter liegt [10]. Auch beim Einzel-Kern-Test liegt das 17e mit gut 200 Punkten vor dem Neo.
Das MacBook Air M4 ist ein Tipp
Die Frage ist nun, was das für die Praxis bedeutet. Im Mac & i-Test des Neo zeigte sich, dass Apple mit dem Neo ein interessantes Notebook gelungen ist: Die Verarbeitung ist Apple-typisch hochwertig, der Bildschirm in der Einstiegsklasse konkurrenzlos. Andere Tester kamen im Alltag gut mit dem Gerät klar, nutzten es sogar für – relativ ruckelfreien – Videoschnitt.
Ein Tipp bleibt allerdings, sich auch das MacBook Air M4 anzusehen, das Apple nun in den Abverkauf [11] geschickt hat, im Handel aber noch recht gut zu kriegen ist. Die Hardware ist noch besser verarbeitet, genauso leicht, hat bessere Schnittstellen, Tastatur mit Hintergrundbeleuchtung und ist deutlich flotter. Der Preis [12]: Für das 256-GByte-Modell unter 900 Euro, die 512-GByte-Variante kostet unter 1000 Euro.
URL dieses Artikels: https://www.heise.de/-11206762
Der März-Patchday von Adobe bringt Updates zum Schließen von Codeschmuggel-Lücken in Illustrator, Reader und weiteren Programmen.
Im März liefert Adobe am Patchday [1] Sicherheitsupdates für acht Programme. Sie schließen teils von Adobe als kritisch eingestufte Sicherheitslücken. Angreifer können dadurch etwa Schadcode einschmuggeln oder ihre Rechte ausweiten.
Die Patchday-Übersicht von Adobe [2] listet die acht Sicherheitsmitteilungen zu den einzelnen Produkten auf. In Adobe Commerce, Commerce B2B und Magento Open Source [3] schließen die Entwickler 19 Sicherheitslücken. Darunter sind mehrere Cross-Site-Scripting-Schwachstellen, von denen eine die Einstufung nach CVSS als kritisches Risiko nur knapp verpasst und die das Ausweiten der Rechte oder die Umgehung von Sicherheitsmaßnahmen ermöglichen. Insgesamt sechs davon stuft Adobe abweichend als kritische Bedrohung ein.
Ähnlich sieht es beim Illustrator aus [4]. Mehrere Schwachstellen erlauben das Einschleusen und Ausführen von beliebigem Code, fünf der sieben Lücken stuft Adobe als kritisch ein. In Acrobat DC, Acrobat Reader DC und Acrobat 2024 [5] klaffen drei Sicherheitslücken, von denen zwei Codeschmuggel erlauben und als kritisch eingestuft wurden. Wer den Substance 3D Stager [6] einsetzt, sollte die Updates zum Schließen der sechs als kritisch geltenden Sicherheitslücken anwenden, durch die Angreifer Schadcode einschmuggeln können.
Adobe: Weitere Updates schließen Sicherheitslücken
Aber auch im Adobe DNG Software Development Kit (SDK) [7] stopfen Softwareupdates teils kritische Lücken, in Adobe Premiere und Premiere Pro [8] gab es lediglich ein kritisches Leck abzudichten. Neun immer noch als „wichtig“ klassifizierte Sicherheitslücken bessert Adobe in Substance 3D Painter [9] aus. Im Adobe Experience Manager (AEM) schließen die Entwickler im März zudem 33 Cross-Site-Scripting-Sicherheitslecks, die jedoch lediglich einen CVSS-Wert von 5.4 erreichen. Adobe stuft die Lücken abweichend von der „mittleren“ Risikobewertung nach CVSS als „wichtig“ ein.
IT-Verantwortliche und Nutzer sowie Nutzerinnen der Adobe [10]-Software sollten die Aktualisierungen zeitnah anwenden. Im Februar hatte Adobe zum Patchday [11] Sicherheitslücken in neun Programmen geschlossen.
URL dieses Artikels: https://www.heise.de/-11206633
Am März-Patchday hat Microsoft 83 neue Schwachstellen ausgebessert. Zwei sind Zero-Day-Lücken. Attackiert wurde wohl noch keine.
Im März 2026 hat Microsoft [1] Aktualisierungen für 83 neue Schwachstellen am Patchday [2] in petto. Bei zwei der Lücken handelt es sich um Zero-Day-Schwachstellen. Immerhin wurde bislang offenbar noch keine davon in Angriffen im Netz missbraucht.
Microsoft selbst listet alle Schwachstelleneinträge, die das Unternehmen am März-Patchday veröffentlicht hat, in einer Übersicht auf [3]. Davon stufen die Entwickler acht als kritische Bedrohung ein – zum Großteil abweichend von der oftmals deutlich niedrigeren Risikobewertung nach CVSS-Wert.
Microsoft kümmert sich um Zero-Day-Lücken
Informationen zu einer Schwachstelle im SQL-Server, die die Ausweitung der Rechte ermöglicht (CVE-2026-21262 [4], CVSS 8.8, Risiko „hoch“) sowie eine Denial-of-Service-Lücke in .Net (CVE-2026-26127 [5], CVSS 7.5, Risiko „hoch“) sind laut Microsoft bereits öffentlich verfügbar. Sie wurden jedoch noch nicht angegriffen und Microsoft schätzt die Lage so ein, dass deren Missbrauch unwahrscheinlich bleibt.
Als kritisches Risiko stufen die Entwickler aus Redmond Lücken in Microsofts „ACI Confidential Containers“ in Azure ein. Angreifer können dadurch ihre Rechte erhöhen oder unbefugt auf Informationen zugreifen (CVE-2026-23651 [6], CVE-2026-26124 [7], beides CVSS 6.7, Risiko „mittel“, sowie CVE-2026-26122 [8], CVSS 6.5, Risiko „mittel“); Kunden müssen nichts unternehmen, Microsoft hat die Fehler serverseitig korrigiert. Etwas skurril mutet eine Sicherheitslücke in Microsofts Device Pricing Program an, durch die Angreifer Schadcode aus dem Netz einschleusen und hätten ausführen können (CVE-2026-21536 [9], CVSS 9.8, Risiko „kritisch“). Dasselbe gilt für eine Lücke in Microsofts Payment Orchestrator Service (CVE-2026-26125 [10], CVSS 8.6, Risiko „hoch“). Die hat Microsoft ebenfalls serverseitig geschlossen und informiert lediglich der Transparenz halber darüber.
In Microsoft Office erlauben zwei Sicherheitslücken das Einschleusen von Code aus dem Netz, etwa mittels sorgsam präparierter Dokumente. Dazu genügt bereits die Anzeige im Vorschaufenster (CVE-2026-26110 [11], CVE-2026-26113 [12], CVSS 8.4, Risiko „hoch“). In Excel können bösartige Akteure die Sandbox des Copilot-Agent-Modus umgehen und dabei unbefugt Informationen ins Netz ausleiten. Es handelt sich um eine Zero-Click-Lücke (CVE-2026-26144 [13], CVSS 7.5, Risiko „hoch“).
Angreifer können den Windows-Druckerspooler mit manipulierten Netzwerkpaketen zur Ausführung von eingeschmuggeltem Schadcode bewegen. Dazu benötigen sie jedoch zumindest niedrige Berechtigungen auf dem Zielsystem (CVE-2026-23669 [14], CVSS 8.8, Risiko „hoch“). Am Ende listet Microsoft noch zehn Schwachstellen im Chromium-Projekt auf, die mit aktuellen Edge-Updates geschlossen werden. Die hat Google in Chrome bereits in der vergangenen Woche [15] ausgebessert. Die Updates für Windows bringen Secureboot-Zertifikatsaktualisierungen für mehr Geräte und etwa auch für Windows-10-Systeme mit.
Diverse weitere Sicherheitslücken betreffen zahlreiche Produkte und Dienste aus dem Microsoft-Portfolio. IT-Verantwortliche sollten daher die Microsoft-Übersicht durchsehen und in der eigenen Organisation eingesetzte, anfällige Produkte auf den aktuellen Stand bringen.
Im Februar hatte Microsoft am Patchday [16] mehrere Sicherheitslücken schließen müssen, die bereits im Internet attackiert wurden. Sechs der dort geschlossenen Sicherheitslücken haben Kriminelle bereits vor dem Patchday missbraucht.
URL dieses Artikels: https://www.heise.de/-11206553
Wer sich Zeit nimmt, ein Problem zu verstehen, bevor er es löst, ist am Ende schneller. Ein Erfahrungsbericht über einen kontraintuitiven Entwicklungsprozess.
Es gibt einen Spruch, der vor allem durch die Navy SEALs bekannt geworden ist:
„Slow is smooth and smooth is fast.“
Gemeint ist damit, dass übereiltes Handeln zu Fehlern führt, die am Ende mehr Zeit kosten als die vermeintlich gesparte. Wer hingegen ruhig und kontrolliert vorgeht, arbeitet präziser, macht weniger Fehler und erreicht das Ziel paradoxerweise früher. In Hochdrucksituationen, in denen Sekunden über Erfolg und Misserfolg entscheiden, mag das kontraintuitiv klingen. Doch genau dort hat sich dieses Prinzip bewährt.
In der Softwareentwicklung begegnet mir ein ähnliches Muster. Die Branche steht unter permanentem Zeitdruck, Deadlines sind eng, Anforderungen ändern sich laufend, und der Reflex, so schnell wie möglich Code zu schreiben, ist tief verankert. Fortschritt wird oft daran gemessen, wie schnell neuer Code entsteht. Doch gerade dieser Reflex führt häufig dazu, dass Projekte am Ende länger dauern als nötig. Die Parallele zu den Navy SEALs ist frappierend, und ich bin überzeugt, dass ihr Grundsatz einer der wertvollsten Ratschläge ist, den Softwareteams beherzigen können.
Wenn Geschwindigkeit zur Falle wird
Die Versuchung liegt auf der Hand: Ein neues Feature steht an, die Anforderungen scheinen klar, also öffnet man den Editor und beginnt zu tippen. Schließlich wird Software in Code gemessen, nicht in Whiteboard-Skizzen. Je früher Code entsteht, desto früher ist man fertig. So zumindest die gängige Annahme.
Die Realität zeichnet ein anderes Bild. Code, der ohne gründliche Vorüberlegung entsteht, basiert auf impliziten Annahmen. Jede und jeder im Team hat eine eigene Vorstellung davon, wie die Lösung funktionieren soll, aber diese Vorstellungen werden selten abgeglichen. Die Annahmen stellen sich oft erst spät als falsch heraus, etwa wenn sich zeigt, dass die gewählte Schnittstelle für die tatsächlichen Anwendungsfälle ungeeignet ist oder dass ein Sonderfall die gesamte Architektur infrage stellt. Was harmlos begann, wird zum strukturellen Problem.
Was dann folgt, sind Korrekturschleifen. Nicht eine, sondern mehrere. Dazu kommen Diskussionen, die man besser vorher geführt hätte, Refactorings, die im Grunde Neuschreibungen sind, und eine wachsende Menge an technischen Schulden. Der Code, der so schnell entstanden ist, muss erklärt, verteidigt und überarbeitet werden. Aus dem vermeintlich schnellen Start wird ein zähes, kostspieliges Nacharbeiten.
Das Tückische daran ist, dass dieser Effekt selten sichtbar wird. Niemand misst, wie viel Zeit ein Team mit Nacharbeit verbringt, die bei besserem Vorgehen vermeidbar gewesen wäre. Die Stunden versickern in Bugfixes, in „kleinen Anpassungen“ und in Meetings, in denen man klärt, was man vorher hätte klären sollen. Die anfängliche Geschwindigkeit war eine Illusion.
Ein Experiment zu zweit
Vor etlichen Jahren haben ein Kollege und ich einen Entwicklungsprozess etabliert, der von außen betrachtet geradezu verschwenderisch wirkte. Wann immer wir ein neues Modul oder eine neue Komponente entwickeln sollten, haben wir nicht als Erstes den Editor geöffnet. Stattdessen sind wir ans Whiteboard gegangen.
Dort haben wir das Problem von der anderen Seite her aufgerollt: Nicht „Wie bauen wir das?“, sondern „Wie soll es sich anfühlen, wenn jemand diesen Code verwendet?“ Diese Frage klingt simpel, aber sie verändert die gesamte Perspektive. Das Prinzip ist unter dem Begriff „Working backwards [1]“ bekannt, wie es unter anderem bei AWS praktiziert wird. Man beginnt beim gewünschten Ergebnis und arbeitet sich von dort zurück zur Implementierung.
Konkret bedeutete das: Wir haben am Whiteboard Codebeispiele skizziert. Nicht den internen Aufbau, sondern die öffentliche Schnittstelle. Wie würde eine Entwicklerin oder ein Entwickler dieses Modul aufrufen? Welche Parameter wären intuitiv? Welche Rückgabewerte würden erwartet? Welche Fehlerfälle müsste man behandeln, und wie sollte das aussehen?
Dieses Vorgehen erzwang, dass wir uns intensiv mit der Domäne und den Anforderungen auseinandersetzten, bevor eine einzige Zeile produktiven Codes entstand. Es zwang uns, Fragen zu stellen, die beim sofortigen Losprogrammieren untergegangen wären. Häufig stellten wir dabei fest, dass unsere anfänglichen Vorstellungen von der Schnittstelle nicht tragfähig waren. Dann haben wir das Whiteboard gewischt und von vorn begonnen, so oft wie nötig. Das kostete trotzdem nur Stunden, keine Tage oder gar eine Woche.
Am Ende dieser Phase hatten wir ein gemeinsames, explizites Verständnis davon, was wir eigentlich bauen wollten. Nicht ungefähr, nicht implizit, sondern konkret und greifbar. Wir konnten jedem im Team erklären, warum die Schnittstelle genau so aussehen sollte und nicht anders. Diese Klarheit war kein Nebenprodukt, sie war das eigentliche Ziel.
Wegwerfen als Investition
Nach der Whiteboard-Phase folgte ein Schritt, der auf den ersten Blick noch ungewöhnlicher wirkt: Wir haben einen Prototyp geschrieben, mit dem klaren Vorsatz, ihn anschließend wegzuwerfen. Kein sauberer Code, keine Tests, keine Dokumentation. Nur ein schneller, funktionaler Durchstich, um unsere Thesen zu überprüfen.
Dieser Prototyp diente ausschließlich dem Lernen. Am Whiteboard kann man vieles klären, aber bestimmte Dinge zeigen sich erst, wenn man tatsächlich Code schreibt. Theorie und Praxis klaffen in der Softwareentwicklung oft weiter auseinander, als man wahrhaben möchte. Wie verhält sich die Schnittstelle, wenn man sie wirklich benutzt? Wo fühlt sie sich sperrig an? Welche Randfälle tauchen auf, an die man nicht gedacht hat? Wo hat man die Komplexität über- oder unterschätzt? Welche Abhängigkeiten ergeben sich, die auf dem Whiteboard nicht sichtbar waren?
Der entscheidende Punkt war, dass dieser Prototyp keine Verpflichtung mit sich brachte. Weil von Anfang an feststand, dass er weggeworfen würde, konnten wir frei experimentieren. Es gab keinen Druck, die einmal gewählte Struktur beizubehalten, nur weil schon Code da war. Wir konnten Sackgassen ohne schlechtes Gewissen verlassen und Alternativen ausprobieren. Wir konnten Fehler machen, ohne dass diese Fehler sich in der Codebasis festsetzten.
Das Wegwerfen selbst fiel erstaunlich leicht. Nicht, weil uns der Code egal war, sondern weil das eigentliche Ergebnis dieser Phase nicht der Code selbst war. Das Ergebnis war Erkenntnis: ein tiefes, praktisches Verständnis dafür, wie die Lösung aussehen sollte und welche Fallstricke zu vermeiden waren. Dieses Verständnis ließ sich nicht durch Nachdenken allein gewinnen. Es brauchte die Erfahrung des Tuns, das Scheitern in einer sicheren Umgebung.
Die finale Fassung mit Rückenwind
Erst im dritten Anlauf haben wir den eigentlichen, produktiven Code geschrieben. Und hier zeigte sich der Lohn der Vorarbeit: Das Schreiben ging bemerkenswert schnell. Nicht, weil wir uns beeilten, sondern weil wir wussten, was wir taten. Die Unsicherheit, die normalerweise jede Entwicklung begleitet, war weitgehend verschwunden. An ihre Stelle war Zuversicht getreten.
Die Architektur stand, die Schnittstellen waren durchdacht, die typischen Stolperstellen waren bekannt. Wir mussten nicht mehr experimentieren oder grundlegende Entscheidungen treffen, denn das hatten wir bereits hinter uns. Stattdessen konnten wir uns darauf konzentrieren, sauberen, gut strukturierten Code zu schreiben, der von Anfang an den Qualitätsansprüchen genügt.
Genau in dieser Phase kamen auch Tests und Dokumentation hinzu. Beides fällt erheblich leichter, wenn man die Lösung verstanden hat und nicht im Nebel stochert. Tests für eine durchdachte Schnittstelle zu schreiben, ist keine Last, sondern eine Bestätigung. Man weiß, welche Fälle relevant sind, und kann sie gezielt abdecken. Und Dokumentation für ein Modul zu verfassen, dessen Designentscheidungen man bewusst getroffen hat, ist keine Pflichtübung, sondern eine natürliche Ergänzung.
Das gesamte Vorgehen fand im Pair-Programming statt. Zwei Personen am selben Problem, von der Whiteboard-Diskussion über den Prototyp bis zum fertigen Code. Auch das wirkt auf den ersten Blick teuer: Zwei Entwicklerinnen oder Entwickler für eine Aufgabe, das ist doch doppelter Aufwand? Die Praxis erzählte eine andere Geschichte. Vier Augen sehen mehr als zwei, und der ständige Dialog verhindert, dass sich jemand in eine Sackgasse verrennt, ohne es zu bemerken. Was wir an scheinbarer Effizienz aufgaben, gewannen wir an Qualität und Geschwindigkeit zurück.
„Wie könnt ihr euch das leisten?“
Wann immer ich diesen Prozess beschrieben habe, war die häufigste Reaktion eine Mischung aus Interesse und Unglauben. Die Fragen lauteten: „Wie könnt ihr euch das leisten?“ und „Wie bringt ihr eure Kunden dazu, das mitzumachen?“
Die Antwort war einfacher, als die meisten erwartet haben: Wir waren schneller und günstiger als andere. Nicht trotz, sondern wegen dieses Vorgehens. Das klingt nach einer bequemen Behauptung, aber die Zahlen stützten sie.
Der Grund liegt in einer Beobachtung, die sich über Jahre hinweg immer wieder bestätigt hat: Unser Code hat beim ersten echten Versuch mit einer überdurchschnittlich hohen Rate funktioniert. Er war weitgehend fehlerfrei, die Schnittstellen passten zu den tatsächlichen Anforderungen, und die Architektur trug auch dann noch, wenn später Erweiterungen hinzukamen. Was auf dem Papier nach Mehraufwand aussah, war in Wahrheit eine Abkürzung.
Was auf der anderen Seite wegfiel, war erheblich: keine endlosen Korrekturschleifen, keine späten Architekturentscheidungen unter Druck, keine Wochen, in denen das Team im Grunde damit beschäftigt war, frühe Fehler zu reparieren. Kein mühsames Debugging von Code, den man vor drei Wochen geschrieben und inzwischen halb vergessen hatte. Keine hitzigen Diskussionen darüber, ob man den bestehenden Ansatz noch retten kann oder doch lieber neu anfangen sollte. Für unsere Kundinnen und Kunden bedeutete das: zuverlässigere Zeitpläne, weniger Überraschungen und am Ende niedrigere Gesamtkosten.
Der Prozess sah langsamer aus, weil die erste sichtbare Codezeile später entstand. Aber die erste sichtbare Codezeile ist nicht der relevante Messpunkt. Relevant ist, wann funktionierende, zuverlässige Software ausgeliefert wird. Und diesen Punkt haben wir regelmäßig früher erreicht als Teams, die vom ersten Tag an in die Tasten gehauen haben.
Schnell geschriebener Code ist nicht besserer Code
Heute, zahlreiche Jahre später, hat sich das Umfeld grundlegend verändert. KI-gestützte Werkzeuge erzeugen Code in einem Tempo, das noch vor Kurzem undenkbar war. Ein gut formulierter Prompt liefert in Sekunden, wofür früher Stunden nötig waren. Die Geschwindigkeit der Codeerzeugung hat sich vervielfacht, und die Werkzeuge werden mit jeder Generation leistungsfähiger.
Doch Geschwindigkeit bei der Codeerzeugung ist nicht dasselbe wie Geschwindigkeit bei der Problemlösung. Eine KI kann beeindruckend schnell Code produzieren, aber sie kann nicht wissen, ob dieser Code das richtige Problem löst. Sie kann eine Schnittstelle implementieren, aber nicht beurteilen, ob diese Schnittstelle für die tatsächlichen Anwendungsfälle sinnvoll ist. Sie kann Tests generieren, aber nicht entscheiden, welche Fälle wirklich kritisch sind und welche nur Rauschen erzeugen.
Was KI-Werkzeuge im Kern tun, ist verstärken. Sie verstärken das, was man hineinsteckt. Wer genau weiß, was die Lösung leisten soll, wie die Schnittstellen aussehen müssen und welche Randfälle zu beachten sind, bekommt von einer KI beeindruckend guten Code in kürzester Zeit. Die Maschine wird zum Beschleuniger für eine klare Idee. Wer diese Klarheit nicht hat, bekommt schneller das Falsche. Und falscher Code, der in Sekunden statt in Stunden entstanden ist, bleibt falscher Code. Er muss genauso überarbeitet, korrigiert und im schlimmsten Fall weggeworfen werden. Die KI hat dann nichts beschleunigt, sie hat nur die Illusion von Fortschritt erzeugt.
Und genau hier schließt sich der Kreis zum dreistufigen Prozess. Die Phase am Whiteboard, das Durchdenken der Verwenderperspektive, das bewusste Experimentieren mit einem Wegwerf-Prototyp: All das liefert genau die Klarheit, die man braucht, um KI-Werkzeuge sinnvoll einzusetzen. Man füttert die KI nicht mit vagen Vorstellungen, sondern mit präzisen Anforderungen. Die KI übernimmt dann den Teil, der tatsächlich beschleunigt werden kann: das Schreiben von Code, dessen Richtung bereits feststeht.
Die Versuchung ist groß, diesen Schritt zu überspringen. Wenn Code so billig zu erzeugen ist, warum nicht einfach ausprobieren und schauen, was passiert? Die Antwort ist dieselbe wie vor zwanzig Jahren: Weil das Erzeugen von Code nie der Engpass war. [2] Der Engpass war und ist das Verstehen. Und Verstehen lässt sich nicht beschleunigen, indem man schneller tippt, ob mit oder ohne KI.
Langsam anfangen, um schnell anzukommen
„Slow is smooth and smooth is fast.“ Dieser Grundsatz der Navy SEALs hat nichts an Gültigkeit verloren, auch nicht in einer Zeit, in der Maschinen Code schneller schreiben als jeder Mensch.
Bewusst Tempo herauszunehmen, sich die Zeit zu geben, ein Problem wirklich zu durchdringen, bevor man es löst, fühlt sich an wie ein Luxus, den man sich nicht leisten kann. Die Erfahrung zeigt jedoch das Gegenteil: Es ist eine Investition, die sich zuverlässig auszahlt. In weniger Fehlern, in weniger Nacharbeit, in kürzerer Gesamtdauer und in Code, der nicht nur funktioniert, sondern trägt. In Teams, die weniger streiten und mehr liefern.
Ob man diesen Code dann selbst schreibt oder von einer KI schreiben lässt, ist zweitrangig. Entscheidend ist, dass man weiß, was man will, bevor man anfängt. Erst denken, dann experimentieren, dann bauen. In dieser Reihenfolge. Daran hat sich in all den Jahren nichts geändert.
URL dieses Artikels: https://www.heise.de/-11175199
Links in diesem Artikel: [1] https://aws.amazon.com/de/blogs/smb/working-backwards-to-drive-customer-experience-and-smb-innovation-forward/ [2] https://www.heise.de/blog/Der-wahre-Engpass-Warum-schnelleres-Coden-Projekte-nicht-beschleunigt-11162879.html [3] mailto:rme@ix.de
Altlasten loswerden, Sicherheit verbessern und mehr Flexibilität: Das verspricht der Wechsel zu Kmscon, eine neue Technik für Virtual Terminals.
Startmeldungen und klassische Textkonsolen landen bei Linux wahrscheinlich bald ganz anders auf dem Schirm. Das soll einigen altbackenen und unsicheren Techniken aus der Anfangszeit des Kernels endlich den Garaus machen. Ähnlich wie Wayland ändert dieser über ein Jahrzehnt vorbereiteter Wandel oberflächlich wenig, erfordert zugleich aber Umdenken von Anwendern. Allerdings nur jenen, die damit in Berührung kommen – etwa wenn Kernel oder Desktop-Umgebungen nicht starten.
Einen der letzten und zugleich entschiedenen Schritte des Wandels plant gerade Fedora als erste große Distribution. Nicht mehr der Kernel soll auf Tastenkombinationen wie Strg+Alt+F3 die Virtual Terminals (VT) erzeugen, sondern das Programm Kmscon soll die „Textkonsolen“ bereitstellen. Ursprünglich sollte der Wechsel schon in der im April erwarteten Version 44 vollzogen werden, wurde aber Mitte Februar ohne Nennung von Gründen auf Fedora 45 verschoben, was voraussichtlich im Oktober 2026 erscheint.
Bei x86-Systemen war die Bezeichnung Textkonsole früher adäquat, denn da hat bei VTs tatsächlich die Grafikkarte die Zeichen gerendert und ausgegeben, die sie vom Kernel erhielt. Etwa Log-Meldungen des Kernels beim Systemstart oder bei VTs die von Getty gelieferten Zeichen sowie von darüber gestarteten Shells und Anwendungen.
Altlasten und ihre Probleme
Bei modernen Systemen rendert hingegen meist der Kernel die VTs. Dazu nutzt er Framebuffer-Konsolen (Fbcon), die mit geeigneten Fonts auch Unicode-Zeichen darstellen können. Dazu braucht der Kernel aber zumindest einen rudimentären Grafiktreiber. Auf 64-Bit-x86-Systemen ist das schon lange fast immer einer, der auf dem Direct Rendering Manager (DRM) des Kernels aufbaut; zumeist ein nativer Treiber wie Amdgpu, i915 oder Nouveau, manchmal aber auch der generische Simpledrm, der bei EFI-Systemen das Bild via Graphics Output Protocol (GOP) ausgibt. Fbcon nutzt DRM-Treiber allerdings nur über eine Emulationsschicht für Frame-Buffer-Geräte (Fbdev). Auf diesen älteren Ansatz für Kernel-Grafiktreiber haben viele Embedded-Systeme noch lange gesetzt, doch auch dort haben sich DRM-Treiber jüngst durchgesetzt.
Die Kern-Crew hinter DRM hätte Fbdev und Fbcon am liebsten schon vor Jahren eliminiert. Beide sind Jahrzehnte alt und weisen durch strukturelle Schwächen wahrscheinlich zahlreiche Sicherheitslücken auf. Eine davon wurde vor Jahren bekannt und war nicht ohne Weiteres lösbar. Die Entwickler haben sie daher mehr umschifft denn beseitigt, indem sie unter anderem die Fbcon-Funktion zum Scrollen mit den Tastenkombinationen Umschalt+Bild-auf und -ab (Scrollback) bei Linux 5.9 deaktiviert haben – zum Ärger von so manch altem Linux-Hasen.
Dieses Schicksal ereilte aufgrund von Lücken damals auch den Fbdev-Code, der die Bildausgabe mit dem Grafikkern beschleunigen konnte. Die „Fbdev Acceleration“ kam zwar zurück, allerdings muss man sie wegen ihrer bekannten Schwächen explizit beim Übersetzen des Kernels aktivieren. In den meisten Mainstream-x86-Distributionen ist die Ausgabebeschleunigung wegen potenzieller Sicherheitsgefahren bewusst nicht eingeschaltet. Dort ist die Funktion ohnehin nicht sonderlich relevant, denn kaum einer der gängigen DRM-Treiber unterstützt sie. Bei modernen Systemen geben VTs große Textmengen in der Standardkonfiguration daher vielfach nur träge aus.
Merkmale der Software Kmscon
Textkonsole mit Kernel Mode Setting
Einen moderneren Ansatz hat David Rheinsberg, besser bekannt unter seinem vorherigen Namen David Herrmann, schon Ende 2011 mit der Software „Kmscon“ vorgestellt. Diese realisiert die VTs im Userspace, kümmert sich also selbst um das Rendern, statt es dem Kernel zu überlassen. Die Bildausgabe erfolgt dabei via Kernel Mode Setting (KMS) von DRM, über das auch moderne Desktop-Umgebungen die von ihnen gerenderte Oberfläche zum Monitor schicken.
Fbdev und Fbcon umgeht Kmscon so komplett. Doch auch unabhängig davon verspricht der neue Ansatz, die Sicherheit zu verbessern: Ein böser Bug im Code der beiden Altlasten erlaubt womöglich eine Übernahme des Systems, während ein Fehler in Kmscon lediglich die Sitzung betrifft oder Kmscon abstürzen lässt.
Die Entwicklung der Software schlief 2014 allerdings weitgehend ein. 2022 nahm sie dann aber wieder an Fahrt auf. Auch neue Versionen erschienen mittlerweile wieder, zuletzt im Januar Kmscon 9.3.0. Haupttriebkraft dahinter ist Red-Hat-Mitarbeiter Jocelyn Falempe. Er organisiert seit einigen Monaten parallel den Umstieg auf Kmscon bei der für Herbst 2026 erwarteten Version 45 von Fedora Linux; bei aktuellen Fedora-Versionen lässt sich Kmscon bereits mit wenigen Handgriffen ausprobieren.
Kmscon ist schärfer und schneller
Von einer leicht anderen und schärferen Schriftart abgesehen sieht ein mit Kmscon erzeugtes VT auf zwei Testsystemen aber genauso aus wie ein klassisches mit Fbcon. Es gibt größere Textmengen aber viel schneller aus. Auf Wunsch kann es die Bildkomposition auch per OpenGL und somit hardwarebeschleunigt erledigen, braucht dazu dann aber einen 3D-Treiber. Bei Kmscon funktioniert auch das altbekannte Scrollback wieder. Weitere Vorteile: Tastaturbelegungswechsel per Shortcut, bessere Unicode-Unterstützung, flexibleres Multiseat-Handling, Support zur Bildschirmdrehung sowie simple Mausunterstützung samt Copy & Paste.
Ein Virtuelles Terminal mit Kmscon rendert die Schrift schärfer und scrollt größere Textmengen viel schneller, sieht aber sonst nicht viel anders aus.
Das Virtuelel Terminal von Fbcon erkennt man an der gröberen Schrift. Auch unter der Haube hat es etliche Nachteile.
Letzteres lässt sich bei klassischen VTs über gpm realisieren, das unter Kmscon nicht funktioniert. Das Gleiche gilt auch für altbekannte Werkzeuge wie loadkeys oder setfont zum Setzen von Tastaturbelegung oder Schriftart, denn die sind für Fbcon gemacht. Zum händischen Start von grafischen Oberflächen muss man das Skript kmscon-launch-gui anstelle klassischer Befehle wiestartxnutzen. Damit kommen die meisten Nutzer ohnehin nicht mehr in Kontakt.
Alte Techniken angezählt, aber vorerst dabei
Fbdev und Fbcon bleiben bei Fedora Linux vorerst aber weiter aktiv, damit der Kernel gleich vom Start weg Log-Meldungen ausgeben kann, noch bevor überhaupt an einen Aufruf von Userspace-Anwendungen wie Kmscon zu denken ist. Diese Aufgabe dürfte mittelfristig die Kernel-Funktion DRM Log übernehmen, die Jocelyn Falempe vor gut einem Jahr zu Linux 6.14 beigesteuert hat. Der dahinterstehende Code basiert zum Teil auf jenem von DRM Panic, der ebenfalls von Falempe stammt. Durch diese Funktion kann Linux seit Version 6.10 bei fatalen Kernel-Fehlern verlässlich Fehlerinformationen ausgeben, ähnlich wie Windows mit einem Blue Screen. Seit Linux 6.12 geht das optional auch als QR-Code. Die Grafiktreiber müssen DRM Log und DRM Panic allerdings unterstützen, was bei den gängigen DRM-Treibern des Kernels aber mittlerweile der Fall ist. Der quelloffene Kernel-Treiber von Nvidias hauseigenem Grafiktreiberstack beherrscht DRM Log und DRM Panic allerdings bislang nicht.
Bei Kmscon rendert statt des angestaubten Fbcon-Subsystems des Kernels ein Userspace-Programm die virtuellen Terminals (VT). Kmscon gibt das Bild nicht über das alte Fbdev, sondern direkt über das modernere DRM-Subsystem aus. Sowohl diese Verlagerung als auch die Umgebung der beiden Altlasten sollen die Sicherheit verbessern.
DRM Log bietet viel weniger Angriffsfläche als Fbcon, weil es viel simpler ist: Es beherrscht die Bildausgabe eines überschaubaren Zeichensatzes, aber keine Tastatureingaben. Für eine Rescue-Shell im Falle von Boot-Problemen eignet es sich daher nicht. Auch für diese nutzt Fedora daher vorerst weiter Fbcon; mittelfristig dürfte Kmscon diesen Job übernehmen, muss dazu aber ins Initramfs, was dieses größer macht. Bei Problemen mit dem Grafiktreiber braucht man diesen Rettungsanker auf modernen Systemen aber normalerweise ohnehin nicht. Dort reicht es zumeist, das Laden des nativen Kernel-Treibers zu untersagen, sodass Simpledrm übernimmt.
Alles in allem gibt es also noch einiges zu tun, bis Fedora und andere Mainstream-Distributionen Fbdev und Fbcon deaktivieren können. Wie bei jedem Technikwechsel werden in der Anfangsphase zudem noch allerlei Bugs und fehlende Features auftauchen. Das und die Hinfälligkeit von Loadkeys, Startx & Co. wird einigen Anwendern missfallen; ferner werden die immer rarer werdenden Systeme, für die es nur Fbdev-Grafiktreiber gibt, durch die Abkehr von Fbdev und Fbcon bei manchen Distributionen hintenüberfallen.
Gegenwind ist daher wahrscheinlich, ähnlich, wie er Systemd oder Wayland immer wieder ins Gesicht bläst. Aber das ist wie mit einer Grundrenovierung einer Wohnung: Viel Arbeit, bei der immer auch manch Liebgewonnenes verloren geht, aber wenn man es vernünftig macht, ist es das Ganze letztlich wert.
URL dieses Artikels: https://www.heise.de/-11179998
Links in diesem Artikel: [1] https://www.heise.de/hintergrund/Linux-Wie-Kmscon-virtuelle-Textkonsolen-modernisiert-11179998.html [2] https://www.heise.de/hintergrund/Linux-Fehlende-Bibliotheken-bei-Programmen-ergaenzen-11166039.html [3] https://www.heise.de/hintergrund/eBPF-Wie-der-Kernel-programmierbar-wurde-10627880.html [4] https://www.heise.de/ratgeber/Linux-Mit-Systemd-Timer-Dienste-und-Jobs-flexibel-planen-und-Cron-abloesen-11091833.html [5] https://www.heise.de/ct [6] mailto:ktn@heise.de
Haushalte zahlen für 100 Liter Heizöl bis zu 162 Euro – vor zwei Wochen waren es noch 90. Und auch eine Gaspreisbremse lehnt die Bundesregierung bislang ab.
Heizöl hat sich binnen zehn Tagen um rund 65 Prozent verteuert.Bild:
Weishaupt
Seit Beginn des Irankriegs am 28. Februar 2026 und der anschließenden Sperrung der Straße von Hormus erleben deutsche Haushalte den schwersten Energiepreisschock seit 2022. Heizöl hat sich binnen zehn Tagen um rund 65 Prozent verteuert, die Preise an der Gasbörse TTF verdoppelten sich zwischenzeitlich – und die Bundesregierung lehnt eine neue Preisbremse bislang ab. Für die rund 20 Millionen Haushalte, die mit Gas oder Öl heizen, bedeutet das: handeln, vergleichen, umdenken.
155 bis 162 Euro pro 100 Liter – Heizölpreise auf Zweijahreshoch
Vor Kriegsbeginn kosteten 100 Liter Heizöl bei einer 3.000-Liter-Abnahme zwischen 85 und 96 Euro ( Tecson , Esyoil ). Am 9. März 2026 notierte der Durchschnittspreis laut tanke-guenstig.de bei rund 155 bis 162 Euro pro 100 Liter – das höchste Niveau seit Sommer 2022. Eine 3.000-Liter-Bestellung kostet damit rund 4.650 Euro statt zuvor 2.700 Euro.
Die Ursachen sind klar: Die Blockade der Straße von Hormus unterbricht etwa 20 Prozent des globalen Öl- und LNG-Transits, katarische LNG-Anlagen wurden durch Drohnen beschädigt und Händler kalkulieren hohe Risikoaufschläge ein. Lieferzeiten liegen bei bis zu acht Wochen.
Gaskunden sind kurzfristig weniger betroffen, weil bestehende Lieferverträge puffern. Derzeit zahlen Neukunden laut 1-gasvergleich.com 8 bis 8,3 Cent pro Kilowattstunde, Bestandskunden im Schnitt 9,94 Cent. Die Grundversorgung liegt bei 13,6 Cent (Stand 8. März 2026).
Doch der Großhandel signalisiert Alarm: Der TTF-Gaspreis sprang von rund 32 Euro/MWh vor dem Krieg auf zeitweise über 65 Euro/MWh – ein Plus von über 100 Prozent. Goldman Sachs hob die April-Prognose auf 55 Euro/MWh an; bei einer dreimonatigen Hormus-Blockade rechnet der Analysedienst Icis laut Finanzmarktwelt mit bis zu 85 Euro/MWh. Der Durchschlag auf Endkundenpreise dürfte in den kommenden Wochen folgen.
Gasspeicher nur zu 21 Prozent gefüllt – ein riskanter Ausgangspunkt
Die deutschen Gasspeicher standen am 8. März 2026 bei rund 21 Prozent Füllstand ( Bundesnetzagentur/AGSI via gasspeicher.app ) – 13 Prozentpunkte weniger als im Vorjahr und 23 Punkte unter dem historischen März-Durchschnitt. Euronews titelte bereits Mitte Februar: "So leer waren Deutschlands Gasspeicher wohl noch nie."
Ursachen hierfür sind der kalte Winter 2025/26, ein nur 75-prozentiger Füllstand zu Heizsaisonbeginn und fehlende Einspeicheranreize. Das gesetzliche Ziel von 80 Prozent bis zum 1. November 2026 wird durch den Irankrieg zur teuren Herausforderung, weil genau jene LNG-Lieferungen verteuert werden, die für die Sommerbefüllung nötig wären.
Berlin setzt auf Beobachtung – Opposition fordert Sofortmaßnahmen
Wirtschaftsministerin Katherina Reiche (CDU) hat die Energie-Taskforce reaktiviert und das Bundeskartellamt eingeschaltet, betonte aber laut T-Online : "Eingriffe in den Markt macht man erst dann, wenn sie absolut unvermeidbar sind."
Kanzler Friedrich Merz verweist auf das Energieentlastungspaket vom Januar 2026 – darunter der Wegfall der Gasspeicherumlage und ein 6,5-Milliarden-Zuschuss zu Netzentgelten. Vizekanzler Lars Klingbeil (SPD) mahnt einen beschleunigten Erneuerbaren-Ausbau an. Eine neue Gaspreisbremse oder direkte Heizkostenhilfe steht laut Regierung aktuell nicht auf der Agenda.
Die Opposition reagiert scharf: Die Linke fordert einen Energiepreisdeckel und eine Übergewinnsteuer, das BSW die Senkung der Mehrwertsteuer auf Energie auf 7 Prozenz sowie den Wegfall der CO ₂ -Abgabe. Die Grünen drängen auf einkommensabhängige Förderung beim Heizungstausch. Gewerkschaften wie der CGB fordern die Vorbereitung einer Preisbremse für den Fall, dass der Krieg länger als vier Wochen dauert.
Wer nicht dringend Heizöl bestellen muss, sollte abwarten: Statistisch sind die Monate Mai bis Juli die günstigsten Kaufmonate. Wer bestellen muss, spart durch Sammelbestellungen mit Nachbarn (2 bis 8 Cent wenige/Liter) und den Vergleich über Portale wie Heizoel24 , Esyoil oder Check24 . Flexible Lieferzeiten statt Express sparen weitere 5 bis 10 Cent pro Liter. Tipps zur richtigen Bestellstrategie bietet heizoelboerse.de .
Gas: Anbieterwechsel bringt bis zu 1.260 Euro im Jahr
Gaskunden in der Grundversorgung verschenken bares Geld. Der Wechsel zum günstigsten Tarif spart laut Verivox bis zu 1.264 Euro jährlich bei 20.000 kWh Verbrauch. Wer seinen Verbrauch zusätzlich senkt – etwa durch einen hydraulischen Abgleich (10 bis 15 Prozent Ersparnis, Kosten circa 925 Euro im Einfamilienhaus, davon 15 bis 20 Prozent Bafa-gefördert ) oder die Absenkung der Raumtemperatur um 1 °C (6 Prozent weniger Heizkosten laut Thermondo ) – kann dem erwarteten Preisanstieg ein Stück weit entgegenwirken.
Mittelfristig umsteigen: bis zu 70 Prozent Förderung für Wärmepumpen
Die BEG-Förderung 2026 macht den Heizungstausch für Hauseigentümer attraktiver. Für Wärmepumpen gibt es laut Priwatt bis zu 70 Prozent Zuschuss.
Pelletheizungen erhalten ähnliche Sätze plus 2.500 Euro Emissionsminderungszuschlag ( Energie-Experten ). Für Dämm-Maßnahmen zahlt das Bafa 15 bis 20 Prozent ( Bafa Einzelmaßnahmen ). Der ergänzende KfW-Kredit reicht bis 120.000 Euro zinsvergünstigt.
2028 wird fossiles Heizen strukturell teurer
Unabhängig vom Irankrieg steigt der Kostendruck auf fossile Heizungen. Der nationale CO ₂ -Preis liegt 2026 bei 55 bis 65 Euro pro Tonne – das sind rund 20 Cent pro Liter Heizöl und 1,4 Cent pro kWh Gas ( Finanztip CO₂-Preis ).
Ab 2028 übernimmt der europäische Emissionshandel ETS-2: Startpreis voraussichtlich 50 bis 90 Euro/Tonne, bis 2030 rechnen Studien mit 120 bis 275 Euro pro Tonne ( Gebäudeforum ETS-2 ). Für ein Einfamilienhaus mit Ölheizung bedeutet das allein an CO ₂ -Kosten bis zu 820 Euro jährlich im Jahr 2030.
Parallel läuft die kommunale Wärmeplanung: Großstädte müssen bis 30. Juni 2026 ihren Wärmeplan vorlegen, alle anderen Kommunen bis 2028 ( Hausverwalterscout ). Bestehende fossile Heizungen sind ab 2045 komplett verboten.
Die Prognose: Alles hängt an Hormus
Beruhigt sich die Lage am Persischen Golf, könnten die Gasgroßhandelspreise bis zum Sommer auf 35 bis 45 Euro/MWh zurückfallen und Heizöl wieder unter 100 Euro/100 Liter sinken. Eskaliert der Konflikt weiter, ist laut Goldman Sachs eine dauerhafte Verdopplung des Gaspreisniveaus möglich.
Sicher ist nur: Wer fossiles Heizen als Langfristlösung betrachtet, wettet gegen den CO ₂ -Preis – und damit gegen die europäische Klimapolitik. Und: Die günstigste Kilowattstunde bleibt die, die man gar nicht erst verbraucht.
Kein Rollfeld, keine Kompromisse: Bell Textrons experimenteller X-76 soll Hubschrauber-Flexibilität mit Jetgeschwindigkeit kombinieren – und geht jetzt in die Fertigung.
X-76Bild:
Darpa
Die Defense Advanced Research Projects Agency (Darpa), eine Forschungsbehörde des US-Verteidigungsministeriums, hat Bell Textrons Experimentalflugzeug offiziell X-76 benannt und damit den Übergang von der Konstruktion in die aktive Fertigung markiert.
Wie funktioniert das? – Rotoren falten sich bei 150 Knoten weg
Der Trick steckt im sogenannten Stop-Fold-Rotor-System. Beim Start verhält sich der X-76 wie ein klassisches Kipprotor-Flugzeug. Ab etwa 150 bis 200 Knoten (280 bis 370 km/h) werden die Rotoren ausgekoppelt, in Fahrtrichtung gestellt und an den Triebwerksgondeln angelegt. Der Schub übernimmt dann eine Heckdüse. Ohne den Rotorwiderstand soll der X-76 über 450 Knoten erreichen – der V-22 Osprey schafft zum Vergleich maximal 270 Knoten (500 km/h). Die geplante Nutzlast liegt bei rund 450 Kilogramm, die Reichweite bei etwa 1.850 Kilometern.
Warum ist das wichtig? – Militär will weg vom Rollfeld
Darpa-Programmmanager Commander Ian Higgins sagte, dass eine Landebahn für Militärflugzeuge gleichzeitig Fluch und Segen sei. Wer keine braucht, ist schwerer anzugreifen und flexibler einsetzbar. Flugtests sind für Anfang 2028 geplant – ursprünglich war 2027 im Gespräch. Ob aus dem X-76 jemals ein Serienprodukt wird, hängt davon ab, was diese Tests zeigen. Bell baute mit dem XV-15 schon einmal eine solche Brücke – daraus wurde der V-22.
Sonos-CEO Tom Conrad verkündet das Ende des Streaminggeräts Pinewood.Bild:
Sonos
Strategieänderung bei Sonos: Das Unternehmen hat alle Arbeiten an einem eigenen Streaminggerät aufgegeben, wie der Sonos-CEO Tom Conrad im Gespräch mit Bloomberg erklärte. Somit bleibt es dabei, dass das Unternehmen Lautsprecher und Kopfhörer verkauft.
Conrad begründet die Entscheidung mit Personalmangel: "Wir hatten einfach nicht genug Softwareressourcen, um es gut umzusetzen." Das Gerät trug den internen Codenamen Pinewood und erstmals hat Sonos offiziell die Existenz des Produkts bestätigt.
Sonos wollte in eine neue Produktkategorie einsteigen
Zuvor sahen interne Pläne von Sonos vor, dass die Pinewood-Box im zweiten Halbjahr 2025 auf den Markt kommen sollte. Nach dem ANC-Kopfhörer Ace von Sonos wollte Sonos mit Pinewood abermals in eine für das Unternehmen neue Produktkategorie vorstoßen.
Intern sollen Sonos-Mitarbeiter bereits vor einem Jahr die Befürchtung geäußert haben, dass mit Pinewood die Erfahrung mit dem Ace-Kopfhörer wiederholt werde, der für Sonos zu einem Flop wurde . Der Kopfhörer muss sich in einem hart umkämpften Markt behaupten, und das würde bei einem Streaminggerät auch so sein.
Wer auffallen will, kopiert unbewusst die anderen. Neun visuelle Muster bestimmen, wie wir uns auf Dating-Apps inszenieren.
Wer schon einmal auf Dating-Plattformen unterwegs ist, kennt diese Bilder: Eine junge Frau spitzt ihre Lippen zu einem Duckface, und Männer wollen ganz gern cool und geheimnisvoll wirken. Bilder, die das Alltags-Ich zeigen, fehlen weitgehend.
Das liegt wohl daran, sofern man etwas Küchen-Psychologie heranziehen möchte, dass man in dem scheinbar unbegrenzten Konkurrenzumfeld aus der Masse herausstechen und auffallen möchte.
Doch was viele nicht ahnen: Mit ihren Bildern bewirken die meisten wohl eher das Gegenteil – denn sie sind nicht originell, sondern Einheitsbrei.
Das legt zumindest eine Studie der Universitat Oberta de Catalunya nahe, die zu dem Ergebnis kommt: Fast alle Nutzer greifen unbewusst auf dieselben wenigen visuellen Rezepte zurück. Die meisten Profilbilder lassen sich demnach in nur neun wiederkehrende Muster [1] einordnen.
Für alle, die sich für die Psychologie des Alltags interessieren, ist das ein spannendes Ergebnis. Es zeigt, wie stark soziale Normen, Stereotype und digitale Identität selbst in so privaten Momenten zusammenwirken.
Originalität oder Anpassung? Der zentrale Befund
Für die Studie [2], die im Fachmagazin The Journal of Sexual Medicine veröffentlicht wurde, analysierte ein Team um den Psychologen Alejandro García Alamán 1.000 echte Tinder-Profile aus dem Raum Barcelona. Die Methode kombinierte psychologische Codes mit Datenanalyse und maschinellem Lernen.
Das Ergebnis: Die große Mehrheit der Profilbilder ließ sich in nur neun wiederkehrende visuelle Strategien einordnen. Dabei beschreiben diese Cluster keine "Typen von Menschen", sondern standardisierte Arten, sich visuell in Szene zu setzen.
Den Anstoß für die Forschung gab García Alamáns Arbeit als Therapeut. Er berichtete [3] von einer wachsenden "Unzufriedenheit unter den Nutzern von Dating-Apps", die er mit einem Burn-out am Arbeitsplatz verglich.
Es war die Mischung aus Frust, Langeweile und dem Gefühl, sich zu entfremden – weil alle Profile gleich wirkten –, die ihn dazu brachte, dem Phänomen wissenschaftlich nachzugehen.
Der Mythos vom freizügigen Dating-Profil
Tinder hat in der öffentlichen Wahrnehmung noch immer den Ruf einer Plattform, auf der viel Haut gezeigt wird. Die Daten erzählen allerdings eine andere Geschichte: Nur rund zehn Prozent der Nutzer hatten Profilbilder mit einem erheblichen Grad an Nacktheit.
Das ist weniger, als man erwarten könnte. Die Forscher stellen Tinder trotz seines Rufs eher als Mehrzweck-Plattform [4] dar – also als einen Ort, der für ganz unterschiedliche Zwecke genutzt wird, nicht nur für sexuelle Kontakte.
Ein zusätzlicher Faktor spielt ebenfalls eine Rolle: Nutzer bleiben vorsichtig, weil zu explizite Bilder dazu führen können, dass das Profil gelöscht wird. Selbst wer freizügige Absichten hat, passt sich also den Regeln der Plattform an.
Die neun visuellen Strategien im Überblick
Das mit Abstand häufigste Muster ist das halbfigurige Porträt mit direktem Blick in die Kamera. Es macht fast ein Viertel aller analysierten Profile aus. Die Person ist bekleidet, die Kulisse urban oder häuslich. Man könnte es als die "Standardversion" der Selbstdarstellung bezeichnen – neutral, sicher und sozial akzeptiert.
Daneben gibt es Bilder, auf denen der Blick in eine andere Richtung geht – das wirkt spontaner und etwas distanzierter. Eine dritte Gruppe setzt auf Nahaufnahmen des Gesichts, oft in Innenräumen. Ganzkörperporträts mit Blick in die Kamera bilden ein viertes Muster, besonders verbreitet bei heterosexuellen Frauen.
Überraschend: Sonnenbrillen tauchen so häufig auf, dass sie ein eigenes Muster bilden. Laut den Forschern dienen sie als eine subtile Form der Halbverhüllung – man zeigt sich, versteckt aber zugleich einen Teil von sich. Naturkulissen wie Berge oder Wälder bilden ein weiteres Muster, besonders beliebt bei heterosexuellen M��nnern.
Dann gibt es Profile mit viel nackter Haut oder Halbnacktheit, die rund sieben Prozent der Nutzer ausmachen. Am anderen Ende des Spektrums stehen Profile ganz ohne Personenbild – stattdessen Landschaften, Objekte oder neutrale Hintergründe. Das seltenste Muster (etwa drei Prozent) zeigt Körperteile, ohne das Gesicht zu verraten.
Diese Bandbreite spannt einen Bogen zwischen Sichtbarkeit und Versteckspiel – als würde die eigene digitale Identität wie ein Dimmer-Schalter funktionieren, den jeder unterschiedlich weit aufdreht.
Soziale Normen statt echtes Ich
Was treibt die Bildauswahl an? Die Forscher sehen darin weniger einen Ausdruck dessen, wer Menschen wirklich sind, als vielmehr eine Antwort auf die Frage: Wer sollte ich sein, um gemocht zu werden?
"Die Wahl einer Strategie, die auf sozialer Erwünschtheit basiert, beraubt uns unserer Authentizität und verwischt unsere Identität als Individuen. Sie schützt uns, aber gleichzeitig stereotypisiert sie uns", erklärte García Alamán.
Das Profilbild wird damit zu einem anschaulichen Beispiel dafür, wie digitale Selbstinszenierung unter normativem Druck entsteht. Wir orientieren uns an dem, was wir bei anderen sehen – und kopieren es, ohne es zu merken. Das Ergebnis: ein Meer aus Profilen, die sich zum Verwechseln ähnlich sehen.
Wer zeigt sich wie? Alter, Geschlecht und sexuelle Orientierung
Von allen untersuchten Faktoren hat das Alter laut Studie den stärksten Einfluss auf die gewählte Bildstrategie. Man kann es sich wie eine stufenweise Verhüllung vorstellen.
Jüngere Nutzer zeigen tendenziell mehr vom Körper und präsentieren sich direkter. Mit den Jahren nimmt die Sichtbarkeit ab: Erst kommen Sonnenbrillen, dann Nahaufnahmen oder Teilkörperbilder. Ab etwa 50 Jahren wählen manche Nutzer Profile ganz ohne Körperfotos.
Auch Geschlecht und sexuelle Orientierung hinterlassen Spuren. Unter heterosexuellen Profilen lächeln Frauen häufiger und zeigen mehr vom Körper, während Männer eher auf Aktivitäts- oder Naturbilder setzen und weniger von sich preisgeben.
Bei lesbischen Frauen fällt die Körperdarstellung geringer aus, und sie lächeln seltener als heterosexuelle Frauen. Schwule Männer hingegen schauen häufiger direkt in die Kamera und lächeln mehr als heterosexuelle Männer.
Wie wir Attraktivität inszenieren, folgt also – so die Interpretation – weitgehend bekannten kulturellen Mustern.
Was das für Nutzer heißt
Dating-Apps erzeugen den Eindruck grenzenloser Wahlfreiheit. Doch laut den Forschern bewegen sich Nutzer in Wahrheit innerhalb ziemlich enger visueller Konventionen – wie auf einer Speisekarte mit nur neun Gerichten.
Die gute Nachricht: Allein das Wissen um diese Muster kann helfen, den Druck zu senken. Wer versteht, dass fast alle Nutzer ähnlichen Strategien folgen, muss sich weniger Sorgen machen, nicht originell oder perfekt genug zu wirken.
García Alamán empfiehlt, das eigene Profil nicht mit dem Selbstwert gleichzusetzen. "Ihr Profil sollte Sie nicht definieren, und die App sollte Ihr Selbstwertgefühl nicht beeinträchtigen", sagte er. Stattdessen rät er, Bilder zu wählen, die einem selbst gefallen – auch wenn sie von dem abweichen, was alle anderen tun.
Als offene Frage bleibt, ob sich dieselben Muster auch in den schriftlichen Biografien der Nutzer wiederfinden. Daran arbeitet das Forscherteam bereits. Es könnte sein, dass die Gleichförmigkeit noch weiter reicht, als wir ahnen.
URL dieses Artikels: https://www.heise.de/-11205918
Links in diesem Artikel: [1] https://www.uoc.edu/en/news/2026/tinder-visual-identity [2] https://doi.org/10.1093/jsxmed/qdaf245 [3] https://www.eurekalert.org/news-releases/1119024 [4] https://phys.org/news/2026-03-analysis-tinder-profiles-reveals-standardized.html
VW-Gewinn halbiert sich auf 6,9 Milliarden Euro. 50.000 Stellen fallen in Deutschland weg – mehr als geplant. Doch die größte Gefahr lauert woanders.
Europas größter Autobauer Volkswagen hat im Geschäftsjahr 2025 einen massiven Gewinnrückgang verzeichnet [1]. Das Konzernergebnis nach Steuern sank gegenüber dem Vorjahr um rund 44 Prozent von 12,4 Milliarden Euro auf 6,9 Milliarden Euro, wie das Unternehmen auf seiner Jahrespressekonferenz am 10. März 2026 in Wolfsburg mitteilte.
Vorstandschef Oliver Blume und Finanzvorstand Arno Antlitz präsentierten das Zahlenwerk. Es ist das schwächste Ergebnis seit der Dieselskandal-Krise.
Auch der Betriebsgewinn halbierte sich in etwa auf 8,9 Milliarden Euro. Der Umsatz stagnierte bei 322 Milliarden Euro. Die Dividende soll mit 5,26 Euro je Vorzugsaktie 17 Prozent unter dem Vorjahreswert liegen.
Finanzchef Antlitz erklärte [2], das Jahr sei von "geopolitischen Spannungen, Zöllen und hoher Wettbewerbsintensität" geprägt gewesen. Die bereinigte operative Marge liege bei 4,6 Prozent vor Restrukturierung – das reiche "langfristig nicht aus", so Antlitz.
Massiver Stellenabbau bis 2030
In einem Brief an die Aktionäre kündigte Blume an, dass "insgesamt bis 2030 rund 50.000 Stellen im gesamten Volkswagen-Konzern in Deutschland abgebaut werden" sollen.
Damit geht der Konzern deutlich über die bisherigen Planungen hinaus: Ende 2024 hatte VW mit den Gewerkschaften noch einen Abbau von 35.000 Stellen vereinbart, vor allem bei der Kernmarke VW. Betriebsbedingte Kündigungen sollen weiterhin ausgeschlossen bleiben.
Die Sparmaßnahmen betreffen auch das Management selbst: Blumes Gesamtvergütung einschließlich Versorgungsaufwendungen sank 2025 auf 7,42 Millionen Euro, nach 10,35 Millionen Euro im Vorjahr. Alle Vorstandsmitglieder hätten im Zusammenhang mit dem Sparprogramm auf Teile ihres Gehalts verzichtet, hieß es.
US-Zölle und China-Schwäche als Hauptbelastungen
Weltweit lieferte der Konzern 2025 rund 8,98 Millionen Fahrzeuge aus – 0,5 Prozent weniger als im Vorjahr. Während der Absatz in Europa leicht zulegte, brachen die Verkäufe in China und Nordamerika ein. Für den US-Markt erweist sich die Zollpolitik von Präsident Donald Trump als erhebliche Belastung.
Hinzu kommen veränderte Rahmenbedingungen für Elektroautos: Trump hat Abgasregeln geändert und Subventionen für Elektrofahrzeuge gestrichen, was US-Autoriesen zu milliardenschweren Abschreibungen zwang. Auch das geplante neue Werk für Elektro-Pickups der Konzernmarke Scout steht dadurch vor Problemen.
Stefan Reindl, Vorsitzender des Instituts für Automobilwirtschaft, ordnete die Lage so ein: "Die Lage ist ernst – nicht existenzbedrohend, aber ein klares Alarmsignal." Bei der Kernmarke VW seien jedoch Fortschritte erkennbar.
Insbesondere in China könnte der Absatzrückgang mit sogenannten Range-Extender-Modellen – Elektroautos mit zusätzlichem Verbrennungsmotor zur Reichweitenverlängerung – gestoppt werden.
Porsche trifft es besonders hart
Besonders drastisch fiel der Einbruch bei der Konzerntochter Porsche aus. Das operative Ergebnis des Sportwagenbauers sank 2025 auf lediglich 90 Millionen Euro, nach knapp 5,3 Milliarden Euro im Jahr davor. Inklusive Finanzdienstleistungen erzielte Porsche 413 Millionen Euro – gegenüber 5,6 Milliarden Euro im Vorjahr. Analysten von Visible Alpha hatten mit knapp einer halben Milliarde Euro gerechnet.
Hintergrund ist ein Absatzeinbruch in China, gestiegene US-Zölle sowie eine Fehleinschätzung beim Tempo des Umstiegs auf Elektroantriebe. Doch die Umstellung auf E-Mobilität verläuft auch im Mutterkonzern eher schlecht als Recht: Der angekündigte Elektro-Golf als "Butter- und Brot"-E-Auto für den europäischen Markt, lässt bis 2029 [3] auf sich warten.
Da die Kundschaft am Verbrennungsmotor festhält, will Porsche nun wieder stärker auf konventionelle Antriebe setzen. Für 2026 erwartet der Sportwagenbauer einen weiteren Absatzrückgang, rechnet aber mit einer Erholung der Rendite auf mehr als fünf Prozent.
Hoffnung auf Erholung 2026 – vor allem in China
Für das laufende Jahr strebt der Konzern eine Erholung der operativen Gewinnmarge auf 4,0 bis 5,5 Prozent an. Deutsche-Bank-Analyst Tim Rokossa sieht dabei vor allem im China-Geschäft Potenzial. In einer Analyse Anfang Februar schrieb er, die "in China für China"-Strategie – also der Aufbau lokaler Zulieferketten und Produktionsstrukturen – sei "der einzige Erfolg versprechende Weg".
Über lokale Zulieferketten könne VW einen entscheidenden Kostenvorteil gegenüber westlichen Konkurrenten gewinnen. Investoren messen dem China-Geschäft von VW derzeit keinen oder sogar negativen Wert bei – ein Strategieerfolg könnte dem Aktienkurs daher Auftrieb geben, so Rokossa.
URL dieses Artikels: https://www.heise.de/-11205239
Links in diesem Artikel: [1] https://www.volkswagen-group.com/de/pressemitteilungen/volkswagen-group-staerkt-2025-finanzielle-substanz-kraeftiges-schlussquartal-in-herausforderndem-umfeld-20202 [2] https://www.swr.de/swraktuell/baden-wuerttemberg/gewinneinbruch-vw-porsche-100.html [3] https://www.autozeitung.de/vw-golf-9-2026-preis-motoren-200173.html
Der Iran-Krieg gerät zum größten Testfeld neuer Waffensysteme seit Jahren: Auf allen Seiten sind jetzt Waffen in Gebrauch, die erst kürzlich entwickelt wurden.
Am 28. Februar 2026 stiegen um 9:40 Uhr Ortszeit über Teheran Rauchsäulen auf. Israelische F-15-Jets hatten Raketen auf den Komplex des iranischen Obersten Führers Ali Chamenei abgefeuert – Raketen, die zuvor die Erdatmosphäre verlassen hatten.
PrSM: Neue US-Kurzstreckenrakete
Unter den Waffen, die die USA bei ihrem Angriff auf den Iran erstmals eingesetzt haben, sticht die Precision Strike Missile (PRSM) hervor. Die USA veröffentlichten eine Bildmontage der ersten 24 Stunden des Konflikts – darunter ein Foto, das den Start einer PRSM aus einem radgestützten M142-Himars-Werfer zeigt [1].
Die neue Rakete ist an ihrer charakteristischen Heckflossengeometrie erkennbar und unterscheidet sich äußerlich deutlich von ihrer Vorgängerin, der Army Tactical Missile System (Atacms). Der entscheidende Unterschied aber liegt in der Reichweite.
Während Atacms Ziele bis etwa 300 Kilometer erreicht, demonstrierte die PRSM bereits Reichweiten von mindestens 500 Kilometern – mit einer angestrebten Erweiterung auf bis zu 650 Kilometer. Eine spätere Variante soll sogar über 1.000 Kilometer weit fliegen können. Das Gewicht des Gefechtskopfes [2] beträgt 91 Kilogramm.
Künftig kann ein Himars-Werfer zwei PRSM gleichzeitig laden, gegenüber nur einer Atacms pro Behälter. Der Rüstungskonzern Lockheed Martin erhielt im März vergangenen Jahres einen Produktionsvertrag [3] über 4,9 Milliarden Dollar, mit einem Ziel von 400 Raketen pro Jahr.
Ihre hohe Aufprallgeschwindigkeit macht ballistischen Raketen wie die PRSM besonders geeignet für Angriffe auf gehärtete Ziele – in Iran sind solche unterirdischen Anlagen weit verbreitet. Gleichzeitig erschwert ihre Geschwindigkeit die Abfangversuche gegnerischer Luftabwehr erheblich.
Die Shahed-Kopie der USA
Eine der ungewöhnlichsten Waffen im Arsenal der USA trägt den Namen Lucas – Low-Cost Uncrewed Combat Attack System. Die Drohne sieht der iranischen Shahed-136 zum Verwechseln ähnlich, und das ist kein Zufall. US-Kommandeur Admiral Brad Cooper beschrieb die Entstehungsgeschichte des Systems in aller Deutlichkeit: Die USA hätten eine iranische Shahed-136 erbeutet, auseinandergenommen, in Amerika nachgebaut – und feuerten sie nun auf den Iran ab.
Hergestellt wird die Drohne vom Unternehmen SpektreWorks, das aus seinem Trainingsdrohnen-Modell FLM-136 eine Kampfwaffe entwickelt hat, wie The Conversation [4] berichtet. The War Zone gibt einen Stückpreis von rund 35.000 US-Dollar an – ein Bruchteil der Kosten eines konventionellen Marschflugkörpers, der über eine Million Dollar kostet. Die Drohne kann mit etwa 137 Stundenkilometern über 800 Kilometer weit fliegen und trägt einen Gefechtskopf von rund 18 Kilogramm.
Die strategische Logik dahinter ist dieselbe, die Iran und Russland seit Jahren verfolgen: Masse statt Klasse. Die USA planen bis 2028 einen Vorrat von 340.000 vergleichbaren Drohnen aufzubauen. Wenn man den heutigen Zeitpunkt als Start annimmt, müssten die USA bis 2028 rechnerisch rund 10.000 Drohnen pro Monat, rund 330 pro Tag, produzieren, um das Ziel von 340.000 Systemen zu erreichen.
Blue Sparrow: Israels Raumfahrtrakete
Beim Anschlag auf den Komplex des iranischen Obersten Führers Ali Chamenei in Teheran kam die ballistische Rakete Blue Sparrow zum Einsatz – eine Waffe, die ihren Weg zum Ziel teilweise außerhalb der Erdatmosphäre zurücklegt.
Entwickelt vom israelischen Rüstungskonzern Rafael, gehört die Blue Sparrow zur Sparrow-Familie, die ursprünglich sowjetische Scud-Raketen [5] imitieren sollte, um israelische Luftabwehrsysteme zu testen. Die Rakete ist 6,5 Meter lang, wiegt knapp 1,9 Tonnen und erreicht je nach Quelle Reichweiten zwischen 1.000 und 2.000 Kilometern.
Nach dem Abschuss aus israelischen F-15-Jets beschleunigt ein Booster die Rakete bis an den Rand des Weltraums, bevor sie steil auf ihr Ziel herabstürzt – eine Trajektorie, die Luftabwehrsystemen kaum Reaktionszeit lässt und auch während des Fluges noch angepasst [6] werden kann.
Iranische Neuentwicklungen
Während der iranischen Vergeltungsschläge unter dem Namen „Operation True Promise IV" setzte die Islamische Revolutionsgarde (IRGC) erstmals die Hadid-110 ein, auch bekannt unter dem Namen Dalahu. Die erste Charge des jet-angetriebenen Kamikaze-Systems war laut Tehran Times [7] im Dezember 2025 an die IRGC-Bodentruppen übergeben worden.
Die Hadid-110 unterscheidet sich grundlegend von der Shahed-136, dem Rückgrat iranischer Drohnenangriffe. Statt eines Kolbenmotors treibt ein Miniaturjetmotor das System an, das so Geschwindigkeiten von rund 510 Stundenkilometern erreicht – etwa dreimal so schnell wie die Shahed-136 mit ihren rund 185 Stundenkilometern, wie der Fachblog Army Recognition [8] berichtet.
Hadid-110 gegen moderne Luftabwehr
Die Reichweite beträgt rund 350 Kilometer bei einer Flugzeit von etwa einer Stunde, der Gefechtskopf wiegt rund 30 Kilogramm. Der Start erfolgt über einen Feststoffbooster von mobilen Abschussrampen, ohne feste Infrastruktur.
Das Rumpfdesign folgt einer leitwerklosen, facettierten Deltaform mit einem Lufteinlass auf der Oberseite – eine Bauweise, die den Radarquerschnitt gezielt reduziert und eher an einen kleinen Marschflugkörper erinnert als an eine konventionelle Drohne. Die Hadid-110 ergänzt das iranische Drohnenarsenal um ein System für schnelle Angriffe für mittlere Reichweite, bei denen den Verteidigern kaum Zeit zur Reaktion bleibt.
Kheibar: die neue ballistische Rakete Irans
Auch im Bereich der ballistischen Raketen bringt Teheran Systeme zum Einsatz, die westliche Luftabwehr vor neue Probleme stellen. In der zehnten Angriffswelle der iranischen Vergeltungsschläge meldete der Iran den Einsatz von „Khyber"-Raketen gegen israelische Regierungs- und Militärziele.
Welche genaue Variante dabei zum Einsatz kam, bleibt unklar. Wie Army Recognition [9] analysiert, verwendet Teheran den Begriff „Kheibar" für mindestens zwei unterschiedliche Systeme: den Kheibar Shekan, eine mobile Feststoffrakete mit rund 1.450 Kilometern Reichweite, sowie die Khorramshahr-4, die Iran ebenfalls „Kheibar" nennt – eine schwerere Flüssigbrennstoffrakete mit einer Reichweite von rund 2.000 Kilometern und einem deutlich größeren Gefechtskopf. Diese Begriffsunschärfe erschwert die Zuordnung und verstärkt die abschreckende Wirkung.
Der Kheibar Shekan ist auf Mobilität und Serieneinsatz ausgelegt: kleine, schnell verlegbare Starteinheiten, Satellitenführung und ein manövrierfähiger Gefechtskopf, der die Endphase des Fluges unberechenbar macht. Die Khorramshahr-4 hingegen setzt auf Nutzlast und Reichweite, mit einer Kurskorrekturmöglichkeit oberhalb der Atmosphäre.
Fattah-Hyperschallrakten
Hinzu kommt das Fattah-Programm [10]. Iranische Staatsmedien beschreiben das System als Hyperschallrakete mit Geschwindigkeiten zwischen Mach 13 und 15 – technisch präziser handelt es sich laut Army Recognition um eine ballistische Rakete mit einem zusätzlichen Raketenmotor im Gefechtskopf, der gezielte Manöver in der Endphase ermöglicht.
Ob die Rakete bereits eingesetzt worden ist, ist nicht völlig klar. Für die israelische Luftabwehr bedeutet das System dennoch eine fundamentale Herausforderung. Die Arrow-3-Raketenabwehr ist zwar auf Abfangmanöver außerhalb der Atmosphäre ausgelegt, aber am wirksamsten gegen vorhersehbare Flugbahnen.
Manövrierfähige Gefechtsköpfe der Fattah verkürzen das Abfangfenster zudem ganz erheblich. Das in Entwicklung befindliche Arrow-4-System soll nach israelischen Angaben gezielt auf diesen Typ von Bedrohung ausgelegt werden – ein Eingeständnis, dass die derzeitigen Systeme an Grenzen stoßen.
URL dieses Artikels: https://www.heise.de/-11204030
Apples MacBook Neo: Neuer Markt Einsteiger-Notebooks.
(Bild: Andreas Wodrich / heise medien)
Buntes Alugehäuse, Retina‑Display und macOS – aber iPhone‑Prozessor und 8 GByte RAM: Unser Test zeigt, ob Apple bei seiner neuen MacBook-Linie sinnvoll spart.
Macs sind bei vielen Schülern und Studenten begehrt. Doch einen wirklich günstigen Laptop für weit unter 1000 Euro hatte Apple nie im Programm. Mit dem MacBook Neo ändert sich das: Zum Einstiegspreis von 700 Euro soll es billigen Windows‑Notebooks und Chromebooks Marktanteile abjagen und trotzdem ein hochwertiges Erlebnis bieten.
Tastaturbeleuchtung, Thunderbolt, MagSafe: Um den Preis zu drücken, hat Apple den Rotstift angesetzt und einige geschätzte Features, die das MacBook Air und Pro auszeichnen, gestrichen. Auch RAM und Speicherplatz sind knapp bemessen. Obendrein steckt im Neo ein iPhone‑Chip statt eines M‑Prozessors – ein Novum für die MacBook‑Reihe. Auf ein vollwertiges macOS müssen Käufer aber nicht verzichten.
Ist dem Hersteller der Spagat zwischen Sparsamkeit und Schnelligkeit gelungen oder müssen Käufer beim Neo zu viele Kompromisse eingehen?
URL dieses Artikels: https://www.heise.de/-11205775
HomePod mini: So sieht Apples derzeit beliebtestes Home-Produkt aus – es ist völlig veraltet.
(Bild: Apple)
Seit mehreren Jahren arbeitet Apple nun schon intern an einer Art „HomePad“. Aus strategischen und wirtschaftlichen Gründen dauert es offenbar noch länger.
Apples Smart-Home-Produktlinie ist völlig veraltet. Der HomePod mini [1] stammt von 2020, der HomePod 2 [2] von 2023. Das Apple TV 4K [3], das auch als Heimzentrale dienen kann, wurde wiederum 2022 zuletzt überarbeitet. Doch mit diesen keineswegs mehr kaufenswerten Produkten müssen die User wohl noch länger vorliebnehmen: Apple soll neues Home-Zubehör erneut verschoben haben. Die jüngsten Infos stammen aus Asien sowie amerikanischen Medienquellen.
Smart-Home-Display alias HomePad
Demnach möchte Apple bis mindestens Herbst damit warten, ein sogenanntes neues Home-Zubehör [4], das bereits mehrfach intern verschoben wurde, auf den Markt zu bringen. Der Grund: Erst mit der überarbeiteten Chatbot-Siri auf Basis von Google Gemini [5] sollen Neugeräte arbeiten, wie Apple sich das vorstellt. Diese ist aber erst mit iOS 27 und Co. zu erwarten. Eines der geplanten Geräte, ein neuartiges Smart-Home-Display in Form eines verkleinerten, quadratischen iPads, trägt den Codenamen J490.
Es war laut Bloomberg [6] ursprünglich für Frühjahr 2025 vorgesehen, später dann für März 2026. Es soll zu einer Art KI-Zentrale fürs Heim werden, inklusive Gesichtserkennung und Personalisierung. Die Idee ist offenbar, dass es sich magnetisch an der Wand befestigen lässt, um es auch in andere Räume mitzunehmen. Gerüchte gab es auch über eine Lautsprecherbasis, so dass das in der Gerüchteküche auch als „HomePad“ bezeichnete Gerät auch einen HomePod ersetzen könnte.
Geht etwas kaputt, lohnt sich der Ersatz nicht
Der Leaker und Apple-Prototypen-Sammler Kosutami erwähnt auch eine Integration für smarte Türklingeln [7] und einen Release-Termin im Herbst [8]. All das wird Nutzern eines smarten Heims auf HomeKit-Basis gar nicht gefallen. Diese müssen, sollten ihre Geräte bis zu diesem Termin versagen, zu Altware greifen. Tatsächlich gibt es Berichte über häufiger auftretende Ausfälle beim HomePod mini – hier kann der Touchscreen versagen, was zu „Geisterberührungen“ [9] führt, die sich nur mit radikalen Reparaturarbeiten (Abklemmen des Touchscreens) beheben lassen.
Auch HomePod 2 und Apple TV 4K lohnen sich in den aktuellen Varianten keinesfalls, selbst wenn sich im Handel das ein oder andere Schnäppchen machen lässt. Die verwendeten Chips sind veraltet – neuere Modelle würden vermutlich auch bei der Gesamtperformance und Schaltgeschwindigkeit von HomeKit-Netzwerken helfen.
URL dieses Artikels: https://www.heise.de/-11204325
Der Terminal-Emulator Ghostty ist in Version 1.3.0 erschienen. Die Entwickler haben einige der am häufigsten gewünschten Features implementiert.
Der Terminal-Emulator Ghostty ist in Version 1.3.0 erschienen und bringt unter anderem eine Scrollback-Suche, native Scrollbars sowie die Option, den Cursor durch Klick in Shell-Prompts zu positionieren. Außerdem haben die Entwickler eine wichtige Sicherheitslücke geschlossen.
Ghostty ist ein moderner Terminal-Emulator für macOS und Linux, der auf GPU-Rendering setzt und in der Programmiersprache Zig geschrieben wurde. Entwickelt wird er vom HashiCorp-Gründer Mitchell Hashimoto. In die neue Version sind sechs Monate Arbeit geflossen, 180 Entwickler haben über 2.858 Commits beigetragen. Die Release Notes [1] umfassen hunderte Verbesserungen, Bugfixes und Performance-Optimierungen auf allen unterstützten Plattformen.
Scrollback-Suche mit dediziertem Thread
Die neue Scrollback-Suche gehört zu den am häufigsten gewünschten Features. Sie lässt sich unter macOS mit Cmd+F, unter Linux mit Strg+Umschalt+F aufrufen. Die Implementierung hebt gefundene Treffer hervor und erlaubt die Navigation mit Pfeiltasten oder Cmd+G. Auf macOS lässt sich die Suchleiste zu einer der vier Ecken ziehen, falls sie wichtige Inhalte verdeckt. Die Suche integriert sich zudem in macOS-Komponenten wie der Menüleiste, den systemweiten Shortcuts für „Weitersuchen/Zurücksuchen“ und der System-Zwischenablage für Suchbegriffe. Technisch arbeitet die Suche mit einem dedizierten Thread, der nur kleine Lock-Zeit-Slices benötigt und sich bei Nichtnutzung selbst terminiert, um I/O und Rendering minimal zu beeinträchtigen.
Ebenfalls neu sind native Scrollbars im Overlay-Style, die sich systemkonform in macOS und GTK einfügen. Per Konfigurationsoption scrollbar lässt sich das Verhalten anpassen, standardmäßig übernimmt Ghostty die Systemeinstellung.
Klickbare Prompts und Command-Finished-Benachrichtigungen
Eine weitere Neuerung ist, dass man den Cursor per Klick in Shell-Prompts positionieren kann – wie in einem regulären Textfeld. Das Feature unterstützt hierzu die OSC-133-Extensions click-events und cl=line. Native Unterstützung bieten Fish ab Version 4 und Nushell ab 0.111, für andere Shells hängt der Support von Ghosttys eingebundener Shell-Integration ab. Die Entwickler haben ihre OSC-133-Implementierung überarbeitet und setzen nun auf eine region-basierte Erkennung, die genauer arbeitet als die row-basierte Variante mancher Konkurrenten. Ein Debug-Overlay für OSC-133-Bereiche hilft beim Troubleshooting.
Neu sind auch Benachrichtigungen über abgeschlossene Befehle. Nutzer können über drei Konfigurationsoptionen festlegen, wann und wie Ghostty Meldungen anzeigen soll: nie, nur bei nicht fokussiertem Fenster oder immer. Die Aktion lässt sich auf einen Klingelton (bell) oder eine Systembenachrichtigung einstellen, standardmäßig werden nur Befehle gemeldet, die länger als 5 Sekunden dauern. Auch dieses Feature benötigt OSC 133 oder die Shell-Integration.
Performance-Optimierungen und Sicherheitsfix
Die Entwickler haben die I/O-Performance deutlich verbessert. Tests mit 4 GByte großen asciinema-Dateien zeigen, dass die Replay-Zeit von mehreren Minuten auf wenige Sekunden gesunken ist. Die Renderer-Lock-Zeit konnte um den Faktor zwei bis fünf reduziert werden, oft arbeitet das System dank Dirty-Tracking völlig lock-frei. Das führt zu glatterem Scrolling und weniger Jitter bei starker Ausgabe.
Ein kritisches Speicherleck wurde behoben, das durch bestimmte KI-Tools wie Claude Code ausgelöst wurde. Bei intensiver Nutzung konnte der Speicherverbrauch nach zehn Tagen auf bis zu 37 GByte anwachsen. Der Fehler existierte seit Version 1.0 und betraf die Recycling-Logik für non-standard Scrollback-Pages. Die Stabilität bei intensiver Nutzung mit Logs oder Build-Ausgaben ist nun deutlich höher.
Mit CVE-2026-26982 wurde eine Sicherheitslücke geschlossen, bei der Control-Characters wie 0x03 (Ctrl+C) in eingefügten Texten oder per Drag-&-Drop übertragenen Inhalten zur Ausführung beliebiger Befehle in manchen Shells führen konnten. Der Angriff erfordert zwar User-Interaktion, aber solche Paste-Exploits sind in Terminal-Emulatoren nicht ungewöhnlich. Ghostty ersetzt nun unsichere Control-Characters beim Einfügen durch Leerzeichen, analog zu xterm.
Non-Profit-Projekt und neue Systemanforderungen
Ghostty ist nun offiziell ein Non-Profit-Projekt unter der Schirmherrschaft von Hack Club, einer 501(c)(3)-Organisation. Fast alle Spenden fließen direkt an Contributors, fünf davon haben bereits Verträge für insgesamt rund 300 Stunden Entwicklungsarbeit unterzeichnet. Die Umwandlung soll das Projekt langfristig vor Kommerzialisierung und Verkauf schützen.
Die Systemanforderungen haben sich geändert: Version 1.3.0 ist die letzte, die macOS 13 Ventura unterstützt. Ab Version 1.4 ist macOS 14 erforderlich, da Apple den Support für Ventura im Herbst 2025 eingestellt hat. Unter Linux benötigt Ghostty GTK 4.14 und libadwaita 1.5. Ältere Distributionen wie Debian Bookworm müssen auf Snaps oder Flatpaks ausweichen oder bei einer älteren Ghostty-Version bleiben.
Weitere Neuerungen umfassen erweiterte Keybind-Funktionen wie Key Tables und verkettete Keybinds, Unterstützung für das Kitty Keyboard Protocol sowie Unicode-17-Konformität. Unter macOS gibt es experimentelle AppleScript-Unterstützung zur Automatisierung sowie unaufdringliche Update-Mechanismen. Die eigenständige Bibliothek libghostty erlaubt es, den Terminal-Emulator in Drittanwendungen wie Neovim, Multiplexer oder PaaS-Lösungen zu integrieren.
Mehr Details zu Ghostty 1.3.0 finden sich in den Release Notes [2]. Einen ausführlichen Test des Terminal-Emulators hat heise online im Februar 2025 [3] veröffentlicht.
URL dieses Artikels: https://www.heise.de/-11205273
Links in diesem Artikel: [1] https://ghostty.org/docs/install/release-notes/1-3-0 [2] https://ghostty.org/docs/install/release-notes/1-3-0 [3] https://www.heise.de/tests/Terminal-Emulator-Ghostty-im-Test-10274548.html [4] https://www.heise.de/ix [5] mailto:fo@heise.de
Der Berliner Senat weitet die Videoüberwachung aus und setzt auf automatisierte Verhaltensanalyse vor dem Abgeordnetenhaus und an Kriminalitätsschwerpunkten.
Die Berliner Polizei bereitet den großflächigen Einsatz von Algorithmen im öffentlichen Raum vor, um die Sicherheit an gefährdeten Objekten und Brennpunkten zu erhöhen. Wie Innenstaatssekretär Christian Hochgrebe (SPD) und Polizeipräsidentin Barbara Slowik am Montag im Innenausschuss des Abgeordnetenhauses darlegten, sollen Kameras mit Künstlicher Intelligenz (KI) künftig nicht nur am Kottbusser Tor, im und am Görlitzer Park sowie auf dem Alexanderplatz wachen, sondern auch die unmittelbare Umgebung des Roten Rathauses, des Abgeordnetenhauses und der Senatsverwaltung für Inneres am Alten Stadthaus erfassen.
Primäres Ziel der Sicherheitsbehörden sei eine Entlastung des Personals, berichten Medien wie die taz [1] oder der rbb [2]. Aktuell binden demnach Objektschutzaufgaben rund 400 voll ausgebildete Polizisten, die zusätzlich zu den regulären Wachkräften eingesetzt werden. Laut Slowik ist dieser Zustand angesichts der knappen personellen Ressourcen nicht dauerhaft tragbar. Deshalb müsse moderne Technik die Schutzaufgaben unterstützen.
Die technische Umsetzung sieht laut der Ausschreibung des 2,1 Millionen Euro teuren Projekts [3] vor, dass die KI-Systeme Bilder in Echtzeit auswerten und bei definierten Szenarien Alarm schlagen. Zu den essenziellen Aufgaben der Software gehört das Erkennen von Personen, die über Zäune klettern, gesperrte Bereiche betreten oder Gegenstände herrenlos zurücklassen.
In den Ausschreibungsunterlagen finden sich Formulierungen, die bei Bürgerrechtlern für Stirnrunzeln sorgen. So soll die Technik auch ein „langes Verharren oder Umhergehen ohne Anlass“ sowie „wiederholtes Erscheinen“ detektieren. Während die Polizei betont, dass eine biometrische Identifizierung ausgeschlossen sei und alle Daten anonymisiert verarbeitet würden, bleibt die Definition von „anlasslosem“ Verhalten weitgehend im Ermessen der Softwareprogrammierung. Die Fehlalarmrate darf laut den Vorgaben bei bis zu 25 Prozent liegen – also ziemlich hoch. Der einjährige Testbetrieb soll dazu dienen, die Algorithmen zu ertüchtigen und die Qualität der Erkennung zu steigern.
Abgeordnete als „Versuchskaninchen“
In der politischen Arena stößt das Vorhaben auf Widerstand, insbesondere was die Aufrüstung der elektronischen Augen rund um das Parlament betrifft. Der Linke-Abgeordnete Niklas Schrader erachtet das Vorgehen als Affront gegen die demokratische Kontrolle. Es sei problematisch, wenn die Exekutive ihr eigenes Kontrollorgan, das Abgeordnetenhaus, ohne vorherige Debatte mit Überwachungstechnik ausstatte. Schrader warnt vor einer abschreckenden Wirkung auf Bürger, die das Gespräch mit ihren Volksvertretern suchten. Zudem stehe die Frage im Raum, warum die Abgeordneten ungefragt als „Versuchskaninchen“ für polizeiliche KI-Experimente herhalten müssten.
Die Berliner Datenschutzbeauftragte Meike Kamp mahnt, dass jede Ausweitung der Videoüberwachung einer strengen Prüfung der Verhältnismäßigkeit und Erforderlichkeit bedürfe und die Informationspflicht gegenüber den Bürgern gewahrt bleiben müsse.
Infrastruktur des Generalverdachts
Parallel zum Objektschutz treibt die Polizei die KI-Aufrüstung an sogenannten kriminalitätsbelasteten Orten voran. Ab Juli soll das System am Kottbusser Tor scharfe Bilder liefern, gefolgt von der Warschauer Brücke. Hier liegt der Fokus der KI auf der Erkennung physischer Gewalt wie Schlagen oder Treten sowie auf der Identifizierung gestürzter Personen. Die Kosten allein für diesen Teil des Projekts sollen sich bis 2028 auf knapp vier Millionen Euro belaufen.
Kritische Stimmen, darunter der Chaos Computer Club (CCC), bezweifeln die wissenschaftliche Wirksamkeit solcher Systeme. Sie verweisen auf frühere Pilotprojekte wie am Bahnhof Südkreuz, die wenig Sicherheitsgewinn bei hohen Kosten gebracht hätten. Es besteht die Sorge, dass eine mathematische Normierung von Verhalten jede Individualität im öffentlichen Raum als potenzielles Risiko markiert und so eine Infrastruktur des Generalverdachts schafft.
Sicherheitspolitische Zeitenwende
Der CCC fordert in einem Appell den sofortigen Abbruch solcher Vorhaben [4]. Die Hackervereinigung verweist darauf, dass völlig unklar bleibe, wie Polizei und Hersteller „unerwünschtes Verhalten“ definierten. Ob ein hektischer Lauf zum Gleis, eine längere Standzeit an einer Ecke oder eine Umarmung bereits als Anomalie gewertet werden, entziehe sich der öffentlichen Nachvollziehbarkeit und wissenschaftlichen Kontrolle.
Für die Bundeshauptstadt markiert das Vorhaben eine sicherheitspolitische Zeitenwende. Kameras haben dort bislang primär den öffentlichen Nahverkehr im Blick. Eine Videoüberwachung von Straßen und Plätzen war bislang die Ausnahme. Nun soll dieser Schritt sogar mit einem „Verhaltensscanner“ gekoppelt werden, was besonders umkämpft ist [5]. Das von Schwarz-Rot jüngst novellierte Berliner Polizeigesetz [6] schafft die Basis dafür, dass die im öffentlichen Raum erfassten Daten unbeteiligter Passanten sogar dazu genutzt werden dürfen, kommerzielle Überwachungssoftware zu trainieren und zu optimieren.
URL dieses Artikels: https://www.heise.de/-11206415
Links in diesem Artikel: [1] https://taz.de/KI-Videoueberwachung-in-Berlin/!6160851 [2] https://www.rbb24.de/panorama/beitrag/2026/03/videoueberwachung-ki-auswertung-berlin-test.html [3] https://www.meinauftrag.rib.de/public/publications/579803 [4] https://www.ccc.de/de/updates/2026/verhaltenueberwachung [5] https://netzpolitik.org/2026/ki-gestuetzte-videoueberwachung-in-berlin-so-wehrt-man-sich-gegen-verhaltensscanner [6] https://www.heise.de/news/Berlin-Polizei-darf-Wohnungen-zur-Staatstrojaner-Installation-heimlich-betreten-11103253.html [7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner [8] mailto:akn@heise.de