
Liberty Global wird Vodafones Anteil an dem niederländischen Telco-Joint-Venture Vodafone Ziggo übernehmen. Das hat die Vodafone Group am 18. Februar 2026 bekanntgegeben . Liberty Global zahlt Vodafone eine Milliarde Euro (1,18 Milliarden US-Dollar) für dessen 50-prozentigen Anteil an Vodafone Ziggo.
Anschließend soll der niederländische Betreiber mit dem belgischen Unternehmen Telenet fusioniert und ausgegliedert werden. Vodafone wird einen Anteil von zehn Prozent an der neu gegründeten Ziggo Group übernehmen, zu der auch Libertys belgischer Betreiber Telenet gehören wird. Liberty plant, die Ziggo Group im nächsten Jahr an die Börse in Amsterdam zu bringen.
"Diese Transaktion bringt Vodafone eine Milliarde Euro ein. Und wir haben durch unsere 10-prozentige Beteiligung an der Ziggo Group, einem Unternehmen mit größerem Umfang, weiteres Wertsteigerungspotenzial" , sagte Margherita Della Valle, die Chefin der Vodafone Group. Mit dem Verkauf von Vodafone Italy an Swisscom setzte die Vodafone Group zuvor ihren Rückzug aus Europa fort. Auch Vodafone Spain wurde verkauft.
Liberty gliederte im Jahr 2024 ihr Schweizer Unternehmen Sunrise aus und führte eine Reihe von Entlassungen durch.
Laut Insidern laufen die Gespräche über den Verkauf von Vodafones Anteil an Ziggo bereits seit über einem Jahr und scheiterten zuvor an unterschiedlichen Bewertungsvorstellungen. Mike Fries, CEO von Liberty Global, übernahm zum Jahresbeginn auch den Vorsitz des Board of Directors (Chairman) von John Malone (84).
Das Joint Venture Vodafone Ziggo wurde im Jahr 2016 gegründet und bietet in den gesamten Niederlanden Festnetz-, Mobilfunk- und Kabelfernsehen. Das niederländische Kabelgeschäft von Liberty wurde mit Vodafones Mobilfunkgeschäft zu Vodafone Ziggo zusammengeführt.
Zu einer weiteren, am 18. Februar 2026 angekündigten Transaktion gab Liberty Global bekannt, gemeinsam mit Telefónica und Infravia in Großbritannien das zweitgrößte Glasfasernetz des Landes, Netomnia, für zwei Milliarden Pfund (2,7 Milliarden US-Dollar) zu kaufen.
Liberty Global erhält mit Netomnia über 500.000 Kunden, der Netzbetreiber will bis Ende 2027 acht Millionen Haushalte mit Glasfaseranschluss versorgen und wird damit zu einem wichtigen Konkurrenten des BT-Openreach-Netzes.

Ein gutes HDMI-Kabel ist essenziell für jedes Gaming- oder Heimkino-Setup. Denn nicht jedes Modell, vor allem nicht ein altes, unterstützt extrem hohe Auflösungen, dreistellige Bildwiederholraten oder Features wie eARC. Ein HDMI-Kabel von Ugreen, das all das und noch mehr kann, ist derzeit bei Amazon zum bisher niedrigsten Preis von knapp acht Euro im Angebot. Der Rabatt gilt bis zum 22. Februar.
Ugreens HDMI-2.1-Kabel lässt Spiele und Filme so gut wie möglich aussehen. Es kann Bildinhalte mit bis zu 8K Auflösung bei 60 Hz und 4K Auflösung bei 240 Hz darstellen. Laut Hersteller unterstützt es wichtige Features wie Dynamic HDR und, besonders interessant für Vielspieler, Variable Refresh Rate zum Reduzieren von Bildreißen und Auto Low Latency Mode samt Quick Media Switching für minimale Verzögerungen. Es ist problemlos kompatibel mit Playstation 5, Xbox Series X/S, der Nintendo Switch 2, PCs, BluRay-Playern und vielen weiteren Geräten.
Auch für audiophile Nutzer lohnt sich das HDMI-2.1-Kabel von Ugreen. Zum einen ist es eARC-kompatibel, kann also Audiosignale mit hoher Bandbreite vom TV an Soundbars oder Receiver übertragen. Zum anderen unterstützt es unkomprimierte Audioformate wie DTS Master, DTS:X oder Dolby TrueHD.
Ugreen zufolge ist das HDMI-2.1-Kabel auf hohe Langlebigkeit ausgelegt. Das Kabel ist mit einem robusten geflochtenen Mantel umwickelt, ideal für Haushalte mit kaufreudigen Tieren. Die Stecker sind vernickelt und in eine Aluminiumschale eingelassen. Eine vierschichtige Abschirmung verhindert Interferenz durch andere elektrische Geräte und garantiert ein klares Bild- und Audiosignal.
Amazon-Kunden sind mit Ugreens HDMI-2.1-Kabel mehr als zufrieden. Über 10.000 Nutzer vergeben im Schnitt 4,7 von 5 Sternen; allein im letzten Monat wurde es über 5.000 Mal bestellt. Am häufigsten werden die hohe Verarbeitungs- und Übertragungsqualität, der niedrige Preis und die hohe Haltbarkeit gelobt.
Das HDMI-2.1-Kabel von Ugreen ist bei Amazon 27 Prozent reduziert. Es kostet 8,02 Euro statt der unverbindlichen Preisempfehlung von 10,99 Euro. Auch Varianten zwischen 0,5 und 10 Metern Länge sind günstiger und schon ab 6,87 Euro erhältlich. Zwischen den Optionen kann man einfach auf der Produktseite wählen. Mehr spannende Angebote für diverse HDMI- und USB-Kabel, aber auch Powerbanks, USB-Ladegeräte oder USB-Hubs findet man in Ugreens Amazon-Store . Stöbern lohnt sich.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Das ändert nichts am Preis der Artikel.

Beim politischen Aschermittwoch der CDU Rheinland-Pfalz in Trier hat Friedrich Merz deutlich gemacht, was er von anonymen Nutzern sozialer Medien hält: nichts. "Ich möchte Klarnamen im Internet sehen. Ich möchte wissen, wer da sich zu Wort meldet" , hat Merz vor dem Publikum gesagt.
Sein Argument: Politiker stehen öffentlich mit ihrem Namen für ihre Positionen ein. Diesen Anspruch wolle er auch an alle anderen stellen, die sich gesellschaftlich oder politisch äußern.
Besonders scharf kritisierte der Bundeskanzler jene, die im Netz anonym agieren, gleichzeitig aber maximale Transparenz von anderen einfordern. Das sei häufig genug eine Einbahnstraße . Wie eine Klarnamenpflicht rechtlich umgesetzt werden könnte, ließ er offen. Eine konkrete Gesetzesinitiative kündigte er gar nicht erst an.
Innerhalb der Bundesregierung stößt der Vorstoß auf Widerstand. Bundesjustizministerin Stefanie Hubig sprach sich schon im Dezember 2025 gegen eine allgemeine Klarnamenpflicht aus. Der Widerstand kommt auch aus der CDU: Der erste Parlamentsgeschäftsführer der Unionsfraktion, Steffen Bilger, hält eine generelle Klarnamenpflicht ebenfalls für überzogen .
Unabhängig von der Anonymitätsfrage räumte Merz ein, die Wirkung von Algorithmen und Künstlicher Intelligenz auf die öffentliche Meinungsbildung bislang unterschätzt zu haben. Diese Mechanismen ermöglichten es, gezielt Einfluss auf Gesellschaften auszuüben, von innen wie von außen.
Auch die hohen Nutzungszeiten sozialer Medien bei Kindern und Jugendlichen bereiten dem Kanzler Sorge. Er fragte, ob die Gesellschaft hinnehmen solle, dass die Jugend auf diesem Weg gefährdet werde. Eine Antwort auf diese rhetorische Frage blieb er jedoch schuldig. Verantwortlich machte er pauschal "Feinde der Freiheit" und "Feinde der Demokratie" .
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Marcel Kunzmann
Rein Touchscreen-basierte Bedienkonzepte sind in China und der EU bald nicht mehr zulässig
(Bild: Kittyfly/Shutterstock.com)
Kehrtwende für den "Alles-Touchscreen"-Trend: Sicherheitsbedenken zwingen Hersteller zum Umdenken. Ab 2027 werden Knöpfe in China Pflicht.
Die Ära der minimalistischen Cockpits mit riesigen Touchscreens könnte ihrem Ende entgegengehen. Sowohl Europa als auch China, zwei der weltweit größten Automobilmärkte, drängen darauf, dass wichtige Fahrzeugfunktionen künftig wieder über physische Bedienelemente gesteuert werden müssen. Der Grund: Zu viele Berührungsbildschirme lenken Fahrer ab und erhöhen das Unfallrisiko.
Die europäische Sicherheitsbewertungsorganisation Euro NCAP hat im Januar 2026 neue Bewertungskriterien eingeführt [1], die Fahrzeuge mit rein touchscreen-basierten Bediensystemen benachteiligen.
Um die begehrte Fünf-Sterne-Bewertung zu erhalten, müssen Autos künftig über physische Bedienelemente für Blinker, Scheibenwischer, Warnblinklicht, Hupe und Notrufsysteme verfügen. Fahrzeuge, die diese Funktionen ausschließlich über Touchscreens steuern, verlieren Punkte in der Bewertung.
Obwohl die Euro-NCAP-Richtlinien rechtlich nicht bindend sind, haben sie erhebliche kommerzielle Auswirkungen. Eine Fünf-Sterne-Bewertung gilt als wichtiges Verkaufsargument, auf das kaum ein Hersteller verzichten kann.
Die Begründung ist einfach: Je länger ein Fahrer durch Menüs navigieren muss, um grundlegende Funktionen zu bedienen, desto länger sind seine Augen nicht auf der Straße. Das erhöht die Unfallgefahr, besonders in Notfällen oder wenn Systeme verzögert reagieren.
China geht einen Schritt weiter und will die Vorgabe rechtlich bindend machen [2]. Das Ministerium für Industrie und Informationstechnologie (MIIT) hat einen Verordnungsentwurf vorgelegt, der physische Bedienelemente für sicherheitsrelevante Funktionen vorschreibt. Die Regelung soll ab dem 1. Juli 2027 für alle neu produzierten Fahrzeuge verpflichtend sein.
Laut dem Entwurf [3], der sich derzeit in der öffentlichen Konsultationsphase befindet, müssen Blinker, Warnblinklicht, Gangwahl und Notrufsysteme über taktile Bedienelemente mit einer Mindestfläche von zehn mal zehn Millimetern bedienbar sein. Auch Scheibenwischer, Scheibenheizung, elektrische Fensterheber und der Hauptschalter für Elektrofahrzeuge müssen physisch erreichbar sein. Eine ausschließliche Bedienung über Bildschirme ist für diese Funktionen künftig untersagt.
Die Überarbeitung des bestehenden nationalen Standards GB4094-2016 [4] begann bereits 2023. Beteiligt waren große Automobilhersteller und Testinstitute, darunter das China Automotive Technology and Research Center, Geely, FAW-Volkswagen, BYD und Great Wall Motor. Der Entwurf sieht zudem vor, dass Bedienelemente auch bei Ausfall des Fahrzeugsystems oder Stromverlust grundlegende Funktionen beibehalten müssen.
In den vergangenen Jahren galt in der chinesischen Automobilindustrie ein minimalistisches Cockpit-Design mit großen zentralen Touchscreens nach Tesla-Vorbild als Standard – stieß jedoch zunehmend auf Kritik. Ein Vizepräsident von Geely hatte diese Entwicklung Ende 2025 als "blinden Trend" kritisiert [5], dem die chinesische Automobilindustrie verfallen sei.
Nun schwenken die Prioritäten zurück in Richtung Benutzerfreundlichkeit und Sicherheit. Die neuen Richtlinien beeinflussen bereits die Hersteller.
Volkswagen räumte bereits 2023 ein [6], dass die zu starke Abhängigkeit von Touchscreens ein "Fehler" gewesen sei, und führt bei neuen Elektrofahrzeugen physische Knöpfe für wichtige Funktionen wieder ein. Mercedes-Benz erklärte, dass traditionelle Knöpfe für bestimmte Bedienungen nach wie vor die beste Lösung seien. Hyundai verfolgt einen Hybrid-Ansatz und kombiniert Drehknöpfe und Tasten für die am häufigsten genutzten Funktionen.
Selbst Tesla, lange Zeit Vorreiter der reinen Touchscreen-Bedienung, erwägt Berichten zufolge, bei einigen Modellen den traditionellen Blinkerhebel wieder einzuführen.
Chinas Initiative beschränkt sich nicht auf Innenräume. Die Regierung plant auch strengere Standards für automatisierte Fahrsysteme der Stufen drei und vier. Diese sollen ein Sicherheitsniveau erreichen, das mit einem menschlichen Fahrer vergleichbar ist, und Fahrzeuge müssen bei Problemen in der Lage sein, sich selbstständig zum Stillstand zu bringen.
Eine andere Regelung in China, die bereits im Januar 2027 greift [7], sieht vor, dass Türgriffe sichtbar und die Türen sowohl von innen- als auch von außen mechanische bedienbar sein müssen.
Das Ergebnis ist eine Annäherung zwischen zwei großen Märkten – Europa und China – zu derselben Schlussfolgerung: Die Digitalisierung des Autos darf nicht auf Kosten von Ergonomie und Sicherheit gehen.
Nach Jahren des Wettlaufs um immer größere Bildschirme scheint die Industrie bereit, ein einfaches, aber wichtiges Prinzip wiederzuentdecken: Für manche Funktionen bleibt der physische Knopf die intuitivste, unmittelbarste und sicherste Lösung.
URL dieses Artikels:https://www.heise.de/-11181161
Links in diesem Artikel:[1] https://www.euroncap.com/en/press-media/press-releases/euro-ncap-announces-2026-protocol-changes-to-tackle-modern-driving-risks/[2] https://carnewschina.com/2026/02/16/china-to-require-physical-controls-for-vehicle-functions-reducing-reliance-on-central-control-screen/[3] https://www.miit.gov.cn/cms_files/filemanager/1226211233/attach/20262/56c5d434d8f840b9ac95ee7cf4183d5f.pdf[4] https://www.chinesestandard.net/PDF.aspx/GB4094-2016[5] https://baonghean.vn/en/trung-quoc-yeu-cau-xe-moi-phai-co-nut-bam-vat-ly-han-che-phu-thuoc-man-hinh-10324253.html[6] https://www.computerbild.de/artikel/cb-News-Connected-Car-Volkswagen-Fokus-auf-Touchscreen-war-Fehler-36044365.html[7] https://www.heise.de/tp/article/Problem-fuer-Tesla-China-verbietet-versteckte-Tuergriffe-bei-Elektroautos-11163676.html
Copyright © 2026 Heise Medien
Matthias Lindner
(Bild: AustralianCamera / Shutterstock.com)
Ein US-Angriff auf den Iran könnte in Tagen beginnen – und das Nadelöhr im Persischen Golf den globalen Ölmarkt ins Chaos stürzen.
Nur wenige Tage ist es her, dass Diplomaten aus den USA und dem Iran verhandelten. Doch wer gedacht hatte, die Kriegsgefahr sei verringert worden, dürfte sich täuschen. Das Gegenteil scheint der Fall zu sein.
Ein Berater von US-Präsident Donald Trump erklärte gegenüber [1] Axios: Die Wahrscheinlichkeit, dass die US-Truppen in den nächsten Wochen mit ihrem Angriff beginnen, liegt bei 90 Prozent.
Und die Aktion dürfte anders werden als gegen Venezuela oder den 12-Tage-Krieg im vergangenen Jahr. Laut Bericht könnte es ein Krieg werden, der wochenlang anhält. Das erklärte Ziel ist, das iranische Atomprogramm und seine Fähigkeiten zum Raketenbau zu zerstören. Letztlich liebäugelt man in Washington auch mit einem Regimewechsel.
Noch versuchen beide Seiten, zumindest dem Anschein nach den Weg über den Verhandlungstisch offenzuhalten. Am Dienstag saßen Trumps Vertraute Jared Kushner und Steve Witkoff in Genf drei Stunden lang dem iranischen Chefdiplomaten Abbas Araghchi gegenüber.
Teheran vermeldete danach eine "allgemeine Einigung" über mögliche Eckpunkte eines Atomdeals.
In Washington klingt das ganz anders: Vizepräsident J. D. Vance räumte bei Fox News zwar ein, dass Teile der Unterredung konstruktiv gewesen seien. Zugleich betonte er, Trump habe unmissverständliche Grenzen markiert, die der Iran bislang nicht akzeptiere. Die Diplomatie könne durchaus an ihr "natürliches Ende" gelangen, warnte Vance.
Die amerikanische Seite gab Teheran nun 14 Tage Zeit, um einen ausformulierten Gegenvorschlag vorzulegen. Ein brisantes Detail: Als Washington im vergangenen Juni eine identische Frist setzte, begann nur drei Tage nach deren Ablauf die Operation Midnight Hammer.
Während die Verhandler noch reden, schafft Washington allerdings schon Fakten und lässt seine Truppen aufmarschieren. Ein Flugzeugträgerverband ist schon in der Region, ein zweiter dürfte in den nächsten Tagen dort eintreffen.
Zudem wurden rund ein Dutzend Begleitschiffe, Hunderte Kampfjets sowie mehrere Flugabwehrbatterien in den Nahen Osten verlegt. Über 150 Frachtmaschinen flogen Munition und schweres Gerät ein. Allein in den vergangenen 24 Stunden stießen laut Axios 50 zusätzliche Jets der Typen F-35, F-22 und F-16 dazu.
Aus US-Sicht beschränkt sich dieser Aufmarsch nicht darauf, nur eine Demonstration potenzieller Macht zu sein. Sobald Trump den Daumen senkt, soll zugeschlagen werden. Wie Axios von israelischen Diplomaten erfahren haben will, rechnet man in Jerusalem mit einem Kriegsbeginn innerhalb weniger Tage.
Ein Angriff auf den Iran lenkt unweigerlich auch den Blick auf die Straße von Hormus. Durch diesen kaum 34 Kilometer breiten Korridor zwischen dem Iran und der Arabischen Halbinsel fließen täglich etwa 16,7 Millionen Barrel Rohöl – ungefähr ein Viertel des gesamten Seehandels mit Erdöl weltweit.
Hinzu kommt, dass fast ein Fünftel der globalen LNG-Ladungen [2] durch diese Meerenge transportiert werden, hauptsächlich aus Katar.
Teheran droht seit Jahren damit, diese Lebensader im Krisenfall abzuschnüren. Das Arsenal dafür reicht von Anti-Schiffs-Raketen und Kamikazedrohnen über Seeminen hin zu elektronischen Störsendern, die das GPS ziviler Tanker lahmlegen können.
Mitte Februar demonstrierte die iranische Marine bereits mit Übungen in der Meerenge, was möglich wäre.
Sollte der Schiffsverkehr durch Hormus tatsächlich tagelang zum Erliegen kommen, wären die Konsequenzen für den Erdölmarkt gewaltig. Ein Kpler-Analyst beziffert laut Bloomberg den möglichen Preisanstieg auf 120 bis 150 US-Dollar je Barrel. Mitte Februar lagen die Preise bei rund 66 US-Dollar.
Eine Modellrechnung von Bloomberg Economics geht von einem Sprung um rund 80 Prozent auf etwa 108 US-Dollar aus. In diesem Szenario [3] würde die US-Inflation auf vier Prozent klettern, während China und die Eurozone jeweils rund einen halben Prozentpunkt an Wirtschaftswachstum einbüßen dürften.
Ausweichrouten gibt es kaum. Saudi-Arabien kann über eine Pipeline zum Roten Meer täglich fünf Millionen Barrel umleiten, die Emirate verfügen über eine kleinere Leitung zum Golf von Oman.
Kuwait, Katar und Bahrain dagegen hängen vollständig von der Meerenge ab – ebenso wie der Iran selbst, der 2025 so viel Rohöl über Hormus exportierte wie seit 2018 nicht mehr.
An den Börsen macht sich die Anspannung bereits bemerkbar. Nach Veröffentlichung des Axios-Berichts sprang der Brent-Preis kurzzeitig über die Marke von 70 US-Dollar, die US-Referenzsorte WTI verteuerte sich um gut vier Prozent.
Ole Sloth Hansen, Rohstoffstratege bei der Saxo Bank, bezweifelt laut Bloomberg allerdings, dass Trump vor den Zwischenwahlen tatsächlich sprunghaft steigende Spritkosten in Kauf nehmen würde.
Genau das ist Trumps Dilemma: Jeder Raketenangriff auf iranische Anlagen könnte sich wenige Wochen später an amerikanischen Tankstellen niederschlagen – und damit ausgerechnet jene Wähler treffen, denen der Präsident günstige Lebenshaltungskosten versprochen hat.
URL dieses Artikels:https://www.heise.de/-11181741
Links in diesem Artikel:[1] https://www.axios.com/2026/02/18/iran-war-trump-military-strikes-nuclear-talks[2] https://www.bloomberg.com/news/articles/2026-02-18/strait-of-hormuz-how-can-iran-close-it-how-would-the-oil-market-be-affected[3] https://www.bloomberg.com/news/articles/2026-02-10/the-108-oil-war-can-the-middle-east-crash-the-world-economy
Copyright © 2026 Heise Medien
Bernardo Cantz
(Bild: Wavepiston)
Während Solar und Wind schwächeln können, setzt eine Karibikinsel auf eine Energiequelle, die rund um die Uhr liefert – direkt aus dem Meer.
Die Energiewende erfordert innovative Wege – und der Karibikstaat Barbados will sie beschreiten. Statt aus fossilen Rohstoffen soll Strom künftig aus dem Meer, genauer: aus der Bewegung der Wellen, gewonnen werden.
Dafür hat die Regierungsbehörde Export Barbados (BIDC) eine Absichtserklärung [1] mit der dänischen Firma Wavepiston unterzeichnet. Geplant ist ein Wellenkraftwerk mit einer Leistung von 50 Megawatt.
Die Anlage soll zwei Aufgaben zugleich erfüllen: elektrischen Strom liefern und Trinkwasser aus Meerwasser gewinnen.
Mit der Anlage will sich Barbados ein Stück weit von fossilen Brennstoffen lösen. Das liegt einmal daran, dass sie fast vollständig importiert werden müssen. Und das macht die Energieversorgung des Landes abhängig von den stark schwankenden Preisen am Weltmarkt.
Aber Barbados hat noch mit einem anderen Problem zu kämpfen: Besonders in den trockenen Monaten wird regelmäßig das Trinkwasser knapp. Abhilfe soll aufbereitetes Meerwasser leisten.
Zwar liefern Photovoltaik und Windkraft bereits saubere Energie, doch ihre Erzeugung schwankt, je nach Tageszeit und Wetter. Die Regierung in Bridgetown verfolgt daher das Ziel, bis 2030 Netto-Null-Emissionen zu erreichen, und sucht nach ergänzenden Quellen, die rund um die Uhr verfügbar sind.
Genau dieses Profil bietet die Wellenenergie. Im Gegensatz zu Sonnenlicht oder Wind liefern Ozeanwellen nahezu kontinuierlich kinetische Energie.
Eine Machbarkeitsstudie mit dem Namen "Project WEB", die 2024 durchgeführt wurde [2], bestätigt: Vor der Atlantikküste von Barbados gibt es ausreichend starke und gleichmäßige Wellenbewegungen, um einen kommerziellen Energiepark wirtschaftlich betreiben zu können.
Das technische Konzept von Wavepiston unterscheidet sich grundlegend von anderen Ansätzen zur Nutzung von Meeresenergie. Anstatt Strom direkt unter Wasser zu erzeugen und über empfindliche Seekabel an Land zu transportieren, setzt das System auf ein hydraulisches Prinzip.
An langen Ketten von jeweils rund 350 Metern hängen dutzende sogenannte Energiesammler. Jeder dieser Sammler trägt ein bewegliches Segel aus flexiblem Material, das den Wellenbewegungen folgt. Dieses Vor- und Zurückschwingen betätigt integrierte Kolbenpumpen, die Meerwasser auf hohen Druck bringen.
Über Rohrleitungen strömt dieses Druckwasser anschließend zu einer zentralen Umwandlungsstation. Dort stehen zwei Verwertungspfade offen: Entweder treibt der Wasserdruck eine konventionelle Turbine an, die Strom ins Netz einspeist, oder er speist eine Umkehrosmose-Anlage zur Entsalzung.
Herkömmliche Entsalzungstechnik verschlingt enorme Mengen an elektrischer Energie, weil leistungsstarke Pumpen das Salzwasser durch feinporige Membranen pressen müssen. Da Wavepiston den erforderlichen Druck bereits mechanisch aus der Wellenbewegung gewinnt [3], entfällt dieser kostspielige Zwischenschritt weitgehend.
Ein zusätzlicher Vorteil ergibt sich aus der Anordnung der Sammler entlang der Kette: Weil die Welle sie nacheinander erreicht, geben sie das Druckwasser zeitlich versetzt ab. Dadurch entsteht ein gleichmäßiger Volumenstrom, der sowohl die Turbine als auch die Entsalzungsanlage mit konstantem Druck versorgt.
Die große Hürde für Wellenkraftwerke besteht darin, dass sie selbst extremen Seegang aushalten müssen. Wavepiston löst dieses Problem mit einem passiven Schutzmechanismus: Die Segel bestehen aus nachgiebigem Material und weichen bei besonders hohen Wellen aus, anstatt ihnen starr Widerstand zu leisten.
Auf diese Weise absorbiert die Konstruktion die zerstörerische Kraft schwerer See, ohne dass elektronische Steuerungen eingreifen müssen. Labortests im Wellenbecken [4] der Queen's University Belfast bestätigten die Wirksamkeit dieses Prinzips unter simulierten Sturmbedingungen.
Bereits 2025 erprobte Wavepiston zudem auf Gran Canaria seine dritte Sammlergeneration. Ziel dieser neuen Version ist es, die Energieausbeute um 30 Prozent gegenüber dem Vorgängermodell zu steigern.
Auch ökologisch fällt die bisherige Bilanz positiv aus. Sämtliche Komponenten befinden sich unterhalb der Wasseroberfläche, lediglich Markierungsbojen ragen heraus. Von der Küste aus bleibt die Anlage dadurch praktisch unsichtbar.
Europäische Testinstallationen zeigten zudem, dass die Unterwasserstrukturen als Lebensraum für Meeresorganismen dienen und die lokale Artenvielfalt eher fördern als beeinträchtigen.
Die Anlage auf Barbados soll nicht nur dazu dienen, Energie zu gewinnen. Sie ist Kern eines größeren, wirtschaftspolitischen Vorhabens. Die Insel möchte sich als Schwergewicht bei der Meeresenergie in der Karibik etablieren, lokale Fachkräfte ausbilden und Arbeitsplätze schaffen.
Wavepiston führt nach eigener Auskunft Gespräche über insgesamt 17 Projekte weltweit, die bis 2035 eine Gesamtkapazität von 3,5 bis 5,4 Gigawatt erreichen und Erlöse zwischen einer und zwei Milliarden Euro generieren sollen.
Einen verbindlichen Zeitplan [5] für den Baubeginn der 50-Megawatt-Anlage vor Barbados nannte das Unternehmen bislang jedoch nicht. Ebenso fehlen konkrete Angaben zu den erwarteten Stromgestehungskosten, an denen sich der tatsächliche Nutzen für die Bevölkerung messen lassen wird.
URL dieses Artikels:https://www.heise.de/-11181683
Links in diesem Artikel:[1] https://wavepiston.dk/mou-barbados/[2] https://interestingengineering.com/energy/50-mw-wave-energy-pilot[3] https://www.elespanol.com/omicrono/tecnologia/20260217/generador-energia-aprovecha-olas-canarias-produce-electricidad-renovable-desalinizar-agua/1003744127849_0.html[4] https://www.newmoney.gr/roh/palmos-oikonomias/energeia/wavepiston-lansari-neo-montelo-kimatikis-energias-me-ipsiles-epidosis/[5] https://www.caribbeanenergyweek.com/news/barbados-advances-wave-energy-pilot-caribbean-solar-storage-projects-gain-traction
Copyright © 2026 Heise Medien
Apple TV aus dem Jahre 2021
(Bild: Apple)
Apple testet eine neue Audio-Funktion für Apple TV, die Verbindungsprobleme mit Soundbars beheben soll. Gleichzeitig entfernt tvOS die iTunes-Apps.
Apple hat die erste Beta-Version von tvOS 26.4 für Entwickler und öffentliche Tester bereitgestellt. Die neue Firmware enthält eine „Continuous Audio Connection“ genannte Funktion, die anhaltende Audioprobleme beim Apple TV beseitigen soll. Parallel dazu hat Apple [1] die iTunes-Filme- und iTunes-TV-Shows-Apps endgültig aus dem System entfernt.
Die neue Audio-Funktion nutzt das Dolby-MAT-Protokoll (Dolby Metadata-Enhanced Audio Transmission), um eine dauerhafte HDMI-Verbindung zwischen Apple TV und angeschlossenen AV-Receivern oder Soundbars aufrechtzuerhalten. Dabei wird der Ton als unkomprimiertes LPCM mit Dolby-Atmos-Metadaten übertragen. Das soll Probleme verhindern, die bisher beim Wechsel zwischen verschiedenen Audioformaten auftraten – etwa wenn vom Systemsound zu einem Film-Soundtrack umgeschaltet wird.
Nutzer berichteten in den vergangenen Jahren häufig über Audioprobleme beim Apple TV, insbesondere in Kombination mit Sonos-Soundbars. Zu den Symptomen zählten zu leiser 5.1-PCM-Ton, störende Plopp-Geräusche, Lautstärkeschwankungen und kurze Stille beim Start der Wiedergabe. Diese Probleme gehen auf HDMI-Handshake-Schwierigkeiten zurück, die durch das ständige Umschalten zwischen Audioformaten entstanden.
Mit der kontinuierlichen Dolby-MAT-Verbindung bleiben diese Formatwechsel aus. Erste Nutzerberichte bestätigen, dass 5.1-Inhalte nun gleich laut wie Atmos-Material wiedergegeben werden. Allerdings gibt es auch neue Probleme: Bei Stereo-Inhalten interpretieren manche Sonos-Systeme das Signal fälschlicherweise als Surround-Mix, wodurch der Center-Kanal fehlt. Da sich tvOS 26.4 noch in der Beta-Phase befindet, dürften weitere Verbesserungen folgen.
Parallel zur Audio-Funktion hat Apple die iTunes-Filme- und iTunes-TV-Shows-Apps vollständig aus tvOS entfernt. Bereits im Oktober 2023 kündigte das Unternehmen an, die Video-Dienste in der Apple-TV-App zu bündeln [2]. Mit tvOS 17.2 im Dezember 2023 wurden die Apps zunächst mit Weiterleitungsmeldungen versehen. Nun sind sie komplett verschwunden – sowohl auf dem Apple TV 4K als auch auf dem Apple TV [3] HD.
Betroffen ist auch die iTunes-Wunschliste [4], die Apple per E-Mail an Nutzer im Februar 2026 abgekündigt hat. Wer Filme oder Serien für einen späteren Kauf gespeichert hatte, sollte die Einträge in die Watchlist der Apple TV-App übertragen. Alle bereits gekauften Inhalte bleiben in der Apple TV-App zugänglich – es droht kein Zugriffsverlust.
Die Developer Beta 1 von tvOS 26.4 erschien am 16. Februar 2026, die Public Beta 1 folgte am 17. Februar. Apple veröffentlicht tvOS 26.4 typischerweise nach mehreren Beta-Phasen – die finale Version wird für Mitte bis Ende März 2026 erwartet. Die Continuous Audio Connection steht sowohl auf dem Apple TV 4K als auch auf dem älteren Apple TV HD zur Verfügung.
Ältere AV-Receiver könnten die dauerhafte Dolby-MAT-Verbindung fälschlicherweise als durchgehend aktives Atmos-Signal anzeigen. Apple betont jedoch, dass die Original-Audiomischung dadurch nicht verändert wird. Nutzer mit bekannten Kompatibilitätsproblemen – etwa beim Sony STR-ZA1100ES – berichten von deutlichen Verbesserungen.
tvOS 26.4 folgt auf tvOS 26.3, das Apple Mitte Februar 2026 mit umfangreichen Sicherheitskorrekturen veröffentlicht hatte.
URL dieses Artikels:
https://www.heise.de/-11181605
Links in diesem Artikel:
[1] https://www.heise.de/thema/Apple
[2] https://www.heise.de/news/Apple-entfernt-zwei-Apps-aus-tvOS-17-2-9569604.html
[3] https://www.heise.de/thema/Apple-TV
[4] https://www.heise.de/news/iTunes-Wunschliste-Apple-loescht-das-Feature-jetzt-ganz-11173723.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Samsungs Galaxy-Smartphones erhalten wieder Play-Dienste-Updates.
(Bild: Below the Sky / Shutterstock.com)
Nach mehrmonatiger Pause hat Samsung die Verteilung von Play-Dienste-Updates für seine Galaxy-Smartphones und -Tablets wieder aufgenommen.
Mit Beginn der Verteilung des One-UI-8-Updates [1]für Galaxy-Smartphones und -Tablets hatte Samsung die Google-Play-Dienste-Updates ausgesetzt [2]. Die Geräte erhielten damit seit Monaten keine Updates über die Play-Dienste, die neben neuen Funktionen unter anderem auch Sicherheitslücken abdichten. Nun erhalten erste Geräte wieder recht aktuelle Play-Dienste-Versionen.
(Bild: Dirk Knop / heise medien)
Dass Samsung die Verteilung der Play-Dienste-Updates wieder freigegeben hat, berichten nicht nur Nutzerinnen und Nutzer auf Reddit [3] (via Android Authority [4]). Auch ein Galaxy S24 aus der heise-online-Redaktion hat heute eine Aktualisierung erhalten. Damit hat das S24 einen Versionssprung der Play-System-Dienste von September 2025 auf Januar 2026 hingelegt.
Laut mehreren Reddit-Beiträgen scheint Samsung die Verteilung für viele Modelle freigegeben zu haben: Neben dem Galaxy S24 landen aktuelle Versionen der Play-Dienste auf dem Galaxy S24 FE, der Galaxy-S25-Serie [5], dem Galaxy A55 5G sowie dem Galaxy Z Fold 7 [6].
Die Aussetzung der Play-Dienste-Updates, die direkt von Google stammen, war laut Samsung Absicht. Der Hersteller sagte gegenüber heise online im Dezember 2025 [7]: „Bei der Einführung neuer Geräte oder größerer One-UI-Updates spielt Samsung ausschließlich Software aus, die das Unternehmen verifiziert hat. Samsung hat die Verteilung von Google-Updates vorübergehend ausgesetzt, um mögliche Probleme zu vermeiden.“ Samsung sagte damals, Google-seitige Updates ab Januar wieder aufnehmen zu wollen. Aus dem Januar ist nun offenbar Februar geworden.
Android-Smartphones, auch jene mit Samsungs Oberfläche One UI, erhalten Softwareaktualisierungen über mehrere Wege: Neben den größeren Android-System-Updates, die ein- bis zweimal im Jahr erscheinen, erhalten sie außerdem Sicherheitsaktualisierungen, die mittlerweile etwa quartalsweise verteilt werden. Außerdem bekommen sie monatliche Updates über die Google-Play-Dienste. Während die jeweiligen Smartphone-Hersteller die ersten beiden Updatevarianten bereitstellen, kommen die Play-Dienste von Google.
Der Android-Entwickler kann damit bestimmte Systemkomponenten unter anderem durch eine modulare Bauweise des Betriebssystems teilweise selbst mit Updates und neuen Funktionen versorgen. Die System-Updates dienen auch zum Schließen von Sicherheitslücken und Beheben von Fehlern für bestimmte Komponenten, erklärt Google [8]. Über die Play-Dienste-Updates hat Google etwa einen erweiterten Diebstahlschutz, Instant Hotspot sowie Verbesserungen an Quick Share und Google Wallet eingeführt.
Die nächste Pause der Play-Dienste-Aktualisierungen dürfte nicht mehr fern sein. Denn Samsung bereitet schon das Update auf One UI 8.5 [9] vor, das mit dem Galaxy S26 [10] erscheint. Auf dem Markt befindliche Geräte erhalten das Update voraussichtlich ab Ende März 2026.
URL dieses Artikels:
https://www.heise.de/-11181393
Links in diesem Artikel:
[1] https://www.heise.de/news/One-UI-8-Samsung-verteilt-Android-16-fuer-Galaxy-S24-und-weitere-Geraete-10666878.html
[2] https://www.heise.de/news/Samsung-Galaxy-Play-Dienste-Updates-fehlen-seit-Monaten-11118002.html
[3] https://www.reddit.com/r/samsunggalaxy/comments/1r7y4gu/google_play_services_updates_resumed_on_all/
[4] https://www.androidauthority.com/recent-samsung-phones-getting-play-system-updates-3641949/
[5] https://www.heise.de/tests/Samsung-Galaxy-S25-Ultra-und-S25-im-Vergleich-10273668.html
[6] https://www.heise.de/tests/Falt-Smartphones-Samsung-Galaxy-Z-Fold7-und-Flip7-im-Test-10486284.html
[7] https://www.heise.de/news/Samsung-erklaert-ausbleibende-Google-Play-Dienstupdates-11124911.html
[8] https://support.google.com/product-documentation/answer/14343500
[9] https://www.heise.de/news/One-UI-8-Samsung-verteilt-Android-16-fuer-Galaxy-S24-und-weitere-Geraete-10666878.html
[10] https://www.heise.de/news/Galaxy-S26-Samsung-kuendigt-Unpacked-Event-an-11172342.html
[11] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[12] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[13] mailto:afl@heise.de
Copyright © 2026 Heise Medien
(Bild: Olimex)
Der Dual-Core-RISC-V-SoC mit 400 MHz und 32 MB PSRAM bringt Multimedia-Funktionen ins Mikrocontroller-Umfeld.
Olimex aus Bulgarien hat mit dem ESP32-P4-PC ein neues Open-Source-Hardware-Board vorgestellt, das (wie der Name schon sagt) auf dem ESP32-P4 basiert. Das Board bietet viele Schnittstellen und Erweiterungsmöglichkeiten auf einer Platine und richtet sich klar an Maker, die mehr wollen als nur einen weiteren WLAN-Mikrocontroller.
Der ESP32-P4 ist ein Prozessor mit zwei RISC-V-Kernen und bis zu 400 MHz Taktfrequenz. Der Chip bringt 768 KByte internen SRAM mit und unterstützt externes PSRAM. Davon sind auf dem ESP32-P4-PC 32 MByte untergebracht. Hinzu kommen Peripherieblöcke wie USB 2.0, Ethernet-MAC, LCD-Interface mit MIPI-DSI-Unterstützung sowie eine Kamera-Schnittstelle (CSI). Der P4 ist damit klar auf HMI-, Multimedia- und Edge-Anwendungen ausgelegt und weniger auf „Blink-LED“.
Das Board von Olimex nutzt diese Fähigkeiten konsequent aus. Neben Ethernet-Anbindung – optional auch mit Stromversorgung darüber (PoE) – sind HDMI-Ausgang, MIPI-DSI für Displays und eine CSI-Schnittstelle für Kameras direkt vorgesehen. Damit lassen sich beispielsweise kompakte Vision-Systeme, smarte Bedienpanels oder lokale Edge-AI-Anwendungen aufbauen, ohne zusätzliche Adapterplatinen stapeln zu müssen. Wer schon einmal versucht hat, Kamera, Display und Ethernet sauber auf einem Mikrocontroller-Board unterzubringen, weiß: Das spart Nerven – und Steckverbinder. Allerdings unterstützt der ESP32-P4 von sich aus weder WLAN noch Bluetooth. Auch der ESP32-P4-PC verfügt über kein dementsprechendes Modul.
Für Debugging und Entwicklung steht USB-JTAG zur Verfügung. Die Stromversorgung erfolgt über USB-C, zusätzlich ist ein Lithium-Polymere-Akku mit UPS-Funktion integrierbar. Damit kann das Board bei Stromausfall weiterlaufen oder sauber herunterfahren. Gerade bei IoT-Gateways oder industriellen Steuerungen ist das ein praktisches Detail, das sonst oft nachgerüstet werden muss.
Auch klassische Maker-Anforderungen kommen nicht zu kurz. Alle freien GPIO-Pins sind herausgeführt. Über den UEXT-Anschluss lassen sich Erweiterungsmodule anbinden, wie man sie von Olimex kennt (beispielsweise ein Zigbee [1]-Modul). Zusätzlich sind ein Audio-Klinkenanschluss und ein MicroSD-Slot vorhanden. Das eröffnet Einsatzfelder von Multimedia-Terminals bis hin zu Datenloggern mit lokaler Speicherung.
Technisch interessant ist die Kombination aus hoher Taktfrequenz, großem PSRAM und den dedizierten Multimedia-Schnittstellen des ESP32-P4. Laut Datenblatt unterstützt der Chip unter anderem parallele LCD-Interfaces, DMA für schnelle Datenübertragung und mehrere SPI-, I2C- und UART-Controller. Für Maker bedeutet das: Komplexe Anwendungen lassen sich stärker hardwarebeschleunigt umsetzen, anstatt alles per Software zu „erschlagen“.
Ergänzend dazu bringt der ESP32-P4 dedizierte Hardware-Unterstützung für Multimedia mit, darunter Beschleuniger für JPEG und Video-Codecs wie H.264. Damit lassen sich komprimierte Bild- und Videoströme hardwaregestützt dekodieren, ohne die beiden RISC-V-Kerne vollständig auszulasten. In Kombination mit der MIPI-CSI-Kameraschnittstelle und HDMI- beziehungsweise DSI-Ausgabe können so etwa IP-Kamera-Streams verarbeitet oder eigene Videoausgaben realisiert werden – und das weiterhin im typischen Mikrocontroller-Umfeld, also ohne ausgewachsenes Linux-System im Hintergrund.
Ein weiterer Punkt: Der ESP32-P4-PC ist vollständig Open-Source-Hardware. Schaltpläne und KiCad-Dateien werden bereitgestellt. Die Daten zur Platine liegen schon auf GitHub [2] bereit.
Preislich liegt das Board bei 25 Euro [3] und ist derzeit vorbestellbar, der Versand soll am 23. Februar 2026 beginnen.
Wer mehr Info zum ESP32-System braucht, findet in unserem Hardwarekompass [4] alles, was man wissen muss.
URL dieses Artikels:
https://www.heise.de/-11181268
Links in diesem Artikel:
[1] https://www.olimex.com/Products/Modules/RF/MOD-ZIGBEE-UEXT/
[2] https://github.com/OLIMEX/ESP32-P4-PC
[3] https://www.olimex.com/Products/IoT/ESP32-P4/ESP32-P4-PC/open-source-hardware
[4] https://www.heise.de/ratgeber/ESP32-Hardware-Kompass-Welches-Modell-Sie-fuer-Ihr-naechstes-Projekt-benoetigen-10321040.html
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/make
[7] mailto:das@heise.de
Copyright © 2026 Heise Medien
Pixel 10a (mit Schutzhülle).
(Bild: Google)
Google legt mit dem Pixel 10a sein Mittelklasse-Smartphone neu auf. Die neue Generation ist mehr Feinschliff als Revolution.
Mit dem Pixel 9a [1] hatte Google eine neue, stark reduzierte Designsprache für seine Mittelklasse eingeführt. Diese setzt der Konzern beim Pixel 10a konsequent fort: Das neue Modell soll robuster, der Bildschirmrahmen schmaler und die Rückseite nun komplett flach sein. Größere Änderungen hinsichtlich der Hardwareausstattung im Vergleich zum Pixel 9a muss man mit der Lupe suchen. Immerhin hält Google trotz der Speicherkrise die Preise stabil.
Das neue Modell verfügt wie das Pixel 9a, das in unserem Test keine groben Schwächen gezeigt hatte [2], über ein 6,3-Zoll-pOLED-Display mit Full-HD-Auflösung von 1080 × 2424 Pixeln und 422 ppi. Es unterstützt ferner eine Bildwiederholrate von 60 bis 120 Hz, ist aber mit bis zu 2000 cd/m² (HDR) und bis zu 3000 cd/m² eine kleine Spur heller als das des 9a, das bis 1800 cd/m² (HDR) und bis zu 2700 cd/m² unterstützt. Im Alltag dürfte das kaum sichtbar sein.
Laut Google verfügt das Pixel 10a indes über etwas schmalere Ränder und mit Cornings Gorilla Glass 7i eine höhere Robustheit als das 9a, das nur Gorilla Glass 3 als Schutzschicht für den Bildschirm besitzt. Wie das 9a ist das neue Modell nach IP68 gegen Staub und Wasser geschützt.
Der schlankere Rahmen macht sich bei den Abmessungen bemerkbar: Das Pixel 10a ist mit 153,9 × 73 mm eine Spur schmaler und kürzer als das 9a, das 154,7 × 73,3 mm misst. Das 10a ist indes mit 9 mm minimal dicker als das 9a mit 8,9 mm. Das neue Modell wiegt zudem 183 g und damit 3 g weniger als der Vorgänger (186 g).
Bei Prozessor, Speicher und Akku gibt es auf dem Papier keine Unterschiede zwischen 9a und 10a: Google verbaut weiterhin den Tensor-G4-Chip, der schon im 9a rechnet, flankiert von 8 GByte RAM und 128 respektive 256 GByte Flashspeicher. Gleich groß ist auch der Akku: Allerdings soll der 5100 mAh Energiespeicher 120 Stunden im Extrem-Energiesparmodus aushalten, während das 9a „nur“ bis zu 100 Stunden schafft – hier scheint der Hersteller also softwareseitig optimiert zu haben. Dies dürfte sich indes auch auf das 9a auswirken. Bei der normalen Akkulaufzeit spricht Google bei beiden von mehr als 30 Stunden. Immerhin soll das 10a nun mit 30 Watt laden, das 9a unterstützt nur 23 Watt.
(Bild: Google)
Kabelloses Laden ist zwar an Bord, allerdings nur mit bis zu 10 W; das 9a unterstützt nur 7,5 W. Das mit dem Pixel 10 eingeführte magnetische Pixelsnap [3] unterstützt das neue Modell leider nicht. Hier macht Google eine klare Trennung zwischen der Mittel- und Oberklasse.
Während die Rückseite des 10a noch eine Spur flacher als beim 9a sein soll, sind die Kameras auf dem Papier identisch: Die Weitwinkelkamera besitzt einen 48-Megapixel-Sensor, der Ultraweitwinkelsensor hat 13 Megapixel. Die Frontkamera macht Bilder mit bis zu 13 Megapixeln. Pixel-typisch bringen die Kameras allerlei KI-gestützte Funktionen mit – etwa das mit dem Pixel 9 eingeführte „Mich hinzufügen“, bei dem man den Fotografen mit einem zweiten Foto zum Gruppenbild hinzufügen kann. In den Optionen zur Bildbearbeitung finden sich weitere KI-Spielereien wie der „magische Radierer“ oder „Beste Aufnahme“ zum Austauschen von Gesichtern in einem Gruppenfoto, auch die Makrofunktion ist an Bord. Auch die mit dem Pixel 10 eingeführte Funktion „Kamera-Coach“ kann genutzt werden.
Hinsichtlich der Konnektivität unterstützt das 10a Wi-Fi 6E und Bluetooth 6.0. Weiterhin verfügt das Gerät über einen Nano-SIM-Slot sowie eSIM-Unterstützung. Ins Display ist ein optischer Fingerabdrucksensor integriert, über die Frontkamera lässt sich die Gesichtsentsperrung verwenden. Der einzige Kabelanschluss ist ein USB-C-3.2-Port, eine Klinkenbuchse hat das Google Pixel 10a nicht.
Das Pixel 10a kommt mit Android 16 [4] und Material 3 Expressive [5] ab Werk und bekommt sieben Jahre lang Updates – also bis 2033. Angesichts dessen, dass das Pixel 9a im Grunde die gleiche Hardware besitzt, könnte es sein, dass Google dem 2025er-Modell irgendwann ein weiteres Jahr schenkt. Auf Nachfrage bei Google wurde das jedoch nicht bestätigt; man sehe 7 Jahre Updates vor. Nicht vergessen darf man jedoch, dass Google dem Pixel 6 und 7 sowie dem Pixel Tablet Jahre nach ihrer Einführung zusätzliche Softwareupdates [6] zugesagt hatte. Als weiteres Smartphone nach dem Pixel 10 unterstützt das 10a auch AirDrop-Support, um Daten mit iPhones oder Macs zu teilen.
Die Vorbestellungen des Pixel 10a sind ab heute offen [7], ausgeliefert wird es ab dem 5. März. Preislich ist es genauso teuer wie der Vorgänger: Das Modell mit 128 GByte kostet 549 Euro, für die 256‑GByte-Variante verlangt Google 649 Euro. Es wird in den Farben Lavender, Berry, Fog und Obsidian angeboten.
URL dieses Artikels:
https://www.heise.de/-11178858
Links in diesem Artikel:
[1] https://www.heise.de/tests/Google-Pixel-9a-im-Test-Die-Software-macht-den-Unterschied-10346374.html
[2] https://www.heise.de/tests/Google-Pixel-9a-im-Test-Die-Software-macht-den-Unterschied-10346374.html
[3] https://www.heise.de/news/Pixel-10-10-Pro-und-XL-Googles-neue-Smartphones-mit-Magsafe-und-Android-16-10550189.html
[4] https://www.heise.de/thema/Android-16
[5] https://www.heise.de/news/Material-3-Expressive-Googles-neues-Design-fuer-Pixel-angeschaut-10640073.html
[6] https://www.heise.de/news/Pixel-Tablet-Google-verlaengert-Update-Garantie-um-zwei-Jahre-11159693.html
[7] https://store.google.com/de/?hl=de
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[10] mailto:afl@heise.de
Copyright © 2026 Heise Medien

Durch den zunehmenden Einsatz von Künstlicher Intelligenz werden Routineaufgaben in der IT automatisiert, insbesondere Junior-Positionen und standardisierte Tätigkeiten gerieten unter Druck. Das ergab der Gehaltsreport IT 2026 von Amadeus Fire , basierend auf Online-Gehaltschecks bei Gehaltsreporter und Recruiting- und Vermittlung, der am 18. Februar 2026 vorgelegt wurde. Standardisierte Tätigkeiten, etwa im Helpdesk oder in Teilen der klassischen Administration, fielen in "niedrigere Gehaltsbänder" .
Auch bei der Softwareentwicklung werden Routineaufgaben zunehmend durch KI ersetzt. Es gibt allgemein einen harten Einbruch bei den offenen IT-Stellen: Die durchschnittliche Zahl offener Stellen in IT-Berufen hatte sich im Jahr 2024 im Vergleich zum Vorjahr um 26,2 Prozent reduziert. Das ging aus dem IW-Kurzbericht (Institut der deutschen Wirtschaft) hervor, der im August 2025 vorgelegt wurde. Insgesamt sank die Zahl offener Stellen für qualifizierte Arbeitskräfte bundesweit zwischen 2023 und 2024 dagegen nur um 4,3 Prozent.
In diesem Zeitraum reduzierte sich die Zahl offener Stellen für IT-Experten von durchschnittlich 40.369 auf nur noch 26.753 und sank damit binnen eines Jahres um mehr als ein Drittel (minus 33,7 Prozent). Besonders drastisch sei die Zahl offener Stellen für Experten der Informatik (minus 46,2 Prozent) und der Wirtschaftsinformatik (minus 38,2 Prozent) eingebrochen, hieß es.
"Gefragt sind vor allem spezialisierte IT-Fachkräfte mit hoher Business-Relevanz, und sie können mit deutlichen Gehaltsaufschlägen rechnen." , heißt es in dem Bericht.
Amadeus Fire Group mit Hauptsitz in Frankfurt am Main ist ein Anbieter für Personaldienstleistungen. Zu den bestbezahlten Tätigkeitsfeldern zählen nach ihren Prognosen im laufenden Jahr Consulting und Engineering, SAP-/ERP-Beratung, IT-Security sowie Projektmanagement. In diesen Bereichen liegen die Medianjahresgehälter häufig zwischen 75.000 und über 80.000 Euro. Spezialisierung und Nähe zum Business seien entscheidend.
Zugleich rückt die Automatisierung strategischer Entscheidungen von C-Level-Managern zunehmend in den KI-Fokus. Ein Chief Executive Officer etwa muss komplexe Daten durchschauen, um die langfristige Richtung vorzugeben. KI-Systeme können dies oft präziser und unbeeinflusst von persönlichen Interessen. Verwaltungsräte müssen sich fragen, ob sie sich hoch bezahlten Selbstdarsteller in stundenlangen Videokonferenzen noch weiter leisten wollen, nur weil das eine Tradition in der Wirtschaft ist. Der Bereich Finanzen ist aufgrund seiner strukturierten Daten am anfälligsten für eine vollständige Automatisierung.

Open RAN bleibt für die Mobilfunkbetreiber ein Nischenprodukt und hatte "2025 einen Marktanteil im mittleren einstelligen Bereich am RAN-Markt" . Das hat das US-Marktforschungsinstitut Dell'Oro Group Golem auf Nachfrage erklärt. Insgesamt stabilisierte sich der globale Markt für Funkzugangsnetze (RAN) im Jahr 2025, nachdem er zwischen 2022 und 2024 fast 20 Prozent seines Wertes verloren hatte.
Stefan Pongratz, Vice President der Dell'Oro Group, sagte am 17. Februar 2026, trotz einer stärkeren Saisonalität im vierten Quartal werde für dieses Jahr ein weitgehend stabiler Umsatz im RAN-Bereich erwartet. Die Marktkonzentration erreichte in den vergangenen zehn Jahren einen Höchststand, während die durchschnittliche jährliche Wachstumsrate (CAGR) mit 1 Prozent bis zum Jahr 2030 moderat bleibe.
Laut der Dell'Oro Group sei die Umsatzrangliste im Jahr 2025 unverändert geblieben. Die fünf umsatzstärksten RAN-Anbieter weltweit sind der Marktführer Huawei, gefolgt von Ericsson, Nokia, ZTE und Samsung. Es befindet sich weiterhin kein US-Unternehmen in der Liste der bedeutenden RAN-Ausrüster.
"Die Dynamik im RAN-Anbietermarkt veränderte sich 2025: Führende Anbieter stärkten ihre Positionen, während kleinere ihre Strategien anpassten. Infolgedessen erhöhte sich die Marktkonzentration im RAN-Bereich im Laufe des Jahres" , erklärte die Dell'Oro Group weiter. Huawei und Nokia konnten demnach 2025 Marktanteile gewinnen, Ericsson und Samsung stagnierten, und der Umsatzanteil von ZTE im RAN-Bereich sank. Die kurzfristigen Aussichten seien weitgehend unverändert: Für 2026 werde mit einer Stabilität des gesamten RAN-Marktes gerechnet.
Tatsächlich war das Jahr 2025 ein neuer Tiefpunkt im Open-RAN-Markt: NEC aus Japan hat den Markt verlassen , in den USA verkaufte Boost Mobile/Dish Network seine Frequenzen und die neuen Eigner hatten kein Interesse an der Open-RAN-Technik, die verschrottet wurde. Im Juni 2025 kündigte Mavenir in den USA an, die Entwicklung und Produktion eigener Antennen einzustellen.
Pongratz sagte Golem: "Es stimmt, dass einige kleinere Anbieter ihre RAN-Aktivitäten reduzieren und Open RAN allein nicht ausreichte, um die Anbietervielfalt zu verbessern." Gleichzeitig sei laut Pongratz einer der Erfolge von Open RAN, dass die meisten größeren Anbieter die Open FH-Schnittstelle unterstützten.
Im RAN besteht die Verbindung zwischen der Basisstation (Baseband Unit, BBU) und dem Funkkopf (Remote Radio Head, RRH) oft aus geschlossenen Protokollen wie dem CPRI. Das Common Public Radio Interface ist zwar ein Standard, wurde aber von jedem Hersteller proprietär implementiert. Das bedeutet, dass eine Ericsson-Steuereinheit (BBU) nur mit einem Ericsson-Funkkopf (RRH) funktioniert. Die Open FH-Schnittstelle ersetzt CPRI durch ein offenes Profil, das meist auf 7.2x Split basiert. Wenn ein Hersteller dieses Profil nativ unterstützt, kann man theoretisch eine O-DU (Distributed Unit) von Nokia mit einer O-RU (Radio Unit) von Ericsson verbinden.
Open RAN bedeutet Cloud, virtualisierte Netzwerkelemente, White-Box-Hardware, Integrationssoftware und standardisierte Schnittstellen von vielen verschiedenen Partnern. Der Standard ist ein Versuch der Netzbetreiber, zusammen mit US-amerikanischen und japanischen Herstellern professionelle Mobilfunkausrüstung durch einfache Hardware und Entkopplung der Funktionen und deren Abbildung in Software zu ersetzen. Auf proprietäre, hoch entwickelte Chips der Ausrüster und die entsprechende modernste Software muss verzichtet werden, weshalb man nicht auf dem aktuellen Stand der Technik ist. 5G Advanced ist beispielsweise mit Open RAN bisher nicht absehbar.

Mit Transport Fever 3 will das Schweizer Entwicklerstudio Urban Games seine Aufbaureihe neu ausrichten. Das Grundprinzip bleibt: Spieler verbinden Städte und Industrien über Straße, Schiene, Wasser und Luft und bauen ein funktionierendes Verkehrsnetz.
Der dritte Teil verschiebt den Fokus jedoch weg vom reinen Geldverdienen hin zu einem komplexeren Simulationssystem. "Geld ist nur noch einer von vielen wichtigen Faktoren" , erklärten die Entwickler bei einer Präsentation, an der auch Golem teilnahm.
Städte reagieren künftig auf Lärm, Umweltveränderungen und Verkehrsführung. Wachstum hängt damit nicht länger ausschließlich von effizienten Lieferketten ab, sondern auch davon, wie sehr Infrastruktur die Lebensqualität beeinflusst.
Zentral dafür ist ein überarbeitetes Warensystem. Güter bewegen sich nicht mehr weitgehend automatisch durch das Netzwerk, stattdessen lässt sich deren Ziel gezielt festlegen. "Ihr könnt jedes einzelne Stück Fracht steuern" , beschreibt das Studio den Ansatz.
Lagerhäuser dienen als echte Umschlagspunkte zwischen Verkehrsträgern und ermöglichen detailliertere Logistikplanung sowie größere Transportknotenpunkte.
Der Fuhrpark wächst auf über 290 Fahrzeuge aus der Zeit von 1900 bis 2030. Neu sind unter anderem Fracht-Straßenbahnen und Helikopter für die Offshore-Industrie. Die Straßenbahnen sollen in Innenstädten weniger Lärm und Emissionen verursachen als Lkw-Verkehr.
Zusätzlich simuliert das Spiel Städte und Bewohner umfassender als die Vorgänger: Bedürfnisse verändern sich mit der Zeit und Entscheidungen wirken sich direkt auf Bevölkerungswachstum und Stadtstruktur aus. Vier Klimazonen verändern Bau und Streckenführung, darunter ist erstmals eine subarktische Region.
Neben dem klassischen Tycoon-Modus bleibt ein freier Sandbox-Modus ohne finanzielle Zwänge erhalten. Karten lassen sich weiterhin frei erstellen oder aus realen Höhenkarten generieren.
Auch ein Tag-Nacht-Wechsel und Wetter werden ergänzt, haben allerdings nur optische Wirkung. Gleichzeitig soll der Einstieg einfacher sein, etwa durch klarere Systeme und eine stärker geführte Kampagne.
Die Kampagne umfasst acht Szenarien, die lose an historischen Ereignissen orientiert sind, etwa am Mardi-Gras-Karneval um 1900 oder am Woodstock-Festival. Statt historischer Genauigkeit heißt es laut Studio "Gameplay first" .
Einzelne Missionen führen neue Mechaniken ein, darunter KI-Konkurrenz, spezielle Zielbedingungen und sogar Stealth-artige Aufgaben. Die finale Mission soll sich um Raumfahrt drehen und funktionieren, ohne Zeit vorzuspulen.
Technisch basiert der Titel weiterhin auf der hauseigenen Engine, die seit über zehn Jahren weiterentwickelt wird. Transport Fever 3 soll 2026 gleichzeitig für Windows-PC, Playstation 5 und Xbox Series X/S erscheinen, inklusive plattformübergreifender Mods.
Das Projekt wird komplett selbst finanziert und veröffentlicht. Die Entwicklung dauerte rund sechs Jahre und hatte etwa 24 Millionen US-Dollar Budget. Für das vergleichsweise kleine Studio war das ein ungewöhnlich großes Vorhaben.
Der seit 2019 erhältliche Vorgänger verkaufte sich plattformübergreifend über zwei Millionen Mal und lebt bis heute von seiner Mod-Community mit zehntausenden Erweiterungen.
Bernd Müller
(Bild: FaceStock / Shutterstock.com)
Ärzte erhalten seit Januar ein neues Honorar – doch in sozialen Medien kursierten wilde Behauptungen über Impfpflichten.
Impfen ist ein Thema, das die Gemüter erhitzt. Spätestens seit der Corona-Pandemie blicken viele skeptisch auf die Impfpolitik und fragen sich, ob der Staat wieder übergriffig wird, sobald das Thema auf den Tisch kommt.
Seit dem 1. Januar 2026 läuft jetzt in deutschen Hausarztpraxen ein neues Abrechnungssystem: Die sogenannte Vorhaltepauschale [1] wird erstmals nach den im vergangenen Jahr beschlossenen Kriterien vergütet – inklusive einer umstrittenen Impfkomponente.
Mit dieser Neuregelung sollte eigentlich die Impfquote in manchen Praxen angehoben werden – aber wie sich zeigt, spiegelt sich das Ziel noch nicht in den Erfolgen wider.
So berichtete [2] die Ärztezeitung kürzlich, dass immer noch zu wenige Menschen gegen Grippe geimpft seien. Besonders bei älteren Menschen und Personen mit Vorerkrankungen konnten zu wenig erreicht werden. Und besonders schlecht schnitt Baden-Württemberg im bundesweiten Ranking ab.
Welchen Anteil daran die hitzige Debatte um die Vorhaltepauschale im vergangenen Jahr hatte, ist nicht klar zu beantworten. In sozialen Netzwerken sorgte sie damals für Empörung, von 'Impfzwang‘ war die Rede. Es wurde sogar behauptet, jede vierte ärztliche Leistung müsse eine Impfung sein.
Der AfD-Bundestagsabgeordnete Martin Sichert griff das Thema im vergangenen Jahr in einer Rede ebenfalls auf [3] und sprach davon, dass Ärzte bestraft würden, die eine Mindestanzahl an Impfungen verfehlen.
Die Realität ist aber eine andere. Wer die zugrundeliegenden Dokumente liest, stellt fest: In der Social-Media-Debatte wurde – wieder einmal – einiges durcheinandergeworfen und verzerrt.
Seit 2013 erhalten Hausärzte eine Zusatzpauschale, damit sie ihren Versorgungsauftrag erfüllen können. Im vergangenen Jahr hat schließlich der Bewertungsausschuss – bestehend aus Kassenärztlicher Bundesvereinigung und GKV-Spitzenverband – diese Pauschale grundlegend überarbeitet.
Die Rechtsgrundlage [4] dafür schuf das Gesundheitsversorgungsstärkungsgesetz, das noch der alte Bundestag im Januar 2025 verabschiedet hatte. Ab dem 1. Januar 2026 gelten die neuen Regeln.
Die Kassenärztliche Vereinigung setzt die Pauschale automatisch einmal pro Behandlungsfall an. Ihre Grundbewertung beträgt 128 Punkte.
Je nach Größe der Praxis [5] wird die Pauschale angepasst: Praxen mit mehr als 1.200 Fällen je Arzt und Quartal erhalten einen Aufschlag von neun Punkten. Bei weniger als 400 Fällen erfolgt ein Abzug von dreizehn Punkten.
Der eigentliche Streitpunkt dreht sich um eine Abschlagsregel bei geringer Impftätigkeit. Konkret gilt: Verabreicht eine Praxis in einem gesamten Quartal weniger als zehn Schutzimpfungen, reduziert sich die Vorhaltepauschale um 40 Prozent.
Zehn Impfungen in drei Monaten – das dürfte für die allermeisten Hausarztpraxen im regulären Betrieb kein Problem darstellen. Der Meinung ist zumindest Stephan Hofmeister, stellvertretender Vorstandsvorsitzender der KBV.
In einem Interview [6] ordnete er die Regel folgendermaßen ein: Die Vorhaltepauschale werde "nach wie vor für alle Praxen bezahlt." Die Bedingung von zehn Impfungen pro Quartal sei „für eine normale hausärztliche Praxis überhaupt kein Problem".
Für bestimmte Praxistypen greift die Kürzung ohnehin nicht, nämlich jene mit diabetologischem Schwerpunkt oder einem Schwerpunkt auf HIV. Das gilt auch für Substitutionspraxen.
Neben der Grundpauschale sieht die neue Regelung ein abgestuftes System von Zuschlägen vor.
Der Bewertungsausschuss hat hierfür zehn Qualitätskriterien definiert – von erweiterten Sprechzeiten über Hausbesuche hin zu Ultraschalluntersuchungen. Erfüllt eine Praxis mindestens zwei davon, erhält sie zehn zusätzliche Punkte. Ab acht erfüllten Kriterien steigt der Zuschlag auf 30 Punkte. Insgesamt erhält eine Praxis dann pro Fall 20,31 Euro [7].
Die viel diskutierte Impfquote stellt lediglich eines dieser zehn Wahlkriterien dar. Nur wer gezielt dieses eine Kriterium anrechnen lassen will, muss in den ersten drei Quartalen bei mindestens sieben Prozent seiner Behandlungsfälle eine Impfung dokumentieren und im vierten Quartal bei mindestens 25 Prozent.
Wer den Bonus stattdessen über andere Kriterien wie Abendsprechstunden oder psychosomatische Versorgung sichert, kann die Impfquote auch vollständig ignorieren.
Die in sozialen Medien verbreitete Formel "jede vierte Leistung" verzerrt den Sachverhalt gleich doppelt.
Erstens handelt es sich um ein optionales Bonus-Kriterium, nicht um eine Grundvoraussetzung für die Pauschale.
Zweitens bezieht sich die Quote auf Behandlungsfälle – also auf Patienten, die im Quartal versorgt werden. Ein einzelner Behandlungsfall kann dutzende Einzelleistungen umfassen, weshalb die Gleichsetzung von "Fall" und "Leistung" rechnerisch weit übertrieben ausfällt, wird von den Faktencheckern der dpa hervorgehoben.
Die Quoten hat der Bewertungsausschuss auf Grundlage der Abrechnungsdaten festgelegt, wie die [8] Ärztezeitung im vergangenen Jahr berichtete. Im vierten Quartal eines Jahres würden im Schnitt rund dreizehn Millionen Impfungen verabreicht. In den übrigen Quartalen seien es über drei Millionen.
Knapp 70 Prozent der Praxen würden die Vorgaben aus dem Stand meistern. Die restlichen 30 Prozent lägen nur knapp darunter. Der finanzielle Anreiz diene dazu, "auch künftig mindestens ein Viertel ihrer Patienten im Winterquartal zu impfen".
Ob in diesem Jahr die Impfquoten deutlich angehoben werden, wird sich noch zeigen müssen – belastbare Daten liegen erst in einigen Monaten vor.
Klar ist aber schon jetzt: Die Influenza-Impfquote liegt mit rund 40 Prozent bei den über 60‑Jährigen weit unter der von der WHO empfohlenen Marke von 75 Prozent, und selbst besonders gefährdete Gruppen wie Pflegebedürftige und Herzpatienten werden häufig nicht erreicht.
Angesichts dieser niedrigen Impfquoten gerade unter vulnerablen Gruppen erscheint zusätzlicher Anreiz zur Impfung weiterhin geboten. Allerdings wird sich erst im vierten Quartal deutlich zeigen, ob die Vorhaltepauschale dazu animiert, Patienten mehr von Impfungen zu überzeugen.
URL dieses Artikels:https://www.heise.de/-11181419
Links in diesem Artikel:[1] https://www.kvwl.de/mitglieder/abrechnung-honorar/vorhaltepauschale[2] https://www.aerztezeitung.de/Politik/Grippe-Impfquote-bei-ueber-60-Jaehrigen-laut-BARMER-viel-zu-gering-462050.html[3] https://dpa-factchecking.com/germany/251017-99-359846/[4] https://www.kbv.de/documents/infothek/rechtsquellen/bewertungsausschuss/ebm/2026/ba-792-vorhaltepauschale.pdf[5] https://www.kvwl.de/mitglieder/abrechnung-honorar/vorhaltepauschale[6] https://vimeo.com/1131371942[7] https://ebm-plus.de/vorhaltepauschale-gop-03040-2026/[8] https://www.aerztezeitung.de/Wirtschaft/Impfquote-in-Vorhaltepauschale-So-begruenden-KBV-und-Krankenkassen-die-Vorgabe-460073.html
Copyright © 2026 Heise Medien
Thomas Pany
Bild: shutterstock.com
ZDF nutzte KI-Bilder für ICE-Bericht im heute-journal. Die Panne wurde auf X aufgedeckt, bevor Leitmedien reagierten. Ein Kommentar.
Das ZDF hat bei einem Beitrag für das heute-journal gepfuscht [1]. Die Redaktion wollte zeigen, wie brutal die Einwanderungsbehörde ICE in den USA vorgeht.
Um dies mit Bildern aus dem echten Leben zu dokumentieren, griff sie zu KI-generiertem Bildmaterial [2] und zu einem Ausschnitt aus einem älteren Video [3] aus einem ganz anderen Kontext, der nichts mit der Vorgehensweise von ICE zu tun hatte.
Dem doppelten Bock, der hier geschossen wurde, schließt sich eine ganze Reihe von Fragen an. Beginnen wir mit dem Klassiker, dem großen Schlüssel zum Vorwurf der manipulierten Öffentlichkeit: cui bono?
Das ist in diesem Fall recht eindeutig zu beantworten: Es profitieren die Kritiker und Gegner der öffentlich-rechtlichen Rundfunkanstalten. Sie waren wacher als andere und sahen das Wasserzeichen, mit dem die KI-generierten Bilder gekennzeichnet waren, früher und schneller.
Ausgerechnet auf X – jener Plattform, die von vielen seriösen Journalisten mehr oder weniger ausdrücklich als trashige Bühne bezeichnet wird, von der man sich besser fernhält, weil dort zu viel Fake, Hate und Verschwörungserzählungen kursieren –, kamen die ersten Hinweise darauf, dass etwas in dem heute-journal-Beitrag nicht journalistisch sauber war.
Die Quellen reichten von alternativen Medien und dem ÖRR-Blog bis hin zu namhaften Medienkritikern wie Peter Welchering sowie politischen Akteuren wie dem FDP-Politiker Wolfgang Kubicki. Letztere werden von Leitmedien in der Regel kaum oder nur ausnahmsweise zitiert. Das Thema war dort bereits ausführlich bearbeitet, bevor Medien wie die SZ, die FAZ oder Die Zeit sich der Sache annahmen – offenkundig auch deshalb, weil die Fehler zu eklatant waren, um sie zu ignorieren.
Die Fehler räumte schließlich auch das ZDF ein. Allerdings auf eine Weise, die den Kritikern weiter Wasser auf die Mühlen lieferte. In kleinen Zügen ruderte die heute-journal-Redaktion zurück. Die Versuche des Senders, das Desaster zu managen [4], machten die Sache nicht besser, sondern eher schlimmer. Man tat sich ganz offensichtlich schwer damit, eigene Fehler in der Berichterstattung klar einzugestehen.
Zunächst korrigierte man sich auf eine unaufrichtige, kleinliche Art, die den Widerspruch zu den hohen Ansprüchen des ZDF beim Umgang mit KI, Fake-News und Faktenchecks nur noch deutlicher hervortreten ließ. Schließlich wurde eine Entschuldigung in einem eigenen heute-journal-Beitrag nachgereicht – nachdem alle Retusche vergebens gewesen war.
Das mündete in der paradoxen Situation, dass ausgerechnet das Lager derjenigen, die Faktenchecks grundsätzlich anzweifeln, sich nun als die eigentlichen Faktenchecker darstellen konnte.
Das ist politisches Kapital, das der riesige Apparat des ZDF – der über ausreichend Ressourcen zur Überprüfung von Inhalten verfügen müsste – seinen Gegnern selbst zur Verfügung gestellt hat.
Das hätte nicht passieren dürfen. Wer sich an Medienstaatsverträge hält, muss zu dem Schluss kommen: KI-Bilder haben in der Informationsberichterstattung der öffentlich-rechtlichen Sender nichts verloren.
URL dieses Artikels:https://www.heise.de/-11181321
Links in diesem Artikel:[1] https://presseportal.zdf.de/pressemitteilung/zdf-entschuldigt-sich-fuer-fehler-im-heute-journal#:~:text=ZDF%20entschuldigt%20sich%20f%C3%BCr%20Fehler,heute%20journal%22:%20ZDF%2DPresseportal[2] https://www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html[3] https://www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html[4] https://uebermedien.de/114229/die-falschen-ice-videos-im-heute-journal-und-die-katastrophale-reaktion-des-zdf/
Copyright © 2026 Heise Medien
Marcel Kunzmann
Künstlerische Darstellung des Saturn mit einem seiner Monde
(Bild: Frame Stock Footage/Shutterstock.com)
Computersimulationen legen nahe, dass Titan durch die Verschmelzung zweier früherer Monde entstand. Die Theorie könnte mehrere Rätsel um Saturn lösen.
Titan, der größte Mond des Saturn, könnte das Ergebnis einer gewaltigen Kollision zwischen zwei früheren Monden sein. Das legt eine aktuelle Studie unter Leitung von Matija Ćuk vom SETI Institute nahe, die kürzlich als Preprint für das Fachjournal Planetary Science Journal veröffentlicht wurde [1].
Die Forschungsarbeit baut auf Erkenntnissen der Cassini-Mission auf, die zwischen 2004 und 2017 das Saturn-System erkundete. Gegen Ende ihrer Mission lieferte die Sonde überraschende Messdaten zur Massenverteilung im Inneren des Planeten, die bisherige Annahmen über Saturns Rotation auf den Kopf stellten.
Jahrzehntelang gingen Wissenschaftler davon aus, dass die Präzessionsperiode von Saturn – also das langsame Taumeln seiner Rotationsachse – mit jener des Neptun übereinstimmt. Diese vermeintliche Resonanz sollte durch Gravitationswechselwirkungen zwischen beiden Planeten dazu geführt haben, dass Saturn gekippt ist und wir seine Ringe sehen können.
Cassinis Messungen zeigten jedoch, dass Saturns Masse stärker im Zentrum konzentriert ist als erwartet. Dadurch weicht die Präzessionsrate von der Neptuns ab. Um diese Diskrepanz zu erklären, schlugen Forscher des MIT und der UC Berkeley vor, dass Saturn einst einen zusätzlichen Mond besessen haben könnte. Dieser wäre nach einer nahen Begegnung mit Titan aus seiner Umlaufbahn geschleudert worden und bei der Zerstörung hätten sich Saturns Ringe gebildet.
Das Team um Ćuk nutzte Computersimulationen, um zu prüfen, ob ein zusätzlicher Mond nahe genug an Saturn herangekommen sein könnte, um Ringe zu bilden. Das wahrscheinlichste Ergebnis war jedoch eine Kollision des hypothetischen Mondes mit Titan selbst.
Einen entscheidenden Hinweis lieferte Hyperion. Die Umlaufbahn des unregelmäßig geformten Himmelskörpers ist mit jener Titans gekoppelt.
"Hyperion, der kleinste unter Saturns größeren Monden, lieferte uns den wichtigsten Hinweis auf die Geschichte des Systems", erklärte Ćuk. In Simulationen, in denen der zusätzliche Mond instabil wurde, ging Hyperion häufig verloren und überlebte nur in seltenen Fällen.
Die Forscher stellten fest, dass die Titan-Hyperion-Kopplung relativ jung ist und erst vor einigen hundert Millionen Jahren entstand – etwa zur selben Zeit, als der zusätzliche Mond verschwunden sein müsste.
"Vielleicht hat Hyperion diese Umwälzung nicht überlebt, sondern ist aus ihr hervorgegangen", sagt Ćuk [2]. Wenn der zusätzliche Mond mit Titan verschmolzen wäre, hätte dies Fragmente in der Nähe von Titans Umlaufbahn erzeugt – genau dort, wo Hyperion sich heute befindet.
Das neue Modell legt nahe, dass Titan aus der Verschmelzung zweier früherer Monde entstand: eines "Proto-Titan", der fast so groß wie der heutige Titan war, und eines kleineren "Proto-Hyperion". Diese Kollision könnte erklären, warum Titan relativ wenige Einschlagkrater aufweist – sie wären bei dem Zusammenstoß ausgelöscht worden.
Aufnahme des Titan durch die Raumsonde Cassini
(Bild: Commons/Nasa [3])Auch Titans exzentrische Umlaufbahn, die sich allmählich zu einer Kreisbahn entwickelt, deutet auf eine kürzliche Störung durch Proto-Hyperion hin. Vor der Verschmelzung könnte Proto-Titan dem Jupitermond Kallisto geähnelt haben: verkratert und ohne Atmosphäre.
Die Simulationen zeigen zudem, dass Proto-Hyperion vor seinem Verschwinden die Umlaufbahn des weiter entfernten Saturnmondes Iapetus gekippt haben könnte. Damit würde die Theorie ein weiteres langjähriges Rätsel lösen.
Wenn Titan tatsächlich durch eine Mondkollision entstand, stellt sich die Frage nach dem Ursprung von Saturns Ringen. Mitglieder des SETI-Teams hatten bereits vor über zehn Jahren vorgeschlagen, dass die Ringe aus Trümmern von Kollisionen zwischen mittelgroßen Monden in Saturnnähe stammen könnten.
Spätere Simulationen der University of Edinburgh und des Nasa Ames Research Center stützten diese Idee und zeigten, dass sich der Großteil der Trümmer wieder zu Monden zusammenfügen würde, während ein Teil nach innen gestreut würde und Ringe bilden könnte.
Lange Zeit galt die Sonne als Auslöser für diese innere Mondkollision. Die neue Forschung sieht jedoch einen weiteren Effekt der Titan-Verschmelzung als Ursache. Titans exzentrische Umlaufbahn kann innere Monde destabilisieren, wenn deren Perioden einem Bruchteil von Titans Periode entsprechen – eine Situation, die als orbitale Resonanz bekannt ist. Obwohl dies durch Zufall unwahrscheinlich ist, kann Titans sich ausdehnende Umlaufbahn solche Verhältnisse gelegentlich schaffen.
Die Folgen für betroffene kleinere Monde können katastrophal sein: Ihre Bahnen werden langgestreckt und führen zu Kollisionen mit Nachbarmonden. Wann diese zweite Katastrophe genau stattfand, ist unklar, sie muss jedoch nach Titans Verschmelzung erfolgt sein. Dies stimmt mit dem geschätzten Alter der Ringe von etwa 100 Millionen Jahren überein.
Die Nasa-Mission Dragonfly [4], die 2034 bei Titan ankommen soll, könnte diese Hypothese überprüfen. Der nuklear betriebene Oktokopter wird die Geologie und Chemie der Oberfläche analysieren.
Dragonfly könnte Hinweise darauf liefern, dass Titan vor einer halben Milliarde Jahren durch eine massive Mondkollision entstand. Der Start der Mission ist für 2028 geplant.
URL dieses Artikels:https://www.heise.de/-11180971
Links in diesem Artikel:[1] https://arxiv.org/abs/2602.09281[2] https://www.eurekalert.org/news-releases/1116284[3] https://www.nasa.gov/audience/formedia/features/MP_Photo_Guidelines.html[4] https://de.wikipedia.org/wiki/Dragonfly_(Raumsonde)
Copyright © 2026 Heise Medien
Apples große Liquid-Glass-Redesign hat für hitzige Diskussionen gesorgt. Wir ziehen Halbzeitbilanz und fragen uns, wo die Liebe zum Detail geblieben ist.
Nach einem knappen halben Jahr ist Liquid Glass im Alltag vieler Nutzer angekommen: Zwei von drei iPhones laufen laut Apple inzwischen mit iOS 26. Das umfassende Neu-Design sorgt allerdings seit der Präsentation im vergangenen Sommer immer wieder für Diskussionen – bis heute. Ein extra hinterhergeschobener Generalschalter macht die Bedienoberfläche wahlweise weniger durchscheinend. Und Apple dürfte auf lange Sicht damit beschäftigt bleiben, nachzubessern.
In Episode 115 werfen Malte Kirchner und Leo Becker einen genauen Blick auf den Zustand von iOS, iPadOS und macOS 26. Neben den schlechten wie guten Seiten von Liquid Glass geht es darum, welche neuen Funktionen sich bewährt haben – und welche Probleme bleiben. Dabei beschäftigt uns auch die zähe Weiterentwicklung von Apple Intelligence und die bislang nicht eingelösten Versprechen rund um eine neue, fähige KI-Siri. Wir diskutieren außerdem, warum Liquid Glass in macOS 26 besonders problematisch ist.
Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio [2]) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.
Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio [3]) und bei Spotify [4]. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de [5].
URL dieses Artikels:
https://www.heise.de/-11181359
Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] feed:https://mac-and-i.podigee.io/feed/mp3
[3] https://podcasts.apple.com/de/podcast/mac-i/id1499510618
[4] https://open.spotify.com/show/5Tcgc97HvYREYM7kIRsxii
[5] mailto:podcast@mac-and-i.de
[6] https://www.heise.de/mac-and-i
[7] mailto:lbe@heise.de
Copyright © 2026 Heise Medien
(Bild: Primakov / Shutterstock.com)
Apple Intelligence wird in Apple Music derzeit nicht verwendet. Mit den nächsten iOS- und macOS-Versionen soll sich das ändern. Neu ist auch eine TikTok-Koop.
Während Spotify, Deezer oder Amazon Music bereits KI-Features in ihre Streamingdienste integriert haben, hält sich Apple damit bislang zurück. Zwar basierend die verwendeten Vorschlagalgorithmen seit Jahren auf maschinellem Lernen und zuletzt kam eine intelligente Überblendungsfunktion namens AutoMix [1] hinzu, doch prompten lässt sich hier noch nichts. Das soll sich Testern der aktuellen Entwicklerbeta von iOS 26.4 [2] zufolge bald ändern: In der dort integrierten Apple-Music-App findet sich eine neue Preview-Funktion namens „Playlist Playground“. Mit „Playground“ (Spielplatz) bezeichnet Apple schon zuvor KI-Features mit Prompting-Funktionalität wie den Bildgenerator Image Playground [3] innerhalb von Apple Intelligence.
Im Rahmen des Playlist Playgrounds lassen sich nun erstmals Wiedergabelisten anhand eingegebener Textbeschreibungen erstellen. Die Funktion ist auf der Mediathekseite rechts unten zu finden, indem man dort auf das Wiedergabelisten-Icon tippt. Daraufhin erscheint die Frage, was man gerne hören möchte – und man kann etwas Passendes eintippen oder mittels Siri an das iPhone weitergeben. Einige „Ideen“ liefert Apple bereits mit, etwa „Diskosongs, die die Siebziger definiert haben“ oder „Partysongs aus dem Hip-Hop“
Nach der Eingabebestätigung wird die Wiedergabeliste erstellt – Apple erlaubt es, sie dann zur eigenen Mediathek hinzuzufügen oder nochmals manuell zu bearbeiten. Möglich ist es außerdem, mit weiteren Prompteingaben nachzuarbeiten. In ersten Versuchen klappte das recht gut, man darf den Betastatus aber nicht ignorieren. Das Feature taucht nur auf, wenn „Apple Intelligence & Siri“ erlaubt ist und die Modelle heruntergeladen wurden. Zunächst blieb unklar, ob das Feature nur mit US-englischen Systemen arbeitet oder auch auf Deutsch.
Apple hat unterdessen weitere Verbesserungen im Musikbereich vorgenommen. Zusammen mit TokTok lässt sich über die Funktion „Listening Party“ demnächst aus dem Videodienst heraus ein vollständiger Song in Apple Music wiedergeben. Das teilten Insider dem Apple-Blog 9to5Mac mit [4].
2023 hatte TikTok bereits eine Songspeicherung in Apple Music integriert. Unklar ist noch, wann die Funktion offiziell freigegeben wird. Ankündigungen dazu gab es noch nicht.
URL dieses Artikels:
https://www.heise.de/-11180975
Links in diesem Artikel:
[1] https://www.heise.de/news/AutoMix-Funktion-Warum-Apple-Music-jetzt-teils-merkwuerdig-ueberblendet-11137004.html
[2] https://www.heise.de/news/iOS-26-4-Beta-Code-Hinweise-auf-CarPlay-Videofunktion-mit-Apple-TV-11179938.html
[3] https://www.heise.de/news/Image-Playground-So-funktioniert-Apples-Bildgenerator-9995774.html
[4] https://9to5mac.com/2026/02/16/apple-music-and-tiktok-team-up-on-new-listening-party-feature-more/
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Direktanbindung von Røde-Mikros: Ein Bauteil weniger.
(Bild: Røde)
Der australische Audiospezialist vereinfacht die Nutzung von Wireless Go Generation 3 und Wireless Pro für iOS- und iPadOS-Nutzer.
Die besonders unter YouTubern beliebten Ansteckmikrofone von Røde können mit dem iPhone nun einfacher verwendet werden: Zwei Modelle verbinden sich nach einem Firmware-Update direkt mit iOS-Geräten, ohne dass es einen zusätzlichen Empfänger am USB-C- oder Lightning-Port bräuchte. Das Feature nennt sich „Direct Connect“ und steht zunächst für die Modelle Wireless Pro und Wireless Go in dritter Generation zur Verfügung.
Auf iPhone-Seite wird Rødes eigene Capture-App [1] benötigt. Diese ist kostenlos. Darüber erfolgt auch das Update. Dazu muss man Transmitter (mit Mikrofon) und Receiver zunächst aus der Ladehülle nehmen; sie müssen bereits verbunden sein. Der Receiver wird dann ins iPhone eingesteckt. Røde Capture sollte daraufhin ein Firmware-Update anzeigen, das sich dann einspielen lässt. Später steht dann eine neue Funktion in der App (oben links) bereit: „Direct Connect to TX“, also Direktverbindung zum Transmitter. Anschließend muss dieser noch einmal via Bluetooth gepairt werden, dann lässt er sich auf Knopfdruck einbinden.
Røde betont, dass die Übertragungsqualität nicht leiden soll. Auch via Bluetooth sei „die Broadcast-Audio-Qualität, für die die Geräte bekannt sind“ weiter vorhanden. Ob das wirklich so ist, sollte man aber zunächst mit Vergleichsaufnahmen testen. Es ist auch möglich, mehrere Geräte (etwa bei Wireless Go Generation 3) mit dem iPhone zu verbinden und sie über Røde Capture zu steuern. Praktische Beispiele hat der Hersteller in einem Video [2] zusammengefasst.
Ob künftig auch noch andere Mikros die Bluetooth-Funktion nachgereicht bekommen, blieb zunächst unklar. Das günstige Wireless Micro (99 Euro) beherrscht das Feature bereits. Das Wireless GO der dritten Generation kostet 200 Euro, die Wireless-Pro-Variante 300 Euro. Letztere kommt mit Time-Code-Funktion und mehr Zubehör.
Üblicherweise setzen Anbieter von Drahtlosmikrofonen auf proprietäre Sender und Empfänger, um die Stabilität der Verbindung sicherzustellen. Im semiprofessionellen Bereich werden allerdings freie Funkspektren verwendet, die nicht immer störungsfrei arbeiten.
URL dieses Artikels:
https://www.heise.de/-11180601
Links in diesem Artikel:
[1] https://apps.apple.com/de/app/r%C3%B8de-capture/id1588683096
[2] https://www.youtube.com/watch?v=X0xqj35Xvig
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de
Copyright © 2026 Heise Medien