FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

Mehr Atom, weniger Wind: Frankreichs energiepolitischer Sonderweg

Von Thomas Pany

Thomas Pany

Kühltürme eines AKW in einer französischen Land

Bild: Shutterstock.com

Die neue Energieplanung priorisiert Kernkraft, drosselt Erneuerbare und setzt auf Wärmepumpen – trotz ungelöster Abhängigkeiten.

Atomkraft, ja gerne, mehr! Diese Devise findet sich ab heute als Dekret im Journal officiel [1], dem offiziellen Amtsblatt Frankreichs, in dem Verordnungen, Dekrete und Regierungsbeschlüsse bekannt gemacht werden. Das große Schwungrad in der Energieplanung der französischen Regierung sind die Kernenergieanlagen.

Neue Reaktoren sollen gebaut, alte auf einen besseren Stand gebracht und deren Laufzeiten nicht mehr fixiert werden. Statt wie noch von den vorgängigen Staatspräsidenten und Regierungen ausgerufene Ziele zu verfolgen, die den Ausbau von Wind- und Sonnenenergie anvisierten, hat das nun keine Priorität mehr. Hier wird in der neuen energiepolitischen Roadmap [2] deutlich gebremst.

Ein Dekret als Ausdruck politischer Spaltung

Ähnlich wie in Deutschland ist die Diskussion über energiepolitische Weichenstellungen in Frankreich eine hitzige. Mit dem großen Unterschied, dass die Atomkraft im Nachbarland einen anderen Status hat als hierzulande.

Dass Sébastien Lecornu, Chef einer Minderheitsregierung, zu einem Dekret greifen musste, um die hoch umstrittene mehrjährige Energieprogrammplanung (] [3]Programmation pluriannuelle de l'énergie, PPE3) ins Gesetzesblatt zu bekommen, zeigt, wie zerstritten die französischen Parteien über das Thema Energieversorgung sind.

Man drohte ihm mit einem Misstrauensvotum. Die vorgängigen Ministerpräsidenten waren nicht in der Lage gewesen, dieses technische, inzwischen hochpolitische Dossier voranzubringen, wie Le Monde [4] notiert. Auch bleibt die Kritik [5] am neuen Programm vehement.

Ausbau der Atomkraft als strategische Entscheidung

Inhaltlich markiert die PPE3 einen klaren Richtungsentscheid. Sie bestätigt, was Präsident Emmanuel Macron bereits vor Jahren angekündigt hatte: Die Zukunft der französischen Energieversorgung soll sich vor allem auf die Kernenergie stützen.

Der bestehende Atompark wird zur tragenden Säule erklärt, neue Reaktoren gelten als strategische Investition in Energiesouveränität und industrielle Stärke. Die Abkehr von früheren Planungen, die noch eine schrittweise Reduzierung der Atomkraft vorsahen, ist deutlich – und politisch gewollt.

Energiesouveränität mit blinden Flecken

Doch so geschlossen und selbstbewusst diese Strategie auftritt, so wenig löst sie alle Widersprüche auf. Frankreich bleibt für den Betrieb seines Atomparks auf internationale Lieferketten angewiesen – auch auf solche, die politisch heikel sind.

Dazu zählt weiterhin die Abhängigkeit von russischer Nukleartechnik und Dienstleistungen [6] entlang des Brennstoffkreislaufs, von der Anreicherung bis zur Wiederaufarbeitung.

Die Betonung der Energiesouveränität verdeckt, dass zentrale Abhängigkeiten fortbestehen und sich kurzfristig kaum auflösen lassen. Gerade in Zeiten des Ukraine-Krieges bleibt dies ein energiepolitischer und außenpolitischer Zielkonflikt, den die neue Planung nicht adressiert, sondern ausspart.

Zugleich ist der massive Ausbau der Kernenergie vor allem ein Versprechen an die Zukunft. Neue Reaktoren werden erst in vielen Jahren Strom liefern.

Die Zeit bis dahin soll durch Laufzeitverlängerungen und eine stärkere Auslastung des bestehenden Parks überbrückt werden – ein Balanceakt, dessen technische und wirtschaftliche Risiken öffentlich nicht gerade mit Nachdruck besprochen werden.

Die eigentliche Bewährungsprobe liegt im Alltag

Wind- und Solarenergie verschwinden damit nicht aus dem Bild, verlieren aber ihren Status als treibende Kräfte der Energiewende. Ihr Ausbau wird gedrosselt, stärker gelenkt und an die tatsächliche Entwicklung des Stromverbrauchs angepasst.

Die Regierung argumentiert, Frankreich produziere bereits sehr viel CO2-armen Strom und laufe Gefahr, schneller Kapazitäten aufzubauen, als sie genutzt werden können. Vor allem bei der Windkraft an Land soll es weniger neue Projekte geben; stattdessen setzt man auf die Erneuerung bestehender Anlagen, um Konflikte vor Ort zu entschärfen. Die Botschaft ist klar: weniger Expansion, mehr Verwaltung des Bestands.

Auffällig ist jedoch, dass die PPE3 nicht allein auf die Stromproduktion zielt. Ein zweites, ebenso zentrales Feld ist die Wärmeversorgung – ein Bereich, der im Alltag der Menschen unmittelbar spürbar ist und bislang stark von fossilen Energien abhängt.

Hier setzt die neue Planung ausdrücklich auf einen beschleunigten Umbau. Wärmepumpen werden dabei zum zentralen Hebel der Dekarbonisierung. Sie sollen fossile Heizsysteme ersetzen, den größten Einzelposten des Energieverbrauchs angreifen und die Energiewende in Wohnungen, Häuser und Quartiere tragen. Flankiert wird dies durch den Ausbau von Wärmenetzen sowie weiteren erneuerbaren Wärmequellen.

Ergänzt wird dieser Kurs durch den Einsatz zusätzlicher CO₂-armer Energieträger für Bereiche, die sich nicht ohne Weiteres elektrifizieren lassen. Insgesamt zeichnet die PPE3 das Bild eines Landes, das seine Energiepolitik stärker zentralisiert, stärker auf bewährte Großtechnik setzt und die Energiewende weniger als dynamischen Umbau, sondern als kontrollierten, staatlich gelenkten Prozess versteht.

Mit der PPE3 entscheidet sich Frankreich bewusst für einen Sonderweg – einen, der auf Atomkraft als Rückgrat setzt, erneuerbare Energien zügelt und die eigentliche Bewährungsprobe der Energiewende im Alltag sucht: beim Heizen, bei der Wärme und damit bei den Wärmepumpen.


URL dieses Artikels:
https://www.heise.de/-11176075

Links in diesem Artikel:
[1] https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000053464980
[2] https://www.france24.com/fr/france/20260212-moins-renouvelable-plus-nucl%C3%A9aire-nouvelle-strat%C3%A9gie-%C3%A9nerg%C3%A9tique-fran%C3%A7aise
[3] https://www.google.com/search?q=Programmation+pluriannuelle+de+l%27%C3%A9nergie&num=10&sca_esv=4b271a6f1ec3bc04&sxsrf=ANbL-n7-91BB6fay9uiHAMzDVv8pqlkgnQ%3A1770977379050&ei=Y_iOadjcAoOBxc8PusfFwAQ&biw=1152&bih=503&ved=2ahUKEwibhfmmuNaSAxW0QPEDHXPpEFoQgK4QegQIAhAB&uact=5&oq=wof%C3%BCr+steht+die+Abk%C3%BCrzung+PPE3+in+der+feanz%C3%B6sischen+Energiepolitik%3F&gs_lp=Egxnd3Mtd2l6LXNlcnAiRndvZsO8ciBzdGVodCBkaWUgQWJrw7xyenVuZyBQUEUzIGluIGRlciBmZWFuesO2c2lzY2hlbiBFbmVyZ2llcG9saXRpaz9ItZ0CUKkEWLqLAnAaeAGQAQCYAasBoAHBV6oBBDcuODW4AQPIAQD4AQH4AQKYAl-gAvtOqAIAwgIKEAAYsAMY1gQYR8ICChAAGIAEGEMYigXCAgUQABiABMICCxAuGIAEGNEDGMcBwgIEECMYJ8ICDBAjGIAEGBMYJxiKBcICDhAuGIAEGMcBGI4FGK8BwgIFEC4YgATCAgoQIxiABBgnGIoFwgIIEAAYgAQYywHCAgoQABiABBgKGMsBwgIGEAAYFhgewgIIEAAYFhgKGB7CAgoQLhiABBhDGIoFwgILEC4YgAQYxwEYrwHCAgQQABgewgIFECEYoAHCAgUQABjvBcICBRAhGJIDwgIEECEYFcICBxAhGKABGArCAggQABiABBiiBJgDB-IDBRIBMSBA8QVgMV949KVhjYgGAZAGBJIHBTI0LjcxoAeo7gOyBwQ0LjcxuAfBTcIHCTAuMy42NC4yOMgHiAWACAA&sclient=gws-wiz-serp&mstk=AUtExfBdk5XXNa4BmAP-s-1LrnkAG6LcVpke-Vc4A0h9GkkC71c4xxVXTLM-NgKEmlEbEhh5Hw45JiPnHdIg6qAYzviKJ18hjKMBaYGsDyvgxiODEhNOeNJUWpEAtF1j1c82zgiUmbKP9nG86OOBQVgTfnh7c8TYkc3xHsqQ2QDb1R3I93Q&csui=3
[4] https://www.lemonde.fr/economie/article/2026/02/12/strategie-energetique-le-gouvernement-donne-la-priorite-au-nucleaire_6666442_3234.html
[5] https://www.france24.com/fr/france/20260212-moins-renouvelable-plus-nucl%C3%A9aire-nouvelle-strat%C3%A9gie-%C3%A9nerg%C3%A9tique-fran%C3%A7aise
[6] https://www.wiwo.de/politik/europa/abhaengigkeit-von-russland-warum-spricht-niemand-ueber-russisches-uran-fuer-atomkraftwerke/28308616.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 13:52

AirTag 2 im Praxistest: 50 Meter statt 15 – ein echter Gamechanger | c't 3003

Von Heise

AirTag 2 vs. AirTag 1 vs. Moto Tag: c't 3003 testet die Reichweite der Nahbereichsuche unter realen Bedingungen. Der Unterschied ist enorm.

Apple verspricht beim AirTag 2 eine deutlich höhere UWB-Reichweite – aber stimmt das auch in der Praxis? c't 3003 hat den neuen Tracker gegen den Vorgänger und Motorolas Android-Alternative antreten lassen. Das Ergebnis: Bis zu 50 Meter statt 15 Meter Nahfunk-Reichweite machen beim Suchen einen gewaltigen Unterschied.

Transkript des Videos

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, das ist ein AirTag 2 und ja, sieht genauso aus wie die Version, die vor 5 Jahren rausgekommen ist, kostet auch genauso viel und ist das zurzeit preisgünstigste Gadget von Apple.

Auch wenn mir das ein bisschen peinlich ist: Die AirTags sind für mich persönlich der Hauptgrund, warum ich wahrscheinlich für ewig im Apple-Ökosystem rumhänge, weil ich ohne die Dinger einfach nicht mehr leben kann. Und der AirTag 2 soll das jetzt alles noch viel besser machen, mit einer deutlich höheren Reichweite, was für mich echt ein Gamechanger wäre. Denn ich habe das ständig, dass ich irgendwas suche, aber mein Handy keine Verbindung zum AirTag aufnimmt – und dann laufe ich da immer so doof rum, bis ich da eine Verbindung bekommen habe.

In diesem Video testen wir das Ganze unter harten, realen Bedingungen am und im Heise-Verlag und finden heraus, ob die neuen AirTags wirklich besser sind. Und ich habe auch noch den härtesten Konkurrenten aus dem anderen Lager in den Test reingenommen: Und zwar den Moto Tag für Android-Smartphones, der auch wie die AirTags über Ultra-Breitband, also UWB, zentimetergenau ortbar ist. Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...

Lasst uns gleich mal reinstarten in unseren Praxistest, bevor ich dann später erkläre, wie das technisch alles funktioniert. Erstmal in Gang setzen die Dinger und das finde ich immer wieder magisch, denn man muss da einfach nur diese Lasche abziehen und schon meldet sich das Smartphone und sagt: „Hey, ich habe einen Tag gefunden, soll ich den installieren?“ Also wirklich richtig schön einfach. Und das klappt beim Moto Tag übrigens exakt genauso wie bei den Apple AirTags.

Hier ist einmal Keno aus der Zukunft. Mir ist kurz vorm Hochladen dieses Videos aufgefallen, dass die Nahbereichssuche mit Ultra-Breitband im Moto Tag nur mit Google-Pixel-Pro-Telefonen funktioniert und ich habe ein normales Pixel 9 verwendet. Das kann nur Bluetooth, kein Ultra-Breitband. Und deshalb funktionierte mit dem Moto Tag keine Nahbereichssuche, also die Suche mit dem Pfeil und der Meterangabe. Tut mir leid, blöder Fehler, den Test hole ich auf jeden Fall nach, also im Vergleich zu AirTags. Dann machen wir ein Short-Video, das verlinke ich dann hier in diesem Video als angepinnten Kommentar. Trotzdem viel Spaß mit dem Video, die Infos zu den AirTags und die anderen Infos zum Moto Tag, die stimmen alle in dem Video.

Jetzt aber nach draußen. AirTag 1, AirTag 2 und Moto Tag hat mein Kollege Sahin gut versteckt. Ungefähr 50 Meter entfernt von mir. Ich habe dann so versteckenmäßig mir die Augen zugehalten. 50 gezählt. Ja, und dann habe ich versucht mit Moto Tag und dem alten AirTag die Fährte aufzunehmen. So, dann fangen wir mal an mit Google, würde ich sagen. Okay, Moto Tag anmachen. „In der Nähe suchen“, wird verbunden. Also hier funktioniert nicht. Ich probiere aber jetzt mal das alte AirTag. So, AirTag 1, „Suchen“ in der Nähe. AirTag 1 „Suchen“ ist nichts. Ich würde sagen, hier stehe ich schon ziemlich im Mittelpunkt und ist trotzdem bei beiden nichts. Beide haben noch kein Signal. Jetzt probiere ich noch mal den Tag 2. Jetzt, der geht jetzt – und der auch noch nicht, aber zumindest hat er gerade schon mal … bietet er es jetzt wenigstens an. Ah, er hat jetzt kurz „Verbunden“ gesagt, der Google Tag. Wenn ich … mach das mal systematisch, dass ich jetzt hier … Also er sagt „Verbunden“, aber es wird mir hier irgendwie kein Signal schwach … Ja, „Versuche dich an einen anderen Ort zu bewegen“. Keine Chance mit dem AirTag 2, erstmal auch nicht. Und dann bin ich aber einfach ein bisschen rumgelaufen und habe geguckt, wann der AirTag 2 anschlug. Und das war schon relativ schnell der Fall.

Aha! Guck mal, jetzt hat er direkt ausgeschlagen, der AirTag 2. Bei 23 Meter Entfernung. So, und dann habe ich an dieser Stelle auch bei den anderen beiden Tags geguckt, ob die auch schon gesehen werden. Und der AirTag 1? Nicht. Und das Moto Tag zeigt mir nicht mal an, dass ich überhaupt … Also könnte ich das klingeln lassen? Gerät klingelt. Gut, aber das hilft mir jetzt gar nicht weiter. Weil ich höre nichts. Wurden sie nicht. Das bedeutet, ohne AirTag 2 wäre ich hier noch viel länger kopflos rumgelaufen. Aber dank AirTag 2 hatte ich ja dann direkt meinen Pfeil. Ich wusste also, wo es lang geht. Das hat dann mit AirTag 1 und Moto Tag deutlich länger gedauert, bis die dann auch endlich mal die Fährte aufgenommen haben. Da muss ich also deutlich näher dran.

Und was man auch sagen muss, der Moto Tag ist deutlich unpraktischer. Aber klar, man kann alle diese Tags auch einfach piepen lassen. Aber das finde ich A, ziemlich unelegant und B, hört man es oft einfach nicht. Wir haben die Schallpegel bei uns im Labor gemessen. Dazu gehe ich später noch im Detail ein. Ich lasse es mal klingeln. Okay, das höre ich. Ah. Im Reifen? Ah, ja, sehr gut, okay. Also ich hätte es irgendwann wahrscheinlich gefunden mit Moto Tag. Und irgendwann hätte ich wahrscheinlich, wenn ich halt so brainless hier rumgelaufen wäre, wäre irgendwann der AirTag 1 angeschlagen. Und dann zeigt er einem halt auch irgendwann einen Pfeil an, wie jetzt. Das ist jetzt das AirTag 1. Das hat jetzt auch einen Pfeil, aber der Pfeil geht halt erst an, wenn man relativ dicht dran ist. Und beim AirTag 2 hatte ich den Pfeil halt schon 15 Meter weiter. Also ich bleibe hier jetzt einfach mal stehen und lasse alle drei piepen. Das ist der Moto Tag, das ist der AirTag 1. Schon durchdringender. Und jetzt der AirTag 2. Ja, das hat Druck. Ganz klar besser.

Ich habe auf jeden Fall beim Anpiepen beim Draußentest erst was gehört, als ich sehr dicht dran stand. Auch da war der AirTag 2 mit Abstand am lautesten. Die lagen halt auf diesem Radkasten und das schluckt natürlich so ein bisschen Schall. Aber in der Praxis kommt es ja auch mal vor, dass die Teile irgendwo vergraben sind. Deshalb lieber die Nahfunkfunktion benutzen, wie ihr am Anfang ja schon gesehen habt, also mit diesem neckischen Pfeil, zumindest bei den AirTags. Damit lassen sie sich völlig problemlos finden, ohne nerviges Gepiepe. Wenn man sich denn im Nahfunkbereich befindet, das muss man eben, sonst gibt es keinen Pfeil. Und das ist halt bei den AirTags 2 aus deutlich weiterem Abstand möglich, was natürlich praktisch ist. Also draußen mit direktem Sichtkontakt hatten wir beim AirTag 2 fast 50 Meter Entfernung gemessen. Beim AirTag 1 haben wir dann ungefähr ab 15 Meter schon das Signal verloren, ähnlich wie beim Moto Tag. Also das ist ein wirklich riesiger Unterschied. Punkt für den AirTag 2 schon mal.

Direkt mal der Einschub, weil ich das echt ziemlich oft höre. Nein, AirTags sind keine GPS-Tracker. AirTags kommunizieren nicht mit GPS-Satelliten, sondern das funktioniert viel einfacher. Die funken alle zwei Sekunden ein klitzekleines Bluetooth-Low-Energy-Hallo-hier-bin-ich-Signal in die Welt und wenn dann ein Apple-Gerät in Reichweite ist, dann kann das das empfangen und ein Signal ans AirTag schicken und sagen: „Piep mal“, also über Bluetooth. Und dann piept das AirTag und man kann es hoffentlich finden, weil man hört das dann ja – oder auch nicht, weil es unter drei Sofakissen liegt oder da halt im Radkasten von dem Auto oder halt gar nicht in Reichweite ist. Da kommen dann die anderen Funktionen ins Spiel und die sind technisch schon deutlich komplexer.

Denn einmal empfangen dieses Hier-bin-ich-Signal alle Apple-Geräte und im Fall von Google auch viele Android-Geräte, dazu komme ich später aber nochmal, also auch welche, die gar nichts mit dem AirTag zu tun haben. Wenn ihr zum Beispiel gerade dieses Video in der U-Bahn auf einem iPhone guckt, dann ist das nicht unwahrscheinlich, dass euer Telefon gerade AirTags empfängt und deren Position ans Apple-Netzwerk sendet. Anonymisiert und ohne, dass ihr das mitbekommt. Ja, das ist standardmäßig aktiviert, ihr könnt es aber auch abschalten, indem ihr in den Einstellungen auf Apple-ID, also auf euren Namen, dann den Punkt „Wo ist?“, dann auf „Mein iPhone suchen“ und dann den Schalter bei „Wo ist?“-Netzwerk deaktivieren. Aber dann könnt ihr selbst euer Telefon auch nicht mehr orten, ganz wichtig.

So, aber wieder zurück zum Standardfall, wenn ihr das aktiviert habt. Also wenn ihr in dieser U-Bahn zum Beispiel euren Rucksack liegen gelassen habt, ihr aber schon längst wieder woanders seid, dann könnt ihr hier auf der Karte in der „Wo ist?“-App sehen, wo euer Rucksack ist, ohne dass ihr selbst in Funkreichweite seid. Das regeln die anderen iPhones. Und das ist das Coole. AirTags laufen so circa ein Jahr mit so einer ganz kleinen Billo-Knopfzelle und sind super klein und leicht und können zumindest an Orten, wo viele iPhones rumlaufen, genauso gut lokalisiert werden wie echte, viel stromhungrigere GPS-Tracker. Wie AirTags übrigens als Diebstahlschutz funktionieren, dazu hatten wir schon ein eigenes Video, da will ich hier jetzt nicht drauf eingehen.

Aber AirTags haben, wie ich am Anfang ja schon gezeigt habe, noch eine dritte Funktion und das ist eben dieser Ultra-Breitband-Funk, der bei AirTags „Genaue Suche“, bei Moto Tag „In der Nähe suchen“ heißt. Das ist ziemlich faszinierende Technik, finde ich. Im Gegensatz zu Bluetooth, das nur ziemlich ungenau die Signalstärke misst, nutzt UWB extrem kurze Pulse auf einem breiten Frequenzspektrum, das ist so zwischen 6 und 9 GHz. Und die messen die Time of Flight, also die Zeit, die das Signal vom Handy zum AirTag und zurück benötigt. Und weil das iPhone mehrere Antennen hat dafür, erkennt es die Richtung, aus der das Signal kommt und kann deshalb eben diesen neckischen Pfeil anzeigen.

Allerdings, ich habe ja gerade von Antennen im Telefon gesprochen, muss das Handy das unterstützen. Bei Apple heißt das zum Beispiel U1-Chip. Bei Apple wäre das ab dem iPhone 11 und anderen Geräten, die Liste seht ihr hier, könnt ihr Pause drücken. Aber diese verbesserten Ortungsfunktionen des AirTag 2, also die größere Reichweite, die ihr gerade gesehen habt, die funktionieren nur mit U2-Chip und die gibt es erst ab dem iPhone 15. Mit älteren Geräten könnt ihr die AirTags 2 auch problemlos verwenden, aber dann habt ihr eben nicht die höhere Reichweite. Fürs Moto Tag braucht ihr ein Android-Telefon mit UWB-Chip. Das sind recht viele, aber zum Beispiel bei den Google-eigenen Pixel-Geräten nur die Pro-Varianten ab dem Pixel 6.

Leider ist aber auch das Empfangen von anderen Android-Geräten, also was ich euch gerade mit dem U-Bahn-Beispiel erklärt habe, unseren Erfahrungen nach viel unzuverlässiger bei Android, weil die Funktion, dass man fremde Tags meldet, da nicht standardmäßig eingeschaltet ist. Das muss man aktivieren und das machen offenbar nur wenige Leute. Und das ist halt der Grund, warum ich persönlich AirTags verwende. Achso, nur noch mal ganz deutlich gemacht: Für AirTags braucht man Apple-Geräte und für Googles Find-My-Device-Tags braucht man Android-Geräte. Es wäre viel schöner, wenn das übergreifend funktionieren würde, aber leider nein.

So, das war jetzt der Erklärungsteil, jetzt weiter zum Indoor-Test. Die Kollegen haben es irgendwo versteckt bei Heise in den Büros und ich durfte suchen. Jetzt probiere ich das Ganze mal mit meinem AirTag 1. Oh, kriegt direkt eine Verbindung, interessant. Aber genau das gleiche Problem wie gerade, dass mir jetzt zwar „Verbunden“ angezeigt wird, aber nicht in welche Richtung. „Versuche dich an einen anderen Ort zu bewegen“. Ja, so und jetzt mal der Tag 2. „Verbunden“, ja direkt eine Angabe, 24 Meter und ich kann jetzt hier erstmal nicht, also okay, ich komme dem näher, ich kriege auch hier noch kein Signal, da ist ein Pfeil, okay, hier ist falsch, hier ist richtig, ich bin jetzt hier noch mal bei 13 Metern und jetzt gucke ich mal den AirTag 1. „Signal suchen“, weit entfernt. Ja, weit entfernt hilft mir jetzt nicht viel weiter. 4,8. Okay, also hier in diesem Raum im Sekretariat ist auf jeden Fall der AirTag. Ich werde aber jetzt mal den AirTag 2 ausschalten. Ich werde jetzt hier mit dem Moto Tag versuchen. Hier. Hilft mir wenig weiter. Okay, also man sieht hier irgendwie, dass sich das so füllt. Soll irgendwie noch irgendwas bedeuten. Füllt es sich weniger. Ah, hier füllt es sich mehr. Okay. Es ist hier. Sagt Moto Tag. Okay. Klingeln lassen. Ha. Nur mit Moto Tag gefunden. Aber auch nur, weil das AirTag 2 mir hier diese Anfangsarbeit gemacht hat. Wunderbar.

Und ja, da gab es wieder den gleichen Effekt wie draußen. Das AirTag 2 schlug viel früher an als die anderen beiden Tags. Schon bei 24 Meter Abstand innen, drinnen, durch Wände. Das ist extrem viel und sollte deshalb auch für sehr große Wohnungen oder Häuser ausreichen. Und damit war es dann halt wirklich kein Problem, die Tags zu finden. Ich hätte das natürlich irgendwann auch mit Moto Tag und AirTag 1 gefunden, aber das hätte auf jeden Fall deutlich länger gedauert.

Ja, und jetzt noch die Pieper-Tests. Hatte ich ja versprochen aus unserer schallarmen Kammer. Da haben wir beim AirTag 2 einen maximalen Schallpegel von 81 dBA aus einem Meter Entfernung gemessen. Beim AirTag 1 waren es 75 dBA. Näher am echten menschlichen Höreindruck ist der gemittelte Pegel. Und da haben wir 75 dBA beim AirTag 2 gemessen und 66 dBA beim AirTag 1. Den Moto Tag hatten wir nicht in der schallarmen Kammer, der piept aber subjektiv noch leiser als der AirTag 1. Also auch hier ganz klarer Sieger, AirTag 2.

Der AirTag 2 ist jetzt technisch erstmals dazu in der Lage, dass ich in meiner Wohnung wirklich von jedem Punkt aus jede AirTag-Position abrufen kann. Mit dieser genauen UWB-Suche, also inklusive Entfernungsangabe und Richtungspfeil. Vorher musste ich immer rumlaufen in der Wohnung, bis das AirTag irgendwann geortet war, was ich ziemlich nervig finde. Oh ja, und jetzt überlege ich sogar, mir einen AirTag in die Mütze zu nähen. Also AirTag 2 ist für mich echt ein Gamechanger. Vor allem, was ich auch gut finde, dass der Preis sich nicht geändert hat. 35 Euro für einen und man findet öfter mal Angebote für ungefähr 100 Euro für einen Viererpack. Wenn man die direkt bei Apple kauft, kann man die auch so schön gravieren lassen. Finde ich preislich ehrlich gesagt okay, vor allem weil die Dinger echt lange halten und weil man die Batterien selbst tauschen kann.

Ja, also ganz klar, der AirTag 2 zieht mich noch mehr ins Apple-Ökosystem, was ich eigentlich gar nicht will, weil ich geschlossene Systeme nicht mag, aber manchmal muss man die Kröte schlucken, wenn man wie ich ständig Dinge sucht. Zumindest kann ich ja unter Linux einfach im Browser Apple-Geräte piepen lassen, wenn ich mich da bei Apple eingeloggt habe, aber der ganze Ultra-Breitband-Nahfeld-Suchkram, das klappt nur mit iPhones oder Apple Watches. Und genau das brauche ich halt, weil ich meine Mitmenschen privat und auch beruflich vermutlich wahnsinnig machen würde, wenn ich bedenke, wie oft ich so am Tag Dinge suche, also die ich dann die ganze Zeit piepen lassen müsste. Ja, und bei Android funktioniert diese UWB-Nahsuche eben noch nicht so gut. Also noch, ne? Ich hoffe, dass sich das irgendwann ändert. Oder, dass die Teile irgendwann plattformübergreifend funktionieren. Das wäre natürlich noch toller.

Ja, wie seht ihr das? Gerne in die Kommentare schreiben. Wir lesen alles. Gerne c't-3003-Podcast hören und den Hype-Newsletter abonnieren. Tschüss.

c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


URL dieses Artikels:
https://www.heise.de/-11176371

Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 17:19

Apple-Studie: Nutzer wollen transparente KI-Agenten statt Black-Box-Systeme

Von Heise
Ein Kopf mit Aufschrift AI

(Bild: photoschmidt/ Shutterstock.com)

Eine neue Studie von Apple untersucht, wie Menschen mit KI-Agenten interagieren wollen. Das Ergebnis: Transparenz und Kontrolle schlagen Leistung.

Apple-Forscher haben in einer zweiphasigen Studie untersucht, wie Nutzer mit KI-Agenten interagieren möchten. Das Ergebnis ist überraschend: Menschen bevorzugen weniger leistungsstarke, sondern eher transparente Agenten gegenüber leistungsstarken Black-Box-Systemen. Die im Februar 2026 veröffentlichte Studie „Mapping the Design Space of User Experience for Computer Use Agents“ [1] identifiziert vier zentrale Kategorien für das UX-Design und analysiert neun bestehende Systeme wie Claude Computer Use Tool, OpenAI Operator und Googles Project Mariner.

Die Forscher untersuchten in Phase 1 ihrer Studie neun kommerzielle KI-Agent-Systeme und führten Interviews mit acht UX- und KI-Praktikern aus großen Technologieunternehmen. In Phase 2 testeten sie ihre Erkenntnisse mit 20 Teilnehmern in einem sogenannten Wizard-of-Oz-Experiment. So wird ein Versuch bezeichnet, bei dem ein Mensch (Proband) annimmt, mit einem autonomen (im Sinne der künstlichen Intelligenz) System zu kommunizieren, in Wirklichkeit aber mit einem Menschen interagiert. Die Probanden sollten Aufgaben wie Ferienwohnungsbuchungen oder Online-Shopping erledigen, während ein Forscher im Nebenraum die Agent-Aktionen simulierte. Die Teilnehmer konnten den vermeintlichen Agenten jederzeit mit einem Interrupt-Button stoppen. Die aufgezeichneten Videos und Chat-Logs lieferten Einblicke in die tatsächlichen Nutzererwartungen.

Transparenz wichtiger als Automatisierung

Ein zentrales Ergebnis: Nutzer wollen Einblick in Agent-Aktivitäten, aber kein Mikromanagement. Zu viel Kontrolle würde bedeuten, dass sie die Aufgaben gleich selbst erledigen könnten. Besonders wichtig ist den Probanden Transparenz bei unbekannten Bedienoberflächen. Dort wünschen sie mehr Zwischenschritte, Erklärungen und Bestätigungspausen – selbst bei Szenarien mit geringem Risiko. Bei Aktionen mit echten Konsequenzen wie Käufen, Kontoänderungen oder Kontaktaufnahmen mit anderen Menschen fordern Nutzer mehr Kontrolle.

Das Vertrauen in KI-Agenten bricht schnell zusammen, wenn das System stille Annahmen trifft oder Fehler macht. Bei mehrdeutigen Wahlmöglichkeiten bevorzugen Nutzer, dass der Agent pausiert und nachfragt, statt zufällig zu wählen. Besonders deutlich wird dies bei Entscheidungen, die zu falschen Produktauswahlen führen könnten.

Bestehende Systeme erfüllen Erwartungen nur teilweise

Die neun analysierten Systeme, darunter Claude Computer Use Tool von Anthropic, OpenAI Operator und Googles Project Mariner, erfüllen die Nutzererwartungen laut den Forschern nur teilweise. Die Studie zeigt auch kontextabhängige Erwartungen: Nutzer wollen unterschiedliches Agent-Verhalten, je nachdem ob sie Optionen erkunden oder eine bekannte Aufgabe ausführen. Die Erwartungen ändern sich auch basierend auf der Vertrautheit mit einer Schnittstelle. Die gesammelten Erkenntnisse könnten direkten Einfluss auf Apples geplante Siri-Überarbeitung haben. So kündigte der iPhone-Hersteller im Sommer 2024 an, dass der Sprachassistent künftig appübergreifend Aufgaben erledigen soll. Die Veröffentlichung verzögerte sich jedoch. Aktuell wird erst in den nächsten Monaten damit gerechnet [2].

Apple verfolgt bei KI-Agenten einen deutlich konservativeren Ansatz als Konkurrenten wie OpenAI, Google und Meta. Während diese Unternehmen Milliarden in große, allgemeine Sprachmodelle investieren, konzentriert sich Apple auf gezielte, datenschutzorientierte Features mit Schwerpunkt auf On-Device-Verarbeitung.

Für rechenintensive Aufgaben evaluiert Apple externe Modelle, insbesondere Googles Gemini, plant aber, eine angepasste Version auf eigenen Servern zu betreiben. Persönliche Daten und Geräte-Kontext bleiben bei Apples eigenen In-House-Modellen. Die aktuelle Studie spielt Apple in die Hände: Nutzer akzeptieren lieber später startende, aber besser konzipierte Systeme als schnell eingeführte Black-Box-Lösungen.


URL dieses Artikels:
https://www.heise.de/-11176387

Links in diesem Artikel:
[1] https://machinelearning.apple.com/research/mapping
[2] https://www.heise.de/news/Bericht-Neue-Siri-doch-nicht-in-iOS-26-4-11173689.html
[3] https://www.heise.de/mac-and-i
[4] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 17:14

iPhone 16e und iPad Air: Aktuelle Geräte in bestimmten Märkten schlecht zu haben

Von Heise
iPhone 16e

iPhone 16e: Warten auf die nächste Generation.

(Bild: Apple)

Apple nimmt ältere Modelle oft vor der Einführung neuer Varianten langsam aus dem Handel. Das ist nun bei zwei Geräten offenbar der Fall.

Wer sich für das iPhone 16e [1] aus dem vergangenen Jahr interessiert, erhält das Gerät zumindest in einigen Märkten nicht mehr sofort. Laut Angaben des Bloomberg-Reporters Mark Gurman hätten ihm Apple-Retail-Mitarbeiter gesagt, dass der Gerätebestand nahezu „ausgetrocknet“ [2] sei. Ein Blick in den Apple Online Store zeigt allerdings zumindest für Deutschland keine Verzögerungen. Hier kann man die ab 699 Euro erhältlichen Geräte noch heute [3] in einem Ladengeschäft des Herstellers abholen oder für Samstag mit der Post bestellen. Gurman will ähnliche Angaben auch zum iPad Air vernommen haben, wo es einen „Mangel“ geben soll. Auch hier sieht es zumindest im Apple Online Store für Deutschland [4] bei der aktuellen M3-Variante [5] nicht so aus. Es ist allerdings denkbar, dass es sich um Altbestände handelt, die abverkauft werden.

Im Januar war die Situation beim MacBook Pro ähnlich

Seit vielen Jahren gelten kurzfristig schlechte Verfügbarkeiten als relativ verlässlicher Indikator, dass Apple vor der Veröffentlichung neuer Produkte steht. Allerdings gab es Ähnliches im Januar auch bei MacBook Pro M4 Pro und M4 Max [6]. Erschienen sind die neuen M5-Pro- und M5-Max-Modelle [7] immer noch nicht. Gurman, der einen guten Ruf in der Apple-Gerüchtewelt hat und über Verbindungen ins Innere von Apple verfügt, geht derzeit davon aus, dass iPhone 17e und iPad Air M4 „in den kommenden Wochen“ erscheinen [8] werden.

Hinzu kommen dürften die MacBooks plus möglicherweise ein neues Standard-iPad. MacBook Air M5 und neue Desktop-Macs mit M5 (mini, Studio, iMac) gelten hingegen als unsicherer, könnten noch einige Monate benötigen.

Spec-Bumps – Einsteiger-iPhone jetzt jährlich?

iPhone 17e und iPad Air M4 dürften vor allem Spec-Bumps sein. Beim iPad Air könnte sich bis auf den Sprung zum M4 wenig ändern, eventuell spendiert Apple den Geräten bessere Kameras. Beim iPhone 17e soll ein aktueller Chip aus dem iPhone 17 integriert werden, Beobachter hoffen auch auf einen neuen Look mit Dynamic Island sowie MagSafe mit Magnet – dessen Fehlen stört viele Besitzer des 16e besonders.

Es wäre neu, wenn Apple die Einsteiger-Baureihe nun jährlich aktualisiert, doch die Gerüchteküche glaubt fest daran. Ein iPad 11 wiederum soll angeblich erstmals Apple-Intelligence-fähig sein, dazu den Chip aus dem iPhone 15 Pro bekommen.


URL dieses Artikels:
https://www.heise.de/-11175219

Links in diesem Artikel:
[1] https://www.heise.de/tests/iPhone-16e-im-Test-Mehr-iPhone-fuer-Einsteiger-10303222.html
[2] https://x.com/markgurman/status/2021818193422299388
[3] https://www.apple.com/de/shop/buy-iphone/iphone-16e/6,1%22-display-128gb-schwarz?afid=p239%7C121977&cid=aos-de-aff-ir
[4] https://www.apple.com/de/shop/buy-ipad/ipad-air/11%22-display-128gb-space-grau-wifi?afid=p239%7C121977&cid=aos-de-aff-ir
[5] https://www.heise.de/tests/iPad-Air-M3-im-Test-Das-kann-Apples-neues-Mittelklasse-Tablet-10310432.html
[6] https://www.heise.de/news/MacBook-Pro-mit-M4-Max-Lange-Lieferzeiten-als-Zeichen-fuer-neue-Geraete-11146590.html
[7] https://www.heise.de/news/MacBook-Pro-mit-M4-Max-Lange-Lieferzeiten-als-Zeichen-fuer-neue-Geraete-11146590.html
[8] https://www.heise.de/news/Neue-Apple-Hardware-iPads-iPhones-und-MacBooks-in-der-Pipeline-bis-Maerz-11169676.html
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] https://www.heise.de/mac-and-i
[11] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 13:55

Münchner Sicherheitskonferenz: Schwarz Digits und BSI bauen "geheime" Cloud

Von Achim Sawall
Schwarz Digits baut mit dem BSI Clouds für die öffentliche Verwaltung, um das bestehende Vendor Lock-in zu beenden. Es soll bis zur Stufe "Geheim" gehen.
BSI-Chefin Claudia Plattner (Bildmitte) am 13. Februar 2026 mit Schwarz-Top-Managern in München (Bild: Schwarz Digits)
BSI-Chefin Claudia Plattner (Bildmitte) am 13. Februar 2026 mit Schwarz-Top-Managern in München Bild: Schwarz Digits

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) und Schwarz Digits, die IT-Sparte der Schwarz Gruppe (Lidl und Kaufland), haben am 13. Februar 2025 auf der Münchner Sicherheitskonferenz eine Kooperation vereinbart . Ziel sei die gemeinsame Entwicklung souveräner Cloudprodukte für die öffentliche Verwaltung. Die Zusammenarbeit umfasse auch die Erarbeitung technischer Kontrollschichten.

Ziel sei der Austausch zu Lagebildern der Cybersicherheit und die Weiterentwicklung bestehender und neuer Cloudangebote. Schwarz Digits plant, im Jahr 2026 mit der Stackit Public Cloud Restricted die Anforderungen für den Betrieb einer Public-Cloud mit Geheimhaltungsstufe "Verschlusssache – nur für den Dienstgebrauch" (VS-NfD) umzusetzen. Darauf aufbauend soll eine skalierbare Cloudinfrastruktur bis zur Stufe "Geheim" folgen.

BSI-Präsidentin Claudia Plattner sprach von innovativen, hochperformanten Produkten "mit zeitgemäßen Sicherheits- und Souveränitätseigenschaften, von denen Staat, Wirtschaft und Gesellschaft gleichermaßen profitieren können" .

Thematisch deckt die Partnerschaft kritische Bereiche wie Monitoring, Forensik in der Cloud sowie Zulassungsabläufe für die Verarbeitung von Verschlusssachen ab. Zudem sollen allgemeine Souveränitätskriterien und Interoperabilitätsstandards weiterentwickelt werden, um Anbieterwechsel zu vereinfachen und Abhängigkeiten (Vendor Lock-in) zu vermeiden.

Vendor Lock-in für die Verwaltung "dauerhaft ausschließen"

Christian Müller, Co-CEO von Schwarz Digits, betonte: "Unsere technologische Antwort basiert auf der konsequenten Entwicklung technischer Kontrollschichten und der Umsetzung des Zero-Trust-Prinzips. Wir schaffen Interoperabilität durch Open-Source-Technologien, um einen technischen Vendor Lock-in für die Verwaltung dauerhaft auszuschließen."

Mit Delos Cloud bietet SAP bereits die Möglichkeit, Daten in Europa zu speichern und zu verarbeiten, was jedoch keine vollständige Sicherheit vor Zugriffen aus den USA garantieren kann, denn die Software, die Algorithmen und die Updates kommen weiterhin aus den USA von Microsoft. Während die Delos Cloud den Azure Stack von Microsoft lizenziert und in deutschen Rechenzentren betreibt, basiert Stackit von Schwarz auf Open-Source-Technik.

Nutzer sind Bundesministerien und Bundesbehörden. Mehrere Bundesländer haben 2024 und 2025 Rahmenverträge unterzeichnet, um ihre Verwaltung zu digitalisieren. Größere Städte und IT-Dienstleister der Kommunen wie Dataport nutzen die Delos Cloud. Aus der Wirtschaft gehören Energieversorger, Stadtwerke, Kliniken und Versicherer zu den Abnehmern.

Adblock test (Why?)

  • 13. Februar 2026 um 19:49

Anzeige: Powerstation von Anker mit DC und USB 28 Prozent günstiger

Von Antje Lüth
Eine Powerstation von Anker mit DC- und USB-Anschlüssen, einer Leistung von 300 W und einer Kapazität von 288 Wh ist bei Amazon reduziert.
Powerstation Anker Solix C300 DC (Bild: amazon.de/anker)
Powerstation Anker Solix C300 DC Bild: amazon.de/anker

Mit einer Powerstation lässt sich verhindern, dass bei langen Autofahrten, auf dem Campingplatz oder bei Outdoor-Erlebnissen der Strom knapp wird und Mobilgeräte ihren Geist aufgeben. Ein Gerät von Anker mit sieben Anschlüssen, starker Akkukapazität und integriertem Licht ist bei Amazon zurzeit zum Aktionspreis erhältlich.

Anker Solix C300 DC: Kompakte Powerstation für den mobilen Einsatz

Die Powerstation Anker Solix C300 DC ist mit ihrem kompakten Maß von 12,4 x 12 x 20 Zentimetern und einem Gewicht von 2,8 Kilogramm auf den mobilen Einsatz zugeschnitten. Sie lässt sich mit dem integrierten Griff bequem transportieren und findet im Auto ebenso Platz wie im Rucksack. Ein Trageriemen zum Umhängen ist separat erhältlich.

Sieben Anschlüsse und 300 W Gesamtleistung

Insgesamt enthält die Powerstation sieben Anschlüsse, die sich aus einer DC-Steckdose und sechs USB-Anschlüssen zusammensetzen. Die DC-Steckdose bietet eine Leistung von 120 W und versorgt unter anderem Kühlboxen, Dashcams oder Autostaubsauger mit Strom. Die USB-Anschlüsse umfassen zwei USB-C-Ports, die mit PD 3.1 jeweils bis zu 140 W erreichen, zwei weitere USB-C-Ports mit 100 und 15 W sowie zwei USB-A-Ports mit jeweils 12 W. Damit lassen sich die Akkus von Laptops, Smartphones, Tablets und anderen Mobilgeräten wie Kopfhörern oder Smartwatches unterwegs schnell wieder auffüllen.

Langlebiger Akku mit 288 Wh

Mit 288 Wh (90.000 mAh) hat die Powerstation von Anker genügend Kapazität, um Laptops rund viermal, Kühlboxen fünfmal oder Lampen dreißigmal vollständig aufzuladen. Zum Aufladen der Powerbank können die beiden 140-W-Ports genutzt werden, die zusammen nur eine Stunde benötigen, um den Akku auf 80 Prozent zu bringen. Ein Anschluss allein benötigt dafür rund 1,8 Stunden. Alternativ verfügt die Powerstation über einen Eingang für ein 100-W-Solarpanel, mit dem sie unabhängig vom Stromnetz in rund 2,5 Stunden zu 80 Prozent geladen ist. Der LiFePO4-Akku weist zudem eine lange Lebensdauer auf und schafft mindestens 3.000 Ladezyklen ohne nennenswerten Qualitätsverlust.

Energieüberwachung mit dem Smartphone

Ist die Powerstation per WLAN oder Bluetooth mit dem Smartphone verbunden, können Nutzer in der zugehörigen App Echtzeit-Statistiken einsehen, die Energie anpassen und die Helligkeit der integrierten Beleuchtung steuern.

Die Powerstation Anker Solix C300 DC bei Amazon

Bei Amazon gibt es die Powerstation Anker Solix C300 DC aktuell mit 28 Prozent Rabatt für nur 158,99 statt 219,99 Euro. Wer die Stromversorgung seiner Geräte überall sicherstellen möchte, sollte bei diesem Deal schnell zugreifen, denn er ist befristet und kann schon bald wieder beendet sein.

Reklame

Anker SOLIX C300 DC Powerbank Powerstation, 288Wh Akku für mehrere Geräte, LiFePO4 Akku, 300W Solargenerator, Für Camping, Draußen, Reisen, Notfälle (Netzteil Nicht im Lieferumfang)

Jetzt mit 28% Rabatt bestellen

Unter demselben Link kann die Powerbank auch im Bundle mit einem 60- oder 100-W-Solarpanel oder mit einer passenden Schutztasche ausgewählt werden. Diese Varianten sind ebenfalls reduziert.

Weitere Powerstations von Anker und anderen Herstellern wie Jackery, DJI oder Bluetti sind hier zu finden:

Angebote für Powerstation bei Amazon

Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

  • 13. Februar 2026 um 18:50

Vodafone, Tele Columbus: Telekom will TV-Kabelnetze abschalten, nur nicht das eigene

Von Achim Sawall
Die Deutsche Telekom ist in Österreich Kabelnetz -Betreiber. Sie verrät Golem, warum sie in Deutschland das Kabelnetz abgeschaltet haben will.
Rodrigo Diehl, Chief Executive Officer von Magenta Telekom in Österreich, im Jahr 2023 (Bild: Deutsche Telekom AG / Norbert Ittermann)
Rodrigo Diehl, Chief Executive Officer von Magenta Telekom in Österreich, im Jahr 2023 Bild: Deutsche Telekom AG / Norbert Ittermann

Die Deutsche Telekom fordert in Deutschland eine Gleichbehandlung: Wenn das alte DSL-Kupfernetz abgeschaltet werde, um den Umstieg auf Glasfaser (FTTH) zu befördern, müsse dies auch für das Kabelnetz gelten, da dieses ebenfalls auf Kupfertechnologie basiert und deutlich mehr Strom verbraucht als reine Glasfaser. Doch ihr eigenes Kabelnetz nimmt sie davon aus.

Die Bundesnetzagentur hat im Januar 2026 ein konkretes Regulierungskonzept vorgelegt, das den Übergang vom alten Kupfernetz (DSL) zur Glasfaser (FTTH) steuern soll. Dabei ist das Koaxialnetz ausgenommen, wogegen die Telekom energisch opponiert.

In ihrer Unternehmenspräsentation 2025 (PDF) erklärte die Telekom auf Seite 18 sogar, es gebe mehr als 20 Millionen Haushalte, die sie in Deutschland und Europa mit Glasfaser versorge. In der Fußnote dazu wird erklärt, dass sie unter Glasfaserversorgung in Europa auch ihr TV-Kabelnetz in Österreich einberechne: "DE: FTTH inklusive Joint Ventures; EU: FTTH/B & Docsis 3.1 (1 GBit/s) inklusive eigene, finanzierte und mit Partnern ausgebaute Netze, aber exklusive Wholebuy."

Der Mobilfunkbetreiber T-Mobile Austria hatte im Dezember 2017 für 1,9 Milliarden Euro den Kabelnetzbetreiber UPC Austria gekauft.

Diehl: Diskussion über die Technologie führe zu nichts

Auch Rodrigo Diehl, früherer Chief Executive Officer von Magenta Telekom in Österreich und neuer Deutschlandchef der Telekom, lobte das eigene Netz im März 2024 in einem Bericht des Standard. Auf die Frage, warum Magenta in vielen Bereichen noch immer auf Koaxialkabel setze, sagte Diehl : "Weil die Technologie Gigabit-fähig ist." Diese Diskussion über die Technologie führe zu nichts, "wir sollten über die tatsächlichen Geschwindigkeiten in den Wohnungen der Menschen reden" , forderte er weiter.

Schon im August 2023 erklärte Diehl ebenfalls dem Standard : "Heute haben wir 1,5 Millionen HFC-Haushalte (Hybrid Fiber Coaxial). Das sind Häuser mit Glasfaseranbindung, wo die letzte Meile aber ein Koaxial-Kabel ist. Diese Technologie ist gigabitfähig, die USA setzen sehr stark darauf. Bis 2030 wollen wir 200.000 weitere Häuser mit dieser Technologie anschließen."

Doch dies begründet die Telekom mit qualitativen Unterschieden zwischen ihrem Netz in Österreich und den Kabelnetzen von Tele Columbus und Vodafone in Deutschland. Telekom-Sprecherin Nicole Schmidt sagte Golem am 13. Februar 2026: "Hier werden Äpfel mit Birnen verglichen. Denn der entscheidende Unterschied ist: In das Kabelnetz in Deutschland ist nicht investiert worden. So sind in Deutschland im Kabelnetz durchschnittlich deutlich mehr Breitbandkunden pro Node angebunden als in anderen europäischen Kabelnetzen, die mit hohen Investitionen modernisiert wurden. Dort beträgt die Zahl der Breitbandkunden pro Node nur die Hälfte, teils sogar nur ein Viertel des deutschen Wertes."

Dies wirke sich auf die Qualität aus. In Stoßzeiten wie in den Abendstunden können deutsche Kabelkunden deutliche Netzbeeinträchtigungen spüren. "Für den zu erwartenden Anstieg der Datenvolumina ist das kein gutes Rüstzeug, auch wenn Kabel bei den Kundinnen und Kunden als technologieoffene Gigabitanschlüsse vermarktet werden" , sagte Schmidt.

Koaxialkabel und Telekom-Klingeldraht

Tatsächlich besteht das Kabelnetz auch in großen Teilen aus Kupfer, weshalb man von Hybrid-Fibre-Coax-Netzen (HFC) spricht. Die Zuleitungen zu den Haushalten werden über Koaxialkabel realisiert, dies sind aber bessere Kupferkabel als die der Telekom. Koaxialkabel sind dicker, haben eine dickere Isolierung und eine bessere Abschirmung. Koaxialnetze können daher mit den Kabelnetzstandards 3.1 und 4.0 sehr viel höhere Datenraten als das Vectoring im Kupfernetz der Telekom bieten, wo bei 250 MBit/s meist der Höchstwert erreicht ist. Allerdings müssen sich alle Kabelnetzkunden die Kapazität in einem Node teilen. Daher ist zutreffend, dass weniger Haushalte an einem Node gut für die Nutzer sind.

Rein rechnerisch hängen bei Vodafone laut früheren Angaben vom Januar 2023 500 Haushalte an einem Node und teilen sich die Gesamtkapazität von 1 GBit/s.

Adblock test (Why?)

  • 13. Februar 2026 um 18:09

IPFire stellt freie Domain-Blockliste DBL vor

Von Heise
Würfel mit Mauer-Symbolen

(Bild: heise medien)

Die IPFire-Entwickler haben mit DBL eine kategorisierte Domain-Blockliste veröffentlicht. Sie soll Malware, Phishing und Tracker blockieren.

Das IPFire-Projekt hat mit DBL eine umfassende, gemeinschaftlich kuratierte Domain-Blockliste vorgestellt. Anders als konkurrierende Projekte kategorisiert DBL Millionen von Domains nach Bedrohungstypen, statt sie in einer riesigen, monolithischen Liste zusammenzufassen. Die Entwickler wollen damit Probleme bestehender Blocklisten lösen, die ressourcenintensiv seien und Nutzern die Kontrolle nähmen.

IPFire DBL umfasst derzeit mehrere Kategorien: Malware-Domains werden vor dem Abrufen schädlicher Payloads oder Command-and-Control-Verbindungen geblockt, Phishing-Sites zum Abfangen von Zugangsdaten gefiltert. Weitere Kategorien decken Werbung, Pornografie, Glücksspiel, Gaming-Plattformen und DNS-over-HTTPS-Server ab. Letztere Kategorie zielt darauf, die Netzwerksichtbarkeit zu erhalten und das Umgehen von DNS-Sperren zu verhindern.

Die Blockliste nutzt offene Standards wie DNS Response Policy Zones (RPZ) mit AXFR- und IXFR-Unterstützung für sofortige Updates, Squidguard für Proxy-basierte Filterung sowie das Adblock-Plus-Format. Dadurch lässt sich DBL in gängige Tools wie Pi-hole, BIND, Unbound, PowerDNS oder pfSense integrieren. Die Listen werden stündlich aktualisiert, um zeitnah auf neue Bedrohungen zu reagieren.

Community-Reporting und rechtliche Vorteile

Über ein Online-Reporting-System können Nutzer zu Unrecht blockierte Domains (False Positives) melden und neue bösartige Domains einreichen. Die Community-Intelligence soll dafür sorgen, dass Korrekturen schnell eingepflegt werden. Die IPFire-Entwickler betonen, dass sie im Gegensatz zu vielen aggregierten Drittanbieterlisten die volle rechtliche Kontrolle über ihre Daten haben. Der Code steht unter der GPLv3+, die Listen selbst unter Creative Commons Attribution-ShareAlike 4.0 (CC BY-SA 4.0). Das bedeutet: Die Listen können frei genutzt und weitergegeben werden, abgeleitete Werke müssen jedoch unter derselben Lizenz stehen.

DBL entstand auch als Reaktion auf das Auslaufen der Shalla-List, die Anfang 2022 eingestellt wurde, was viele Nutzer von pfSense, pfBlockerNG und anderen Systemen betraf.

Integration in Core Update 200

IPFire DBL wird auch in Core Update 200 integriert, das seit dem 30. Januar 2026 als Testversion verfügbar ist. Die neue Version bringt neben Linux Kernel 6.18 LTS eine Vorschau von DBL im URL-Filter und in Suricata. Letztere Integration ermöglicht eine Deep Packet Inspection auf DNS-, TLS-, HTTP- und QUIC-Ebene, um umfassende Blockierungen durchzusetzen. IPFire wird damit selbst zum Provider von Suricata-Regeln. Die Entwickler sprechen von einer „beispiellosen Sichtbarkeit in Netzwerkaktivitäten“. Ein finaler Veröffentlichungstermin für das Core Update 200 steht noch nicht fest, die Community ist zur Evaluation der Beta-Version aufgerufen. Das Projekt hat zudem einen Fundraiser gestartet, um die Entwicklungszeit für Features wie die RPZ-Integration zu finanzieren.

Wer DBL in anderen Netzwerkumgebungen einsetzen möchte, findet Anleitungen zur Integration in DNS-Resolver, Browser-Erweiterungen und weitere Netzwerk-Tools. Alternativen im Open-Source-Bereich wie die StevenBlack-Hosts-Liste, OISD oder Hagezi bieten zwar ähnliche Funktionen, setzen aber weniger auf Community-Reporting und Kategorisierung.

Weitere Details hat das IPFire-Team in seinem Blog [1] veröffentlicht.


URL dieses Artikels:
https://www.heise.de/-11175994

Links in diesem Artikel:
[1] https://www.ipfire.org/blog/introducing-ipfire-dbl-community-powered-domain-blocking-for-everyone
[2] https://www.heise.de/ix
[3] mailto:fo@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 13:46

Angreifer können auf Dateisystem von QNAP-NAS zugreifen

Von Heise
Ein symbolischer Schreibtisch mit einer Updateerinnerung.

(Bild: Artur Szczybylo / Shutterstock.com)

Sicherheitspatches für die NAS-Betriebssysteme QTS und QuTS hero von Qnap schließen mehrere Lücken.

Fünf Schwachstellen gefährden Netzwerkspeicher (NAS) von Qnap. Die Lücken stecken in den Betriebssystemen QTS und QuTS hero. Nach erfolgreichen Attacken kommt es etwa zu DoS-Zuständen und somit zu Abstürzen.

Mehrere Schwachstellen geschlossen

Am gefährlichsten gilt einer Warnmeldung zufolge [1] eine „kritische“ Sicherheitslücke (CVE-2025-66277), über die Angreifer im Zuge einer Path-Traversal-Attacke auf eigentlich geschützte Bereiche des Dateisystems zugreifen können. Was dann konkret geschieht, ist derzeit nicht bekannt. Aufgrund der kritischen Einstufung ist aber davon auszugehen, dass Systeme danach als kompromittiert gelten.

Aus einer weiteren Warnmeldung geht hervor [2], dass die DoS-Lücken mit „mittel“ und „niedrig“ (CVE-2025-47205, CVE-2025-58466, CVE-2025-66274, CVE-2025-59386, CVE-2025-48725) eingestuft sind. Bislang gibt es keine Berichte, dass Angreifer die Schwachstellen bereits ausnutzen. Die Entwickler versichern, die Sicherheitsprobleme in QTS 5.2.8.3350 build 20251216, QuTS hero h5.2.8.3350 build 20251216 und QuTS hero h5.3.2.3354 build 20251225 gelöst zu haben.


URL dieses Artikels:
https://www.heise.de/-11175677

Links in diesem Artikel:
[1] https://www.qnap.com/de-de/security-advisory/qsa-26-05
[2] https://www.qnap.com/de-de/security-advisory/qsa-26-08
[3] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[4] mailto:des@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 11:46

Warnung vor Attacken auf BeyondTrust-Fernwartungslösungen

Von Heise

(Bild: Sashkin/Shutterstock.com)

Angreifer nutzen eine kritische Schadcode-Lücke in BeyondTrust Remote Support und Privileged Remote Access aus. Sicherheitspatches sind verfügbar.

Admins, die PCs in Firmen mit BeyondTrust Remote Support oder Privileged Remote Access verwalten, sollten die Fernwartungssoftware umgehend auf den aktuellen Stand bringen. Derzeit nutzen Angreifer eine Schwachstelle aus, über die Schadcode auf Systeme gelangt.

Hintergründe

Vor den Attacken warnt ein Sicherheitsforscher von watchTowr auf X [1]. Er weist darauf hin, dass, wenn Systeme nicht gepatcht sind, sie mit hoher Wahrscheinlichkeit kompromittiert sind. Entdeckt haben die „kritische“ Lücke (CVE-2026-1731) Sicherheitsforscher von Hacktron [2].

Die gegen die derzeit laufenden Attacken abgesicherten Versionen Remote Support 25.3.2 und Privileged Remote Access 25.1.1 sind seit wenigen Tagen verfügbar [3], aber offensichtlich noch nicht flächendeckend installiert. Weil der Support für Versionen vor 21.3 und 22.1 eingestellt wurde, gibt es keine Sicherheitspatches mehr. Erst nach einem Upgrade auf eine aktuelle Version stehen die Updates zum Download bereit.

Bei SaaS-Kunden wurden die Patches seitens des Softwareherstellers installiert. Admins von On-Prem-Instanzen müssen jetzt handeln. Die Sicherheitsforscher von Hacktron geben an, dass rund 8500 potenziell verwundbare On-Prem-Instanzen öffentlich erreichbar sind.

Attacken sollen aus der Ferne und ohne Authentifizierung möglich sein. Im Anschluss können Angreifer die volle Kontrolle über Computer erlangen. Dabei sollen Angreifer get_portal_info auslesen, um Zugriff auf X-Ns-Company-Identifier zu bekommen. Im Anschluss richten sie einen WebSocket ein. Danach können sie Schadcode ausführen. In welchem Umfang die Attacken ablaufen, ist derzeit nicht bekannt. Unklar ist auch, an welchen konkreten Parametern Admins bereits attackierte Instanzen erkennen können.


URL dieses Artikels:
https://www.heise.de/-11175384

Links in diesem Artikel:
[1] https://x.com/ethicalhack3r/status/2021870311377879136
[2] https://www.hacktron.ai/blog/cve-2026-1731-beyondtrust-remote-support-rce
[3] https://www.heise.de/news/Attacken-auf-BeyondTrust-Remote-Support-und-Privileged-Remote-Access-moeglich-11171444.html
[4] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[5] mailto:des@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 09:31

heise-Angebot: Jetzt in der Make 1/26: Konservendose als Radonsensor

Von Akos Fodor

Hat man Radon erst in seinem Haus entdeckt, sollte man als Nächstes die Belastung prüfen. Wir zeigen, wie man dafür ein Messgerät baut.

In der letzten Make-Ausgabe (7/25) haben wir erklärt, wieso Radon gefährlich ist und wie man die Spuren radioaktiver Strahlung mit einer selbst gebauten Nebelkammer sichtbar macht. Das reicht als erster Indikator, allerdings lässt sich die Konzentration des Gases mit diesem Instrument nur ungenau bestimmen. Um zu ermitteln, wie hoch die Strahlenbelastung in einem Raum ist, benötigt man ein präziseres Werkzeug: eine Ionenkammer.

Diese lässt sich mit einfachen Maker-Mitteln für etwa 50 Euro realisieren. So entsteht aus einer Konservendose, einem JFET (Junction Field Effect Transistor) und ein paar weiteren Elektronikkomponenten ein verlässliches Messgerät, das reproduzierbare Ergebnisse liefert. Die erfassten Daten wertet ein Arduino Nano aus. Wie das funktioniert und wie man die Ionenkammer Schritt für Schritt nachbaut, beschreibt unser Autor Ulrich Schmerold in der Make 1/26.

Außerdem im Heft: KI-Erweiterung für die Arduino IDE

Wer beim Basteln mit der Arduino IDE eine KI als Helfer nutzt, kennt das Spiel: Code kopieren, ins Chatfenster im Browser einfügen, der KI ein wenig Kontext geben und die Antwort wieder zurück in die IDE übertragen. Das nervt auf Dauer und lässt sich mit AI.duino vermeiden, einer KI-Erweiterung für die Arduino IDE, die unser Autor Nikolai Radke entwickelt hat.

Mit AI.duino kann man in der Arduino IDE mit LLMs interagieren.

Sie integriert LLMs (Large Language Models) wie ChatGPT, Claude oder Ollama, das auch offline funktioniert, in die Bedienoberfläche. So lassen sich Fragen direkt über das Chatfenster in der IDE klären. Die KI kann dabei auf den Code zugreifen, ihn auf Fehler prüfen oder etwa Kommentare ergänzen und Tipps für Optimierungen geben. Was das Tool außerdem noch beherrscht und wie man es einrichtet, erklären wir exklusiv im aktuellen Heft. Dabei wirft unser Autor auch einen Blick hinter die Kulissen seines Programms.

Die aktuelle Make: Am Kiosk und online erhältlich

Die Ausgabe 1/26 ist online und am Kiosk erhältlich. Mit einem unserer Abos [1] lag das Heft sogar bereits im Briefkasten. Außerdem können Sie die Make bequem als Printversion oder PDF im Heise Shop [2] bestellen – bis zum 20.02. sogar versandkostenfrei. Wenn Sie die Make lieber digital lesen, können Sie das in unseren Apps für iOS [3] und Android [4]. Online finden Sie auch das Inhaltsverzeichnis der Make 1/26 [5].


URL dieses Artikels:
https://www.heise.de/-11174826

Links in diesem Artikel:
[1] https://shop.heise.de/zeitschriften-abo/Make/Miniabo/?LPID=46501_MA000009_33946_2_57&wt_mc=intern.abo.make.ma_ea_2026.ticker-2.link.link
[2] https://shop.heise.de/make-01-2026/print?wt_mc=intern.shop.shop.make_2601.t2.textlink.textlink
[3] https://apps.apple.com/de/app/ct-hardware-hacks/id521645889
[4] https://play.google.com/store/apps/details?id=de.heise.android.ch.magazin&hl=de
[5] https://www.heise.de/select/make/2026/1
[6] https://www.heise.de/make
[7] mailto:akf@make-magazin.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 12:00

AirTag 2 im Praxistest: 50 Meter statt 15 – ein echter Gamechanger | c't 3003

Von Heise

AirTag 2 vs. AirTag 1 vs. Moto Tag: c't 3003 testet die Reichweite der Nahbereichsuche unter realen Bedingungen. Der Unterschied ist enorm.

Apple verspricht beim AirTag 2 eine deutlich höhere UWB-Reichweite – aber stimmt das auch in der Praxis? c't 3003 hat den neuen Tracker gegen den Vorgänger und Motorolas Android-Alternative antreten lassen. Das Ergebnis: Bis zu 50 Meter statt 15 Meter Nahfunk-Reichweite machen beim Suchen einen gewaltigen Unterschied.

Transkript des Videos

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, das ist ein AirTag 2 und ja, sieht genauso aus wie die Version, die vor 5 Jahren rausgekommen ist, kostet auch genauso viel und ist das zurzeit preisgünstigste Gadget von Apple.

Auch wenn mir das ein bisschen peinlich ist: Die AirTags sind für mich persönlich der Hauptgrund, warum ich wahrscheinlich für ewig im Apple-Ökosystem rumhänge, weil ich ohne die Dinger einfach nicht mehr leben kann. Und der AirTag 2 soll das jetzt alles noch viel besser machen, mit einer deutlich höheren Reichweite, was für mich echt ein Gamechanger wäre. Denn ich habe das ständig, dass ich irgendwas suche, aber mein Handy keine Verbindung zum AirTag aufnimmt – und dann laufe ich da immer so doof rum, bis ich da eine Verbindung bekommen habe.

In diesem Video testen wir das Ganze unter harten, realen Bedingungen am und im Heise-Verlag und finden heraus, ob die neuen AirTags wirklich besser sind. Und ich habe auch noch den härtesten Konkurrenten aus dem anderen Lager in den Test reingenommen: Und zwar den Moto Tag für Android-Smartphones, der auch wie die AirTags über Ultra-Breitband, also UWB, zentimetergenau ortbar ist. Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...

Lasst uns gleich mal reinstarten in unseren Praxistest, bevor ich dann später erkläre, wie das technisch alles funktioniert. Erstmal in Gang setzen die Dinger und das finde ich immer wieder magisch, denn man muss da einfach nur diese Lasche abziehen und schon meldet sich das Smartphone und sagt: „Hey, ich habe einen Tag gefunden, soll ich den installieren?“ Also wirklich richtig schön einfach. Und das klappt beim Moto Tag übrigens exakt genauso wie bei den Apple AirTags.

Hier ist einmal Keno aus der Zukunft. Mir ist kurz vorm Hochladen dieses Videos aufgefallen, dass die Nahbereichssuche mit Ultra-Breitband im Moto Tag nur mit Google-Pixel-Pro-Telefonen funktioniert und ich habe ein normales Pixel 9 verwendet. Das kann nur Bluetooth, kein Ultra-Breitband. Und deshalb funktionierte mit dem Moto Tag keine Nahbereichssuche, also die Suche mit dem Pfeil und der Meterangabe. Tut mir leid, blöder Fehler, den Test hole ich auf jeden Fall nach, also im Vergleich zu AirTags. Dann machen wir ein Short-Video, das verlinke ich dann hier in diesem Video als angepinnten Kommentar. Trotzdem viel Spaß mit dem Video, die Infos zu den AirTags und die anderen Infos zum Moto Tag, die stimmen alle in dem Video.

Jetzt aber nach draußen. AirTag 1, AirTag 2 und Moto Tag hat mein Kollege Sahin gut versteckt. Ungefähr 50 Meter entfernt von mir. Ich habe dann so versteckenmäßig mir die Augen zugehalten. 50 gezählt. Ja, und dann habe ich versucht mit Moto Tag und dem alten AirTag die Fährte aufzunehmen. So, dann fangen wir mal an mit Google, würde ich sagen. Okay, Moto Tag anmachen. „In der Nähe suchen“, wird verbunden. Also hier funktioniert nicht. Ich probiere aber jetzt mal das alte AirTag. So, AirTag 1, „Suchen“ in der Nähe. AirTag 1 „Suchen“ ist nichts. Ich würde sagen, hier stehe ich schon ziemlich im Mittelpunkt und ist trotzdem bei beiden nichts. Beide haben noch kein Signal. Jetzt probiere ich noch mal den Tag 2. Jetzt, der geht jetzt – und der auch noch nicht, aber zumindest hat er gerade schon mal … bietet er es jetzt wenigstens an. Ah, er hat jetzt kurz „Verbunden“ gesagt, der Google Tag. Wenn ich … mach das mal systematisch, dass ich jetzt hier … Also er sagt „Verbunden“, aber es wird mir hier irgendwie kein Signal schwach … Ja, „Versuche dich an einen anderen Ort zu bewegen“. Keine Chance mit dem AirTag 2, erstmal auch nicht. Und dann bin ich aber einfach ein bisschen rumgelaufen und habe geguckt, wann der AirTag 2 anschlug. Und das war schon relativ schnell der Fall.

Aha! Guck mal, jetzt hat er direkt ausgeschlagen, der AirTag 2. Bei 23 Meter Entfernung. So, und dann habe ich an dieser Stelle auch bei den anderen beiden Tags geguckt, ob die auch schon gesehen werden. Und der AirTag 1? Nicht. Und das Moto Tag zeigt mir nicht mal an, dass ich überhaupt … Also könnte ich das klingeln lassen? Gerät klingelt. Gut, aber das hilft mir jetzt gar nicht weiter. Weil ich höre nichts. Wurden sie nicht. Das bedeutet, ohne AirTag 2 wäre ich hier noch viel länger kopflos rumgelaufen. Aber dank AirTag 2 hatte ich ja dann direkt meinen Pfeil. Ich wusste also, wo es lang geht. Das hat dann mit AirTag 1 und Moto Tag deutlich länger gedauert, bis die dann auch endlich mal die Fährte aufgenommen haben. Da muss ich also deutlich näher dran.

Und was man auch sagen muss, der Moto Tag ist deutlich unpraktischer. Aber klar, man kann alle diese Tags auch einfach piepen lassen. Aber das finde ich A, ziemlich unelegant und B, hört man es oft einfach nicht. Wir haben die Schallpegel bei uns im Labor gemessen. Dazu gehe ich später noch im Detail ein. Ich lasse es mal klingeln. Okay, das höre ich. Ah. Im Reifen? Ah, ja, sehr gut, okay. Also ich hätte es irgendwann wahrscheinlich gefunden mit Moto Tag. Und irgendwann hätte ich wahrscheinlich, wenn ich halt so brainless hier rumgelaufen wäre, wäre irgendwann der AirTag 1 angeschlagen. Und dann zeigt er einem halt auch irgendwann einen Pfeil an, wie jetzt. Das ist jetzt das AirTag 1. Das hat jetzt auch einen Pfeil, aber der Pfeil geht halt erst an, wenn man relativ dicht dran ist. Und beim AirTag 2 hatte ich den Pfeil halt schon 15 Meter weiter. Also ich bleibe hier jetzt einfach mal stehen und lasse alle drei piepen. Das ist der Moto Tag, das ist der AirTag 1. Schon durchdringender. Und jetzt der AirTag 2. Ja, das hat Druck. Ganz klar besser.

Ich habe auf jeden Fall beim Anpiepen beim Draußentest erst was gehört, als ich sehr dicht dran stand. Auch da war der AirTag 2 mit Abstand am lautesten. Die lagen halt auf diesem Radkasten und das schluckt natürlich so ein bisschen Schall. Aber in der Praxis kommt es ja auch mal vor, dass die Teile irgendwo vergraben sind. Deshalb lieber die Nahfunkfunktion benutzen, wie ihr am Anfang ja schon gesehen habt, also mit diesem neckischen Pfeil, zumindest bei den AirTags. Damit lassen sie sich völlig problemlos finden, ohne nerviges Gepiepe. Wenn man sich denn im Nahfunkbereich befindet, das muss man eben, sonst gibt es keinen Pfeil. Und das ist halt bei den AirTags 2 aus deutlich weiterem Abstand möglich, was natürlich praktisch ist. Also draußen mit direktem Sichtkontakt hatten wir beim AirTag 2 fast 50 Meter Entfernung gemessen. Beim AirTag 1 haben wir dann ungefähr ab 15 Meter schon das Signal verloren, ähnlich wie beim Moto Tag. Also das ist ein wirklich riesiger Unterschied. Punkt für den AirTag 2 schon mal.

Direkt mal der Einschub, weil ich das echt ziemlich oft höre. Nein, AirTags sind keine GPS-Tracker. AirTags kommunizieren nicht mit GPS-Satelliten, sondern das funktioniert viel einfacher. Die funken alle zwei Sekunden ein klitzekleines Bluetooth-Low-Energy-Hallo-hier-bin-ich-Signal in die Welt und wenn dann ein Apple-Gerät in Reichweite ist, dann kann das das empfangen und ein Signal ans AirTag schicken und sagen: „Piep mal“, also über Bluetooth. Und dann piept das AirTag und man kann es hoffentlich finden, weil man hört das dann ja – oder auch nicht, weil es unter drei Sofakissen liegt oder da halt im Radkasten von dem Auto oder halt gar nicht in Reichweite ist. Da kommen dann die anderen Funktionen ins Spiel und die sind technisch schon deutlich komplexer.

Denn einmal empfangen dieses Hier-bin-ich-Signal alle Apple-Geräte und im Fall von Google auch viele Android-Geräte, dazu komme ich später aber nochmal, also auch welche, die gar nichts mit dem AirTag zu tun haben. Wenn ihr zum Beispiel gerade dieses Video in der U-Bahn auf einem iPhone guckt, dann ist das nicht unwahrscheinlich, dass euer Telefon gerade AirTags empfängt und deren Position ans Apple-Netzwerk sendet. Anonymisiert und ohne, dass ihr das mitbekommt. Ja, das ist standardmäßig aktiviert, ihr könnt es aber auch abschalten, indem ihr in den Einstellungen auf Apple-ID, also auf euren Namen, dann den Punkt „Wo ist?“, dann auf „Mein iPhone suchen“ und dann den Schalter bei „Wo ist?“-Netzwerk deaktivieren. Aber dann könnt ihr selbst euer Telefon auch nicht mehr orten, ganz wichtig.

So, aber wieder zurück zum Standardfall, wenn ihr das aktiviert habt. Also wenn ihr in dieser U-Bahn zum Beispiel euren Rucksack liegen gelassen habt, ihr aber schon längst wieder woanders seid, dann könnt ihr hier auf der Karte in der „Wo ist?“-App sehen, wo euer Rucksack ist, ohne dass ihr selbst in Funkreichweite seid. Das regeln die anderen iPhones. Und das ist das Coole. AirTags laufen so circa ein Jahr mit so einer ganz kleinen Billo-Knopfzelle und sind super klein und leicht und können zumindest an Orten, wo viele iPhones rumlaufen, genauso gut lokalisiert werden wie echte, viel stromhungrigere GPS-Tracker. Wie AirTags übrigens als Diebstahlschutz funktionieren, dazu hatten wir schon ein eigenes Video, da will ich hier jetzt nicht drauf eingehen.

Aber AirTags haben, wie ich am Anfang ja schon gezeigt habe, noch eine dritte Funktion und das ist eben dieser Ultra-Breitband-Funk, der bei AirTags „Genaue Suche“, bei Moto Tag „In der Nähe suchen“ heißt. Das ist ziemlich faszinierende Technik, finde ich. Im Gegensatz zu Bluetooth, das nur ziemlich ungenau die Signalstärke misst, nutzt UWB extrem kurze Pulse auf einem breiten Frequenzspektrum, das ist so zwischen 6 und 9 GHz. Und die messen die Time of Flight, also die Zeit, die das Signal vom Handy zum AirTag und zurück benötigt. Und weil das iPhone mehrere Antennen hat dafür, erkennt es die Richtung, aus der das Signal kommt und kann deshalb eben diesen neckischen Pfeil anzeigen.

Allerdings, ich habe ja gerade von Antennen im Telefon gesprochen, muss das Handy das unterstützen. Bei Apple heißt das zum Beispiel U1-Chip. Bei Apple wäre das ab dem iPhone 11 und anderen Geräten, die Liste seht ihr hier, könnt ihr Pause drücken. Aber diese verbesserten Ortungsfunktionen des AirTag 2, also die größere Reichweite, die ihr gerade gesehen habt, die funktionieren nur mit U2-Chip und die gibt es erst ab dem iPhone 15. Mit älteren Geräten könnt ihr die AirTags 2 auch problemlos verwenden, aber dann habt ihr eben nicht die höhere Reichweite. Fürs Moto Tag braucht ihr ein Android-Telefon mit UWB-Chip. Das sind recht viele, aber zum Beispiel bei den Google-eigenen Pixel-Geräten nur die Pro-Varianten ab dem Pixel 6.

Leider ist aber auch das Empfangen von anderen Android-Geräten, also was ich euch gerade mit dem U-Bahn-Beispiel erklärt habe, unseren Erfahrungen nach viel unzuverlässiger bei Android, weil die Funktion, dass man fremde Tags meldet, da nicht standardmäßig eingeschaltet ist. Das muss man aktivieren und das machen offenbar nur wenige Leute. Und das ist halt der Grund, warum ich persönlich AirTags verwende. Achso, nur noch mal ganz deutlich gemacht: Für AirTags braucht man Apple-Geräte und für Googles Find-My-Device-Tags braucht man Android-Geräte. Es wäre viel schöner, wenn das übergreifend funktionieren würde, aber leider nein.

So, das war jetzt der Erklärungsteil, jetzt weiter zum Indoor-Test. Die Kollegen haben es irgendwo versteckt bei Heise in den Büros und ich durfte suchen. Jetzt probiere ich das Ganze mal mit meinem AirTag 1. Oh, kriegt direkt eine Verbindung, interessant. Aber genau das gleiche Problem wie gerade, dass mir jetzt zwar „Verbunden“ angezeigt wird, aber nicht in welche Richtung. „Versuche dich an einen anderen Ort zu bewegen“. Ja, so und jetzt mal der Tag 2. „Verbunden“, ja direkt eine Angabe, 24 Meter und ich kann jetzt hier erstmal nicht, also okay, ich komme dem näher, ich kriege auch hier noch kein Signal, da ist ein Pfeil, okay, hier ist falsch, hier ist richtig, ich bin jetzt hier noch mal bei 13 Metern und jetzt gucke ich mal den AirTag 1. „Signal suchen“, weit entfernt. Ja, weit entfernt hilft mir jetzt nicht viel weiter. 4,8. Okay, also hier in diesem Raum im Sekretariat ist auf jeden Fall der AirTag. Ich werde aber jetzt mal den AirTag 2 ausschalten. Ich werde jetzt hier mit dem Moto Tag versuchen. Hier. Hilft mir wenig weiter. Okay, also man sieht hier irgendwie, dass sich das so füllt. Soll irgendwie noch irgendwas bedeuten. Füllt es sich weniger. Ah, hier füllt es sich mehr. Okay. Es ist hier. Sagt Moto Tag. Okay. Klingeln lassen. Ha. Nur mit Moto Tag gefunden. Aber auch nur, weil das AirTag 2 mir hier diese Anfangsarbeit gemacht hat. Wunderbar.

Und ja, da gab es wieder den gleichen Effekt wie draußen. Das AirTag 2 schlug viel früher an als die anderen beiden Tags. Schon bei 24 Meter Abstand innen, drinnen, durch Wände. Das ist extrem viel und sollte deshalb auch für sehr große Wohnungen oder Häuser ausreichen. Und damit war es dann halt wirklich kein Problem, die Tags zu finden. Ich hätte das natürlich irgendwann auch mit Moto Tag und AirTag 1 gefunden, aber das hätte auf jeden Fall deutlich länger gedauert.

Ja, und jetzt noch die Pieper-Tests. Hatte ich ja versprochen aus unserer schallarmen Kammer. Da haben wir beim AirTag 2 einen maximalen Schallpegel von 81 dBA aus einem Meter Entfernung gemessen. Beim AirTag 1 waren es 75 dBA. Näher am echten menschlichen Höreindruck ist der gemittelte Pegel. Und da haben wir 75 dBA beim AirTag 2 gemessen und 66 dBA beim AirTag 1. Den Moto Tag hatten wir nicht in der schallarmen Kammer, der piept aber subjektiv noch leiser als der AirTag 1. Also auch hier ganz klarer Sieger, AirTag 2.

Der AirTag 2 ist jetzt technisch erstmals dazu in der Lage, dass ich in meiner Wohnung wirklich von jedem Punkt aus jede AirTag-Position abrufen kann. Mit dieser genauen UWB-Suche, also inklusive Entfernungsangabe und Richtungspfeil. Vorher musste ich immer rumlaufen in der Wohnung, bis das AirTag irgendwann geortet war, was ich ziemlich nervig finde. Oh ja, und jetzt überlege ich sogar, mir einen AirTag in die Mütze zu nähen. Also AirTag 2 ist für mich echt ein Gamechanger. Vor allem, was ich auch gut finde, dass der Preis sich nicht geändert hat. 35 Euro für einen und man findet öfter mal Angebote für ungefähr 100 Euro für einen Viererpack. Wenn man die direkt bei Apple kauft, kann man die auch so schön gravieren lassen. Finde ich preislich ehrlich gesagt okay, vor allem weil die Dinger echt lange halten und weil man die Batterien selbst tauschen kann.

Ja, also ganz klar, der AirTag 2 zieht mich noch mehr ins Apple-Ökosystem, was ich eigentlich gar nicht will, weil ich geschlossene Systeme nicht mag, aber manchmal muss man die Kröte schlucken, wenn man wie ich ständig Dinge sucht. Zumindest kann ich ja unter Linux einfach im Browser Apple-Geräte piepen lassen, wenn ich mich da bei Apple eingeloggt habe, aber der ganze Ultra-Breitband-Nahfeld-Suchkram, das klappt nur mit iPhones oder Apple Watches. Und genau das brauche ich halt, weil ich meine Mitmenschen privat und auch beruflich vermutlich wahnsinnig machen würde, wenn ich bedenke, wie oft ich so am Tag Dinge suche, also die ich dann die ganze Zeit piepen lassen müsste. Ja, und bei Android funktioniert diese UWB-Nahsuche eben noch nicht so gut. Also noch, ne? Ich hoffe, dass sich das irgendwann ändert. Oder, dass die Teile irgendwann plattformübergreifend funktionieren. Das wäre natürlich noch toller.

Ja, wie seht ihr das? Gerne in die Kommentare schreiben. Wir lesen alles. Gerne c't-3003-Podcast hören und den Hype-Newsletter abonnieren. Tschüss.

c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


URL dieses Artikels:
https://www.heise.de/-11176371

Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 17:19

Spotify-Co-CEO: Top-Entwickler schreiben dank KI keinen Code mehr

Von Heise
Spotify-Logo auf iPhone, daneben liegen AirPods

(Bild: Primakov/Shutterstock.com)

Spotify-Co-CEO Gustav Söderström sorgt für Diskussionen: Seine besten Ingenieure schreiben dank KI keinen Code mehr, sondern überwachen nur noch.

Dieser Satz von Spotify-Co-CEO Gustav Söderström sorgt für Diskussionen: „Wenn ich mit meinen erfahrensten Ingenieuren spreche, den besten Entwicklern, die wir hatten, sagen sie, dass sie seit Dezember keine einzige Zeile Code mehr geschrieben haben. Sie generieren nur noch Code und überwachen ihn.“ Die Aussage aus der Analystenkonferenz zu den jüngsten Geschäftszahlen stößt im Netz auf gemischte Reaktionen: Während die einen fasziniert davon sind, wie stark Spotify die KI-Transformation in seinem Unternehmen vorangetrieben hat, womit Söderström vermutlich auch werben sollte, nehmen andere daran Anstoß. Das sei doch ein Kontrollverlust und kein Qualitätsmerkmal, kommentieren Kritiker.

Tatsächlich soll aber gerade die Kontrolle in der Softwareentwicklung bei Spotify bedeutsamer denn je geworden sein. Mit seiner Aussage in der Analystenkonferenz [1] (Transkript bei Seekingalpha [2]) wies Söderström auf einen fundamentalen Wandel in der Arbeitsweise hin. Und nicht ohne Grund stellte er vermutlich heraus, dass es gerade die besten Entwickler sind, die keinen Code mehr schreiben.

Vom Spieler zum Trainer

KI übernimmt in dieser Neuordnung die aktive Programmierung, während Entwickler – um es mit der Sportart Fußball zu vergleichen – zunehmend vom Spieler zum Trainer werden. Über Sieg oder Niederlage entscheiden Strategie und Vorbereitung der Spieler, nicht die Fähigkeit, den Ball selbst über den Platz zu bewegen. Und der Trainer muss während des Spiels alles im Auge behalten. Mit Einwechselungen und Zurufen nimmt er Einfluss auf das Spielgeschehen. Bezogen auf die Entwicklung wäre dies das Feedback an die KI, das Festlegen von Prioritäten und Reihenfolgen und das Beurteilen ihrer Leistung. Auch vor dem Einsatz agentischer KI haben erfahrene Entwickler architektonische Entscheidungen getroffen – mit der KI verlagert sich der Fokus noch mehr.

Spotify nutzt hierfür ein selbst entwickeltes System namens „Honk“ zur Beschleunigung von Coding und Produktentwicklung. Als technische Basis hierfür kommt Claude Code von Anthropic zum Einsatz. Entwickler können per Slack vom Smartphone aus Änderungen an der App beauftragen und etwa Bugfixes oder neue Funktionen hinzufügen. Das Ergebnis bekommen sie als Testversion zurückgespielt und geben der KI Feedback, bis der gewünschte Reifegrad erreicht ist.

Umfangreiche Infrastruktur aufgebaut

Spotifys Erfolg mit KI-gestützter Entwicklung basiert nicht primär auf Claude Code selbst, sondern auf jahrelanger Infrastruktur-Arbeit. Seit dem Jahr 2020 nutzt Spotify „Backstage", ein Portal, das als zentrale Anlaufstelle dient. Jeder im Unternehmen kann dort nachvollziehen, welches Team welchen Code verantwortet und wie die Abhängigkeiten zwischen verschiedenen Komponenten aussehen.

Darauf aufbauend entwickelte Spotify ab 2022 „Fleet Management" – ein Framework, das Code-Änderungen über hunderte oder tausende Repositories gleichzeitig durchführen kann. Die Integration des Claude Agent SDK erfolgte erst im Juli 2025.

Spotify-Co-CEO: Erst der Anfang

Spotify gehört zu einer kleinen Elite: Laut einer Deloitte-Studie von 2025 [3] nutzen nur 11 Prozent der Organisationen Agentic AI in der Produktion. 30 Prozent explorieren das Thema, 38 Prozent betreiben Pilotprojekte.

Söderström sieht den aktuellen Stand nicht als Endpunkt: „Wir sehen dies nicht als Ende der Entwicklung bei KI, sondern erst als Anfang." Spotify plane weitere KI-Integration in Entwicklungsprozesse. Unklar bleibt freilich, ob sich das am Ende nicht doch auch auf die Job-Sicherheit der Entwickler auswirkt. Gespart werden könnte hier vor allem an Nachwuchskräften, denen die Erfahrung fehlt, die KI zu steuern. In Deutschland zeichnet sich ein solcher Trend bereits ab [4]. Kritiker befürchten indessen, dass Entwickler zunehmend ihre praktischen Coding-Kenntnisse verlieren.


URL dieses Artikels:
https://www.heise.de/-11176381

Links in diesem Artikel:
[1] https://app.webinar.net/AG8BokRm4kJ
[2] https://seekingalpha.com/article/4868154-spotify-technology-s-a-spot-q4-2025-earnings-call-transcript
[3] https://www.deloitte.com/us/en/insights/topics/technology-management/tech-trends/2026/agentic-ai-strategy.html
[4] https://www.heise.de/hintergrund/Developer-Jobs-unter-KI-Druck-Zahl-der-ausgeschriebenen-Junior-Stellen-halbiert-10625774.html
[5] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[6] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 17:15

Apple-Studie: Nutzer wollen transparente KI-Agenten statt Black-Box-Systeme

Von Heise
Ein Kopf mit Aufschrift AI

(Bild: photoschmidt/ Shutterstock.com)

Eine neue Studie von Apple untersucht, wie Menschen mit KI-Agenten interagieren wollen. Das Ergebnis: Transparenz und Kontrolle schlagen Leistung.

Apple-Forscher haben in einer zweiphasigen Studie untersucht, wie Nutzer mit KI-Agenten interagieren möchten. Das Ergebnis ist überraschend: Menschen bevorzugen weniger leistungsstarke, sondern eher transparente Agenten gegenüber leistungsstarken Black-Box-Systemen. Die im Februar 2026 veröffentlichte Studie „Mapping the Design Space of User Experience for Computer Use Agents“ [1] identifiziert vier zentrale Kategorien für das UX-Design und analysiert neun bestehende Systeme wie Claude Computer Use Tool, OpenAI Operator und Googles Project Mariner.

Die Forscher untersuchten in Phase 1 ihrer Studie neun kommerzielle KI-Agent-Systeme und führten Interviews mit acht UX- und KI-Praktikern aus großen Technologieunternehmen. In Phase 2 testeten sie ihre Erkenntnisse mit 20 Teilnehmern in einem sogenannten Wizard-of-Oz-Experiment. So wird ein Versuch bezeichnet, bei dem ein Mensch (Proband) annimmt, mit einem autonomen (im Sinne der künstlichen Intelligenz) System zu kommunizieren, in Wirklichkeit aber mit einem Menschen interagiert. Die Probanden sollten Aufgaben wie Ferienwohnungsbuchungen oder Online-Shopping erledigen, während ein Forscher im Nebenraum die Agent-Aktionen simulierte. Die Teilnehmer konnten den vermeintlichen Agenten jederzeit mit einem Interrupt-Button stoppen. Die aufgezeichneten Videos und Chat-Logs lieferten Einblicke in die tatsächlichen Nutzererwartungen.

Transparenz wichtiger als Automatisierung

Ein zentrales Ergebnis: Nutzer wollen Einblick in Agent-Aktivitäten, aber kein Mikromanagement. Zu viel Kontrolle würde bedeuten, dass sie die Aufgaben gleich selbst erledigen könnten. Besonders wichtig ist den Probanden Transparenz bei unbekannten Bedienoberflächen. Dort wünschen sie mehr Zwischenschritte, Erklärungen und Bestätigungspausen – selbst bei Szenarien mit geringem Risiko. Bei Aktionen mit echten Konsequenzen wie Käufen, Kontoänderungen oder Kontaktaufnahmen mit anderen Menschen fordern Nutzer mehr Kontrolle.

Das Vertrauen in KI-Agenten bricht schnell zusammen, wenn das System stille Annahmen trifft oder Fehler macht. Bei mehrdeutigen Wahlmöglichkeiten bevorzugen Nutzer, dass der Agent pausiert und nachfragt, statt zufällig zu wählen. Besonders deutlich wird dies bei Entscheidungen, die zu falschen Produktauswahlen führen könnten.

Bestehende Systeme erfüllen Erwartungen nur teilweise

Die neun analysierten Systeme, darunter Claude Computer Use Tool von Anthropic, OpenAI Operator und Googles Project Mariner, erfüllen die Nutzererwartungen laut den Forschern nur teilweise. Die Studie zeigt auch kontextabhängige Erwartungen: Nutzer wollen unterschiedliches Agent-Verhalten, je nachdem ob sie Optionen erkunden oder eine bekannte Aufgabe ausführen. Die Erwartungen ändern sich auch basierend auf der Vertrautheit mit einer Schnittstelle. Die gesammelten Erkenntnisse könnten direkten Einfluss auf Apples geplante Siri-Überarbeitung haben. So kündigte der iPhone-Hersteller im Sommer 2024 an, dass der Sprachassistent künftig appübergreifend Aufgaben erledigen soll. Die Veröffentlichung verzögerte sich jedoch. Aktuell wird erst in den nächsten Monaten damit gerechnet [2].

Apple verfolgt bei KI-Agenten einen deutlich konservativeren Ansatz als Konkurrenten wie OpenAI, Google und Meta. Während diese Unternehmen Milliarden in große, allgemeine Sprachmodelle investieren, konzentriert sich Apple auf gezielte, datenschutzorientierte Features mit Schwerpunkt auf On-Device-Verarbeitung.

Für rechenintensive Aufgaben evaluiert Apple externe Modelle, insbesondere Googles Gemini, plant aber, eine angepasste Version auf eigenen Servern zu betreiben. Persönliche Daten und Geräte-Kontext bleiben bei Apples eigenen In-House-Modellen. Die aktuelle Studie spielt Apple in die Hände: Nutzer akzeptieren lieber später startende, aber besser konzipierte Systeme als schnell eingeführte Black-Box-Lösungen.


URL dieses Artikels:
https://www.heise.de/-11176387

Links in diesem Artikel:
[1] https://machinelearning.apple.com/research/mapping
[2] https://www.heise.de/news/Bericht-Neue-Siri-doch-nicht-in-iOS-26-4-11173689.html
[3] https://www.heise.de/mac-and-i
[4] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 17:14

Eclipse Theia 1.68: KI-Agenten lernen Skills und erledigen To-do-Listen

Von Heise
Eine Roboterhand auf einer Tastatur

(Bild: kung_tom/Shutterstock.com)

Das Verwenden des GitHub Copilot gestaltet sich nun einfacher, und KI-Agenten können Fortschritte visuell darstellen sowie Skills verwenden.

EclipseSource hat die Veröffentlichung von Eclipse Theia 1.68 bekanntgegeben, einer quelloffenen Entwicklungsplattform für Web- und Cloud-basierte Tools. Das aktuelle Release erlaubt das Verwenden von GitHub Copilot out-of-the-box und lässt KI-Agenten – noch als Alpha-Feature – Skills verwenden. Neben zahlreichen KI-bezogenen Updates gibt es auch weitere Neuerungen, unter anderem zur Verbesserung der Accessibility.

Aufgabenplanung zum Mitverfolgen

KI-Agenten können in Eclipse Theia durch das neue Tool todo_write den Fortschritt mehrstufiger Aufgaben visuell darstellen: Sie können To-do-Listen erzeugen, die im Chatfenster angezeigt und aktualisiert werden. Die Aufgaben erhalten, ihrem Status entsprechend, Icons für „noch nicht erledigt“, „in Arbeit“ oder „erledigt“. Um das Feature nutzen zu können, muss der neue Agenten-Modus „Agent Mode (Next)“ aktiviert sein. Dieser soll sich dadurch auszeichnen, dass er Coding-Aufgaben effektiver, zuverlässiger und autonomer durchführt.

Das Entwicklungsteam zeigt ein Beispiel: Ein Prompt fordert den KI-Agenten auf, eine To-do-Liste für das Kochen einer Mahlzeit zu erstellen und so zu tun, als würde er die dafür nötigen Schritte ausführen.

Der KI-Agent arbeitet eine virtuelle To-do-Liste ab.
Der KI-Agent arbeitet eine virtuelle To-do-Liste ab.

Der KI-Agent arbeitet eine virtuelle To-do-Liste ab.

(Bild: EclipseSource)

GitHub Copilot in Eclipse Theia 1.68

Entwicklerinnen und Entwickler mit aktivem GitHub-Copilot-Abo können dieses nun direkt innerhalb der Theia IDE sowie in mit Theia AI erstellten Tools verwenden. Sie benötigen dafür weder zusätzliche API-Keys noch Abos. Dahinter steht technisch das neue Package @theia/ai-copilot, das GitHub Copilot als Language-Model-Anbieter in Eclipse Theias KI-Framework integriert, mitsamt Authentifizierung per OAuth.

Wie der Authentifizierungsvorgang aussieht, demonstriert das EclipseSource-Team:

GitHub Copilot lässt sich direkt aus Eclipse Theia 1.68 heraus nutzen.
GitHub Copilot lässt sich direkt aus Eclipse Theia 1.68 heraus nutzen.

GitHub Copilot lässt sich direkt aus Eclipse Theia 1.68 heraus nutzen.

(Bild: EclipseSource)

Skills für KI-Agenten

Als Alpha-Feature können KI-Agenten in Eclipse Theia nun Agent Skills nutzen. Diese bestehen aus wiederverwendbaren Anweisungen und Domänenwissen, die Agenten aus SKILL.md-Dateien beziehen. Unter anderem können Agenten im Verzeichnis ~/.theia/skills/ vorhandene Skills automatisch entdecken, spezifische Skills per Entwickleranweisung mithilfe des Befehls /skillName nutzen oder Skills nach Bedarf laden. Für Letzteres dient die Variable {{skills}}, die Entwicklerinnen und Entwickler in Agenten-Prompts einfügen können.

Das Erstellen von Skills mithilfe des CreateSkill-Agenten befindet sich ebenfalls im Alpha-Status. Um projektspezifische Skills festzulegen, dient das KI-Chat-Interface. Dort können Developer den gewünschten Skill beschreiben, und der Agent wird eine korrekt strukturierte SKILL.md-Datei mitsamt entsprechendem YAML-Frontmatter und Markdown-Inhalt erstellen.

Updates für Accessibility und VS-Code-Kompatibilität

Für eine verbesserte Barrierefreiheit sind im Chat nun Fokusnavigationsbefehle verwendbar, um per Tastatur zwischen Input und Antworten zu navigieren (Strg/Cmd+oben/unten). Auch sind alle Chat-Buttons jetzt per Tastatur zugänglich, und für Screenreader stehen umfassende ARIA-Attribute bereit.

Daneben wurde die Kompatibilität mit Erweiterungen für Visual Studio Code [1] auf die API-Version 1.108.0 erhöht und das Theia-Team hat einige Bugs behoben, wie der Blogeintrag zur Ankündigung [2] aufführt.


URL dieses Artikels:
https://www.heise.de/-11175535

Links in diesem Artikel:
[1] https://www.heise.de/news/Visual-Studio-Code-1-109-KI-Modellen-beim-Denken-ueber-die-Schulter-schauen-11166278.html
[2] https://eclipsesource.com/blogs/2026/02/12/eclipse-theia-1-68-release-news-and-noteworthy/
[3] mailto:mai@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 12:38

Sicherheitskonferenz München: Wie hirntot ist Europa?

Von Rüdiger Suchsland

Rüdiger Suchsland

Macron und Merz bei einem gemeinsamen Auftritt

Der französische Staatspräsident Macron und der deutsche Bundeskanzler Merz bei einem gemeinsamen Auftritt in Berlin, Juli 2025. Bild: Shutterstock.com

Emmanuel Macrons europäischer Paukenschlag: "Wir müssen Europa als Macht denken" – und das Versagen der Merz-Regierung.

"Die Nato ist hirntot" – mit diesem provokativen Satz versuchte der französische Staatspräsident Emmanuel Macron vor Jahren die westliche Allianz aus dem selbstgewählten Dornröschenschlaf wachzurütteln. Jetzt rüttelt er wieder: "Wenn wir nichts tun, ist Europa in fünf Jahren weggefegt", warnt der Politiker.

Europa – und darunter versteht Macron jedenfalls mehr als die EU, sondern den Kontinent unter Einschluss Großbritanniens und der Schweiz, vielleicht der Balkanstaaten, vielleicht – müsse sich jetzt entscheiden, ob es in der Zuschauerrolle verbleiben oder zum Akteur werden wolle.

"Wenn wir Zuschauer sein wollen, dann mündet das in eine glückliche Unterwerfung."

"Diese Krise, die wir erleben, ist ein tiefgreifender geopolitischer Bruch"

Nur wenige Tage vor der heute beginnenden Münchner Sicherheitskonferenz [1] bat der Präsident eine Handvoll Korrespondenten renommierter europäischer Tageszeitungen – neben Le Monde, Financial Times und El País wurde aus der Bundesrepublik nicht etwa der Deutschlandfunk oder die FAZ, sondern die Süddeutsche Zeitung [2] gebeten – zu einem ebenso hochkarätigen wie wohl platzierten Gespräch über die Herausforderungen für Europa in der gerade entstehenden neuen Weltordnung.

Die entscheidenden Botschaften dieses Interviews dürften freilich im politischen Berlin kaum jemandem gefallen: Während man dort die deutsch-französische Achse vor sich hin rosten lässt, und plötzlich viel stärker als je zuvor seit 1945 auf eine nationale Karte und deutsche Alleingänge setzt, und auf neue Militarisierung, so sehr, dass man sowohl in Warschau wie in Paris höchst beunruhigt auf solche martialischen Gesten der Merz-Regierung blickt, fordert Macron mehr Selbstdisziplin und Einheit.

Der Präsident ist überzeugt, dass ein gespaltenes Europa scheitern werde. Allzu oft setze nach einer Krise "feige Erleichterung" ein. "Europa leidet an einem Trauma, die Menschen zweifeln".

Europa müsse "den Grönland-Moment nutzen", verlangt Frankreichs Präsident eine entschlossenere Haltung der Europäer:

"Jeder muss sich bewusst werden, dass diese Krise, die wir erleben, einen tiefgreifenden geopolitischen Bruch darstellt."

Außenpolitischer Paradigmenwechsel gegen die "geopolitische Minderjährigkeit" Europas

Darum verlangt der Franzose nun nichts weniger als einen außenpolitischen Paradigmenwechsel: Europa müsse sich neu definieren, und aus dem "Zustand der Unmündigkeit" und seiner "geopolitischen Minderjährigkeit" entwachsen.

Das bedeutet für den Franzosen erstens: Man muss die Beziehung zu Russland normalisieren und mit den Russen wieder sprechen, verhandeln, die diplomatischen Beziehungen normalisieren – Ukraine-Krieg hin oder her.

Macron spricht von der " Wiederaufnahme einer europäischen Diskussion mit den Russen ... ohne naiv zu sein".

Denn:

"Wir sind an einem Punkt angelangt, an dem dieser Zermürbungskrieg sein Endstadium erreicht hat."

Es sei nun "legitim, sich die Frage zu stellen, wie man diesen Krieg beenden kann".

Seine Überlegung sei "ganz einfach": Verhandlungen und Diskussionen über ein Kriegsende sollten nicht ohne Europa stattfinden.

"Unsere geografische Lage wird sich nicht ändern, ob wir Russland nun mögen oder nicht, Russland wird auch morgen noch da sein. Es liegt nun einmal vor unserer Haustür."

Eine fraglos zutreffende Feststellung. Man fragt sich nur, warum Macron fast vier Jahre zu dieser Erkenntnis gebraucht hat.

"Die Chinesen schützen ihre Industrie ja auch."

Zweitens: Frankreich will die Abhängigkeit von China und den USA verringern.

"Meine Botschaft lautet: Unsere Agenda der europäischen Unabhängigkeit beschleunigen. Investieren, schützen, diversifizieren und vereinfachen – schneller."

Das Wichtigste daran ist, dass Macron die beiden Großmächte de facto auf eine Stufe stellt.

Drittens schlägt Macron einen ökonomischen Umbau durch vier zentrale Schritte vor, um die europäischen Defizite und die Deindustrialisierung aufzuhalten.

"An erster Stelle steht die Vereinfachung der Regeln und die Vertiefung des Binnenmarkts."

Macron beruft sich auf den Draghi-Bericht [3] vom Vorjahr. Der zweite Schritt sei Diversifizierung und Derisking: Beispiel Indien oder Kanada.

Mercosur dagegen sei ein schlechtes, weil veraltetes Abkommen.

"Die Strategie ist gut, das geopolitische Signal ist richtig. ... Wichtig ist ... dass es Spiegelklauseln gibt, dass also den außereuropäischen Produzenten die gleichen Auflagen gemacht werden wie den europäischen. Das ist nur fair."

Viertens will Macron Schutzklauseln für den europäischen Markt. Er meine damit "nicht Protektionismus, sondern die Bevorzugung europäischer Produkte".

"Die Chinesen schützen ihre Industrie ja auch. Wenn sich die beiden Großmächte, denen wir gegenüberstehen, nicht mehr an die Regeln der Welthandelsorganisation halten, müssen wir uns wehren. Sonst verschwinden wir vom Markt."

Schließlich müsse Europa bereit sein, gemeinsam Schulden zu machen – Stichwort: Eurobonds. Der Weltmarkt habe zunehmend Angst vor dem US-Dollar und suche nach Alternativen, so Macron.

"Bieten wir ihm europäische Schulden an."

Für alle Investoren weltweit sei ein demokratischer Rechtsstaat ein enorm attraktiver Faktor.

"Es handelt sich also um eine einmalige Gelegenheit, die es auch ermöglichen würde, die Vorherrschaft des Dollars anzugehen."

Das Versagen der Merz-Regierung

Die wichtigste Frage ist allerdings die, wie realistisch diese Pläne des französischen Staatspräsidenten tatsächlich sind. Europa hat es in den drei Jahrzehnten seit Ende des Kalten Kriegs immer verstanden sich selbst zu lähmen.

Und auch die ersten Reaktionen auf das Macron-Interview lassen nichts Gutes erhoffen: "Die Bundesregierung verwirft Macron-Ideen" vermeldete die Süddeutsche am Tag nach dem Interview.

Und das in scharfem Ton: Macron lenke "von dem ab, worum es eigentlich geht: dass wir ein Produktivitätsproblem haben", hieß es am Dienstag aus Kreisen der Bundesregierung, ohne dass ergänzt wurde, wie man diesem denn begegnen wolle. Aus Sicht Berlins stört Macron den gemächlichen Gang der Dinge.

"Nach den Gepflogenheiten der Diplomatie zeigt sich die Bundesregierung mit dieser Reaktion auf Gedankenspiele Macrons maximal verärgert", kommentiert die SZ.

Anstatt den Schulterschluss mit Frankreich zu suchen, experimentiert Friedrich Merz mit der italienischen Rechtskonservativen Giorgia Meloni.

Einmal mehr zeigt sich deutsche Kanzler als außenpolitisch unerfahrener, ungeschickter Akteur, als Diplomat in Ausbildung – die Merz-Regierung lässt ihre historische Chance auf einen europäischen Neuanfang ungenutzt und versagt auf ganzer Linie.

Europa wirkt führungslos und hirntot – wann kommen die Elektroschocks, die das untote Wesen wie vor Jahren die Nato wiederbeleben?


URL dieses Artikels:
https://www.heise.de/-11175203

Links in diesem Artikel:
[1] https://securityconference.org/
[2] https://www.sueddeutsche.de/politik/macron-interview-frankreich-praesident-europa-usa-russland-li.3384437
[3] https://commission.europa.eu/document/download/97e481fd-2dc3-412d-be4c-f152a8232961_de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 09:00

Was das Einfrieren russischer Gelder wirklich bewirkt

Von Paul Steinhardt

Paul Steinhardt

Eurozeichen greift nach russischem Emblem und Pfeil zu ukrainischem Emblem und Eurozeichen verwackelt

Die EU friert russische Milliarden ein – doch was diese Sanktion tatsächlich bewirkt, verstehen die wenigsten.

Eine jede Berücksichtigung russischer Interessen ist nach Meinung von Verteidigungsminister Boris Pistorius [1] ein "Kapitulationsfrieden", der "auch ein Sicherheitsrisiko für die Sicherheit in Europa" darstellt. Da ist es nur konsequent zu fordern, "nicht lockerzulassen in der Unterstützung der Ukraine".

Was dann die Frage aufwirft, wie die Unterstützung der Ukraine finanziert werden soll. Für Bundeskanzler Friedrich Merz stand außer Frage, dass dafür russisches Zentralbankvermögen von schätzungsweise 210 Milliarden Euro genutzt werden soll, was er wie folgt begründete [2]:

"Wir brauchen einen neuen Impuls, um Russlands Kalkulation zu ändern. Jetzt müssen wir einen wirksamen Hebel ansetzen, um das zynische Zeitspiel des russischen Präsidenten zu durchkreuzen und ihn an den Verhandlungstisch zwingen."

Was moralisch gerechtfertigt erscheint, wenn Russland ein "brutaler und rücksichtsloser Aggressor mit imperialistischen Ansprüchen" ist, wie Pistorius ebenfalls behauptet hat. Trotzdem aber hat sich eine Mehrheit der EU-Ratsmitglieder gegen eine Weitergabe russischen Zentralbankvermögens an die Ukraine ausgesprochen.

Ist diese Entscheidung, wie die Grünen-Vorsitzende Franziska Brantner [3] meint, ein "Armutszeugnis" oder gar, wie Marie-Agnes Strack-Zimmermann [4] von der FDP behauptet, Ausweis dafür, dass "der lange Arm Putins bis Europa reicht"?

Was ist das russische Zentralbankvermögen?

Um diese Frage zu beantworten, gilt es zunächst zu konstatieren, dass das in Europa gebunkerte russische Zentralbankvermögen ein Artefakt des bargeldlosen Zahlungsverkehrs über Banken ist.

Ein solches Vermögen gibt es daher nicht, wenn Zahlungen mithilfe von Bargeld geleistet werden. Denn in diesem Fall bezahlt z.B. ein Käufer von ihm erworbene Waren mithilfe der Übergabe von Banknoten an den Verkäufer. Der Käufer hat in diesem Fall weniger und der Verkäufer mehr Bargeld in seiner Kasse.

Bei einer bargeldlosen Bezahlung hat der Käufer dagegen weniger und der Verkäufer mehr Geld auf seinem Girokonto. Dieses Geld ist aber bilanztechnisch gesehen eine Verbindlichkeit der Bank gegenüber einem Girokonteninhaber.

Daher reduziert eine Bezahlung mit Giralgeld die Verbindlichkeiten der Bank des Käufers und erhöht die Verbindlichkeiten der Bank des Verkäufers um den exakten gleichen Betrag.

Nun aber muss eine Bilanz immer ausgeglichen sein. D.h. die Vermögenswerte (Aktiva) und die Verbindlichkeiten (Passiva) eines Unternehmens müssen sich auf den exakt gleichen Betrag belaufen.

Daher müssen sich bei einer Überweisung auch die Aktiva der Geschäftsbank des Käufers um den Überweisungsbetrag reduzieren und die Aktiva der Geschäftsbank des Verkäufers um den Überweisungsbetrag erhöhen.

Dieses Settlement (Zahlungsausgleich) kann mithilfe von Zentralbankgeld erfolgen, das auf der Aktivseite von Geschäftsbanken steht. Zentralbankgeld nun aber sind Guthaben einer Geschäftsbank bei ihrer Zentralbank und damit bilanztechnisch gesehen Verbindlichkeiten einer Zentralbank gegenüber einer Geschäftsbank.

Eine Inlandsüberweisung führt daher zur betragsmäßig gleichen Reduktion und Erhöhung des Zentralbankvermögens von zwei Geschäftsbanken bei ein und derselben Zentralbank.

Führen nun die Geschäftsbanken des Käufers und Verkäufers kein Konto bei der gleichen Zentralbank, sondern bei zwei unterschiedlichen Zentralbanken (ZB1 und ZB2), dann müssen sich natürlich bei einer Überweisung trotzdem die Zentralbankguthaben (Aktiva) auf der der beiden Geschäftsbanken um den Überweisungsbetrag reduzieren bzw. erhöhen.

Nun aber wären die Verbindlichkeiten von ZB1 und die Forderungen von ZB2 um den Überweisungsbetrag "zu niedrig". Weshalb bei einer Überweisung eines Käufers bei einer Geschäftsbank im Währungsraum und in der Währung von ZB1 der Überweisungsbetrag auf seinem Konto bei ZB1 gutgeschrieben werden muss, damit die Aktiva und Passiva auf denselben Betrag sich summieren.

Bilanztechnisch führt damit eine solche Überweisung über zwei Zentralbanken dazu, dass ZB1 eine Verbindlichkeit gegenüber ZB2 und ZB2 eine Forderung gegenüber ZB1 in ihren jeweiligen Bilanzen ausweisen.

Umgekehrt führt eine Überweisung eines Wirtschaftssubjekts aus dem Währungsraum von ZB2 an ein Wirtschaftssubjekt im Währungsraum von ZB1 dazu, dass sich die Verbindlichkeiten von ZB1 gegenüber ZB2 und damit gleichzeitig die Forderungen von ZB2 gegenüber ZB1 um den Überweisungsbetrag reduzieren.

Das aber heißt, dass das Zentralbankgeld von ZB1 in diesem Fall nicht als Zahlungsmittel, sondern vielmehr als eine Art von Transportmittel für Zahlungen in der Währung von ZB1 zwischen Nichtbanken im Währungsraum von ZB1 und ZB2 fungiert.

Einfrieren von Währungsreserven: Wirkmechanismus

Beim in Euro denominierten russischen Zentralbankvermögen handelt es sich faktisch um solche Forderungen der russischen Zentralbank (ZB2) gegenüber der Europäischen Zentralbank (ZB1). Faktisch heißt das, dass man für ein Verständnis des intendierten Wirkmechanismus des Einfrierens des russischen Zentralbankvermögens von der Zwischenschaltung von privaten Dienstleistern – wie etwa Euroclear – absehen kann.

Friert man nun solche russischen Forderungen gegenüber der Europäischen Zentralbank (Währungsreserven) ein, zielt man also darauf ab, den Zahlungsverkehr in Euro zwischen russischen Wirtschaftssubjekten und allen anderen Wirtschaftssubjekten zu verhindern.

Das heißt, hat z.B. ein russischer Käufer zwar Euro auf seinem Konto und ist ein Verkäufer auch gewillt sich mit Euros bezahlen zu lassen, dann kann er das nicht, weil der russischen Zentralbank verwehrt ist, die für den Transfer notwendigen Währungsreserven zu nutzen.

Nun haben nicht nur Europa, sondern alle G7-Länder und die Schweiz die russischen Währungsreserven bei ihren Zentralbanken eingefroren

Da Russland im Jahr 2021 80 Prozent seines Außenhandels mithilfe des Euro und US-Dollars abwickelten, war daher plausibel zu erwarten, dass mit dieser Finanzsanktion die russische Wirtschaft schwer geschädigt würde.

Weniger plausibel dagegen ist es, wie zum Beispiel die Die Linke im Bundestag [5], das "Einfrieren russischen Staatsvermögen" mit dem Argument gutzuheißen, dass damit Putin Geld genommen würde, das er verwenden hätte können, "um seinen brutalen Angriffskriegs zu verlängern". Denn nicht Währungsreserven, sondern Steuerzahlungen und Staatskredite finanzieren, wie in den meisten andern Ländern, auch die russischen Staatsausgaben.

Viele Experten waren allerdings der Meinung, dass es einen indirekten Effekt dieser Finanzsanktion gibt, der notwendig zu einer Reduktion des Steueraufkommens des russischen Fiskus führte.

Währungsreserven nun dienen fraglos Zentralbanken auch dazu, damit in den entsprechenden Devisenmarkt zu intervenieren.

Wenn das aber der russischen Zentralbank verunmöglicht werde, so wurde geschlossen, müsse der Rubel stark abwerten und würde die damit bewirkte Inflation die russische Wirtschaft schwer schädigen.

Der damalige US-Präsident Joe Biden [6] zeigte sich davon überzeugt, dass diese historisch einmalige Finanzsanktion im Zusammenhang mit anderen Wirtschaftssanktionen Russlands militärische Fähigkeiten in der Ukraine weiter Krieg zu führen, untergraben werde. Was ein damaliger Staatssekretär der US-Treasury, Wally Adeyemo, wie folgt begründete [7]:

"We were in a place where we knew they really couldn't find another convertible currency that they could use and try to subvert this."

Freilich wissen wir inzwischen, dass der prognostizierte Zusammenbruch der russischen Wirtschaft ausgeblieben ist. Russland hatte Mittel und Wege gefunden, die anfängliche starke Abwertung des Rubels wieder umzukehren und die Abwicklung ihres Außenhandels über Euro und US-Dollar auf inzwischen nur noch 15 Prozent zu reduzieren.

Womit keineswegs bestritten werden soll, dass mit dieser Finanzsanktion Russland schwerer ökonomischer Schaden zugefügt worden ist.

Rätselhaft allerdings bleibt, wie die von Merz propagierte "Weitergabe" von Währungsreserven Russland weitere ökonomische Schäden zufügen hätte können, die in der Lage gewesen wären, "Russlands Kalkulationen zu ändern" und an "den Verhandlungstisch zu zwingen".

Hände weg von Währungsreserven

Vor diesem Hintergrund gewinnen Argumente gegen die Konfiskation russischer Währungsreserven an Gewicht, die schon gegen deren Immobilisierung von der EZB und der Europäischen Kommission geltend gemacht wurden: Es ergäben sich

  • [1] Akzeptanzprobleme für den Euro als internationales Zahlungsmittel und
  • [2] es werde die Finanzstabilität gefährdet.

Zu [1]: Ein EU-Diplomat brachte auf anonymer Basis dieses Problem wie folgt zum Ausdruck [8]:

"Man kann nicht einfach das Gesetz umgehen. Und selbst wenn es eine rechtliche Rechtfertigung gibt, ist nicht klar, welche Folgen diese Entscheidung für den Status des Euro als Weltwährung haben wird."

Zunächst ist festzuhalten, dass der US-Dollar selbst mit Blick auf den europäischen internationalen Handel den Rang abläuft. Das zu ändern, liegt sicherlich im Interesse der Länder der Eurozone. Denn mit der Verwendung des Euros können sowohl heimische Exporteure als auch Importeure Wechselkursrisiken vermeiden und fallen daher auch keine Kosten für die Absicherung dieses Risikos an.

Aufgrund amerikanischer Wirtschaftssanktionen als Reaktion auf die russische Annexion der Krim im Jahr 2014, hatte Russland vermehrt als Außenhandelswährung auf den Euro gesetzt.

Europa hat sich 2022 widerwillig an den von den USA vorangetriebenen Finanzsanktionen beteiligt. Jetzt aber sogar ernsthaft eine Konfiskation russischer Währungsreserven erwogen. Von den Versuchen vieler Länder einer De-Dollarisierung, wird daher der Euro bestimmt nicht profieren.

Zu [2]: Staatsanleihen sind im Finanzsektor inzwischen zu einer Art von Geld geworden. Das Problem mit der Übernahme der Geldfunktion durch Staatsanleihen besteht darin, dass sie an Wert verlieren können. Aufgrund dieses Risikos erfordert die Bezahlung mit Staatsanleihen, dass der Zahler sich verpflichtet, einen solche Verlust auszugleichen.

Zu einem solchen Ausgleich eignen sich zwischen Banken Zentralbankgeld und bei Finanzinstituten ohne Konto bei einer Zentralbank Giralgeld.

Um solche Liquidität zu generieren, können Staatsanleihen und andere Wertpapiere verkauft werden. Was aber, wenn viele Wertpapiere verkauft werden müssen, zu Wertminderungen führt und dadurch Liquiditätsengpässe nach sich ziehen kann.

Dieser Mechanismus erklärt die Krise von mehreren Pensionsfonds in Großbritanien im Herbst 2022. Auslöser war ein Konflikt zwischen der von Liz Truss geführten Regierung Gund der Bank of England.

Auf Ausgabenpläne von Truss reagierte die Bank of England mit Zinserhöhungen. Diese Zinserhöhungen ließen aber den Preis von Staatsanleihen sinken und lösten Kettenreaktionen nach dem obigen Muster aus.

Eine Konfiskation von Euro-Währungsreserven kann denselben Effekt wie eine Zinserhöhung haben. Denn wenn schon Währungsreserven im Orbit einer der unabhängigsten Zentralbanken der Welt konfisziert werden können, ist das sicherlich Grund dafür, das Ausfallrisiko europäischer Staatsanleihen neu zu bewerten, was so die entsprechenden Kettenreaktionen auslösen kann.

Fazit

Der Mehrheit des EU-Rats ist daher für ihre Entscheidung gegen eine Weitergabe der russischen Währungsreserven ein Reifezeugnis auszustellen. Ein Armutszeugnis dagegen verdient ihre Entscheidung, der russischen Zentralbank auf Dauer die Verwendung ihrer Währungsreserven zu verwehren.

Was die Frage aufwirft, ob nicht auch der EZB, die ansonsten kaum eine Gelegenheit auslässt, um auf ihre politische Unabhängigkeit zu pochen, ein Armutszeugnis auszustellen ist. Denn es handelt sich bei dem Einfrieren von Währungsreserven um einen beispiellosen politischen Eingriff in das Zahlungsverkehrssystem, das fraglos im Kompetenzbereich der EZB liegt und zudem nur mit fragwürdigem Bezug auf eine Notfallklausel [9] erst möglich würde.


URL dieses Artikels:
https://www.heise.de/-11171568

Links in diesem Artikel:
[1] https://www.bundesregierung.de/breg-de/service/newsletter-und-abos/bulletin/bmvg-ukraine-frieden-bt-2397830
[2] https://www.tagesschau.de/ausland/europa/merz-ukraine-kredit-russland-vermoegen-100.html#:~:text=*%20Ausland.%20*%20Europa.%20*%20Merz:%20Eingefrorene%20russische%20Milliarden%20f%C3%BCr%20Ukraine-Kredit%20nutzen.https://www.tagesschau.de/ausland/europa/merz-ukraine-kredit-russland-vermoegen-100.html
[3] https://www.fr.de/politik/nach-verhandlungen-um-russische-vermoegen-armutszeugnis-gruenen-chefin-rechnet-mit-merz-europa-politik-ab-zr-94092754.html
[4] https://www.tagesschau.de/ausland/eu-gipfel-ukraine-hilfen-reaktionen-100.html
[5] https://www.dielinkebt.de/themen/reden/detail/rede-von-isabelle-vandre-am-05122025-1/
[6] https://www.ft.com/content/5b397d6b-bde4-4a8c-b9a4-080485d6c64a
[7] https://www.ft.com/content/5b397d6b-bde4-4a8c-b9a4-080485d6c64a
[8] https://www.ft.com/content/4e6499e0-33db-423a-a74b-528118792d22
[9] https://dejure.org/gesetze/AEUV/122.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 08:00

China testet erfolgreich wiederverwendbare Mondrakete und Raumschiff

Von Marcel Kunzmann

Marcel Kunzmann

Eine Rakete hebt ab

Bei dem Test kam eine verkürzte Version der Langer-Marsch-10-Rakete zum Einsatz

(Bild: Xinhua/X)

China macht Fortschritte bei bemannter Mondmission. Test von Rakete und Raumschiff erfolgreich. Wird das Land die USA im Rennen zum Mond überholen?

China hat am Mittwoch einen kombinierten Testflug seiner neuen wiederverwendbaren Trägerrakete Langer Marsch 10 und des Raumschiffs Mengzhou durchgeführt [1] – und damit einen wichtigen Meilenstein in seinem bemannten Mondprogramm erreicht.

Der Start erfolgte um 11 Uhr Ortszeit vom Raumfahrtbahnhof Wenchang auf der südchinesischen Insel Hainan, wie die chinesische Nachrichtenagentur Xinhua unter Berufung auf die Raumfahrtbehörde CMSA mitteilte [2].

Bei dem Test wurden gleichzeitig zwei technische Ziele verfolgt: die Erprobung des Notfall-Abbruchsystems der Raumkapsel Mengzhou unter maximaler aerodynamischer Belastung und die kontrollierte Landung der ersten Raketenstufe.

Spektakuläre Doppellandung im Südchinesischen Meer

Etwa eine Minute nach dem Start, als die Rakete den Punkt der höchsten aerodynamischen Belastung erreichte, zündeten die Rettungstriebwerke der Mengzhou-Kapsel und trennten diese von der Trägerrakete. Die unbemannte Raumkapsel setzte später Fallschirme ein und wasserte vor der Küste Hainans.

Die Langer Marsch 10-Rakete setzte ihren Flug jedoch fort, stieg mit ihren mit Kerosin betriebenen YF-100-Triebwerken weiter in den Weltraum auf, trat anschließend wieder in die Atmosphäre ein, zündete ihre Triebwerke erneut und landete kontrolliert im Südchinesischen Meer – direkt neben einem Bergungsschiff.

"Die erste Stufe der Rakete und die Rückkehrkapsel des Raumschiffs sind sicher im vorgesehenen Seegebiet gelandet", erklärte die CMSA in einer Stellungnahme. Die Behörde bezeichnete den Test als "bedeutenden Durchbruch" im bemannten Mondprogramm des Landes.

Technische Spezifikationen und Wiederverwendbarkeit

Die Mengzhou-Kapsel, deren Name auf Deutsch "Traumschiff" bedeutet, ist für den Transport von bis zu sieben Taikonauten zur chinesischen Raumstation ausgelegt. Für eine Mondmission bietet sie Platz für drei Taikonauten. Nach Angaben der CMSA ist das Raumschiff für mehrfache Wiederverwendung konzipiert.

Die Langer Marsch 10-Rakete in ihrer Vollversion besteht aus drei miteinander verbundenen Erststufen mit insgesamt 21 Triebwerken und einer kombinierten Schubkraft von über 2.600 Tonnen beim Start. Die Rakete soll in der Lage sein, Nutzlasten von bis zu 70 Tonnen in eine niedrige Erdumlaufbahn und das 26 Tonnen schwere Mengzhou-Raumschiff auf den Weg zum Mond zu bringen.

Der bei dem Test verwendete Booster war eine verkürzte Version mit sieben YF-100K-Triebwerken, die speziell für Technologievalidierung und erdnahe Umlaufbahnen vorgesehen ist. Die Rakete nutzte vier ausklappbare Gitterflossen zur aerodynamischen Steuerung und ein drosselbares Triebwerk für das finale Landemanöver.

Mehrere Premieren gleichzeitig

Nach Angaben der CMSA umfasste der Test mehrere historische Erstleistungen für Chinas Raumfahrtprogramm: die erste Zündung und den ersten Flug der Langer Marsch 10 in ihrer Prototyp-Konfiguration, den ersten Notfall-Abbruchtest eines bemannten Raumschiffs unter maximaler aerodynamischer Belastung, die erste Wasserlandung einer Raumkapsel und einer Raketenstufe sowie den ersten Testflug von einer neu errichteten Startrampe in Wenchang.

Zhang Hailian, stellvertretender Chefkonstrukteur der CMSA, erklärte [3] in einem Briefing nach dem Test: "Dieser Erfolg zeigt, dass die grundlegenden Technologien für unsere bemannte Mondlandung nun in eine Phase hoher Reife eintreten. Wir planen nicht mehr nur, sondern validieren im Flug die Hardware, die chinesische Bürger zur Mondoberfläche bringen wird."

Die staatliche China Aerospace and Science Technology Corporation (CASC), die für Design und Bau von Mengzhou und Langer Marsch 10 verantwortlich ist, bezeichnete die Bergung des Boosters als "bedeutenden Schritt" zur Beherrschung wiederverwendbarer Raketentechnologie.

Der Test habe mehrere Schlüsseltechnologien evaluiert, darunter die Zuverlässigkeit mehrfacher Triebwerksneustarts, die Anpassungsfähigkeit an komplexe Kraft- und Wärmeumgebungen während des Wiedereintritts sowie hochpräzise Navigationssteuerung.

China und die Vereinigten Staaten befinden sich in einem Wettlauf um die nächste bemannte Mondlandung. China strebt an, vor 2030 bemannt auf dem Mond zu landen. Im März plant die US-Raumfahrtbehörde Nasa, mit dem Start von Artemis II [4] erstmals seit Jahrzehnten wieder Menschen in die Mondumlaufbahn zu bringen.

Kurzvideo des Testflugs:


URL dieses Artikels:
https://www.heise.de/-11174444

Links in diesem Artikel:
[1] http://www.china.org.cn/2026-02/12/content_118329990.shtml
[2] https://english.news.cn/20260211/4cd11380574a46d485fa52f6606a5fbf/c.html
[3] https://news.satnews.com/2026/02/11/china-advances-2030-lunar-timeline-with-successful-long-march-10-integrated-test/
[4] https://www.heise.de/tp/article/Generalprobe-gescheitert-Mondmission-startet-fruehestens-im-Maerz-11164987.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 06:00

Google erbarmt sich: YouTube bekommt Vision-Pro-App

Von Heise
YouTube-Wiedergabe im offiziellen Client auf der Vision Pro

YouTube-Wiedergabe im offiziellen Client auf der Vision Pro: Made by Google.

visionOS-Nutzer können seit Donnerstag unverhofft einen offiziellen YouTube-Client nutzen. Ob es an Googles Gemini-Kooperation mit Apple liegt, ist unklar.

Überraschung am Donnerstag: Google hat seine allererste offizielle App für die Vision Pro publiziert – und es ist ausgerechnet YouTube [1]. Die App war praktisch seit Einführung der Apple-Brille erhofft und erwartet worden, doch der Suchriese ließ sich viel Zeit. Ein unabhängiger und eigentlich sehr schöner Third-Party-Client namens Juno war von Google vertrieben [2] worden; der Konzern ließ die App durch Apple entfernen, wie deren Entwickler bereits im Herbst 2024 mitteilte. Google hatte nach Ankündigung der Vision Pro im Sommer 2023 unterschiedliche Signale gesendet. Anfangs neigte das Unternehmen in Richtung „dagegen“, dann hieß es, man arbeite doch daran [3]. Doch das brauchte augenscheinlich seine Zeit. Ob Google sich auch durch die neue Gemini-KI-Partnerschaft mit Apple [4] überreden ließ, ist bislang nicht durchgesickert.

Was der Client so alles kann

Zunächst: YouTube für visionOS ist eine native App. Man bekommt also nicht einfach die iPadOS-Version vorgesetzt, die Google bislang für die Vision Pro gesperrt hatte. Gleich zu Anfang bewirbt die Anwendung passend dazu auch Spatial-Videos bei dem Dienst, für die es ein eigenes Tab gibt. Wobei diese oftmals recht pixelig – weil eher für Quest & Co. gemacht – ausfallen, denn 8K-Aufnahmen findet man bei YouTube quasi nicht. Eventuell ändert sich dies durch die Vision-Pro-Anwendung nun aber.

Die Oberfläche ist einfach gestaltet und hält sich relativ weitgehend an visionOS-Standards. Man navigiert durch besagte Tabs, zu denen auch der Zugriff auf das eigene Profil gehört, bei Wiedergabe erscheint das Video im Großbild, das man auch entsprechend aufziehen kann. Bei Spatial-Videos schaltet YouTube in den Spatial Mode, ist also komplett immersiv. Den Bildausschnitt kann man per Zwickgeste anpassen. Der Player für 2D-Videos scheint hingegen keine Gesten zu unterstützen, für Pause, Scrubbing und Vor- und Zurückspulen um 15 Sekunden nutzt man die übliche Augensteuerung, was Google hätte besser machen können. Störend ist, dass sich die Größe der Untertitel nicht anpassen lässt. Darüber hinaus lassen sich über Kontextmenüs Tonspuren und Untertitelsprache sowie auch Auflösung anpassen. Über ein Kontextmenü kann man Videos auch in Wiedergabelisten schicken, nervige fehlende Menüs bei eingeblendeten Videovorschlägen während des Pausierens wie unter tvOS [5] – die dortige App ist völlig anders gestaltet – gibt es nicht.

Meditatives YouTube-Schauen

Der Client wirkt insgesamt sehr zurückgenommen. So kann man sich bei 2D-Videos voll aufs Anschauen konzentrieren, was durchaus angenehm ist. Erst wenn man auf die Titelzeile eines laufenden Videos klickt, kommen weitere Infos wie Description, der Einblick in die Kommentare sowie Videovorschläge. Letztere füllen auch nicht den Bildschirm, wenn man ein Video anhält oder es fertig abgespielt wurde. Eine Autoplay-Funktion für die automatische Wiedergabe des nächsten Clips existiert aber.

Im Spatial Mode verteilt YouTube die Kommentare und die Beschreibung sowie weitere Videovorschläge in separaten Schwebefenstern, genauso wie die Wiedergabesteuerung. Environments, also 3D-Umgebungen, hat Google nicht extra angefertigt, stattdessen sieht man jene, die man für die Vision-Pro-Oberfläche ausgewählt hat. Alles in allem können sich Vision-Pro-Besitzer freuen: Im ersten Kurztest wirkte die YouTube-App stabil. Was nun noch fehlt, um Käufer des 3700-Euro-Headsets (Einstiegspreis) glücklich zu machen, wäre eine offizielle Netflix-App [6]. Diese wird nach wie vor nicht angeboten, stattdessen muss man per Browser oder über Web-App-Werkzeuge [7] gucken.


URL dieses Artikels:
https://www.heise.de/-11175153

Links in diesem Artikel:
[1] https://apps.apple.com/de/app/youtube-for-visionos/id6745572359
[2] https://www.heise.de/news/YouTube-Client-Juno-fliegt-aus-dem-App-Store-der-Vision-Pro-9961048.html
[3] https://www.heise.de/news/Nicht-nur-im-Browser-YouTube-Client-fuer-visionOS-kommt-jetzt-doch-9619803.html
[4] https://www.heise.de/hintergrund/Analyse-zu-neuen-Plaenen-Macht-Apple-bei-KI-jetzt-alles-besser-11150262.html
[5] https://www.heise.de/news/Googles-YouTube-App-fuer-tvOS-Fehlende-Features-und-nervige-Bedienung-11126907.html
[6] https://www.heise.de/news/Netflix-laesst-Apples-Vision-Pro-links-liegen-auch-Spotify-und-YouTube-ohne-App-9601500.html
[7] https://www.heise.de/news/Video-auf-der-Vision-Pro-Nexus-fuer-Netflix-VLC-und-Infuse-im-Anflug-9655000.html
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/mac-and-i
[10] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 13. Februar 2026 um 06:21

Mondmission: Warum gibt es so wenige Startfenster für Artemis II?

Von Patrick Klapetz
Die Besatzung von Artemis II hat noch elf Startmöglichkeiten zum Mond , und diese verteilen sich auf mehrere Monate. Warum ist das so?
Mit Artemis II sollen wieder Menschen zum Mond aufbrechen. Es gibt aber nur wenige Startmöglichkeiten. (Bild: Nasa/Sam Lott)
Mit Artemis II sollen wieder Menschen zum Mond aufbrechen. Es gibt aber nur wenige Startmöglichkeiten. Bild: Nasa/Sam Lott

Artemis II könnte am 7. März 2026 zum Mond aufbrechen – frühestens. Bis zum 11. März gibt es vier weitere Startfenster . Falls die Besatzung der US-Raumfahrtbehörde Nasa bis dahin nicht abheben kann, muss der Start auf April verschoben werden. Insgesamt gibt es aktuell elf Möglichkeiten über einen Zeitraum von 61 Tagen.

Aber warum wählte die Nasa die Startfenster für die astronautische Mondmission so eng? Die Startfenster sind zudem nur 120 Minuten geöffnet, mit Ausnahme des 11. März, da sind es 115 Minuten. Der Grund: Die Bedingungen, die für den Start des Raumschiffs erforderlich sind, sind sehr spezifisch.

Spezielle Anforderungen an die Orbitalmechanik

Es geht vor allem um die Orbitalmechanik sowie die besonderen Anforderungen der Mission und ihrer Hardware. Die Besatzung von Artemis II wird vom Kennedy Space Center in Cape Canaveral im US-Bundesstaat Florida starten. Die Mondreise ist auf zehn Tage angelegt.

Doch die Astronauten werden nicht auf direktem Weg zum Mond fliegen. Die Mondrakete SLS (Space Launch System) wird das Orion-Raumschiff zunächst in eine hohe Erdumlaufbahn bringen. Dort wird die Besatzung gemeinsam mit den Bodenteams verschiedene Überprüfungen durchführen, um sicherzustellen, dass die Kapsel für ihre Reise bereit ist.

"Orion muss außerdem zum Zeitpunkt der translunaren Injektionszündung in der richtigen Ausrichtung mit Erde und Mond sein" , teilte die Nasa mit. Dieses Manöver soll Orion auf den richtigen Kurs zum Mond bringen, die Raumkapsel aber auch auf eine freie Rückkehrbahn befördern. Die Raumkapsel wird dafür die Mondschwerkraft nutzen, ohne dass eine weitere größere Triebwerkszündung erforderlich ist.

Gefahrenzone: Die Schattenseite des Mondes

Da das Orion-Raumschiff dafür jedoch den Mond umrunden muss, wird der Kontakt zur Besatzung und zum Raumschiff für einen kurzen Zeitraum unterbrochen sein. Die Flugbahn eines bestimmten Tages muss daher sicherstellen, dass das Raumschiff nicht länger als 90 Minuten im Dunkeln der Mondrückseite verbringt.

Ansonsten könnten die Solarpanels nicht genügend Sonnenlicht in Strom umwandeln, um den optimalen Temperaturbereich des Raumfahrzeugs aufrechtzuerhalten. Damit scheiden alle Startfenster aus, bei denen Orion während seines Fluges länger als 90 Minuten im Schatten des Mondes verweilen muss. Zudem muss das Startdatum eine Flugbahn unterstützen, die das richtige Eintrittsprofil in die Erdatmosphäre ermöglicht .

Problemfaktor: Wetter und Technik

Weitere Startfenster könnten entfallen, falls es an den entsprechenden Tagen zu schlechten Wetterbedingungen kommen sollte. Zudem wird die nächste Generalprobe, das Wet-Dress-Rehearsal, zeigen, ob die Rakete und das Raumschiff bereit für den Start sind. Sollte es weitere Treibstofflecks geben, könnten auch die Startfenster im März entfallen, da die Rakete dann für Reparaturen erneut zurück zur Montagehalle gebracht wird.

Selbst wenn die bisher veröffentlichten Starttermine alle gestrichen würden, hieße das nicht, dass Artemis II in diesem Jahr nicht starten könnte. Es gibt auch berechnete Starttermine über April und Mai hinaus, diese wurden bisher aber nicht veröffentlicht.

Adblock test (Why?)

  • 13. Februar 2026 um 07:56
❌