ProMotion: Feature Flag in Safari auf dem Mac.
Teurere Apple-Geräte beherrschen schon seit Jahren höhere Refresh-Raten. In Safari sind die aber standardmäßig inaktiv. Die Umschaltung ist aber einfach.
Auch wenn man über ein Gerät verfügt, das eine Bildwiederholrate von 120 Hertz erlaubt, ist diese Anzeigeform in Apples Standardbrowser Safari zunächst abgeschaltet. Betroffen davon sind etwa MacBook Pro, iPad Pro oder iPhone Pro aus den vergangenen Jahren. Wer mit einer höheren Refresh-Arte surfen will, was durchaus Vorteile haben kann, muss diese erst unbequem aktivieren. Erledigt wird dies über die sogenannten Web-Entwicklerfunktionen in den Einstellungen, wie der Designer Matt Birchler in seinem Blog demonstriert [1].
Das funktioniert sowohl in Safari 26 auf dem Mac (ab macOS 14 Sonoma) als auch auf Mobilgeräten. Dort müssen sogenannte Feature Flags aktiviert werden, die die Präferenz für 60 statt bis zu 120 Hertz festlegen. Danach sollten Websites entsprechend gerendert werden, was etwa bei Animationen und Scrolleffekten positive Auswirkungen haben kann, da es noch etwas flüssiger aussieht. Es gibt allerdings auch Menschen, die den Unterschied nicht auf den ersten Blick sehen.
Es ist unklar, warum Apple die 120 Hertz im Browser standardmäßig deaktiviert hat – andere Webwerkzeuge nutzen die höhere Bildwiederholfrequenz. Offenbar fürchtet der Hersteller Kompatibilitätsprobleme und Darstellungsfehler. Falls dieser wider Erwarten auftreten sollten, kann man die Funktion auch einfach wieder abschalten.
Um die Funktion auf dem iPhone unter iOS 26 zu aktivieren, begibt man sich zunächst in die Safari-Einstellungen (via Systemeinstellungen und Apps). Dort geht es dann zu „Erweitert“ und „Feature Flags“. Hier wird dann „Prefer Pages Rendering Updates near 60fps“ abgeschaltet, was den 120fps-Modus startet.
Auf dem iPad läuft die Einstellung ähnlich ab, auf dem Mac ist etwas anders. Hier aktiviert man unter „Erweitert“ zunächst die Funktionen für Web-Entwickler (Haken ganz unten) und findet dann ein neues Menü namens „Feature Flags“ in den Einstellungen vor. Hier sucht man dann nach 60fps – der gleiche Text wie beim iPhone. Dies wird enthakt – fertig. Zur Abschaltung des 120fps-Modus enthakt man diesen Bereich wieder. Es kann sinnvoll sein, den Browser nach der Änderung neu zu starten.
URL dieses Artikels:
https://www.heise.de/-11147464
Links in diesem Artikel:
[1] https://birchtree.me/blog/how-to-enable-120hz-mode-in-safari-mac-iphone-and-ipad/
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://www.heise.de/mac-and-i
[4] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
iTunes unter macOS Sierra: So sah das früher einmal aus.
(Bild: Apple)
iTunes gibt es eigentlich gar nicht mehr, doch ein Feature hatte Apple in eine andere App migriert. Die Wunschliste für Filme und Serien verschwindet nun ganz.
Apple hat Nutzer davor gewarnt, dass eine seit langem verfügbare Funktion demnächst komplett abgeschaltet wird. Die sogenannte iTunes-Wunschliste stammt noch aus der Zeit, als es Apple Music [1] noch nicht gab und ermöglichte es, sich Filme und Serienepisoden vorzumerken, die man dann später womöglich erwerben wollte. Apple hatte das Feature bereits im Winter 2023 auf tvOS-Geräten aus dem Angebot [2] genommen, auf dem iPhone aber noch beibehalten, wenn auch etwas versteckt. Doch nun endet die Wunschliste komplett – und mit ihr, so man nicht aufpasst, die vorhandenen Daten.
Es ist unklar, wie viele User die iTunes-Wunschliste tatsächlich noch hat. Es gibt aber Nutzer, die sie recht religiös geführt haben sollen – auch, um sich eine kleine Datenbank mit Filmen und Serien zusammenzustellen, die sie eines Tages endlich ansehen wollten. In einer E-Mail an Betroffene warnt Apple nun, dass die Daten demnächst unwiederbringlich gelöscht werden. „Ihre iTunes-Wunschliste mit Filmen und Serien wird bald entfernt und ist dann nicht mehr zugänglich“, so das Unternehmen.
Auf dem iPhone hatte Apple nach dem Ende des iTunes-Angebots für Filme die iTunes-Store-App beibehalten – darin landete dann auch die Wunschliste. Mit der nun angekündigten Änderung wird sie auch dort gestrichen. Leider nennt Apple allerdings keinen konkreten Termin, wann dies erfolgt, hat aber dennoch Abhilfe parat.
In der Warnungs-E-Mail ist ein PDF-Dokument (!) angehängt, das alle dem Konzern bekannten Filme und Serienepisoden, die auf der iTunes-Wunschliste standen, enthält. Öffnet man das Dokument, lassen sich die gelisteten Inhalte anklicken und man landet in der TV-App, die den iTunes-Laden für Filme und Serien ersetzt hat. Dort kann man dann auf „+“ klicken, um den Inhalt auf die Apple-TV-Watchlist zu setzen.
Diese Watchlist ersetzt damit auch die bisherige Wunschliste und ist direkt auf der Homepage unter „Weiter ansehen“ zu finden. Ideal ist das nicht immer: Während die Wunschliste nur Inhalte erfasste, die man aktiv hinzugefügt hat, erfasst „Weiter ansehen“ alias „Continue Watching“ alle Filme und Serien, die man jemals betrachtet hat. Apple hält es aber offenbar nicht für nötig, die Wunschlistenfunktion auf eine andere Art weiterzuführen. Fans des Features können sich auch einfach das PDF abspeichern, das Apple der E-Mail angehängt hat.
URL dieses Artikels:
https://www.heise.de/-11173723
Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Music-Streaming-Dienst-mit-menschlicher-Vorauswahl-2682247.html
[2] https://www.heise.de/news/iOS-17-2-und-tvOS-17-2-Aerger-wegen-Ende-von-Wunschlisten-und-wo-sie-nun-sind-9580787.html
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
(Bild: Tada Images / Shutterstock.com)
Nach Einführung des Mobile Software Competition Act (MSCA) in Japan gibt es massive Kritik. Entwickler fordern ein Einschreiten gegen Apple und Google.
Apple muss sich nicht nur in der Europäischen Union mit Regulierung seines App Stores auseinandersetzen. Auch in Großbritannien [1], Brasilien und Japan greifen Wettbewerbsbehörden per Gesetz ein. In Japan, wo die Regelungen im Dezember in Kraft traten [2], ging es dabei allerdings zwischen Apple und den Behörden im Vorfeld deutlich harmonischer zu als zwischen Cupertino und Brüssel: So gab es keinen gegenseitigen öffentlichen Tadel und keine Klagen. Aus dem Umfeld des Unternehmens war gar zu hören, dass man zwar Regulierung weiterhin nicht für nötig hält – so wie mit Japan wäre sie aber erträglich. Doch bewirkt die Regulierung in Japan auch wirklich Positives für die Entwickler? Daran werden jetzt erste Zweifel laut.
Eine Koalition aus sieben IT-Branchenorganisationen, darunter die Computer Entertainment Supplier's Association, hat eine gemeinsame Erklärung veröffentlicht, in der sie Apple und Google auffordert, die neuen Provisionen für App-Entwickler umgehend zu streichen. Dies berichtet Japan News [3]. Die Verbände vertreten gemeinsam mehr als 600 Unternehmen, darunter große IT-Firmen, Spieleentwickler und Software-Hersteller. Die neu erlaubte Möglichkeit externer Zahlungen sei faktisch unwirtschaftlich, kritisieren sie. Einige gehen sogar so weit, zu sagen, dass sie im Vergleich zur Nutzung von Apples Zahlungssystemen noch teurer ist. Bereits Ende Januar hatte das Mobile Content Forum, eine der beteiligten Organisationen, erste Kritik geäußert. Mit der gemeinsamen Erklärung weitet sich der Protest nun branchenweit aus.
Der japanische Mobile Software Competition Act (MSCA) soll eigentlich Verbesserungen für App-Entwickler bewirken und deren Position gegenüber den Big-Tech-Firmen aus den USA stärken. Dazu zählt, dass sie sich den Zahlungssystemen von Apple und Google entziehen können. Apple und Google verlangen aber trotzdem 15 bis 20 Prozent Provision auf externe Umsätze. Dies ist gegenüber den vorher üblichen 30 Prozent Provision auf In-App-Käufe zwar auf den ersten Blick eine Senkung. Die Verbände argumentieren aber, dass bei externer Abwicklung zusätzliche Gebühren durch Zahlungsanbieter hinzukommen. Sie verweisen darauf, dass in den USA vergleichbare Regelungen existieren und werfen Apple vor, japanische Entwickler zu benachteiligen.
Das japanische Gesetz sieht neben der Liberalisierung der Zahlungssysteme auch alternative App Stores sowie Auswahlbildschirme für Suchmaschinen und alternative Browser-Engines. Damit ähnelt es teilweise dem Digital Markets Act (DMA) in der EU. Europas Vorschrift ist aber zum Beispiel weitreichender in Fragen der Interoperabilität. Während in Japan Apple und Google Anfragen von anderen Herstellern, ihre Systeme für deren Geräte zu öffnen, mit Verweis auf Sicherheitsgründe ablehnen können, schreibt die EU explizit Öffnungen vor. Jüngst musste Apple etwa mit iOS 26.3 Öffnungen bei seinen Benachrichtigungen vornehmen. Apple vertritt die Auffassung [4], dass die EU-Regulierung damit unter anderem die Sicherheit der Nutzer gefährdet.
In Japan richtet sich der Blick jetzt auf die Japan Fair Trade Commission. Sie hatte bereits im Vorfeld angekündigt, im engen Dialog mit Apple und Google die Implementierung der neuen Regeln zu begleiten. Sie behält sich außerdem das Recht vor, weitere Änderungen zu verlangen, wenn das bisherige Entgegenkommen der Tech-Firmen als unzureichend erachtet wird. Sie kann dazu Untersuchungen einleiten und bei festgestellten Verstößen auch empfindliche Strafgelder verhängen.
URL dieses Artikels:
https://www.heise.de/-11174327
Links in diesem Artikel:
[1] https://www.heise.de/news/Grossbritannien-Apple-und-Google-sagen-App-Store-Oeffnung-zu-11171669.html
[2] https://www.heise.de/meinung/iPhone-Regulierung-Warum-Apple-mit-Japan-besser-klarkommt-als-mit-Europa-11118744.html
[3] https://japannews.yomiuri.co.jp/business/companies/20260206-309239/
[4] https://www.heise.de/news/Apple-Digitalgesetz-DMA-der-EU-gehoert-abgeschafft-10670105.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Alle, die schon mal einen PC selbst zusammengebaut haben, hielten schon mal einen Prozessor mit einem ikonisch grünen Träger in der Hand.
(Bild: heise medien)
Chiphersteller sind maßgeblich von zwei Zulieferern abhängig. Deren Produktion kommt bei der aktuellen Nachfrage offenbar nicht hinterher.
Materialien für Chipträger, auch Packages genannt, könnten im Jahr 2026 knapp werden. Im Fokus aktueller Berichte steht der japanische Zulieferer Nitto Boseki alias Nittobo, der sogenanntes T-Glas herstellt: Glasgewebe, das so dünn ist, dass es sich wie eine Folie aufwickeln lässt. Aber auch das organische Material von Ajinomoto stellt einen potenziellen Flaschenhals dar.
Analysten bestätigen gemäß dem Wall Street Journal [1] das Offensichtliche: PC-Hardware steht am Ende der Nahrungskette und dürfte damit am ehesten von Engpässen betroffen sein. Branchenriesen wie Nvidia haben das meiste Geld, um verfügbare Träger aufzukaufen. Ihr Fokus liegt auf KI-Beschleunigern mit hohen Margen. Auch Serverprozessoren benötigen immer größere Träger [2].
Die generelle Verfügbarkeit wäre potenziell auch das größere Problem als etwaige Preissteigerungen. Es stehen zwar Erhöhungen um 25 Prozent im Raum, was allerdings auch nur Cent-Beträge oder wenige Euro ausmachen würde.
Chiphersteller und -verarbeiter verwenden Nittobos sogenanntes T-Glas zur Stabilisierung des Trägers. Es hat einen niedrigen thermischen Ausdehnungskoeffizienten und verhindert so, dass sich die Träger unter Chips verbiegen oder reißen. Die Anforderungen sind hoch, da sich zum Beispiel eine GPU innerhalb kurzer Zeit von Raumtemperatur auf 100 °C erhitzen kann.
(Bild: Nittobo)
Der zweite große Zulieferer ist die ebenfalls japanische Firma Ajinomoto. Eigentlich handelt es sich um ein Lebensmittelunternehmen, das als Nebenprodukt seiner Gewürzsoßen jedoch den sogenannten Ajinomoto Build-up-Film (ABF) herstellt. Trägerhersteller laminieren den ABF und häufig T-Glas auf, um daraus stabile Platten mit integrierten Kupferleitungen herzustellen. Bei modernen Desktop-Prozessoren laufen an die 2000 Leitungen durch einen Träger, bei Serverchips ein Vielfaches mehr.
Alle Prozessoren, Grafikchips, programmierbaren Logikchips (FPGAs) und Spezialschaltungen (ASICs) benötigen einen Träger als Brücke zwischen Halbleiterchip und Platine. Dazu zählen auch sämtliche KI-Beschleuniger.
(Bild: heise medien)
Zahlreiche Medien berichten, dass Nittobo mit seinem Glasgewebe einen Marktanteil von etwa 90 Prozent haben soll. Ajinomoto soll mit seinem ABF noch höher liegen.
Das Wall Street Journal zitiert Nittobo-Aussagen, wonach neue Produktionslinien die Lücke zwischen Angebot und „rapide steigender Nachfrage“ nicht schließen können. Apple-Mitarbeiter sind laut der Nachrichtenagentur Nikkei Asia [3] schon im Herbst 2025 nach Japan gereist, um sich Kontingente bei Nittobo zu sichern. Qualcomm soll das Gleiche beim kleinen Konkurrenten Unitika versucht haben.
Digitimes aus Taiwan [4] berichtete Anfang Februar 2026, dass der mit Asus verbandelte Trägerhersteller Kinsus zunehmend mehr Geld investiert, um sich ABF zu sichern. Das Material war zur Corona-Chipkrise im Jahr 2021 schon knapp. Damals wurden Probleme bis mindestens 2026 prognostiziert [5], sollte die Nachfrage hoch bleiben oder erneut hochschießen.
Die japanischen Firmen haben vor allem weitgehende Monopole, weil es sich traditionell um Billigprodukte mit niedriger Marge handelt. Nittobo etwa hatte zuletzt einen Quartalsumsatz von umgerechnet knapp 165 Millionen Euro und einen Betriebsgewinn von 30 Millionen Euro.
Das erforderliche Spezialwissen macht es anderen Herstellern schwer, die Materialien zu imitieren. Unter anderem Intel forscht schon seit vielen Jahren an Trägern komplett aus Glas [6], die aber noch nicht marktreif sind. Anlegern ist die Abhängigkeit offenbar schon länger bekannt: Nittobos Börsenwert hat sich seit dem Sommer 2025 verdreifacht.
URL dieses Artikels:
https://www.heise.de/-11174808
Links in diesem Artikel:
[1] https://www.wsj.com/tech/a-critical-ai-niche-is-dominated-by-one-little-known-japanese-company-d9101853?st=5rmnez
[2] https://www.heise.de/news/AMD-zeigt-riesige-Chipkonstrukte-Epyc-Venice-und-Instinct-MI455X-11133033.html
[3] https://asia.nikkei.com/business/technology/tech-asia/apple-and-qualcomm-fret-over-strained-supplies-of-japan-s-glass-cloth
[4] https://www.digitimes.com/news/a20260202PD236/kinsus-abf-substrate-expansion-demand.html
[5] https://www.heise.de/news/Chipmangel-Traegermaterial-fuer-CPUs-und-GPUs-knapp-bis-ins-Jahr-2026-6307421.html
[6] https://www.heise.de/news/Intel-packt-kuenftige-Riesen-Chips-auf-Glas-Traeger-9306468.html
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[8] mailto:mma@heise.de
Copyright © 2026 Heise Medien
(Bild: erstellt mit KI durch iX)
Schon bald soll TypeScript 7.0 mit Go-Basis erscheinen. Das anstehende Release bereitet Developer darauf vor.
Microsoft hat die Betaversion für TypeScript 6.0 veröffentlicht, das letzte Release mit der aktuellen JavaScript-Codebasis. Ab Version 7.0 werden der Compiler und der Language Service in Go geschrieben sein, was Geschwindigkeitsvorteile bringen soll. TypeScript 6.0 soll in erster Linie den Weg zum Umstieg ebnen.
Einige Aspekte gelten in TypeScript 6.0 als veraltet (deprecated) – doch derzeit lassen sich diese Deprecations noch einfach ignorieren. Dazu dient die Einstellung "ignoreDeprecations": "6.0" in der tsconfig.json-Datei. Ab Version 7.0 wird das nicht mehr möglich sein, und die veralteten Funktionen lassen sich dort nicht mehr nutzen.
Die Änderungen sollen den Prozessen Rechnung tragen, die in den vergangenen zwei Jahren seit Version 5.0 stattgefunden haben, so das TypeScript-Team. Unter anderem seien Bundler und ECMAScript-Module zu den häufigsten Modulzielen für neue Projekte geworden, und tsconfig.json habe sich zu einem fast universellen Konfigurationsmechanismus entwickelt, während der Wunsch nach strengerer Typisierung zugenommen habe.
Konkret entfällt unter anderem das Target ECMAScript 5, denn seit über einem Jahrzehnt steht der Nachfolger ECMAScript 2015 (ES 6) bereit und alle modernen Browser können damit umgehen, wie das TypeScript-Team ausführt. Damit einhergehend ist nun auch --downlevelIteration veraltet, da es lediglich für ECMAScript 5 relevant war. Statt der veralteten asserts-Syntax kommt nun das Keyword with für Import-Attribute zum Einsatz.
Ein ausführlicher Blogeintrag [3] geht auf diese und weitere Deprecations sowie Feature-Neuerungen ein.
TypeScript 6.0 gilt mit der Beta als Feature-stabil und soll keine weiteren Funktionen oder Breaking Changes erhalten. Neben der Betaversion sind auch Nightly Builds [4] verfügbar, um frühe Einblicke in das nächste Release zu erhalten. Daneben geht die Arbeit an TypeScript 7.0 weiter, und auch dafür können Interessierte Vorschauversionen ausprobieren [5] sowie Feedback abgeben.
Wer mit TypeScript 6.0 Deprecation-Warnungen erhält, sollte diese zunächst beheben, bevor er oder sie auf Version 7.0 wechselt, empfiehlt das TypeScript-Team. Schon bald nach TypeScript 6.0 soll TypeScript 7.0 erscheinen.
URL dieses Artikels:
https://www.heise.de/-11174219
Links in diesem Artikel:
[1] https://enterjs.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[2] https://enterjs.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[3] https://devblogs.microsoft.com/typescript/announcing-typescript-6-0-beta/
[4] https://www.typescriptlang.org/docs/handbook/nightly-builds.html
[5] https://www.npmjs.com/package/@typescript/native-preview
[6] mailto:mai@heise.de
Copyright © 2026 Heise Medien
Android 17 Beta 1 dürfte sehr bald freigegeben werden.
(Bild: Google)
Google wollte am Mittwoch eigentlich die erste Beta von Android 17 freigeben, hat aber dann doch einen Rückzieher gemacht. Was drinsteckt, ist dennoch bekannt.
Google wollte gestern das Update auf Android 17 Beta 1 [1] veröffentlichen. Der Konzern hatte einige US-Medien wie üblich mit Vorabinformationen versorgt, die sie zu einer bestimmten Uhrzeit veröffentlichen durften. Die Meldungen gingen online, bei Google passierte dann aber nichts. Weder die Ankündigung auf Googles Android-Entwicklerseite [2] noch Systemabbilder der neuen Vorabversion sind erschienen. Trotz der kurzfristigen Kehrtwende – mittlerweile heißt es, das Update werde „in Kürze“ freigegeben – ist immerhin klar, was im Update steckt und wie die Roadmap bis zur Veröffentlichung aussieht.
Wie unter anderem Android Authority [3] und 9to5 Google [4] schreiben, richtet sich die erste Betaversion von Android 17 an Entwickler. Der Release soll ihnen dabei helfen, anpassungsfähigere und leistungsoptimierte Apps zu erstellen. Zudem enthält es zahlreiche neue Tools für „Medien- und Kameraerlebnisse“.
Laut Google ist eine der größten entwicklerseitigen Neuerungen von Android 17 die erweiterte Anpassungsfähigkeit von Apps. Einer neuen „Adaptive Roadmap“ zufolge von Google sollen Entwickler die Anforderungen hinsichtlich Ausrichtung und Größenanpassung für Apps auf Geräten mit großem Bildschirm nicht mehr deaktivieren können. Die neue Regel gelte für Android-Geräte mit einer Mindestbreite von 600 dp oder mehr. Dies umfasst in der Regel Tablets, aufgeklappte Foldables und Desktop-ähnliche Fensterumgebungen.
Das bedeutet, dass Apps, die auf Android 17 (SDK 37) ausgerichtet sind, die Größenanpassung und das Multitasking in Fenstern nach Googles Vorgaben unterstützen. Sie dürfen damit nicht mehr auf eine feste Ausrichtung oder ein festes Seitenverhältnis festgelegt werden.
Android 17 Beta 1 liefert außerdem Tools zur Verbesserung der Medien- und Kamera-App-Erfahrung. Unter anderem führt das große Update professionelle Kamera-APIs für flüssigere Übergänge ein, mit denen Kamera-Apps zwischen den Modi wechseln können, ohne die Kamerasitzung vollständig neu zu starten, heißt es. Mit dieser Lösung sollen kleinere Pausen, sichtbare Fehler und Verzögerungen beim Wechseln der Kameramodi vermieden werden.
Außerdem erlaubt Android 17 Apps auch den Zugriff auf Metadaten aller aktiven physischen Kamerasensoren und nicht nur des Hauptsensors. Dadurch sollen Kamera-Apps einen tieferen Einblick „in die Vorgänge hinter den Kulissen beim Objektivwechsel oder beim Zoomen“ erhalten.
Wie Android Authority die Vorabmeldung zitiert, führt Google verbesserte Audiosteuerungen ein, um die Lautstärke über alle Apps hinweg zu normalisieren. Zudem erhält Android 17 Unterstützung für Versatile Video Coding (VVC), auch bekannt als H.266 [5]. Dieser Videokomprimierungsstandard ist dazu in der Lage, eine ähnliche oder bessere Videoqualität bei geringeren Dateigrößen zu liefern, vorausgesetzt, das Android-Gerät verfügt auch über kompatible Hardware.
Android 17 Beta 1 enthält zudem einige zusätzliche Neuerungen für Entwickler: Dazu gehören Leistungsverbesserungen für eine bessere Ressourcenverwaltung und schnellere Interaktionen, Optimierungen in Bezug auf Datenschutz und Sicherheit sowie Verbesserungen der Konnektivität. Dazu gehört auch die Darstellung von VoIP-Anrufen (aus Apps wie WhatsApp) im System-Dialer.
Weiter erhält Wi-Fi-Ranging (IEEE 802.11az [6]) neue Funktionen zur Näherungserkennung, die genauere Entfernungsmessungen und die Erkennung von Geräten in der Nähe ermöglichen. Google fügt außerdem Begleitgeräteprofile „Medizinische Geräte“ und „Fitness-Tracker“ hinzu. Dies soll etwa den Einrichtungsprozess für Apps, die eine Verbindung zu diesem Zubehör herstellen, vereinfachen.
Für Android XR bringt Android 17 einen neuen Interaktionsmodus, mit dem Apps intelligenter auf die Interaktion des Benutzers mit einem Extended-Reality-Gerät reagieren können, beispielsweise wenn sich der Anzeigestatus ändert.
Durch die Umstellung der Android-Entwicklung auf einen ganzjährigen Release-Zyklus, bei dem der im Sommer 2025 eingeführte Android-Canary-Kanal [7]das bisherige Developer-Preview-Modell ersetzt, sollen Entwickler schneller künftige Funktionen testen können. Die Betas könnten durch die kontinuierliche und ganzjährige Feedbackschleife stabiler und fehlerfreier sein als die bisherigen.
(Bild: Google)
Laut der Roadmap von Google wird Android 17 einen ähnlichen Release-Rhythmus wie Android 16 verfolgen. Das Unternehmen plant, bis März 2026 die Plattformstabilität zu erreichen. Im zweiten Quartal, voraussichtlich im Juni 2026, soll dann die stabile Version für Pixel-Geräte erscheinen. Eine kleinere SDK-Version wird im vierten Quartal 2026 folgen.
Sobald Google den Schalter umlegt [8], können Nutzerinnen und Nutzer, die ihr Gerät im Android-Beta-Programm registriert haben, die erste Beta von Android 17 als OTA-Update installieren. Bereits registrierte Geräte erhalten das Update automatisch. Kompatibel sind alle Pixel-Smartphones ab dem Pixel 6, sämtliche Pixel-Foldables und das Pixel Tablet.
URL dieses Artikels:
https://www.heise.de/-11173912
Links in diesem Artikel:
[1] https://www.heise.de/news/Android-17-Beta-1-steht-vor-der-Tuer-11172592.html
[2] https://android-developers.googleblog.com/
[3] https://www.androidauthority.com/android-17-beta-1-3639738/
[4] https://9to5google.com/2026/02/11/android-17-beta-1-pixel/
[5] https://www.heise.de/hintergrund/Versatile-Video-Coding-VVC-So-funktioniert-der-neue-Videokompressionsstandard-4954918.html
[6] https://www.heise.de/select/ix/2019/10/1923312203089947066
[7] https://www.heise.de/news/Android-Canary-Channel-Google-kuendigt-neuen-Spielplatz-fuer-Entwickler-an-10483754.html
[8] https://android-developers.googleblog.com/2026/02/the-first-beta-of-android-17.html
[9] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[10] mailto:afl@heise.de
Copyright © 2026 Heise Medien
(Bild: The Redox Developers)
Das in Rust geschriebene Betriebssystem Redox OS hat einen wichtigen Entwicklungsschritt erreicht: Erstmals gelang ein Commit direkt aus dem System heraus.
Das vollständig in Rust geschriebene Betriebssystem Redox OS hat im Januar 2026 einen bedeutenden Meilenstein erreicht: Entwickler konnten erstmals einen Commit komplett aus Redox heraus durchführen. Jetzt funktionieren sowohl der Rust-Compiler rustc als auch der Paketmanager Cargo auf dem System.
Dieser Fortschritt markiert einen wichtigen Schritt in Richtung eines eigenständigen Entwicklungssystems. Das Projekt wurde maßgeblich durch Anhad Singh im Rahmen des Redox Summer of Code vorangetrieben. Dank seiner Arbeit können Entwickler nun einfache Programme in Rust, C und C++ direkt auf Redox kompilieren.
Darüber hinaus haben die Entwickler zahlreiche weitere Verbesserungen implementiert. Eine neue Capability-basierte Security-Infrastruktur bietet granulare Berechtigungen für Prozesse. Der SSH-Support wurde erweitert und funktioniert nun zuverlässig für den Remote-Zugang. Zudem wurde die Latenz bei USB-Eingabegeräten deutlich reduziert.
Der Bootloader bietet jetzt eine Text-Editing-Umgebung zum Hinzufügen, Entfernen und Ändern von Boot-Parametern. Der Login-Manager wurde um Menüs für Energieverwaltung und Tastaturlayout ergänzt. Das Kernel-Memory-Management erhielt signifikante Verbesserungen, während ARM64-Systeme nun Dynamic Linking unterstützen.
Die POSIX-Compliance wurde weiter verbessert, was die Kompatibilität mit Unix-Software erhöht. Zusätzlich behobene Fehler betreffen den Intel HD Audio-Treiber, PS/2-Touchpads sowie UEFI-Firmware. Die Entwickler arbeiten außerdem am RISC-V-Port und haben QEMU auf Redox selbst portiert. Alle im Januar umgesetzten Änderungen finden sich im Redox-Blog [1].
Für die Zukunft plant das Projekt spezialisierte Versionen: Hosted Redox für virtuelle Maschinen, Redox Server für Edge- und Cloud-Umgebungen mit Sandboxing-Funktionen sowie Redox Desktop mit COSMIC-Integration und Wayland-Support. Diese Pläne wurden bereits 2023 skizziert und werden schrittweise umgesetzt.
Redox OS basiert auf einer Microkernel-Architektur und nutzt Rusts Memory-Safety-Eigenschaften, um die Sicherheit zu erhöhen. Das System unterstützt Intel-, AMD-, ARM- und RISC-V-Prozessoren sowie verschiedene Speicher- und Eingabegeräte. Die Desktop-Variante benötigt weniger als 512 MByte RAM, während Minimal-Images unter 50 MByte groß sind. Im Oktober 2023 [2] kündigten die Entwickler erstmals konkrete Pläne für Server- und Desktop-Editionen an.
URL dieses Artikels:
https://www.heise.de/-11173867
Links in diesem Artikel:
[1] https://www.redox-os.org/news/this-month-260131/
[2] https://www.heise.de/news/Redox-Ausblick-fuer-2024-Server-Edition-geplant-9326827.html
[3] https://www.heise.de/ix
[4] mailto:fo@heise.de
Copyright © 2026 Heise Medien
Christoph Jehle
Starre Preise, komplexe Rabattverträge und fehlende Honoraranpassung treiben Tausende Apotheken in die Pleite – ein Ende ist nicht in Sicht.
Neben der leitungsgebundenen Energieversorgung zählt die deutsche Versorgung mit Medikamenten zu den am stärksten regulierten wirtschaftlichen Bereichen.
Die Zeiten, als Apotheken die Preise für rezeptpflichtige Medikamente festlegen konnten, sind schon lange vorbei. Die Preishoheit haben die Apotheker nur noch bei Produkten, bei denen sie in direkter Konkurrenz zu den Drogeriemarktketten stehen.
Welches Medikament der Apotheker an einen Patienten abgeben darf, wird in der Regel nicht vom Arzt mit dem Rezept, sondern durch den Rabattvertrag zwischen einem Hersteller und der jeweiligen Gesetzlichen Krankenkasse bestimmt.
Da die Rabattverträge und die Hintergründe, wie diese jeweils zustande kommen, als Betriebsgeheimnis gelten, weiß der Apotheker nicht, welchen Preis die jeweilige Kasse für das abgegebene Medikament an den Hersteller bezahlt.
Die Vergütung für öffentliche Apotheken basiert auf einheitlichen Honoraren und Abgabepreisen für verschreibungspflichtige Fertigarzneimittel, die im Schnitt mehr als 80 Prozent des Umsatzes ausmachen. Der Apothekenabgabepreis einer verschreibungspflichtigen Packung errechnet sich aus einem Festzuschlag von drei Prozent auf den Apothekeneinkaufspreis zuzüglich einer Pauschale von 8,35 Euro pro Medikament.
Die Apotheke erhält zudem 0,41 Euro, die sie an einen Fonds abgibt, aus dem Nachtdienste und pharmazeutische Dienstleistungen finanziell unterstützt werden. Hinzu kommt die Umsatzsteuer von derzeit 19 Prozent.
Der Festzuschlag wird im Rahmen der Gesetzlichen Krankenversicherung um einen Apothekenabschlag in Höhe von 1,77 Euro pro rezeptpflichtigem Arzneimittel reduziert. Der Kostenanteil der Apotheken an den GKV-Gesamtausgaben macht daher mit 5,84 Milliarden Euro nur 1,8 Prozent aus. Ein Inflationsausgleich findet schon seit Jahren nicht mehr statt.
Zur Umsetzung der Rabattverträge [1] ist im Rahmenvertrag für Apotheken geregelt, dass die Abgabe von rabattbegünstigten Arzneimitteln vorrangig erfolgen muss.
Unabhängig davon, welchen Hersteller der verschreibende Arzt auf dem Rezept vermerkt hat, muss die Apotheke ein wirkstoffgleiches Medikament auswählen, für das die Krankenkasse des jeweiligen Patienten einen aktuellen Rabattvertrag abgeschlossen hat. Der Arzt kann einen Austausch des Arzneimittels nur ausschließen, wenn er bei seiner Verordnung auf dem Rezept das Aut-idem-Feld ankreuzt.
Für den Austausch von Arzneimitteln gilt [2]:
Wird ein anderes Arzneimittel als das rabattbegünstigte gewünscht, kann der Apotheker das austauschbare, nicht rabattierte Präparat abgeben. Der Patient bezahlt dann zunächst den gesamten AVP und die Krankenkasse erstattet dann die Kosten, die sich abzüglich Rabatte und sonstiger Abschläge ergeben. Mehrkosten, die dabei entstehen, muss der Versicherte selbst tragen.
Ein Apotheker muss mit jeder der Gesetzlichen Krankenkassen abrechnen, bei welcher der jeweilige Patient versichert ist. Die Zahl der Gesetzlichen Krankenkassen in Deutschland [5] umfasste mit dem Stand vom 1. Januar 2026 93 Krankenkassen, die rund 90 Prozent der Bevölkerung versorgen.
Rezeptabrechnungs-Dienstleister übernehmen für Apotheken die Prüfung, Einreichung und Abrechnung von Papierrezepten sowie E-Rezepten mit Krankenkassen. Sie bieten Vorteile wie schnellere Auszahlungen, geringere Fehlerquoten und entlasten das Personal, teils durch digitale Echtzeit-Prüfungen. Wenn allerdings ein solcher Dienstleister in die Insolvenz [6] geschickt wird, kann das Ergebnis für den betroffenen Apotheker durchaus bitter sein.
Die wirtschaftliche Lage vieler Apotheken aufgrund fehlender Honoraranpassungen und der Mangel an qualifiziertem Personal führen dazu, dass die Zahl der Apotheken in Deutschland kontinuierlich abnimmt [7].
Das Apothekensterben in Deutschland hat sich zum Jahresbeginn 2026 weiter drastisch beschleunigt. Die Zahl der Betriebsstätten sank auf rund 16.600, den niedrigsten Stand seit den 1970er Jahren.
Die im Koalitionsvertrag vorgesehene Erhöhung des Apothekenhonorars ist jetzt dem Finanzierungsvorbehalt zum Opfer [8] gefallen, wodurch sich die wirtschaftliche Lage vieler Apotheken weiter verschlechtert und Nachfolger kaum noch gefunden werden können.
Mit Online-Apotheken kann dieser Schwund nicht wirklich ausgeglichen werden, weil beispielsweise verschiedene Medikamente nur in einem vergleichsweise schmalen Temperaturbereich gelagert werden dürfen, die beim Postversand nicht gesichert werden können. Zudem ist es für viele Patienten gar nicht so einfach, echte Online-Apotheken von Fake-Shops [9] zu unterscheiden.
URL dieses Artikels:https://www.heise.de/-11171121
Links in diesem Artikel:[1] https://www.verbraucherzentrale.de/wissen/gesundheit-pflege/medikamente/rabattvertraege-bei-arzneimitteln-10602[2] https://www.deutschesarztportal.de/wirtschaftlichkeit/aktuelle-rabattvertraege[3] https://www.g-ba.de/[4] https://www.deutschesarztportal.de/verordnung-und-erstattung/arzneimittelrichtlinie/austauschbare-darreichungsformen[5] https://www.krankenkassen.de/gesetzliche-krankenkassen/krankenkassen-liste/[6] https://www.pharmazeutische-zeitung.de/avp-stellt-rezeptabrechnung-komplett-ein-120614/[7] https://www.mdr.de/nachrichten/deutschland/wirtschaft/apotheke-kosten-100.html[8] https://www.mdr.de/nachrichten/deutschland/wirtschaft/apotheke-kosten-100.html[9] https://www.mdr.de/ratgeber/gesundheit/medikamente-faelschung-fakeshop-108.html
Copyright © 2026 Heise Medien
Benjamin Roth
Wie sehen die CDU-Pläne zur Reform des Sozialstaats aus?
(Bild: nitpicker/Shutterstock.com)
"Agenda für Arbeitnehmer" verspricht Aufstieg durch Entlastung. Kritiker warnen vor sozialpolitischem Kurswechsel – weg vom Sozialstaat, hin zur Eigenvorsorge.
Mit seiner "Agenda für Arbeitnehmer [1]" hat der Wirtschaftsrat der CDU ein Positionspapier vorgelegt. Wer hart arbeite, so das Versprechen, solle wieder Wohlstand erreichen können – durch niedrigere Steuern, günstigere Energie und weniger Regulationen beim Wohneigentum.
Zugleich zeichnet das Papier das Bild eines Staates, der Erwerbstätige übermäßig belastet und soziale Sicherungen entfernt. Kritiker [2] erkennen darin weniger eine Arbeitnehmeragenda als ein Programm, das soziale Sicherheiten zugunsten individueller Verantwortung zurückdrängen könnte.
Ein Vergleich mit der Agenda 2010 liegt nahe, auch wenn die Ausgangslagen unterschiedlich sind. Anfang der 2000er Jahre reagierte die rot-grüne Bundesregierung auf hohe Arbeitslosigkeit und strukturelle Probleme am Arbeitsmarkt. Ziel war es, Beschäftigung um jeden Preis [3] zu fördern und die Arbeitslosen zu "aktivieren" – verbunden mit heftigen Einschnitten im Sozial- und Arbeitsrecht.
Die neue Agenda folgt einem ähnlichen Grundgedanken: Mehr Leistungsanreize, geringere staatliche Belastungen und ein gekürzter Sozialstaat sollen Wachstum erzeugen. Doch während die Agenda 2010 vor allem den Arbeitsmarkt reformieren sollte, greift der aktuelle Vorstoß tiefer in die Architektur der sozialen Sicherung ein. Es geht weniger um Vermittlung in Arbeit als um die grundlegende Frage, wie viel kollektive Absicherung sich eine Gesellschaft künftig leisten will.
Im Zentrum der Vorschläge stehen steuerliche Entlastungen – allerdings mit klar erkennbaren Schwerpunkten. Gefordert werden ein höherer Grundfreibetrag, ein später einsetzender Spitzensteuersatz, ein automatischer Inflationsausgleich sowie die vollständige Abschaffung des Solidaritätszuschlags.
Gleichzeitig sollen Unternehmenssteuern sinken und das Erbschaftsteuerrecht "arbeitsplatzfreundlich" bleiben. Weniger konkret wird hingegen, wie stark Beschäftigte mit niedrigen Einkommen profitieren würden.
Parallel dazu schlägt der Wirtschaftsrat tiefgreifende Änderungen an den Sozialversicherungen vor: eine Begrenzung des Arbeitslosengeldes I auf zwölf Monate, die Streichung von Leistungen wie Mütterrente, "Rente mit 63" und Grundrente sowie ein perspektivisch höheres Renteneintrittsalter.
In der Pflegeversicherung sollen private Zusatzversicherungen an Bedeutung gewinnen, während in der Krankenversicherung einzelne Leistungen stärker privat abgesichert werden könnten. Selbst Unfälle auf dem Arbeitsweg stehen zur Disposition. Es ergibt sich das Bild eines Sozialstaats, der sich sogar aus früher einmal zur Grundversorgung zugeordneten Bereichen [4] zurückzieht.
Als Schlüssel zur Vermögensbildung gilt dem Wirtschaftsrat der erleichterte Zugang zu Wohneigentum. Vorgeschlagen werden unter anderem die Abschaffung der Grunderwerbsteuer für Erstkäufer, steuerliche Vorteile für Eigennutzer und flexiblere Wege zur Eigenkapitalbildung. Wohneigentum wird ausdrücklich als zentrale Säule privater Altersvorsorge verstanden – ein Leitbild, das jedoch vor allem jene erreicht, die sich Eigentum überhaupt leisten können [5].
Über allem steht die Idee, ein vermeintlich verloren gegangenes Aufstiegsversprechen zu erneuern. Doch der Preis dieses Versprechens wird schnell sichtbar: Neue finanzielle Spielräume entstehen vor allem durch geringere staatliche Leistungen. Das Modell verschiebt sich damit spürbar weg von kollektiver Absicherung hin zu individueller Risikovorsorge – die sich in einem sozial gespaltenen Land wie Deutschland [6] nicht jeder leisten kann.
Sollten die Vorschläge Realität werden, könnte der Alltag vieler Beschäftigter so aussehen: zunächst etwas mehr Netto auf dem Konto, aber ein deutlich dünneres Sicherheitsnetz. Langfristig schlechtere Lohnentwicklung durch weniger Verhandlungsmacht in Tarifkämpfen. Der Staat nähme sich finanziell zurück und erwartete im Gegenzug mehr private Vorsorge. Wer krank wird, pflegebedürftig ist oder länger keinen Job findet, müsste selbst zahlen.
Auch die Lebensplanung würde riskanter. Der Ruhestand käme später, Frühverrentung verlöre an Attraktivität, Sozialleistungen stünden infrage. Stabilität wäre Privatsache. Biografische Brüche würden schneller zur finanziellen Belastungsprobe.
Gleichzeitig setzt die Agenda stark auf Eigentum als Wohlstandsmodell. Der Arbeitnehmer des CDU-Wirtschaftsrats lebt im eigenen Haus, spart privat für Gesundheits- und Pflegerisiken und arbeitet länger für den Vermögensaufbau. Es gilt das Leitbild eines "Unternehmers seiner selbst [7]" – steuerlich entlastet, aber verantwortlich für Risiken, die früher gemeinschaftlich getragen wurden.
Die schärfste Kritik entzündet sich am möglichen Rückbau sozialstaatlicher Leistungen. Gegner warnen, Steuerentlastungen könnten letztlich durch geringere Absicherung bezahlt werden – mit potenziell gravierenden Folgen für soziale Sicherheit und Chancengleichheit. Während einige eine Politik kritisieren, die wirtschaftliche Effizienz über soziale Stabilität stellt, stellen andere infrage, dass die Vorschläge überhaupt wachstumsfördernd sein können [8].
Alternativen zur Agenda kommen vor allem aus dem Umfeld kritischer Ökonomen [9]. Sie argumentieren, die Schwäche des deutschen Modells liege weniger in einem Zuviel an Absicherung als in einer ungleichen Verteilung von Vermögen und Steuerlast.
Statt Sozialleistungen zurückzufahren, plädieren sie für eine stärkere Besteuerung hoher Vermögen und Erbschaften, um Arbeit zu entlasten, ohne Krankheit, Alter oder Pflege zu größeren Risiken zu machen.
Auch Gewerkschaften schlagen einen anderen Kurs vor [10]: höhere Tarifbindung, stärkere Lohnentwicklung sowie gezielte Entlastungen für untere und mittlere Einkommen. Aufstieg entstehe nicht primär durch Steuersenkungen, sondern durch sichere Beschäftigung und einen Sozialstaat, der Risiken kollektiv abfedert.
Internationale Beispiele zeigen zudem, dass Wettbewerbsfähigkeit und ein starker Sozialstaat kein Widerspruch sein müssen. Viele skandinavische Länder [11] kombinieren hohe Beschäftigung mit umfangreichen öffentlichen Investitionen in Bildung, Weiterbildung und soziale Infrastruktur. Sicherheit gilt dort als Voraussetzung für wirtschaftlichen Wandel.
Während in Deutschland seit Jahren steigende Verteidigungsausgaben beschlossen werden, warnen Sozialökonomen vor einer schleichenden Verschiebung staatlicher Prioritäten. Jeder zusätzliche Euro für militärische Aufrüstung stehe zwangsläufig in Konkurrenz zu Investitionen in Bildung, Infrastruktur oder soziale Sicherung.
Befürworter eines stärker sozial ausgerichteten Kurses argumentieren, langfristige gesellschaftliche Resilienz entstehe nicht allein durch militärische Stärke, sondern durch geringe Ungleichheit, funktionierende öffentliche Dienstleistungen und verlässliche Aufstiegschancen.
Wer Sozialausgaben begrenze, riskiere politische Polarisierung und wirtschaftliche Folgekosten – etwa durch schlechtere Bildungschancen oder sinkende Kaufkraft. Nicht Panzer und Raketen garantierten den inneren Zusammenhalt einer Gesellschaft, sondern das Vertrauen ihrer Bürger in faire Lebensbedingungen.
URL dieses Artikels:https://www.heise.de/-11172642
Links in diesem Artikel:[1] https://wirtschaftsrat.de/de/agenda-f%C3%BCr-arbeitnehmer-in-deutschland/[2] https://www.welt.de/newsticker/dpa_nt/infoline_nt/Politik__Inland_/article6985fc7a00d739e7f4058317/reformen-gewerkschaften-attackieren-union-und-wirtschaft.html?utm_source=chatgpt.com[3] https://www.zeit.de/arbeit/2025-12/niedriglohn-sektor-statistisches-bundesamt-mindestlohn?utm_source=chatgpt.com[4] https://de.wikipedia.org/wiki/Gesetzliche_Unfallversicherung_in_Deutschland?utm_source=chatgpt.com[5] https://www.wsi.de/de/pressemitteilungen-15991-sorgen-um-lebensstandard-strahlen-bis-in-mittelschicht-aus-64567.htm?utm_source=chatgpt.com[6] https://www.wsi.de/de/pressemitteilungen-15991-sorgen-um-lebensstandard-strahlen-bis-in-mittelschicht-aus-64567.htm?utm_source=chatgpt.com[7] https://www.tu-chemnitz.de/phil/soz/soziologie2/lehre/vo%C3%9F_pongratz_arbeitskraftunternehmer.pdf[8] https://arxiv.org/abs/1210.3716?utm_source=chatgpt.com[9] https://www.zeit.de/wirtschaft/2023-06/vermoegen-milliardaere-steuern-ungleichheit-deutschland?utm_source=chatgpt.com[10] https://www.dgb.de/gerechtigkeit/sozialstaat/?utm_source=chatgpt.com[11] https://www.rosalux.de/fileadmin/rls_uploads/pdfs/Themen/Sozialpolitik/Skandinavische_Sozialstaatsmodelle.pdf?utm_source=chatgpt.com
Copyright © 2026 Heise Medien
(Bild: heise medien)
Microsoft kündigt deutlich verschärfte Sicherheitsmaßnahmen für Windows an – die wenigstens zweifelhaft bis kontraproduktiv sind, analysiert Moritz Förster.
Microsoft hat umfassende Änderungen an der Windows-Sicherheitsarchitektur angekündigt [1], die auf den ersten Blick nach einem Fortschritt klingen – bei genauerem Hinsehen aber erhebliche Schwachstellen offenbaren. Künftig sollen zwei neue Mechanismen für mehr Transparenz und Kontrolle sorgen: der „Windows Baseline Security Mode“ und erweiterte Nutzerberechtigungen unter dem Label „User Transparency and Consent“. Beide Ansätze werfen jedoch zentrale Fragen auf, die Microsoft bislang unbeantwortet lässt.
Der neue Baseline Security Mode soll standardmäßig nur noch signierte Anwendungen, Dienste und Treiber zur Ausführung zulassen. Aus Sicht vieler Security-Beauftragten mag das eine sinnvolle Maßnahme gegen Schadsoftware sein, sie nimmt den Anwendern aber in hohem Maß die Freiheit, ihren Windows-PC nach eigenem Belieben zu nutzen – wäre da nicht das Opt-out-Modell. Nutzer und IT-Administratoren können für einzelne Apps Ausnahmen definieren und damit die Schutzfunktion gezielt aushebeln.
Genau aufgrund dieser Möglichkeit verbleibt aus Security-Sicht jedoch ein potenzielles Einfallstor: Wird ein System einmal kompromittiert, können Angreifer diese Ausnahmen prinzipiell manipulieren oder selbst definieren. Am Ende kann Microsoft im Drahtseilakt zwischen Sicherheit und Nutzerfreundlichkeit also keine Seite richtig befriedigen. Der Blick über den Tellerrand zeigt, dass Apples vergleichbares Vorgehen bei macOS bei Anwendern nur bedingt gut ankommt.
Microsofts Ankündigung [2] bleibt zudem vage, was die technische Umsetzung betrifft. Der Konzern spricht von „Runtime Integrity Safeguards“, ohne zu konkretisieren, wie sich diese von bestehenden Mechanismen wie Smart App Control unterscheiden. Letzteres nutzt Cloud-basierte Reputationsprüfungen und maschinelles Lernen, um verdächtige Software vor dem Start zu blockieren. Der Baseline Security Mode soll anscheinend primär breiter ansetzen und auch Dienste sowie Treiber zur Laufzeit überwachen – doch wie genau diese Prüfung ablaufen soll, gibt Microsoft bislang nicht bekannt.
Bereits sicher ist hingegen, dass die Situation für Unternehmens-IT und Organisationen mit älteren Anwendungen besonders problematisch wird. Unsignierte Legacy-Software wird unter dem neuen Regime blockiert, sofern Administratoren nicht manuell Ausnahmen konfigurieren. Das bedeutet erheblichen Verwaltungsaufwand für etliche IT-Abteilungen – und das Risiko einer fragmentierten Anwendungslandschaft. Hinzu kommt: Entwickler, die keine Ressourcen für die Code-Signierung aufbringen können oder wollen, werden faktisch von einem breiten Teil der Windows-Nutzerbasis ausgeschlossen. Besonders hart trifft das Open-Source-Projekte und Entwickler, die sich teure Code-Signing-Zertifikate von Microsoft nicht leisten können oder wollen.
Microsoft plant eine schrittweise Einführung, ohne konkrete Zeitpläne oder Meilensteine zu nennen. Sollen die neue Security-Maßnahmen schnell greifen, wäre ein Start bereits mit der Windows Insider Preview Mitte 2026 denkbar, zum Beispiel in Version 26H2 – oder einem künftigen Windows 12. Welche konkreten APIs und Tools der Konzern Entwicklern zur Verfügung stellen wird, um ihre Software anzupassen, bleibt ebenfalls unklar. Microsoft verweist lediglich auf kommende Blogbeiträge und Feedback-Kanäle – eine auffallend dünne Informationsbasis für eine derart weitreichende Änderung in Windows.
Genauso zweischneidig ist das zweite neue zweite Security-Standbein: erweiterte Berechtigungsabfragen, wie sie von iOS und Android bekannt sind. Apps sollen künftig Nutzer um Erlaubnis fragen, bevor sie auf Dateien, Kamera oder Mikrofon zugreifen. Während macOS oder mobile Betriebssysteme seit Jahren granulare Berechtigungen durchsetzen, hinkt Windows in dieser Hinsicht tatsächlich deutlich hinterher.
Doch auch hier droht ein altbekanntes Problem: Prompt Fatigue [3], die Ermüdung durch zu viele Berechtigungsabfragen. Microsoft verspricht „klare und umsetzbare Prompts“, liefert aber keine Details, wie das Betriebssystem eine Überflutung der Nutzer mit Pop-ups vermeiden soll. Zudem bleibt offen, wie das System mit KI-Agenten umgeht, die zunehmend autonom agieren. Microsoft erwähnt „höhere Transparenzstandards“ für solche Anwendungen – freilich ohne deren Umsetzung zu erläutern.
Obendrein dürften die geplanten Runtime-Checks die Systemleistung negativ beeinträchtigen, besonders auf Rechnern mit vielen installierten Anwendungen. Oder auf ohnehin altersschwachen PCs in etlichen Büros. Jede Prüfung kostet Rechen- und obendrein noch Arbeitszeit – ein Overhead, den Microsoft bislang nicht quantifiziert.
Auch datenschutzrechtlich wirft die erweiterte Überwachung von App-Aktivitäten Fragen auf. Um Transparenz herzustellen, muss das Betriebssystem kontinuierlich erfassen, welche Anwendung auf welche Ressourcen zugreift. Diese Telemetriedaten könnten bei einer Übertragung in die USA problematisch werden, insbesondere im Kontext der Datenschutz-Grundverordnung (DSGVO). Microsoft äußert sich nicht dazu, wie diese Daten gespeichert, verarbeitet oder möglicherweise übertragen werden.
Sollte also bei Windows alles so bleiben wie gehabt? Nein – aber gerade das offene System hat den PC vor langer Zeit zum Erfolg geführt. Nutzer durften installieren und ausführen, was sie wollten. Im Gegensatz zur vorigen Computer-Welt in Unternehmen. Dass Sicherheit heute eine größere Rolle spielen muss, ist unbestritten. Doch statt sie durch Abschottung und Nutzergängelung zu erreichen, wären ein besseres Design des Systems selbst und vor allem verlässliche Updates [4] der richtige Weg.
URL dieses Artikels:
https://www.heise.de/-11173252
Links in diesem Artikel:
[1] https://www.heise.de/news/Signierte-Anwendungen-und-Zustimmungs-Abfrage-So-soll-Windows-sicherer-werden-11172890.html
[2] https://www.heise.de/news/Signierte-Anwendungen-und-Zustimmungs-Abfrage-So-soll-Windows-sicherer-werden-11172890.html
[3] https://www.youtube.com/watch?v=VuqZ8AqmLPY
[4] https://www.heise.de/news/Nach-anhaltender-Kritik-Microsoft-verspricht-Besserung-bei-Windows-11-11160744.html
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de
Copyright © 2026 Heise Medien
(Bild: Sebastian Trepesch / heise medien)
Version 26.3 liefert primär Bugfixes für iPhones, Macs und iPads. Aber Apple bereitet auch weitere Öffnungsschritte für iOS vor – nicht nur in der EU.
Apple hat am Mittwochabend wichtige Updates für seine Betriebssysteme zum Download freigegeben. iOS, iPadOS und macOS liegen frisch in Version 26.3 vor, lassen sich über die integrierte Software-Aktualisierung herunterladen und auf iPhones, iPads und Macs installieren. Im Beipackzettel verspricht der Hersteller Fehlerbehebungen sowie Sicherheitsverbesserungen. iPhone-Nutzer, die unerwartete Probleme mit iOS 26.2.1 [1] haben, können so die Flucht nach vorn antreten und auf Besserung hoffen.
iOS und iPadOS 26.3 enthalten eine neue Funktion auf Betriebssystemebene, um den Umstieg auf Android zu erleichtern. Bei der offenbar auch drahtlos möglichen Übertragung sollen unter anderem Fotos, Nachrichten und Apps migriert werden – sowie möglicherweise genutzte eSIMs. Gesundheitsdaten können allerdings nicht übertragen werden, schränkt Apple im Beschreibungstext der Funktion ein. Google unterstützt dies ebenfalls mit einer neuen Umzugsfunktion von Android auf iOS. Dieses erweiterte Feature rund um Datenportabilität haben die Konzerne auf Druck von Regulierern eingebaut, es steht weltweit in den Betriebssystemen zur Verfügung.
Nur in der EU legt Apple mit iOS 26.3 die Grundlage, eingehende Mitteilungen in vollem Umfang an ein anderes Gerät als nur die Apple Watch durchzureichen. Ob große Sportuhren- und Smartwatch-Hersteller wie Garmin das unmittelbar unterstützen, war am Mittwoch noch unklar.
iOS 26.3 liefert außerdem eine erste Exklusivfunktion für iPhones und iPads mit Apples hauseigenem Mobilfunkmodem C1 respektive C1X [2]: Diese Geräte geben nun wahlweise weniger genaue Standortdaten an Netzbetreiber weiter. In Deutschland unterstützt das zum Start die Telekom.
Mit macOS 26.3 räumt Apple zudem ein Problem bei der „Liquid Glass“-Bedienoberfläche aus, das manche Nutzer erheblich nervte. Der Bereich zum Ändern der Fenstergröße wird an die abgerundeten Fensterecken angepasst, wie das Unternehmen schreibt – statt weiterhin quadratisch zu bleiben. Letzteres konnte beim Versuch, die Fensterecke mit dem Cursor zu „greifen“, zu lästigen Fehleingaben führen.
Weiterhin stehen watchOS, tvOS, visionOS und die HomePod-Software ebenfalls in Version 26.3 bereit. Für bestimmte ältere Betriebssystemversionen wie iOS 18, macOS 15 und macOS 14 liegen ebenfalls Updates vor, die Sicherheits-Patches enthalten. Diese sind allerdings bei iOS offenbar nur noch für ältere iPhones verfügbar, die sich nicht auf iOS 26 aktualisieren lassen. Erste Details zu den gestopften Sicherheitslücken veröffentlicht Apple gewöhnlich im weiteren Verlauf des Abends.
URL dieses Artikels:
https://www.heise.de/-11172138
Links in diesem Artikel:
[1] https://www.heise.de/news/iOS-26-2-1-Problemberichte-zu-Abstuerzen-und-schneller-Akkuleerung-11165284.html
[2] https://www.heise.de/news/iPhone-Apple-Modem-soll-genauen-Standort-vor-Mobilfunkern-verbergen-11161088.html
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:lbe@heise.de
Copyright © 2026 Heise Medien

Die Niedax Group, die ein neues gesichertes Glasfasernetz in Deutschland bauen will, habe dafür bereits einen Vertrag mit der Deutschen Bahn geschlossen. Das teilte das Unternehmen Golem auf Anfrage mit. "Es gibt einen Kooperationsvertrag zwischen beiden Parteien, zu dem aufgrund einer Vertraulichkeitserklärung keine Details bekannt gegeben werden" , hieß es.
Ein Bahn-Sprecher bestätigte Golem: "Seitens der DB Infrago geht es in dem Vorhaben um die Gestattung zum Verlegen von Leitungen. Eine Partnerschaft in dem Projekt ist nicht geplant. Dazu wurde beiderseits eine Verschwiegenheitserklärung vereinbart." Golem fragte so genau nach, weil ein Vertrag mit der Bahn für dieses Projekt bereits vor Jahren von Giga Fiber erfunden wurde .
Niedax, ein Hersteller von Kabelverlegesystemen, stellte sein Projekt zum Aufbau eines gesicherten Glasfasernetzes entlang von rund 33.000 Kilometern Bahnschiene am 2. Februar 2026 mit Beisein von Bundeskanzler Friedrich Merz vor 300 Gästen auf seinem Technologie Campus in Neustadt/Wied-Rahms (Rheinland-Pfalz) vor. Insider gehen davon aus, dass ein solches Netz einen zweistelligen Milliardenbetrag kostet.
Zu den Investoren will sich Niedax nicht äußern: "Die Finanzierung des Infrastrukturprojektes Glasfasernetzausbau wird rein privat finanziert durch Investoren aus dem deutschsprachigen Raum. Zu den konkreten Investoren und Vertragsinhalten geben wir keine Auskunft" , erklärte das Unternehmen Golem. Niedax ist nicht börsennotiert und unterliegt darum geringeren Berichtspflichten.
Glasfaser entlang des deutschen Schienennetzes kündigte zuvor bereits das Unternehmen Giga Fiber von Lars Diebold fast wortgleich an , was sich aber wie ein anderes Projekt für 0-Euro-FTTH für Privatkunden als bloße PR-Aktion erwies.
Diebold erklärte Golem am 11. Februar 2026, er habe im Mai 2024 zuerst 10 Prozent der Giga Fiber an die Niedax Gruppe verkauft. Als Kabelkanalhersteller mit DB Zulassung – das Unternehmen verbaut seit Jahren im Bahnumfeld seine Kanäle – sei das der richtige Weg gewesen, sagte er.
"Bis zum April 2025 haben wir dann das Projekt mit Planung, Berechnung, Businessplänen et cetera fertiggestellt und dann die restlichen 90 Prozent an die Niedax verkauft, da diese Art von Großprojekten in der Umsetzung in das Portfolio einer Niedax passt."
Niedax sei heute hundertprozentiger Gesellschafter der Giga Fiber, jetzt GF Abwicklungsgesellschaft. Auch der Gesellschaftszweck sei 1:1 identisch bei Giga Fiber zu Netz33 kopiert worden, erklärte Diebold.
Niedax erklärte dagegen : "Frühere Kooperationen zwischen der Niedax und der Giga Fiber bestehen nicht fort. Die Glasfaser-Aktivitäten der Niedax Group werden heute eigenständig über die entsprechende Konzernstruktur umgesetzt, da innerhalb der Unternehmensgruppe sowie im Partnernetzwerk die erforderlichen Kompetenzen für die Umsetzung eines solchen Großprojektes gebündelt werden."

Makita zählt zu den bekanntesten Herstellern elektrischer Maschinen. Beim 18-Volt-Akku war der Hersteller seinerzeit Vorreiter. Noch heute profitiert man von der großen Gerätebasis. Kompatibel sind Hunderte Maschinen, vom Akkuschrauber über den Bohrhammer bis zum Akku-Kompressor.
Verglichen mit Einhell sind die Werkzeuge nur leider nicht ganz billig. Umso wichtiger ist der Blick in den Preisvergleich. Aktuell sticht hier der Akku-Kompressor DMP181Z ins Auge. Er hat sich allein im letzten Monat über 1.000-mal bei Amazon verkauft. Nun ist er günstiger als zuletzt und anderswo im Angebot.
Die Möglichkeiten sind schnell zusammengefasst: Er eignet sich zum Aufpumpen von Auto- und Fahrradreifen, fällt aber auch Sportbälle und Luftmatratzen schnell auf. Er wird also schon in Kürze seine Muskeln spielen lassen, wenn sich wieder alle aufs Fahrrad schwingen.
Der Akku-Kompressor bietet ein Display, eine automatische Abschaltfunktion bei Erreichen des gewünschten Drucks und eine Memoryfunktion. Heißt: Der zuletzt genutzte Druck bleibt für den nächsten Einsatz eingestellt.
Zum Lieferumfang gehören neben dem Kompressor Adapter für die gängigsten Ventile. Akku und Ladegerät sind nicht enthalten, was aber kein Nachteil ist, da man den Akku-Kompressor mit den gängigen 18V-Akkus von Makita nutzt. Die hat der Heimwerker vermutlich schon im Sortiment. Alternativ wird man bei Amazon fündig .
Amazon wirft den Makita DMP181Z gerade für nur noch 86,06 Euro aus dem Lager. Der zweitgünstigste Shop unter den 59 Anbietern mit Vergleichsangeboten bei Geizhals nimmt zum Zeitpunkt der Recherche bereits 89,82 Euro. Dort kommen noch 6,49 Euro Versandkosten hinzu, während Amazon gratis liefert. Dem Preistracker Keepa zufolge zahlte man im 90-Tage-Mittel noch 96,02 Euro.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Mit HDMI 2.1 stehen bis zu 48 GBit/s an Datenrate parat, so dass es genügend Bandbreite gibt, um 4K-UHD mit 120 Hz im erweiterten Farbraum HDR darzustellen. Auch wer eine Soundbar mit 3D-Audio Dolby Atmos betreiben möchte, kann dies dank HDMI 2.1 bewerkstelligen, aber nur, wenn das HDMI-Kabel auch zuverlässig die notwendige Datenrate liefern kann. Um auf Nummer sicher zu gehen, gibt es zertifizierte Ultra-High-Speed-HDMI-Kabel. Aktuell verkauft Amazon ein solches zertifiziertes HDMI-2.1-Kabel im befristeten Angebot für unter 6 Euro.
Das Silkland-Kabel trägt die Ultra-High-Speed-Zertifizierung für HDMI 2.1 und unterstützt damit eine maximale Bandbreite von 48 GBit/s. Entsprechend sind Übertragungen mit bis zu 8K bei 60 Hz oder 4K bei 120 Hz möglich. Über eARC beziehungsweise ARC lassen sich zudem hochauflösende Tonformate wie Dolby Atmos oder DTS:X an kompatible Soundbars und AV-Receiver weiterreichen. Dynamisches HDR10 wird ebenfalls unterstützt. Das Kabel ist abwärtskompatibel zu älteren HDMI-Standards.
In den Amazon-Rezensionen wird vor allem das Preis-Leistungs-Verhältnis positiv hervorgehoben. Nutzer berichten von stabiler Signalübertragung ohne Bildaussetzer oder Artefakte – auch bei 4K mit hohen Bildraten. Mehrfach erwähnt werden die passgenauen Stecker sowie die robuste Verarbeitung mit Nylonummantelung und vergoldeten Kontakten.
Zum Zeitpunkt der Artikelerstellung verkauft Amazon das Silkland Ultra-High-Speed-HDMI-Kabel mit 2m für nur 5,91 Euro. Laut Keepa-Preishistorie gab es dieses Modell noch nie günstiger zu kaufen. Im Durchschnitt der vergangenen 90 Tage musste man einen Euro mehr investieren. Doch das aktuelle Bestpreis-Angebot gilt nur noch bis zum 16. Februar, wenn der Lagervorrat so lange reicht.
Reklame
Silkland HDMI 2.1 Kabel 2m, zertifiziertes HDMI-2.1-Kabel für eARC, 4K@120 Hz
Jetzt im befristeten Angebot zum BestpreisDieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Die neue Windows-11-Version 26H1 erscheint nur für Komplettsysteme mit neuen ARM-Prozessoren. Prozessoren von AMD oder Intel werden sie nie zu Gesicht bekommen.
Stellen Sie sich vor, es gibt eine neue Windows-11-Version, doch niemand kann sie bislang nutzen. Genau das ist just passiert: Microsoft hat am gestrigen 10. Februar Windows 11 in der frischen Variante 26H1 [1] [1] veröffentlicht. Doch die neue Version steht nicht der breiten Allgemeinheit zur Verfügung, sondern ist nur für Komplettsysteme mit neuen ARM-Prozessoren gedacht. Konkret nennt Microsoft derzeit einzig Qualcomms Snapdragon X2 als unterstützte Prozessorfamilie.
Details zu diesem Prozessor hat Qualcomm häppchenweise seit September 2025 veröffentlicht. Erste damit bestückte Notebooks wurden Anfang Januar 2026 auf der IT-Messe CES für März oder April angekündigt. Microsofts nun vermeldete Fertigstellung von Windows 11 26H1 bedeutet, dass die Notebookhersteller mit der Massenproduktion der Geräte starten können – denn dazu gehört ja auch eine Windows-Vorinstallation.
Uns wurde bereits auf der CES aus Herstellerkreisen bestätigt, dass Notebooks mit Snapdragon X2 (den es in Elite- und Plus-Varianten gibt) hardwareseitig fertig entwickelt sind, aber auf Windows 11 26H1 warten müssen. Bislang war unsere Vermutung, dass Microsoft den neuen Qualcomm-Systemen wieder einen zeitlichen Vorsprung gönnt: Im Frühsommer 2024 startete Windows 11 24H2 als Build 26000 exklusiv auf Notebooks mit der ersten Generation des Snapdragon X, weil zunächst nur diese eine NPU hatten, die stark genug für die neuen KI-Funktionen war, die Microsoft als Copilot+ vermarktet.
URL dieses Artikels:
https://www.heise.de/-11173094
Links in diesem Artikel:
[1] https://learn.microsoft.com/de-de/windows/whats-new/windows-11-version-26h1
Copyright © 2026 Heise Medien
Bernardo Cantz
(Bild: Adam bartosik / Shutterstock.com)
Römische Ärzte schworen auf ein Mittel, das heute undenkbar scheint – jetzt liefert eine 1.900 Jahre alte Flasche den ersten echten Beweis.
Menschliche Exkremente spielen in der Medizin heute durchaus eine Rolle. So erleben etwa Stuhltransplantationen einen regelrechten Hype in der medizinischen Forschung. Die Frage, der Wissenschaftler nachgehen: Kann das Übertragen von Darmbakterien bei Erkrankungen wie Depressionen oder Diabetes helfen?
Dass menschlicher Kot als Medizin [1] verwendet wird, ist allerdings nicht neu. So gibt es Berichte [2], dass die Fäkalien des Dalai Lama einst in Tibet auch eine Rolle in der Medizin spielten. Sie galten als besonders rein und heilsam und wurden wohl in Pillenform verabreicht.
Wie ein archäologischer Fund jetzt beweist [3], hatte das nicht nur in Asien Tradition, sondern auch im Römischen Reich. In der Türkei fanden Archäologen jetzt eine rund 1.900 Jahre alte Flasche, die chemische Spuren von menschlichem Kot enthält – vermischt mit Thymian gegen den Geruch.
Der Fund gilt als der erste handfeste Beweis dafür, dass "Medizin aus Kot" in der Antike nicht nur beschrieben, sondern tatsächlich hergestellt und verwendet wurde.
Griechisch-römische Ärzte wie Plinius der Ältere, Dioskurides und der berühmte Galen von Pergamon empfahlen in ihren Schriften Heilmittel auf Fäkalienbasis. Allein Galen erwähnt solche Rezepturen mindestens zwei Dutzend Mal [4].
Die Einsatzgebiete waren vielfältig: Entzündungen, Infektionen und wenn es mit dem Nachwuchs nicht klappen wollte.
Meist verwendete man Tierdung, doch Galen beschrieb auch den therapeutischen Wert von Kinderkot – vorausgesetzt, das Kind hatte eine bestimmte Diät aus Lupinenbohnen, Brot und Wein eingehalten.
Das Problem: Trotz dieser zahlreichen Textstellen fehlte jeder materielle Beweis. Niemand konnte sicher sagen, ob diese Rezepte jemals wirklich angerührt wurden – bis jetzt.
"Während meiner Arbeit in den Lagerräumen des Bergama-Museums fiel mir auf, dass einige Glasgefäße Rückstände enthielten", berichtet der Archäologe Cenker Atila [5] von der Sivas Cumhuriyet Universität.
Das fragliche Objekt ist ein sogenanntes Unguentarium – ein schlankes Glasfläschchen, das wie ein kleiner Kerzenständer aussieht. Solche Gefäße dienten typischerweise zur Aufbewahrung von Parfüm, Öl oder Kosmetik.
Dieses Exemplar stammte aus einem Grab in Pergamon, dem heutigen Bergama in der Westtürkei. Die Stadt war im 2. Jahrhundert ein Zentrum der römischen Medizin – und die Heimat Galens. Das Gefäß war mit Ton versiegelt.
Im Inneren fanden sich dunkelbraune, krustige Flocken. "Als wir das Unguentarium öffneten, gab es keinen üblen Geruch", so Atila. Die Substanz war schlicht übersehen worden.
Um das Rätsel zu lösen, zermahlten die Forscher die Probe [6] und analysierten sie mittels Gaschromatographie-Massenspektrometrie. Diese Methode zerlegt Substanzen in ihre chemischen Bestandteile wie ein molekularer Fingerabdruck.
Das Ergebnis war eindeutig: Die Rückstände enthielten Coprostanol und 24-Ethylcoprostanol. Diese Moleküle entstehen nur bei der Verdauung von Cholesterin im Darm – sie sind klassische Biomarker für Fäkalien.
Das Verhältnis der beiden Stoffe [7] zueinander deutete auf eine menschliche Quelle hin, auch wenn die Herkunft nicht mit absoluter Sicherheit bestimmt werden konnte.
Zusätzlich fanden die Wissenschaftler Carvacrol – eine aromatische Verbindung, die Thymianöl seinen charakteristischen Duft verleiht. Die antiken Ärzte hatten offenbar den Gestank maskiert, um die Akzeptanz bei ihren Patienten zu erhöhen.
"Diese Studie liefert den ersten direkten chemischen Beweis für die medizinische Verwendung von Fäkalien in der griechisch-römischen Antike", schreiben die Forscher in ihrer Veröffentlichung.
Der Fund zwingt Archäologen, Unguentaria neu zu bewerten. Diese kleinen Gefäße waren offenbar nicht nur Parfümflakons, sondern konnten auch komplexe therapeutische Substanzen enthalten.
In der antiken Welt verschwammen die Grenzen zwischen Kosmetik, Medizin und Ritual. Salben verwischten, so schreiben die Forscher, oft den Unterschied zwischen Heilung, Hygiene und Magie.
Der Geruch spielte dabei eine zentrale Rolle – als diagnostisches Zeichen, als therapeutisches Werkzeug und als soziale Herausforderung, die es zu überwinden galt.
Die Wissenschaftler fordern nun [8], ähnliche Kleinfunde systematischer auf "stigmatisierte" oder unerwartete Inhaltsstoffe zu untersuchen.
Die Parallelen zur modernen Medizin sind verlockend. Heute erforschen Wissenschaftler Stuhltransplantationen als Therapie für verschiedene Erkrankungen – von Darminfektionen bis hin zu neurologischen Leiden.
Doch die Methode hat ihre Tücken: Die Wirkung scheint nach etwa sechs Monaten nachzulassen. Zudem birgt das Verfahren Risiken – in seltenen Fällen kam es zu tödlichen Infektionen.
Ob Galen tatsächlich "etwas auf der Spur" war, wie manche spekulieren, bleibt fraglich. Kassandra Miller, Professorin für Klassische Philologie am Colby College, findet die Parallelen [9] "interessant und provokativ, aber auch weit hergeholt".
Denn die antiken Vorstellungen von Krankheit und Körper unterschieden sich grundlegend von unseren. Römische Ärzte kannten weder Bakterien noch das Mikrobiom. Ihre Rezepte folgten einer anderen Logik – einer, die wir heute erst wieder zu verstehen beginnen.
URL dieses Artikels:https://www.heise.de/-11173579
Links in diesem Artikel:[1] https://en.wikipedia.org/wiki/Use_of_human_faeces_in_traditional_medicine[2] https://brill.com/view/journals/jjs/12/3/article-p402_3.xml[3] https://www.sciencedirect.com/science/article/abs/pii/S2352409X26000246?via%3Dihub[4] https://www.sciencealert.com/ancient-romans-really-did-use-poop-as-medicine-we-just-got-the-first-real-proof[5] https://www.livescience.com/archaeology/romans/romans-used-human-feces-as-medicine-1-900-years-ago-and-used-thyme-to-mask-the-smell[6] https://phys.org/news/2026-02-poop-medicine-roman-vial-chemistry.html[7] https://cen.acs.org/analytical-chemistry/art-%26-artifacts/ancient-Roman-poop-poo/104/web/2026/01[8] https://www.anatolianarchaeology.net/pergamon-find-confirms-feces-based-medicine-was-practiced-in-roman-anatolia/[9] https://cen.acs.org/analytical-chemistry/art-%26-artifacts/ancient-Roman-poop-poo/104/web/2026/01
Copyright © 2026 Heise Medien
Matthias Lindner
(Bild: anatoliy_gleb / Shutterstock.com)
Ab 2027 könnte die Einspeisevergütung für neue Solaranlagen wegfallen. Wer jetzt handelt, sichert sich die Förderung für 20 Jahre.
Wer ein Einfamilienhaus besitzt und über eine Solaranlage nachdenkt, sollte nicht zu lange warten. Denn die Bundesregierung erwägt, die Einspeisevergütung für neue Photovoltaik-Anlagen ab 2027 zu streichen.
Betreiber, die ihre Anlage noch 2026 in Betrieb nehmen, können sich die staatliche Förderung für zwei Jahrzehnte sichern.
Wer eine Solaranlage auf dem Dach hat, verbraucht einen Teil des erzeugten Stroms selbst. Der Rest fließt ins öffentliche Netz.
Für diesen überschüssigen Strom zahlt der Staat eine feste Vergütung. Bei Anlagen bis zehn Kilowatt-Peak beträgt sie derzeit 7,78 Cent pro Kilowattstunde. Diese Summe bleibt für 20 Jahre garantiert.
Das Verbraucherportal Finanztip hat ausgerechnet, dass die Einnahmen immerhin auf mehr als 8.200 Euro summieren können. Die Beispielrechnung dazu:
Ein Haushalt mit einem Stromverbrauch von 3.500 Kilowattstunden pro Jahr installiert eine Anlage mit acht Kilowatt-Peak Leistung. Dazu kommt ein Speicher mit fünf Kilowattstunden Kapazität. Diese Kombination bringt etwa 412 Euro Einspeisevergütung im Jahr.
Über die gesamte Förderdauer von 20 Jahren ergibt das die angegebene Summe von mehr als 8.200 Euro.
Doch diese Förderung will Wirtschaftsministerin Katherina Reiche (CDU) abschaffen. Laut Finanztip geht das aus Plänen ihres Ministeriums hervor.
Reiches Haltung zur Einspeisevergütung ist aber nicht neu. Schon im vergangenen Jahr hat sie sich entsprechend geäußert – und erntete dafür reichlich Kritik aus der Solarbranche.
Sie erklärte damals [1], dass eine Förderung nicht mehr notwendig sei, da die Kosten für Solaranlagen stark gesunken seien. Stattdessen sollten Betreiber kleiner Dachanlagen ihren Strom künftig selbst am Markt verkaufen.
Aber es gibt noch einen anderen Grund für die geplante Änderung: Viele kleine Anlagen speisen ihren Strom unkontrolliert ins Netz ein. An sonnigen Tagen mit wenig Verbrauch kann das zum Problem werden. Das geht aus einem Monitoringbericht des Ministeriums hervor, berichtete die [2] Frankfurter Rundschau.
Eine mögliche Lösung sieht das Ministerium deshalb darin, dass neue Anlagen mit Speichern ausgestattet und steuerbar sind [3].
Benjamin Weigl, Energieexperte bei Finanztip, schätzt die Lage so ein: "Aktuell müssen wir davon ausgehen, dass es für Hausbesitzer ab 2027 deutlich komplizierter wird, eine rentable Photovoltaik-Anlage zu errichten."
Bei der Direktvermarktung [4] bekommen Anlagenbetreiber den aktuellen Marktpreis [5] für ihren Strom. Dieser lag 2025 im Durchschnitt bei etwa 4,5 Cent pro Kilowattstunde. Davon gehen noch Kosten für die Vermarktung ab. Am Ende bleiben nur rund 3,8 Cent pro Kilowattstunde übrig.
Was bedeutet das in Euro? Der Beispielhaushalt aus der Finanztip-Rechnung würde über 20 Jahre mehr als 4.000 Euro weniger einnehmen. Und dabei geht die Rechnung von niedrigen Vermarktungskosten aus.
Weigl warnt: "Sollten Haushalte eigenständig einen Direktvermarkter beauftragen müssen, könnten die Kosten – insbesondere bei kleinen Anlagen – noch deutlich höher ausfallen."
Der Bundesverband Solarwirtschaft lehnt die Pläne ab. Das erklärte er bereits im vergangenen Jahr. Eine Umsetzung würde die Klimaziele [6] des Landes gefährden. Außerdem stünden rund 150.000 Arbeitsplätze in der Branche auf dem Spiel. Der Verband forderte verlässliche Bedingungen für Investitionen in Solaranlagen.
Auch Verbraucherschützer kritisieren den Vorstoß. Ramona Pop leitet den Bundesverband der Verbraucherzentralen. Sie betonte kürzlich gegenüber der Rheinischen Post: "Private Haushalte leisten mit Photovoltaikanlagen auf dem eigenen Dach bereits heute einen wichtigen Beitrag zum Gelingen der Energiewende." Die Einspeisevergütung sollte nicht ersatzlos gestrichen, sondern weiterentwickelt werden.
Wer seine Anlage noch vor einer möglichen Gesetzesänderung ans Netz bringt, behält den Anspruch auf die Einspeisevergütung.
Allerdings gibt es eine Hürde, die viele übersehen. Die Anmeldung der Anlage [7] beim Netzbetreiber reicht allein nicht aus. Betreiber müssen zusätzlich schriftlich erklären, dass sie die Einspeisevergütung erhalten möchten.
Ohne diese separate Mitteilung zahlt der Netzbetreiber kein Geld für den eingespeisten Strom. Eine nachträgliche Korrektur ist nicht möglich.
URL dieses Artikels:https://www.heise.de/-11173194
Links in diesem Artikel:[1] https://www.fr.de/wirtschaft/solarenergie-subvention-koennte-wegfallen-es-droht-der-komplette-stillstand-zr-93878730.html[2] https://www.fr.de/wirtschaft/einspeiseverguetung-fuer-solarstrom-sinkt-was-das-fuer-pv-besitzer-bedeutet-94148437.html[3] https://www.heise.de/tp/article/Smart-Meter-Rollout-Deutschland-wagt-den-Neustart-10296638.html[4] https://www.heise.de/tp/article/Unsichtbare-Hand-des-Strommarktes-Merit-Order-im-Detail-erklaert-9577502.html[5] https://www.heise.de/tp/article/Wie-entsteht-der-Strompreis-in-Deutschland-7322809.html[6] https://www.heise.de/tp/article/Gericht-zieht-klare-Grenze-Klimaziele-sind-keine-Absichtserklaerungen-11167560.html[7] https://www.telepolis.de/article/PV-Anlage-anmelden-Dieser-Fehler-kostet-Hunderte-Euro-jaehrlich-11122954.html
Copyright © 2026 Heise Medien
Connor Echols
Donald Trump und Xi Jinping
(Bild: carlos110/Shutterstock.com)
Donald Trump irritiert die China-Hardliner mit seinem neuen Kurs. Der US-Präsident setzt verstärkt auf Deals mit Peking. Was will er erreichen? Ein Gastbeitrag.
Seit der Rückkehr von Präsident Donald Trump ins Weiße Haus vor einem Jahr sind die China-Falken in Aufruhr geraten. Führende Köpfe der US-Politik gegenüber Peking warnen nun, Trump steuere "mit Volldampf [1] auf einen schlechten Deal" mit der Kommunistischen Partei Chinas zu.
Matthew Pottinger, ein zentraler Architekt von Trumps China-Politik in dessen erster Amtszeit, argumentiert, der Präsident habe Peking durch seine "verwirrenden" politischen Entscheidungen in eine "komfortable Lage" gebracht.
Unser Gastautor Connor Echols
(Bild: RS [2])Selbst einige Republikaner im Kongress haben Trumps Ansatz kritisiert, insbesondere nach seiner Entscheidung im Dezember, den Verkauf leistungsstarker KI-Chips von Nvidia an China [3] zu erlauben. "Die KPCh wird diese hochentwickelten Chips nutzen, um ihre militärischen Fähigkeiten und ihre totalitäre Überwachung zu stärken", argumentierte [4] der Abgeordnete John Moolenaar (Republikaner, Michigan), der dem einflussreichen Sonderausschuss für den Wettbewerb mit China vorsitzt.
Aus dieser Welle der Kritik hat sich ein gängiges Narrativ herausgebildet: Indem Trump auf Abkommen mit Peking setzt, verabschiede er sich vom parteiübergreifenden China-Konsens, den er in seiner ersten Amtszeit selbst mitgeprägt habe. Mit anderen Worten: Der Präsident sei gegenüber China weich geworden.
Doch die Realität ist komplexer, als dieses Narrativ nahelegt. Eine genaue Betrachtung von Trumps China-Politik in seiner zweiten Amtszeit deutet laut außenpolitischen Realisten, mit denen RS gesprochen hat, darauf hin, dass der Präsident gegenüber Peking einen realistischen, wenn auch unkoordinierten Ansatz verfolgt.
Das kann einige unbequeme Zugeständnisse einschließen, etwa die Lockerung von Beschränkungen beim Verkauf von KI-Chips oder eine gemäßigtere Rhetorik beim Schutz Taiwans. Es bedeutet jedoch nicht, dass Trump im Begriff steht, Asien Pekings Einflusssphäre zu überlassen, wie einige Falken nun befürchten.
Die Gründe für diese scheinbare Verschiebung sind vielfältig. Einerseits entspricht sie Trumps langjähriger Vorliebe für Deals sowie seinem offenkundigen Respekt für Chinas wirtschaftliche Dynamik. Andererseits hat sich die geopolitische Realität tatsächlich verändert. China hat erheblichen Einfluss gegenüber den USA aufgebaut und die Trump-Regierung hat sich entschieden, diese Tatsache anzuerkennen.
Indem Trump diese Realität anerkennt, schafft er die Möglichkeit, nützliche Kompromisse mit Peking zu verfolgen und die Wahrscheinlichkeit eines katastrophalen Konflikts zu verringern. "Wir sprechen hier von zwei nuklearen Supermächten", sagte Lyle Goldstein, Direktor des Asia Program bei Defense Priorities. "Wir wollen mehr gegenseitige Abhängigkeit, nicht weniger."
Zu Beginn seiner zweiten Amtszeit schien Trump bereit, einen noch härteren Kurs gegenüber China einzuschlagen. Wenige Tage nach seinem Amtsantritt verhängte der Präsident einen Zoll von 10 Prozent auf chinesische Waren, der bis April auf 145 Prozent anstieg.
Doch dann geschah etwas Bemerkenswertes: China konterte. Die chinesischen Behörden kündigten an, die Ausfuhr seltener Erden in die USA zu beschränken – Rohstoffe, die für die Herstellung der meisten modernen Technologien unverzichtbar sind. Bald darauf riefen amerikanische Manager in Panik im Weißen Haus an und warnten [5], die neuen chinesischen Beschränkungen würden sie zwingen, Fabriken stillzulegen – wie es Ford und Suzuki kurz darauf taten.
"Das könnte eine sehr eindrückliche Lektion für den Präsidenten gewesen sein", sagte Goldstein. Trump habe sich offenbar auf Berater gestützt, die glaubten, die USA hätten in der Beziehung zu China "alle Trümpfe in der Hand" und Peking würde unter Druck nachgeben. "Ich muss davon ausgehen, dass der Präsident begann, die China-Ratschläge, die er erhielt, infrage zu stellen", so Goldstein gegenüber RS.
Kurz darauf begann der Präsident, sein außenpolitisches Team neu aufzustellen. Trump drängte Falken wie den ehemaligen Nationalen Sicherheitsberater Mike Waltz und dessen Stellvertreter Alex Wong an den Rand. Im Zuge einer umfassenden Umstrukturierung der nationalen Sicherheitsbürokratie entließ [6] er zudem erfahrene China-Experten im Nationalen Sicherheitsrat und im Außenministerium.
Diese Neuausrichtung scheint realistische Denker in Trumps Umfeld gestärkt zu haben. Der Unterstaatssekretär für Verteidigungspolitik, Elbridge Colby, überstand die Umstrukturierung und vertritt [7] nun die Ansicht, dass die USA "unnötige Konfrontationen" vermeiden und eine "stabile, friedliche Beziehung" zu China anstreben sollten.
Andy Baker, der als ideologischer Verbündeter Colbys gilt, übernahm Wongs Posten im Nationalen Sicherheitsrat. Andrew Byers, der sich 2024 für einen sorgfältig austarierten "kalten Frieden" zwischen den USA und China aussprach [8], behielt eine einflussreiche Rolle als stellvertretender Verteidigungsstaatssekretär für Süd- und Südostasien.
Mit diesem neu aufgestellten Team verfolgt Trump einen weniger konfrontativen Ansatz. So kündigte er an [9], dass Nvidia hochwertige (wenn auch nicht die modernsten) KI-Chips an chinesische Unternehmen verkaufen dürfe, sofern die US-Regierung an den Gewinnen beteiligt werde.
Zudem verzögerte das Weiße Haus den erzwungenen Verkauf von TikTok und nahm seine Drohung zurück, Visa für chinesische Studierende an US-Universitäten zu streichen, was viele Falken als Sicherheitsrisiko betrachten. Außerdem begann Trump, die Möglichkeit eines "großen Deals" mit Peking anzupreisen.
China-Hardliner deuten diese Schritte als Bereitschaft, zentrale US-Interessen in Ostasien preiszugeben. Doch ihre Befürchtungen sind überzogen, meint John Mearsheimer, ein prominenter Vertreter des Realismus in der Politikwissenschaft an der Universität Chicago. Trump "ist entschlossen, China einzudämmen", sagte er gegenüber RS. "Das bedeutet, dass er nicht will, dass China Ostasien dominiert."
Als Beleg dafür verwies Mearsheimer auf Trumps Nationale Sicherheitsstrategie und Nationale Verteidigungsstrategie. In beiden wird der Wunsch der Regierung betont, eine chinesische Invasion Taiwans abzuschrecken, wenngleich zunächst US-Interessen in der westlichen Hemisphäre im Vordergrund stehen. Trump verwende "eine weniger konfrontative Rhetorik, was ich durchaus begrüße", fügte Mearsheimer hinzu.
"Aber wenn man sich die tatsächliche Politik anschaut, hat sich nichts von wirklicher Bedeutung geändert." (Wie Goldstein anmerkte, hat Trump keine wesentlichen Änderungen an der amerikanischen Militärpräsenz in Ostasien vorgenommen, die weitgehend darauf ausgerichtet ist, chinesische Ambitionen in der Region einzudämmen.)
Dennoch steht außer Zweifel, dass es den republikanischen Falken in den ersten Monaten von Trumps zweiter Amtszeit schwerfällt, Einfluss zu gewinnen, sagte Paul Heer, ehemaliger leitender US-Geheimdienstanalyst für Ostasien. Wie Heer es formulierte, haben die Hardliner "ein Jahr nach Beginn der Amtszeit noch keine Ahnung, wie stark ihre Stimme in dieser Regierung ist".
Die China-Falken werten Trumps Bereitschaft zu Abkommen mit Peking als Beleg dafür, dass er auf eine Art großen historischen Kompromiss zusteuert. Im schlimmsten Fall, so ihre Befürchtung, werde die Regierung Taiwan im Zuge einer umfassenderen Entspannungspolitik gegenüber China fallenlassen. Diese Sorgen haben sich im Vorfeld eines für April erwarteten Treffens zwischen Trump und dem chinesischen Präsidenten Xi Jinping noch verstärkt.
Doch es gibt kaum Anzeichen dafür, dass ein solcher Deal bevorsteht. Wie Heer betonte, würde ein solcher Kompromiss ein außergewöhnliches Maß an Geduld und Beharrlichkeit erfordern – zwei Eigenschaften, die man Trump nur selten zuschreibt.
Zudem gibt es in Ostasien eine reale Divergenz zwischen amerikanischen und chinesischen Interessen, was eine dauerhafte Entspannung unwahrscheinlich macht, so Mearsheimer. "Wenn ich Nationaler Sicherheitsberater in Peking wäre, würde ich Xi Jinping raten, alles zu tun, um Ostasien zu dominieren", sagte er.
"Jegliche kooperativen Vereinbarungen zwischen Xi und Trump sind sicherlich zu begrüßen", fuhr Mearsheimer fort. "Aber man sollte stets bedenken, dass jede kooperative Vereinbarung im Schatten eines intensiven sicherheitspolitischen Wettbewerbs zwischen diesen beiden Staaten steht."
Selbst solche begrenzten Abkommen können konkrete Vorteile für die USA bringen. So erklärte sich China beispielsweise nach dem Treffen zwischen Trump und Xi im Oktober des vergangenen Jahres bereit, härter gegen den Export von Vorläuferchemikalien vorzugehen, die mexikanische Kartelle zur Herstellung von Fentanyl verwenden. Eine anhaltende Entspannung könnte zudem den Weg für Abkommen ebnen, die Handelsmöglichkeiten für amerikanische Unternehmen erweitern und Kommunikationskanäle für potenzielle Krisen ausbauen.
Um einen solchen "kalten Frieden" zu ermöglichen, empfahl Goldstein, Trump und Xi sollten eine regelmäßige Reihe von Treffen etablieren, um zentrale Fragen zu erörtern. "Dieser Gipfel im April ist längst überfällig", sagte er. "Wir sollten ein bilaterales Gipfelformat institutionalisieren. Das sollte etwas ganz Normales sein."
Connor Echols ist Reporter für Responsible Statecraft. Zuvor war er Chefredakteur des NonZero-Newsletters.
Dieser Text erschien zuerst bei unserem Partnerportal Responsible Statecraft [10] auf Englisch
URL dieses Artikels:https://www.heise.de/-11172562
Links in diesem Artikel:[1] https://www.aei.org/op-eds/going-soft-on-china-could-be-a-hard-lesson/[2] https://responsiblestatecraft.org/author/cechols/[3] https://www.heise.de/tp/article/H200-Chips-fuer-China-Nvidia-erhaelt-kontrollierten-Marktzugang-11134432.html[4] https://thehill.com/policy/technology/5641526-trump-nvidia-china-chips-republican-concerns/[5] https://www.nytimes.com/2025/07/20/us/politics/trump-china-technology.html#google_vignette[6] https://www.npr.org/2025/07/24/nx-s1-5477523/state-department-cuts-china-experts[7] https://www.war.gov/News/Speeches/Speech/Article/4389207/remarks-by-under-secretary-of-war-for-policy-elbridge-colby-at-the-sejong-insti/[8] https://www.theamericanconservative.com/a-cold-peace-with-china/[9] https://finance.yahoo.com/news/trump-approved-nvidias-h200-china-213116066.html[10] https://responsiblestatecraft.org/trump-china-hawks/
Copyright © 2026 Heise Medien
(Bild: heise online / dmk)
Microsoft kündigt zwei neue Sicherheitsinitiativen für Windows an: Baseline Security Mode und User Transparency and Consent sollen Nutzer besser schützen.
Microsoft hat zwei neue Sicherheitsinitiativen für Windows angekündigt. Konkret sollen „Windows Baseline Security Mode“ und „User Transparency and Consent“ das Betriebssystem künftig besser vor unerwünschten Änderungen durch Anwendungen – also Schadsoftware – schützen.
Die Neuerungen sind Teil der unternehmensweiten Secure Future Initiative [1] (SFI) und der Windows Resiliency Initiative [2]. Laut Microsoft sollen Anwendungen nicht mehr ohne Wissen der Nutzer deren Einstellungen überschreiben, zusätzliche Software installieren oder Kernfunktionen des Betriebssystems ändern.
Der Windows Baseline Security Mode aktiviert Runtime-Integritäts-Safeguards standardmäßig. Das System lässt dann nur noch signierte Anwendungen, Dienste und Treiber zu. Das soll vor Manipulationen oder unbefugten Änderungen schützen. Nutzer und IT-Administratoren können bei Bedarf Ausnahmen definieren. Entwickler sollen APIs erhalten, um den Status der Schutzfunktionen abzufragen und auf Exceptions zu prüfen.
Die zweite Initiative, User Transparency and Consent, führt Zustimmungsabfragen ein – ähnlich wie man sie von Smartphones kennt. Windows fragt künftig also nach, wenn Apps auf sensible Ressourcen wie das Dateisystem, die Kamera oder das Mikrofon zugreifen wollen. Auch die Installation unerwünschter Software soll nicht mehr ohne explizite Zustimmung möglich sein. Nutzer können ihre Entscheidungen jederzeit überprüfen und ändern.
Microsoft plant eine schrittweise Einführung der neuen Security-Maßnahmen – laut Ankündigung [3] in Partnerschaft mit Entwicklern, Unternehmen und Partnern. Zunächst sollen Nutzer und IT-Abteilungen bessere Einblicke in App-Zugriffe erhalten. Parallel werden Tools und APIs für Entwickler bereitgestellt. Wie genau der Zeitplan aussieht, ist aktuell noch nicht bekannt.
URL dieses Artikels:
https://www.heise.de/-11172890
Links in diesem Artikel:
[1] https://www.heise.de/news/Microsoft-will-IT-Security-besser-machen-und-startet-Secure-Future-Initative-9352878.html
[2] https://www.heise.de/news/Windows-11-Security-Updates-fuer-das-sicherste-Betriebssystem-der-Welt-10057468.html
[3] https://blogs.windows.com/windowsexperience/2026/02/09/strengthening-windows-trust-and-security-through-user-transparency-and-consent/
[4] https://www.heise.de/ix
[5] mailto:fo@heise.de
Copyright © 2026 Heise Medien
(Bild: Superstar/Shutterstock.com)
Das Bundesamt fordert, klassische asymmetrische Verschlüsselungsverfahren ab 2032 nur noch in Kombination mit Post-Quanten-Kryptographie einzusetzen.
Das Bundesamt für Sicherheit in der Informationstechnik empfiehlt, sich in Zukunft nicht mehr allein auf klassische asymmetrische Verschlüsselung zu verlassen und quantensichere Verfahren zu nutzen. Entsprechende Handlungsempfehlungen enthält die jährliche Aktualisierung der technischen Richtlinie TR-02102. Entwickler und Anwender von Kryptosystemen müssen allerdings nicht alles stehen- und liegenlassen: Das BSI setzt einen Zeitrahmen bis 2031.
Nicht ob und wann Quantencomputer [1] traditionelle Verschlüsselungsverfahren bedrohten, stehe zur Sicherheitsbetrachtung im Vordergrund, schreibt das BSI. Es gebe Standardverfahren, deshalb solle die Migration zu Post-Quanten-Kryptografie vorangetrieben werden. In seiner 2026er-Ausgabe der Technischen Richtlinie 02102-1, „Kryptographische Verfahren: Empfehlungen und Schlüssellängen“, spiegelt sich diese Einschätzung nun erstmals wider. In TR02102-1 [2]heißt es nun:
Der alleinige Einsatz von klassischen Schlüsseleinigungsverfahren wird nur noch bis Ende 2031 empfohlen, siehe auch Abschnitt 2.3. Für Anwendungen mit sehr hohem Schutzbedarf sollte die Umstellung bereits bis Ende 2030 erfolgen. Dies geht aus einer gemeinsamen Empfehlung des BSI und europäischen (sic) Partnerbehörden hervor.
Wohlgemerkt: Zunächst geht es um die Schlüsseleinigung, also die Aushandlung einer sicheren Verbindung. Die Zeitpläne für andere Verschlüsselungsfunktionen sehen anders aus – digitale Signaturen etwa sollten erst ab 2036 auf hybride Verfahren umgestellt sein. Die Empfehlung bezieht sich nur auf die Kombination von PQC- mit einem klassischen Verfahren. Der alleinige Einsatz von PQC anstelle von RSA & Co wird nicht erwähnt.
Die Technische Richtlinie 02102 hat zunächst lediglich Empfehlungscharakter, wird jedoch häufig von anderen Richtlinien herangezogen und entfaltet in deren Geltungsbereich auch quasi-normativen Charakter. Das BSI nennt hier die Verarbeitung von Verschlusssachen, aber auch die TR-03161 [3] verpflichtet Anwendungen im Gesundheitswesen zur Beachtung von TR-02102.
BSI-Präsidentin Plattner sieht den Schritt als großen Wurf: „Mit der Abkündigung der klassischen Verschlüsselungsverfahren setzen wir neue Maßstäbe“. Die Migration auf PQC sei „alternativlos“, sagt die Amtsleiterin weiter. Doch prescht das Bundesamt nicht im Alleingang vor – die EU-Kommission hat einen unionsweiten Zeitplan [4] für die Umstellung auf quantensichere Verschlüsselung.
Die TR-02102 [5] besteht aus vier Teilen, die von grundlegenden Empfehlungen über Transport Layer Security (TLS), den Protokollen IPsec und IKEv2 bis hin zu einer Handreichung zum Einsatz von SSH reichen. Die Aktualisierung erstreckt sich auf alle Teilbereiche – so ergibt sich aus der Empfehlung hybrider Verfahren auch eine Abkündigung von TLS 1.2, das derlei nicht unterstützt.
Beim Übergang zu quantensicherer Verschlüsselung unterstützt das Unternehmen mit weiteren Leitfäden und Handlungsempfehlungen, die es auf einer Themenseite [6] gesammelt bereitstellt.
URL dieses Artikels:
https://www.heise.de/-11172624
Links in diesem Artikel:
[1] https://www.heise.de/thema/Quantencomputer
[2] https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/Publikationen/TechnischeRichtlinien/TR02102/BSI-TR-02102.pdf?__blob=publicationFile&v=14
[3] https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/Publikationen/TechnischeRichtlinien/TR03161/BSI-TR-03161-2.pdf?__blob=publicationFile&v=10
[4] https://digital-strategy.ec.europa.eu/en/library/coordinated-implementation-roadmap-transition-post-quantum-cryptography
[5] https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Standards-und-Zertifizierung/Technische-Richtlinien/TR-nach-Thema-sortiert/tr02102/tr02102_node.html
[6] https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Quantentechnologien-und-Post-Quanten-Kryptografie/quantentechnologien-und-quantensichere-kryptografie_node.html
[7] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[8] mailto:cku@heise.de
Copyright © 2026 Heise Medien