Der Epic Games Store baut seinen Launcher um und bietet weitere Gratis-Spiele. Store-Chef Steve Allison spricht außerdem über die Pläne auf Konsolen.
Das Ökosystem von Epic GamesBild:
Epic Games
Der Epic Games Store hat 2025 bei Drittanbieter-Spielen einen neuen Höchststand erreicht. Laut dem aktuellen Year in Review stieg der Umsatz mit Third-Party-Titeln um 57 Prozent auf rund 400 Millionen US-Dollar. Im Vorjahr hatte Epic hier noch rund 217 Millionen US-Dollar ausgewiesen.
Besonders bemerkenswert ist das Wachstum vor dem Hintergrund, dass immer mehr große Spiele ihre eigenen Bezahlsysteme im Store nutzen. Inzwischen entfallen rund 35 Prozent der Spielzeit bei Drittanbietern auf Titel, bei denen Epic keine In-App-Umsätze abrechnet.
Dazu zählen große Live-Service-Spiele wie Valorant, Marvel Rivals oder auch Sporttitel von Electronic Arts. Diese Einnahmen tauchen in der offiziellen Statistik nicht auf, bremsen also rechnerisch sogar das ausgewiesene Wachstum.
Trotzdem legte auch die Nutzung zu. Knapp 2,78 Milliarden Stunden verbrachten die Spieler 2025 in Third-Party-Games – ein Plus von vier Prozent. Insgesamt erreichte der Epic Games Store auf dem PC zeitweise 78 Millionen monatlich aktive Nutzer und verzeichnete wachsende Ausgaben über ein zunehmend breites Spieleangebot hinweg.
Ein zentraler Wachstumstreiber bleibt das Free-Games-Programm. Im vergangenen Jahr verschenkte Epic 100 teils hochkarätige Spiele wie Hogwarts Legacy oder The Callisto Protocol.
77 Prozent dieser Titel erreichten während der Gratiswoche neue Rekorde bei der Anzahl gleichzeitig aktiver Spieler. Gleichzeitig zeigte sich ein deutlicher Halo-Effekt auf anderen Plattformen: Auf Steam stiegen die Spielerzahlen der betroffenen Titel im Schnitt um rund 40 Prozent, solange die Spiele im Epic Games Store kostenlos verfügbar waren.
Epic Games versteht das Programm nach eigenen Angaben längst nicht mehr nur als Werbung für seinen Store, sondern als wichtiges Marketinginstrument, das Reichweite, Bindung und Aufmerksamkeit für Entwickler schafft.
Parallel investiert Epic massiv in die technische Basis und neue Vertriebsmodelle. Der Launcher auf dem PC wird derzeit komplett neu aufgebaut. Künftig sollen Ladezeiten deutlich sinken, der Ressourcenverbrauch reduziert und die Bedienung insgesamt spürbar schneller werden. Die Veröffentlichung der neuen Architektur ist für die kommenden Monate geplant.
Zudem will Epic die Reichweite von Fortnite stärker für den Store nutzen. Über spezielle Aktionen erhalten Käufer bestimmter Spiele kosmetische Inhalte in Fortnite, was in ersten Tests zu teils extremen Umsatzsteigerungen geführt haben soll. Dieses Programm soll 2026 deutlich ausgeweitet werden.
Hinzu kommen neue Social-Funktionen wie plattformübergreifender Text- und bald auch Voice-Chat sowie der weitere Ausbau des mobilen Epic Games Store. Auf iOS startet Epic in Japan und Brasilien, begleitet von neuen Self-Publishing-Tools, die den Katalog schneller wachsen lassen sollen.
Vor diesem Hintergrund sprach Golem mit Steve Allison, General Manager des Epic Games Store, über die Zahlen, die mobile Expansion und die langfristige Ausrichtung der Plattform.
Golem: Der Umsatz mit Drittanbieter-Spielen ist in einem Jahr um 57 Prozent gewachsen, das für die Branche insgesamt nicht besonders stark war. Was hat dieses Wachstum angetrieben?
Steve Allison: Ein wichtiger Faktor war Epic Rewards, das wir 2023 eingeführt haben und das inzwischen Wirkung zeigt. Wir haben außerdem mit zeitlich begrenzten Boosts experimentiert, bei denen Spieler besonders attraktive Rückvergütungen bekommen konnten.
Dazu kamen die ersten Tests mit Fortnite-Partnerschaften, die den Verkauf von Spielen im Store spürbar angeschoben haben. Und schließlich haben einige große Entwickler unsere Plattform stärker in ihr Marketing eingebunden und gezielt auf den Epic Games Store verwiesen – mit sehr guten Ergebnissen.
Golem: Der Epic Games Store ist inzwischen auch auf mobilen Plattformen verfügbar. Was waren die wichtigsten Lehren aus dem bisherigen Rollout?
Allison: Kurz gesagt: Es ist schwierig. Es gibt nach wie vor viele Hürden, vor allem in Europa. Aber Epic ist dafür bekannt, neue Wege zu gehen und sich durch diese Herausforderungen durchzuarbeiten.
Wir haben mittlerweile fast 50 Millionen Downloads der mobilen Apps erreicht und werden weiter stark investieren. In der ersten Jahreshälfte kommen Self-Publishing-Tools für Mobile, so dass wir nicht mehr alles kuratieren müssen. Das wird den Katalog deutlich schneller wachsen lassen.
Golem: Gibt es Unterschiede bei der Einführung in Japan und Brasilien im Vergleich zu Europa?
Allison: Wir folgen dem gleichen Playbook wie in Europa. Die Rahmenbedingungen und Konditionen sind je nach Region unterschiedlich, aber das Prinzip bleibt gleich. Wir gehen in den Markt, arbeiten eng mit Entwicklern zusammen und sorgen dafür, dass ihre Inhalte verfügbar werden.
Golem: Viele Spieler würden den Epic Games Store gern auch auf Konsolen sehen. Gibt es dazu konkrete Pläne?
Allison: Wir würden das sehr gerne – und Tim Sweeney übrigens auch. Wir wissen, dass es Teil der Vision von Xbox für die nächste Konsolengeneration ist, PC-Stores wie Steam oder den Epic Games Store auf der Konsole zuzulassen. Solange das der Fall ist, planen wir definitiv, dort präsent zu sein.
Golem: Die kostenlosen Spiele sind nach wie vor ein Markenzeichen des Stores. Wird sich an dem Programm etwas ändern?
Allison: Aus unserer Sicht ist das Programm im Grunde unser Marketingbudget. Der Einfluss auf die Nutzerbindung ist enorm – wir liegen im Schnitt bei über 72 Prozent Retention. Dazu kommt jede Woche redaktionelle Berichterstattung, die Sichtbarkeit und SEO-Effekte bringt. Ich sehe keinen Grund, daran in absehbarer Zeit etwas zu ändern.
Golem: Wie stehen Sie zu Spiele-Abos wie Game Pass?
Allison: Wir unterstützen Abos bereits – zum Beispiel EA Play, das wir technisch mit aufgebaut haben. Wir wären sehr froh, wenn Microsoft Game Pass für PC in den Epic Games Store bringen würde, und genauso offen sind wir für andere Abo-Modelle. Wir sprechen dazu regelmäßig mit den Anbietern.
Bild 1/1: Kennzahlen Epic Games Store (Grafik: Epic Games)
Golem: Die Hardwarepreise im PC-Bereich steigen, etwa bei Speicher oder Grafikkarten. Könnte das das Wachstum von PC-Plattformen bremsen?
Allison: Ich glaube nicht. Als wir gestartet sind, hatte Steam etwa sechs bis acht Millionen monatlich aktive Nutzer, heute sind es rund 140 Millionen. Wir selbst liegen inzwischen ebenfalls bei sechs bis acht Millionen im Schnitt. PC-Gaming wächst also sehr stark.
Es gibt zwar Veränderungen in der Branche, aktuell sehen wir eine Verschiebung hin zu PC und Mobile, vielleicht zulasten der Konsolen. Höhere Hardwarepreise könnten den Kauf neuer PCs etwas verlangsamen, aber den Konsum von Spielen sehe ich davon kurzfristig nicht betroffen.
Die GPUs sind seit Jahren sehr leistungsfähig. Teilweise stärker als die aktuellen Konsolen. Wie sich das mit der nächsten Konsolengeneration entwickelt, bleibt abzuwarten, aber insgesamt steht PC-Gaming aus meiner Sicht sehr gut da.
Der Heizlüfter von Dreo setzt auf leise Keramiktechnik, Thermostat und Sicherheitsfunktionen und fällt derzeit unter die 50-Euro-Marke.
Heizlüfter von Dreo für nur 46,74 EuroBild:
amazon.de/dreo
Wenn es um kompakte Heizgeräte geht, sind die Erwartungen meist klar: Es soll schnell warm werden, die Bedienung unkompliziert sein und das Ganze darf weder laut noch nervig wirken. Genau in diesem Spannungsfeld positioniert sich der Heizlüfter von Dreo. Laut Hersteller ist er nicht als brachiale Zusatzheizung gedacht, sondern als gezielt einsetzbares Gerät, das Wärme dort liefert, wo sie gebraucht wird, ohne großes Aufsehen.
Wärme, die nicht lange braucht
Im Inneren arbeitet ein Hyperamics-PTC-System mit 1.500 Watt Leistung. Das bedeutet vor allem eines: kurze Reaktionszeit. Unterstützt wird das durch ein neues Wärmetrichter-Design, das die warme Luft weiter und gleichmäßiger im Raum verteilen soll als bei klassischen Heizlüftern. Dreo spricht von einer bis zu 200 Prozent größeren Reichweite gegenüber klassischen Heizlüftern, bei denen sich die warme Luft weniger weit im Raum verteilt. Der Ansatz ist dabei eher funktional als spektakulär. Statt punktueller Hitze direkt vor dem Gerät soll sich die Wärme spürbar im Raum verteilen.
Heizlüfter haben nicht den besten Ruf, wenn es um Sicherheit geht. Dreo versucht, dieses Thema möglichst nüchtern zu lösen. Laut Hersteller kommt ein verbesserter Neigungssensor zum Einsatz, der das Gerät bei einem Umkippen zuverlässig abschaltet. Hinzu kommen flammhemmende Materialien nach V0-Standard sowie ein integrierter Überhitzungsschutz. Ergänzt wird das durch einen Sicherheitsstecker. Das Ergebnis ist ein Sicherheitskonzept, das im Hintergrund arbeitet und keine permanente Aufmerksamkeit einfordert.
Temperatur mit etwas Feingefühl
Statt einfacher Stufen setzt Dreo auf eine feinere Regelung. Der verbaute NTC-Chipsatz erlaubt laut Hersteller Temperatureinstellungen zwischen 5 und 35 Grad Celsius in Ein-Grad-Schritten. Das verändert die Nutzung spürbar. Der Heizlüfter läuft nicht dauerhaft auf hoher Leistung, sondern hält eine eingestellte Zieltemperatur möglichst konstant. Das wirkt kontrollierter und vermeidet unnötige Leistungsspitzen.
Ein Punkt, der bei Heizlüftern schnell unterschätzt wird, ist die Lautstärke. Dreo gibt hier lediglich 34 dB an. Möglich machen soll das ein bürstenloser Gleichstrommotor in Kombination mit einem Winglet-Lüfterdesign, das Luftverwirbelungen reduziert. Laut Hersteller entsteht so ein gleichmäßiger Luftstrom, der akustisch im Hintergrund bleibt und nicht dauerhaft präsent ist.
Zur Ausstattung gehören mehrere Heizmodi, darunter Leistungsbetrieb, ECO-Modus und ein reiner Ventilatorbetrieb. Ergänzt wird das durch einen 12-Stunden-Timer, eine Kindersicherung, eine Speicherfunktion sowie einen integrierten Tragegriff. Auch das überarbeitete Bedienfeld mit weißer Schrift auf schwarzem Hintergrund ist klar gestaltet und gut ablesbar. Die Stromversorgung erfolgt über AC 220 bis 240 Volt bei 50 Hertz.
Der Heizlüfter von Dreo ist bei Amazon momentan im Angebot für 46,74 Euro erhältlich. Er überzeugt außerdem nicht nur mit einer starken 4,6-von-5-Sterne-Bewertung, sondern ist auch der Bestseller unter den Elektroheizkörpern . Da es sich hier um ein befristetes Angebot handelt, sollte bei Interesse schnell gekauft werden.
Reklame
Dreo Energiesparender Heizlüfter, 34 dB Leiser 1500W Elektrischer PTC Keramik, Thermostat, Überhitzungs- & Kippschutz, 12 Std. Timer, Elektroheizung für Räume Schlafzimmer, Atom 316, Silber
Dieser Artikel enthält sogenannte Affiliate-Links. Wenn Sie die Produkte über diese Links kaufen, erhält Golem eine kleine Provision. Dies hat keinen Einfluss auf den Preis der Artikel.
Großes oder kleines Auto, mehr Sichtbarkeit: Garmin bringt eine neue Version seines Radar-Warners für Radfahrer.
Varia Rearvue 820 StVZO von GarminBild:
Garmin
Wer sich an Radar beim Radfahren gewöhnt hat, möchte das nicht mehr missen. Gerade auf Landstraßen mit viel Verkehr ohne extra Radspur fühlt es sich viel entspannter und sicherer an, wenn man früh und zuverlässig sieht, ob ein Auto folgt.
Garmin legt mit dem Varia Rearvue 820 StVZO nun eine neue Generation seines kombinieren Rücklicht- und Radarsystems vor, das nicht nur warnt, sondern noch mehr Übersicht und Sichtbarkeit verspricht.
Das Varia Rearvue 820 StVZO ergänzt das rückwärtige LED-Rücklicht mit einem Radarsystem, das herannahende Fahrzeuge bis zu 175 Meter entfernt erkennt und sowohl auf kompatiblen Edge-Fahrradcomputern als auch auf Garmin-Smartwatches oder in der Varia-App am Smartphone visuell anzeigt, wie nah und wie groß ein Auto ist.
Auch der Überholabstand wird grafisch dargestellt, was vor allem bei schnellen Autos und Lastwägen ein zusätzliches Sicherheitsgefühl vermitteln soll.
Garmin Varia Rearvue 820 StVZO: Verfügbarkeit und Preis
Gegenüber früheren Varia-Modellen ist die Sichtbarkeit des Rücklichts deutlich gesteigert worden: Garmin gibt bis zu 350 Meter Entfernung an, was sowohl bei Tageslicht als auch bei Dämmerung und Nacht für andere Verkehrsteilnehmer besser erkennbar sein soll.
Der integrierte Akku bietet laut Garmin mit aktiviertem Radar bis zu 16 Stunden Laufzeit, im reinen Radar-Modus sogar bis zu 30 Stunden, so dass auch längere Ausfahrten ohne Nachladen möglich sein sollten.
Ein weiterer Vorteil beim Rearvue 820 ist der nun verbaute USB-C-Anschluss zum Laden des Akkus – bei den bislang verfügbaren Geräten kam eine Micro-USB-Schnittstelle zum Einsatz.
Das System lässt sich an nahezu jeder Sattelstütze befestigen und bleibt dank STVZO-Zulassung auch in Deutschland im öffentlichen Straßenverkehr einsetzbar. Der Garmin Varia Rearvue 820 StVZO ist ab sofort für 300 Euro verfügbar.
SD-Karten können eigentlich nie zu schnell sein. Für die Switch 2 sind MicroSD-Karten nach dem schnellen Express-Standard sogar Pflicht.
Viele neue Standards setzen sich nur langsam durch – vor allem, wenn die damit ausgestatteten und anfangs teuren Gerätschaften keinen echten Vorteil bringen. Das galt auch für die hier getesteten MicroSD-Express-Karten, aber nur bis zum Sommer vergangenen Jahres.
Denn dann wandelte sich die Situation plötzlich: Nintendo stattete die zweite Version seiner Spielkonsole Switch nicht nur mit einem MicroSD-Express-Slot aus, sondern verhinderte auch das Speichern von Spielen auf älteren und langsameren Karten, die weiterhin in den standardisierten Slot hineinpassen.
So kamen in schneller Folge MicroSD-Express-Karten von vielen Herstellern auf den Markt. Sieben Exemplare haben wir für diesen Tests ausgewählt; Auswahlkriterien waren ein Preis von rund 100 Euro für eine 512 GByte große Karte und eine Verfügbarkeit bei mehr als nur einem Händler.
URL dieses Artikels: https://www.heise.de/-10512001
Links in diesem Artikel: [1] https://www.heise.de/tests/Im-Test-Speicherkartenleser-fuer-SD-MicroSD-Karten-mit-USB-A-und-C-Steckern-10511988.html [2] https://www.heise.de/news/Externe-SSDs-und-anderer-Flash-Speicher-c-t-uplink-10491828.html [3] https://www.heise.de/tests/Superschnelle-MicroSD-Speicherkarten-im-Test-10296346.html [4] https://www.heise.de/tests/Speicherkarten-und-Kartenleser-nach-CFexpress-Standard-4-0-im-Test-9854798.html
Die USA haben die Arktis zurück auf die geopolitische Landkarte gebracht. Warum Berlin keine passende Antwort findet. Eine Analyse.
US-Präsident Donald Trump wollte Grönland "einschließlich Recht, Besitztitel und Eigentum" in Beschlag nehmen [1]. Nur Tage später kam ein Nato-US-Deal. Dennoch bleibt die Zukunft des europäischen Überseegebietes auf "dünnem Eis" [2].
Berlin misslang [3]eine starke Antwort. Bundeskanzler Friedrich Merz bewahrte [4] ausgerechnet gegenüber dem im Augenblick unbeteiligten Moskau vermeintlich Haltung: Man werde den "Norden vor der Bedrohung durch Russland schützen".
Dabei gerieten die bundesdeutschen strategischen Arktis-Leitlinien in Vergessenheit. Sind Sie Schnee von gestern?
Kontextverschiebung
Der zentrale Bezugspunkt der 46-seitigen [5] deutschen Arktispolitik bildet nicht Washington, sondern Moskau.
Wenn auch das Titelbild keine Fregatte, sondern ein Forschungsschiff zierte, brachte die damalige Ampelregierung zum Ausdruck, dass die Arktis nicht mehr als regionale Ausnahmezone ("arktischer Exzeptionalismus [6]") betrachtet werden könne, sondern zunehmend von sicherheitspolitischen Spannungen geprägt ist.Die deutsche Arktispolitik wurde gemäß der zwei Jahre zuvor ausgerufenen Zeitenwende [7] an ihre neuen Bestimmungslinien angepasst.
Dennoch wollte das politische Berlin, dies geht aus den begleitenden parlamentarischen Meldungen der Leitlinien hervor, an "kooperativen" Lösungen für sich überschneidende Ansprüche festhalten [8], denn in der Region kollidieren diverse internationale Ansprüche diametral. Auch die Gefahr einer atomaren Eskalationsgefahr [9], die aus den Wirren des Kalten Krieges bekannt ist, wird einberechnet.
Dennoch sind zivile Muster erkennbar: Die drastische Beschleunigung des Klimawandels, durch die sich die Arktis etwa viermal schneller erwärmt als andere Regionen, stellt einen wesentlichen Auslöser dar, der sowohl ökologische als auch ökonomische Dynamiken antreibt.
Abseitig eines ökonomischen Rohstoff-Great-Game [10] wird die zentrale Menschheitsgefahr des Klimawandel als handelspolitische Chance und Umweltrisiko benannt.
Arktische Zeitenwende
Der Thinktank Stiftung Wissenschaft und Politik (SWP) analysierte [11], dass die neuen Leitlinien den geopolitischen Raum der Arktis höher gewichten und zudem ganzheitlich – politisch, militärisch, ökonomisch – aktiv in den Fokus nehmen.
Parallelen zur deutschen Nationalen Sicherheitsstrategie von 2023 [12] sowie zu anderen regionalstrategischen Dokumenten (Indo-Pazifik 2020, China-Strategie 2023) sind augenfällig. International dürfte zumindest zum damaligen Zeitpunkt die nationale Arktisstrategie der USA ein Anknüpfungspunkt gewesen sein.
Washington akzentuierte deutlich vor Berlin einen veränderten strategischen Ansatz. Zur Zeit der ausgehenden Administration von Joe Biden versuchte [13]man sich an einer Balance zwischen Zusammenarbeit und Sicherheitsinteressen, welche unter Donald Trump, jedoch auch bereits ab 2022, deutlich zugunsten Letztgenannten zurechtgestutzt wurde.
"Nato-light" in der Arktis
Insgesamt lassen sich sechs zentrale Kategorien identifizieren. Die damalige Bundesregierung wollte dabei helfen, Sicherheit und Stabilität (1) in der Region zu wahren. Entscheidend ist hierbei – als Kontinuität deutscher Außen- und Sicherheitspolitik seit dem Zweiten Weltkrieg – dass dies nicht als deutscher Sonderweg verstanden wird, sondern eng im Rahmen von Nato und EU geschehen sollte.
Im Zuge der als immer unzuverlässiger wahrgenommenen US-Präsenz verlagerte [14] die Bundesregierung – in enger Absprache mit Brüssel – ihren Fokus auf den ohnehin ab 2008 in der EU-Administration gestarteten Konfigurationsprozess arktischer Strategiebildung, ohne dass sich dies jedoch zuvor in den Leitlinien hätte niederschlagen können.
Die bundesdeutsche Arktispolitik dürfte sich zukünftig noch stärker als bisher in den Rahmen Brüsseler Strategien einfassen lassen. Bemerkenswert war – innerhalb der Januar-Scharaden, dass eine von den USA entkernte "Nato-light"-Truppe, bestehend aus deutschen, skandinavischen und französischen Einheiten, als Erkundungsmission in die Region entsandt wurde [15].
Diese im Kern aus EU-Soldaten zusammengewürfelte Erkundungs-Kavallierie firmierte jedoch unter dem Nato-Label. Dabei war augenfällig, dass der Nato-Rahmen – ohne den starken US-Partner, mehr Schein, als Sein war.
Regelbasierte Nebelkerze
Die Nibelungentreue zu den USA hat Gründe: Brüssel und Berlin sind auf Washington angewiesen.
Vor dem Hintergrund der Miniatur-Mission sprach [16] der italienische Verteidigungsminister Guido Crosetto von einem "Witz". Die rhetorische Ohrfeige eines Nato-Gründungsmitgliedes offenbart die gesamte Tragik deutsch-europäischer Arktisprojektionen: Während Berlin vollmundig eine rechtsnormierte Ordnung wie eine Monstrans vor sich herträgt, versagt insbesondere gegenüber dem vermeintlich befreundeten großen Bruder aus Washington die eigene Courage.
Was sind demnach die seitenlangen Ausführungen innerhalb der Leitlinien – arktisch-nordatlantische Allianz, Multilateralismus oder Selbstbestimmungsrecht der Ureinwohner – noch wert?
Insofern darf man dem kanadischen Premierminister Mark Carney durchaus einen Punkt geben [17]: Die regelbasierte Ordnung ist – für die Bewohner Grönlands – wohl das Papier nicht wert, auf dem sie verfasst wurde.
Jene Nebelbombe besaß schon vor Trump Kratzer, nun – mit einem EU-Mitglied und Nato-Partner als Bedrohungskulisse – im Kreuzfeuer stand die Ex-Kolonialmacht Dänemark, wird die unleugbare Realität, die spätestens mit Gaza in der südlichen Hemisphäre ins kollektive Bewusstsein einsickerte [18], auch im Westen vernommen.
Forschung als Schwerpunkt
Dutzende Seiten der Leitlinien sind dennoch den Bereichen Forschung und Wissenschaft (3), Klima- und Umweltschutz (4), Partizipation indigener Völker (5) sowie nachhaltiger Entwicklung (6) gewidmet.
Jene vier Ziele rangieren insofern gleichwertig neben Sicherheit und Recht. Keines der sechs dargestellten Primärziele der deutschen Arktisstrategie ist mit dem Gebaren der USA vereinbar, kaum eines mit der deutschen Politikgestaltung aus dem Januar in Einklang zu bringen.
Berlin besitzt mit den Leitlinien Argumente, schärfstens gegen die Politik Trumps zu protestieren, vergaß diese willentlich, als es darauf ankam. Die Bundesregierung trug mit der zahnlosen Entsendung eines kleinen Kontingents selbst zur fortschreitenden Militarisierung der Region bei.
Es erscheint, als seien die hehren Worte letztlich Beiwerk einer sich im weltpolitischen Block-Koordinatensystem verspekulierten politischen Klasse.
Was bleibt?
Die deutsche Politik steht vor einer Quadratur des Kreises: Gelingt es nicht, die imperialen Ansprüche Washingtons friedlich einzuhegen – wie zuletzt im Grönland-Deal zwischen Rutte und Trump –, kann das zentrale Ziel einer transatlantisch-arktischen Sicherheitsgemeinschaft, kaum mehr aufrechterhalten werden.
Es ist durchaus ironisch, dass der Totengräber der bisherigen arktischer Stragegie-Prämissen nicht im Kreml, sondern im Weißen Haus sitzen dürfte. Unter dem Primat der Sicherheit und angesichts der zu erwartenden Zunahme geopolitischer Rivalitäten – insbesondere mit dem Aufstieg Chinas – dürften die Verwirklichungskorridore für einen ernstgemeinten Kampf gegen den Klimawandel schwinden.
Die USA treiben ihre ureigene militärische Arktisstrategie unaufhörlich voran, Zugeständnisse sind maximal ausgereizt. Die Leitlinien von 2024 bedürfen einer grundlegenden Überarbeitung. Unter den aktuellen gesellschaftspolitisch-konservativen Vorzeichen birgt dies wenig Grund zur Freude.
Fraglich bleibt jedoch, ob der Sprung aus Washingtons Schatten eingeleitet wird, ob die regelbasierte Ordnung als zentrales ideologisches Dogma erhalten bleibt und ob umweltpolitische Akzentuierungen noch Eingang finden.
URL dieses Artikels: https://www.heise.de/-11163718
Wer Hausaufgaben von ChatGPT erledigen lässt, schneidet später schlechter ab – außer unter einer bestimmten Bedingung.
Viele Jugendliche greifen heute ganz selbstverständlich zu ChatGPT [1] oder anderen KI-Tools [2], wenn die Matheaufgaben zu schwer erscheinen oder der Aufsatz schnell fertig werden muss. Manche Lehrer berichten sogar, dass Schüler im Unterricht die KI-Hilfe in Anspruch nehmen, um die Aufgaben von Arbeitsblättern zu lösen.
Der Medienpädagogische Forschungsverbund Südwest geht in seiner JIM-Studie [3] davon aus, dass 62 Prozent der Schüler in Deutschland regelmäßig KI-Tools benutzen – meist für Hausaufgaben.
Bildungsexperten – nicht nur in Deutschland – zeigen sich über diesen Trend besorgt. Der Physiklehrer und Bildungsexperte Vincenzo Schettini aus Italien ist einer von ihnen. Was er in einem Interview erzählt, könnte genauso gut in Deutschland gewesen sein.
Eine Mutter erzählte ihm [4] demnach, ihr 14-jähriger Sohn habe ChatGPT benutzt, um einen Aufsatz über den Schriftsteller Alessandro Manzoni schreiben zu lassen – mit der besonderen Bitte an die KI, typische Fehler eines 14-Jährigen einzubauen.
Was Schettini dabei besonders beunruhigte: Die Mutter erzählte davon mit einer gewissen Leichtigkeit, als sei es keine große Sache. Doch für den Lehrer ist genau das der Kern des Problems. Der Schüler lerne weder das Schreiben noch das eigenständige Arbeiten. Die Folgen zeigen sich erst später.
So sagt Schettini:
"Wenn du mit 14 Jahren deine Hausaufgaben machen lässt, mit 20 nicht weißt, wie man eine E-Mail schreibt, an die Universität gehst und keine Methode hast, um eine Prüfung zu bewältigen, dann fliegst du wirklich raus. […] Dann gehst du weg, gehst zu einem Vorstellungsgespräch, weißt nicht, wie du vor einem Arbeitgeber sprechen sollst, das heißt, du findest dich plötzlich in der realen Welt wieder."
Auch wenn das etwas pessimistisch klingen mag, so bleibt die zentrale Frage für Schulen und Lehrkräfte: Unter welchen Bedingungen unterstützt KI das Lernen – und wann ersetzt sie es bloß?
Was die empirische Evidenz im Schulkontext zeigt
Ein großes Feldexperiment der University of Pennsylvania mit knapp 1.000 High-School-Schülern liefert aufschlussreiche Ergebnisse [5]. Die Forscher teilten die Jugendlichen in drei Gruppen: ohne KI, mit freiem ChatGPT-Zugang und mit einem KI-Tutor, der so erstellt war, dass er Schritt-für-Schritt-Erklärungen, Hinweise und Reflexion bot.
Während der Übungsphase schnitten beide KI-Gruppen deutlich besser ab. Die freie ChatGPT-Nutzung brachte 48 Prozent bessere Ergebnisse, der angeleitete Tutor sogar 127 Prozent. Klingt nach einem klaren Erfolg – aber man sollte hier nicht voreilig sein.
Im anschließenden Test ohne KI-Zugang zeigte sich ein überraschendes Bild: Die Schüler mit freier KI-Nutzung schnitten 17 Prozent schlechter ab als jene, die nie Zugang hatten. Sie hatten die KI als "Krücke" benutzt und fertige Lösungen abgeschrieben, statt selbst zu denken.
Der speziell gestaltete KI-Tutor hingegen milderte diesen negativen Effekt weitgehend ab.
Warum Studienergebnisse stark variieren – das "Setting" als Schlüsselfaktor
Nicht alle Studien kommen zu negativen Ergebnissen. Der entscheidende Unterschied liegt im Setting – also darin, wie und wofür die KI eingesetzt wird.
Negative Befunde häufen sich, wenn ChatGPT etwa direkt in Prüfungssituationen verwendet wird. In einer ungarischen Studie [6] durften Studierende die KI während einer Matheklausur nutzen. Das Ergebnis: mehr Durchfaller und weniger Spitzenleistungen.
Ähnliches zeigt ein Laborexperiment [7]: Besonders Lernende mit geringeren Vorkenntnissen erkannten falsche KI-Antworten nicht und übernahmen sie ungeprüft.
Positive Effekte zeigen sich dagegen, wenn KI als Lernwerkzeug in strukturierten Unterrichtsszenarien eingesetzt wird. Eine Studie [8] mit Elftklässlern in den Emiraten etwa nutzte ChatGPT vier Wochen lang als Lernhilfe im Physikunterricht – mit messbaren Leistungssteigerungen.
Auch Metaanalysen [9] bestätigen dieses Muster: Im Durchschnitt zeigen sich moderat positive Effekte auf die akademische Leistung – besonders bei klarer pädagogischer Einbettung und mittelfristigen Interventionen.
Didaktische Leitplanken für KI-Nutzung, die Lernen fördert statt ersetzt
Wie also sollte KI im Unterricht eingesetzt werden? Die Forschung liefert klare Hinweise.
Erstens: Die Rolle der KI muss klar definiert sein. Sie sollte als Tutor fungieren, der Hinweise gibt und zur Reflexion anregt – nicht als Automat, der fertige Lösungen ausspuckt. Das entspricht dem erfolgreichen "GPT Tutor"-Ansatz aus der Penn-Studie.
Zweitens: Die Einbettung benötigt Struktur. Klare Lernziele, wiederholte Übungsphasen und regelmäßige Feedbackzyklen sind entscheidend. Eine einmalige "Abkürzung" bei den Hausaufgaben bringt keinen nachhaltigen Lerneffekt.
Drittens: KI-Antworten [10] müssen kritisch geprüft werden. Eine Studie zeigte [11], dass 32 Prozent der ChatGPT-generierten Hilfen die Qualitätsprüfung nicht bestanden. Techniken wie Selbstkonsistenz können Fehler reduzieren, funktionieren aber je nach Fach unterschiedlich gut.
Hausaufgabenpraxis, Leistungsnachweise und schulische Steuerung
Der Griff zur KI hat oft einen simplen Grund: Überlastung. Schettini beschreibt KI als "singende Sirene", deren Lockruf besonders für gestresste Jugendliche schwer zu widerstehen ist. "Sie haben so viele Hausaufgaben zu erledigen, dass sie irgendwann sagen: Oh Leute, ich nehme sie, lasse sie alles machen und wünsche allen einen guten Abend."
Sein Gegenvorschlag ist pragmatisch: weniger, aber gezieltere Hausaufgaben. Der eigentliche Leistungsnachweis sollte im Klassenzimmer stattfinden – ohne digitale Hilfsmittel. Dort zeigt sich, was Schüler wirklich können.
Entscheidend ist dabei die Abstimmung im Kollegium. Schettini appelliert an Lehrkräfte, in Klassenkonferenzen gemeinsam festzulegen, wie viele Hausaufgaben aufgegeben werden. Nur so lässt sich verhindern, dass die Gesamtlast Schüler in die Arme der KI treibt.
Rahmen für schulische Entscheidungsprozesse
Für Schulen und Steuergruppen ergibt sich daraus ein klarer Entscheidungsrahmen. Die zentrale Unterscheidung lautet: kurzfristige Produktivität versus nachhaltiges Lernen.
Bessere Hausaufgaben und Übungsnoten sind kein Beweis für echten Kompetenzaufbau. Entscheidend ist, ob Schüler auch ohne KI-Unterstützung bestehen können. Das sollte das Maß aller Dinge sein.
Tool-Design und Nutzungsregeln sind dabei wichtige Stellhebel. Ohne Leitplanken drohen negative Lerneffekte. Mit klarem Scaffolding – also einer gestuften Lernunterstützung, die schrittweise zurückgenommen wird – und didaktischer Anleitung kann KI dagegen den Kompetenzaufbau unterstützen.
Schulen sollten sich fragen: In welchen Fächern ist KI-Nutzung besonders fehleranfällig? Mathematik und Programmierung etwa erfordern Präzision, die ChatGPT nicht immer liefert. Welche Kontrollen und Anleitungen sind nötig? Und wie kann das Kollegium gemeinsam tragfähige Regeln entwickeln?
Die Antwort auf die Frage, ob KI beim Lernen hilft, ist weder ein klares Ja noch ein klares Nein. Es kommt darauf an – auf das Setting, die Anleitung und die didaktische Einbettung. Wer das versteht, kann KI vom Risiko zur Chance machen.
URL dieses Artikels: https://www.heise.de/-11163648
Die Koalition sollte bis Ende Januar Eckpunkte für ein neues Heizungsgesetz vorlegen. Doch eine Einigung ist nicht in Sicht. Die Gründe sind vielschichtig.
Die schwarz-rote Koalition hat ihre selbst gesetzte Frist zur Reform des Heizungsgesetzes verpasst. Bis Ende Januar sollten Eckpunkte für das geplante "Gebäudemodernisierungsgesetz" vorliegen, doch Union und SPD konnten sich nicht einigen. Nach Informationen [1] des ARD-Hauptstadtstudios ist auch für die kommende Woche eine Einigung alles andere als sicher.
Aus Unionskreisen wurde der Klimazeitungbestätigt [2], es sei "völlig offen", ob eine Verständigung bis Anfang Februar gelingen kann.
Die Verhandlungen sind hochrangig besetzt. Neben den Fraktionsvorsitzenden Jens Spahn (CDU) und Matthias Miersch (SPD) war auch Energieministerin Katherina Reiche (CDU) bei mehreren Treffen persönlich dabei, wie die Tagesschau berichtet.
Offiziell eingebunden ist auch das Bauministerium, dessen Ministerin Verena Hubertz sich aufgrund ihres Mutterschutzes vertreten lässt. Der Fraktionsvize der Union, Sepp Müller, sagte: "Wir nehmen uns die Zeit, die wir benötigen, damit wir den Menschen auch eine Zukunftsperspektive geben können, wie sie zukünftig heizen." Aus dem Wirtschaftsministerium heißt es laut Tagesschau, man brauche noch etwas Zeit und sei optimistisch, dass bald Eckpunkte vorliegen.
Klimaziele als erster Stolperstein
Ein zentrales Hindernis in den Verhandlungen sind die gesetzlich verankerten Klimaziele. Deutschland muss bis 2045 klimaneutral werden, also die Treibhausgasemissionen rechnerisch auf Null bringen. Bundesumweltminister Carsten Schneider (SPD) pocht darauf, dass das Gesetz so geändert wird, dass die Klimaziele erreicht werden können. Bis spätestens Ende März muss Schneider zudem ein neues Programm vorlegen, das alle Klimaschutzmaßnahmen der Bundesregierung auflistet.
Die juristische Lage erschwert die Verhandlungen zusätzlich. Die Deutsche Umwelthilfe bekam kürzlich mit einer Klage Recht [3]. Das Bundesverwaltungsgericht stellte fest, dass die bisherigen Klimaschutzmaßnahmen nicht ausreichen, um die Klimaziele zu erreichen. Die Bundesregierung muss ihre Bemühungen also verstärken, statt abschwächen. Das sogenannte Heizungsgesetz einfach ersatzlos abschaffen, ist deshalb kaum möglich, wie die Tagesschau berichtet.
Auch die EU setzt einen zeitlichen Rahmen: Bis Ende Mai muss die EU-Gebäuderichtlinie EPBD [4] in einzelstaatliches Recht umgesetzt werden, berichtet die Klimazeitung. Das EU-Gesetz verpflichtet die Mitgliedsstaaten, die Energieeffizienz bestehender Gebäude zu verbessern und sie bis 2050 klimafrei zu gestalten.
Die 65-Prozent-Regel als Kernkonflikt
Der zweite zentrale Stolperstein ist die konkrete Ausgestaltung des Gesetzes. Im Zentrum steht die Vorgabe, dass die Wärme einer neuen Heizung zu mindestens 65 Prozent aus erneuerbaren Energien kommen muss. CDU-Fraktionschef Jens Spahn sagte [5] noch im Dezember: "Die 65 Prozent müssen weg".
Die SPD argumentiert hingegen, der Klimaschutz im Gebäudesektor brauche verlässliche Leitplanken, sonst drohten höhere Emissionen und langfristig steigende Heizkosten. Umweltminister Schneider will an der zentralen Regelung festhalten. "Es bleibt dabei, dass neue Heizungen 65 Prozent erneuerbare Energien nutzen müssen", sagte er [6] laut Frankfurter Rundschau auf dem Energiewende-Kongress der Deutschen Energie-Agentur.
Streicht oder senkt man diesen Wert, droht die Wirkung des Gesetzes zu verpuffen. Claudia Kemfert, Energieexpertin des Deutschen Instituts für Wirtschaftsforschung, sagte: "Entscheidend für eine Neufassung ist, nicht die Ambition aufzugeben, sondern sie mit klaren, sozial ausgewogenen Förderregeln und realistischen Zeitpfaden zu unterlegen."
Auch Fachleute sprechen sich für die Beibehaltung der 65-Prozent-Regel aus. Markus Fritz vom Fraunhofer-Institut für System- und Innovationsforschung sagte laut Klimazeitung, die Vorgabe sei "essenziell, um die Lücke zum Ziel der Klimaneutralität im Jahr 2045 zu reduzieren". Würde diese Regelung zeitlich verschoben, müssten zur Kompensation entweder der Preis für Erdgas und Heizöl stärker erhöht oder die Förderung für den Heizungstausch angehoben werden.
Verbände fordern Ende der Hängepartie
Ein Bündnis von 14 Organisationen, darunter der Deutsche Städte- und Gemeindebund, der Bundesverband der Energie- und Wasserwirtschaft und der Bundesverband Wärmepumpen, hat die Regierung aufgefordert [7], die Hängepartie zu beenden. "Verzögerungen schaden letztlich allen und schaffen weitere Unsicherheiten bei Kommunen, Unternehmen und Bürgern", heißt es in dem Appell von letzter Woche.
Grundsätzlich sprechen sich die Verbände für die 65-Prozent-Regel aus. Sie sei "dazu geeignet, einen schnellen Hochlauf der erneuerbaren Energien weiter zu unterstützen, um einen klimaneutralen Gebäudebestand zu erreichen".
Umweltminister Schneider mahnte zur Eile [8]: "Von den Heizungsbauern über die Installateure bis zur Energiewirtschaft und den kommunalen Spitzenverbänden rufen alle: Stiftet kein neues Chaos, ändert möglichst wenig, und schafft endlich Planungssicherheit."
Förderung soll sozialer werden
Ein weiterer Streitpunkt ist die Ausgestaltung der staatlichen Förderung. Vor allem der SPD ist die Unterstützung von Haushalten mit niedrigem Einkommen wichtig. Sie hatte in den Koalitionsvertrag verhandelt, dass die Heizungsförderung im Grundsatz erhalten bleibt und will erreichen, dass besonders einkommensschwache Haushalte von staatlichen Zuschüssen profitieren, berichtet die Tagesschau.
Schneider kündigte Änderungen bei der staatlichen Förderung an. Die Zuschüsse sollen stärker nach sozialen Kriterien vergeben werden. "Das Ergebnis war, dass besonders viel Geld bei den oberen zehn Prozent gelandet ist. Das hat viele Leute zurecht kiebig gemacht", sagte er laut Frankfurter Rundschau.
Stefan Thomas vom Wuppertal Institut für Klima, Umwelt, Energie sprach sich gegenüber der Klimazeitung dafür aus, die Förderung für Mietwohnungen, die derzeit maximal 35 Prozent beträgt, anzuheben, um den Umstieg auf klimafreundliche Heizungen auch in diesem Bereich zu beschleunigen. Bisher können Hauseigentümer 70 Prozent Zuschüsse erhalten, wenn das Haushaltseinkommen unter 40.000 Euro im Jahr liegt.
Branche leidet unter Unsicherheit
Die anhaltende Unsicherheit schlägt sich bereits massiv in den Verkaufszahlen nieder. Im vergangenen Jahr wurden nach Berechnungen des Verbandes BDH so wenige Heizungen installiert wie seit 15 Jahren nicht mehr. Insgesamt 627.000 Anlagen – 12 Prozent weniger als im bereits schwachen Vorjahr. Gasbrennwertkessel brachen um 36 Prozent auf 229.000 Stück ein, Ölheizungen auf nur noch 22.500, wie die Frankfurter Rundschau berichtet.
Gleichzeitig wurden 2025 erstmals mehr Wärmepumpen verbaut als Gasheizungen. Mit 299.000 installierten Heizungs-Wärmepumpen stieg der Absatz um 55 Prozent – auch dank staatlicher Förderung. BDH-Hauptgeschäftsführer Markus Staudt warnte laut Frankfurter Rundschau vor "personellen Maßnahmen" wie Stellenabbau, sollten nicht bald stabile Regeln kommen.
Heizungsbauer Lutz Spring aus dem brandenburgischen Oranienburg sagte gegenüber der Tagesschau: "Wir können einfach nicht mehr. Ich habe keine Lust mehr auf dieses Theater." Mit seiner Firma verbaut er im Schnitt jede Woche zwei Wärmepumpen. Eigentlich müsste er jetzt in Betriebsvergrößerung investieren, doch angesichts der Unsicherheit zögere er.
Zeitdruck durch kommunale Fristen
Besonders brisant ist die Situation in Großstädten. In Kommunen mit mehr als 100.000 Einwohnern wird der Einbau von Heizungen mit mindestens 65 Prozent erneuerbarer Energien bereits nach dem 30. Juni 2026 verbindlich, berichtet die Frankfurter Rundschau. Dies betrifft rund 80 Städte wie Berlin, Hamburg, München und Köln. Noch schneller kann es gehen, wenn eine Kommune ihre Wärmeplanung abgeschlossen hat – bereits 38 Prozent der großen Kommunen sind so weit.
Das Gesetz ist technologieoffen: Neben Wärmepumpen gelten auch Infrarotheizungen, Biomasseheizungen wie Pelletöfen, Solarthermie-Hybridheizungen oder der Anschluss an Wärmenetze als Erfüllung der 65-Prozent-Regel, berichtet die Frankfurter Rundschau. Selbst Gasheizungen bleiben möglich, wenn sie nachweislich erneuerbare Gase nutzen.
In einem Punkt haben sich Union und SPD bereits geeinigt. Fest steht laut Tagesschau: Das alte Gebäudeenergiegesetz wird einfach umbenannt. Neuer Titel: Gebäudemodernisierungsgesetz. Ob es bei einer bloßen Umbenennung bleibt oder sich die Koalition doch noch auf inhaltliche Eckpunkte einigen kann, ist bislang völlig offen.
URL dieses Artikels: https://www.heise.de/-11163445
Links in diesem Artikel: [1] https://www.tagesschau.de/inland/innenpolitik/heizungsgesetz--aenderung-koalition-100.html [2] https://klimareporter.de/gebaeude/neues-heizungsgesetz-in-der-warteschleife [3] https://www.duh.de/presse/pressemitteilungen/pressemitteilung/deutsche-umwelthilfe-erzielt-grundsatzurteil-fuer-den-klimaschutz-bundesverwaltungsgericht-verurteil/ [4] https://www.dabonline.de/bautechnik/eu-gebaeuderichtlinie-epbd-faq/ [5] https://www.stern.de/news/spahn-zu-heizungsgesetz--es-darf-keinen-zwang-bei-heizungen-im-bestand-geben-36958470.html [6] https://www.fr.de/verbraucher/chaos-um-heizungsgesetz-merz-regierung-laesst-frist-verstreichen-was-verbraucher-wissen-muessen-94152108.html [7] https://www.dstgb.de/publikationen/pressemitteilungen/gemeinsame-forderung-nach-schneller-klarheit-und-planungssicherheit/ [8] https://www.zdfheute.de/wirtschaft/heizung-absatz-verkauf-rueckgang-bdh-waermepumpe-100.html
Die Rust-Neuimplementierung klassischer Unix-Tools erreicht in Version 0.6 eine GNU-Kompatibilität von 96 Prozent – und reduziert Unsafe-Code.
Die Entwickler der Rust Coreutils haben Version 0.6 veröffentlicht. Die Rust-Neuimplementierung klassischer Unix-Werkzeuge erreicht damit 96,28 Prozent Kompatibilität zur GNU-Test-Suite und besteht 622 von 646 Tests. Gegenüber der im Dezember erschienenen Version 0.5 mit 87,75 Prozent Kompatibilität bedeutet das einen Sprung von über acht Prozentpunkten.
Besonders bemerkenswert: Die Zahl der fehlgeschlagenen Tests sank von 55 auf nur noch 16, während die Anzahl übersprungener Tests von 23 auf 7 zurückging. Die Entwickler testeten gegen die GNU Coreutils 9.9 als Referenz.
Weniger unsicherer Code
Ein Schwerpunkt der neuen Version liegt auf der Reduzierung von unsafe Code. Die Entwickler entfernten unsichere Passagen in den Utilities date, sort und locale.rs. Statt direkter libc-Aufrufe nutzt die Software nun das nix-Crate, das sichere Rust-Wrapper um POSIX-Systemaufrufe bereitstellt.
Für die Tools rm, du, chmod und chgrp verwenden die Entwickler ab Version 0.6 die System-Calls openat und unlinkat über das nix-Crate für sichere Directory-Traversal. Diese Änderungen eliminieren ganze Klassen von Sicherheitslücken wie Buffer Overflows oder Use-After-Free-Fehler, die bei direkten libc-Aufrufen auftreten können.
Performance-Optimierungen
Version 0.6 bringt Performance-Verbesserungen für mehrere Tools. Die Base-Encoding-Utilities base32, base64 und basenc arbeiten durch reduzierte memset-Operationen schneller. Das Tool shuf erhielt eine optimierte numerische Ausgabe und eine neue Option --random-seed. Bei date beschleunigt ein BufWriter das Batch-Processing, während uniq die Speichernutzung für Case-Insensitive-Vergleiche optimiert.
Das Tool tsort vermeidet nun das vollständige Einlesen der Eingabe in den Speicher, was bei großen Datenmengen deutliche Vorteile bringt. Auch df profitiert von einem verbesserten Dateisystem-Handling.
Bessere Internationalisierung
Die neue Version erweitert die Lokalisierungsunterstützung erheblich. Das Tool date nutzt jetzt ICU-Support für locale-aware Datums- und Monatsbezeichnungen sowie Stundenformatierung und Kalenderunterstützung. In sort funktioniert die numerische Sortierung ab sofort mit Tausendertrennzeichen, während join locale-aware Collation unterstützt. Die Entwickler integrieren zudem Weblate für Community-Übersetzungen.
Erweiterte Plattformunterstützung
Rust Coreutils 0.6 unterstützt offiziell RISC-V 64-bit mit musl-Target in der CI-Pipeline. Die Cygwin-Unterstützung für Windows-Nutzer wurde ebenfalls ausgebaut. Neu hinzugekommen ist Support für das SMACK Security Module in den Tools ls, id, mkdir, mkfifo und mknod.
Das Tool tail erhielt ein --debug-Flag, verbesserte Symlink-Verfolgung mit der Option -F und FIFO-Timeout-Handling für --pid. Bei timeout implementierten die Entwickler umfassendes Signal-Handling und eine --verbose-Option.
Das Sortiertool sort unterstützt nun Legacy-Syntax mit +POS/-POS, bietet Debug-Key-Annotationen und bessere locale-aware Sortierung. Bei pr korrigierten die Entwickler Fehler bei Headers, Form Feeds und Pagination. Die Tools chmod und rm behandeln rekursive Operationen und Symlinks besser als zuvor.
Ubuntu und Fedora setzen auf Rust Coreutils
Die Entwicklung der Rust Coreutils gewinnt in der Linux-Welt zunehmend an Bedeutung. Ubuntu 25.10 [1] verwendet bereits Rust Coreutils 0.2.2 als Standard im Rahmen der Oxidising-Ubuntu-Initiative von Canonical. Fedora plant, Version 0.5 in Fedora 44 als Option für Early Adopters anzubieten – allerdings nicht als Standardvariante wie bei Ubuntu.
Auf der FOSDEM 2026 am 1. Februar berichtete Sylvestre Ledru vom uutils-Kernteam über praktische Erfahrungen mit Rust Coreutils in Ubuntu. Der Vortrag „Rust Coreutils in Ubuntu: Yes, we rewrote /bin/true in Rust – Here's what really happened“ gab Einblicke in Packaging-Komplexität, undokumentierte Verhaltensweisen und den Umgang mit kritischen System-Tools.
Die Entwicklergemeinschaft wächst stetig: An Version 0.6 wirkten 41 neue Contributors mit. Wer die Rust Coreutils testen möchte, findet sie im GitHub-Repository [2] des Projekts.
URL dieses Artikels: https://www.heise.de/-11163178
Links in diesem Artikel: [1] https://www.heise.de/news/Ubuntu-25-10-Rust-statt-C-Wayland-statt-X11-10722802.html [2] https://github.com/uutils/coreutils/releases/tag/0.6.0 [3] https://www.heise.de/ix [4] mailto:fo@heise.de
DDD, CQRS und Event Sourcing versprechen Flexibilität, doch viele Teams landen bei CRUD mit Extra-Schritten. Der Grund? Ein falsches Verständnis.
Wenn Entwicklerinnen und Entwickler zum ersten Mal mit Domain-Driven Design (DDD), CQRS und Event Sourcing [1] in Berührung kommen, bringen sie bereits mentale Modelle mit. Jahre der Arbeit mit Objekten und Tabellen haben geprägt, wie sie über Daten denken.
Und so haben sie sofort ein vertrautes Bild im Sinn, wenn sie das Wort „Aggregat“ hören: Ein Aggregat muss wie ein Objekt sein, und Objekte werden auf Tabellen abgebildet. Diese Intuition fühlt sich richtig an. Aber: Sie ist es nicht, und sie führt zu einem System, das verdächtig nach CRUD mit zusätzlichen Schritten aussieht.
Ich habe dieses Muster unzählige Male gesehen. Teams bauen etwas, das sie ein Event-getriebenes System nennen, und landen bei einer einzelnen books-Tabelle, die jedes Feld enthält, das ihr Book-Aggregat hat. Sie haben im Grunde eine relationale Datenbank nachgebaut, nur mit Events als Transportmechanismus. Die Stärken von DDD, CQRS und Event Sourcing, also die Flexibilität, die diese Konzepte versprechen – all das bleibt ungenutzt.
Das Aggregat-Missverständnis
Das Problem ist das, was Entwicklerinnen und Entwickler typischerweise für ein Aggregat halten: einen Container für alle Daten über eine Sache. Sie stellen sich ein Book-Aggregat vor und beginnen, Eigenschaften aufzulisten:
BookAggregate {
id: string
title: string
author: string
isbn: string
currentBorrower: string | null
dueDate: Date | null
location: string
condition: string
purchasePrice: number
acquisitionDate: Date
lastInspectionDate: Date
popularityScore: number
}
Das sieht aus wie ein Objekt. Es hat alle Felder. Es lässt sich sauber auf eine Datenbanktabelle abbilden. Und genau darin liegt der Fehler: das Aggregat als Daten-Container zu behandeln.
Wenn Sie so denken, wird Ihr Aggregat zu einer aufgeblähten Repräsentation von allem, was Sie jemals über ein Buch wissen wollen könnten. Es spiegelt die Struktur Ihres Read Model wider, weil Sie noch nicht erkannt haben, dass es grundlegend verschiedene Konzepte sind, die grundlegend verschiedene Zwecke erfüllen.
Was ein Aggregat tatsächlich ist
Gemäß DDD ist ein Aggregat eine Konsistenzgrenze für die Entscheidungsfindung. Das ist alles. Sein Zweck ist sicherzustellen, dass Geschäftsregeln eingehalten werden, wenn Commands verarbeitet werden. Es benötigt nur die Informationen, die erforderlich sind, um zu entscheiden, ob ein Command gültig ist.
Betrachten Sie das BorrowBook-Command. Um zu entscheiden, ob ein Buch ausgeliehen werden kann, müssen Sie nur eins wissen: Ist das Buch derzeit verfügbar? Sie brauchen nicht den Titel, die Autorin oder den Autor, die ISBN, den Kaufpreis, den Standort oder das letzte Inspektionsdatum. Keine dieser Informationen hilft Ihnen zu entscheiden, ob dieses spezifische Command erfolgreich sein sollte oder nicht. Das heißt, das Aggregat kann sehr schlank sein, denn es enthält nur den entscheidungsrelevanten Zustand.
Für unser Bibliotheksbeispiel könnte ein richtig entworfenes Book-Aggregat daher folgendermaßen aussehen:
Kann dieses Buch ausgeliehen werden? (isAvailable === true)
Kann diese Person es zurückgeben? (currentBorrower === personId)
Alles andere, jede andere Information über das Buch, gehört woanders hin – und zwar in Read Models, nicht in das Aggregat.
Das Read-Model-Missverständnis
Sobald Entwicklerinnen und Entwickler akzeptieren, dass ein Aggregat bestimmte Felder hat, folgt der nächste Fehler: „Wenn mein Aggregat diese Felder hat, sollte meine Read-Model-Tabelle diese Felder auch haben.“
Das Ergebnis ist vorhersehbar. Sie erstellen eine books-Tabelle mit Spalten für id, title, author, isbn, borrower, dueDate, location, condition, purchasePrice und jedes andere Feld, das Ihnen einfällt. Abfragen werden zu komplexen Joins über diese monolithische Struktur. Die Performance leidet. Die Flexibilität verschwindet.
Das ist CRUD-Denken, angewandt auf Event Sourcing. Die Events existieren, aber sie sind nur eine Transportschicht. Das System dreht sich immer noch um eine einzelne kanonische Repräsentation der Daten, genau wie eine traditionelle relationale Datenbank.
Read Models sind Projektionen, die für spezifische Abfragen optimiert sind. Sie dienen Anwendungsfällen, nicht Datenstrukturen. Und hier ist die entscheidende Erkenntnis: Read Models werden aus Events abgeleitet, nicht aus Aggregaten:
Ihr Aggregat entscheidet, was passiert.
Events zeichnen auf, was passiert ist.
Read Models werden aus diesen Events gebaut, um spezifische Fragen effizient zu beantworten.
Es gibt keine Anforderung, keine Regel, kein architektonisches Prinzip, das besagt, dass Read Models die Struktur von Aggregaten spiegeln müssen.
Tatsächlich ist das Gegenteil wahr. Aus einem Event-Stream können Sie viele verschiedene Read Models bauen. Das ist die Stärke von CQRS, die verloren geht, wenn Sie in Tabellen denken.
Das Bibliotheksbeispiel: Ein Write Model, viele Read Models
Machen wir das konkret mit unserer Bibliothek. Wir haben ein Book-Aggregat, das Entscheidungen handhabt:
Events fließen durch das System: BookAcquired, BookBorrowed, BookReturned, BookRemoved und so weiter. Diese Events enthalten reichhaltige Informationen darüber, was passiert ist.
Betrachten Sie nun die verschiedenen Fragen, die Menschen beantwortet bekommen möchten:
Die Katalogsuche muss verfügbare Bücher mit ihren Titeln, Autorinnen und Autoren sowie ISBNs zeigen. Sie interessiert sich nicht für die Ausleihhistorie oder den physischen Standort.
Das Mitglieder-Dashboard (die „Meine Bücher“-Seite) muss zeigen, welche Bücher das Mitglied ausgeliehen hat, wann sie fällig sind und ob welche überfällig sind. Es braucht keine ISBNs oder physische Standorte.
Das Statistik-Panel für Bibliothekarinnen und Bibliothekare muss wissen, welche Bücher am beliebtesten sind, durchschnittliche Ausleihdauern und Trends über die Zeit. Es braucht nicht die aktuelle Verfügbarkeit.
Der Überfällig-Bericht benötigt Namen der Ausleihenden, Kontaktinformationen, Buchtitel und wie viele Tage überfällig. Er benötigt keine Kaufpreise oder Zustandsbewertungen.
Das Bestandsverwaltungssystem benötigt physische Standorte, Zustandsbewertungen und letzte Inspektionsdaten. Es braucht keine Informationen über Ausleihende.
Jedes davon ist ein separates Read Model, gebaut aus denselben Events, optimiert für seinen spezifischen Anwendungsfall.
Viele kleine Read Models statt einer großen Tabelle
{
bookId: string
location: string
condition: string
lastInspectionDate: Date
}
Jedes Read Model
hat nur die Felder, die für seinen Anwendungsfall benötigt werden,
kann bei Bedarf in einer anderen Datenbank gespeichert werden (PostgreSQL für Transaktionen, Elasticsearch für Suche, Redis für schnelle Lookups),
kann jederzeit aus Events neu aufgebaut werden und
entwickelt sich unabhängig von anderen Read Models weiter.
Der Multiplikationseffekt
Hier zeigt Event Sourcing seine wahre Stärke. Aus einem Stream von Events leiten Sie viele spezialisierte Read Models ab. Jedes ist klein, fokussiert und schnell. Das Hinzufügen eines neuen Read Model erfordert keine Änderung des Write Model oder bestehender Read Models. Sie bauen einfach eine weitere Projektion aus denselben Events.
Brauchen Sie einen neuen Bericht? Erstellen Sie ein neues Read Model. Müssen Sie eine langsame Abfrage optimieren? Strukturieren Sie dieses spezifische Read Model um, ohne irgendetwas anderes anzufassen. Müssen Sie einen neuen Anwendungsfall unterstützen? Fügen Sie eine weitere Projektion hinzu.
Diese Flexibilität ist das Versprechen von CQRS. Aber sie materialisiert sich nur, wenn Sie aufhören, Read Models als Spiegel Ihrer Aggregate zu betrachten.
Warum das wichtig ist
Die praktischen Vorteile sind erheblich:
Die Performance verbessert sich, weil jedes Read Model klein und spezialisiert ist. Abfragen treffen genau die Daten, die sie brauchen, nicht mehr. Indizes können für spezifische Zugriffsmuster optimiert werden.
Die Flexibilität steigt, weil Sie Read Models hinzufügen, modifizieren oder entfernen können, ohne das Write Model oder andere Read Models zu beeinflussen. Teams können ihre Read Models unabhängig besitzen.
Klarheit entsteht, weil jedes Read Model einen klaren Zweck hat. Es gibt keine Mehrdeutigkeit darüber, welche Daten für welchen Anwendungsfall sind. Die Struktur jedes Read Model reflektiert die Fragen, die es beantwortet.
Unabhängigkeit folgt, weil verschiedene Teams an verschiedenen Read Models arbeiten können, ohne Schemaänderungen koordinieren zu müssen. Die Events sind der Vertrag, nicht die Datenbanktabellen.
Die Tabelle verlernen
Der schwierigste Teil von Event Sourcing ist das Verlernen der mentalen Modelle, die Ihnen in CRUD-Systemen gute Dienste geleistet haben. Objekte und Tabellen sind nützliche Konzepte, aber sie sind nicht die richtige Linse, um Aggregate und Read Models zu verstehen.
Hören Sie auf zu fragen: „Welche Felder hat mein Aggregat?“ Beginnen Sie zu fragen: „Was muss ich wissen, um diese Entscheidung zu treffen?“
Hören Sie auf zu fragen: „Welche Tabelle brauche ich für dieses Aggregat?“ Beginnen Sie zu fragen: „Welche Fragen müssen meine Nutzerinnen und Nutzer beantwortet bekommen?“
Das Aggregat ist Ihre Entscheidungsgrenze, schlank und fokussiert. Events sind Ihre historische Aufzeichnung dessen, was passiert ist. Read Models sind Ihre optimierten Sichten für spezifische Abfragen.
Das sind drei verschiedene Konzepte. Sie müssen nicht dieselbe Struktur haben. Tatsächlich sollten sie es wahrscheinlich nicht.
URL dieses Artikels: https://www.heise.de/-11157678
Links in diesem Artikel: [1] https://www.cqrs.com/ [2] mailto:rme@ix.de
Die Runtime bietet neue Features für Python: eine experimentelle Async-API und Zugriff auf viele native Python-Libraries wie NumPy.
Die Open-Source-Runtime Wasmer ist in Version 7.0 mit neuen Funktionen für Python, RISC-V und zahlreichen Bugfixes erschienen. Insgesamt hat das Entwicklungsteam 200 Pull-Requests umgesetzt – davon 80, die sich auf Bugs oder seit Langem bestehende Limitierungen bezogen.
Das auf WebAssembly [1] basierende Wasmer-Ökosystem ermöglicht das Ausführen von Anwendungen im Browser, eingebettet in eine Programmiersprache nach Wahl oder standalone auf dem Server.
Version 7.0 erweitert den Python-Support
In Wasmer 7.0 ist eine experimentelle Async-API mit an Bord, verfügbar in Wasmers nativen Backends [2]singlepass, cranelift und llvm. Die API ermöglicht vollständigen Async-Support in Python unter Wasmer, was das Verwenden von Bibliotheken wie SQLAlchemy ermöglicht. Darüber hinaus bietet Wasmer 7.0 Support für dynamisches Linking in WASIX [3]. Bislang war der Python-Support in Wasmer auf den Core Intepreter beschränkt, sodass sich viele native Libaries, beispielsweise NumPy, nicht nutzen ließen.
Weitere Updates betreffen unter anderem RISC-V: Die CPU-Befehlssatzarchitektur war in Wasmer bereits in LLVM und Cranelift verfügbar, doch nun besitzt auch Singlepass RISC-V-Support. Zudem ist das LLVM-Target RV32gc für eine erhöhte RISC-V-Abdeckung hinzugekommen.
Details zum neuen Release finden sich in der Ankündigung im Wasmer-Blog [4]. Zusätzliche Informationen zu den neuen Python-Features sollen in weiteren Blogbeiträgen folgen.
URL dieses Artikels: https://www.heise.de/-11163234
Links in diesem Artikel: [1] https://www.heise.de/thema/WebAssembly [2] https://docs.wasmer.io/runtime/features [3] https://wasix.org/ [4] https://wasmer.io/posts/wasmer-7 [5] mailto:mai@heise.de
Microsoft will das unsichere NTLM-Protokoll mit der nächsten Windows Server-Version standardmäßig deaktivieren. Dessen Erscheinungstermin bleibt jedoch offen.
In einem weiteren Blog-Posting verspricht Microsoft, das Sicherheitsproblem NTLM aus der Welt zu schaffen. „Mit der nächsten Version von Windows Server“ soll es dann so weit sein; wann die erscheint, ist jedoch nach wie vor ungewiss. Aktuell ist NTLM zwar deprecated, aber nach wie vor in vielen Windows-Systemen aktiv und Administratoren müssen die davon ausgehenden Gefahren managen.
Die Sünden der Vergangenheit
NTLM ist ein seit Jahrzehnten veraltetes Authentifizierungsverfahren, dessen Sicherheitsprobleme altbekannt sind und immer noch etwa von Ransomware-Banden ausgenutzt werden, um sich den Zugang zu Konten mit höheren Rechten zu verschaffen. Insbesondere abgefangene NTLMv1-Hashes lassen sich leicht knacken – etwa mit den von Google bereitgestellten Rainbow-Tabellen [1]. Außerdem lassen sich NTLM-Hashes auch für Pass-The-Hash-Attacken nutzen.
Trotzdem zögert Microsoft, das veraltete Protokoll komplett abzuschalten. Zu viele Systeme nutzen das Verfahren noch. Etwa weil sie keine direkte Verbindung zu einem Domain Controller haben, der für eine Kerberos-Authentifizierung nötig wäre. Oder weil es sich um lokale Accounts handelt oder NTLM fest verdrahtet („hard coded“) ist, erklärt Microsoft. Doch in der zweiten Hälfte des Jahres 2026 will man diese kritischen Punkte der Migration weg von NTLM aus der Welt geschafft haben. IAKerb, lokale Key Distribution Center und Updates zentraler Windows-Komponenten sollen es bis dahin richten.
Mit der nächsten großen Windows-Server-Version soll es kommen, das Abschalten von NTLM
(Bild: Quelle: Microsoft)
Das Ende naht
Und dann soll es endlich [2] so weit sein. Mit der nächsten großen Windows-Server-Version und den zugehörigen Windows-Clients will man NTLM standardmäßig deaktivieren, heißt es jetzt bei Microsoft [3]. Ganz aus der Welt ist es damit jedoch weiterhin nicht, beugt man übertriebenen Erwartungen der Security-Community vor. Der NTLM-Code wird immer noch Teil von Windows bleiben und Admins werden das unsichere Protokoll somit reaktivieren können. Wann man diesen letzten Schritt der Ausmusterung von NTLM vollziehen will, dazu lässt sich der Konzern nicht weiter aus.
Wer für die Sicherheit von Windows-Netzen verantwortlich ist, sollte nicht auf dieses ungewisse Ende warten, sondern vielmehr sofort Maßnahmen ergreifen, um die von NTLM ausgehenden Gefahren einzuhegen. Wie das sinnvoll geht, erklärt etwa das heise security Webinar zum Thema Sicherheitslücken in NTLM und Kerberos verstehen und schließen [4]. Denn auch den designierten NTLM-Nachfolger Kerberos plagen Sicherheitsprobleme [5], die Angreifer etwa beim Kerberoasting gezielt ausnutzen.
URL dieses Artikels: https://www.heise.de/-11162674
Links in diesem Artikel: [1] https://www.heise.de/news/Windows-Netze-Google-Mandiant-gibt-Microsofts-NTLM-den-Todesstoss-11145487.html [2] https://www.heise.de/news/Jetzt-sicher-Microsoft-schmeisst-NTLM-endgueltig-aus-Windows-9749824.html [3] https://techcommunity.microsoft.com/blog/windows-itpro-blog/advancing-windows-security-disabling-ntlm-by-default/4489526 [4] https://heise-academy.de/webinare/ntlmkerberos [5] https://www.heise.de/news/Microsoft-startet-mit-Identifizierung-von-unsicherer-RC4-Verschluesselung-11145332.html [6] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp [7] mailto:ju@heise.de
Admins sollten zeitnah ein wichtiges Sicherheitsupdate für Dell Unity Operating Environment installieren.
Dells Speicherarray-Software für die EMC-Serie Unity, UnityVSA und Unity XT sind verwundbar. Angreifer können an vier Sicherheitslücken ansetzen. Eine dagegen gerüstete Version steht zum Download bereit.
Verschiedene Gefahren
In einer Warnmeldung führen die Entwickler aus [1], dass zwei Schwachstellen (CVE-2026-21418 „hoch“, CVE-2026-22277 „hoch“) die Software direkt betreffen. An beiden Lücken kann ein lokaler Angreifer mit niedrigen Nutzerrechten ansetzen. Weil Eingaben nicht ausreichend geprüft werden, können präparierte OS-Befehle Angreifer zum Root machen. In dieser Position kann er dann Schadcode ausführen und Systeme so kompromittieren.
Zwei weitere Schwachstellen betreffen die Drittanbieter-Komponenten DOMPurify (CVE-2024-47875 „mittel“) und Urlparse, urllib.parse.urlsplit (CVE-2025-0938 „mittel“). Hier kann es unter anderem zu XSS-Attacken kommen.
Dells Entwickler versichern, die Schwachstellen in Dell Unity Operating Environment (OE) 5.5.3 geschlossen zu haben. Alle vorigen Ausgaben sollen angreifbar sein. Bislang gibt es keine Berichte, dass Angreifer die Lücken bereits ausnutzen.
Zuletzt [2] hat Dell Data Protection Advisor repariert.
URL dieses Artikels: https://www.heise.de/-11162412
Links in diesem Artikel: [1] https://www.dell.com/support/kbdoc/en-us/000421197/dsa-2026-054-security-update-for-dell-unity-dell-unityvsa-and-dell-unity-xt-security-update-for-multiple-vulnerabilities [2] https://www.heise.de/news/Dell-Data-Protection-Advisor-ueber-unzaehlige-Sicherheitsluecken-angreifbar-11150421.html [3] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp [4] mailto:des@heise.de
Tails 7.4.1 schließt eine kritische Sicherheitslücke.
(Bild: heise medien)
Die auf Anonymität im Netz ausgerichtete Linux-Distribution Tails ist in Version 7.4.1 erschienen – ein Notfall-Update.
Das Tails-Projekt hat die auf anonyme Bewegung im Netz spezialisierte Linux-Distribution in Version 7.4.1 herausgegeben. Es handelt sich um ein Notfall-Update zum Schließen einer kritischen Sicherheitslücke.
In der Versionsankündigung der Tails-Maintainer [1] erklären sie, dass in der jüngsten Fassung insbesondere die eingesetzte OpenSSL-Bibliothekt auf aktuellen Stand 3.5.4 gebracht wurde. Die schließt die kürzlich bekannt gewordenen Sicherheitslücken in OpenSSL, von denen die gravierendste unauthentifizierten Angreifern etwa das Einschleusen von Schadcode [2] ermöglicht. „Mithilfe dieser Schwachstellen könnten böswillige Tor-Relay-Server einen Tails-Benutzer deanonimisieren“, erklären die Autoren die potenziellen Auswirkungen der Sicherheitslücke. Sie ergänzen zudem, dass ihnen bislang keine Exploits der Schwachstellen in der Praxis zur Kenntnis gelangt sind.
Die Entwickler haben die Gelegenheit auch genutzt, weitere Softwarepakete der Distribution zu aktualisieren. Der Tor-Client ist in Version 0.4.8.22 an Bord und der Mail-Client Thunderbird auf dem Stand 140.7.0.
Tails 7.4.1: Gelöste und bekannte Probleme
Dabei haben sie ein Problem mit der Gmail-Authentifizierung in Thunderbird ausbügeln können. Beim Öffnen der WLAN-Einstellungen vom Tor-Verbindungsassistenten aus zeigt Tails nun einen drehenden Cursor als Feedback an, dass es gerade daran arbeitet.
Ein bekanntes Problem ist, dass die Homepage des Tor-Browsers fälschlicherweise behauptet, dass Tails 7.4 im Einsatz wäre, selbst nach der Aktualisierung auf Tails 7.4.1 Die Links auf die Release-Notes verweisen zudem ebenfalls noch auf die ältere Fassung. Im Zweifelsfall sollen Interessierte unter „Apps“ – „Tails“ – „About Tails“ (respektive „Über Tails“) aufrufen. Der Dialog zeigt korrekt die aktuell laufende Version an.
Die Version 7.4 von Tails erschien [5] Mitte Januar. Darin haben die Maintainer die Software auf den aktuellen Stand gebracht und kleine Ärgernisse korrigiert, die zwischenzeitlich auftreten konnten.
URL dieses Artikels: https://www.heise.de/-11162314
Links in diesem Artikel: [1] https://tails.net/news/version_7.4.1/ [2] https://www.heise.de/news/OpenSSL-12-Sicherheitslecks-eines-erlaubt-Schadcodeausfuehrung-und-ist-kritisch-11161775.html [3] https://tails.net/install/download/index.en.html [4] https://tails.net/install/download-iso/index.en.html [5] https://www.heise.de/news/Anonymisierendes-Linux-Tails-7-4-korrigiert-kleine-Probleme-11143680.html [6] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp [7] mailto:dmk@heise.de
Der Raspi-Hersteller erhöht wegen des teuren Speichers noch mal die Preise. Das Topmodell Raspberry Pi 5 steigt auf über 200 Euro.
Die Preise für fast alle Raspberry-Pi-Einplatinencomputer steigen deutlich an. Die Raspberry Pi Plc. erhöht die Preisempfehlungen fast aller Modelle mit mindestens 2 GByte Speicher, vom Raspberry Pi 4 und 5 über die Compute Modules bis hin zu den Tastatur-PCs Raspberry Pi 500 [1] und 500+ [2]. Grund sind die steigenden Kosten für den aufgelöteten Arbeitsspeicher.
Schielt man auf den Preis der 1-GByte-Version für gleichbleibend 45 Dollar, wird klar: Beim Raspi 5 mit 16 GByte macht allein der Speicher über drei Viertel des Preises aus. Beim 8-GByte-Modell für jetzt 125 statt 95 Dollar sind es etwa zwei Drittel. Die Raspis mit 2 und 4 GByte RAM erscheinen derzeit am attraktivsten für Bastelprojekte. Der Raspi 4 ist noch etwas günstiger erhältlich als der Raspi 5.
16-GByte-Raspi kaum zu bekommen
Die Euro-Preise inklusive Mehrwertsteuer (in US-Preisen nicht enthalten) lassen sich fast eins zu eins von den Dollar-Preisen ableiten, wenn sich die Händler an die Empfehlungen halten. Ein Raspi 5 mit 4 GByte RAM bleibt damit noch unter der 100-Euro-Marke. Dessen neue Preisempfehlung liegt bei 85 Dollar.
Für die 16-GByte-Version (ab 209,90 €) [5] gilt das nicht, da diese bereits ausverkauft ist. Sie nähert sich im Handel abseits von kleinen Amazon- und Ebay-Shops den 300 Euro. Der Hersteller ist hier an einen einzigen Zulieferer gebunden, da es sich um eine Einzelanfertigung für das Raspi-Board handelt.
Bei den 3er-Raspis und den Miniversionen der Serie Raspberry Pi Zero nimmt der Hersteller keine Preisanpassungen vor. Sie verwenden alten LPDDR2-Speicher, von dem die Firma derzeit genug für mehrere Produktionsjahre auf Vorrat hat.
Die Raspberry Pi Plc. will die Preise wieder senken, sobald sich die Liefersituation beim Speicher bessert. Bis das passiert, kann allerdings noch einige Zeit vergehen.
URL dieses Artikels: https://www.heise.de/-11162382
Links in diesem Artikel: [1] https://www.heise.de/tests/Im-Test-Raspberry-Pi-500-im-Tastaturgehaeuse-und-Raspi-Monitor-10190567.html [2] https://www.heise.de/tests/Raspberry-Pi-500-mit-beleuchteter-mechanischer-Tastatur-und-SSD-im-Test-10657090.html [3] https://www.heise.de/news/Raspberry-Pi-4-und-5-werden-teurer-11098873.html [4] https://www.raspberrypi.com/news/more-memory-driven-price-rises/ [5] https://preisvergleich.heise.de/raspberry-pi-5-modell-b-a3383358.html?cs_id=1206858352&ccpid=hocid-newsticker [6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner [8] mailto:mma@heise.de
Im Februar zeigt Netflix alle Staffeln von "Stargate SG-1". Bei Amazon Prime ist "The Life Of Chuck" im Programm und bei Disney+ läuft "Inglourious Basterds".
Der Februar hat unter anderem Film- und Serien-Highlights wie Tarantinos "Inglourious Basterds", die kultige SciFi-Serie "Stargate SG-1" sowie die Tragikomödie "The Life Of Chuck" im Gepäck.
"Stargate SG-1", Staffel 1-10
Ab dem 15. Februar 2026 zeigt Netflix [1] alle 10 Staffeln der beliebten Science-Fiction-Serie "Stargate SG-1", die zwischen 1997 und 2007 produziert und erstmals veröffentlicht wurde. Die Serie basiert auf dem Film "Stargate", der 1994 in den Kinos lief, und handelt von der geheimen militärischen Spezialeinheit "SG-1", die aus Soldaten und Wissenschaftlern besteht. Zu der Einheit gehören unter anderem Colonel Jack O’Neill (Richard Dean Anderson), Dr. Samantha Carter (Amanda Tapping), Teal'c (Christopher Judge) und Dr. Daniel Jackson (Michael Shanks).
Mithilfe des namensgebenden Sternentors (Stargate) können die Mitglieder von "SG-1" über eine Wurmlochverbindung innerhalb weniger Sekunden zu Stargates reisen, die sich auf anderen Planeten befinden. Colonel Jack und seine Kollegen sollen auf fremden Planeten nach unbekannten Zivilisationen und fortschrittlicher Technik suchen, was dazu führt, dass der Trupp immer wieder Konflikte entfacht oder in vor Ort bereits bestehende Konflikte hineingezogen wird. Bereits zu Beginn der Serie wird schnell klar, dass die feindseligen "Goa’uld" eine Bedrohung für die Erde darstellen, sodass SG-1 auch kontinuierlich nach Verbündeten auf den bereisten Planeten sucht. Im Herbst 2025 wurde angekündigt, dass eine neue "Stargate"-Serie gegen Ende 2026 für Amazon in die Produktion gehen wird.
"The Life Of Chuck"
Die Tragikomödie "The Life Of Chuck" ist die Verfilmung der Kurzgeschichte "Chucks Leben" aus Stephen Kings Novellensammlung "Blutige Nachrichten". Das Besondere an "The Life Of Chuck" ist, dass die Geschichte des titelgebenden Protagonisten Charles "Chuck" Krantz (Tom Hiddleston) rückwärts erzählt wird. Chuck wächst nach dem Tod seiner Eltern bei seinen Großeltern auf. Während sein Großvater Albie Krantz (Mark Hamill) ihn dazu drängt, wie er selbst Buchhalter zu werden, geht Chuck seiner Tanz-Leidenschaft nach, die er von seiner Großmutter Sarah Krantz (Mia Sara) geerbt hat.
Als er eines Tages auf den stets verschlossenen Dachboden seines Wohnhauses geht, obwohl es ihm von Albie verboten worden war, hat Chuck eine geisterhafte Begegnung mit seinem Zukunfts-Ich. Dieses Ereignis hat großen Einfluss auf sein weiteres Leben und ohne Chucks Wissen auch auf das vieler anderer Menschen. Zu Beginn des Films wird gezeigt, wie die Erde in nicht allzu ferner Zukunft kurz vor ihrem Ende steht, nachdem Naturkatastrophen und Epidemien die Welt zu einem nahezu unbewohnbaren Ort gemacht haben. Diese Ereignisse scheinen auf seltsame Weise mit einem Mann namens Charles "Chuck" Krantz verbunden zu sein. Der Film ist ab dem 09. Februar 2026 bei Amazon Prime Video [3] zu sehen.
"Inglourious Basterds"
Quentin Tarantinos "Inglourious Basterds" findet in einem fiktiven Szenario während des 2. Weltkriegs statt und erzählt über fünf Kapitel eine ebenso brutale wie spannende Kriegsgeschichte mit alternativen Fakten und Wendungen. Im Zentrum der Handlung steht einerseits die jüdische Kinobetreiberin Shosanna Dreyfus (Mélanie Laurent) und andererseits die berüchtigte jüdische Kampftruppe "Basterds" unter der Führung von Lieutenant Aldo Raine (Brad Pitt). Shosanna will sich an den Nazis rächen, da diese ihre Familie ermordet haben, während Aldo und seine Männer hinter feindlichen Linien in Frankreich so viele Nazis wie möglich überfallen und töten wollen.
Die Wege von Shosanna und Aldo kreuzen sich in einem fulminanten Finale, bei dem beide Parteien unabhängig voneinander die Auslöschung der gesamten NS-Führungsriege, inklusive Adolf Hitler, geplant haben. Shosanna und Aldo haben mit dem SS-Offizier Hans Landa (Christoph Waltz) den gleichen, skrupellosen und äußerst scharfsinnigen Widersacher, den es für die Umsetzung der Attentatspläne zu überwinden gilt. "Inglourious Basterds" läuft ab dem 01. Februar 2026 bei Disney+ [7].
Alle neuen Filme und Serien in der Übersicht
Die folgende Tabelle zeigt alle neuen Filme und Serien, die im Februar bei Netflix, Disney+ und Amazon Prime Video erscheinen und im Abopreis inbegriffen sind. Titel, die bei Amazon ausschließlich zum Einzelkauf oder zum Leihen verfügbar werden, sind nicht angegeben.
Disney+
Release
Filme
Ich – Einfach unverbesserlich 1+2
01.02.
E.T. – Der Außerirdische
01.02.
Inglourious Basterds
01.02.
Notting Hill
01.02.
Jerry Maguire – Spiel des Lebens
01.02.
Jumanji
01.02.
Die Hochzeit meines Besten Freundes
01.02.
Grindhouse: Planet Terror
01.02.
Jackie Brown
01.02.
Kill Bill: Volume 1+2
01.02.
Reservoir Dogs
01.02.
Du & Ich und Alle reden mit
01.02.
Hook
02.02.
Ella McCay
05.02.
Max und die wilde 7 – Die Geister-Oma
06.02.
Stay
13.02.
Love Story: John F. Kennedy Jr. & Carolyn Bessette
13.02.
Searchlight Pictures "In the Blink of an Eye"
27.02.
Morbius
28.02.
Serien
Schitt’s Creek: Staffel 1-6
02.02.
Die Muppet Show
04.02.
Beyond Paradise: Staffel 3
04.02.
We Call It Imagineering: Staffel 1
04.02.
The Artful Dodger: Staffel 2
10.02.
The Scream Murder: A True Teen Horror Story: Staffel 1
11.02.
Himmel, Herrgott, Sakrament: Staffel 1
18.02.
Die achte Familie: Sekizinci Aile: Staffel 1
18.02.
Schloss Einstein: Staffel 20-23
18.02.
Das Geheimnis des Totenwaldes: Staffel 1
18.02.
Girl on the Run: The Hunt for America’s most wanted Woman: Staffel 1
19.02.
Watching You: Staffel 1
20.02.
Paradise: Staffel 2
23.02.
Amazon
Release
Filme
Fargo - Blutiger Schnee
01.02.
Glam Girls - Hinreißend verdorben
01.02.
Licorice Pizza
01.02.
After
01.02.
After Love
01.02.
After Truth
01.02.
Ein ganzes halbes Jahr
01.02.
Bad Boy And Me
03.02.
William Tell
04.02.
Relationship Goals
04.02.
Fabian und Die mörderische Hochzeit
06.02.
Natürliches Gleichgewicht: Die Vision eines Königs
06.02.
Noah
06.02.
Jumper
06.02.
F*Ck Valentine's Day
07.02.
Das perfekte Geheimnis
07.02.
Hellboy: The Crooked Man
09.02.
The Life Of Chuck
09.02.
Love Me Love Me
13.02.
After Ever Happy
13.02.
Manta Manta
16.02.
Borderlands
22.02.
Boneyard
24.02.
Meet Cute – Mein täglich erstes Date
25.02.
The Bluff
25.02.
Man On The Run
27.02.
Hit Man (2023)
27.02.
Inheritance - Ein dunkles Vermächtnis
28.02.
The Creator
28.02.
Serien
LOL: Last One Laughing Brazil: Staffel 5
06.02.
Cross: Staffel 2
11.02.
Soul Power: The Legend Of The American Basketball Association: Staffel 1
12.02.
Jesy Nelson: Life After Little Mix: Staffel 1
13.02.
56 Tage: Staffel 1
18.02.
The CEO Club: Staffel 1
23.02.
Final Siren: Inside The Afl: Staffel 1
27.02.
Diverse NBA-Spiele
Februar
Netflix
Release
Filme
Für immer Liebe
01.02.
Glitter & Gold: Die Welt erfolgreicher Eistanzpaare
Zwei Elon-Musk -Firmen gehen zusammen: SpaceX übernimmt xAI. Das Ziel sind KI-Rechenzentren im All, die sich selbst mit Strom versorgen.
Starship soll Satelliten aussetzenBild:
SpaceX
SpaceX hat am 2. Februar 2026 d ie Übernahme von xAI angekündigt . Das Ziel klingt radikal: KI-Rechenleistung soll künftig aus dem Weltraum statt von der Erde kommen. Elon Musks Raumfahrtfirma will damit das größte Problem der KI-Industrie lösen – den explodierenden Energiebedarf.
Rechenzentren brauchen zu viel Strom
Heutige KI-Infrastruktur stößt an ihre Grenzen. Die Rechenzentren verbrauchen enorm viel Strom und müssen aufwendig gekühlt werden. Das musste auch xAI feststellen und laute, energiefressende und umweltschädliche Stromgeneratoren betreiben, um sein Rechenzentrum versorgen zu können.
Laut SpaceX lässt sich der Betrieb solcher irdischen Rechenzentren nicht mehr skalieren, ohne Stromnetze zu überlasten und die Umwelt zu schädigen. Die Übernahme verbindet mehrere Geschäftsfelder der beiden Unternehmen: KI-Entwicklung, Raketenstarts, Satelliteninternet und Social Media.
Die Lösung soll im Orbit liegen. Satelliten im All erhalten konstante Sonneneinstrahlung – keine Wolken, keine Nacht. Nach dem Start fallen kaum noch Betriebskosten an. SpaceX rechnet damit, dass weltraumbasierte KI-Rechenzentren in zwei bis drei Jahren günstiger werden als irdische Alternativen.
Hunderttausende Satelliten mit Starship aussetzen
Das Konzept braucht nach Angaben von Elon Musk Hunderttausende neue Satelliten. Hier kommt Starship ins Spiel. Die neue Rakete kann 200 Tonnen Nutzlast pro Start transportieren und eine ganze Reihe von Satelliten transportieren und aussetzen. SpaceX hat schon einmal einen Antrag bei der US-Regulierungsbehörde FCC eingereicht hat
Jeder Starship-Start würde die 20-fache Transportkapazität eines Falcon-Starts bieten. SpaceX kalkuliert mit 100 Gigawatt zusätzlicher KI-Rechenleistung pro Jahr, die damit aufgebaut werden können.
Was kommt danach? – Mondbasen für Satellitenfabriken
SpaceX beziehungsweise Elon Musk denkt schon weiter. Mondbasen sollen zusätzliche Satelliten aus lokalen Ressourcen produzieren. Ein elektromagnetischer Massenbeschleuniger auf dem Mond könnte jährlich 500 bis 1.000 Terawatt an KI-Satelliten ins All schießen, wobei das eher nach Science-Fiction klingt als ein ernsthaftes Projekt.
Wartbarer C++-Code entsteht durch klare Designprinzipien, konsistente Konventionen und bewussten Umgang mit Ressourcen. Ein virtueller Zwei-Tage-Workshop zeigt, wie's geht.
Bild:
KI-generiert mit Sora
In großen C++-Codebasen entscheiden Struktur, Benennung und klare Verantwortlichkeiten darüber, ob Änderungen schnell nachvollziehbar bleiben. Moderne Sprachfeatures erhöhen die Ausdruckskraft, können aber auch Komplexität und schwer erkennbare Abhängigkeiten verstärken.
Clean-Code-Prinzipien schaffen ein gemeinsames Vokabular für Reviews, Refactoring und Architekturentscheidungen. Wo Lesbarkeit, Fehlerbehandlung und Ressourcenmanagement konsequent umgesetzt sind, sinkt der Aufwand für Wartung und Erweiterungen.
Best Practices für wartbaren Code
Um diese Ansätze in C++ praxisnah zu vertiefen, bietet die Golem Karrierewelt den Live-Remote-Workshop " C++ Clean Code – Best Practices für Programmierer: virtueller Zwei-Tage-Workshop " am 18.-19. März 2026 an. Inhalte sind unter anderem KISS, DRY und SOLID, Prefer Composition over Inheritance, Law of Demeter sowie der Umgang mit Premature Optimization und Code Smells.
Ein Schwerpunkt liegt auf den C++ Core Guidelines, etwa zu Interfaces, Klassen, Smart Pointern, Concurrency und Error Handling. Ergänzend werden Patterns und Idioms wie RAII, Pimpl und CRTP sowie typische Anti-Patterns und Decoupling-Ansätze diskutiert.
Vorausgesetzt werden solide Kenntnisse in modernem C++; benötigt wird ein eigener Rechner mit C++-Compiler (mindestens C++ 17). Das Seminar findet virtuell auf Deutsch statt, Folien und Fachausdrücke sind in Englisch; nach Abschluss wird eine Teilnahmebestätigung ausgestellt.
Wer sich vor dem Kauf für den kostenlosen Newsletter der Golem Karrierewelt anmeldet, erhält 10 Prozent Rabatt auf die erste Bestellung bei der Golem Karrierewelt.
Der Philips-Wasserkocher mit 1,7 Litern Fassungsvermögen, Leuchtanzeige und schnellem Aufkochen ist aktuell im Preis reduziert.
Wasserkocher von Philips für 27,98 EuroBild:
amazon.de/philips
Sobald es kalt wird, verschiebt sich der Getränkebedarf in Richtung heiß und schnell wärmend. Wasserkocher werden entsprechend häufig genutzt, ebenso Wärmflaschen. Der Wasserkocher von Philips ist auf Häufigkeit ausgelegt. Die 1,7-Liter-Kapazität macht sich vor allem dann bemerkbar, wenn er mehrfach hintereinander verwendet wird.
Mehr Wasser, weniger Unterbrechungen
Das Fassungsvermögen reicht für mehrere Tassen oder für eine volle Wärmflasche, ohne dass direkt wieder nachgefüllt werden muss. Das Edelstahlgehäuse wirkt stabil, steckt häufige Nutzung gut weg und bleibt auch nach längerer Zeit unauffällig. Der Wasserkocher von Philips ist kein Designobjekt, sondern ein Gerät, das funktionieren soll.
Im Inneren arbeitet ein verdecktes, flaches Heizelement. Laut Hersteller bringt es das Wasser zügig zum Kochen. Gleichzeitig hat diese Bauweise einen praktischen Nebeneffekt: Kalk setzt sich weniger an problematischen Stellen ab. Die Reinigung bleibt überschaubar, das Gerät wirkt weniger wartungsintensiv als Modelle mit offenliegenden Heizspiralen.
Der integrierte Mikro-Sieb-Filter soll Kalkpartikel bis zu 200 Mikrometer aus dem Wasser filtern. Das ist kein Feature, über das man viel nachdenkt, macht sich aber bemerkbar, wenn das Wasser klar bleibt und es keine Rückstände in der Tasse gibt. Der Filter lässt sich entnehmen und reinigen, ohne dass Ersatzteile oder Verbrauchsmaterialien nötig sind.
Einfach zu handhaben
Auch der Sprungdeckel ist funktional gedacht. Er kann weit geöffnet werden, das erleichtert das Befüllen und Reinigen. Gleichzeitig soll der Kontakt mit aufsteigendem Dampf reduziert werden. Beim Thema Sicherheit setzt Philips auf ein mehrstufiges System mit Trockengehschutz und automatischer Abschaltung. Auf diese Weise ist der Wasserkocher nicht mehr in Betrieb, wenn er leer ist oder der Kochvorgang abgeschlossen wurde. Ergänzt wird das durch eine Tassenanzeige, die hilft, nur die benötigte Wassermenge zu erhitzen. Gemäß Hersteller kann damit Energie eingespart werden.
Dieser Artikel enthält sogenannte Affiliate-Links. Wenn Sie die Produkte über diese Links kaufen, erhält Golem eine kleine Provision. Dies hat keinen Einfluss auf den Preis der Artikel.
Zunächst elf Xeon 600 ab 499 US-Dollar beerben Intels w2500/3500-Workstation-CPUs. Sie haben moderne Intel-Technik und optional rasanten MRDIMM-Speicher.
Intel steht durch AMDs Epyc- und Threadripper-Prozessoren unter Druck, will den Workstation-Markt aber nicht komplett der Konkurrenz überlassen. Der Hersteller knappst daher einige Chips aus der eigentlich ausgebuchten Serverproduktion ab und widmet sie für schnellere Workstations um, als mit den Vorgängermodellen auf Basis der Sapphire-Rapids-Architektur [1] möglich waren.
Die neue Xeon-600-Reihe fußt zwar auf der aktuellen Server- und Chiplet-Technik, ist aber für Systeme mit nur einer Fassung und damit vorrangig für Workstations gedacht. Die Prozessoren verwenden die Fassung LGA4710-2 und bringen zusammen mit dem W890-Chipsatz bis zu 4 TByte DDR5-6400-Speicher, 128 PCIe-5.0-Lanes, Wi-Fi 7 sowie CXL-2.0-Support mit. Wie bei Workstations üblich, setzen auch die Xeon 600 teure DDR5-Speichermodule vom Typ Registered-DIMM mit ECC ein.
Im Vergleich zu den Server-CPUs, die laut Intel in Workstation-Boards nicht starten und andersherum, fehlen ihnen vorrangig die Mehrsockelfähigkeit und die spezialisierten Beschleuniger [2]-Schaltkreise Data Streaming Accelerator (DSA), In-Memory Analytics Aceelerator (IAA), QuickAssist (QAT) und Dynamic Load Balancer (DLB).
Sehr wohl vorhanden sind hingegen die Advanced Matrix Extensions (AMX), die sich besonders für KI-Anwendungen mit geringen Genauigkeitsanforderungen eignen. Sie haben auch die Verbesserungen der Architekturgeneration Redwood Cove aus dem Server erhalten und beherrschen jetzt nicht nur bfloat16, sondern auch das „echte“ 16-Bit-Gleitkommadatenformat FP16. Intel nutzt das in seinem Open Image Denoiser ab Version 2.4 [3] und erzielt einen gigantischen Performance-Vorsprung von beinahe Faktor 4 gegenüber der älteren Version 2.3.1 – wie viel davon allerdings nur auf die AMX-FP16-Option zurückgeht, ist fraglich. Denn unser Test-Server spuckte per lscpu | grep amx nur die drei bekannten AMX-Flags amx_bf16, amx_tile und amx_int8 aus. Eine klärende Antwort Intels auf unsere Rückfrage hin steht noch aus.
Immerhin sollen die neuen Xeon 600 nicht nur 9 Prozent schneller im Singlethreading sein, sondern im Vergleich der Spitzenmodelle 698X gegen w9-3595X 61 Prozent mehr Multithreading-Performance haben. Das will Intel im Rendering-Benchmark Cinebench 2026 gemessen haben. Bei Blender sollen es gar 74 Prozent Mehrleistung sein und beim KI-gestützten Upscaling in Topaz Labs Video immerhin 29 Prozent.
Auch dank neuerer Fertigungstechnik Intel 3 für das oder die Compute Dies bleibt die Thermal Design Power (TDP), also die spezifizierte elektrische Leistungsaufnahme, im selben Rahmen. Sie sinkt für das Topmodell sogar wieder leicht von 385 Watt beim Xeon w9-3595X auf 350 Watt für den Xeon 698X – die erreichte schon der w9-3495X.
Elf Neulinge
Die Spanne der Neulinge reicht vom Xeon 634 für 499 US-Dollar Großhandelspreis, also zuzügliche Steuern, bis zum 86-Kerner Xeon 698X für 7699 US-Dollar. Ersterer hat nur vier Speicherkanäle, 80 PCIe-5.0-Lanes und lässt sich nicht übertakten. Das Topmodell hingegen ist für Overclocker freigeschaltet, die damit vermutlich wieder auf Rekordjagd bei typischen Benchmarks gehen werden. Dazu darf der Xeon 698X zusammen mit vier weiteren X-Modellen auch das besonders schnelle Multiplexed-Rank-DIMM (auch MCR-DIMMs genannt [4]) mit DDR5-8800-Geschwindigkeit ansprechen. Nur der kleinste Xeon 600X, der 24-kernige 658X, muss auf MRDIMM-Support verzichten. Apropos: MRDIMMs sind derzeit für Endkunden hauptsächlich im Rahmen von Komplettsystemen erhältlich, der Preisvergleich [5] führt derzeit kein einziges Kit.
Außer Takterhöhungen sind auch selektive Taktsenkungen für die besonders energieintensiven AVX-512- sowie Matrizen-Multiplikations-Befehlsketten (TMUL) möglich, die das generelle Taktpotenzial erhöhen können und nur bei entsprechenden Befehlen die Frequenz absenken, damit Hitze und Energiebedarf nicht den Rahmen sprengen.
Die elf neuen CPUs sollen ab dem Ende des ersten Quartals in den Handel kommen und vorwiegend in Komplettsystemen von Systemintegratoren und großen Anbietern wie Lenovo, Dell und HP zum Einsatz kommen. Als Partner für die passenden W890-Boards nennt Intel Asus, Supermicro und Gigabyte. Die Boardpreise dürften sich nicht unter denen der Vorgänger [7] bewegen und in der Regel eher den oberen dreistelligen Bereich besetzen.
Intel Xeon 600: Neue Workstation-Prozessoren mit P-Cores „Redwood Cove“
Xeon
Kerne
Basis-Takt (Turbo all-core/single-core)
Level 3-Cache
TDP
Speicher
MR-DIMM
PCIe 5.0 Lanes
Boxed
Preis (US-Dollar)
698X
86
2,0 (3,0/4,8) GHz
336 MByte
350 W
8 × DDR5-6400
8 × DDR5-8800
128
-
7699 $
696X
64
2,4 (3,5/4,8) GHz
336 MByte
350 W
8 × DDR5-6400
8 × DDR5-8800
128
Ja
5599 $
678X
48
2,4 (3,8/4,9) GHz
192 MByte
300 W
8 × DDR5-6400
8 × DDR5-8800
128
Ja
3749 $
676X
32
2,8 (4,3/4,9) GHz
144 MByte
275 W
8 × DDR5-6400
8 × DDR5-8800
128
Ja
2499 $
674X
28
3,0 (4,3/4,9) GHz
144 MByte
270 W
8 × DDR5-6400
8 × DDR5-8800
128
-
2199 $
658X
24
3,0 (4,3/4,9) GHz
144 MByte
250 W
8 × DDR5-6400
-
128
Ja
1699 $
656
20
2,9 (4,5/4,8) GHz
72 MByte
210 W
8 × DDR5-6400
-
128
-
1399 $
654
18
3,1 (4,5/4,8) GHz
72 MByte
200 W
8 × DDR5-6400
-
128
Ja
1199 $
638
16
3,2 (4,5/4,8) GHz
72 MByte
180 W
4 × DDR5-6400
-
80
-
899 $
636
12
3,5 (4,5/4,7) GHz
48 MByte
170 W
4 × DDR5-6400
-
80
-
639 $
634
12
2,7 (3,9/4,6) GHz
48 MByte
150 W
4 × DDR5-6400
-
80
-
499 $
-: nicht unterstützt; alle Kerne mit SMT, alle X-Modelle unlocked für Übertakter, alle Xeon 600 unterstützen vPro, max. Speicherausbau 4 TByte
URL dieses Artikels: https://www.heise.de/-11162566
Links in diesem Artikel: [1] https://www.heise.de/news/Sapphire-Rapids-Refresh-Intels-Workstation-Prozessoren-Xeon-W-3500-und-2500-9848706.html [2] https://www.heise.de/hintergrund/Sapphire-Rapids-Intels-Xeon-CPUs-fuer-Server-und-Rechenzentren-angekuendigt-7452659.html [3] https://github.com/RenderKit/oidn/releases/tag/v2.4.0 [4] https://www.heise.de/news/Server-RAM-Speichermodule-mit-hoeherer-Kapazitaet-oder-Geschwindigkeit-9069394.html [5] https://geizhals.de/?fs=MRDIMM&hloc=at&hloc=de [6] https://www.heise.de/ct [7] https://geizhals.de/?fs=W790&hloc=at&hloc=de&cat=mainboards [8] mailto:csp@heise.de