FreshRSS

🔒
✇ heise Security

Anonymisierendes Linux: Notfall-Update Tails 7.4.1 erschienen

Von Heise — 02. Februar 2026 um 14:06
Desktop von Tails auf einem Notebook

Tails 7.4.1 schließt eine kritische Sicherheitslücke.

(Bild: heise medien)

Die auf Anonymität im Netz ausgerichtete Linux-Distribution Tails ist in Version 7.4.1 erschienen – ein Notfall-Update.

Das Tails-Projekt hat die auf anonyme Bewegung im Netz spezialisierte Linux-Distribution in Version 7.4.1 herausgegeben. Es handelt sich um ein Notfall-Update zum Schließen einer kritischen Sicherheitslücke.

In der Versionsankündigung der Tails-Maintainer [1] erklären sie, dass in der jüngsten Fassung insbesondere die eingesetzte OpenSSL-Bibliothekt auf aktuellen Stand 3.5.4 gebracht wurde. Die schließt die kürzlich bekannt gewordenen Sicherheitslücken in OpenSSL, von denen die gravierendste unauthentifizierten Angreifern etwa das Einschleusen von Schadcode [2] ermöglicht. „Mithilfe dieser Schwachstellen könnten böswillige Tor-Relay-Server einen Tails-Benutzer deanonimisieren“, erklären die Autoren die potenziellen Auswirkungen der Sicherheitslücke. Sie ergänzen zudem, dass ihnen bislang keine Exploits der Schwachstellen in der Praxis zur Kenntnis gelangt sind.

Die Entwickler haben die Gelegenheit auch genutzt, weitere Softwarepakete der Distribution zu aktualisieren. Der Tor-Client ist in Version 0.4.8.22 an Bord und der Mail-Client Thunderbird auf dem Stand 140.7.0.

Tails 7.4.1: Gelöste und bekannte Probleme

Dabei haben sie ein Problem mit der Gmail-Authentifizierung in Thunderbird ausbügeln können. Beim Öffnen der WLAN-Einstellungen vom Tor-Verbindungsassistenten aus zeigt Tails nun einen drehenden Cursor als Feedback an, dass es gerade daran arbeitet.

Ein bekanntes Problem ist, dass die Homepage des Tor-Browsers fälschlicherweise behauptet, dass Tails 7.4 im Einsatz wäre, selbst nach der Aktualisierung auf Tails 7.4.1 Die Links auf die Release-Notes verweisen zudem ebenfalls noch auf die ältere Fassung. Im Zweifelsfall sollen Interessierte unter „Apps“ – „Tails“ – „About Tails“ (respektive „Über Tails“) aufrufen. Der Dialog zeigt korrekt die aktuell laufende Version an.

Die aktualisierte Tails-Fassung ist wie üblich als Abbild zum Verfrachten auf USB-Stick [3] sowie als ISO-Image zum Brennen auf DVD [4] oder Starten einer VM verfügbar.

Die Version 7.4 von Tails erschien [5] Mitte Januar. Darin haben die Maintainer die Software auf den aktuellen Stand gebracht und kleine Ärgernisse korrigiert, die zwischenzeitlich auftreten konnten.


URL dieses Artikels:
https://www.heise.de/-11162314

Links in diesem Artikel:
[1] https://tails.net/news/version_7.4.1/
[2] https://www.heise.de/news/OpenSSL-12-Sicherheitslecks-eines-erlaubt-Schadcodeausfuehrung-und-ist-kritisch-11161775.html
[3] https://tails.net/install/download/index.en.html
[4] https://tails.net/install/download-iso/index.en.html
[5] https://www.heise.de/news/Anonymisierendes-Linux-Tails-7-4-korrigiert-kleine-Probleme-11143680.html
[6] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[7] mailto:dmk@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Make ff.org

Raspi-Preise steigen: 16-GByte-Version nähert sich 300 Euro

Von Mark Mantel — 02. Februar 2026 um 14:12
Bild aus der Raspi-Produktion

(Bild: Raspberry Pi Plc.)

Der Raspi-Hersteller erhöht wegen des teuren Speichers noch mal die Preise. Das Topmodell Raspberry Pi 5 steigt auf über 200 Euro.

Die Preise für fast alle Raspberry-Pi-Einplatinencomputer steigen deutlich an. Die Raspberry Pi Plc. erhöht die Preisempfehlungen fast aller Modelle mit mindestens 2 GByte Speicher, vom Raspberry Pi 4 und 5 über die Compute Modules bis hin zu den Tastatur-PCs Raspberry Pi 500 [1] und 500+ [2]. Grund sind die steigenden Kosten für den aufgelöteten Arbeitsspeicher.

Preissteigerungen bei Raspis
Speicherkapazität Preissteigerung
1 GByte -
2 GByte 10 US-Dollar
4 GByte 15 US-Dollar
8 GByte 30 US-Dollar
16 GByte 60 US-Dollar

Die Preissteigerungen sind relativ und absolut noch stärker als bei der vorangegangenen Anpassung im Dezember 2025 [3]. Je mehr Speicher ein Raspi hat, desto stärker zieht der Preis laut Ankündigung an [4]. Das Raspi-5-Topmodell mit 16 GByte RAM steigt von zuletzt 145 auf jetzt 205 US-Dollar, ein Plus von gut 41 Prozent.

Schielt man auf den Preis der 1-GByte-Version für gleichbleibend 45 Dollar, wird klar: Beim Raspi 5 mit 16 GByte macht allein der Speicher über drei Viertel des Preises aus. Beim 8-GByte-Modell für jetzt 125 statt 95 Dollar sind es etwa zwei Drittel. Die Raspis mit 2 und 4 GByte RAM erscheinen derzeit am attraktivsten für Bastelprojekte. Der Raspi 4 ist noch etwas günstiger erhältlich als der Raspi 5.

16-GByte-Raspi kaum zu bekommen

Die Euro-Preise inklusive Mehrwertsteuer (in US-Preisen nicht enthalten) lassen sich fast eins zu eins von den Dollar-Preisen ableiten, wenn sich die Händler an die Empfehlungen halten. Ein Raspi 5 mit 4 GByte RAM bleibt damit noch unter der 100-Euro-Marke. Dessen neue Preisempfehlung liegt bei 85 Dollar.

Für die 16-GByte-Version (ab 209,90 €) [5] gilt das nicht, da diese bereits ausverkauft ist. Sie nähert sich im Handel abseits von kleinen Amazon- und Ebay-Shops den 300 Euro. Der Hersteller ist hier an einen einzigen Zulieferer gebunden, da es sich um eine Einzelanfertigung für das Raspi-Board handelt.

Bei den 3er-Raspis und den Miniversionen der Serie Raspberry Pi Zero nimmt der Hersteller keine Preisanpassungen vor. Sie verwenden alten LPDDR2-Speicher, von dem die Firma derzeit genug für mehrere Produktionsjahre auf Vorrat hat.

Die Raspberry Pi Plc. will die Preise wieder senken, sobald sich die Liefersituation beim Speicher bessert. Bis das passiert, kann allerdings noch einige Zeit vergehen.


URL dieses Artikels:
https://www.heise.de/-11162382

Links in diesem Artikel:
[1] https://www.heise.de/tests/Im-Test-Raspberry-Pi-500-im-Tastaturgehaeuse-und-Raspi-Monitor-10190567.html
[2] https://www.heise.de/tests/Raspberry-Pi-500-mit-beleuchteter-mechanischer-Tastatur-und-SSD-im-Test-10657090.html
[3] https://www.heise.de/news/Raspberry-Pi-4-und-5-werden-teurer-11098873.html
[4] https://www.raspberrypi.com/news/more-memory-driven-price-rises/
[5] https://preisvergleich.heise.de/raspberry-pi-5-modell-b-a3383358.html?cs_id=1206858352&ccpid=hocid-newsticker
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[8] mailto:mma@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Neue Filme und Serien bei Netflix, Disney+ und Amazon Prime im Februar 2026

Von Heise — 02. Februar 2026 um 17:24
Screenshot zeigt ein Promobild der Serie Stargate SG-1

(Bild: MGM)

Im Februar zeigt Netflix alle Staffeln von "Stargate SG-1". Bei Amazon Prime ist "The Life Of Chuck" im Programm und bei Disney+ läuft "Inglourious Basterds".

Der Februar hat unter anderem Film- und Serien-Highlights wie Tarantinos "Inglourious Basterds", die kultige SciFi-Serie "Stargate SG-1" sowie die Tragikomödie "The Life Of Chuck" im Gepäck.

"Stargate SG-1", Staffel 1-10

Ab dem 15. Februar 2026 zeigt Netflix [1] alle 10 Staffeln der beliebten Science-Fiction-Serie "Stargate SG-1", die zwischen 1997 und 2007 produziert und erstmals veröffentlicht wurde. Die Serie basiert auf dem Film "Stargate", der 1994 in den Kinos lief, und handelt von der geheimen militärischen Spezialeinheit "SG-1", die aus Soldaten und Wissenschaftlern besteht. Zu der Einheit gehören unter anderem Colonel Jack O’Neill (Richard Dean Anderson), Dr. Samantha Carter (Amanda Tapping), Teal'c (Christopher Judge) und Dr. Daniel Jackson (Michael Shanks).

Mithilfe des namensgebenden Sternentors (Stargate) können die Mitglieder von "SG-1" über eine Wurmlochverbindung innerhalb weniger Sekunden zu Stargates reisen, die sich auf anderen Planeten befinden. Colonel Jack und seine Kollegen sollen auf fremden Planeten nach unbekannten Zivilisationen und fortschrittlicher Technik suchen, was dazu führt, dass der Trupp immer wieder Konflikte entfacht oder in vor Ort bereits bestehende Konflikte hineingezogen wird. Bereits zu Beginn der Serie wird schnell klar, dass die feindseligen "Goa’uld" eine Bedrohung für die Erde darstellen, sodass SG-1 auch kontinuierlich nach Verbündeten auf den bereisten Planeten sucht. Im Herbst 2025 wurde angekündigt, dass eine neue "Stargate"-Serie gegen Ende 2026 für Amazon in die Produktion gehen wird.

"The Life Of Chuck"

Die Tragikomödie "The Life Of Chuck" ist die Verfilmung der Kurzgeschichte "Chucks Leben" aus Stephen Kings Novellensammlung "Blutige Nachrichten". Das Besondere an "The Life Of Chuck" ist, dass die Geschichte des titelgebenden Protagonisten Charles "Chuck" Krantz (Tom Hiddleston) rückwärts erzählt wird. Chuck wächst nach dem Tod seiner Eltern bei seinen Großeltern auf. Während sein Großvater Albie Krantz (Mark Hamill) ihn dazu drängt, wie er selbst Buchhalter zu werden, geht Chuck seiner Tanz-Leidenschaft nach, die er von seiner Großmutter Sarah Krantz (Mia Sara) geerbt hat.

Als er eines Tages auf den stets verschlossenen Dachboden seines Wohnhauses geht, obwohl es ihm von Albie verboten worden war, hat Chuck eine geisterhafte Begegnung mit seinem Zukunfts-Ich. Dieses Ereignis hat großen Einfluss auf sein weiteres Leben und ohne Chucks Wissen auch auf das vieler anderer Menschen. Zu Beginn des Films wird gezeigt, wie die Erde in nicht allzu ferner Zukunft kurz vor ihrem Ende steht, nachdem Naturkatastrophen und Epidemien die Welt zu einem nahezu unbewohnbaren Ort gemacht haben. Diese Ereignisse scheinen auf seltsame Weise mit einem Mann namens Charles "Chuck" Krantz verbunden zu sein. Der Film ist ab dem 09. Februar 2026 bei Amazon Prime Video [3] zu sehen.

"Inglourious Basterds"

Quentin Tarantinos "Inglourious Basterds" findet in einem fiktiven Szenario während des 2. Weltkriegs statt und erzählt über fünf Kapitel eine ebenso brutale wie spannende Kriegsgeschichte mit alternativen Fakten und Wendungen. Im Zentrum der Handlung steht einerseits die jüdische Kinobetreiberin Shosanna Dreyfus (Mélanie Laurent) und andererseits die berüchtigte jüdische Kampftruppe "Basterds" unter der Führung von Lieutenant Aldo Raine (Brad Pitt). Shosanna will sich an den Nazis rächen, da diese ihre Familie ermordet haben, während Aldo und seine Männer hinter feindlichen Linien in Frankreich so viele Nazis wie möglich überfallen und töten wollen.

Die Wege von Shosanna und Aldo kreuzen sich in einem fulminanten Finale, bei dem beide Parteien unabhängig voneinander die Auslöschung der gesamten NS-Führungsriege, inklusive Adolf Hitler, geplant haben. Shosanna und Aldo haben mit dem SS-Offizier Hans Landa (Christoph Waltz) den gleichen, skrupellosen und äußerst scharfsinnigen Widersacher, den es für die Umsetzung der Attentatspläne zu überwinden gilt. "Inglourious Basterds" läuft ab dem 01. Februar 2026 bei Disney+ [7].

Alle neuen Filme und Serien in der Übersicht

Die folgende Tabelle zeigt alle neuen Filme und Serien, die im Februar bei Netflix, Disney+ und Amazon Prime Video erscheinen und im Abopreis inbegriffen sind. Titel, die bei Amazon ausschließlich zum Einzelkauf oder zum Leihen verfügbar werden, sind nicht angegeben.

Disney+ Release
Filme
Ich – Einfach unverbesserlich 1+2 01.02.
E.T. – Der Außerirdische 01.02.
Inglourious Basterds 01.02.
Notting Hill 01.02.
Jerry Maguire – Spiel des Lebens 01.02.
Jumanji 01.02.
Die Hochzeit meines Besten Freundes 01.02.
Grindhouse: Planet Terror 01.02.
Jackie Brown 01.02.
Kill Bill: Volume 1+2 01.02.
Reservoir Dogs 01.02.
Du & Ich und Alle reden mit 01.02.
Hook 02.02.
Ella McCay 05.02.
Max und die wilde 7 – Die Geister-Oma 06.02.
Stay 13.02.
Love Story: John F. Kennedy Jr. & Carolyn Bessette 13.02.
Searchlight Pictures "In the Blink of an Eye" 27.02.
Morbius 28.02.
Serien
Schitt’s Creek: Staffel 1-6 02.02.
Die Muppet Show 04.02.
Beyond Paradise: Staffel 3 04.02.
We Call It Imagineering: Staffel 1 04.02.
The Artful Dodger: Staffel 2 10.02.
The Scream Murder: A True Teen Horror Story: Staffel 1 11.02.
Himmel, Herrgott, Sakrament: Staffel 1 18.02.
Die achte Familie: Sekizinci Aile: Staffel 1 18.02.
Schloss Einstein: Staffel 20-23 18.02.
Das Geheimnis des Totenwaldes: Staffel 1 18.02.
Girl on the Run: The Hunt for America’s most wanted Woman: Staffel 1 19.02.
Watching You: Staffel 1 20.02.
Paradise: Staffel 2 23.02.
Amazon Release
Filme
Fargo - Blutiger Schnee 01.02.
Glam Girls - Hinreißend verdorben 01.02.
Licorice Pizza 01.02.
After 01.02.
After Love 01.02.
After Truth 01.02.
Ein ganzes halbes Jahr 01.02.
Bad Boy And Me 03.02.
William Tell 04.02.
Relationship Goals 04.02.
Fabian und Die mörderische Hochzeit 06.02.
Natürliches Gleichgewicht: Die Vision eines Königs 06.02.
Noah 06.02.
Jumper 06.02.
F*Ck Valentine's Day 07.02.
Das perfekte Geheimnis 07.02.
Hellboy: The Crooked Man 09.02.
The Life Of Chuck 09.02.
Love Me Love Me 13.02.
After Ever Happy 13.02.
Manta Manta 16.02.
Borderlands 22.02.
Boneyard 24.02.
Meet Cute – Mein täglich erstes Date 25.02.
The Bluff 25.02.
Man On The Run 27.02.
Hit Man (2023) 27.02.
Inheritance - Ein dunkles Vermächtnis 28.02.
The Creator 28.02.
Serien
LOL: Last One Laughing Brazil: Staffel 5 06.02.
Cross: Staffel 2 11.02.
Soul Power: The Legend Of The American Basketball Association: Staffel 1 12.02.
Jesy Nelson: Life After Little Mix: Staffel 1 13.02.
56 Tage: Staffel 1 18.02.
The CEO Club: Staffel 1 23.02.
Final Siren: Inside The Afl: Staffel 1 27.02.
Diverse NBA-Spiele Februar
Netflix Release
Filme
Für immer Liebe 01.02.
Glitter & Gold: Die Welt erfolgreicher Eistanzpaare 01.02.
Ist das Kuchen? Valentinstag 04.02.
Yoh! Bestie 06.02.
Die Königin des Schachs 06.02.
Longlegs 08.02.
Matter of Time 09.02.
This is I 10.02.
Mission: Impossible - Dead Reckoning 10.02.
Brotherhood: Angstzustand 11.02.
The French Dispatch 12.02.
Die Royal Tenenbaums 12.02.
Darjeeling Limited 12.02.
Joe's College Road Trip 13.02.
Ich weiß, was du letzten Sommer getan hast 16.02.
Being Gordon Ramsay 18.02.
Die schwedische Verbindung 19.02.
Pavane 20.02.
Firebreak 20.02.
Serien
Bones: Die Knochenjägerin Staffel 1-4 01.02.
Mo Gilligan: In The Moment 03.02.
Unfamiliar 05.02.
The Lincoln Lawyer: Staffel 4 05.02.
Die Löwinnen 05.02.
Salvador 06.02.
Die tierischen Fälle von Kit und Sam: Kapitel 7 09.02.
Motorvalley 10.02.
Kohrra: Staffel 2 11.02.
Die Bleikinder 11.02.
Love Is Blind: Staffel 10 11.02.
How To Get To Heaven From Belfast 12.02.
Million-Follower Detective 12.02.
Das Museum der Unschuld 13.02.
The Art of Sarah 13.02.
Im Dreck: Staffel 2 13.02.
Stargate SG-1: Staffel 1-10 15.02.
Sommore: Chandelier Fly 17.02.
The Night Agent: Staffel 3 19.02.
Strip Law – Die Gesetze von Las Vegas 20.02.
Taylor Tomlinson: Prodigal Daughter 24.02.
Kacken an der Havel 26.02.
Bridgerton: Staffel 4 Teil 2 26.02.
BAKI-DOU: The Invincible Samurai 26.02.
Formula 1: Drive to Survive: Staffel 8 27.02.

Disney+ besuchen [9]

Netflix besuchen [10]

Amazon Video besuchen [11]

Auch interessant:

VPN Test 2025: Die besten VPN-Anbieter im Vergleich [12] bei heise Download


URL dieses Artikels:
https://www.heise.de/-11162642

Links in diesem Artikel:
[1] https://www.netflix.com/de/
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://amzn.to/2KFoRFF
[4] https://www.heise.de/download/specials/Anonym-surfen-mit-VPN-Die-besten-VPN-Anbieter-im-Vergleich-3798036?wt_mc=intern.red.download.vpn-anbieter-test-vergleich.ticker.streamingvorschau.streamingvorschau
[5] https://www.heise.de/download/specials/Anonym-surfen-mit-VPN-Die-besten-VPN-Anbieter-im-Vergleich-3798036?wt_mc=intern.red.download.vpn-anbieter-test-vergleich.ticker.streamingvorschau.streamingvorschau
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://clkde.tradedoubler.com/click?p=304625&a=1475212&g=24738826
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://clkde.tradedoubler.com/click?p=304625&a=1475212&g=24738826
[10] https://www.netflix.com/de/
[11] https://amzn.to/2KFoRFF
[12] https://www.heise.de/download/specials/Anonym-surfen-mit-VPN-Die-besten-VPN-Anbieter-im-Vergleich-3798036?wt_mc=intern.red.download.vpn-anbieter-test-vergleich.ho.ticker.ticker
[13] mailto:sem@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Elon Musk: SpaceX und xAI fusionieren

Von Andreas Donath — 02. Februar 2026 um 23:46
Zwei Elon-Musk -Firmen gehen zusammen: SpaceX übernimmt xAI. Das Ziel sind KI-Rechenzentren im All, die sich selbst mit Strom versorgen.
Starship soll Satelliten aussetzen (Bild: SpaceX)
Starship soll Satelliten aussetzen Bild: SpaceX

SpaceX hat am 2. Februar 2026 d ie Übernahme von xAI angekündigt . Das Ziel klingt radikal: KI-Rechenleistung soll künftig aus dem Weltraum statt von der Erde kommen. Elon Musks Raumfahrtfirma will damit das größte Problem der KI-Industrie lösen – den explodierenden Energiebedarf.

Rechenzentren brauchen zu viel Strom

Heutige KI-Infrastruktur stößt an ihre Grenzen. Die Rechenzentren verbrauchen enorm viel Strom und müssen aufwendig gekühlt werden. Das musste auch xAI feststellen und laute, energiefressende und umweltschädliche Stromgeneratoren betreiben, um sein Rechenzentrum versorgen zu können.

Laut SpaceX lässt sich der Betrieb solcher irdischen Rechenzentren nicht mehr skalieren, ohne Stromnetze zu überlasten und die Umwelt zu schädigen. Die Übernahme verbindet mehrere Geschäftsfelder der beiden Unternehmen: KI-Entwicklung, Raketenstarts, Satelliteninternet und Social Media.

Die Lösung soll im Orbit liegen. Satelliten im All erhalten konstante Sonneneinstrahlung – keine Wolken, keine Nacht. Nach dem Start fallen kaum noch Betriebskosten an. SpaceX rechnet damit, dass weltraumbasierte KI-Rechenzentren in zwei bis drei Jahren günstiger werden als irdische Alternativen.

Hunderttausende Satelliten mit Starship aussetzen

Das Konzept braucht nach Angaben von Elon Musk Hunderttausende neue Satelliten. Hier kommt Starship ins Spiel. Die neue Rakete kann 200 Tonnen Nutzlast pro Start transportieren und eine ganze Reihe von Satelliten transportieren und aussetzen. SpaceX hat schon einmal einen Antrag bei der US-Regulierungsbehörde FCC eingereicht hat

Jeder Starship-Start würde die 20-fache Transportkapazität eines Falcon-Starts bieten. SpaceX kalkuliert mit 100 Gigawatt zusätzlicher KI-Rechenleistung pro Jahr, die damit aufgebaut werden können.

Was kommt danach? – Mondbasen für Satellitenfabriken

SpaceX beziehungsweise Elon Musk denkt schon weiter. Mondbasen sollen zusätzliche Satelliten aus lokalen Ressourcen produzieren. Ein elektromagnetischer Massenbeschleuniger auf dem Mond könnte jährlich 500 bis 1.000 Terawatt an KI-Satelliten ins All schießen, wobei das eher nach Science-Fiction klingt als ein ernsthaftes Projekt.

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Anzeige: C++-Code langfristig wartbar halten

Von Golem Karrierewelt — 02. Februar 2026 um 19:03
Wartbarer C++-Code entsteht durch klare Designprinzipien, konsistente Konventionen und bewussten Umgang mit Ressourcen. Ein virtueller Zwei-Tage-Workshop zeigt, wie's geht.
Bild: KI-generiert mit Sora

In großen C++-Codebasen entscheiden Struktur, Benennung und klare Verantwortlichkeiten darüber, ob Änderungen schnell nachvollziehbar bleiben. Moderne Sprachfeatures erhöhen die Ausdruckskraft, können aber auch Komplexität und schwer erkennbare Abhängigkeiten verstärken.

Clean-Code-Prinzipien schaffen ein gemeinsames Vokabular für Reviews, Refactoring und Architekturentscheidungen. Wo Lesbarkeit, Fehlerbehandlung und Ressourcenmanagement konsequent umgesetzt sind, sinkt der Aufwand für Wartung und Erweiterungen.

Best Practices für wartbaren Code

Um diese Ansätze in C++ praxisnah zu vertiefen, bietet die Golem Karrierewelt den Live-Remote-Workshop " C++ Clean Code – Best Practices für Programmierer: virtueller Zwei-Tage-Workshop " am 18.-19. März 2026 an. Inhalte sind unter anderem KISS, DRY und SOLID, Prefer Composition over Inheritance, Law of Demeter sowie der Umgang mit Premature Optimization und Code Smells.

Ein Schwerpunkt liegt auf den C++ Core Guidelines, etwa zu Interfaces, Klassen, Smart Pointern, Concurrency und Error Handling. Ergänzend werden Patterns und Idioms wie RAII, Pimpl und CRTP sowie typische Anti-Patterns und Decoupling-Ansätze diskutiert.

Vorausgesetzt werden solide Kenntnisse in modernem C++; benötigt wird ein eigener Rechner mit C++-Compiler (mindestens C++ 17). Das Seminar findet virtuell auf Deutsch statt, Folien und Fachausdrücke sind in Englisch; nach Abschluss wird eine Teilnahmebestätigung ausgestellt.

Der Kurs

Wer sich vor dem Kauf für den kostenlosen Newsletter der Golem Karrierewelt anmeldet, erhält 10 Prozent Rabatt auf die erste Bestellung bei der Golem Karrierewelt.

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Anzeige: Philips-Wasserkocher mit satten 44 Prozent Rabatt

Von Noemi Sinka — 02. Februar 2026 um 18:56
Der Philips-Wasserkocher mit 1,7 Litern Fassungsvermögen, Leuchtanzeige und schnellem Aufkochen ist aktuell im Preis reduziert.
Wasserkocher von Philips für 27,98 Euro (Bild: amazon.de/philips)
Wasserkocher von Philips für 27,98 Euro Bild: amazon.de/philips

Sobald es kalt wird, verschiebt sich der Getränkebedarf in Richtung heiß und schnell wärmend. Wasserkocher werden entsprechend häufig genutzt, ebenso Wärmflaschen. Der Wasserkocher von Philips ist auf Häufigkeit ausgelegt. Die 1,7-Liter-Kapazität macht sich vor allem dann bemerkbar, wenn er mehrfach hintereinander verwendet wird.

Mehr Wasser, weniger Unterbrechungen

Das Fassungsvermögen reicht für mehrere Tassen oder für eine volle Wärmflasche, ohne dass direkt wieder nachgefüllt werden muss. Das Edelstahlgehäuse wirkt stabil, steckt häufige Nutzung gut weg und bleibt auch nach längerer Zeit unauffällig. Der Wasserkocher von Philips ist kein Designobjekt, sondern ein Gerät, das funktionieren soll.

Im Inneren arbeitet ein verdecktes, flaches Heizelement. Laut Hersteller bringt es das Wasser zügig zum Kochen. Gleichzeitig hat diese Bauweise einen praktischen Nebeneffekt: Kalk setzt sich weniger an problematischen Stellen ab. Die Reinigung bleibt überschaubar, das Gerät wirkt weniger wartungsintensiv als Modelle mit offenliegenden Heizspiralen.

Der integrierte Mikro-Sieb-Filter soll Kalkpartikel bis zu 200 Mikrometer aus dem Wasser filtern. Das ist kein Feature, über das man viel nachdenkt, macht sich aber bemerkbar, wenn das Wasser klar bleibt und es keine Rückstände in der Tasse gibt. Der Filter lässt sich entnehmen und reinigen, ohne dass Ersatzteile oder Verbrauchsmaterialien nötig sind.

Einfach zu handhaben

Auch der Sprungdeckel ist funktional gedacht. Er kann weit geöffnet werden, das erleichtert das Befüllen und Reinigen. Gleichzeitig soll der Kontakt mit aufsteigendem Dampf reduziert werden. Beim Thema Sicherheit setzt Philips auf ein mehrstufiges System mit Trockengehschutz und automatischer Abschaltung. Auf diese Weise ist der Wasserkocher nicht mehr in Betrieb, wenn er leer ist oder der Kochvorgang abgeschlossen wurde. Ergänzt wird das durch eine Tassenanzeige, die hilft, nur die benötigte Wassermenge zu erhitzen. Gemäß Hersteller kann damit Energie eingespart werden.

Der Wasserkocher von Philips kostet bei Amazon 27,98 Euro, erhält einer 4,5-von-5-Sterne-Bewertung und ist der Bestseller unter den Wasserkochern .

Reklame

Philips Daily Collection Metall Wasserkocher – 1,7L, Leuchtanzeige, 360°-Basis, Mikro-Sieb-Filter, Flaches Heizelement, Sprungdeckel, Energiesparend, Sicheres Design, Schnelles Aufkochen (HD9350/90)

44 % Rabatt sichern

Weitere Wasserkocher im Angebot gibt es hier.

Dieser Artikel enthält sogenannte Affiliate-Links. Wenn Sie die Produkte über diese Links kaufen, erhält Golem eine kleine Provision. Dies hat keinen Einfluss auf den Preis der Artikel.

Adblock test (Why?)

✇ c't-Themen

Xeon 600: Neue Workstation-Prozessoren mit aktueller Intel-Technik

Von Heise — 02. Februar 2026 um 22:30

Zunächst elf Xeon 600 ab 499 US-Dollar beerben Intels w2500/3500-Workstation-CPUs. Sie haben moderne Intel-Technik und optional rasanten MRDIMM-Speicher.

Intel steht durch AMDs Epyc- und Threadripper-Prozessoren unter Druck, will den Workstation-Markt aber nicht komplett der Konkurrenz überlassen. Der Hersteller knappst daher einige Chips aus der eigentlich ausgebuchten Serverproduktion ab und widmet sie für schnellere Workstations um, als mit den Vorgängermodellen auf Basis der Sapphire-Rapids-Architektur [1] möglich waren.

Die neue Xeon-600-Reihe fußt zwar auf der aktuellen Server- und Chiplet-Technik, ist aber für Systeme mit nur einer Fassung und damit vorrangig für Workstations gedacht. Die Prozessoren verwenden die Fassung LGA4710-2 und bringen zusammen mit dem W890-Chipsatz bis zu 4 TByte DDR5-6400-Speicher, 128 PCIe-5.0-Lanes, Wi-Fi 7 sowie CXL-2.0-Support mit. Wie bei Workstations üblich, setzen auch die Xeon 600 teure DDR5-Speichermodule vom Typ Registered-DIMM mit ECC ein.

Im Vergleich zu den Server-CPUs, die laut Intel in Workstation-Boards nicht starten und andersherum, fehlen ihnen vorrangig die Mehrsockelfähigkeit und die spezialisierten Beschleuniger [2]-Schaltkreise Data Streaming Accelerator (DSA), In-Memory Analytics Aceelerator (IAA), QuickAssist (QAT) und Dynamic Load Balancer (DLB).

Sehr wohl vorhanden sind hingegen die Advanced Matrix Extensions (AMX), die sich besonders für KI-Anwendungen mit geringen Genauigkeitsanforderungen eignen. Sie haben auch die Verbesserungen der Architekturgeneration Redwood Cove aus dem Server erhalten und beherrschen jetzt nicht nur bfloat16, sondern auch das „echte“ 16-Bit-Gleitkommadatenformat FP16. Intel nutzt das in seinem Open Image Denoiser ab Version 2.4 [3] und erzielt einen gigantischen Performance-Vorsprung von beinahe Faktor 4 gegenüber der älteren Version 2.3.1 – wie viel davon allerdings nur auf die AMX-FP16-Option zurückgeht, ist fraglich. Denn unser Test-Server spuckte per lscpu | grep amx nur die drei bekannten AMX-Flags amx_bf16, amx_tile und amx_int8 aus. Eine klärende Antwort Intels auf unsere Rückfrage hin steht noch aus.

Immerhin sollen die neuen Xeon 600 nicht nur 9 Prozent schneller im Singlethreading sein, sondern im Vergleich der Spitzenmodelle 698X gegen w9-3595X 61 Prozent mehr Multithreading-Performance haben. Das will Intel im Rendering-Benchmark Cinebench 2026 gemessen haben. Bei Blender sollen es gar 74 Prozent Mehrleistung sein und beim KI-gestützten Upscaling in Topaz Labs Video immerhin 29 Prozent.

Auch dank neuerer Fertigungstechnik Intel 3 für das oder die Compute Dies bleibt die Thermal Design Power (TDP), also die spezifizierte elektrische Leistungsaufnahme, im selben Rahmen. Sie sinkt für das Topmodell sogar wieder leicht von 385 Watt beim Xeon w9-3595X auf 350 Watt für den Xeon 698X – die erreichte schon der w9-3495X.

Elf Neulinge

Die Spanne der Neulinge reicht vom Xeon 634 für 499 US-Dollar Großhandelspreis, also zuzügliche Steuern, bis zum 86-Kerner Xeon 698X für 7699 US-Dollar. Ersterer hat nur vier Speicherkanäle, 80 PCIe-5.0-Lanes und lässt sich nicht übertakten. Das Topmodell hingegen ist für Overclocker freigeschaltet, die damit vermutlich wieder auf Rekordjagd bei typischen Benchmarks gehen werden. Dazu darf der Xeon 698X zusammen mit vier weiteren X-Modellen auch das besonders schnelle Multiplexed-Rank-DIMM (auch MCR-DIMMs genannt [4]) mit DDR5-8800-Geschwindigkeit ansprechen. Nur der kleinste Xeon 600X, der 24-kernige 658X, muss auf MRDIMM-Support verzichten. Apropos: MRDIMMs sind derzeit für Endkunden hauptsächlich im Rahmen von Komplettsystemen erhältlich, der Preisvergleich [5] führt derzeit kein einziges Kit.

Außer Takterhöhungen sind auch selektive Taktsenkungen für die besonders energieintensiven AVX-512- sowie Matrizen-Multiplikations-Befehlsketten (TMUL) möglich, die das generelle Taktpotenzial erhöhen können und nur bei entsprechenden Befehlen die Frequenz absenken, damit Hitze und Energiebedarf nicht den Rahmen sprengen.

Die elf neuen CPUs sollen ab dem Ende des ersten Quartals in den Handel kommen und vorwiegend in Komplettsystemen von Systemintegratoren und großen Anbietern wie Lenovo, Dell und HP zum Einsatz kommen. Als Partner für die passenden W890-Boards nennt Intel Asus, Supermicro und Gigabyte. Die Boardpreise dürften sich nicht unter denen der Vorgänger [7] bewegen und in der Regel eher den oberen dreistelligen Bereich besetzen.

Intel Xeon 600: Neue Workstation-Prozessoren mit P-Cores „Redwood Cove“
Xeon Kerne Basis-Takt (Turbo all-core/single-core) Level 3-Cache TDP Speicher MR-DIMM PCIe 5.0 Lanes Boxed Preis (US-Dollar)
698X 86 2,0 (3,0/4,8) GHz 336 MByte 350 W 8 × DDR5-6400 8 × DDR5-8800 128 - 7699 $
696X 64 2,4 (3,5/4,8) GHz 336 MByte 350 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 5599 $
678X 48 2,4 (3,8/4,9) GHz 192 MByte 300 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 3749 $
676X 32 2,8 (4,3/4,9) GHz 144 MByte 275 W 8 × DDR5-6400 8 × DDR5-8800 128 Ja 2499 $
674X 28 3,0 (4,3/4,9) GHz 144 MByte 270 W 8 × DDR5-6400 8 × DDR5-8800 128 - 2199 $
658X 24 3,0 (4,3/4,9) GHz 144 MByte 250 W 8 × DDR5-6400 - 128 Ja 1699 $
656 20 2,9 (4,5/4,8) GHz 72 MByte 210 W 8 × DDR5-6400 - 128 - 1399 $
654 18 3,1 (4,5/4,8) GHz 72 MByte 200 W 8 × DDR5-6400 - 128 Ja 1199 $
638 16 3,2 (4,5/4,8) GHz 72 MByte 180 W 4 × DDR5-6400 - 80 - 899 $
636 12 3,5 (4,5/4,7) GHz 48 MByte 170 W 4 × DDR5-6400 - 80 - 639 $
634 12 2,7 (3,9/4,6) GHz 48 MByte 150 W 4 × DDR5-6400 - 80 - 499 $
-: nicht unterstützt; alle Kerne mit SMT, alle X-Modelle unlocked für Übertakter, alle Xeon 600 unterstützen vPro, max. Speicherausbau 4 TByte


URL dieses Artikels:
https://www.heise.de/-11162566

Links in diesem Artikel:
[1] https://www.heise.de/news/Sapphire-Rapids-Refresh-Intels-Workstation-Prozessoren-Xeon-W-3500-und-2500-9848706.html
[2] https://www.heise.de/hintergrund/Sapphire-Rapids-Intels-Xeon-CPUs-fuer-Server-und-Rechenzentren-angekuendigt-7452659.html
[3] https://github.com/RenderKit/oidn/releases/tag/v2.4.0
[4] https://www.heise.de/news/Server-RAM-Speichermodule-mit-hoeherer-Kapazitaet-oder-Geschwindigkeit-9069394.html
[5] https://geizhals.de/?fs=MRDIMM&hloc=at&hloc=de
[6] https://www.heise.de/ct
[7] https://geizhals.de/?fs=W790&hloc=at&hloc=de&cat=mainboards
[8] mailto:csp@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Nvidia-Aktie: 100-Milliarden-Deal mit OpenAI auf Eis gelegt

Von Kai Imhoff — 02. Februar 2026 um 21:30

Kai Imhoff

Jen-Hsun Huan NVIDIAs Gründer, Präsident und CEO hielt am 29. Mai 2023 eine Grundsatzrede bei Computex in Taipei, Taiwan

(Bild: jamesonwu1972 / Shutterstock.com)

Nvidias geplante Mega-Investition in OpenAI stockt. CEO Huang rudert zurück. Was bedeutet das für Anleger im KI-Boom?

Der im September angekündigte Plan von Nvidia, bis zu 100 Milliarden US-Dollar in OpenAI zu investieren, ist ins Stocken geraten. Das berichtet das Wall Street Journal (WSJ) kürzlich unter Berufung auf mit der Angelegenheit vertraute Personen.

Nvidia-Chef Jensen Huang stellte nun [1] gegenüber Bloomberg klar: Die kolportierte Summe sei "niemals eine Verpflichtung" gewesen.

Für Anleger wirft dieser Rückzieher Fragen auf. Wie verlässlich sind die Mega-Ankündigungen im KI-Sektor? Und was sagt das Stocken des Deals über die tatsächliche Nachfrage nach KI-Infrastruktur [2] aus?

Was ursprünglich geplant war

Die Absichtserklärung vom September klang nach einem Meilenstein: Nvidia wollte OpenAI dabei unterstützen, Rechenzentren [3] mit mindestens 10 Gigawatt Stromkapazität [4] aufzubauen. Das entspricht dem Spitzenstrombedarf von New York City.

Die Anlagen sollten mit Nvidias fortschrittlichen Chips ausgestattet werden, um KI-Modelle zu trainieren und einzusetzen.

OpenAI sollte die Chips leasen, Nvidia im Gegenzug bis zu 100 Milliarden US-Dollar investieren. Huang bezeichnete [5] laut WSJ das Vorhaben damals als "das größte Rechenprojekt der Geschichte".

Die Nvidia-Aktie [6] legte nach der Ankündigung um fast vier Prozent zu.

Warum der Deal auf Eis liegt

Doch aus dem Großprojekt wird vorerst nichts. Laut WSJ äußerten Nvidia-Mitarbeiter Bedenken. Intern sei betont worden, dass die 100-Milliarden-Vereinbarung unverbindlich sei.

Huang habe privat Kritik an OpenAIs Geschäftsansatz geübt und von "mangelnder Disziplin" gesprochen, berichten [7] WSJ und Bloomberg übereinstimmend. Auch Wettbewerbsbedenken spielten eine Rolle.

Die Verhandlungen kamen nicht über eine frühe Phase hinaus. Eine formale Absicherung gab es ohnehin: Nvidia hatte darauf hingewiesen, es gebe keine Garantie für endgültige Vereinbarungen.

Auch Nvidias Finanzchefin Colette Kress erklärte im Dezember, man habe keine endgültige Vereinbarung mit OpenAI getroffen.

Huang rudert zurück – investiert aber weiter

Auf Nachfragen in Taipeh relativierte Huang die Erwartungen. "Es war nie eine Verpflichtung", sagte er laut Bloomberg gegenüber Reportern. Nvidia werde jede Finanzierungsrunde [8] "einzeln" prüfen und "Schritt für Schritt" investieren.

Dennoch betonte Huang sein Vertrauen in OpenAI und erklärte, sich an der jüngsten Finanzierungsrunde von OpenAI beteiligen zu wollen: "Wir werden eine Menge Geld investieren." Es handle sich wahrscheinlich um "die größte Investition, die wir je getätigt haben".

Auf die Frage, ob es mehr als 100 Milliarden US-Dollar sein würden, antwortete er laut WSJ jedoch: "Nein, nein, nichts dergleichen."

Wie viel es aber genau sein werden, ließ Huang offen. Er verwies darauf, dass OpenAI-Chef Sam Altman die Summe bekanntgeben werde.

Execution-Risiko liegt bei OpenAI

Ob das erste Gigawatt im Rahmen des gemeinsamen Plans planmäßig verläuft, hänge von OpenAI ab, so Huang. "Es ist ihre Infrastruktur." Damit schiebt Nvidia die Verantwortung für mögliche Verzögerungen dem KI-Entwickler zu.

OpenAI strebt in seiner aktuellen Finanzierungsrunde bis zu 100 Milliarden Dollar an. Neben Nvidia verhandeln auch Amazon und SoftBank über Beteiligungen in Höhe von mehreren zehn Milliarden Dollar.

Amazon soll bis zu 50 Milliarden US-Dollar [9] investieren wollen. Die Runde könnte OpenAI mit etwa 750 bis 830 Milliarden US-Dollar bewerten.

Kreislaufgeschäfte schüren Zweifel am KI-Boom

Das Stocken des Nvidia-Deals befeuert eine Debatte, die Investoren zunehmend umtreibt: Sind die Partnerschaften im KI-Sektor nachhaltig? Oder handelt es sich um Kreislaufgeschäfte, bei denen Technologieunternehmen in KI-Firmen investieren, die dann ihre Produkte kaufen?

Nvidia plant zusätzlich, zwei Milliarden Dollar in CoreWeave zu investieren – ebenfalls ein wichtiger Kunde. Solche Konstruktionen könnten die Nachfrage künstlich ankurbeln, befürchten Kritiker.

Huang wies [10] laut Bloomberg die Vorwürfe zurück: "Die Vorstellung, dass es sich um einen Kreislauf handelt, ist lächerlich."

Dennoch bleibt die Frage: Wie viel der angekündigten KI-Investitionen mündet in echte Nachfrage? Und wie viel ist Marketing? Die Nervosität am Markt wächst. Einige Tech-Aktien im Zusammenhang mit OpenAI gerieten zuletzt unter Druck.

Was das für Nvidia-Anleger bedeutet

Für Anleger sendet das Stocken des 100-Milliarden-Deals ein gemischtes Signal. Einerseits bleibt Nvidia Technologieführer im KI-Boom. OpenAI ist seit zehn Jahren bevorzugter Partner und wird weiter auf Nvidia-Chips setzen. Andererseits zeigt der Fall, dass öffentlichkeitswirksame Ankündigungen nicht immer halten, was sie versprechen.

Die Erwartung, Nvidia würde OpenAI in einer Runde mit dreistelligen Milliardensummen unterstützen, hat sich nicht erfüllt. Stattdessen wird schrittweise geprüft und investiert. Das ist vorsichtiger – aber auch realistischer.

Die Nvidia-Aktie bleibt trotz der Unsicherheiten gefragt. Der Chipkonzern dominiert den Markt für KI-Prozessoren. Doch die Bewertung hängt auch davon ab, wie nachhaltig die KI-Nachfrage ist. Kreislaufgeschäfte und überzogene Ankündigungen könnten das Vertrauen beschädigen, wenn sie nicht in konkrete Projekte münden.


URL dieses Artikels:
https://www.heise.de/-11162911

Links in diesem Artikel:
[1] https://www.bloomberg.com/news/articles/2026-02-01/openai-investment-was-never-a-commitment-nvidia-s-huang-says
[2] https://www.heise.de/tp/article/Wird-Deutschland-zur-Datenkolonie-USA-haben-16-mal-mehr-Rechenpower-als-wir-11075794.html
[3] https://www.heise.de/tp/article/Wieviel-Strom-frisst-die-Digitalisierung-9730356.html
[4] https://www.heise.de/tp/article/Zukunft-unserer-Stromversorgung-Fuenf-Entwicklungen-die-jetzt-entscheidend-sind-11103027.html
[5] https://www.wsj.com/tech/ai/the-100-billion-megadeal-between-openai-and-nvidia-is-on-ice-aa3025e3
[6] https://www.heise.de/tp/article/5-Billionen-Dollar-Marktwert-Nvidia-erreicht-was-niemand-zuvor-schaffte-10966138.html
[7] https://www.bloomberg.com/news/articles/2026-01-31/nvidia-to-join-openai-s-current-funding-round-huang-says
[8] https://www.heise.de/tp/article/Kuenstliche-Intelligenz-Wo-Investoren-die-besten-Chancen-finden-11069700.html
[9] https://www.telepolis.de/article/Milliarden-fuer-OpenAI-Tech-Riesen-buhlen-um-ChatGPT-Entwickler-11160458.html
[10] https://www.bloomberg.com/news/articles/2026-01-31/nvidia-pauses-plan-to-invest-100-billion-in-openai-wsj-says

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Chinas Faserchip zeigt der Welt die Zukunft der Wearables

Von Bernardo Cantz — 02. Februar 2026 um 19:52

Bernardo Cantz

Flexibler Faserchip mit Transistoren auf Fingerkuppe verknotet – Fudan-Universität zeigt biegsame Mikroelektronik für smarte Textilien

Faserchip der Fudan-Universität: Tausende Transistoren in einer hauchdünnen, flexiblen Faser – verknotet auf einem Finger demonstriert die Technologie ihre extreme Biegsamkeit.

(Bild: Fudan Universität)

Dünner als ein Haar, flexibel wie Stoff – und übersteht sogar 100 Waschgänge: Der Chip, der in jede Jacke passt.

Smarte Kleidung gibt es schon länger. Jacken, die Herzschläge messen, oder Shirts, die Berührungen erkennen. Doch all diese Textilien hatten bisher ein Problem: Sie benötigten externe Computerchips, um die gesammelten Daten zu verarbeiten.

Doch diese Chips sind starr, flach und unbequem. Sie machen aus weichem Stoff ein steifes Konstrukt. Der neue Faserchip der Fudan-Universität [1] ändert das grundlegend.

Erstmals verarbeitet die Faser selbst die Informationen – und denkt sozusagen mit. Das macht externe Prozessoren überflüssig und öffnet die Tür zu Textilien, die wirklich wie normale Kleidung aussehen und sich auch so anfühlen.

Wie es möglich wurde – Architektur und Aufbau des "Faserchips"

Das Team der Fudan-Universität in Shanghai löste das Problem mit einem cleveren Trick: Sie nutzten nicht nur die Oberfläche der Faser, sondern ihren gesamten Innenraum. So bauten sie die Schaltkreise in einer mehrschichtigen Spiralarchitektur auf.

Man kann sich das wie eine aufgerollte Zeitung vorstellen. Die Schaltungen werden zunächst auf einem elastischen Substrat gefertigt und dann zu einer dünnen Faser zusammengerollt [2].

Das Ergebnis ist eine elastische Polymerfaser, die als vollständiges Mikrocomputersystem fungiert. Sie vereint Verarbeitung, Speicher und Signalfähigkeiten in einem einzigen Strang.

Leistungs- und Dichte-Skalierung – vom Millimeter zur Meter-Faser

Die Zahlen sind beachtlich: In nur einem Millimeter Faser finden 10.000 Transistoren Platz. Das entspricht der Rechenleistung eines Herzschrittmachers. Pro Zentimeter erreicht die Integrationsdichte sogar 100.000 Transistoren.

Verlängert man die Faser auf einen Meter, könnten Millionen von Transistoren integriert werden. Das würde der Leistungsstärke eines Standard-Desktop-Prozessors [3] entsprechen.

Die Fasern verarbeiten sowohl digitale als auch analoge Signale. Zusätzlich ermöglichen sie neuronale Berechnungen mit hoher Erkennungsgenauigkeit – vergleichbar mit modernen Bildprozessoren.

Robustheit & Alltagstauglichkeit – Flexibel und dennoch "chipartig"

Die Fasern sind etwa 50 Mikrometer dünn – dünner als ein menschliches Haar also. Professor Peng Huisheng beschreibt sie als "so flexibel wie Gehirngewebe".

Die Tests zur Robustheit lesen sich wie ein Stresstest für Extremsportler: 10.000 Zyklen Biegen und Abrieb, 30 Prozent Dehnung, Verdrehung um 180 Grad pro Zentimeter. Sogar die Kompression durch einen 15,6-Tonnen-Lkw überlebten die Fasern.

Für den Alltag noch wichtiger: Sie überstehen mehr als 100 Waschgänge und Temperaturen bis 100 Grad Celsius. Ihre Kleidung könnte also ganz normal in die Waschmaschine.

Kompatibilität mit Chip-Industrie & Massenproduktion

"Unsere Herstellungsmethode ist in hohem Maße kompatibel mit den derzeit in der Chip-Industrie verwendeten Werkzeugen", erklärt Forscher Chen Peining [4]. Das Team hat nach eigenen Angaben bereits eine Möglichkeit zur Massenproduktion gefunden.

Die aktuelle Lithografie-Präzision liegt bei einem Mikrometer. Mit zukünftiger Nanometer-Fotolithografie könnte die Integrationsdichte weiter steigen.

Im Labor wurde bereits eine vorläufig skalierbare Herstellung erreicht. Die Infrastruktur für die Massenproduktion ist damit grundsätzlich vorhanden.

Was dadurch möglich wird – Anwendungen ohne starre externe Prozessoren

Die spannendsten Anwendungen liegen im medizinischen Bereich. Bei Gehirn-Computer-Schnittstellen [5] könnten die weichen Fasern starre Elektroden ersetzen. Sensorik, Datenverarbeitung und Stimulation würden in einem einzigen Strang stattfinden.

Für smarte Textilien eröffnen sich gänzlich neue Möglichkeiten: Kleidung als interaktiver Bildschirm, Navigation auf dem Ärmel statt auf dem Handy, Trainingskleidung mit Echtzeit-Gesundheitsdaten.

"Intelligente taktile Handschuhe aus Faserchips sind von gewöhnlichem Stoff nicht zu unterscheiden", sagt Chen [6]. Chirurgen könnten damit bei ferngesteuerten Roboteroperationen [7] die Härte von Gewebe "fühlen".

Die Grenze zwischen Stoff und Computer beginnt zu verschwimmen.


URL dieses Artikels:
https://www.heise.de/-11162777

Links in diesem Artikel:
[1] https://www.fudan.edu.cn/en/2026/0122/c344a148125/page.htm
[2] https://www.scmp.com/news/china/science/article/3341025/chinese-scientists-shrink-semiconductor-chip-fibre-thin-human-hair
[3] https://www.chinadaily.com.cn/a/202601/22/WS6971777ba310d6866eb3512b.html
[4] https://newatlas.com/materials/scientists-fiber-chip-thread/
[5] https://www.heise.de/tp/article/Gedankenlesen-ist-keine-Science-Fiction-mehr-10596905.html
[6] https://www.chinadaily.com.cn/a/202601/22/WS6971777ba310d6866eb3512b.html
[7] https://www.heise.de/tp/article/Telechirurgie-Roboter-gestuetzte-Medizin-als-Loesung-fuer-die-Versorgung-von-Kriegsverletzten-9703270.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

USA planen 12-Milliarden-Dollar-Reserve für kritische Mineralien

Von Matthias Lindner — 02. Februar 2026 um 15:00

Matthias Lindner

Strategischer Wettbewerb um wichtige Mineralien zwischen den USA und China. Seltenerdsteine auf den Flaggen der USA und Chinas, die Handelskrieg, Lieferkettenkrise, Zölle und künftige Wirtschaftssanktionen symbolisieren.

(Bild: William Potter / Shutterstock.com)

Washington will Hersteller vor Lieferengpässen schützen. Ein neues Projekt soll die Abhängigkeit von China bei Seltenen Erden verringern.

Die Trump-Regierung kündigt ein ambitioniertes Vorhaben an: Mit zwölf Milliarden US-Dollar Startkapital soll eine zivile strategische Reserve für kritische Mineralien entstehen.

Das Ziel besteht darin, die amerikanische Industrie gegen Lieferausfälle und Preissprünge abzusichern und gleichzeitig die Abhängigkeit von chinesischen Rohstofflieferungen zu reduzieren.

Erstmals zivile Vorräte für die Industrie

Bislang existiert in den USA lediglich eine Mineralienreserve für militärische Zwecke. Das neue Programm namens "Project Vault", über das jetzt Bloomberg und Reuters berichtet haben, richtet sich hingegen an zivile Hersteller aus der Automobil-, Luftfahrt- und Technologiebranche.

Die Finanzierung setzt sich laut [1] Bloomberg aus zwei Komponenten zusammen: Private Investoren steuern 1,67 Milliarden US-Dollar bei, während die staatliche Export-Import-Bank ein Darlehen über zehn Milliarden US-Dollar bereitstellt. Der Bankvorstand entscheidet [2] am Montag über diese Rekordfinanzierung mit 15-jähriger Laufzeit.

Eingelagert werden sollen unter anderem Gallium und Kobalt [3] – Rohstoffe, die für die Produktion von Smartphones, Akkus [4] und Flugzeugturbinen unverzichtbar sind. Auch Seltene Erden [5] und weitere Metalle mit stark schwankenden Marktpreisen gehören zum geplanten Sortiment.

Große Konzerne sichern sich Zugang

An dem Konsortium beteiligen sich mehr als zwölf Unternehmen, wie Bloomberg unter Berufung auf Regierungsbeamte berichtet. Darunter befinden sich die Autobauer General Motors und Stellantis, der Flugzeughersteller Boeing sowie die Technologiekonzerne Corning, GE Vernova und Alphabet.

Drei Rohstoffhandelsfirmen – Hartree Partners, Traxys North America und Mercuria Energy Group – übernehmen demnach den Einkauf der Materialien.

Das Konzept soll so funktionieren: Teilnehmende Firmen melden ihren Bedarf an und zahlen Vorabgebühren sowie laufende Lagerkosten. Im Gegenzug können sie bei Engpässen auf die Vorräte zugreifen, müssen diese jedoch anschließend wieder auffüllen. Bei schwerwiegenden Versorgungskrisen steht ihnen das gesamte Lager offen.

Pekings Exportbeschränkungen als Auslöser

Der Vorstoß erfolgt vor dem Hintergrund verschärfter chinesischer Ausfuhrkontrollen. Im vergangenen Jahr schränkte Peking den Export bestimmter Rohstoffe ein, woraufhin einige US-Produzenten ihre Fertigung drosseln mussten.

China kontrolliert große Teile der weltweiten Förderung und Verarbeitung strategischer Mineralien.

In Washington werfen Politiker der Volksrepublik vor, durch gezielte Preissteuerung amerikanische Unternehmen zu benachteiligen. Eine überparteiliche Abgeordnetengruppe brachte kürzlich einen Gesetzentwurf für eine zusätzliche Reserve im Umfang von 2,5 Milliarden US-Dollar ein.

Regierung verwirft Preisgarantien

Parallel zu den Lagerplänen vollzieht die Regierung eine Kehrtwende [6] bei einem anderen Förderinstrument. Ursprünglich hatte Washington erwogen, heimischen Minenbetreibern Mindestpreise für ihre Produktion zu garantieren.

Von diesem Ansatz nimmt die Administration nun Abstand, wie aus Branchenkreisen verlautet. Bei einem Treffen Anfang des Monats erklärten Regierungsvertreter den Unternehmenschefs, ihre Projekte müssten wirtschaftlich auf eigenen Beinen stehen.

Als Gründe gelten fehlende Haushaltsmittel des Kongresses sowie rechtliche Unwägbarkeiten. Zudem warnen Kritiker, dass staatliche Preisgarantien bei fallenden Weltmarktpreisen hohe Kosten für die Steuerzahler verursachen könnten.


URL dieses Artikels:
https://www.heise.de/-11162582

Links in diesem Artikel:
[1] https://www.bloomberg.com/news/articles/2026-02-02/trump-launches-12-billion-minerals-stockpile-to-counter-china
[2] https://www.exim.gov/news/minutes/board-meeting-minutes-2026-02-02
[3] https://www.heise.de/tp/article/Batterie-Boom-Der-versteckte-Preis-der-Energiewende-10269076.html
[4] https://www.heise.de/tp/article/250-TWh-Die-Energieluecke-der-europaeischen-E-Mobilitaet-10655901.html
[5] https://www.heise.de/tp/article/Seltene-Erden-Bedeutung-Vorkommen-und-globale-Abhaengigkeiten-11069046.html
[6] https://finance.yahoo.com/news/usar-mp-reprice-policy-signal-175938166.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

Dynatrace baut auf KI-Agenten für intelligentere Observability

Von Heise — 02. Februar 2026 um 13:20
Wolken über Landschaft

(Bild: heise medien)

Dynatrace erweitert Observability-Plattform mit KI-Agenten und vereint deterministische und agentenbasierte KI für präzisere Analysen und autonomen IT-Betrieb.

Das Unternehmen Dynatrace hat im Rahmen seiner alljährlichen Perform-Konferenz einen erweiterten Ansatz für den Einsatz künstlicher Intelligenz für Observability-Aufgaben vorgestellt. Das neue Modul hört auf den Namen Dynatrace Intelligence (DTI) und baut im Wesentlichen auf schon bekannten Technologien und Verfahren auf – nun ergänzt um KI-Agenten.

KI ist für die Observability-Plattform von Dynatrace nichts Neues. Schon seit Jahren nutzt der Anbieter eine deterministische Variante dieser Technologie, die auf einer Fehlerbaum-Analyse basiert und Problemursachen sowie Abhängigkeiten präzise ermittelt. Mit Dynatrace Intelligence kommt nun die Agenten-basierte KI hinzu. Das Fundament bilden dabei die schon bekannten Module Grail und Smartscape. Ersteres enthält von Dynatrace gesammelte Daten und bildet damit die Grundlage für alle Analysen und Bewertungen. Diese „Datenbank“ wird ergänzt durch den Abhängigkeitsgraph Smartscape, den Dynatrace nun für DTI noch erweitert hat.

Laut Ankündigung [2] kann die Plattform jetzt auch geschäftliche Informationen und andere nicht technische Meta-Daten aufnehmen und verarbeiten. Zudem habe Dynatrace nochmals an der Leistungsschraube gedreht. Mit „Historical Replay“ – einer Art Zeitmaschine – lassen sich Fehlerereignisse jetzt so analysieren, als würden sie gerade passieren. Zur Interaktion mit anderen Anwendungen wie etwa Slack, AWS DevOps oder Azure SRE kommt ein eigener MCP-Server zum Einsatz – der jedoch nicht zwingend erforderlich ist. Dynatrace-Kunden können auch eigene, selbst-entwickelte MCP-Server nutzen.

Neu in Dynatrace Intelligence sind ab sofort auch Agenten (siehe Abbildung). Sie unterteilen sich in vier Kategorien. Da sind zunächst die deterministischen Agenten: einer für die Problemursache, einer für allgemeine Analysen und einer für Vorhersagen. Die zweite Kategorie umfasst die Ökosystem-Agenten, die für die Interaktion mit externen Anwendungen und/oder Daten zuständig sind. Beide Kategorien sind per se nicht neu. Dynatrace stellt lediglich das vorhandene Wissen und die Erfahrung in Form von agentenbasierter KI zur Verfügung. Die Expertise zu bestimmten Gebieten wie IT-Sicherheit, Site Reliability Engineering (SRE) oder Softwareentwicklung liegt bei den Domänen-Agenten. Der Operater-Agent und der Assist-Agent runden das Bild ab. Ersterer ist für die Verwaltung der DIT-Komponenten zuständig. Der Name ist dabei nicht zufällig gewählt, sondern verweist auf die bekannte Kubernetes-Methode zum Bereitstellen und Warten von Anwendungen. Der Kontext des Assist-Agenten ist die Chatbox-Funktion der Observability-Plattform.

Architekturdiagramm der Dynatrace-Intelligence-Plattform
Architekturdiagramm der Dynatrace-Intelligence-Plattform

Architekturdiagramm der Dynatrace-Intelligence-Plattform

(Bild: Dynatrace)

Auf den ersten Blick erscheint die technische Umsetzung von Dynatrace Intelligence einfach. Grail und Smartscape gab es schon. Im Bereich agentenbasierter KI und MCP hat sich 2025 ebenfalls schon viel getan. Doch ganz so einfach ist es nicht: Bernd Greifeneder, Mitbegründer und CTO von Dynatrace, erklärt im Gespräch mit heise developer, dass insbesondere die Kombination der Ergebnisse der verschiedenen KI-Ansätze eine Herausforderung darstellte. Nun aber könne Dynatrace versprechen, dass die deterministische Künstliche Intelligenz verlässliche Antworten liefere.

Die Problematik des Ratens oder Halluzinierens bei KI-Modellen bleibt, dies dürfte sich auch durch die Verwendung der KI-Agenten nicht ändern. Welche Rolle der MCP-Server in der Praxis spielen kann, bleibt abzuwarten. Grail und Smartscape sind darauf ausgelegt, auch größere Datenmengen schnell verarbeiten zu können. Der MCP-Server könnte sich hier als Flaschenhals erweisen. Daher lautet die Empfehlung, die Observability-Plattform möglichst über die nativen Integrationen mit Informationen zu füttern und den MCP-Server nur für eher kleinere Datenmengen zu verwenden.

Vom reaktiven hin zum autonomen IT-Betrieb

Die Entwicklung von DTI ist für Dynatrace mehr als eine Reaktion auf den generellen KI-Hype. Laut Steve Tack, Chief Product Officer, sei es die nun anstehende Stufe in der Entwicklung vom anfänglich noch reaktiven Betrieb, über den proaktiven hin zum autonomen Betrieb von IT-Landschaften [3]. Zwar mache Dynatrace nun einen fundamentalen Schritt, ein komplett automatisierter Betrieb inklusive Fehlerbehebung, Codeanpassung oder Schwachstellenbeseitigung sei zum gegenwärtigen Zeitpunkt aber noch Zukunftsmusik.

Viele Kunden des Unternehmens arbeiten derzeit noch daran, die finale Qualitätssicherung primär durch Menschen sicherzustellen. Auch hat die gesamte Branche noch signifikanten Lernbedarf bezüglich des verantwortungsvollen Umgangs mit KI. Wer sich jedoch den autonomen Betrieb als Ziel setzt, sollte sich drei Fragen stellen – und diese positiv beantworten können: Kann ich es automatisieren? Kann ich es tiefgehend überwachen? Verstehe ich in Echtzeit, was vorgeht?

Gespräche mit Kunden und deren Rückmeldungen während der Perform-Konferenz spiegeln wider, dass Dynatrace mit DTI einen vielversprechenden Entwurf vorgelegt hat. Das Modul wirkt bereits rund und ausgereift.


URL dieses Artikels:
https://www.heise.de/-11162257

Links in diesem Artikel:
[1] https://www.mastering-obs.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_clc_observ.empfehlung-ho.link.link&LPID=34258
[2] https://www.dynatrace.com/news/blog/dynatrace-introduces-a-new-foundation-for-agentic-ai-at-perform-2026/
[3] https://www.dynatrace.com/news/blog/dynatrace-intelligence-at-the-core-of-autonomous-operations/
[4] mailto:map@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

Native Apps mit PHP ohne Lizenzkosten – NativePHP öffnet Mobile-Version

Von Heise — 02. Februar 2026 um 12:54
Zersprengte Kette

(Bild: Romolo Tavani / Shutterstock.com)

NativePHP gibt sein Mobile-Framework frei. Ab Version 3 lassen sich native iOS- und Android-Apps mit PHP und Laravel ohne Lizenzkosten entwickeln.

NativePHP, eine Werkzeugsammlung für die Entwicklung nativer Desktop- und Mobile-Anwendungen mit PHP, öffnet sein Mobile-Framework für alle. Mit der Veröffentlichung von Version 3 steht NativePHP for Mobile kostenlos zur Verfügung – erschienen unter MIT-Lizenz. Entwicklerinnen und Entwickler können damit native Apps für iOS und Android erstellen, ohne ihre gewohnte PHP- und Laravel-Umgebung zu verlassen und ohne Lizenzkosten einplanen zu müssen.

Open Source als neuer Kurs

Mit der Freigabe vollzieht das Projekt einen grundlegenden Strategiewechsel. Statt eines kostenpflichtigen Modells setzt NativePHP künftig vollständig auf Open Source. Die Maintainer versprechen sich davon mehr Beteiligung aus der Community und eine schnellere Weiterentwicklung. Der frei verfügbare Kern deckt nach Angaben des Projekts alle grundlegenden Funktionen ab, die für Entwicklung, Test und Betrieb nativer Mobile-Apps nötig sind.

Bestehende Anwendungen lassen sich laut Blogbeitrag [1] weiterhin ohne Einschränkungen nutzen.

Modulare Architektur für Zusatzfunktionen

Parallel zur Öffnung hat das Team die technische Architektur überarbeitet. NativePHP for Mobile basiert künftig auf einem modularen Aufbau. Den minimalen freien Core nennt das Team NativePHP Air. Funktionen, die tiefer in die Betriebssysteme von iOS und Android eingreifen, wurden in separate Plugins ausgelagert.

Dazu gehören unter anderem Biometrie, Geolokalisierung, Push-Benachrichtigungen, sicherer Speicher sowie Zugriffe auf Kamera, NFC oder Scanner. Diese Funktionen bietet NativePHP als kostenpflichtige Premium-Plug-ins an, die einmalig lizenziert werden und projektübergreifend nutzbar sind.

Neue Projekte können NativePHP for Mobile sofort kostenlos einsetzen. Für bestehende Kundinnen und Kunden kündigt das Projekt Übergangsregelungen an, abhängig von der bisherigen Lizenz.


URL dieses Artikels:
https://www.heise.de/-11161845

Links in diesem Artikel:
[1] https://nativephp.com/blog/nativephp-for-mobile-is-now-free
[2] mailto:mdo@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise Security

Notepad++: Updater-Übernahme durch staatliche Akteure

Von Heise — 02. Februar 2026 um 12:19
Notepad++-Logo neben Achtung-Schild

(Bild: heise medien)

Angreifer hatten gezielt mit dem Notepad++-Updater Malware auf Systeme verfrachtet. Die Untersuchungen deuten auf staatliche Akteure.

Nachdem im Dezember ein Update für Notepad++ eine bereits zuvor attackierte Sicherheitslücke im Updatemechanismus geschlossen hat, liegen nun Untersuchungsergebnisse zu den Vorfällen vor. Demnach stecken wohl staatliche Akteure hinter den Angriffen.

In einem Blog-Beitrag berichtet der Notepad++-Entwickler Don Ho [1] über die Untersuchungsergebnisse. Demnach hat Ho gemeinsam mit externen IT-Experten und dem jetzt ehemaligen Hosting-Provider den Vorfall untersucht. „Der Analyse der Sicherheitsexperten zufolge umfasste die Attacke eine Kompromittierung auf Infrastruktur-Ebene, die den bösartigen Akteuren das Abfangen und Umleiten von Update-Traffic für Notepad++ ermöglichte“, erklärt Ho. „Der genaue technische Mechanismus ist Gegenstand weiterer Untersuchungen, wobei klar ist, dass die Kompromittierung auf Ebene des Hosting-Providers auftrat anstatt durch Schwachstellen im Notepad++-Code selbst“, erörtert er weiter. Dadurch wurde Traffic bestimmter und gezielt ausgewählter Nutzer selektiv auf von den Angreifern kontrollierten Servern umgeleitet, die bösartige Update-Manifeste ausgeliefert haben.

Der Vorfall nahm seinen Anfang im Juno 2025. „Mehrere unabhängige IT-Sicherheitsforscher kommen zu dem Schluss, dass die bösartigen Akteure einer von China kontrollierten Gruppierung angehören. Das würde höchst selektive Auswahl der Ziele erklären, die bei der Kampagne zu beobachten war“, schreibt Ho weiter. Der IT-Sicherheitsexperte hat einen Notfallplan vorgeschlagen, den er zusammen mit dem Hosting-Provider verfolgt hat. Dieser hat dann eine eigene Stellungnahme zu dem Vorfall abgegeben.

Dem Provider zufolge war der Shared-Hosting-Server bis zum 2. September 2025 kompromittiert. An dem Tag hat der Provider die Maschine gewartet und in diesem Zuge Firmware und Kernel aktualisiert, im Anschluss daran konnten keine weiteren Angriffsmuster mehr festgestellt werden. „Obwohl die bösartigen Akteure den Zugriff auf den Server am 2. September 2025 verloren haben, hatten sie Zugangsdaten der internen Dienste auf dem Server, bis zum 2. Dezember 2025. Die hätten ihnen die Umleitung von Traffic zu ‚https://notepad-plus-plus.org/getDownloadUrl.php‘ auf ihre eigenen Server ermöglichen und die Auslieferung einer Update-Download-URL mit kompromittierten Updates ermöglichen können“, führt der Hosting-Provider aus. Die Angreifer haben den Logs zufolge gezielt nach Notepad++ gesucht und nach keinen anderen Projekten. Am 2. Dezember konnten die Systeme etwa durch Schließen von Schwachstellen und Passwortwechsel gesichert werden.

Zwar scheinen die Angriffe laut den Untersuchungsergebnissen des IT-Sicherheitsexperten am 10. November 2025 aufgehört zu haben, jedoch schätzt Dan Ho, dass bis zum 2. Dezember weitere Attacken zumindest möglich waren. Er entschuldigt bei allen Betroffenen. Um dieses gewichtige Sicherheitsproblem anzugehen, hat Ho die Notepad++-Webseite zu einem neuen Hosting-Provider umgezogen, der signifikant stärkere Sicherheitspraxis umsetzt. Innerhalb von Notepad++ hat er den WinGup-Updater in Version 8.8.9 erweitert, sodass er Zertifikate und Signaturen des heruntergeladenen Installers prüft. Auch das von der Update-URL zurückgelieferte XML ist nun signiert. Deren Prüfung forciert Notepad++ ab der kommenden Version 8.9.2, die im kommenden Monat erwartet wird. „Mit diesen Änderungen und Verstärkungen glaube ich, dass die Situation vollständig gelöst ist. Ich kreuze die Finger“, schließt Ho die Analyse.

Im vergangenen Dezember wurde bekannt, dass der Notepad++-Updater Malware auf einigen PCs [2] installiert hatte. Die Aufräumarbeiten dauerten etwas an. Ende Dezember hat Dan Ho dann etwa Reste der zuvor genutzten Self-Signed-Zertifikate [3] entrümpelt.


URL dieses Artikels:
https://www.heise.de/-11162101

Links in diesem Artikel:
[1] https://notepad-plus-plus.org/news/hijacked-incident-info-update/
[2] https://www.heise.de/news/Notepad-Updater-installierte-Malware-11109571.html
[3] https://www.heise.de/news/Notepad-Update-zum-Aufraeumen-von-Self-Signed-Zertifikat-Resten-11125475.html
[4] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[5] mailto:dmk@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise Security

OpenSSL: 12 Sicherheitslecks, eines erlaubt Schadcodeausführung und ist kritisch

Von Heise — 02. Februar 2026 um 09:34
Blackout,Concept.,Emergency,Failure,Red,Light,In,Data,Center,With

Notfall im Rechenzentrum

(Bild: vchal/Shutterstock.com)

In OpenSSL wurden 12 Sicherheitslücken entdeckt – mit KI-Tools. Eine davon gilt als kritisch. Aktualisierte Software steht bereit.

In der quelloffenen Verschlüsselungsbibliothek OpenSSL [1] haben IT-Forscher 12 Sicherheitslücken entdeckt, eine davon gilt als kritisch. Angreifer können dadurch etwa Schadcode einschleusen. Bemerkenswert ist auch, dass die IT-Sicherheitsforscher die Schwachstellen mit KI-Systemen aufgespürt haben.

Das berichten die Mitarbeiter von Aisle in einem Blog-Beitrag [2]. Ein Stack-basierter Pufferüberlauf kann beim Verarbeiten von „CMS AuthEnvelopeData“-Nachrichten mit bösartig manipulierten AEAD-Parametern durch verwundbare OpenSSL-Versionen auftreten. Das führt unter Umständen zu einem Absturz und dadurch zu einem Denial-of-Service; es kann jedoch auch Schadcode aus dem Netz zur Ausführung gelangen, erklärt das OpenSSL-Projekt in der Schwachstellenbeschreibung [3]. Der Überlauf tritt vor einer Authentifizierung auf, es sind daher keine gültigen Keys oder Bestandteile davon nötig (CVE-2025-15467 [4], CVSS 9.8, Risiko „kritisch“). Die US-amerikanische IT-Sicherheitsbehörde CISA kommt zu der höheren Risikoeinschätzung – das OpenSSL-Projekt selbst stuft das Sicherheitsleck lediglich als Risiko „hoch“ ein.

Eine zweite Sicherheitslücke besteht in der fehlenden Überprüfung einiger Parameter in PKCS#12-Zertifikatsdateien. Sorgsam präparierte Einträge können einen Stack-basierten Pufferüberlauf oder eine Null-Pointer-Dereferenz mit anschließendem Absturz der Software auslösen oder möglicherweise eingeschleusten Schadcode ausführen. Da es unüblich ist, nicht vertrauenswürdigen PKCS#12-Dateien in Apps zu vertrauen, da sie in der Regel private Schlüssel beherbergen, stufen die OpenSSL-Entwickler die Lücke als moderat ein (CVE-2025-11187 [5], CVSS 6.1, Risiko „mittel“).

OpenSSL: Viele Lücken mit niedrigem Risiko

Die restlichen zehn Schwachstellen wurden lediglich als niedriges Sicherheitsrisiko eingestuft: Die Sicherheitslecks mit den Schwachstelleneinträgen CVE-2025-15468, CVE-2025-15469, CVE-2025-66199, CVE-2025-68160, CVE-2025-69418, CVE-2025-69419, CVE-2025-69420, CVE-2025-69421, CVE-2026-22795 und CVE-2026-22796 können Angreifer im Wesentlichen für Denial-of-Service-Angriffe missbrauchen.

Die Sicherheitslücken stopfen die OpenSSL-Versionen 3.6.1, 3.5.5, 3.4.4, 3.3.6 und 3.0.19. Einige der als niedriges Risiko eingestuften Lücken betreffen auch ältere Versionen, dort sollen OpenSSL 1.1.1ze und OpenSSL 1.0.2zn für Premium-Support-Kunden bereitstehen. IT-Verantwortliche sollten aufgrund der kritischen Sicherheitslücke die Updates zügig installieren.

Dass die Schwachstellen mittels KI-Tools von Aisle entdeckt wurden, überrascht ein wenig. Das curl-Projekt hat etwa sein Bug-Bounty-Programm [6] eingestellt, da es von unbrauchbaren KI-Schwachstellenmeldungen überflutet wurde. Der Aufwand, die teils plausibel klingenden Meldungen zu untersuchen und am Ende herauszufinden, dass es sich um Halluzinationen [7] oder einfach erschwindelte Lücken handelte, uferte zu sehr aus.


URL dieses Artikels:
https://www.heise.de/-11161775

Links in diesem Artikel:
[1] https://www.heise.de/thema/OpenSSL
[2] https://aisle.com/blog/aisle-discovered-12-out-of-12-openssl-vulnerabilities
[3] https://openssl-library.org/news/secadv/20260127.txt
[4] https://nvd.nist.gov/vuln/detail/CVE-2025-15467
[5] https://nvd.nist.gov/vuln/detail/CVE-2025-11187
[6] https://www.heise.de/news/curl-Projekt-beendet-Bug-Bounty-Programm-11142345.html
[7] https://www.heise.de/news/cURL-Maintainer-Habe-die-Nase-voll-wegen-KI-Bug-Reports-10372739.html
[8] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[9] mailto:dmk@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise Security

Sicherheitspatches: Root-Attacken auf IBM Db2 möglich

Von Heise — 02. Februar 2026 um 09:26
Ein Kreis-Pfeil, auf den ein Mensch mit Finger klickt.

(Bild: Shutterstock/chanpipat)

Mehrere Sicherheitslücken gefährden IBMs Datenbankmanagementsystem Db2. Primär können Instanzen abstürzen.

Angreifer können Computer mit IBM Db2 attackieren, sich im schlimmsten Fall Root-Rechte verschaffen und Systeme im Anschluss kompromittieren. Sicherheitspatches lösen dieses Sicherheitsproblem und einige weitere. Bislang gibt es keine Berichte, dass Angreifer die Lücken bereits ausnutzen.

Patches verfügbar

Das Datenbankmanagementsystem ist insgesamt über 17 Softwareschwachstellen angreifbar. Zwei Lücken (CVE-2025-36384, CVE-2025-36184) sind mit dem Bedrohungsgrad „hoch“ eingestuft. Im ersten Fall können sich Angreifer mit Dateisystemzugriff höhere Rechte verschaffen. Im zweiten Fall ist das sogar bis zum Root-Nutzer möglich. In so einer Position ist davon auszugehen, dass Angreifer die volle Kontrolle über Systeme erlangen.

In diesen Fällen schaffen die Sicherheitsupdates Special Build #66394 für IBM Db2 11.5.9, Special Build #71609 für 12.1.3 und Special Build für 12.1.2 Abhilfe. IBMs Entwickler weisen darauf hin, dass davon wahrscheinlich auch Versionen bedroht sind, die sich nicht mehr im Support befinden. Diese Ausgaben bekommen keine Sicherheitsupdates mehr, sie bleiben deshalb verwundbar. Hier müssen Admins auf eine noch unterstützte Version upgraden.

Weitere Gefahren

Die verbleibenden Lücken sind mit „mittel“ eingestuft. An diesen Stellen können Angreifer etwa mit manipulierten Anfragen ansetzen, um DoS-Zustände auszulösen. Weitere Informationen zu den Lücken und Sicherheitsupdates finden sich unterhalb dieser Meldung in den verlinkten Warnmeldungen.

Erst kürzlich [1] haben die Entwickler eine kritische Lücke in IBM Db2 Big SQL geschlossen.

Liste nach Bedrohungsgrad absteigend sortiert:


URL dieses Artikels:
https://www.heise.de/-11161723

Links in diesem Artikel:
[1] https://www.heise.de/news/Kritische-Sicherheitsluecke-gefaehrdet-IBM-Db2-Big-SQL-11153789.html
[2] https://www.ibm.com/support/pages/node/7257678
[3] https://www.ibm.com/support/pages/node/7257519
[4] https://www.ibm.com/support/pages/node/7257665
[5] https://www.ibm.com/support/pages/node/7257518
[6] https://www.ibm.com/support/pages/node/7257698
[7] https://www.ibm.com/support/pages/node/7257694
[8] https://www.ibm.com/support/pages/node/7257695
[9] https://www.ibm.com/support/pages/node/7257690
[10] https://www.ibm.com/support/pages/node/7257616
[11] https://www.ibm.com/support/pages/node/7257681
[12] https://www.ibm.com/support/pages/node/7257623
[13] https://www.ibm.com/support/pages/node/7257624
[14] https://www.ibm.com/support/pages/node/7257629
[15] https://www.ibm.com/support/pages/node/7257627
[16] https://www.ibm.com/support/pages/node/7257632
[17] https://www.ibm.com/support/pages/node/7257697
[18] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[19] mailto:des@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Nachfrage zu groß: Apple verlor wegen schlecht lieferbarer AirPods Pro 3 Geld

Von Heise — 02. Februar 2026 um 13:11
Sporttreibender mit AirPods Pro 3

Sporttreibender mit AirPods Pro 3: Nachfrage nicht erfüllbar.

(Bild: Apple)

Die seit Oktober erhältliche dritte Generation von Apples ANC-Stöpseln war ein Hit. Das Problem: Die Herstellung kam nicht hinterher.

Während iPhone- und Dienstegeschäft in Apples Weihnachtsquartal [1] kräftig zulegten, stagnierte das Geschäft mit Zubehör: Die Sparte Wearables, Home und Accessoires verlor mehrere Hundert Millionen US-Dollar an Umsatz, obwohl hier im September ein neues Hitprodukt auf den Markt gekommen war. Doch die AirPods Pro 3 [2], die dritte und nochmals verbesserte Generation von Apples ANC-Stöpseln, war anfangs schwer zu kriegen. Das musste auch CEO Tim Cook in der vergangenen Woche vor Analysten einräumen. Nun wurde errechnet, wie teuer das für den Konzern vermutlich geworden ist.

Finanzchef: „Wären gewachsen“

Cook sagte, die Reaktion der Kunden auf die AirPods Pro 3 sei „unglaublich“ gewesen. Tonqualität und aktive Geräuschunterdrückung samt mehr Tragekomfort – der allerdings je nach Ohrform umstritten [3] ist – seien „bejubelt” worden. Cook lobte auch das Übersetzungsfeature [4]. Das Problem: Trotz der Beliebtheit der Geräte kam die Produktion – die vor allem in Vietnam stattfinden soll – nicht hinterher. „Während des Quartals erlebten wir Hemmnisse [bei der Lieferbarkeit der AirPods Pro3]“, so Finanzchef Kevan Parekh. Im Jahresvergleich schrumpfte die Wearables-Sparte um zwei Prozent. „Ohne die Hemmnisse wären wir in der Gesamtkategorie gewachsen“, so Parekh.

Insgesamt könnten die Lieferschwierigkeiten Apple gut 230 Millionen Dollar gekostet [5] haben, vermutlich eher mehr, schätzt das Apple-Blog 9to5Mac. In der Wearables-Sparte sind auch noch andere Produkte wie die Apple Watch enthalten, außerdem Peripherie-Produkte, HomePods, Displays, Apple Pencil, Hüllen und die Vision Pro. All das half jedoch nicht, die AirPods-Pro-3-Knappheit auszugleichen.

Verkaufsaktionen und ein mögliches zweites Modell

Was genau zu den Verfügbarkeitsproblemen geführt hat, ist unklar. Die AirPods Pro 3 sind allerdings komplexer als ihre Vorgänger. So verbaut Apple erstmals einen Herzfrequenzsensor in Ohrstöpseln (nach der Submarke Beats [6]), der fast so genau sein soll wie jener aus der Apple Watch. Störend ist allerdings, dass die Ladehülle eine geringere Gesamtlaufzeit [7] (inklusive Nachladen 24 statt 30 Stunden) bietet.

Mittlerweile hat sich die Verfügbarkeit der AirPods Pro 3 verbessert. Nach Weihnachten kam es sogar zu mehreren Verkaufsaktionen im Handel, auch jetzt sind die Stöpsel vergleichsweise günstig (ab 213 €) [8] zu haben (Apple-Preis: 249 Euro). Unklar bleibt, ob Apple vergleichsweise schnell eine zweite Variante nachreicht: Es gab Gerüchte, dass der Konzern den Stöpseln eine Infrarotkamera zur Gestensteuerung [9] verpassen will.


URL dieses Artikels:
https://www.heise.de/-11161211

Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Zahlen-Wieder-wuchtiges-Weihnachtsquartal-11158893.html
[2] https://www.heise.de/tests/AirPods-Pro-3-im-Test-Mit-frischem-Klang-und-ANC-10663123.html
[3] https://www.heise.de/news/AirPods-Pro-3-Macht-der-Pulssensor-zu-viel-Druck-aufs-Ohr-10702515.html
[4] https://www.heise.de/ratgeber/Ausprobiert-Live-Uebersetzung-mit-iOS-26-und-AirPods-4-ANC-Pro-2-und-Pro-3-10671234.html
[5] https://9to5mac.com/2026/01/29/airpods-pro-3-supply-constraints-may-have-cost-apple-at-least-230-million-last-quarter/
[6] https://www.heise.de/tests/Powerbeats-Fit-im-Test-Hoerer-mit-Haken-10750560.html
[7] https://www.heise.de/news/iFixIt-AirPods-Pro-3-sind-unreparierbar-10699396.html
[8] https://preisvergleich.heise.de/apple-airpods-pro-3-generation-mfhp4zm-a-a3587143.html?cs_id=1206858352&ccpid=hocid-mac-and-i
[9] https://www.heise.de/news/AirPods-Pro-3-Zwei-Versionen-und-nicht-viel-besserer-Klang-10637080.html
[10] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[11] https://www.heise.de/mac-and-i
[12] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

KI-Boom: Schlecht für Apple durch die Hintertür?

Von Heise — 02. Februar 2026 um 12:40
Tim Cook: Sein Megaseller bleibt das iPhone

Tim Cook: Sein Megaseller bleibt das iPhone.

(Bild: Apple)

Bislang macht Apple mit Smartphones traditionell die höchsten Gewinne der Branche. Doch der Run auf Chips und RAM durch die KI-Branche könnte das erschweren.

Bislang ist es Apple gelungen, unter dem KI-Hype, den der Konzern mangels eigenem Chatbot [1] und langsamer Siri-Verbesserungen [2] quasi ausgesessen hat, nicht zu leiden: Das iPhone 17 [3] verkaufte sich wie geschnittenes Brot, dem Konzern gelang zuletzt erneut ein Rekordquartal [4]. Auch hielten sich die Ausgaben für Künstliche Intelligenz im Gegensatz zur Konkurrenz in Grenzen – im Falle eines möglichen Platzens der KI-Blase [5] stünde der Konzern also wohl besser da als andere Unternehmen, die Abermilliarden in den Bereich gesteckt [6] haben. Doch nun droht Apple etwas anderes: Der Verlust der enorm hohen Marge, die der Konzern bei Smartphones macht. Diese sollen seit Jahren deutlich über dem liegen, was andere Hersteller verdienen – auch wegen der vergleichsweise hohen Preise [7]. Grund dafür ist die massive Nachfrageinflation, die der KI-Hype ausgelöst hat.

Alle gucken auf Nvidia

So sind die RAM-Preise im vergangenen Jahr massiv gestiegen, selbst billiger Speicher hat sich teils verdoppelt bis vervierfacht. Hinzu kommt, dass Apple wohl nicht mehr der größte Abnehmer beim taiwanischen Chipproduzenten TSMC ist: Laut Angaben von Nvidia-Chef Jensen Huang hat sein Unternehmen die Position als Hauptkunde übernommen. Das heißt, dass Nvidia künftig Preise mit viel Power ausverhandeln könnte – und nicht mehr vor allem Apple.

Einem Bericht des Wall Street Journal [8] zufolge steht Apple hier unter Druck. Konzernchef Tim Cook hatte bereits mitgeteilt, dass das Unternehmen Einschränkungen bei Chipversorgung und Speicherpreisen sieht, auch wenn Apple Großeinkäufer ist und langfristige Verträge hat. TechInsights, ein Analyseunternehmen, schätzt, dass Apple für das Basismodell des iPhone 18 künftig gut 57 US-Dollar mehr nur für RAM zahlen wird. Bei einem Verkaufspreis von 799 Dollar in den USA ist das signifikant für die Marge.

Marge unter Druck, Preiserhöhungen unwahrscheinlich

Auch schauen Lieferanten weniger auf Apple als auf Nvidia und andere im KI-Geschäft positionierte Unternehmen. Apples Ausgaben für KI-Hardware seien gering, die Ingenieure bei TSMC und Co. interessieren sich deshalb angeblich weniger für den Konzern. Einen Vorteil hat Apple allerdings noch: Schon jetzt zahlt man für mehr Flashspeicher deutlich mehr als bei anderen Anbietern.

Das Problem: Daraus speist sich die Marge. Es wird aktuell aber nicht damit gerechnet, dass der Konzern beim iPhone 18 die Preise stark erhöht. Apple untersucht derweil Mittel und Wege, weniger abhängig von TSMC zu sein. Zuletzt hieß es, Intel könne erstmals wieder ARM-Chip liefern, etwa einfachere M-Prozessoren.


URL dieses Artikels:
https://www.heise.de/-11161649

Links in diesem Artikel:
[1] https://www.heise.de/news/Kuenstliche-Intelligenz-von-Apple-Siri-als-echter-Chatbot-und-KI-zum-Anpinnen-11150015.html
[2] https://www.heise.de/news/Siri-2-0-Apple-zahlt-angeblich-Milliarden-fuer-Googles-KI-Modelle-11143988.html
[3] https://www.heise.de/tests/iPhone-17-17-Pro-17-Pro-Max-und-Air-im-Test-10663319.html
[4] https://www.heise.de/news/Apple-Zahlen-Wieder-wuchtiges-Weihnachtsquartal-11158893.html
[5] https://www.heise.de/news/Apples-KI-Strategie-und-die-AI-Bubble-Holt-der-iPhone-Konzern-doch-noch-auf-11126903.html
[6] https://www.heise.de/news/Abgeworbener-Apple-KI-Experte-Meta-zahlt-ihm-angeblich-200-Millionen-US-Dollar-10482080.html
[7] https://www.heise.de/news/Apple-Ein-iPhone-fuer-2449-Euro-und-es-ist-kein-Foldable-10638927.html
[8] https://www.wsj.com/tech/the-ai-boom-is-coming-for-apples-profit-margins-4774013d
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] https://www.heise.de/mac-and-i
[11] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

OpenClaw: KI-Client steuert Mac fern

Von Heise — 02. Februar 2026 um 11:41
OpenClaw-Logo

OpenClaw-Logo: „KI, die tatsächlich etwas macht.“

(Bild: OpenClaw)

Clawd alias MoltBolt alias OpenClaw ist derzeit das wohl heißeste KI-Projekt. Entwickler Peter Steinberger hat es spezifisch an den Mac angepasst.

Seit vergangenem November kennen viele in der KI-Szene nur ein Thema: Die agentische Software OpenClaw [1], die sich selbst verändern kann und, zumindest auf Wunsch, Vollzugriff auf den Rechner erhält, auf dem sie installiert ist. Sie arbeitet mit diversen Sprachmodellen, kann im Internet surfen, selbst Software auf den Rechner bringen und vieles mehr, wie c’t 3003 am Wochenende in einem ausführlichen Video [2] gezeigt hat.

OpenClaw, das zuvor Clawd und dann MoltBot hieß, ist ein hochriskantes Stück Software, da beispielsweise das Sicherheitsproblem der Prompt Injection [3] immer noch nicht gelöst ist, was zum sicheren Betrieb solcher Anwendungen eigentlich ein (am besten doppeltes) Sandboxing verlangt. Dennoch wird OpenClaw viel genutzt [4]. Auf dem Mac geht das besonders einfach: Der Macher Peter Steinberger hat diverse für macOS gedachte Add-ons und Werkzeuge [5] publiziert. Mit diesen ist sogar eine Fernsteuerung des Rechners durch die KI möglich – und das über die Konsole hinaus.

TCC abnicken und Mausklicks

So gibt es eine eigene macOS-App für OpenClaw [6], die als Menüleisten-Kompagnon fungiert. Sie „owned“ unter anderem die unter macOS notwendigen TCC-Freigaben (Transparency Consent and Control), kann also solche Prompts, die macOS zur Sicherheit einblendet, wegklicken – etwa für Mikrofon, Spracherkennung, Screenrecording oder die Bedienungshilfen [7], mit denen sich auf dem Mac fast alles anstellen lässt.

Zudem gibt es eine Schnittstelle für das Peekaboo-Projekt, das ebenfalls von Steinberger [8] stammt. Es erlaubt eine „GUI-Automation in Lichtgeschwindigkeit“ samt Auslesen von Screenshots. Steinberger hat auch noch diverse weitere Mac-Werkzeuge am Start, die für OpenClaw gedacht sind, aber auch solo verwendet werden können. Dazu gehört ein MCP-Automator [9], der klicken und AppleScript verwenden kann, eine Möglichkeit, iMessage-Botschaften und SMS via Terminal zu verschicken [10], eine Erinnerungen-Schnittstelle fürs Terminal oder ein Cookie-Extractor.

Ein einziges Sicherheitsproblem

Wie bereits erwähnt, ist das alles sicherheitstechnisch hochproblematisch – aber OpenClaw zielt explizit darauf ab, KI nahezu alle Rechte zu geben, um damit dann zu experimentieren. Mit Echtdaten sollte man dies auf dem Mac niemals tun, selbst im möglichen Sandbox-Modus des Assistenten nicht. Was er kann, ist durchaus beeindruckend. So demonstrierte c’t 3003 auf einem Linux-Rechner mit viel Power, wie OpenClaw einen lokalen Bildgenerator nachinstallierte, sich automatisch einen lokalen Sprachgenerator installierte, um in Sprache zu antworten und einiges mehr.

Hinzu kommen hohe Kosten: Die Experimente über gut anderthalb Tage verschlangen über 100 Dollar an API-Gebühren bei Anthropic. Es ist allerdings auch möglich, bei ausreichend Leistung ein lokales großes Sprachmodell zu verwenden. Steinberger hat sogar einen Skill für OpenClaw bereitgestellt, der auf die Passwortdatenbank von 1Password zugreift. Im Test zeigte sich aber auch, dass OpenClaw sich vergleichsweise einfach an der Nase herumführen lässt – so war es möglich, dem System zu erzählen, ein Gruppenchat bestehe nur aus Administratoren, denen gehorcht werden muss. Durch den Zugriff auf das Dateisystem kann OpenClaw natürlich auch Daten löschen. Interagiert wird mit dem KI-Agenten entweder per Terminal, Webchat oder verschiedene Messenger wie Telegram.


URL dieses Artikels:
https://www.heise.de/-11161659

Links in diesem Artikel:
[1] https://openclaw.ai/
[2] https://www.heise.de/news/OpenClaw-ausprobiert-Die-gefaehrlichste-Software-der-Welt-11161203.html
[3] https://www.heise.de/news/KI-Bot-OpenClaw-Moltbot-mit-hochriskanter-Codeschmuggel-Luecke-11161705.html
[4] https://www.heise.de/news/KI-Agenten-diskutieren-auf-Reddit-Klon-Menschen-duerfen-zuschauen-11161385.html
[5] https://github.com/steipete
[6] https://docs.openclaw.ai/platforms/macos
[7] https://support.apple.com/de-de/guide/mac-help/mh35884/mac
[8] https://github.com/steipete/Peekaboo
[9] https://github.com/steipete/macos-automator-mcp
[10] https://github.com/steipete/imsg
[11] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[12] https://www.heise.de/mac-and-i
[13] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

(g+) IT-Strategie: Warum KI, Cloud und Security keine Strategie sind

Von Adrian Peloso — 02. Februar 2026 um 13:30
Viele vermeintliche IT-Strategien 2026 sind in Wahrheit Trendlisten ohne messbare Wirkung. Strategie bedeutet priorisieren, messen und Nein sagen.
Viele bunte Schlagworte ergeben noch lange keine Strategie. (Bild: Ylanite Koppens from Pixabay)
Viele bunte Schlagworte ergeben noch lange keine Strategie. Bild: Ylanite Koppens from Pixabay / Pixabay License

Im Januar 2026 gleichen sich die IT-Strategien vieler Unternehmen wie Kopien: KI steht ganz oben, gefolgt von Cloud und Security. Doch wer alles als strategisch definiert, hat am Ende keine Strategie. Denn Strategie bedeutet, bewusst zu priorisieren, messbare Ziele zu setzen und vor allem Nein zu sagen. Eine Liste aktueller Technologietrends bildet keine Strategie ab. Sie ist bestenfalls ein Themenkatalog.

Die Verwechslung von Technologie und Strategie führt dazu, dass IT-Bereiche ihre Ressourcen verzetteln. Projekte laufen parallel, ohne dass klar ist, welche davon tatsächlich zum Geschäftserfolg beitragen. Am Jahresende steht dann eine lange Liste von Initiativen, aber es gibt keine messbaren Erfolge.

Golem Plus Artikel

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Anzeige: 160-Watt-USB-C-Schnelladegerät nur noch rund 100 Euro

Von Boris Connemann — 02. Februar 2026 um 13:08
Das kompakte GaN-Ladegerät mit drei USB-C-Ports lädt MacBook, iPhone und iPad gleichzeitig und ist jetzt bei Amazon im Angebot.
Anker Prime-Schnelladegerät mit drei USB-C-Ports und Smart Display aktuell nur rund 100 Euro (Bild: Amazon.de)
Anker Prime-Schnelladegerät mit drei USB-C-Ports und Smart Display aktuell nur rund 100 Euro Bild: Amazon.de

Drei verschiedene Ladegeräte auf Reisen oder zur Arbeit mitnehmen, das führt unweigerlich zu nervigem Kabelsalat in Rucksack oder Tasche. Das Anker Prime 160W USB-C-Ladegerät ersetzt alle anderen und passt dabei locker in die Hosentasche. Trotz seiner kompakten Abmessungen, die einem AirPods-Case ähneln, liefert es bis zu 160 Watt Gesamtleistung und verteilt diese intelligent auf drei USB-C-Ports. Ein einzelner Port kann sogar 140 Watt bereitstellen, genug für ein 16-Zoll MacBook Pro, das so in 25 Minuten von null auf 50 Prozent geladen wird.

Bei Amazon erreicht das Ladegerät aktuell hervorragende 4,8 von 5 Sternen bei 181 Bewertungen und wurde im letzten Monat mehr als 1.000 Mal verkauft. Der Angebotspreis von 103,99 Euro entspricht dem früheren Amazon-Tiefstpreis und liegt 26 Euro unter der unverbindlichen Preisempfehlung von 129,99 Euro.

Dynamische Leistungsverteilung per PowerIQ 5.0

Die intelligente PowerIQ-5.0-Technologie erkennt angeschlossene Geräte automatisch und verteilt die verfügbare Leistung optimal. Wer drei Geräte gleichzeitig lädt, erhält eine Aufteilung von 140 Watt für den Laptop, 35 Watt für das iPhone und 35 Watt für das iPad. Diese Verteilung entspricht der kombinierten Leistung von drei Original-Ladegeräten, nur eben aus einem einzigen kompakten Block.

Das integrierte Smart Display zeigt in Echtzeit die aktuelle Leistung jedes Ports an. Per Touch-Steuerung lassen sich Modi direkt am Gerät wechseln, über die AnkerSense-App per Bluetooth können individuelle Lademodi freigeschaltet und gespeichert werden.

GaN-Technologie für kompakte Bauweise

Galliumnitrid statt klassischer Silizium-Bauteile ermöglicht eine Leistungsdichte von 1,35 Watt pro Kubikzentimeter. Dadurch bleibt das Ladegerät trotz 160 Watt Maximalleistung extrem kompakt und wird nicht übermäßig heiß. Egal, welcher der drei Ports genutzt wird, die volle Leistung von 140 Watt steht ohne Drosselung zur Verfügung. Das Gerät funktioniert mit allen gängigen USB-C-Geräten, von Laptops über Smartphones bis hin zu Tablets und Kopfhörern. Anker gewährt 24 Monate Garantie auf das Produkt.

Anker Prime 160W-Ladegerät für 103,99 Euro bei Amazon

Bei Amazon kostet das kompakte Anker-Prime-160W-USB-C-Ladegerät derzeit im Angebot 103,99 Euro. Das entspricht einer Ersparnis von 26 Euro gegenüber der Preisempfehlung von 129,99 Euro. Über 1.000 Käufe im letzten Monat und 4,8 von 5 Sternen bestätigen die hohe Nachfrage. Wer ein leistungsstarkes Ladegerät für mehrere Geräte sucht und dabei auf kompakte Abmessungen Wert legt, findet hier eine bewährte Lösung mit intelligentem Display und dynamischer Leistungsverteilung.

Reklame

Anker Prime 160W USB C Ladegerät

Zum Angebot

Neben dem Ladegerät ist bei Amazon auch das passende USB-Kabel im Angebot. Das Anker Prime USB-C auf USB-C Kabel unterstützt Ladevorgänge bis 240 W und kostet aktuell nur noch 18,49 anstatt 21,49 Euro.

Reklame

Anker Prime USB C auf USB C Kabel, 240W 180cm

Zum Angebot

Wer noch mehr Power braucht, für den kommt das Angebot für die Anker Prime Powerbank mit starken 26250mAh gerade richtig. Der Rabatt liegt hier bei aktuell 15 Prozent, der Angebots-Preis bei 169,99 Euro, die UVP liegt hier bei 199,99 Euro.

Reklame

Anker Prime Powerbank, 26250mAh, tragbares Ladegerät mit 3 Ports und 300W

Zum Angebot

Weitere aktuelle Angebote von Anker gibt es im Store des Herstellers bei Amazon. Reinschauen kann sich lohnen!

Die neuen Angebote im Anker-Store bei Amazon

Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

❌