(Bild: Corona Borealis Studio / Shutterstock.com)
Ein neues Polymer speichert Lichtenergie tagelang und gibt sie als Wasserstoff wieder ab – auch nachts und bei Wolken.
Die Energie des Sonnenlichts einfangen, tagelang speichern und dann bei Bedarf als Wasserstoff abrufen – genau das schafft ein neues Material, das Forscher der Universitäten Ulm und Jena entwickelt haben.
Das Besondere: Um den Wasserstoff freizusetzen, ist die Anlage nicht auf Sonnenlicht angewiesen. Nachts oder auch bei bewölktem Himmel kann er genutzt werden.
Die Ergebnisse [1] veröffentlichte das Team im Fachjournal Nature Communications.
Das Herzstück des Systems ist ein wasserlösliches Copolymer. Dabei handelt es sich um ein großes Molekül, das aus zwei verschiedenen organischen Bausteinen besteht.
Der eine Baustein macht das Polymer wasserlöslich. Der andere – eine sogenannte Viologen-Einheit – kann Elektronen aufnehmen und festhalten, ähnlich wie eine winzige Batterie.
"Man kann sich das vorstellen wie eine Kombination aus Solarzelle und Batterie auf molekularer Ebene", erklärt Sven Rau [2], Professor für Anorganische Chemie an der Universität Ulm.
Im ersten Schritt trifft sichtbares Licht auf das Polymer in einer wässrigen Lösung. Ein spezieller Farbstoff auf Ruthenium-Basis fängt die Lichtenergie ein und schiebt Elektronen auf die Viologen-Einheiten.
So lädt sich das Polymer auf – mit einer Effizienz von über 80 Prozent. Messungen im Labor zeigen: Selbst nach 72 Stunden in völliger Dunkelheit hält das Polymer seine Ladung nahezu vollständig.
Wird Wasserstoff gebraucht, genügt ein einfacher chemischer Trick, um ihn freizusetzen. Die Forscher gaben dazu eine Säure und einen Katalysator in die Lösung, wodurch der pH-Wert sank.
Die gespeicherten Elektronen verbanden sich schließlich mit Protonen zu Wasserstoff. Dieser Schritt läuft komplett ohne Licht ab.
"Bei Bedarf rufen wir die chemische Energie in Form von Wasserstoff wieder ab. Dafür werden die gespeicherten Elektronen gezielt wieder genutzt", sagt Ulrich S. Schubert, Leiter des Instituts für Organische Chemie und Makromolekulare Chemie an der Friedrich-Schiller-Universität Jena.
Mit Platin-Nanopartikeln als Katalysator wandelt das System bis zu 72 Prozent der gespeicherten Elektronen in Wasserstoff um.
Ein praktisches Detail: Der Ladezustand lässt sich mit bloßem Auge ablesen. Im geladenen Zustand leuchtet die Lösung violett. Gibt das Polymer seine Energie als Wasserstoff ab, wechselt die Farbe zu gelb. Wird die Lösung danach neutralisiert und erneut mit Licht bestrahlt, kehrt das Violett zurück – das System ist wieder einsatzbereit.
Dieses Recycling funktioniert über einen simplen pH-Schalter, ganz ohne aufwendige Aufbereitung.
Allerdings zeigen die Labordaten auch Grenzen: Bereits im zweiten Durchgang sank die Effizienz der Wasserstoffproduktion von 72 auf 55 Prozent. Nach vier Zyklen lag sie nur noch bei rund 32 Prozent.
Die Ursache sehen die Forscher hauptsächlich in den wiederholten pH-Wechseln, die den Katalysator angreifen – nicht das Polymer selbst.
Trotz dieser Einschränkungen übertrifft das Polymer vergleichbare Speichersysteme deutlich. Seine Speicherdichte liegt mehr als sechsmal höher als die bestimmter metallorganischer Gerüstverbindungen, die bisher für ähnliche Zwecke erprobt wurden.
"Die Ergebnisse eröffnen neue Perspektiven für kostengünstige, skalierbare solare Speichertechnologien – und liefern einen wichtigen Baustein auf dem Weg zu einer nachhaltigen, chemisch basierten Energiewirtschaft", sagt Schubert.
Als mögliches Einsatzgebiet nennen die Forscher etwa die klimaneutrale Stahlproduktion, die auf eine zuverlässige Versorgung mit grünem Wasserstoff angewiesen ist.
Bis zur praktischen Anwendung bleibt jedoch noch Arbeit: Die Langzeitstabilität der Katalysatoren muss steigen, und das Verfahren muss sich im größeren Maßstab bewähren.
URL dieses Artikels:
https://www.heise.de/-11196139
Links in diesem Artikel:
[1] https://www.nature.com/articles/s41467-026-68342-2
[2] https://www.uni-ulm.de/nawi/naturwissenschaften/nawi-detailseiten/news-detail/article/copolymer-macht-zeitlich-flexible-energienutzung-moeglich/
Copyright © 2026 Heise Medien
Reifendruckkontrollsysteme lassen sich einfach zur Überwachung nutzen
(Bild: Trong Nguyen/Shutterstock.com)
Reifendrucksensoren senden unverschlüsselt eindeutige IDs. Forscher trackten so 20.000 Autos mit 100-Dollar-Technik. Hersteller zu Änderungen aufgefordert.
Forscher des spanischen Imdea-Networks-Instituts haben gemeinsam mit europäischen Partnern nachgewiesen, dass die in modernen Fahrzeugen verpflichtend verbauten Reifendrucksensoren unbeabsichtigt zur Verfolgung von Fahrzeugen missbraucht werden können. In einer zehnwöchigen Feldstudie [1] sammelten sie Signale von mehr als 20.000 Fahrzeugen und dokumentierten dabei über sechs Millionen Einzelnachrichten der Sensoren.
Das sogenannte Tire Pressure Monitoring System (TPMS) – auf Deutsch: Reifendruckkontrollsystem – ist in vielen Ländern seit Ende der 2000er-Jahre gesetzlich vorgeschrieben.
Es überwacht kontinuierlich den Luftdruck in den Reifen und warnt den Fahrer bei Unterdruck. Dazu sendet jeder Sensor drahtlose Funksignale an den Bordcomputer des Fahrzeugs. Das Problem: Diese Signale sind vollständig unverschlüsselt und enthalten eine fest einprogrammierte, eindeutige Kennnummer – eine sogenannte ID.
Die Forscher bauten ein Netz aus preiswerten Funkempfängern entlang von Straßen und Parkplätzen auf. Die nötige Hardware kostet laut Studie lediglich 100 US-Dollar pro Empfänger und lässt sich aus handelsüblichen Komponenten wie Antennen und Raspberry-Pi-Minicomputern zusammenbauen.
Die Geräte können Signale aus einer Entfernung von mehr als 50 Metern empfangen – selbst dann, wenn die Sensoren sich in Gebäuden oder anderen verdeckten Positionen befinden, da die Funksignale Wände und andere Fahrzeuge durchdringen.
"Unsere Ergebnisse zeigen, dass diese Reifensensorsignale genutzt werden können, um Fahrzeuge zu verfolgen und ihre Bewegungsmuster zu erlernen", sagte Domenico Giustiniano, Professor am Imdea Networks Institute.
"Das bedeutet, dass ein Netz kostengünstiger Funkempfänger die Bewegungsmuster von Autos in realen Umgebungen still und heimlich überwachen könnte. Solche Informationen könnten tägliche Routinen offenbaren, etwa Ankunftszeiten am Arbeitsplatz oder Reisegewohnheiten."
Die Forscher entwickelten zudem Methoden, um die Signale aller vier Reifen eines Fahrzeugs einander zuzuordnen. Damit ließ sich die Genauigkeit bei der Identifizierung einzelner Fahrzeuge weiter steigern – etwa um festzustellen, ob ein bestimmtes Auto regelmäßig zu bestimmten Zeiten an einem Ort erscheint.
Im Unterschied zur kamerabasierten Fahrzeugüberwachung, die Sichtkontakt erfordert und durch Dunkelheit oder Verdeckung eingeschränkt werden kann, funktioniert die TPMS-basierte Verfolgung unabhängig von Sichtverhältnissen. Fahrer können die Aussendung der Signale nicht unterbinden, da das System automatisch und kontinuierlich sendet.
Die Techspot-Analyse weist zudem auf weitere mögliche Missbrauchsszenarien hin: Kriminelle könnten anhand von Reifendruckwerten das Gewicht der Ladung von Liefer- oder Lastwagen abschätzen und so günstige Zeitpunkte für Überfälle ermitteln.
Theoretisch sei es sogar möglich, gefälschte Reifenpannen-Warnungen an den Bordcomputer zu senden, um Fahrzeuge zum Anhalten zu zwingen. Darüber hinaus könnten Unternehmen die Signale nutzen, um Dienstfahrzeuge von Mitarbeitern ohne deren Wissen zu überwachen – oder Behörden könnten sie für eine flächendeckende Massenüberwachung einsetzen.
Hersteller wie Toyota, Renault, Hyundai und Mercedes setzen laut Techspot auf sogenannte direkte TPMS-Systeme (dTPMS), bei denen batteriebetriebene Drucksensoren direkt in der Felge oder im Reifen verbaut sind und Druck- sowie Temperaturdaten in Datenpaketen von rund 100 Bit an die Fahrzeugelektronik übermitteln.
"TPMS wurde für Sicherheit im Sinne von Verkehrssicherheit entwickelt, nicht für IT-Sicherheit", erklärte Dr. Yago Lizarribar, ehemaliger Doktorand bei Imdea Networks und heute Forscher bei Armasuisse in der Schweiz. "Unsere Ergebnisse zeigen, dass Hersteller und Regulierungsbehörden den Schutz in zukünftigen Fahrzeugsensorsystemen verbessern müssen."
Dr. Alessio Scalingi, ebenfalls ehemaliger Doktorand bei Imdea Networks und heute Assistenzprofessor an der Universität Carlos III in Madrid, ergänzte: "Da Fahrzeuge zunehmend vernetzt werden, sollten selbst sicherheitsorientierte Sensoren wie TPMS von Anfang an mit IT-Sicherheit konzipiert werden, da scheinbar passive und harmlose Daten im großen Maßstab gesammelt zu einem mächtigen Identifikationsmerkmal werden können."
Aktuelle Cybersicherheitsvorschriften für Fahrzeuge adressieren TPMS-Schwachstellen bislang nicht ausdrücklich. Da es zudem keinen offenen TPMS-Standard gibt, könnte eine nachträgliche Einführung von Verschlüsselungsprotokollen je nach Hersteller sehr unterschiedlich ausfallen.
Die Forscher fordern Fahrzeughersteller und politische Entscheidungsträger daher auf, Cybersicherheit in künftigen Fahrzeugsensorsystemen verbindlich zu verankern, damit Sicherheitssysteme nicht zu Werkzeugen zur Überwachung der Bevölkerung werden.
URL dieses Artikels:
https://www.heise.de/-11195274
Links in diesem Artikel:
[1] https://networks.imdea.org/your-cars-tire-sensors-could-be-used-to-track-you/
Copyright © 2026 Heise Medien
(Bild: GreenOak / Shutterstock.com)
Die Kämpfe im Nahen Osten treiben die europäischen Erdgas-Preise massiv nach oben. Die Straße von Hormus ist faktisch blockiert. Wie lange hält Europa durch?
Die europäischen Erdgas-Futures sind um bis zu 28 Prozent gestiegen – der stärkste Anstieg seit August 2023. Auslöser sind die US-Angriffe auf den Iran und die daraus resultierende faktische Blockade der Straße von Hormus, durch die rund ein Fünftel aller weltweiten Flüssiggas-Exporte (LNG) transportiert wird.
Die niederländischen Front-Month-Futures, Europas wichtigste Gas-Benchmark, notierten zuletzt bei 39,35 Euro pro Megawattstunde – ein Plus von 23 Prozent, wie Bloomberg berichtet [1].
Analysten vergleichen [2] die Lage bereits mit der Energiekrise nach dem russischen Einmarsch in die Ukraine 2022, die den globalen Gashandel grundlegend veränderte. Goldman Sachs warnt, dass eine einmonatige Unterbrechung der Schifffahrt durch die Straße von Hormus die europäischen Gaspreise mehr als verdoppeln könnte.
"Der europäische Gasmarkt reagiert in Wirklichkeit empfindlicher auf die faktische Sperrung der Straße von Hormuz als der Ölmarkt", sagte Arne Lohmann Rasmussen, Chefanalyst bei Global Risk Management, gegenüber Bloomberg. "Diese Unterbrechung wird sich bald auf dem physischen Markt bemerkbar machen."
Europa nähert sich zwar dem Ende des Winters, doch die Brennstoffvorräte liegen auf einem ungewöhnlich niedrigen Niveau. Der Kontinent muss in den kommenden Sommermonaten große Mengen LNG importieren, um die Speicher vor der nächsten Heizperiode wieder aufzufüllen.
"Diese Situation könnte die Wiederauffüllung der Lagerbestände in den kommenden Monaten erschweren und erneut Druck auf die Energiekosten der Industrie ausüben", sagte Simone Tagliapietra vom Brüsseler Thinktank Bruegel laut Bloomberg.
Obwohl der Iran offiziell erklärt, die Wasserstraße nicht sperren zu wollen, zeigen demnach Schiffsverfolgungsdaten ein anderes Bild: LNG-Tanker auf beiden Seiten der Meerenge liegen still.
Mindestens elf Tanker, die von oder nach Katar unterwegs waren, haben ihre Routen unterbrochen. Katar hat den gesamten Seeverkehr vorübergehend ausgesetzt und die Mitarbeiterzahl in der weltweit größten LNG-Exportanlage reduziert.
Ab Donnerstag decken mehr als die Hälfte der weltweit größten Seeversicherungsclubs keine Kriegsrisiken mehr für Schiffe im Persischen Golf ab. Dieser Schritt dürfte die Bereitschaft, Fracht aus der Region zu laden, weiter drastisch senken.
Große japanische LNG-Reeder wie Nippon Yusen, Mitsui OSK Lines und Kawasaki Kisen haben den Berichten zufolge ihre Schiffe bereits angewiesen, sichere Gewässer aufzusuchen oder die Region zu meiden.
Die Krise verschärft den weltweiten Konkurrenzkampf um Erdgas. Asiatische Länder beziehen mehr als vier Fünftel des katarischen LNG – China allein fast ein Drittel. Chinesische Importeure tätigen bereits Notfall-Anrufe, um alternative Lieferquellen zu sichern. Auch Abnehmer in Indien und Japan stellen sich auf steigende Preise ein.
Gleichzeitig drängen neue Käufer auf den Spotmarkt: Israel hat aus Sicherheitsgründen mehrere Gasförderanlagen geschlossen, darunter das große Leviathan-Feld. Ägypten sucht deshalb nach vorgezogenen LNG-Lieferungen.
Auch die Türkei könnte betroffen sein, da sie Pipeline-Gas aus dem Iran importiert – fallen diese Lieferungen aus, müsste Ankara ebenfalls verstärkt LNG auf dem Weltmarkt kaufen.
Die politischen Aussichten verschärfen die Marktsorgen zusätzlich. US-Präsident Donald Trump erklärte in einem Interview mit der New York Times, er beabsichtige, die Bombardierung des Iran in den nächsten vier bis fünf Wochen fortzusetzen.
Tom Marzec-Manser von Wood Mackenzie fasste die Lage gegenüber Bloomberg zusammen:
"Die nächste wichtige Frage für Händler wird sein, wie lange die Meerenge gesperrt bleibt. Je länger es dauert, bis sie wieder geöffnet wird, desto höher werden die Preise steigen."
Sollte die Blockade anhalten, drohen auch direkte Auswirkungen auf die LNG-Produktion: Katarische Exportanlagen benötigen stetige Ausfuhren, um den Betrieb aufrechtzuerhalten – andernfalls stehen Produktionskürzungen im Raum, die das globale Angebot weiter verknappen würden.
URL dieses Artikels:
https://www.heise.de/-11195386
Links in diesem Artikel:
[1] https://www.bloomberg.com/news/articles/2026-03-02/european-gas-jumps-25-as-iranian-crisis-threatens-global-flows
[2] https://www.bloomberg.com/news/articles/2026-03-01/goldman-says-european-gas-could-jump-130-on-hormuz-disruption
Copyright © 2026 Heise Medien
(Bild: Apple)
Auf M3 folgt M4: Apple hat sein populäres Mittelklasse-Tablet auf aktuellen Stand gebracht. Beim Speicherplatz bleibt der Hersteller knausrig.
Zum iPhone 17e [1] gesellt sich ein aktualisiertes iPad: Apple hat am Montag die iPad-Air-Reihe mit dem M4-Chip auf einen neueren Stand gebracht. Bis zu 30 Prozent mehr Leistung soll das im Vergleich zum Vorgängermodell mit M3-Prozessor liefern, so das Unternehmen. Äußerlich ändert sich nichts: Das iPad Air wird weiterhin in einer 11-Zoll- sowie einer 13-Zoll-Ausführung mit einem IPS-LCD ohne Support für HDR-Inhalte angeboten.
Zu den zentralen Neuerungen zählt neben dem M4 der von 8 auf 12 GByte erweiterte Arbeitsspeicher mit einer leicht erhöhten Speicherbandbreite von nun 120 GByte/s. Außerdem zieht Apples hauseigener WLAN- und Bluetooth-Chip N1 ins iPad Air ein und reicht damit – ein Novum bei dieser Modellreihe – Support für WLAN 7 nach.
Die Mobilfunkversion des Tablets stattet Apple mit dem C1X aus, der bereits im iPad Pro M5 und iPhone Air die Verbindung zum Mobilfunknetz herstellt. Laut Apple arbeitet der C1X außerdem sparsamer als das Modem im M3-iPad-Air verbraucht so mobil weniger Strom. Wie schon der Vorgänger und andere aktuelle iPads ist das iPad Air M4 „eSIM-only“ – eine klassische SIM-Karte lässt sich also nicht einstecken.
Das 11“ und 13“ iPad Air M4 gibt es erneut in den Farbvarianten Blau, Violett, Polarstern und Space Grau. Das Basismodell rüstet Apple unverändert nur mit 128 GByte Speicherplatz aus. Der Preis eines derart konfigurierten 11-Zoll-Modells beginnt beim Hersteller bei 650 Euro, das Mobilfunkmodem katapultiert diesen auf 820 Euro. Das 13“ iPad Air kommt mit 128 GByte Speicherplatz ab 850 Euro in den Handel. Verkaufsstart ist der 11. März. Zubehör wie Apple Pencil und Magic Keyboard kosten extra, dort gibt es keine Produktneuerungen zu verzeichnen.
URL dieses Artikels:
https://www.heise.de/-11195987
Links in diesem Artikel:
[1] https://www.heise.de/news/iPhone-17e-Ausstattungsluecke-beseitigt-Preis-bleibt-hoch-11195582.html
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://www.heise.de/mac-and-i
[4] mailto:lbe@heise.de
Copyright © 2026 Heise Medien
(Bild: Apple)
Apple ergänzt die populäre iPhone-17-Reihe um ein Einstiegsmodell. Das 17e beseitigt eine merkwürdige Ausstattungslücke des Vorgängers.
Zu iPhone 17 und 17 Pro gesellt sich das neue 17e: Apple hat das Einstiegsmodell am Montag neu aufgelegt und die 17er-Reihe damit komplettiert. Äußerlich unterscheidet sich das 17e nicht vom 16e: Es basiert weiterhin auf dem Design des iPhone 13/14 mit einem 6,1-Zoll-OLED und setzt auf ein Kamerasystem mit einem einzelnen Objektiv und einem 48-Megapixel-Sensor. Neu als dritte Farbe ist Rosa im Programm.
Die Komponenten hat Apple auf aktuellen Stand gebracht: Als Prozessor kommt im 17e der A19-Chip zum Einsatz, welcher im iPhone 17 [1] im Herbst 2025 sein Debüt gegeben hat. Zudem integriert das Unternehmen die neuere Version C1X des hauseigenen Mobilfunkmodems.
Die Display-Beschichtung der Vorderseite soll nun durch „Ceramic Shield 2“ deutlich kratzfester sein als zuvor – auf Niveau von iPhone 17 und 17 Pro, wie Apple mitteilte. Die teureren Modelle heben sich durch mehrere Bildschirmelemente ab, die dem iPhone 17e nach wie vor fehlen. Dazu zählen die Always-On-Funktion, das „Dynamic Island“ zur Anzeige von Hintergrundfunktionen und eine bis 120 Hz reichende Bildwiederholrate – all das bleibt iPhone 17, 17 Pro (Max) und iPhone Air vorbehalten.
Immerhin ist jetzt MagSafe für kontaktloses Laden und magnetisches Zubehör mit an Bord, das fehlte überraschend dem 16e. Damit unterstützt das iPhone 17e neben Apples teurem MagSafe-Zubehör auch Lade-Accessoires mit Qi2. Das 17e bleibt dafür mit einer Breite und Höhe von 14,7 x 7,2 cm sowie der Dicke von 7,8 mm zwar nicht das dünnste, aber das kleinste iPhone in Apples aktuellem Line-up. Mit laut Hersteller 169 Gramm wiegt es wenige Gramm mehr als das iPhone Air.
(Bild: Apple)
Das Basismodell ist jetzt mit 256 GByte statt zuvor nur 128 GByte Speicherplatz ausgestattet. Das iPhone 17e [2] kostet in Deutschland beim Hersteller unverändert 700 Euro und erscheint damit vergleichsweise teuer – für rund 850 Euro ist das iPhone 17 im Handel zu finden. Die Preise des Vorgängers 16e bewegten sich zuletzt auf die passendere 500-Euro-Marke zu. Neben Schwarz oder Weiß bietet Apple das 17e in der Farbe „Hellrosa“ an; Verkaufsstart ist der 11. März.
Mit der Aktualisierung am Montag reiht sich das iPhone 17e in den typischen Jahresrhythmus ein, in dem der Hersteller seine anderen Smartphone-Modelle bereits aktualisiert. Beobachter erwarten, dass Apple künftig vom bisher gewohnten Release-Zyklus abweicht: iPhone 18 Pro (Max) und das klappbare „iPhone Fold“ werden für Herbst 2026 erwartet, die Basisausführung des iPhone 18 und das 18e dann im Frühjahr 2027.
URL dieses Artikels:
https://www.heise.de/-11195582
Links in diesem Artikel:
[1] https://www.heise.de/tests/iPhone-17-17-Pro-17-Pro-Max-und-Air-im-Test-10663319.html
[2] https://www.apple.com/de/iphone-17e/
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:lbe@heise.de
Copyright © 2026 Heise Medien
Apple-Intelligence-Icon mit Farbverlauf: Core AI als neuer Bestandteil.
(Bild: Apple)
Einem Bericht zufolge wird Apple seinen KI-Ansatz für Entwickler überdenken. Auf Core ML folgt „Core AI” – mit moderneren Methoden.
Die mit iOS 27, macOS 27 und Co. geplanten Apple-Intelligence-Verbesserungen, die dank Google-Gemini-Unterstützung erstmals auch einen „echten“ Siri-Chatbot [1] ermöglichen sollen, bringen auch Neuerungen auf der Entwicklerseite mit. Laut Bloomberg-Reporter Mark Gurman beerdigt Apple mit der Einführung der neuen Betriebssysteme im Herbst auch sein traditionelles Core-ML-Framework [2], mit dem Entwickler auf Verfahren aus dem Bereich des Maschinellen Lernens zugreifen können. Es wurde in den vergangenen Jahren mit mehr und mehr Apple-Intelligence-Funktionen nachgerüstet.
Die Idee sei, Core ML durch etwas „ein wenig moderneres” zu ersetzen. Das hat auch mit Marketingaspekten zu tun: Maschinelles Lernen (ML) gilt mittlerweile in der KI als geradezu altertümlicher Begriff. Die Kernfunktionalität von „Core AI“ bleibt aber unverändert: Apples KI-Modelle, die nun teilweise von Google [3] kommen, in eigene Programme einzubauen. Apple lockt dabei mit der Möglichkeit, ohne die Verwendung von Third-Party-Modellanbietern wie OpenAI oder Anthropic auszukommen. iOS-, iPadOS- und macOS-Programme können sich stattdessen Apples eigener Technik bedienen, was zumindest aktuell kostenlos ist.
Bislang hält sich die Nutzung aber noch in Grenzen, da Apples Modelle als nicht konkurrenzfähig gelten. Bei komplexeren Aufgaben greifen Entwickler via API auf OpenAI, Anthropic und Co. zurück. Spannend wird, ob dies mit den neuen Apple-Modellen auf Gemini-Basis anders wird. Apple plant zunächst allerdings nur, ältere Gemini-Modelle auf eigenen KI-Servern [4] laufen zu lassen, bevor die neuesten Modelle dann aus Googles Rechenzentren angeliefert werden. Da Apple Google keinesfalls Nutzerdaten überlassen will, muss dies vollständig verschlüsselt erfolgen, woran der Konzern intern wohl derzeit arbeitet.
Einfach wird das nicht. Zuletzt wurden zudem erneut neue Siri-Funktionen verschoben [5], was vermutlich auch mit dem Umstieg auf Gemini-Basistechnik zu tun hatte. Dabei soll es der Sprachassistentin endlich möglich werden, auf vorhandene iPhone-Inhalte dynamisch zuzugreifen, den Bildschirm auszulesen sowie Apps zu bedienen.
Im Juni ist es ein Jahr her, dass Apple-Softwareboss Craig Federighi mitgeteilt hatte, dass die kontextsensitive Siri „keine Vaporware“ [6] sei.
URL dieses Artikels:
https://www.heise.de/-11195252
Links in diesem Artikel:
[1] https://www.heise.de/news/iOS-27-Vor-allem-Fehlerbehebungen-aber-Siri-Chatbot-11169708.html
[2] https://www.heise.de/ratgeber/KI-Code-mit-Metal-parallelisieren-So-geht-es-mit-Apples-API-10449073.html
[3] https://www.heise.de/news/Nach-Gemini-Siri-Deal-Google-nun-Apples-bevorzugter-Cloud-Anbieter-11166990.html
[4] https://www.heise.de/news/Uebersicht-Diese-neuen-KI-Funktionen-koennten-mit-iOS-26-und-27-kommen-11149088.html
[5] https://www.heise.de/news/Bericht-Neue-Siri-doch-nicht-in-iOS-26-4-11173689.html
[6] https://www.heise.de/news/Apple-Softwarechef-Kontextsensitive-Siri-war-keine-Vaporware-10440967.html
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
(Bild: 23 estudio / Shutterstock.com)
6G-Funk soll nicht nur Daten übertragen, sondern die Umgebung aktiv ausleuchten. ETSI warnt vor Gefahren für Sicherheit und Privatsphäre durch dieses „Sensing“.
Mit der Einführung von 6G [1] steht der Mobilfunk vor einem Paradigmenwechsel: Die Technologie „Integrated Sensing and Communications“ (ISAC [2]) soll das Mobilfunknetz der nächsten Generation zu einer Art riesigem Radarsystem machen. Heutige Netze dienen primär der Kommunikation. 6G soll dagegen Funkreflexionen nutzen, um Objekte, Entfernungen, Geschwindigkeiten und sogar menschliche Bewegungen in Echtzeit zu erfassen.
Die Vorteile dieser Umgebungserfassung für autonomes Fahren oder die industrielle Automatisierung sind enorm. Doch auch die Schattenseiten wiegen schwer. Eine Arbeitsgruppe der EU-Telekommunikationsnormungsbehörde ETSI zu ISAC hat dazu nun einen Bericht veröffentlicht [3], der die Risiken für Sicherheit, Privatsphäre und Nachhaltigkeit beleuchtet.
Das größte Problem der neuen Technologie liegt demnach in ihrer Natur: Funkwellen machen vor Mauern oder dem menschlichen Körper nicht halt. Die ETSI-Experten identifizieren so insgesamt 19 kritische Punkte, wobei Datenschutz und -sicherheit mit 15 Schwerpunkten den größten Raum einnehmen. Brisant ist ihnen zufolge vor allem das „unbefugte Sensing“: Kriminelle könnten 6G-Signale missbrauchen, um ohne Erlaubnis Karten von Gebäuden zu erstellen oder die Position von Personen zu tracken. Da ISAC-Signale oft auch Kommunikationsdaten enthalten, besteht zudem die Gefahr, abgehört zu werden: Ein Zielobjekt könnte quasi als Empfänger fungieren und vertrauliche Informationen aus den Radarsignalen abgreifen.
Ein weiterer Fokus liegt auf dem Schutz unbeteiligter Personen. In einer ISAC-Welt werden der Analyse zufolge auch Menschen erfasst, die gar kein Mobilfunkgerät besitzen oder nicht mit dem Netz verbunden sind. Die Autoren fordern hier klare Mechanismen für Einwilligung und Transparenz. Es müsse sichergestellt werden, dass Sensordaten unveränderlich gespeichert werden und der Zugriff streng auf autorisierte Netzwerkfunktionen beschränkt bleibt.
Auch die Rolle von KI beleuchten die Verfasser kritisch, da einschlägige Modelle aus den Sensordaten hochsensible Informationen ableiten könnten. Diese würden über den eigentlichen Zweck der Messung weit hinausgehen.
Zusätzlich zu diesen passiven Risiken warnt die ETSI vor aktiven Angriffen. So könnten 6G-Radarsignale über die Luftschnittstelle manipuliert werden, um Fehlmessungen zu provozieren oder Sicherheitsfunktionen auszuhebeln. Das betrifft vor allem sicherheitskritische Bereiche wie Fabrikhallen oder öffentliche Infrastrukturen, in denen die genaue Positionserfassung von Maschinen und Personen essenziell ist. Um das zu verhindern, müssen künftige Systeme nicht nur die Datenübertragung verschlüsseln, sondern auch die Integrität der Sensormessungen selbst auf physikalischer Ebene absichern.
Auch Nachhaltigkeit steht im Fokus des Reports. Die zusätzliche Radarfunktion darf den Energiebedarf der Netze nicht explodieren lassen. ETSI schlägt hier etwa die effiziente gemeinsame Nutzung von Frequenzen vor, um knappe Ressourcen zu schonen. Zudem thematisiert das Institut gesundheitliche Aspekte und den ökologischen Fußabdruck der benötigten Hardware. Prämisse dabei: Es gelte sicherzustellen, dass die 6G-Infrastruktur im Einklang mit globalen Klimazielen stehe.
Ein oft übersehener Punkt ist laut den Technikern die soziale Komponente der Nachhaltigkeit. Sie betonen, ISAC-Dienste müssten so gestaltet sein, dass sie keine neuen Ungleichheiten schafften. Der Zugang zu lebensverbessernden Funktionen wie Gesundheitsüberwachung durch kontaktlose Sensorik sollte für alle Bevölkerungsschichten gleichermaßen möglich sein. So verknüpft die Gruppe technische Spezifikationen direkt mit den UN-Nachhaltigkeitszielen.
Bereits im April 2025 legte ETSI mit einem Vorläuferbericht die Basis für praktische 6G-Einsatzszenarien [4]. Darin werden 18 fortgeschrittene Anwendungsfälle wie die Erkennung menschlicher Bewegungen, Notfallrettung und industrielle Robotik beschrieben. Diese Szenarien nutzen Frequenzbänder vom Sub-6-GHz-Bereich bis hin zu Millimeterwellen und Terahertz-Frequenzen, oft in Kombination mit klassischen Sensoren wie Kameras. Um die Sensorik tief in die Mobilfunkarchitektur zu integrieren, unterscheidet ETSI drei Integrationsstufen und sechs verschiedene Sensing-Modi, die Basisstationen und Endgeräte einbeziehen.
Die neue Untersuchung baut auf diesen Anwendungsszenarien auf und versteht sich als Weckruf für Entwickler und Regulierungsbehörden. Es soll darum gehen, das Vertrauen in 6G von vornherein durch ein „Security by Design“-Konzept zu verankern. Nur wenn die technischen Anforderungen an Datenschutz und Nachhaltigkeit bereits in der Standardisierungsphase berücksichtigt würden, könne ISAC sein volles Potenzial entfalten, ohne die Gesellschaft gläsern zu machen.
URL dieses Artikels:
https://www.heise.de/-11195640
Links in diesem Artikel:
[1] https://www.heise.de/news/Weltfunkkonferenz-Internationale-Fernmeldeunion-ebnet-Weg-fuer-6G-9548294.html
[2] https://isac.committees.comsoc.org
[3] https://www.etsi.org/deliver/etsi_gr/ISC/001_099/004/01.01.01_60/gr_ISC004v010101p.pdf
[4] https://www.etsi.org/deliver/etsi_gr/ISC/001_099/001/01.01.01_60/gr_ISC001v010101p.pdf
[5] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[6] mailto:dahe@heise.de
Copyright © 2026 Heise Medien
(Bild: heise medien)
IPFire 2.29 Core Update 200 bringt Linux 6.18 LTS, das neue Domain-Blocklist-System, zahlreiche Paket‑Updates und wichtige Leistungsverbesserungen.
Die Entwickler der freien Firewall-Distribution IPFire haben Core Update 200 für Version 2.29 veröffentlicht. Das Update bringt Linux 6.18.7 LTS sowie eine Vorabversion des eigenen Domain-Blocklist-Systems DBL. Außerdem enthält es wichtige Sicherheitskorrekturen für OpenSSL und Performance-Optimierungen für den DNS-Proxy Unbound.
Der neue Kernel 6.18.7 LTS verbessert laut IPFire die Netzwerk-Performance durch den optimierten Durchsatz und geringere Latenzen. Zudem erweitert er die Packet-Filtering-Fähigkeiten und integriert aktuelle Hardware-Sicherheitsmechanismen. Für Nutzer bedeutet dies stabilere Verbindungen bei hoher Last und schnellere Paketverarbeitung.
Eine kritische Änderung betrifft ReiserFS-Nutzer: Der Kernel hat das Dateisystem [1] als veraltet markiert. Betroffene IPFire-Installationen können das Update nicht einspielen. Nutzer müssen ihre Daten sichern, das System neu mit einem modernen Dateisystem wie ext4 oder Btrfs aufsetzen und die Daten anschließend wiederherstellen. IPFire hatte bereits über die Web-Oberfläche gewarnt, eine Migration erfordert jedoch Planung.
Mit DBL (Domain Blocklist) stellt IPFire ein eigenes kategorisiertes Blocklist-System vor, das als Reaktion auf das Auslaufen der Shalla-List im Januar 2022 entwickelt wurde. Die Beta-Version ermöglicht das Blockieren von Malware, Phishing, Werbung, Pornografie, Glücksspiel, Gaming-Seiten und DoH-Servern. Die Community kuratiert die Liste und aktualisiert sie stündlich.
DBL lässt sich über den URL-Filter für Proxy-Blocking oder via Suricata für Deep Packet Inspection nutzen. Letzteres ermöglicht eine umfassendere Kontrolle über DNS, TLS, HTTP und QUIC mit detaillierten Alert-Informationen. Die Community kann über ein Online-Reporting falsche Einträge melden oder neue Bedrohungen ergänzen.
DBL steht unter offenen Lizenzen: Der Code ist unter GPLv3+ verfügbar, die Daten unter CC BY-SA 4.0. Das System ist kompatibel mit Pi-hole, BIND, Unbound, pfSense, SquidGuard und Adblock-Plus. IPFire hat DBL bereits Anfang des Jahres vorgestellt [2].
Der DNS-Proxy Unbound nutzt nun Multi-Threading mit einem Thread pro CPU-Kern statt Single-Threading. Dies parallelisiert DNS-Abfragen und führt zu schnelleren Response-Zeiten, besonders bei Multi-Core-Systemen mit vielen Clients. PPP sendet LCP-Keepalives nur noch bei Inaktivität, um Overhead auf DSL-, 4G- und 5G-Verbindungen zu sparen.
OpenSSL 3.6.1 behebt mehrere Sicherheitslücken. Die schwerwiegendste ist CVE-2025-15467: ein Stack-Overflow in CMS/AEAD mit potenziellem Remote Code Execution (hoher Schweregrad). Weitere Fixes: CVE-2025-11187 (PKCS#12 Buffer-Overflow, CVSS 6.1, mittel) und CVE-2025-66199 (TLS-1.3-DoS durch große Memory-Allokationen pro Verbindung). Auch glibc erhielt Korrekturen für mehrere CVEs (CVE-2026-0861, CVE-2026-0915, CVE-2025-15281).
Bei OpenVPN wurden Änderungen an der Konfiguration vorgenommen: MTU-, OTP- und CA-Parameter werden nicht mehr in Client-Configs gespeichert, sondern zentral vom Server gepusht. Dies erhöht die Flexibilität und Kompatibilität, etwa beim Import in NetworkManager. Ältere Clients könnten dadurch allerdings Probleme bekommen. Die zentrale Kontrolle soll Config-Fehler und Fragmentierungsprobleme minimieren.
DBL bildet die Grundlage für eine geplante DNS-Firewall in IPFire, die natives Content-Filtering auf DNS-Ebene gegen Werbung und Malware ermöglichen soll, unabhängig von Proxys. Die IPFire-Entwickler dankten der Community für die Unterstützung via Feedback und Spenden. Details zu Core Update 200 finden sich in den Release Notes [3].
Siehe auch:
URL dieses Artikels:
https://www.heise.de/-11194695
Links in diesem Artikel:
[1] https://www.heise.de/news/Linux-Dateisystem-ReiserFS-ist-offiziell-obsolet-9292262.html
[2] https://www.heise.de/news/IPFire-stellt-freie-Domain-Blockliste-DBL-vor-11175994.html
[3] https://www.ipfire.org/blog/ipfire-2-29-core-update-200-released
[4] https://www.heise.de/download/product/ipfire-47736?wt_mc=intern.red.download.tickermeldung.ho.link.link
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de
Copyright © 2026 Heise Medien
(Bild: janews/Shutterstock.com)
Anfang Februar warnte die CISA vor Angriffen auf FreePBX-Instanzen. Aktuell stehen Hunderte kompromittierte Installationen im Netz.
Kriminelle attackieren bereits seit Ende 2025 bekannte Sicherheitslücken in der Open-Source-Bedienoberfläche FreePBX für Asterisk-Telefonanlagen. Die US-amerikanische IT-Sicherheitsbehörde CISA hat vor diesen beobachteten Angriffen [1] gewarnt. Das reicht vielen IT-Verantwortlichen jedoch offenbar nicht, um ihre Anlagen auf den aktuellen Stand zu bringen: Hunderte infizierte Instanzen stehen zugreifbar im Internet.
Davor hat die Shadowserver Foundation auf Mastodon gewarnt. Vergangene Woche haben sie mehr als 900 IP-Adressen entdeckt, an denen kompromittierte FreePBX-Instanzen lauschten. Die IT-Forscher erklären, dass die kompromittierten Geräte wahrscheinlich über die Schwachstelle CVE-2025-64328 geknackt wurden – das deckt sich mit einer der Lücken aus der CISA-Warnung.
Die aktuellen Daten der Shadowserver Foundation zeigen [2] nur einen sehr geringen Rückgang an kompromittierten FreePBX-Servern. Bei der Aufschlüsselung nach Ländern [3] liegen die USA unangefochten und mit Abstand an erster Stelle. Darauf folgen Brasilien, Kanada und bereits an vierter Stelle Deutschland, mit zum Zeitpunkt dieses Artikels noch 38 unterwanderten FreePBX-Instanzen.
Fortinet hat eine Analyse [4] vorgelegt, der zufolge insbesondere eine Cybergruppierung mit dem Namen „INJ3CTOR3“ seit frühem Dezember 2025 die Schwachstelle CVE-2025-64328 in FreePBX (FreePBX Endpoint Manager 17.0.2.36 - 17.0.3) missbraucht, um eine Webshell namens „EncystPHP“ auf geknackte Systeme zu verfrachten.
Die Angreifer haben dabei Datenbank-Informationen aus der FreePBX-Konfigurationsdatei ausgelesen. Anschließend haben sie Cron-Jobs und diverse FreePBX-Nutzerkonten gelöscht, darunter „ampuser“, „svc_freepbx“, „freepbx_svc“ und weitere. Außerdem sucht „EncystPHP“ weitere Webshells und versucht, die zu löschen; das passiert ebenso mit einigen Dateien, die auf Infostealer-Einnistung deuten. Schließlich erlangt die Webshell Persistenz durch Einrichtung eines root-Nutzers „newfpbx“, setzt diverse User-Passwörter auf einen bestimmten Wert zurück und erhöhte deren Zugriffsrechte. Damit die Angreifer sich verbinden können, schleust die Webshell einen öffentlichen SSH-Key ein und verändert die Systemkonfiguration, damit Port 22 (SSH) offen bleibt. Dann lädt EncystPHP weitere Dropper-Software nach. Am Ende verändert sie noch die Log-Dateien und löscht das FreePBX-Endpoint-Manager-Modul „endpoint“.
Die Malware greift noch weiter ins System ein, die Fortinet-Analyse liefert dazu Details und listet auch Hinweise für Infektionen (Indicators of Compromise, IOCs) auf. Damit können Admins ihr System auf Einbruchsspuren untersuchen.
URL dieses Artikels:
https://www.heise.de/-11194681
Links in diesem Artikel:
[1] https://www.heise.de/news/Angriffe-auf-Solarwinds-Web-Help-Desk-FreePBX-und-Gitlab-beobachtet-11164498.html
[2] https://dashboard.shadowserver.org/statistics/combined/time-series/?date_range=30&source=compromised_iot&source=compromised_website&source=compromised_website6&tag=freepbx-compromised%2B&dataset=unique_ips&limit=100&group_by=geo&stacking=stacked&auto_update=on
[3] https://dashboard.shadowserver.org/statistics/combined/tree/?date_range=1&source=compromised_iot&source=compromised_website&source=compromised_website6&tag=freepbx-compromised%2B&data_set=count&scale=log&auto_update=on
[4] https://www.fortinet.com/blog/threat-research/unveiling-the-weaponized-web-shell-encystphp
[5] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[6] mailto:dmk@heise.de
Copyright © 2026 Heise Medien
(Bild: heise medien)
Die Rust-basierte Browser-Engine Servo 0.0.5 unterstützt quantensichere Algorithmen und verbessert Form Controls, Performance und Stabilität.
Die Open-Source-Browser-Engine Servo ist in Version 0.0.5 erschienen. Das monatliche Release bringt Unterstützung für moderne Kryptografie-Standards: Servo gibt an, als erste Browser-Engine die Post-Quanten-Algorithmen ML-KEM (Module-Lattice-Based Key-Encapsulation Mechanism) und ML-DSA (Module-Lattice-Based Digital Signature Algorithm) vollständig in der Web Crypto API implementiert zu haben. Dazu kommen AES-OCB und verbessertes AES-GCM sowie detailliertere Fehlermeldungen bei kryptografischen Operationen.
Die quantenresistenten Verfahren schützen vor sogenannten Harvest-Now-Decrypt-Later-Angriffen, bei denen Angreifer verschlüsselte Daten sammeln, um sie später mit Quantencomputern zu entschlüsseln. ML-DSA hasht den Public Key zusätzlich, um Kollisionen und Key-Swapping-Angriffe zu verhindern. Wie das Servo-Projekt im Blog [1] mitteilt, führt die Engine damit vor etablierten Browsern bei neuen Web-Cryptography-Algorithmen.
Bei den Web-Standards hat Servo 0.0.5 zahlreiche Verbesserungen erhalten: Die Engine unterstützt nun <link rel=preload> zum Vorladen von Ressourcen, <style blocking> und <link blocking> für bessere Kontrolle beim Seitenaufbau sowie <img align> und <select disabled> für Formulare. Die Funktion navigator.sendBeacon() ist nun standardmäßig aktiviert und ermöglicht zuverlässige, asynchrone Datenübertragung beim Verlassen einer Seite, ohne die Navigation zu blockieren. Außerdem wurde die OGG-Unterstützung im <audio>-Element reaktiviert, nachdem alte GStreamer-Bugs behoben worden waren.
CSS-Erweiterungen umfassen cursor-color, content: <image> auf allen Elementen, ::details-content und :open auf <details>-Elementen sowie :active auf <input type=button>. Die Rust-basierte CSS-Engine Stylo wurde auf den Stand von Januar 2026 aktualisiert und beherrscht damit color-mix() sowie verbesserte Animationen für Borders und Overflow.
Servo 0.0.5 soll spürbare Performance-Verbesserungen bringen: Die IPC-Kanäle arbeiten effizienter, was besonders im Single-Process-Modus Geschwindigkeitsvorteile bringt. Der Socket-Timeout wurde auf 15 Sekunden gesetzt und jede Instanz benötigt vier Threads weniger als zuvor. Verbessertes Caching für SVG und animierte Bilder sowie Garbage-Collection-Optimierungen für Canvas und WebGPU beschleunigen die Darstellung. Die Verarbeitung von Nicht-ASCII-Text wurde sowohl bei Zeit als auch Speicherbedarf optimiert.
Zahlreiche Fixes erhöhen die Stabilität in den Bereichen Layout, WebGPU, Text-Input und IndexedDB. Das Block-Layout wurde überarbeitet und die JavaScript-Unterstützung erweitert: Cyclic Imports, Import Attributes und JSON Modules funktionieren nun korrekt. Die Origin API, MouseEvent.detail und Request.keepalive stehen ebenfalls zur Verfügung. IndexedDB macht Fortschritte bei Connection-Queues und Request-Granularity, muss aber weiterhin per --pref dom_indexeddb_enabled aktiviert werden.
Für Entwickler, die Servo in eigene Anwendungen einbetten möchten, bringt Version 0.0.5 wichtige Verbesserungen: Cross-Compilation von einem Windows-Host ist nun möglich und SiteDataManager::clear_site_data() erlaubt DSGVO-konformes Löschen von gespeicherten Daten pro Host. Git-Abhängigkeiten sind jetzt gepinnt, um Reproduzierbarkeit zu gewährleisten. Die Grundlage für einen Accessibility Tree wurde gelegt, der künftig Technik rund um die Barrierefreiheit unterstützen soll.
Servo 0.0.5 ist für Windows, macOS (x86 und ARM, unsigned), Linux (mit geteilten Bibliotheken), Android und OpenHarmony verfügbar. Bei macOS ist wegen der fehlenden Signatur eine manuelle Freigabe nötig. Die Engine unterstützt nun auch HTTPS_PROXY und NO_PROXY für Netzwerk-Konfigurationen. Die vollständigen Release Notes stehen bei GitHub [2] bereit.
Servo ist eine experimentelle Browser-Engine, die Mozilla ursprünglich 2012 startete, um moderne Webtechnologien in der Programmiersprache Rust zu implementieren. Nach einer längeren Unterbrechung gab es für das Projekt 2023 einen Neustart unter der Linux Foundation Europe mit Unterstützung von Igalia. Seit Oktober 2025 erscheinen monatliche Releases, die auf Nightly-Builds aufbauen und durch manuelle Tests ergänzt werden. Die Engine zielt darauf ab, Entwicklern eine leichtgewichtige, performante Alternative für die Einbettung von Web-Technologien in Anwendungen zu bieten.
Das erste offizielle Release 0.0.1 [3] brachte im Oktober 2025 erstmals vorkompilierte Binaries für ARM-Macs. Die CSS-Engine Stylo, die Servo und Firefox gemeinsam nutzen, hat sich als stabil erwiesen und zeigt, wie Rust-Code in produktiven Browser-Umgebungen eingesetzt werden kann.
URL dieses Artikels:
https://www.heise.de/-11195180
Links in diesem Artikel:
[1] https://servo.org/blog/2026/02/28/january-in-servo/
[2] https://github.com/servo/servo/releases/tag/v0.0.5
[3] https://www.heise.de/news/Browser-Engine-Servo-veroeffentlicht-erstes-offizielle-Release-0-0-1-10789486.html
[4] https://www.heise.de/ix
[5] mailto:fo@heise.de
Copyright © 2026 Heise Medien
(Bild: GaudiLab/Shutterstock.com)
Die PHP Foundation zur Förderung und Finanzierung der Weiterentwicklung von PHP bekommt mit Elizabeth Barron eine neue Executive Director.
Die PHP Foundation bekommt eine neue Führung: Elizabeth Barron übernimmt die Rolle der Executive Director. Die Entscheidung fiel nach einem Auswahlverfahren, das ein internes Komitee um Nils Adermann, Sebastian Bergmann, Lorna Mitchell und Ben Ramsey begleitet hat. Barron folgt auf Roman Pronskiy, der sich künftig stärker auf seine Tätigkeit bei JetBrains konzentrieren will, der Foundation aber als Vorstandsmitglied erhalten bleibt und die Übergabe begleitet.
Elizabeth Barron [1] bringt langjährige Erfahrung aus der PHP-Community und der Open-Source-Welt mit. Sie war Mitgründerin einer gemeinnützigen Organisation zur Förderung von Frauen und nicht-binären Personen in der PHP-Branche, arbeitete als Community-Managerin bei GitHub und verantwortete dort unter anderem Outreach-Programme wie „Patchwork“ [2]. Das sind Initiativen, die gezielt neue Mitwirkende ansprechen und sie beim Einstieg in Open-Source-Projekte unterstützen. Zudem engagierte sie sich im CHAOSS-Projekt, das Kennzahlen und Methoden zur Bewertung der Gesundheit von Open-Source-Communities entwickelt. Ihre Schwerpunkte liegen im Community-Aufbau und Fundraising sowie in strategischer Weiterentwicklung und operativer Leitung von Open-Source-Initiativen.
Die PHP Foundation wurde 2021 gegründet [3], um die langfristige Weiterentwicklung der Programmiersprache organisatorisch und finanziell abzusichern – unter anderem als Reaktion auf personelle Veränderungen im Core-Team. Die Stiftung sammelt Sponsorengelder, unterstützt Core-Entwicklerinnen und -Entwickler finanziell und schafft verlässliche Strukturen rund um Governance und Förderung. Mit Barron an der Spitze will die Organisation diesen Kurs fortsetzen und die Grundlage dafür stärken, dass die Programmiersprache PHP auch künftig einen großen Teil des Webs antreibt.
Nähere Informationen finden sich im Beitrag [4] auf dem offiziellen Blog der PHP Foundation.
URL dieses Artikels:
https://www.heise.de/-11194525
Links in diesem Artikel:
[1] https://www.linkedin.com/in/elizabethn/
[2] https://patchwork.github.io/
[3] https://www.heise.de/news/Programmiersprache-Eine-Stiftung-fuer-PHP-soll-die-weitere-Zukunft-sichern-6274258.html
[4] https://thephp.foundation/blog/2026/02/27/welcoming-elizabeth-barron-new-executive-director/
[5] mailto:mdo@ix.de
Copyright © 2026 Heise Medien
(Bild: Erstellt mit KI (Midjourney) durch iX-Redaktion)
Java wurde 2025 schon 30 Jahre alt. Das ist ein guter Zeitpunkt, zurück, aber auch nach vorn zu blicken.
In den vergangenen 30 Jahren hat sich eine rege Community im Java-Umfeld gebildet. Ich habe einige deutschsprachige Vertreter zu ihren Erfahrungen befragt. Die Resonanz war überwältigend. Vielen Dank an alle, die mitgemacht haben. In diesem fünften und letzten Teil kommen Sandra Warmbrunn (Co-Organisatorin JUG Ostfalen), Michael Paus (Board-Mitglied JUG Stuttgart und Organisator des Java Forum Stuttgart), Stefan Hildebrandt (Co-Organisator JUG Bremen/Oldenburg), Thomas Ruhroth (Mitorganisator JavaLand4Kids) und Gerrit Meier (Co-Organisator JUG Ostfalen) zu Wort.
Java prägt viele Entwicklerinnen und Entwickler seit ihren ersten Schritten in der IT – und hat in dieser Zeit Höhen, Tiefen und mehrere Neuerfindungen erlebt. Die folgenden Antworten spiegeln persönliche Anfänge, prägende Erlebnisse, kritische Momente und eine Einordnung von Javas Rolle in der heutigen Softwareentwicklung wider. Abschließend wagen sie einen Blick nach vorn: mit Tipps für die eigene Weiterentwicklung und Erwartungen an Java in den kommenden Jahren.
Wann und mit welcher Version bist du erstmals mit Java in Berührung gekommen?
Sandra Warmbrunn: Ich bin 1998 im Studium das erste Mal mit Java 1.1 in Berührung gekommen.
Michael Paus: Das muss etwa 1997 mit Java 1.1 oder evtl. auch noch 1.0 gewesen sein.
Stefan Hildebrandt: Gegen Ende meiner Schulzeit habe ich 1997 meine ersten Gehversuche mit Linux gemacht und habe dort auch weiterhin Desktop-Anwendungen programmieren wollen. Durch Zufall bin ich auf ein Java-Buch gestoßen, und der Ansatz, die Anwendungen unter Linux und Windows laufen zu lassen, hat mir gefallen, auch wenn die eine oder andere Hürde vorhanden war.
Thomas Ruhroth: Ich bin während meiner Ausbildung zum mathematisch-technischen Assistenten auf Java gestoßen. Ich hatte gerade Smalltalk (ja, das ist eine OO-Programmiersprache) gelernt, und da kam das Thema auf, dass Java auch OO und schneller sei. Das war die Version Java 1.1. Naja, so schnell war Java dann auch nicht, aber unter den Runtime-Sprachen, war es die schnellste.
Gerrit Meier: Das ist eine sehr gute Einstiegsfrage. Da musste ich doch wirklich gerade mal mit javap in meinen alten Uniunterlagen von 2003 schauen. Obwohl das Tool 1.2 für die ersten Übungen ausgibt, würde ich offiziell das Statement abgeben wollen, dass es wohl Version 1.4 war, die mich die meiste Zeit in der Uni begleitet hat. Somit kam ich eigentlich eher aus der Pflicht zu Java, anstatt es zu finden. Zum Ende des Studiums jedoch war es schon ein fester Bestandteil für Tools (Visualisierung) rund um meine Diplomarbeit, die im Kern C++ war.
Was war rückblickend dein schönstes Erlebnis mit der Sprache oder dem Ökosystem Java?
Sandra Warmbrunn: Rückblickend, da es schon so viele Jahre sind, kann ich gar nicht genau sagen, welches wirklich mein schönstes Erlebnis war. Es sind ein paar, die ich toll fand. Meine bestandene Prüfung zum Certified Java Programmer 1.5 war schon sehr schön. Außerdem die Möglichkeit, auf der JVM andere Programmiersprachen benutzen zu können. Groovy hat mir geholfen, funktionale Programmiertechniken zu lernen.
Michael Paus: Mein schönstes Erlebnis war, als ich nach Jahren der Beschäftigung mit Java in einem eher kleineren Rahmen endlich bei Airbus in ein sehr interessantes und großes Java-Projekt mit JavaFX einsteigen durfte.
Stefan Hildebrandt: Die Mächtigkeit des Ökosystems, die sich bei mehreren Migrationen von anderen Plattformen zu Java gezeigt hat: Allen Unkenrufen zum Trotz waren die Systeme danach deutlich leistungsfähiger, was an der JVM und an optimierten Komponenten wie Connection-Pools lag.
Thomas Ruhroth: Ich habe mich sehr über Streams und Lambdas gefreut. Das hat schöne Dinge, die ich von anderen Sprachen kannte, möglich gemacht. Die letzte schöne Sache war vor ein paar Jahren ArchUnit. Damit ist jetzt eine gut lesbare, leicht verwendbare Erweiterung zur Sicherstellung von Architektur-Eigenschaften vorhanden.
Gerrit Meier: Da gibt es einige und für mich ist es schwer, das Schönste rauszupicken. Eines der Ersten war jedenfalls ein Poor Man’s Remote Desktop beim Kunden aus der Not und die erste Erkenntnis: Das kann man mit Java machen! Danach ging es gerade in den 2010ern featuretechnisch Schlag auf Schlag. Vor allem Java 8 war, meines Erachtens nach, ein sehr revitalisierendes Release und hat dafür gesorgt, dass sich Java wieder modern anfühlte. Auch wenn ich kaum Desktop-UIs entworfen habe, hat mir auch die JavaFX-Phase sehr gefallen und mich mindestens privat mal wieder dazu eingeladen, mich damit zu beschäftigen. Am Ende war es ein etwas kürzeres Gastspiel von JavaFX im JDK als damals angenommen, aber trotzdem würde ich es nicht als Misserfolg werten wollen. Vor allem beginnend mit Java 8 und seinem reichhaltigen Feature-Set (und natürlich auch 9, 10, 11) war auch wieder mehr Core-Java in Vorträgen zu erleben und zu lernen, was mich zum nächsten Punkt bringt. Wenn wir natürlich das Ökosystem breiter fassen und die Technologie als gemeinsame Basis sehen, dann sind es die Menschen, die einem über den Weg laufen und – ob nun Java User Group, Konferenzen oder auf der Arbeit – einem das Gefühl geben, dass wir uns mit unserer Community sehr glücklich schätzen können. Platt gesagt: Ohne Java wäre mein Freundeskreis ab 30 wohl nicht mehr so stark angewachsen.
Aber es ist nicht alles Gold, was glänzt. Was hat dich negativ beeinflusst beziehungsweise war ein unschöner Moment im Java-Umfeld?
Sandra Warmbrunn: Der unschöne Moment war, von Groovy (schöne klare Schreibweisen) zu Java und dem ganzen Boilerplate-Code zurückzukommen (was allerdings natürlich historisch begründet ist).
Michael Paus: Dies war kein einzelner Moment, sondern eher ein kontinuierlicher Prozess. Ich habe es als sehr enttäuschend und frustrierend erlebt, wie konsequent stiefmütterlich das Thema Frontend im Java-Umfeld behandelt wurde und wird. Es wurde vieles begonnen, aber nie richtig zu Ende gedacht, geschweige denn richtig vermarktet und beworben.
Stefan Hildebrandt: Der Umstieg von JSF 1.x auf 2 war nur als Big Bang möglich, wenn man weiter eine einheitliche UI haben wollte. Das war sehr hinderlich und hat viele Anwendungen technologisch veralten lassen. Nach diesem Debakel wurden auch Updates im Java-Enterprise-Umfeld mit der Zeit einfacher zu handhaben.
Thomas Ruhroth: Ich fand es schade, dass aus der Idee der Java-Prozessoren nichts wurde. Es gab ja mal die Idee, Java-Bytecode direkt auf einem speziellen Prozessor ausführbar zu machen. Das war während meiner Ausbildung eines der Themen, von denen wir geglaubt haben, dass sie die ganze Computerwelt revolutionieren würden und es bald nur noch Java-Prozessoren gibt.
Gerrit Meier: Disclaimer: Ich hoffe, dass sich hier keine Personen negativ angesprochen fühlen. Gerade im Laufe der oben erwähnten 2010er kam es durch Oracle zu einer starken Erschütterung in der Entwicklergemeinschaft (oder nur bei mir, falls ihr es nicht so empfunden habt) bezüglich Lizenzierung, beispielsweise Android, Abwendung von Java EE und grundsätzlich das Gefühl, dass Java für das Unternehmen als Lizenzierungsgrundlage wichtiger ist als die Technologie als solche. Das hat bei mir eine gewisse Unsicherheit bezüglich der Zukunft der Sprache gebracht. Am Ende war es für mich persönlich wahrscheinlich die einzige unschöne Erfahrung. Auf der anderen Seite war es zum Beispiel für Java EE ein notwendiger Bruch. Mit der Überführung in die Eclipse Foundation und breitem Firmensupport (zu dem auch Oracle gehört) ist es meiner Meinung nach am Ende doch gut ausgegangen.
Glaubst du, dass Java auch nach 30 Jahren noch relevant ist? Welche Rolle spielt Java deiner Meinung nach in der modernen Softwareentwicklung, insbesondere im Vergleich zu anderen Sprachen und Technologien?
Sandra Warmbrunn: Ich glaube, dass Java weiterhin eine große Rolle im Bereich Softwareentwicklung spielen wird, ich kenne kein Ökosystem, das so eine große Community hat und so viele Tools, Frameworks und Möglichkeiten bietet.
Michael Paus: Java hat nach wie vor eine große Bedeutung. Das zeigen allein schon die Zahlen und das Ranking in den diversen Metriken. Java ist keine Hype-Sprache mehr, sondern hat mehr den Charakter eines stabilen Fundaments, auf dem man auch große Projekte erfolgreich aufbauen kann.
Stefan Hildebrandt: Im KI-Umfeld spielt Python eine größere Rolle und kommt darüber auch im Unternehmensumfeld stärker zum Einsatz. Der Umweg über einen anderen Einsatzbereich war schon bei JavaScript/TypeScript zu beobachten, die über SPAs auch auf dem Server gelandet sind. Auf der JVM ist der Trend hin zu Kotlin ein wenig abgeflaut, auch wenn Kotlin sich in vielen Bereichen etabliert hat.
Thomas Ruhroth: Ja, ich glaube, dass Java noch eine lange Geschichte haben wird. Sprachen, die viele Connections zu Open-Source-Communitys haben, werden nicht so schnell sterben – da steckt so viel Liebe und Arbeit von vielen drin.
Gerrit Meier: In der "modernen Softwareentwicklung" würde ich Java ohne jeglichen Zweifel gesetzt sehen. Vor allem durch Technologien wie Spring als alternativer Vorreiter, der nicht müde wird, mit dem Stand der Technik mitzuhalten, und Quarkus als Standard (JakartaEE) Framework, haben wir eigentlich fast schon die Qual der Wahl. Und das vom Hobbyprojekt bis zu großen Enterprise-Deployments. Ich möchte Java gar nicht so direkt mit anderen Sprachen vergleichen. Gerade heutzutage sind syntaxtechnisch relativ viele ähnliche Konzepte zu finden – klammern wir hier mal Haskell, Elixir und Freunde aus, bei denen sich sinnvolle Neuerungen in einer Sprache relativ schnell auch in andere Sprachen verteilen. Natürlich sollten wir unterscheiden, wo das kompilierte Programm zur Ausführung gebracht wird. Java auf dem Mikrocontroller mag ein schönes Bastelprojekt sein, aber da sollten wir C/Rust doch den Vortritt lassen, wenn wir in Richtung Signalverarbeitung schauen. Wir dürfen auch nie vergessen, dass die JVM ein Biest ist, das immer mehr leisten kann und wird. Und eventuell werden wir irgendwann Programmiersprache X dort laufen lassen und das J in JVM ist das Einzige, das uns dann noch an Java erinnert.
Welche Tipps kannst du aktuellen Java-Entwicklern geben, um in der sich schnell verändernden Technologielandschaft am Ball zu bleiben und sich mit Java weiterzuentwickeln?
Sandra Warmbrunn: Der Tipp ist: Auch wenn man im Projektumfeld nicht so schnell die Versionen aktualisieren kann, lohnt es sich trotzdem immer wieder, die neuen Features anzuschauen, auszuprobieren und vielleicht den Kunden davon zu überzeugen, auf eine neue Version zu wechseln. Sollte man keine Zeit haben, sich die neuen Features selbst anzuschauen, dann aber auf jeden Fall die Vorträge zu den neuen Features anschauen oder in Blogs und Zeitschriften auf dem neusten Stand bleiben. Außerdem, auch wenn CoPilot schnell Lösungen finden kann, wäre es trotzdem gut, zu verstehen, was man tut.
Michael Paus: Ich kann nur dazu raten, sich ständig weiterzubilden, zum Beispiel durch den Besuch von Java-Use-Group-Veranstaltungen, und dabei auch immer etwas über den Lattenzaun zu schauen und speziell neue Hype-Themen immer auch kritisch zu hinterfragen.
Stefan Hildebrandt: Ideen sammeln, keine Angst haben und einfach machen!
Thomas Ruhroth: Allgemein (unabhängig von Java) denke ich, dass lebenslanges Lernen und Just-in-Time-Lernen wichtig sind. Dazu ist vor allem notwendig, ständig das Lernen zu lernen. Das heißt, sich auch mit neuen Themen und Fertigkeiten zu beschäftigen, wenn gerade kein Thema zwingend ansteht. Gute, schnelle und zu euch passende Lernstrategien sind wichtig und müssen ständig trainiert werden. Im Java-Umfeld gibt es dafür auch viele schöne Entwicklungen: Quarkus, Kotlin und vieles mehr.
Gerrit Meier: Geht zu euren Java User Groups und kommt mit Leuten ins Gespräch. Selbst wenn der Vortrag beim ersten Blick auf den Titel eventuell nicht interessant für euch klingt, habe ich noch nie eine Veranstaltung gehabt, bei der ich nichts Wissenswertes mitgenommen habe. Falls ihr keine JUG in der Nähe habt, versucht breiter aufgestellte Communitys zu finden und Leute, die euer Interesse teilen. Eventuell entspringt daraus eine neue JUG. Konferenztalks, sowie auch Onlineartikel/-Videos bieten meiner Meinung nach einen noch weiteren Blick auf aktuelle Entwicklungen. Dabei ist die Gefahr jedoch größer, sehr unreflektierten Content zu konsumieren, da nicht die Möglichkeit besteht, mit dem Autor ins Gespräch zu kommen oder Fragen zu stellen. Ich würde euch gerne noch https://foojay.io [7] als eine Quelle für aktuelle Informationen ans Herz legen.
Was wünschst du dir für Java in den nächsten fünf bis zehn Jahren und welche Befürchtungen hast du?
Sandra Warmbrunn: Ich wünsche mir, dass weiter neue Konzepte in die Sprache einfließen und es schöner und einfacher wird, komplexe Lösungen mit Java umzusetzen.
Michael Paus: Ich wünsche mir natürlich, dass Java auch in den nächsten fünf bis zehn Jahren noch die gleiche Relevanz hat wie heute, und ich hoffe auch, dass es gelingt, neue Technologien wie KI und WebAssembly möglichst nahtlos in das Java-Ökosystem zu integrieren.
Stefan Hildebrandt: Ich wünsche mir, dass der Prozess zur Weiterentwicklung der Sprache und der JVM offen und transparent bleibt und sich störende Details verbessern.
Thomas Ruhroth: Ich wünsche mir, dass sich Java als gute Sprache weiterentwickelt. Was mir Angst macht, ist die starke Übermacht von Oracle. Da hoffe ich, dass Java wieder ein bisschen freier wird.
Gerrit Meier: Bleib wie du bist und entwickle dich genauso weiter. Ich freue mich über Kleinigkeiten, die gar nicht mal so klein sind, wie Pattern Matching oder einen vernünftigen HttpClient. Wenn ich an Java und die Zukunft denke, habe ich für Java selbst eigentlich keine Befürchtungen. Das Ökosystem ist lebendiger denn je und ich erfreue mich an der anhaltenden Begeisterung für unsere "alte" Programmiersprache. Also auf zu den nächsten 30.
URL dieses Artikels:
https://www.heise.de/-11122950
Links in diesem Artikel:
[1] https://www.heise.de/blog/30-Jahre-Java-Interview-mit-Community-Vertretern-Teil-1-10328653.html
[2] https://www.heise.de/blog/30-Jahre-Java-Interview-mit-Community-Vertretern-Teil-2-11122674.html
[3] https://www.heise.de/blog/30-Jahre-Java-Interview-mit-Community-Vertretern-Teil-3-11122747.html
[4] https://www.heise.de/blog/30-Jahre-Java-Interview-mit-Community-Vertretern-Teil-4-11122817.html
[5] https://www.heise.de/blog/30-Jahre-Java-Interview-mit-Community-Vertretern-Teil-5-11122950.html
[6] https://www.javaland.eu/de/home/
[7] https://foojay.io/
[8] mailto:rme@ix.de
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Autos baut Xiaomi schon länger. Auf dem MWC 2026 in Barcelona zeigt das Unternehmen das Konzeptfahrzeug Xiaomi Vision Gran Turismo.
In China rollen bereits Autos von Xiaomi auf den Straßen, auch nach Europa will man expandieren. Im kommenden Jahr sollen der Xiaomi SU7 und der YU7 auch in Deutschland zu haben sein. Auf dem MWC 2026 in Barcelona zeigt das chinesische Unternehmen ein Fahrzeug, das in dieser Form wohl niemals auf den Markt kommen wird: den Xiaomi Vision Gran Turismo.
Der Vision Gran Turismo soll zeigen, wie sich Xiaomi ein Hypercar vorstellt. Dazu hat man sich unter anderem für ein tropfenförmiges Cockpit-Design entschieden, bei dem keine normalen Sitze eingebaut werden. Stattdessen sitzt man in festen Schalen quasi direkt in der Karosserie. Über den Rädern sitzen magnetisch befestigte Zierblenden, die sich nicht mit dem Rad drehen, sondern in der festgelegten Ausrichtung bleiben. Das soll der aerodynamischen Effektivität dienen.
Besonders auffällig ist das Heck des Konzeptfahrzeugs. Die Rückleuchte in Form eines langen LED-Streifens zieht sich haloförmig um das Chassis, nur die Oberseite ist unterbrochen. Daneben sind die aerodynamischen Kanäle zu erkennen, die den Luftstrom in die richtigen Bahnen lenken und Verwirbelungen minimieren sollen. Das gesamte Design fasst Xiaomi unter der Bezeichnung „Sculpted by the Wind“ zusammen.

Sollte das Hypercar doch einmal tatsächlich gebaut werden, könnte es dem SU7 [3] seinen Rekord auf der Nordschleife des Nürburgrings streitig machen. Im vergangenen Juni hatte Xiaomi dort mit einer Zeit von 7:04,957 eine offizielle Bestzeit [4] in den Asphalt gebrannt und ist damit das schnellste E-Auto der Oberklasse.
URL dieses Artikels:
https://www.heise.de/-11195470
Links in diesem Artikel:
[1] https://www.heise.de/bilderstrecke/5037414.html?back=11195470;back=11195470
[2] https://www.heise.de/bilderstrecke/5037414.html?back=11195470;back=11195470
[3] https://www.heise.de/news/Elektroauto-Xiaomi-SU7-bekommt-umfassende-Modellpflege-11137788.html
[4] https://nuerburgring.de/news/rekordrunde-auf-der-nordschleife-xiaomi-su7-ultra-ist-mit-7-04-957-minuten-schnellstes-e-fahrzeug-der-oberklasse
[5] https://www.heise.de/ct
[6] mailto:sht@heise.de
Copyright © 2026 Heise Medien

Die Deutsche Telekom hat auch in Europa eine Zusammenarbeit bei der Mobilfunkversorgung per Satellit mit Direct-To-Device vereinbart. Das gab die Telekom am 2. März 2026 auf dem MWC in Barcelona bekannt . Abdu Mudesir, Vorstand Product und Technology der Telekom, sagte, es gebe "Regionen, in denen der Ausbau aufgrund topografischer Gegebenheiten oder behördlicher Auflagen besonders komplex ist. Deshalb ergänzen wir unser Netz strategisch um Satellite-to-Mobile-Konnektivität."
Starlink werde "Satellite-to-Mobile-Konnektivität in zehn Ländern, für Millionen von Menschen bereitstellen" , sagte Stephanie Bednarek, Vice President Starlink Sales. "Diese Vereinbarung ist die erste ihrer Art in Europa, die Starlinks V2 Next-Generation Technologie einführt. Sie bringt Daten, Sprache und Messaging direkt auf das Mobiltelefon."
Der Dienst wird laut Telekom ausschließlich im MSS-Spektrum (Mobile Satellite Service) von Starlink betrieben. Die geplanten Direct-to-Device-Dienste würden es laut Telekom künftigen Smartphones ermöglichen, sich direkt mit den Satelliten zu verbinden. Das ist bei D2D in den USA aber bereits jetzt mit handelsüblichen Endgeräten möglich.
Starlinks V2-Satellitenkonstellation der nächsten Generation wird erst im Jahr 2028 bereitstehen. Der Start des Dienstes sei für Anfang 2028 in mehreren europäischen Telekom-Mobilfunknetzen geplant, darunter auch Deutschland.
In den USA nutzt Starlink landesweit den G-Block im 1,9-GHz-Spektrum (PCS-Band) von T-Mobile US für die Kooperation bei Direct-To-Device.
Neben seiner Internetversorgung mit seiner Starlink-Satellitenschüssel bietet das Unternehmen mit Evolved-Node-B-Modems in vielen seiner Satelliten eine direkte D2D-Versorgung für Smartphones.
In Europa ist das Spektrum stark unterschiedlich. Die Telekom muss in jedem Land (Deutschland, Österreich, Ungarn, Kroatien oder Polen) prüfen, welche Frequenzen sie für Starlink freigeben kann, ohne bestehende terrestrische Netze oder Nachbarstaaten zu stören.
Starlink hat sich innerhalb von sechs Jahren zu einem LEO-Netzwerk mit 9.500 Satelliten entwickelt. Doch nur rund 650 der Starlink-Satelliten wurden mit dem Mobilfunkmodem gebaut. Ziel sei es, so Firmengründer Elon Musk am 2. Februar 2026 in einem Blogbeitrag von SpaceX, "langfristig überall auf der Erde Mobilfunkabdeckung zu bieten" .
Offenlegung: Die Reisekosten nach Barcelona und die Übernachtungen wurden von Huawei übernommen. Unsere Berichterstattung ist davon nicht beeinflusst und bleibt gewohnt neutral und kritisch. Der Artikel ist, wie alle anderen auf unserem Portal, unabhängig verfasst und unterliegt keinerlei Vorgaben seitens Dritter.

Wer eine einfache Handkreissäge für gelegentliche Heimwerkerarbeiten sucht, findet derzeit ein besonders günstiges Angebot: Die Einhell TC-CS 1250 Handkreissäge ist laut Geizhals-Preisvergleich aktuell zum Tiefstpreis von 43,99 Euro bei Amazon erhältlich. Damit gehört das Modell zu den preiswerten Optionen im Segment kabelgebundener Handkreissägen.
Die Handkreissäge arbeitet laut Hersteller mit 1.250 Watt Leistung und erreicht eine Drehzahl von bis zu 5.500 Umdrehungen pro Minute. Damit eignet sich das Gerät für viele klassische Aufgaben rund um Holz und Holzwerkstoffe, etwa beim Zuschneiden von Brettern, Platten oder Bauholz.
Bei den möglichen Schnitttiefen nennt der Hersteller folgende Werte:
Dadurch lassen sich auf dem Papier auch stärkere Materialien oder schräge Gehrungsschnitte realisieren.
Sowohl Schnitttiefe als auch Neigungswinkel lassen sich Einhell zufolge ohne zusätzliches Werkzeug einstellen. Das erleichtert das schnelle Anpassen der Säge an unterschiedliche Materialien oder Schnittarten.
Ein weiterer praktischer Punkt ist die integrierte Spindelarretierung, die den Wechsel des Sägeblatts vereinfachen soll.
Zum Lieferumfang gehört bereits ein Hartmetall-Sägeblatt, das für saubere und gerade Schnitte ausgelegt sein soll. Die Säge ist mit Blättern mit 16-mm-Innendurchmesser kompatibel.
Zusätzlich kann die Handkreissäge mit einer Einhell-Führungsschiene kombiniert werden. Diese soll laut Hersteller besonders präzise, gerade Schnitte ermöglichen und ausgefranste Kanten reduzieren.
Für mehr Kontrolle beim Arbeiten hat die Säge einen großen Zusatzhandgriff. Gerade bei längeren Einsätzen könne das die Handhabung erleichtern, schreibt der Hersteller.
Ebenfalls vorhanden ist ein Anschluss für eine Staubabsaugung, wodurch sich der Arbeitsplatz sauberer halten lässt.
Die Handkreissäge TC-CS 1250 aus dem Hause Einhell ist bei Amazon nach 38 Prozent Nachlass auf die hinterlegte UVP für 43,99 Euro im Amazon-Angebot. Laut Geizhals wurde dieser Preis bisher bei keinem der gelisteten Shops unterboten. Derzeit zieht auch keiner davon mit Amazon gleich.
Reklame
Einhell Handkreissäge TC-CS 1250 (1.250 W, 5.500 min-1, werkzeuglose Einstellung Tiefe/Winkel, Zusatzhandgriff, Spindelarretierung, Spaltkeil, inkl. Hartmetall-Sägeblatt)
Zum AngebotDieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Der Vorstandsvorsitzende von SAP, Christian Klein, hat erklärt, dass er den Vorstand umstrukturieren und sich verstärkt auf das Thema Künstliche Intelligenz (KI) konzentrieren möchte. Das geht aus einer E-Mail hervor, die Klein unternehmensweit verschickte und die Bloomberg einsehen konnte.
Die Leitung des Vertriebs von SAP wird Klein an Thomas Saueressig übertragen, der bislang zuständig ist für After-Sales-Angelegenheiten und für den Kunden-Support bei der Implementierung von SAP-Software.
Weiter heißt es, dass der Kurswechsel durch die Angst von Investoren vor den Auswirkungen von KI auf SaaS-Unternehmen ausgelöst wurde; SaaS steht für Software as a Service. Aktienkurse von Unternehmen, die Software für Firmen herstellen, erlitten in den letzten Wochen starke Verluste, weil durch neue KI‑Tools die Befürchtung aufkam, dass Anwender immer mehr Workflow-Aufgaben automatisieren könnten.
Bei SAP sollen Kunden, Zwischenhändler und Investoren bereits Zweifel an den Preisen und dem Wert der SAP-Produkte geäußert haben. Klein schrieb in diesem Zusammenhang: "Die KI-Entwicklung schreitet rasant voran, und wir müssen Schritt halten. [...] Wir müssen SAP erneut von Grund auf transformieren und voll auf KI setzen."
SAP müsse das "Produktportfolio ändern, um die Art und Weise, wie Unternehmen arbeiten und Endanwender mit Agentic AI zusammenarbeiten, neu zu gestalten" , schrieb Klein weiter. Außerdem sei es wichtig, die Art anzupassen, wie SAP KI-Lösungen verkauft und lizenziert, um deren Akzeptanz zu beschleunigen.
Laut der Mail soll Vorstandsmitglied Muhammad Alam, Leiter Produktentwicklung und Engineering bei SAP, angekündigt haben, seinen im März 2027 auslaufenden Vertrag aus persönlichen Gründen nicht zu verlängern.
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: ID Software / Screenshot)
Lebende Hirnzellen auf einem Chip lernten den Shooter in nur einer Woche – und verbrauchten dabei weniger Energie als ein Ventilator.
Ein Chip mit lebenden menschlichen Gehirnzellen hat das Computerspiel Doom gelernt – und zwar innerhalb weniger Tage. Der unabhängige Entwickler Sean Cole programmierte die Schnittstelle zwischen Spiel und Neuronen mithilfe von Python, einer weit verbreiteten Programmiersprache.
Möglich machte das eine neue Software-Plattform des australischen Unternehmens Cortical Labs, die den Zugang zu biologischen Chips stark vereinfacht.
Das System schlug zwar einen rein zufällig handelnden Spieler, kam aber nicht an die Fähigkeiten erfahrener menschlicher Gamer heran. Trotzdem überraschte die Geschwindigkeit: Die Neuronen passten ihr Verhalten deutlich schneller an als vergleichbare Algorithmen auf herkömmlicher Silizium-Hardware.
Cortical Labs sorgte bereits 2021 für Aufsehen, als gezüchtete Gehirnzellen das simple Retro-Spiel Pong steuerten. Damals saßen über 800.000 Neuronen auf dem Chip, und die Entwicklung zog sich über Jahre hin. Für Doom reichte nun ein Viertel der Zellen – und eine einzige Woche Arbeit.
Brett Kagan, leitender Wissenschaftler bei Cortical Labs, ordnet den Fortschritt [1] gegenüber New Scientist so ein:
"Im Gegensatz zu unserer Arbeit an Pong vor einigen Jahren, die jahrelange mühsame wissenschaftliche Anstrengungen erforderte, wurde diese Demonstration innerhalb weniger Tage von jemandem durchgeführt, der zuvor relativ wenig Erfahrung in der direkten Arbeit mit Biologie hatte."
Dass ein Ego-Shooter mit dreidimensionaler Umgebung, Gegnern und taktischen Entscheidungen funktioniert, stufen Fachleute als erheblichen Komplexitätssprung ein.
Andrew Adamatzky von der University of the West of England formuliert es laut New Scientist so: "Das kommt den Herausforderungen, denen sich zukünftige biologische oder hybride Computer stellen müssen, schon viel näher".
Die Technologie hat ihren Weg längst aus den Forschungslaboren hinausgefunden, wie Telepolis bereits im Dezember berichtete [2].
Cortical Labs bietet mit dem Modell CL1 ein Gerät für rund 35.000 US-Dollar an, das kultivierte Neuronen mit einer programmierbaren Elektronik verbindet. Mehrere Labore weltweit experimentieren damit bereits – von KI-Forschung hin zu Unterhaltungsanwendungen.
Parallel dazu vermietet das Schweizer Unternehmen FinalSpark Online-Zugang zu neuronalen Organoiden, also kleinen dreidimensionalen Zellverbänden mit jeweils rund 10.000 Neuronen.
Akademische Teams arbeiten kostenlos damit, Unternehmen zahlen etwa 5.000 Dollar pro Monat. Die Kommunikation läuft über Elektroden, die elektrische Impulse senden und die Antworten der Zellen auslesen.
Ein zentrales Argument für solche Systeme ist ihr geringer Energiebedarf. Das menschliche Gehirn kommt mit rund 20 Watt aus – weniger als ein kleiner Ventilator verbraucht. Heutige Supercomputer benötigen für vergleichbare Rechenleistung ein Vielfaches dieser Energie.
Yoshikatsu Hayashi von der University of Reading sieht in der Doom-Demonstration eine Vorstufe zu handfesten Anwendungen.
Er arbeitet daran, Roboterarme über biologische Systeme zu steuern, und vergleicht die Spielsteuerung mit einer vereinfachten Version dieser Aufgabe. Dass der Chip in Echtzeit auf wechselnde Situationen reagiert, macht ihn für solche Szenarien interessant.
Gleichzeitig bleiben fundamentale Fragen offen. Steve Furber von der University of Manchester gibt laut New Scientist zu bedenken, dass niemand genau versteht, wie Neuronen ohne Sinnesorgane die Bildinformationen des Spiels verarbeiten oder begreifen, welche Aufgabe sie lösen sollen.
Kagan grenzt die Technologie laut Bericht klar vom menschlichen Denken ab:
"Ja, es ist lebendig, und ja, es ist biologisch, aber eigentlich wird es als Material verwendet, das Informationen auf ganz besondere Weise verarbeiten kann, die wir mit Silizium nicht nachbilden können."
Die Zellkulturen halten derzeit rund sechs Monate, bevor sie ausgetauscht werden müssen. Cortical Labs entwickelt modulare Systeme, die viele kleine Zellgruppen miteinander vernetzen, um die Kapazität schrittweise zu steigern.
Mit wachsender Komplexität rückt allerdings auch eine ethische Debatte näher. Manche Forschergruppen arbeiten bereits mit Organoiden aus mehreren Millionen Neuronen.
Wo genau die Grenze zwischen reinem Rechenmaterial und einer Form von Empfindungsfähigkeit verläuft, kann die Wissenschaft bislang nicht abschließend beantworten. Dieser offene Punkt dürfte die Diskussion um Biocomputer in den kommenden Jahren prägen.
URL dieses Artikels:
https://www.heise.de/-11195045
Links in diesem Artikel:
[1] https://www.newscientist.com/article/2517389-human-brain-cells-on-a-chip-learned-to-play-doom-in-a-week/
[2] https://www.telepolis.de/article/Die-Aera-der-Biocomputer-bricht-an-mit-menschlichen-Hirnzellen-11121193.html
Copyright © 2026 Heise Medien