FreshRSS

🔒
✇ c't-Themen

Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern

Von Heise — 04. Februar 2026 um 14:00

In München eröffnet die Telekom ihr bislang größtes KI-Rechenzentrum mit Nvidia-Technik und politischer Prominenz.

Telekom-CEO Tim Höttges hat den Startschuss für das seit Mitte 2025 umgebaute KI-Rechenzentrum [1] im Münchner Tucherpark gegeben. Es soll vor allem deutschen und europäischen Kunden einen souveränen Betrieb ihrer jeweiligen KI-Modelle ermöglichen. Zudem stellt es ausreichend Rechenleistung auch zum Training großer Sprachmodelle bereit, konkret etwa für das europäische souveräne LLM Soofi [2].

Die Telekom-Sparte T-Systems baut den ersten Baustein ihrer „Industrial AI Cloud“ zusammen mit dem Partner Polarise, der die Hardware installiert und betreibt. Im Endausbau sollen in vier unterirdischen Räumen insgesamt rund 10.000 KI-Beschleuniger rechnen. Es kommt eine Mischung aus Nvidia DGX B200 SuperPod [3] und Servern mit jeweils mehreren RTX 6000 Pro Blackwell Server [4] zum Einsatz.

Nach Angaben der Telekom stellt das neue Rechenzentrum im Endausbau mit 0,5 Exaflops Rechenleistung für KI-Algorithmen rund 50 Prozent der gesamten KI-Performance bereit, die man derzeit in Deutschland insgesamt buchen könnte.

Rechenzentrums-Retrofit

Der Aufbau des Rechenzentrums ist technisch interessant, weil dazu ein bereits vorhandenes, älteres Rechenzentrum umgebaut wurde (Retrofit). Es erstreckt sich über mehr als fünf unterirdische Stockwerke unmittelbar neben dem Eisbach, der für die Surferwelle bekannt ist. Dessen Wasser wird auch zur Kühlung genutzt.

Wehr im Eisbach in München
Wehr im Eisbach in München

Dieses Wehr staut den Eisbach, um das Kühlwasser für das unterirdische Rechenzentrum Tucherpark zu entnehmen. Das Rechenzentrum befindet sich unter dem rechten Ufer des Eisbachs.

(Bild: Christof Windeck / heise medien)

Erste KI-Server sind bereits an Kunden vermietet, aber die vier Räume auf zwei Etagen sind längst noch nicht alle fertig ausgebaut.

Mit 12 Megawatt (MW) gesamter Versorgungs- und Kühlleistung gehört das RZ Tucherpark zu den kleineren derzeit geplanten KI-Rechenzentren in Deutschland. Allerdings stellt es schon jetzt sehr hohe Performance bereit.

Update

Ursprünglich stand hier eine Schätzung von 15 bis 20 MW Leistungsaufnahme. Tatsächlich stehen zunächst 12 MW bereit, ein Ausbau auf 20 MW ist geplant.

Nach eigenen Angaben investiert die Telekom zusammen mit ihren Partnern rund 1 Milliarde Euro in das Projekt.

Zu den Rednern bei der Eröffnungsveranstaltung in München gehörten außer Telekom-CEO Tim Höttges auch der bayerische Ministerpräsident Markus Söder und der deutsche Vizekanzler und Finanzminister Lars Klingbeil.


URL dieses Artikels:
https://www.heise.de/-11165290

Links in diesem Artikel:
[1] https://www.heise.de/news/Telekom-Rechenzentrum-mit-10-000-Nvidia-GPUs-entsteht-in-Muenchen-11056756.html
[2] https://www.heise.de/news/Soofi-Deutschland-soll-souveraenes-KI-Sprachmodell-entwickeln-11083042.html
[3] https://www.heise.de/news/Microsoft-und-OpenAI-zeigen-die-ersten-Nvidia-Blackwell-Systeme-9975521.html
[4] https://www.heise.de/news/RTX-Pro-6000-mit-Blackwell-und-96-GByte-ECC-Speicher-gesichtet-10309549.html
[5] https://www.heise.de/ct
[6] mailto:ciw@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

E-Zigarette: Weniger schädlich ist nicht harmlos

Von Thomas Pany — 04. Februar 2026 um 15:20

Thomas Pany

Junger Mann mit Zigarette und Dampfgerät

Bild: Shutterstock.com

Auch ohne Verbrennung entstehen beim Erhitzen giftige Stoffe. Eine Anses-Studie zeigt: E-Zigaretten bergen eigene Gesundheitsrisiken.

E-Zigaretten gelten seit Jahren als Instrument der Schadensbegrenzung im Vergleich zur Tabakzigarette. Gesundheitspolitisch werden sie häufig als pragmatische Übergangslösung zur Rauchentwöhnung betrachtet. Viele greifen zur E-Zigarette, um mit dem Rauchen aufzuhören – wie sicher ist diese "Brückentechnologie“ zur Schadensbegrenzung?

Die Debatte über mögliche mittel- und langfristige Risiken des Dampfens wächst – insbesondere dort, wo Nutzung dauerhaft wird und besonders, wenn Jugendliche einsteigen. Belastbare Langzeitdaten sind, da es Vapen noch nicht so lange gibt, begrenzt. Allerdings mehren sich toxikologische und epidemiologische Hinweise.

Nach dreijähriger Analyse hat die französische Behörde für Lebensmittel-, Umwelt- und Arbeitsschutz (Anses [1]) nun einen Bericht [2] vorgelegt, der auf einer dreijährigen Auswertung von knapp 3.000 wissenschaftlichen Publikationen [3] basiert.

Die Kernaussage: Das Dampfen birgt mittel- und langfristig mögliche gesundheitliche Risiken, bleibt aber deutlich weniger schädlich als herkömmlicher Tabakrauch.

Zwischen Schadensminderung und neuen Risiken

Die Anses-Studie identifiziert konkrete Gesundheitsgefahren beim Vapen. Bei nikotinhaltigen Produkten stuft die Behörde kardiovaskuläre Effekte wie erhöhten Blutdruck als "wahrscheinlich" ein.

Allerdings handle es sich um reversible Veränderungen, einen formalen Zusammenhang mit Bluthochdruck, koronarer Herzkrankheit oder Schlaganfällen stellt die Anses zum jetzigen Zeitpunkt nicht her.

Studien zeigen demnach mögliche Auswirkungen auf die Atemwege, etwa das Auftreten chronisch obstruktiver Lungenerkrankungen (COPD) [4] und Lungenentzündungen. Mehrere Arbeiten weisen auf biologische Veränderungen hin, die mit frühen Stadien der Krebsentstehung vereinbar sind.

Die Expertinnen und Experten betonen jedoch ausdrücklich: Die mit der E-Zigarette verbundenen Effekte sind nicht von der gleichen Schwere wie jene, die durch Tabak verursacht werden.

Besonders kritisch bewertet die Anses die Exposition während der Schwangerschaft. Das Dampfen, insbesondere mit Nikotin, hat "mögliche schädliche kardiovaskuläre und respiratorische Effekte auf die Nachkommen", indem es während der Entwicklung zu Veränderungen der Herz- und Atemzellen führt.

Warum die E-Zigarette trotzdem Schadstoffe enthält

Ein zentraler Befund der Anses-Analyse widerlegt eine verbreitete Annahme: Auch ohne Verbrennung entstehen beim Erhitzen der Liquids toxische und teils krebserregende Substanzen.

Die Expertinnen und Experten analysierten die Toxizität von Aldehyden – Substanzen mit anerkannt toxischen, insbesondere krebserzeugenden Wirkungen, die weiterhin in den von Dampfern ausgeatmeten Aerosolen vorhanden sind.

Die Anses kommt zu dem Schluss, dass das Fehlen von Verbrennung das Auftreten dieser Stoffe keineswegs verhindert und dass ihre Inhalation ein "nicht zu vernachlässigendes" Gesundheitsrisiko darstellt.

Zudem wurden weitere potenziell problematische Substanzen identifiziert, etwa Metalle oder Abbauprodukte von Sucralose, die beim Aerosolisierungsprozess der E-Zigarette entstehen.

Wie Clément Mercier vom Centre ingénierie et santé in Saint-Etienne gegenüber franceinfo.fr [5] erklärt, können bestimmte Aromen problematisch sein: "Die Struktur der Moleküle, wenn sie erhitzt werden, erzeugt deutlich mehr toxische Verbindungen" – etwa bei Zimt, aber auch bei Menthol "in geringerem Maße".

E-Zigarette als zweischneidiges Schwert bei der Rauchentwöhnung

Trotz aller Risiken erkennt die Anses die E-Zigarette als Mittel zur Rauchentwöhnung an, da sie bei vergleichbarer Nutzung ein "reduziertes Risiko" aufweist.

Das geht einen Schritt weiter als die Einschätzung des Hohen Rates für öffentliche Gesundheit, der 2022 erklärte, dass Dampfprodukte nicht als Instrumente der Risikoreduktion dargestellt werden könnten.

Die Behörde betont jedoch, dass diese Praxis eine "vorübergehende Option" bleiben müsse. Die Realität sieht anders aus: 59 Prozent der erwachsenen Dampfer nutzen ihre E-Zigarette seit zwei Jahren oder länger.

Noch problematischer: 65 Prozent der erwachsenen Dampfer sind Doppelnutzer – sie dampfen und rauchen gleichzeitig. Die Auswirkungen dieser doppelten Exposition sind laut Anses noch weitgehend unbekannt, könnten aber "schlimmer sein als jene, die bei einer alleinigen Exposition gegenüber der Zigarette oder der E-Zigarette beobachtet werden".

Bertrand Dautzenberg, ein französischer Tabakologe und seit rund fünfzehn Jahren Verfechter der E-Zigarette, verteidigt deren Nutzen gegenüber Le Monde [6]: "Das Nutzen-Risiko-Verhältnis ist enorm, die E-Zigarette enthält deutlich weniger Aldehyde als die Zigarette. Solange es Raucher gibt, muss man das Dampfen fördern."

Warum die E-Zigarette für Jugendliche gefährlich ist

Wenn es um das Dampfen bei Jugendlichen gibt es, wie zu erwarten, Warnungen vor einer Verharmlosung. Ein Drittel der befragten 13- bis 17-jährigen Dampfer in Frankreich hat nie geraucht und direkt mit dem Dampfen begonnen. Für sie ist die E-Zigarette kein Ausstiegs-, sondern ein Einstiegsprodukt in den Nikotinkonsum.

Die Anses warnt, dass der Konsum bei Jugendlichen weitgehend durch Modetrends und die Attraktivität bestimmter, insbesondere fruchtiger Aromen motiviert wird. Die Behörde empfiehlt daher, jede Form der Verharmlosung der E-Zigarette zu vermeiden und nicht zum Einstieg ins Dampfen zu ermuntern, insbesondere bei Jugendlichen.

Das Problem beschränkt sich nicht auf Frankreich. Die Weltgesundheitsorganisation WHO [7] meldete im Oktober vergangenen Jahres einen alarmierenden Anstieg des E-Zigarettenkonsums unter Jugendlichen in der gesamten europäischen Region.

In Deutschland haben laut dem Deutschen Krebsforschungszentrum [8] – der Bericht stammt vom September 2025 – fast acht Prozent der 12- bis 17-Jährigen und rund 15 Prozent der 18- bis 25-Jährigen in den letzten 30 Tagen eine E-Zigarette verwendet. Dabei greifen junge Menschen vor allem zu den bunten, billigen und einfach zu bedienenden Einweg-E-Zigaretten.

Als Reaktion auf die identifizierten Risiken plant die französische Regierung ab 2026 eine strengere Regulierung. Das französische Gesundheitsministerium [9] kündigte an, die Aromen in Vaping-Produkten stark einzuschränken und den Nikotingehalt zu reduzieren.

Die Anses fordert zudem eine strengere Regulierung der Zusammensetzung dieser Produkte, insbesondere durch das Verbot von Inhaltsstoffen mit gesundheitlichem Risiko. Zudem empfiehlt sie, "jede Ermunterung zum Dampfen bei Nichtrauchern und Jugendlichen" zu vermeiden – notfalls auch über das derzeitige Verbot von Werbung und den Verkauf an Minderjährige hinaus.

Fazit: Die E-Zigarette kann für Raucher eine weniger schädliche Alternative sein – aber nur als vorübergehende Brücke zur Rauchentwöhnung, nicht als Dauerlösung. Für Nichtraucher und Jugendliche ist es offensichtlich besser, die Finger davonzulassen.


URL dieses Artikels:
https://www.heise.de/-11165254

Links in diesem Artikel:
[1] https://www.anses.fr/fr/content/vapoter-quels-risques-pour-la-sante
[2] https://www.anses.fr/fr/content/vapoter-quels-risques-pour-la-sante
[3] https://www.lemonde.fr/planete/article/2026/02/04/cigarette-electronique-l-anses-rend-un-avis-prudent-sur-les-risques-sanitaires-du-vapotage_6665288_3244.html
[4] https://www.lemonde.fr/planete/article/2026/02/04/cigarette-electronique-l-anses-rend-un-avis-prudent-sur-les-risques-sanitaires-du-vapotage_6665288_3244.html
[5] https://www.franceinfo.fr/sante/drogue-addictions/cigarette-electronique/
[6] https://www.lemonde.fr/planete/article/2026/02/04/cigarette-electronique-l-anses-rend-un-avis-prudent-sur-les-risques-sanitaires-du-vapotage_6665288_3244.html
[7] https://www.who.int/europe/de/news/item/08-10-2025-who-european-region-has-the-highest-rate-of-tobacco-use-in-the-world--with-an-alarming-rise-in-young-people-using-e-cigarettes--global-report-warns
[8] https://www.dkfz.de/aktuelles/pressemitteilungen/detail/jeder-siebte-todesfall-ist-eine-folge-des-rauchens-neuer-tabakatlas-des-deutschen-krebsforschungszentrums-erschienen
[9] https://sante.gouv.fr/actualites-presse/presse/communiques-de-presse/article/vers-une-generation-sans-tabac-des-espaces-sans-tabac-des-le-1er-juillet-2025

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Generalprobe gescheitert: Mondmission startet frühestens im März

Von Marcel Kunzmann — 04. Februar 2026 um 14:15

Marcel Kunzmann

Eine Rakete bei Nacht vor dem Mond

Künstlerische Darstellung des Space Launch System (SLS)

(Bild: Alones/Shutterstock.com)

Die NASA verschiebt die Mondmission Artemis II auf März. Wasserstofflecks und technische Probleme zwangen zur Verschiebung. Ein Überblick.

Die Nasa hat den Start ihrer Mission Artemis II vom Februar auf frühestens März verschoben. Grund sind anhaltende Wasserstofflecks und weitere technische Schwierigkeiten, die bei der Generalprobe am Montag im Kennedy Space Center in Florida auftraten.

Die US-Raumfahrtbehörde teilte am Dienstagmorgen mit [1], dass die Ingenieure während des zweitägigen Tests mehrere Herausforderungen bewältigt hätten und viele der geplanten Ziele erreicht worden seien. Um die Daten auszuwerten und eine zweite Generalprobe durchzuführen, werde nun März als frühestmöglicher Startzeitpunkt angepeilt, hieß es in einer Stellungnahme. Das erste Startfenster im kommenden Monat öffnet sich am 6. März um 20:29 Uhr Ortszeit für zwei Stunden.

Artemis II soll die erste bemannte Mondmission seit 1972 werden und vier Astronauten an Bord der Orion-Kapsel auf eine Schleife um die Rückseite des Mondes schicken. Zur Besatzung gehören Kommandant Reid Wiseman, Pilot Victor Glover, Missionsspezialistin Christina Koch und der kanadische Astronaut Jeremy Hansen. Damit fliegen erstmals eine Frau, ein Afroamerikaner und ein Kanadier zu einer Mondmission.

Wiederkehrende Probleme mit Wasserstoff

Bei der Generalprobe, dem sogenannten "Wet Dress Rehearsal", betankt die Nasa die Rakete und prüft alle Abläufe bis kurz vor der Zündung. Dabei traten am Montag erneut Wasserstofflecks auf – an derselben Stelle, die bereits beim Start der unbemannten Mission Artemis I vor drei Jahren Probleme bereitet hatte.

Die Lecks befinden sich an den Verbindungsstellen zwischen der Rakete und der Startplattform, wo flüssiger Wasserstoff und Sauerstoff in die Hauptstufe des Space Launch Systems fließen. Wasserstoff gilt als einer der effizientesten Raketentreibstoffe, ist aber extrem schwierig zu handhaben. Bei minus 253 Grad Celsius verflüssigt, kann er durch kleinste Öffnungen entweichen, da Wasserstoffmoleküle die kleinsten und leichtesten im Universum sind.

Die Nasa akzeptiert eine gewisse Menge austretendes Wasserstoffgas als normal. Als sicher gilt eine Konzentration von bis zu vier Prozent im Gehäuse um die Treibstoffverbindung. Dieser Grenzwert wurde während der Übung mehrfach überschritten, berichtete die Nachrichtenagentur Ars Technica.

Die Ingenieure versuchten, das Problem zu beheben, indem sie den Wasserstofffluss stoppten, die Verbindungsstelle erwärmen ließen, damit sich die Dichtungen neu setzen konnten, und den Treibstofffluss anpassten, wie die Nasa mitteilte. Zunächst schien dies zu funktionieren, und die 98 Meter hohe Rakete wurde am Montagabend vollständig mit mehr als 2,8 Millionen Litern Treibstoff beladen.

Countdown vorzeitig abgebrochen

Doch weitere Komplikationen verzögerten den Ablauf. Ein Team benötigte länger als geplant, um die Luke der Orion-Kapsel zu schließen und zu sichern. Ein Ventil zur Druckbeaufschlagung der Luke entlüftete versehentlich und musste nachgezogen werden. Zudem fielen Audioverbindungen aus, und mehrere Kameras funktionierten nicht richtig, vermutlich aufgrund der jüngsten Kälte in Zentralflorida.

Kurz nach Mitternacht gab das Startteam grünes Licht für die letzten zehn Minuten des Countdowns. Ziel war es, die Uhr 33 Sekunden vor dem Start anzuhalten – etwa zu dem Zeitpunkt, an dem die Rakete bei einem echten Startversuch die Kontrolle übernehmen würde. Stattdessen stoppte die Uhr bei T-minus 5 Minuten und 15 Sekunden.

"Aufgrund eines Anstiegs der Wasserstoffleckrate" sei der Countdown beendet worden, teilte die Nasa mit. Der Test endete, bevor die Rakete auf interne Stromversorgung umschalten und ihre vier Treibstofftanks vollständig unter Druck setzen konnte. Auch eine Überprüfung der Steuerung der vier Haupttriebwerke fand nicht statt – alles Meilensteine, die die Ingenieure abhaken wollten.

Später, aber sicher

Nasa-Administrator Jared Isaacman betonte in einer Stellungnahme auf X [2], dass Sicherheit oberste Priorität bleibe – für die Astronauten, die Belegschaft, die Systeme und die Öffentlichkeit. "Wir werden nur starten, wenn wir davon überzeugt sind, dass wir für diese historische Mission bereit sind", schrieb er.

Isaacman bedankte sich bei der Nasa-Belegschaft sowie den Partnern aus Industrie und Ausland, die unermüdlich an dem Projekt arbeiteten. Man werde die notwendigen Reparaturen vornehmen, Tests und eine weitere Generalprobe durchführen.

Die Nasa kündigte an, die Daten vollständig auszuwerten und jedes Problem zu beheben, bevor ein offizielles Startdatum festgelegt wird. Ob die Rakete dafür in das Montagegebäude zurückgerollt werden muss, wurde zunächst nicht bekannt gegeben.

Die vier Astronauten befinden sich seit dem 21. Januar in medizinischer Quarantäne an ihrem Heimatstützpunkt in Houston – eine Standardpraxis vor Weltraumflügen. Sie werden nun aus der Quarantäne entlassen, um ihr Training fortzusetzen und auf ein neues Startdatum zu warten. Etwa zwei Wochen vor der nächsten Abflugmöglichkeit beginnt eine erneute Quarantäne.

Die Mission ist Teil eines größeren Programms, das langfristig Landungen am Südpol des Mondes vorbereiten soll. Die Europäische Weltraumorganisation ESA steuert wesentliche Komponenten für die Orion-Kapsel bei. Zum Einsatz kommt die Schwerlast-Trägerrakete Space Launch System.

Sollte es im März zu weiteren Komplikationen kommen, sind auch Startfenster im April oder später möglich. Die Nasa hat nur wenige Startgelegenheiten pro Monat, wenn der Mond sich in der richtigen Position befindet, damit die Orion-Kapsel eine sogenannte freie Rückkehrbahn fliegen und sicher zur Erde zurückkehren kann.


URL dieses Artikels:
https://www.heise.de/-11164987

Links in diesem Artikel:
[1] https://www.nasa.gov/blogs/missions/2026/02/03/artemis-ii-wet-dress-rehearsal-nasa-discusses-initial-results/
[2] https://x.com/NASAAdmin/status/2018578937115271660

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Anthropic-Tool löst 285-Milliarden-Dollar-Crash aus

Von Matthias Lindner — 04. Februar 2026 um 13:55

Matthias Lindner

Die Einführung zu Claude 3 ist auf der Anthropic-Website auf einem Computer zu sehen.

(Bild: Tada Images / Shutterstock.com)

Ein KI-Werkzeug für juristische Arbeiten löste Panikverkäufe aus. Experten fürchten: Ganze Geschäftsmodelle stehen auf dem Spiel.

Ein neues KI-Tool [1] von Anthropic, das für juristische Tätigkeiten [2] eingesetzt werden kann, hat die Aktienmärkte in Aufruhr versetzt. Am Dienstag büßten Unternehmen aus den Bereichen Software und Finanzdienstleistungen [3] insgesamt etwa 285 Milliarden US-Dollar an Börsenwert ein.

Branchenkenner bezeichnen die Situation als "SaaSpocalypse", heißt es bei [4] Bloomberg.

Ein Aktienkorb von Goldman Sachs mit US-Softwarewerten sackte innerhalb eines Tages um sechs Prozent [5] ab. Der S&P North American Software Index ging ebenfalls auf Talfahrt – und setzte damit einen negativen Trend fort: Im Januar rutschte er bereits um 15 Prozent ab.

Automatisierung juristischer Prozesse als Katalysator

Anthropic stellte ein Werkzeug vor [6], das Vertragsprüfungen, NDA-Triage und Compliance-Workflows [7] automatisieren kann. Firmen können die Automatisierung an ihre internen Vorgaben anpassen.

Nutzer erhalten Befehle zur Steuerung: Eine Funktion analysiert Vertragsklauseln und kennzeichnet problematische Stellen farblich mit konkreten Verbesserungsvorschlägen.

Eine andere sortiert eingehende Geheimhaltungsvereinbarungen nach Prüfungsbedarf. Das Unternehmen betont ausdrücklich, dass Juristen die Ergebnisse kontrollieren müssen [8].

Vom Nischenanbieter bis zum Branchenriesen betroffen

Zunächst traf es Firmen mit Schwerpunkt auf Rechtsinformationen. Die Börse in London verlor dreizehn Prozent ihres Werts, der Informationsdienstleister Thomson Reuters 16 Prozent. Der Online-Rechtsservice Legalzoom brach um 20 Prozent ein.

Schnell erfasste der Abwärtssog die gesamte Softwareindustrie. Die Grafik- und Dokumentensoftware-Hersteller Adobe sowie der CRM-Anbieter Salesforce gaben jeweils rund sieben Prozent nach. Microsoft verlor weitere drei Prozent – innerhalb weniger Tage summierte sich der Verlust auf über dreizehn Prozent.

Im Finanzsektor erwischte es [9] besonders Kreditgeber. Die Investmentgesellschaft Blue Owl Capital sank um 13 Prozent. Die Private-Equity-Häuser Ares Management, KKR und TPG büßten mehr als zehn Prozent ein.

Doppelte Bedrohung durch Modellanbieter

Anders als spezialisierte Legal-Tech-Startups entwickelt Anthropic die grundlegenden KI-Systeme selbst. Diese lassen sich gezielt für einzelne Branchen optimieren.

Dadurch entsteht Druck auf zwei Ebenen: Etablierte Datenanbieter sehen sich ebenso herausgefordert wie junge KI-Firmen im Rechtsbereich.

Start-ups wie Harvey AI mit einer Bewertung von fünf Milliarden US-Dollar nutzen Basissysteme externer Entwickler. Wenn diese Anbieter nun eigene Branchenlösungen präsentieren, verschärft sich der Wettbewerb erheblich.

Quartalszahlen bestätigen Branchenschwäche

Die aktuellen Geschäftsergebnisse unterstreichen die angespannte Lage. Lediglich 71 Prozent der Softwarefirmen im S&P 500 übertrafen die Umsatzprognosen. Im gesamten Technologiesektor gelang dies 85 Prozent der Unternehmen.

Microsoft legte solide Zahlen vor, doch Investoren konzentrierten sich auf das nachlassende Wachstum im Cloud-Geschäft [10] bei gleichzeitig steigenden Investitionen in KI-Infrastruktur. Die Aktie verlor daraufhin an einem Tag zehn Prozent. Auch ServiceNow und SAP nährten Zweifel am künftigen Expansionstempo.

Gegen den Trend entwickelte sich Palantir Technologies [11]. Das Analyseunternehmen steigerte seinen Umsatz im Schlussquartal um 70 Prozent. Der Kurs legte um knapp sieben Prozent zu.

Risikoprüfung bei Beteiligungsgesellschaften

Die Verunsicherung erreichte auch Private-Equity-Investoren. Mehrere Gesellschaften lassen ihre Portfolios auf anfällige Softwarebeteiligungen durchleuchten. Apollo reduzierte den Softwareanteil in seinen Kreditfonds um nahezu die Hälfte.

Ein Fondsmanager bringt laut Bloomberg die Herausforderung auf den Punkt: In diesem Jahr entscheide sich, welche Firmen von KI profitieren und welche verdrängt werden.


URL dieses Artikels:
https://www.heise.de/-11165302

Links in diesem Artikel:
[1] https://www.heise.de/tp/article/Kann-man-KI-Antworten-ueberhaupt-noch-trauen-11114709.html
[2] https://www.heise.de/tp/article/Agentic-AI-Wie-kuenstliche-Intelligenz-die-Arbeitswelt-2025-veraendert-10276292.html
[3] https://www.heise.de/tp/article/GenAI-verschlingt-40-Milliarden-Dollar-ohne-messbaren-Nutzen-11071758.html
[4] https://www.bloomberg.com/news/articles/2026-02-03/-get-me-out-traders-dump-software-stocks-as-ai-fears-take-hold
[5] https://www.bloomberg.com/news/articles/2026-02-03/legal-software-stocks-plunge-as-anthropic-releases-new-ai-tool
[6] https://claude.com/plugins/legal
[7] https://www.heise.de/tp/article/Koennen-ethische-Richtlinien-KI-Einsatz-in-Unternehmen-verbessern-10309661.html
[8] https://www.heise.de/tp/article/KI-Halluzinationen-Mathematisch-unvermeidbar-10669149.html
[9] https://www.bloomberg.com/news/articles/2026-02-03/legal-software-stocks-plunge-as-anthropic-releases-new-ai-tool
[10] https://www.heise.de/tp/article/Wird-Deutschland-zur-Datenkolonie-USA-haben-16-mal-mehr-Rechenpower-als-wir-11075794.html
[11] https://www.heise.de/tp/article/Palantir-Wenn-Software-ueber-Leben-und-Tod-entscheidet-11120958.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

OpenAI stellt mit der Codex-App eine Kommandozentrale für KI-Workflows vor

Von Heise — 04. Februar 2026 um 12:16
OpenAI-Schriftzug und Umrisse von Personen, die an einem Tisch sitzen, wobei eine Person am Kopf des Tisches sitzt und eine steht.

(Bild: kovop/Shutterstock.com)

Multitasking statt sequenzielles Abarbeiten von Aufgaben: Mit der Codex-App lassen sich mehrere KI-Agenten gleichzeitig ausführen und zentral steuern.

Die neue Codex-App von OpenAI bietet Entwicklerinnen und Entwicklern eine zentrale Bedienoberfläche für mehrere Codex-Agenten mitsamt Projekten, Fähigkeiten und Automatisierungen. Vorerst gibt es die App nur als Desktop-Anwendung für macOS. Der zentrale KI-Agent hinter der App ist das gleichnamige KI-Tool Codex.

Parallel zum Launch der Codex-App ist Codex für einen begrenzten Zeitraum in den ChatGPT-Tarifen [1] Free und Go enthalten. Wie lange genau, sagt OpenAI allerdings nicht. Für die Tarife Plus, Pro, Business, Enterprise und Edu verdoppelt der Anbieter die Nutzungslimits. Diese sollen überall dort gelten, wo Codex zum Einsatz kommt, was neben der neuen App auch für IDEs oder die Cloud gilt.

Delegieren statt Programmieren

Während das 2025 veröffentlichte AI-Tool Codex [2] Softwareentwicklern einen Teil der Programmierarbeit abnehmen kann, verfolgt die jetzt vorgestellte App einen umfassenderen Ansatz. Sie soll Developer in die Lage versetzen, komplexe und langwierige Multitasking-Aufgaben über ganze Teams von Agenten hinweg zu bewältigen, ohne dabei den Überblick zu verlieren.

Für das Delegieren der Workflows stellt das KI-Tool neben automatischen Zeitplänen auch nach Projekten organisierte Threads zur Verfügung, sodass mehrere Agenten parallel laufen und Aufgaben austauschen. Hinzu kommt eine Unterstützung für Git Worktrees, was es Agenten erlaubt, gleichzeitig und konfliktfrei am selben Repository zu arbeiten. Um Entwicklerinnen und Entwicklern den Einstieg zu erleichtern, übernimmt die Codex-App Sitzungsverläufe und Konfigurationen aus der Codex-CLI und IDE-Erweiterungen.

Eine Bibliothek mit Funktionen (Skills) für Tools und Workflows gehört ebenfalls zum Umfang der App. Damit lassen sich beispielsweise Webapps auf Cloud-Hosts hochladen, Bilder generieren, Dokumentationen erstellen oder Designs umsetzen. Eine vollständige Liste findet sich im Repository von OpenAI [3].

Screenshot Codex-App
Screenshot Codex-App

Integriert: Die Codex-App kommt mit einer umfangreichen Funktionsbibliothek (Skills).

(Bild: OpenAI)

So wie die Codex-CLI verwendet auch die Codex-App systemweite und konfigurierbare Sandbox-Mechanismen. Die Agenten sind darauf beschränkt, Dateien nur innerhalb isolierter Kopien zu bearbeiten. Aktionen, die höhere Berechtigungen erfordern wie der Netzwerkzugriff, führen sie erst nach erteilter Erlaubnis durch. Zur Automatisierung lassen sich bestimmte Befehle mit erhöhten Berechtigungen ausführen. Geplant hat OpenAI, dass Codex künftig cloudbasiert kontinuierlich im Hintergrund weiter läuft, auch wenn die Anwender ihre Rechner ausgeschaltet haben.

Als Beispiel für die Arbeit der Codex-App zeigt OpenAI ein Rennspiel [4], das Codex nach Prompt-Eingabe über mehrere Iterationen hinweg mit insgesamt 7 Millionen Tokens selbst entwickelt hat. Dabei ist das Tool auch in die Rollen von Designern und QA-Tester geschlüpft, und hat das Spiel selbst gespielt.

Windows- und Linux-User können sich bei OpenAI registrieren und sollen dann per Mail benachrichtigt [5] werden, sobald die App für diese Plattformen erscheint.


URL dieses Artikels:
https://www.heise.de/-11164965

Links in diesem Artikel:
[1] https://chatgpt.com/de-DE/pricing/
[2] https://www.heise.de/news/OpenAI-Tool-Codex-soll-Softwareentwicklern-das-Programmieren-abnehmen-10387230.html
[3] https://github.com/openai/skills
[4] https://openai.com/de-DE/index/introducing-the-codex-app/
[5] https://openai.com/de-DE/form/codex-app/
[6] mailto:who@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

30 Jahre Java – Interview mit Community-Vertretern (Teil 4)

Von Heise — 04. Februar 2026 um 09:00
Zahl 30 steht auf Kaffeetasse

(Bild: Erstellt mit KI (Midjourney) durch iX-Redaktion)

Java wurde 2025 schon 30 Jahre alt. Das ist ein guter Zeitpunkt, zurück, aber auch nach vorn zu blicken.

In den vergangenen 30 Jahren hat sich eine rege Community im Java-Umfeld gebildet. Ich habe im Laufe des Jahres 2025 einige deutschsprachige Vertreter zu ihren Erfahrungen befragt. Die Resonanz war überwältigend. Vielen Dank an alle, die mitgemacht haben. In diesem vierten Teil kommen Michael Simons (Java Champion), Stefan Zörner (Buchautor und Mitglied der Apache Foundation), Markus Eisele (Java Champion), Dirk Weil (Buchautor) und Michael Vitz (Java Champion) zu Wort.

Java prägt viele Entwickler und Entwicklerinnen seit ihren ersten Schritten in der IT – und hat in dieser Zeit Höhen, Tiefen und mehrere Neuerfindungen erlebt. Die folgenden Antworten spiegeln persönliche Anfänge, prägende Erlebnisse, kritische Momente und eine Einordnung von Javas Rolle in der heutigen Softwareentwicklung wider. Abschließend wagen sie einen Blick nach vorn: mit Tipps für die eigene Weiterentwicklung und Erwartungen an Java in den kommenden Jahren.

Wann und mit welcher Version bist du erstmals mit Java in Berührung gekommen?

Michael Simons: Produktiv, also gegen Geld Software mit Java entwickelt um 2003, mit J2SE 1.4. Während des Studiums mal kurz J2SE 1.2 oder 1.3 angefasst, aber meine Ausbildung war sehr C- und Fortran-90-lastig.

Stefan Zörner: Ich habe bis 1998 an der Uni Münster Mathematik studiert und am Ende Übungsgruppen in Informatik betreut. Da wurde 1996/97 ganz frisch Java eingesetzt. Ich habe es mit den Leuten aus meinen Übungsgruppen zusammen gelernt, Version 1.0 war das.

Markus Eisele: Ich denke, es muss J2SE 1.2 gewesen sein. So um 1999.

Dirk Weil: Das war die allererste Version 1.0 – ich glaube, im Jahr 1996. Wir haben damals einen Arbeitskreis ins Leben gerufen, um die Entwicklung von Java zu beobachten und darüber zu diskutieren.

Michael Vitz: Das erste Mal in Berührung mit Java bin ich noch in meiner Schulzeit in der Oberstufe gekommen. Dort konnte ich für ein Jahr Informatik als Fach belegen. Dort begann, erst mit JavaKara und anschließend mit der Bibliothek „Stifte und Mäuse“, mit Java 1.4 und IBM Jikes als Compiler, meine lange Reise im JVM-Ökosystem.

Was war rückblickend dein schönstes Erlebnis mit der Sprache oder dem Ökosystem Java?

Michael Simons: „Dein schönstes Erlebnis mit einer Programmiersprache …“ – ich finde die Frage ein wenig irritierend. Emotional am schönsten war sicherlich, dass ich durch Java überhaupt in ein größeres Open-Source-Ökosystem eintauchen konnte. Mein damaliger Arbeitgeber war primär ein Oracle-Shop, das heißt, wir haben viel Oracle-Tools, wie Forms und Designer, genutzt, und darin gab es damals wenig Gelegenheit, Open Source zu machen. Über Java bin ich in die Spring-Welt gekommen und habe mir dort einen Namen gemacht und konnte 2016 das erste Mal auf einer internationalen Konferenz über Springs Autokonfiguration sprechen. Das hat mein Leben sehr bereichert und auch beeinflusst. Es ist nicht bei Spring geblieben, ich war auch einer der ersten Sprecher über jOOQ, und konnte so meine „Liebe“ für Java und deklarative Abfragesprachen in die Welt tragen. Seit fast sieben Jahren arbeite ich im Open-Source-Umfeld. Ohne Java und eine offene, inklusive Community wäre mein Leben zumindest in beruflicher Hinsicht ganz anders verlaufen.

Stefan Zörner: Ich habe später viel im Unternehmensumfeld entwickelt, in meiner IBM-Zeit vor allem in Versicherungen, da war J2EE angesagt. Die Vereinfachung vieler Dinge durch Hibernate und vor allem Spring war tatsächlich eine kleine Offenbarung. Die Bücher von Spring-Vater Rod Johnson habe ich gerne gelesen.

Markus Eisele: Sicherlich die Community. Ich habe früh in meiner Karriere damit begonnen, mein Wissen aus Projekten weiterzugeben, und ich kann mich noch sehr gut an die ersten Vorträge über Struts und J2EE erinnern, die ich im Rahmen von freitäglichen Infoveranstaltungen gehalten habe. Auf diesem Weg ging ich weiter in Richtung internationaler Konferenzen und hatte das Glück, auch mal auf der JavaOne zu sprechen. Das schönste Erlebnis war sicherlich, die Geburt der JavaLand begleiten zu dürfen und der Sprache auch hierzulande eine große Plattform bieten zu können.

Dirk Weil: Mit Java hatte ich das erste Mal das Gefühl, dass ich nicht der Erste war, der ein Problem hatte. Es gab nun eine Community, die sich gegenseitig unterstützte und Lösungen verteilte. Das hatte ich vorher mit C und C++ nicht erlebt. Dazu kam die damals noch rasante Entwicklung von Server-Produkten wie BEA WebLogic oder JBoss. Damit traf Java exakt den Punkt der Revolution von Anwendungen weg vom meist lokalen Client-Server-Modell hin zu global verfügbaren Webanwendungen.

Michael Vitz: Auf der persönlichen Ebene sicher meine Ernennung zum Java Champion Anfang 2021. Seitdem darf ich Mitglied in einer Gruppe sein, in der viele Menschen sind, deren Arbeit ich jahrelang verfolgt und geschätzt habe. Und ich erwische mich immer noch mit dem Gedanken, dass ich als kleines Licht dort eigentlich nicht hingehöre. Aus einer professionellen Sicht gibt es sehr viele schöne Erlebnisse, aber nicht das eine. Jede Anwendung und jedes Problem, die ich, auch weil mir ein solches Ökosystem zur Seite steht, mit Java lösen konnte und die anschließend Mehrwert liefert, lösen in mir positive Gefühle aus.

Aber es ist nicht alles Gold, was glänzt. Was hat dich negativ beeinflusst beziehungsweise was war ein unschöner Moment im Java-Umfeld?

Michael Simons: Ein, zwei menschliche Enttäuschungen, die auf die widersinnige Annahme zurückzuführen sind, dass „alle“ Menschen in einem positiven Umfeld generell positiv sind beziehungsweise sich auch in meinem Wertekosmos bewegen. Das hat aber weniger mit der Sprache als solcher zu tun.

Stefan Zörner: Umgekehrt die Mühen, die man mit J2EE und speziell EJB 1.0 hatte. Eigentlich wollte ich nur eine Entität persistieren. Die rituellen Handlungen beim Deployment waren erheblich. Das Ganze wurde erst durch die Einflüsse von Spring und Hibernate auch in Java EE besser.

Markus Eisele: Mich persönlich stört die rigorose Handhabung des Trademarks von Oracle. Durch das konsequente Verfolgen von jeglichen Aktivitäten, die den Begriff „Java“ im Namen tragen, ist die Community immer gezwungen, alternative Wege zu gehen und es gibt kaum ein aktives Community-Mitglied, welches da nicht seine unschönen Erfahrungen gesammelt hat. Hier wurde und wird weiterhin sehr viel Vertrauen und Wertschätzung für einen durchaus fragwürdigen Gegenwert verspielt.

Dirk Weil: Die sehr zähe Weiterentwicklung von Java EE in den Jahren ab 2016 war sehr irritierend. Das ging teilweise bis zur Einschätzung, dass Java EE tot sei. Der Umstieg auf Jakarta EE mit seinem eher juristisch verordneten Paketnamenswechsel und dem damit verbundenen Breaking Change in der Plattform setzte da sogar noch einen drauf.

Michael Vitz: Zum Glück kann ich mich nicht bewusst an einen negativen Moment erinnern. Natürlich gab es, aufgrund des Pluralismus im Ökosystem, immer mal wieder Scharmützel zwischen Bibliotheken, Werkzeugen oder Frameworks, aber aus meiner Sicht haben diese sich stets in Grenzen gehalten und sind selten unter die Gürtellinie gerutscht oder sehr persönlich geworden. Auf das JDK selbst hat wohl primär die Einführung des Modulsystems und der damit für einige etwas kompliziertere Wechsel auf JDK 9 negativen Einfluss gehabt. Aber auch das ist jetzt schon fast acht Jahre her.

Glaubst du, dass Java auch nach 30 Jahren noch relevant ist? Welche Rolle spielt Java deiner Meinung nach in der modernen Softwareentwicklung, insbesondere im Vergleich zu anderen Sprachen und Technologien?

Michael Simons: Ja, definitiv. Vor über 20 Jahren habe ich bereits Java Stored Procedures in eine Oracle-Datenbank deployed. Programme und Applikationen, die ich vor zehn Jahren geschrieben habe, sind immer noch im Betrieb. Unsere Open-Source-Module sind weltweit im Einsatz. Einige der erfolgreichsten IDEs dieses Planenten sind in Java geschrieben. All die Versicherungs- und Bankensoftware wird sich nicht von alleine warten oder durch generierten Code ersetzt werden. Ich mache mir da wenige Sorgen. In den letzten zwei, drei Jahren habe ich für mich viel Python geschrieben. Zusammen mit dem Pink-Database-Design-Paradigma, das Datenbanken in den Mittelpunkt stellt, ist es eine ungeheuer leichtgewichtige und schnelle Alternative für kleine bis mittelgroße Applikationen. Ich möchte das nicht missen. Aber, wenn ich an einen größeren Einsatz denke, möchte ich auch nicht auf die Stabilität von Java, die sensible Evolution, das annähernd komplette Ökosystem, die sehr guten Buildtools und vieles mehr verzichten.

Selbst im Bereich LLMs gibt es auf GraalVM basierende Lösungen, die schnelle, lokale Inferenz ermöglichen. Das ist meines Erachtens erheblich viel mehr wert als in anderen Sprachen geschriebene Ketten von HTTP-Calls, um mit LLMs und GPTs zu agieren. Bei der Frage nach Vergleichen sehe ich förmlich, wie du auf den Bereich Data Engineering und Education zielst: Bezüglich Data Engineering wird Java maximal von SQL überholt, nicht von Python. Die Python-Scripts und Notebooks sind schön für explorative Auswertungen, das stimmt, aber damit nehmen sie Java nichts weg. Bezüglich Education: Mit Java 24 ist es einfacher denn jemals zuvor, mit einer einzelnen Main-Methode zu starten, ohne Klassenzeremonie.

Stefan Zörner: Ja. Dafür sorgt schon die schiere Menge an Software, die in Java geschrieben ist und auch heute immer noch insbesondere in großen Unternehmen entsteht. Innovation findet tendenziell woanders statt, aber die Java-Welt greift viele Dinge auf.

Markus Eisele: Das ist gerade im aktuellen Hype rund um künstliche Intelligenz und Python natürlich eine sehr gute Frage. Was ich täglich mit Kunden erlebe, ist, dass es ein jahrelang gewachsenes Vertrauen in die Betreibbarkeit und Qualität von Java-basierten Anwendungen gibt. Die JVM als Runtime und auch die Sprache haben sich konsequent weiterentwickelt und bieten für nahezu alle Anwendungsfälle geeignete und performante Antworten. Dieses Vertrauen müssen sich andere Plattformen erst verdienen. Ich vergleiche das auch gerne mal mit Laufschuhen. Es gibt wahnsinnig gut aussehende, mit allerlei Schnickschnack und tollen Sohlen, aber ganz am Ende kann man erst nach vielen Kilometern dann den Unterschied wirklich ausmachen. Ähnlich sehe ich auch die Zukunft von Java. Vorsichtige Modellpflege mit einem Blick auf die wirklich wichtigen Funktionen unter konsequenter Weiterentwicklung der Laufzeitperformance erhält Java den Vorsprung. Noch für viele Jahre.

Dirk Weil: Ich halte Java weiterhin für sehr relevant und tragfähig. Die mittlerweile recht zügige Weiterentwicklung der Sprache selbst wie auch die breite Unterstützung für Server-Frameworks – Jakarta EE, Spring Boot, Quarkus und so weiter – sind für mich ein starkes Zeichen für ein lebendiges Ökosystem. Das finde ich bei anderen Sprachen nicht in der gleichen Qualität.

Michael Vitz: Wer weiß schon, wie die Welt in 30 Jahren aussieht? Gerade in einer Zeit, in der wir mit KI eine Technologie erleben, die das eine oder andere auf den Kopf stellt, und das sehr rasant. Unter der Annahme, dass Beobachtungen aus der Vergangenheit auch in der Zukunft gelten, gibt es in 30 Jahren sicher noch Java-Anwendungen. Ob diese dann eher den Stellenwert wie heute C oder COBOL haben, vermag ich aber nicht zu sagen. Ich gehe aber davon aus, dass es mit Sicherheit noch Menschen gibt, die dann Geld mit Java verdienen können. In der modernen Softwareentwicklung spielt Java sicherlich heute eine größere Rolle. Die Verbreitung über die letzten Jahre und auch die stete Weiterentwicklung, bei gleichzeitiger hoher Kontinuität und Kompatibilität, machen sich hier bezahlt. Und auch wenn diese deswegen vereinzelt etwas langsamer ist als in anderen Sprachen, braucht sich Java im Feature-Vergleich und vor allem mit dem großen Ökosystem nicht zu verstecken. Die wohl aktuell größten Baustellen der langsameren Startzeit und des höheren Arbeitsspeicherverbrauchs sind bekannt und werden an diversen Stellen angegangen. Insofern bin ich auch hier guter Dinge, dass Java weiterhin eine solide Wahl ist.

Tipps und Wünsche

Welche Tipps kannst du aktuellen Java-Entwicklern geben, um in der sich schnell verändernden Technologielandschaft am Ball zu bleiben und sich mit Java weiterzuentwickeln?

Michael Simons: Lernt kein Java. Lernt stattdessen Grundlagen. Nicht für L33t-Coding-Interviews, sondern für euer Verständnis von Algorithmen und Programmierung. Bevorzugt langweilige und einfache Lösungen gegenüber cleveren Lösungen. Macht das gerne mit Java. Java ist zugänglich. Horrorgeschichten darüber, dass unendlich viele Tools benötigt werden, sind schon lange nicht mehr wahr. Heutzutage kann jede einfache Main-Klasse mit java ausgeführt werden, sie muss noch nicht mal vorher mit javac explizit kompiliert werden. Lasst euch nicht vom Gen-AI-Hype irremachen. Ja, ihr könnt damit schnell Code generieren, aber versteht ihr den auch? Fokussiert euch nicht nur auf Code, sondern auf die Domäne. Das ist am Ende das, was Geld macht. Und vielleicht sollte man sich genau das nicht vom AI-Tool wegnehmen lassen.

Stefan Zörner: Wenn ihr es nicht schon tut, würde ich euch den Kontakt zu den lokalen Java User Groups empfehlen. Gerade die in kleineren Städten sind sehr engagiert und bieten eine tolle Möglichkeit zum Austausch.

Markus Eisele: Ein Thema, nach dem ich oft gefragt werde, von Studierenden genauso wie von erfahrenen Entwicklern. Jeder hat hier seine eigene Methode und Vorlieben. Was ich als besonders wichtig empfinde, ist die Grundeinstellung: am Ball bleiben zu wollen. Sich nicht auf dem Wissen auszuruhen. Wir sind hier alle gefragt, die Zeit zu investieren und die Kenntnisse der Werkzeuge aktuell zu halten. Sicherlich sind die Java Champions [2] eine gute Gruppe von Leuten, die auch regelmäßig auf unterschiedlichen Plattformen die Neuigkeiten kommunizieren. Wer gerne eher „hands-on“ lernt, dem kann ich nur die Devoxx University Days oder natürlich auch die Schulungstage der JavaLand empfehlen. Aber es gibt noch unzählige andere Angebote, aus denen man auswählen kann. In diesem Fall gilt auch hier wie für so vieles Andere: Der Weg ist das Ziel. Entscheidet euch dabei zu bleiben und lernt in eurem Tempo mit den Medien, die ihr bevorzugt. Natürlich dürft ihr auch mir auf Bsky (@myfear.com) oder Mastodon (myfear@mastodon.online) folgen.

Dirk Weil: Die umfangreichen Möglichkeiten können auf den ersten Blick abschreckend wirken, weil man gar nicht weiß, wo man anfangen soll. Da kann ich nur raten, als Einsteiger kleine Schritte zu machen und Dinge, die man nicht braucht, links liegenzulassen. Am besten funktioniert es im Austausch mit erfahrenen Entwicklern. Die kann man in der wirklich gut ausgebauten Landschaft von User Groups und Konferenzen finden – und natürlich auch bei uns als Dienstleister. 😉

Michael Vitz: Wer mich kennt, weiß, dass ich, obwohl ich Java Champion bin, mich nicht auf eine Technologie festlegen lassen möchte. Deswegen würde ich als ersten Tipp geben, sich nicht ausschließlich auf Java zu fokussieren. Es macht sicherlich Sinn, eine Technologie sehr tief zu kennen, aber noch wichtiger ist, zumindest glaube ich das, das Verständnis von generellen Konzepten, die sich dann auch einfach in andere Ökosysteme übertragen lassen. Um dabei am Ball zu bleiben, muss sicherlich jeder für sich eine passende Strategie finden. Meine liegt darin, regelmäßig diverse Quellen, wie Blogs, Newsseiten, Podcasts, YouTube-Channel und Konferenzen, zu konsumieren. Je mehr Erfahrung ich über die Jahre gesammelt habe, umso mehr reicht es mittlerweile primär durch die Überschriften auf dem aktuellen Stand zu bleiben und die konkreten Inhalte nur noch selektiv zu verarbeiten.

Was wünschst du dir für Java in den nächsten fünf bis zehn Jahren und welche Befürchtungen hast du?

Michael Simons: Ich wünsche mir, dass die aktuellen Architekten der Sprache und der JVM, namentlich Brian Goetz, Mark Reinhold, Ron Pressler und viele andere, noch lange dabei bleiben, weiterhin nicht nur unfassbar gut zu lesende JEPs und andere Dokumente veröffentlichen, sondern die Sprache wie bisher pflegen, warten und weiterentwickeln.

Stefan Zörner: Ich mag die aktuelle Entwicklung, einfache Programme einfacher zu machen (Stichwort: „Simple Source Files and Instance Main Methods“). Da fände ich mehr davon schön. Befürchtungen habe ich eigentlich keine, da Java ein lebendiges Ökosystem ist und nicht von einem Unternehmen dominiert wird. Diese Befürchtung hatte ich bei der Übernahme durch Oracle.

Markus Eisele: Ich würde mir wünschen, dass Java weiterhin so unaufgeregt und stabil innoviert, wie es das in der Vergangenheit getan hat. Verlässlichkeit und Performance vor Funktionalität um jeden Preis, mit einem guten Blick auf das, was die Gemeinschaft bewegt. Ich schätze die Arbeit der Java-Architekten und ihren Blick auf die wesentlichen Dinge hier sehr. Danke für euer Engagement und Führung. Meine größte Sorge bleibt, dass irgendwann Zuverlässigkeit gegen Hype getauscht wird. Das wäre ein großer Verlust.

Dirk Weil: Ich wünsche mir, dass Java – und vielleicht umso mehr die Server-Frameworks – mit der Zeit gehen und aktuelle Trends aufnehmen. Gegenwärtig ist es das allgegenwärtige Thema KI, für das schon diverse Lösungen als Java-Bibliotheken oder Ähnliches zur Verfügung stehen. So muss Java auch zukünftige Strömungen in sich aufnehmen. Dann habe ich für die Zukunft von Java keine Befürchtungen!

Michael Vitz: Ich bin da, vermutlich, sehr bescheiden. Da es für mich nicht die große Baustelle gibt, durch die ich mich blockiert fühle, nehme ich jedes neue Feature, das mir dann doch noch hilft, mit Freude an. Sicherlich wäre es super, wenn die schon genannten Punkte der Startzeit und vor allem des Speicherverbrauchs bald deutlich nach unten gehen. Das würde viele Diskussionen im Vergleich zu anderen Sprachen ersparen und würde auch dem ökologischen Fußabdruck helfen und damit indirekt auch finanzielle Ersparnisse erzeugen. Wenn ich jetzt etwas allgemeiner auf Technik schaue, dann müssen wir sicherlich abwarten, ob der aktuelle KI-Hype auch größeren Einfluss auf Programmiersprachen selbst haben wird. Wenn dem so ist, dann könnte es in zehn Jahren auch so sein, dass Code selbst nur noch ein Zwischenschritt, wie heute Bytecode, ist oder wir diesen gar nicht mehr benötigen, weil wir natürlich sprachlich oder grafisch programmieren. Andererseits ermöglicht es uns, Code sehr präzise zu formulieren, was wir möchten. Insofern bleibt die Zukunft, zum Glück, sicherlich spannend.


URL dieses Artikels:
https://www.heise.de/-11122817

Links in diesem Artikel:
[1] https://www.javaland.eu/de/home/
[2] https://javachampions.org/members.html
[3] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

programmier.bar: Coding Agents mit Julia Kordick

Von Heise — 04. Februar 2026 um 08:02
programmier.bar: Coding Agents mit Julia Kordick

(Bild: programmier.bar)

Zwischen Hype und Realität: Was AI Coding Agents im Entwicklungsalltag tatsächlich leisten, erklärt Julia Kordick von Microsoft.

Coding-Agenten wie GitHub Copilot und der Agentic Mode halten zunehmend Einzug in den Entwicklungsalltag. In dieser Podcastfolge spricht Julia Kordick, Software Global Black Belt bei Microsoft, mit der programmier.bar darüber, warum nicht die reine Codegenerierung, sondern vor allem der richtige Kontext über den Erfolg von AI Coding Agents entscheidet. Im Mittelpunkt steht die Frage, wie sich solche Systeme sinnvoll einsetzen lassen, ohne die Kontrolle über Code und Architektur zu verlieren.

Zwischen Entwicklungsteams und Management

Julia Kordick beschreibt, wie sie in ihrer Rolle die Brücke zwischen Entwicklungsteams und Management schlägt und den Einsatz von AI Coding Agents sowohl in großen Enterprise-Strukturen als auch in Start-ups begleitet. Sie erläutert, wie sich Workflows schrittweise aufsetzen lassen, wie Agenten-Personas definiert werden und wie mehrere Agenten sinnvoll orchestriert werden können.

Abschließend werfen Dennis Becker, Jan Gregor Emge-Triebel und Julia Kordick einen Blick auf die Zukunft der Softwareentwicklung. Sie diskutieren, wie sich Rollen verändern könnten, welche Chancen agentische Systeme bieten und wie Entwickler:innen ihre Expertise einbringen können, um die Zusammenarbeit von Mensch und KI sinnvoll zu gestalten.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar [3] bereit: „Coding Agents mit Julia Kordick [4]“. Fragen und Anregungen gerne per Mail [5] oder via Mastodon [6], Bluesky [7], LinkedIn [8] oder Instagram [9].


URL dieses Artikels:
https://www.heise.de/-11156565

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://genai-summit.bettercode.eu/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_bcc_genai_summit.empfehlung-ho.link.link&LPID=33686
[3] https://programmier.bar/
[4] https://www.programmier.bar/podcast/deep-dive-200-coding-agents-mit-julia-kordick
[5] mailto:podcast@programmier.bar
[6] https://social.programmier.bar/@podcast
[7] https://bsky.app/profile/programmier.bar
[8] https://www.linkedin.com/company/programmier-bar
[9] https://www.instagram.com/programmier.bar/
[10] mailto:mdo@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ iMonitor Internetstörungen

Störungsmeldung vom 04.02.2026 09:19

Von heise online — 04. Februar 2026 um 09:19

Neue Störungsmeldung für Provider Vodafone Kabel

Details

Beginn
04.02.2026 09:19
Region
Schifferstadt (06235)
Provider
Vodafone Kabel
Zugangsart
Kabel

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

✇ heise Security

Kaspersky: Entweder das BSI streicht seine Warnung, oder…

Von Heise — 03. Februar 2026 um 18:22
Warsaw,,Poland,-,July,,2019:,Kaspersky,Lab,Logotype,On,The

(Bild: Konektus Photo/Shutterstock.com)

Das IT-Sicherheitsunternehmen will die Warnung der Bonner Behörde loswerden und versucht, Druck auf das BSI auszuüben – über Bande.

Die IT-Sicherheitsfirma Kaspersky hat ein Problem – und das ist ihr Herkunftsland: Russland. Als das Bundesamt für Sicherheit in der Informationstechnik (BSI) im März 2022 erstmals öffentlich vor dem kompletten Produktsegment eines Herstellers gewarnt [1] hatte, war das ein Novum. Bis heute ist die Warnung vor Kasperskys Virensoftware die einzige vom BSI ausgesprochene öffentliche Produktwarnung – und sie soll weg, fordert die Firma.

Kaspersky-Lobbyisten schrieben kürzlich Mitglieder des zuständigen Innenausschusses an, worüber zuerst der Spiegel berichtet hatte. In den E-Mails legte das Unternehmen sein Ansinnen dar, dass das BSI die Produktwarnung zurücknehmen solle. Kaspersky sieht das BSI dazu in der Pflicht: Unterlagen der Bonner Behörde sollen belegen, dass das BSI keinerlei Anhaltspunkte für Gefahren gefunden habe. Dem Unternehmen sei durch die Warnung mittlerweile ein Schaden in dreistelliger Millionenhöhe entstanden. Auch in den USA [2] und anderen Staaten [3] sind verschiedene Kaspersky-Unternehmensteile, darunter Kaspersky Lab und dessen Führungspersonal wie Gründer Eugene Kaspersky, sanktioniert [4].

BSI hält an Warnung fest

Die Behörde gibt sich von den Forderungen der Firma unbeeindruckt, nachdem sie erst vor wenigen Wochen noch einmal intern über die Einstufung gesprochen hat – Warnungen müssen regelmäßig überprüft werden. „Das BSI hält die Warnung vor AV-Produkten des Herstellers Kaspersky weiterhin aufrecht“, teilt ein Sprecher am Dienstagmittag auf Anfrage von heise online mit. „Die Gründe für die Warnung sind in der Warnung selbst hinlänglich dargestellt und haben sich aus Sicht des BSI nicht geändert.“ Zur Kommunikation durch den Hersteller äußere sich das BSI nicht.

Im Parlament führt der Kaspersky-Vorstoß eher zu Irritation als zu Unterstützung für das Unternehmen. „Kaspersky steht der Rechtsweg in unserem deutschen Rechtsstaat immer offen“, sagt der CDU-Digitalpolitiker und IT-Sicherheitsspezialist Henri Schmidt. Und appelliert: „Wer in der aktuellen Situation immer noch russische Software nutzt, hat den Ernst der Lage nicht verstanden.“ Russland führe seit Jahren hybride Angriffe gegen Deutschland durch. „Die Russische Föderation ist eine Diktatur und selbsterklärter Gegner der EU, die jeden vorhandenen Hebel gegen Europa nutzt oder nutzen wird“, sagt der CDU-Politiker Schmidt. „Kein Unternehmen im heutigen Russland kann unabhängig von Putins Regime agieren.“ Also auch nicht Kaspersky mit Hauptsitz an der Leningrader Chaussee in Moskau.

Politische oder wissenschaftlich-technische Entscheidung?

Die Vorgänge würden sehr aufmerksam verfolgt, sagt Konstantin von Notz, Grünen-Innenpolitiker und stellvertretender Vorsitzender des Geheimdienstaufsichts-Gremiums des Deutschen Bundestages. „Als Parlament interessiert uns hierbei vor allem die Positionierung der Bundesregierung in dem nunmehr schon länger bestehenden Konflikt zwischen Kaspersky und dem BSI, die ja weiterhin die Fach- und Rechtsaufsicht über das Bundesamt ausübt.“ Das zielt in erster Linie auf das von Alexander Dobrindt geführte Bundesministerium des Innern ab, dem das BSI nachgeordnet ist. Das neue Digitalministerium ist nur für jene Teile des BSI zuständig, die unmittelbar für die Bundesverwaltung relevant sind.

Seit dem Aussprechen der Warnung wird immer wieder der Verdacht laut, das BSI habe die Warnung nicht aufgrund technischer Beurteilungen ausgesprochen, sondern politische Gründe hätten eine Rolle gespielt. Doch das hat sich bis heute nicht weiter erhärtet, auch wenn das BSI damals in enger Abstimmung mit dem Bundesinnenministerium agierte. Andere wiederum hatten das BSI dafür kritisiert, mit der Produktwarnung vor Kaspersky viel zu lange gezögert zu haben. Das BSI ist, was seine Entscheidungsgrundlage angeht, eine ungewöhnliche Bundesbehörde: „Seine Aufgaben führt das Bundesamt auf Grundlage wissenschaftlich-technischer Erkenntnisse durch“, heißt es im BSI-Gesetz. Sprich: es darf sich anders als andere Behörden nicht politisieren lassen, wenn das der Erkenntnislage widerspricht.

Kein Gerichtsverfahren anhängig

Kaspersky war bislang mit allen Versuchen gescheitert, rechtlich gegen die Warnung des BSI vorzugehen. Das Unternehmen hatte sowohl auf dem Weg des einstweiligen Rechtschutzes als auch mit einer Verfassungsbeschwerde seine Rechte geltend gemacht, die Richter aber nicht davon überzeugen können, dass das BSI hier unverhältnismäßig gehandelt habe. Eine weitere gerichtliche Klärung – sprich: ein Hauptsacheverfahren – hatte das Unternehmen bislang aber ebenfalls nicht auf den Weg gebracht.

Beim örtlich für das BSI zuständigen Verwaltungsgericht Köln ist jedenfalls aktuell keinerlei solches Verfahren bekannt, teilte der zuständige Pressesprecher auf Anfrage mit. Es gibt also weiterhin kein Anzeichen dafür, dass Kaspersky vier Jahre nach dem Aussprechen der Produktwarnung nun ein Hauptsacheverfahren anstrengen würde. Eine Kaspersky-Sprecherin betont denn auch, dass Kaspersky dem BSI nicht mit einer Klage drohe, sondern sich lediglich rechtliche Schritte vorbehalte.


URL dieses Artikels:
https://www.heise.de/-11164163

Links in diesem Artikel:
[1] https://www.heise.de/news/Antivirus-BSI-warnt-vor-Nutzung-von-Kaspersky-Software-6549515.html
[2] https://www.heise.de/news/BSI-Warnung-vor-Kaspersky-Produkten-nach-US-Sanktionen-noch-immer-aktuell-9777085.html
[3] https://www.heise.de/news/Australien-verbannt-Kaspersky-von-Regierungsrechnern-10293497.html
[4] https://home.treasury.gov/news/press-releases/jy2420
[5] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[6] mailto:cku@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Xcode 26.3: KI-Agenten wie Claude und Codex direkt in der Entwicklungsumgebung

Von Heise — 03. Februar 2026 um 19:00
App-Entwickler bei der Arbeit

(Bild: Konstantin Savusia / Shutterstock.com)

Apple erweitert Xcode 26.3 mit KI-Entwicklungsmöglichkeiten. Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI können direkt genutzt werden.

Apple erweitert mit Version 26.3 von Xcode deutlich die Möglichkeiten, mithilfe von Künstlicher Intelligenz zu entwickeln. In einem am Dienstagabend veröffentlichten Release Candidate können in der Entwicklungsumgebung Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI direkt in Xcode genutzt werden. Die neuen Funktionen knüpfen an die Integration von externen Large Language Models (LLMs) in Xcode 26 an, die es immerhin auch schon ermöglichte, Quelltexte automatisch ohne mühsames Copy & Paste an beliebte Chatbots wie ChatGPT und Claude weiterzugeben.

Die bisherige Integration hat aber ihre Grenzen: Modelle können nicht den vollen Kontext einer Anfrage sehen und sie können in vielem auch nicht selbst aktiv werden und müssen den Entwickler darum bitten bzw. ihn instruieren. Für Entwickler war die Coding Intelligence [1] in ihrem jetzigen Ausbaugrad gleichwohl schon eine deutliche Hilfe. Nachdem Apple im Jahr 2024 erst Pläne für ein eigenes LLM in Xcode verfolgt hatte, die jedoch nicht veröffentlicht wurden, stieß der iPhone-Hersteller mit dem neuen Ansatz, externe Modelle zu integrieren, auf der Entwicklerkonferenz WWDC im Juni 2025 auf positive Resonanz [2].

MCP-Unterstützung und viele neue Möglichkeiten

Die Erweiterung in Xcode 26.3 schafft hier ganz neue Möglichkeiten. Apple hat seine Software dahingehend erweitert, dass jeder Agent, der das quelloffene Model Context Protocol (MCP) unterstützt, künftig mit Xcode arbeiten kann. Dadurch ist es KI möglich, auch die Projektstruktur zu untersuchen, Projekteinstellungen zu verändern, testweise einen Build zu erzeugen und automatisierte Tests vorzunehmen. Durch Auswertung von Build Logs kann die KI ihren Code automatisch weiter bauen, bis das Projekt fehlerfrei kompiliert. Auch auf die aktuelle Dokumentation Apples können die Agenten zugreifen, sodass sie besser als bislang auch neue APIs unterstützen sollen.

Die KI-Agenten können auch Bildschirmfotos von Xcode anfertigen, um das zu sehen, was der Entwickler gerade sehen kann. Dies alles soll überdies darauf optimiert sein, den Gebrauch von Token – und damit die Kosten – zu reduzieren.

Installation mit einem Klick

Die Installation ist einfach: Über die Einstellungen können die Agenten mit einem Klick installiert werden. Dort können derzeit schon ChatGPT, Claude oder andere Modelle aktiviert werden. Entwickler müssen also nicht wie zum Beispiel bei Claude Code das Terminal und die Kommandozeile bemühen. Vorgenommene Veränderungen werden in gewohnter Weise mit einer Markierung im Quelltext sichtbar gemacht und sollen sich leicht zurücknehmen lassen.

Xcode 26.3 ist zunächst als Release Candidate für alle Mitglieder des Apple Developer Program verfügbar. Die Veröffentlichung im App Store soll in Kürze erfolgen.


URL dieses Artikels:
https://www.heise.de/-11164243

Links in diesem Artikel:
[1] https://www.heise.de/news/Xcode-bekommt-KI-Coding-Funktionen-9757272.html
[2] https://www.heise.de/news/Analyse-zur-WWDC-2025-Keynote-Apple-will-wieder-gut-aussehen-10437944.html
[3] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Optimus: Teslas Roboter-Traum hängt an China

Von Michael Linden — 03. Februar 2026 um 19:15
Tesla will viele humanoide Roboter bauen – doch ohne chinesische Zulieferer wird Optimus unbezahlbar. Eine Abhängigkeit mit Folgen.
Tesla Optimus (Bild: Tesla)
Tesla Optimus Bild: Tesla

Teslas Roboterprojekt Optimus hat dem Model S und dem Model X den Garaus gemacht – in den USA wird die Fabrikfläche für den Bau der Roboter benötigt, doch ohne chinesische Zulieferer wird der Roboter nicht gebaut werden können.

Tesla will im US-Werk Freemont die Roboterproduktion starten und bis zu einer Million Einheiten Optimus pro Jahr bauen. Die Analyse der Lieferkette zeigt, dass es ohne chinesische Zulieferer nichts wird – die Bauteile kommen alle aus dem Reich der Mitte.

Einem Bericht der South China Morning Post zufolge schloss Tesla Verträge mit Hunderten chinesischen Komponentenherstellern. Wie bei Apple sind es aber nicht einfache Zulieferer. Die Unternehmen sind bereits in die Forschungs- und Entwicklungsphase eingebunden.

Chinesische Zulieferer dominieren Schlüsselkomponenten

Chinesische Unternehmen liefern dem Bericht nach Aktuatoren, Motoren, Getriebe und Kamerasysteme für den Optimus-Roboter. Mehrere chinesische Firmen wurden dem Bericht nach als Partner für die Massenproduktion ausgewählt, darunter Zhejiang Sanhua für Thermalsteuerung, Ningbo Tuofu für Aktuatoren und Everwin für Sensoren.

Der Kostenvorteil, aber auch das Know-How sind der Grund für diese Arrangements. Chinas Einstufung der humanoiden Robotik als strategische Industrie bringt zusätzliche Unterstützung durch Forschungsförderung, Subventionen und Steuererleichterungen.

Die Analyse zeigt: Würde Tesla chinesische Komponenten aus der Lieferkette für den Roboter entfernen, würden die Gesamtkosten von 46.000 auf 131.000 Dollar pro Einheit steigen. Für Tesla, das die Optimus-Kosten auf etwa 20.000 Dollar senken will, gibt es also keine Alternative. Und die Konkurrenz schläft nicht: Der chinesische Hersteller Unitree bietet sein G1-Modell ab 13.500 US-Dollar pro Einheit an.

Elon Musk bezog zu dieser Wettbewerbsdynamik während der Bilanzpressekonferenz Stellung. Er bezeichnete China als Teslas Hauptkonkurrenten im Robotersektor und verwies auf die Stärken des Landes sowohl in der KI-Entwicklung als auch in der Fertigung.

Tesla-Produktion hat Probleme

Musk gab auf der Konferenz auch zu, dass der humanoide Roboter noch nicht die versprochene Produktivität erreiche . Die Produktion liegt weit unter den Ankündigungen, und die Roboter arbeiten nur halb so schnell wie Menschen. Technische Probleme mit den Händen des Optimus 2.5 sowie überhitzende Motoren und schwache Griffstärke verzögern die Massenproduktion.

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Am Schienennetz: Merz feiert mit Niedax neues Glasfasernetz für Deutschland

Von Achim Sawall — 03. Februar 2026 um 19:01
Ein neues Glasfaser -Netz am Schienenstrang soll Deutschland resilienter machen. Kanzler Merz besuchte dafür Niedax am neuen Standort.
(v.l.n.r.:) Bruno Reufels (Niedax), Kanzler Friedrich Merz, Gordon Schnieder (CDU Rheinland-Pfalz) und Bundesverkehrsminister Patrick Schnieder (Bild: Niedax/Dieter Klaas)
(v.l.n.r.:) Bruno Reufels (Niedax), Kanzler Friedrich Merz, Gordon Schnieder (CDU Rheinland-Pfalz) und Bundesverkehrsminister Patrick Schnieder Bild: Niedax/Dieter Klaas

Niedax, ein Hersteller von Kabelverlegesystemen, hat sein Projekt zum Aufbau eines gesicherten Glasfasernetzes entlang von rund 33.000 Kilometern Bahnschiene am 2. Februar 2026 vorgestellt . Partner sind der US-Glasfaserhersteller Corning, das deutsche IT-Systemhaus Bechtle oder Media Broadcast Satellite, ehemals Freenet.

Mit der Eröffnung des neuen Standorts der Niedax Group in Neustadt/Wied-Rahms im Norden von Rheinland-Pfalz auf einer Fläche von 100.000 Quadratmetern sollen bis zu 500 Arbeitsplätze entstehen. Laut Niedax-Chef Bruno Reufels will man mit weiteren Unternehmen die Entwicklung kleiner und mittelgroßer Datenzentren vorantreiben. Bundeskanzler Friedrich Merz (CDU) sagte bei der Eröffnung, "das Vorhaben der Niedax Group, gemeinsam mit ihren Partnern ein resilientes, nachhaltiges und hochleistungsfähiges Infrastruktur-Netz zu schaffen" , sei von "entscheidender Bedeutung" .

Mit Netz 33 hatte Niedax Group im Jahr 2025 ein Tochterunternehmen gegründet, welches das Projekt für ein neues bundesweit zusammenhängendes Glasfasernetz führen soll.

Die erste Teststrecke soll auf 130 Kilometern im Areal Jüterbog-Falkenberg-Wittenberg entstehen. Im Februar und März 2026 sollen die ersten vier Kilometer verlegt werden. AP Sensing soll mit faseroptischer Sensorik die Technologie zur Überwachung der Infrastruktur bereitstellen.

Giga Fiber und seine Projekte

Niedax will selbst nur rund 300 Millionen Euro in das Projekt investieren. Eine gesamte "Investitionssumme von circa zehn Milliarden Euro" nannte Reufels dem Handelsblatt . Die Verträge mit der Bahn seien unterzeichnet, erklärte er.

Bedenklich an dem Vorhaben: Ein solches Projekt für Glasfaser entlang des deutschen Schienennetzes hatte zuvor bereits das Unternehmen Giga Fiber von Lars Diebold fast wortgleich angekündigt , was sich aber wie ein anderes Projekt für 0-Euro-FTTH für Privatkunden bislang als bloße Ankündigung erwiesen hatte. Durch Partner wie Bechtle und Media Broadcast Satellite könnte das Projekt jetzt Substanz gewinnen.

Adblock test (Why?)

✇ Golem.de Full über fivefilters.org

Anzeige: 100-W-Netzteil - nur bis Sonntag zum Bestpreis laden

Von Claus Ludewig — 03. Februar 2026 um 17:54
Nur noch bis Sonntag gibt es ein tausendfach verkauftes 100-Watt-Netzteil von Ugreen zum Bestpreis bei Amazon.
Nur bis Sonntag gibt es bei Amazon das 100-Watt-Netzteil Ugreen Nexode X wieder zum Tiefstpreis. (Bild: Erzeugt mit Dall-E; Amazon)
Nur bis Sonntag gibt es bei Amazon das 100-Watt-Netzteil Ugreen Nexode X wieder zum Tiefstpreis. Bild: Erzeugt mit Dall-E; Amazon

Wer unterwegs Smartphone, Tablet und Notebook laden möchte, muss längst nicht mehr mehrere klobige Netzteile einpacken. Moderne Multiport-Ladegeräte versorgen gleich mehrere Geräte parallel – und sparen dabei Platz im Rucksack. Ein besonders gefragtes Modell ist das Ugreen Nexode X 100W (Modell 35038), das sich allein im vergangenen Monat bei Amazon über 2000-mal verkauft hat. Jetzt ist das kompakte USB-C-Netzteil für kurze Zeit im Angebot erhältlich.

Was bietet das Ugreen Nexode X 100W?

Mit nur 7,1 × 4,3 × 3,3 cm zählt das Nexode X zu den kleineren Vertretern seiner Leistungsklasse. Möglich macht das die sogenannte Airpyria-Technologie, die trotz reduzierter Bauform eine hohe Ladeleistung ermöglicht. Das Netzteil bringt dabei lediglich 320 Gramm auf die Waage und liefert trotzdem bis zu 100 Watt, ausreichend, um auch ein Macbook oder Office-Laptop schnell mit Strom zu versorgen.

Unterstützt werden gängige Schnellladestandards wie USB Power Delivery 3.0 und PPS. Laut Hersteller lässt sich etwa ein Samsung Galaxy S24 Ultra in rund 19 Minuten auf 50 Prozent aufladen. Ein Macbook Pro 14 Zoll soll nach 27 Minuten ebenfalls wieder halb voll sein.

Drei Geräte gleichzeitig laden

Das Ugreen-Netzteil ist mit insgesamt drei Anschlüssen ausgestattet:

  • 2× USB-C mit bis zu 100 Watt
  • 1× USB-A mit bis zu 22,5 Watt

Wer mehrere Geräte gleichzeitig anschließt, muss allerdings mit einer automatischen Aufteilung der Leistung rechnen. Bei Nutzung von zwei Ports stehen am USB-C1 bis zu 65 Watt und am zweiten USB-C-Anschluss 30 Watt zur Verfügung. Der USB-A-Port liefert bis zu 22,5 Watt.

Wer alle drei Anschlüsse parallel nutzt, verteilt sich die Leistung wie folgt:

  • USB-C1: 65 Watt
  • USB-C2: 18 Watt
  • USB-A: 18 Watt

Schutz vor Überhitzung und Überspannung

Für die nötige Sicherheit sorgt eine integrierte Steuerungselektronik mit Temperaturüberwachung. Zusätzlich schützt Thermal Guard 2.0 vor Überhitzung und Überspannung – praktisch, wenn mehrere Geräte gleichzeitig geladen werden.

Zum Tiefstpreis bei Amazon

Bei Amazon gibt es das USB-Netzteil Ugreen Nexode X 35038 mal wieder zum Tiefstpreis von nur 30,67 Euro zu kaufen, wie die Keepa-Preischronik verrät. Noch nie gab es dieses 100 Watt leistende USB-Netzteil günstiger zu kaufen. Zwar gibt es dieses Angebot immer mal wieder, doch reicht der Lagervorrat oft nur wenige Tage. Das aktuelle Bestpreis-Angebot gilt nur noch bis Sonntag, den 8. Februar.

Reklame

Ugreen Nexode X USB-C-Ladegerät 100W mit 3 USB-Ladeanschlüssen

Nur bis Sonntag zum Tiefstpreis

Preis, Daten und Fakten zum Ugreen-Nexode-X-Netzteil

  • Auf kompakten 7,1 cm × 4,3 cm × 3,3 cm bringt der chinesische Hersteller Ugreen beim Nexode-X-35038-Netzteil gleich drei Ladeanschlüsse unter.
  • Neben einem USB-A-Port sind dies gleich zwei USB-C-Anschlüsse, die maximal 100 Watt leisten.
  • Praktisch: Selbst wenn an USB-C1 mit 65 Watt ein Laptop oder Macbook schnellgeladen wird, steht am zweiten USB-C-Anschluss mit 30 Watt genügend Power parat, um parallel ein Smartphone mit Strom zu versorgen.
  • Zum Zeitpunkt der Artikelerstellung verkauft Amazon das Ugreen-Nexode-X-35038-Netzteil für nur 30,67 Euro. Ein Blick in die Keepa-Preishistorie zeigt, dass es dieses USB-Netzteil noch nie günstiger zu kaufen gab. Doch dieses Bestpreis-Angebot gilt nur noch bis Sonntag, den 8. Februar.

Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

✇ c't-Themen

heise+ | Besser texten mit Office-Alternativen: LanguageTool in LibreOffice einrichten

Von Heise — 04. Februar 2026 um 00:00

Verbessern Sie die Textprüfung von LibreOffice mit LanguageTool als Online-Dienst oder lokale Installation.

In allen Modulen von LibreOffice steht eine ordentliche Rechtschreibprüfung zur Verfügung. Sie nutzt die freie Hunspell-Bibliothek, die unter anderem auch in Firefox und Thunderbird arbeitet. Eine deutlich leistungsfähigere Alternative, die zudem auch Grammatik, Interpunktion und Schreibstil kontrolliert, ist das ursprünglich als kostenloses Open-Source-Projekt gestartete LanguageTool. Mittlerweile wird es von einem kommerziellen deutschen Anbieter auch als Webdienst angeboten, und zwar in einer kostenlosen und einer kostenpflichtigen KI-unterstützten Version.

LanguageTool nutzen Sie entweder über eine Webseite, in die Sie die zu prüfenden Texte per Zwischenablage einfügen, oder über ein Browser-Add-in. Letzteres ist webseitenübergreifend überall da aktiv, wo Sie Texte eingeben. In LibreOffice können Sie LanguageTool zudem parallel oder alternativ zum integrierten Spellchecker einrichten. Wenn Sie dem Onlinedienst keine Inhalte schicken möchten, haben Sie zudem die Möglichkeit, einen LanguageTool-Server lokal zu installieren. Somit verlassen Ihre zu prüfenden Texte nie den eigenen Rechner. Dieser Artikel zeigt alle Möglichkeiten, LanguageTool in LibreOffice zu integrieren.

Die Onlineversion des LanguageTools gibt es in zwei Varianten. Die kostenlose reicht für Standardprüfungen auf Rechtschreib‑, Satzzeichen‑ und Grammatikfehler. Nicht zahlende Nutzer der Onlineversion können Texte nur bis zu einer maximalen Länge von 2000 Zeichen prüfen lassen. Die als Abo buchbare Premium‑Version findet deutlich mehr Fehler, bewertet den Schreibstil und bietet KI‑gestützte Verbesserungsvorschläge. Die Abo-Version kostet bei jährlicher Zahlweise rund fünf Euro pro Monat. Kürzere Abrechnungszeiträume sind signifikant teurer.


URL dieses Artikels:
https://www.heise.de/-11121137

Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Besser-texten-mit-Office-Alternativen-LanguageTool-in-LibreOffice-einrichten-11121137.html
[2] https://www.heise.de/ratgeber/Quick-Look-aufmotzen-MIt-diesen-Tools-wird-die-macOS-Uebersicht-besser-11146357.html
[3] https://www.heise.de/ratgeber/PDF-Formulare-im-Griff-Daten-auslesen-und-verarbeiten-11080661.html
[4] https://www.heise.de/ratgeber/Textprojekte-gemeinsam-stemmen-mit-Git-So-gehen-Dokumentationen-und-mehr-11138148.html
[5] https://www.heise.de/ratgeber/Quick-Look-ausreizen-So-nutzen-Sie-Apples-Finder-Uebersicht-optimal-11130182.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Gene entscheiden mehr über Langlebigkeit als gedacht

Von Bernardo Cantz — 03. Februar 2026 um 21:05

Bernardo Cantz

DNA-Doppelhelix auf blauem Hintergrund

(Bild: Billion Photos / Shutterstock.com)

Gene bestimmen doppelt so stark über unser Lebensalter wie bisher gedacht – ein Rechenfehler verschleierte das jahrzehntelang.

Welchen Anteil haben unsere Gene daran, ob wir 70 oder 90 Jahre alt [1] werden? Bislang gingen Forscher davon aus, dass dieser Einfluss relativ gering ausfällt. Studien mit Zwillingen kamen auf Werte zwischen 20 und 25 Prozent, einige neuere Untersuchungen sogar nur auf sechs Prozent.

Doch Wissenschaftler des Weizmann Institute of Science in Israel präsentieren nun eine grundlegend andere Einschätzung: Nach ihrer Analyse [2] liegt der genetische Beitrag bei etwa 50 bis 55 Prozent – allerdings nur dann, wenn man bestimmte äußere Einflüsse auf die Sterblichkeit rechnerisch entfernt.

Die Forscher werteten Informationen aus drei umfangreichen skandinavischen Zwillingsregistern aus. Dabei bezogen sie erstmals auch Geschwisterpaare ein, die nach der Geburt in verschiedenen Familien aufwuchsen.

Ben Shenhar, der die Untersuchung leitete, erklärt die Diskrepanz [3] zu früheren Arbeiten so: Man habe lange Zeit angenommen, dass hauptsächlich Umwelt und Lebensweise über die Lebensspanne entscheiden.

Zwei grundverschiedene Wege zum Tod

Die zentrale Erkenntnis der Studie beruht auf einer klaren Trennung: Menschen sterben entweder an inneren oder an äußeren Ursachen.

Zu den inneren zählen Prozesse wie das biologische Altern [4], erbliche Veranlagungen für bestimmte Erkrankungen oder spontane genetische Veränderungen im Laufe des Lebens.

Äußere Ursachen umfassen dagegen Verkehrsunfälle, Gewalteinwirkung, Infektionskrankheiten oder Umweltkatastrophen.

In den Geburtsjahrgängen des späten 19. und beginnenden 20. Jahrhunderts, aus denen viele historische Daten stammen, spielten solche äußeren Faktoren eine deutlich größere Rolle als heute.

Gleichzeitig dokumentierten Standesämter und Behörden die genauen Todesumstände oft nur lückenhaft.

Dadurch vermischten sich beide Kategorien in den Aufzeichnungen – mit dem Ergebnis, dass der genetische Anteil rechnerisch kleiner erschien, als er tatsächlich ist.

Computermodelle schaffen Klarheit

Um dieses methodische Problem zu lösen, entwickelte das Team einen neuartigen Rechenansatz.

Mithilfe mathematischer Sterblichkeitsmodelle simulierten die Wissenschaftler [5] fiktive Zwillingspaare und trennten dabei systematisch die Todesfälle durch natürliche Alterungsprozesse von jenen durch äußere Einflüsse. Die Modelle nutzen die Tatsache, dass mit steigendem Lebensalter innere Faktoren immer dominanter werden.

Zwillingsdaten eignen sich besonders gut für genetische Fragen, weil sie eine natürliche Kontrolle bieten: Eineiige Geschwister teilen ihr komplettes Erbgut, zweieiige nur die Hälfte.

Wachsen sie zudem getrennt auf, lassen sich genetische Effekte von späteren Einflüssen wie Ernährungsgewohnheiten [6], Berufswahl oder Wohnort sauberer unterscheiden.

Die Rechenergebnisse des Teams deckten sich gut mit beobachtbaren Mustern in realen Bevölkerungsdaten.

Ähnlich wie bei der Körpergröße

Die korrigierte Schätzung von rund 50 Prozent rückt die Vererbbarkeit der Lebensdauer in die Nähe anderer körperlicher Eigenschaften.

Auch bei der Körpergröße etwa erklären Gene ungefähr die Hälfte der individuellen Unterschiede. Zudem passt der Wert besser zu Beobachtungen aus der Tierforschung, wo ähnliche Größenordnungen gemessen werden.

Ein Detail aus den Analysen verdeutlicht, wie unterschiedlich stark Erbfaktoren bei verschiedenen Todesursachen wirken: Das Risiko, bis zum 80. Lebensjahr an Demenz [7] zu sterben, hängt zu etwa 70 Prozent von genetischen Faktoren ab – deutlich mehr als bei Herz-Kreislauf-Erkrankungen [8] oder Krebsleiden [9].

Solche Unterschiede zeigen, dass pauschale Aussagen über "die Gene" zu kurz greifen.

Kein Freifahrtschein und kein Schicksal

Was bedeuten diese Zahlen für den Einzelnen? Zunächst einmal: Wenn die Hälfte der Unterschiede in der Lebensdauer auf Gene zurückgeht, bleibt die andere Hälfte für alles andere übrig.

Lebensstil, medizinische Versorgung [10], soziale Umstände [11] und Zufälle spielen weiterhin eine gewichtige Rolle. Außerdem zeigt die Studie ja gerade, wie stark äußere Todesursachen die Statistiken beeinflussen – diese Risiken existieren real und lassen sich durch Verhalten und Gesellschaftspolitik beeinflussen.

Die Forschungsergebnisse liefern also keine deterministische Botschaft, sondern eine genauere Landkarte: Sie zeigen, welche Faktoren in welchem Ausmaß wirken, ohne dass daraus Unabänderlichkeit folgt.

Neue Impulse für die Altersforschung

Für die Wissenschaft ergeben sich konkrete Folgen. Jahrelang hemmte die Annahme niedriger Erblichkeit die Suche nach spezifischen Genvarianten, die mit langem Leben zusammenhängen.

Shenhar formuliert es so: Eine hohe Vererbbarkeit schaffe einen Anreiz, gezielt nach solchen genetischen Varianten zu fahnden, um Alterungsprozesse besser zu verstehen und möglicherweise medizinisch beeinflussen zu können.

Welche Gene konkret den größten Einfluss ausüben und über welche biologischen Mechanismen sie wirken – diese Fragen bleiben vorerst offen. Die aktuelle Arbeit liefert primär eine methodische Korrektur und eine veränderte Ausgangslage für künftige Untersuchungen.

Überprüfung mit modernen Daten geplant

Die Autoren selbst betonen, dass ihre Schlussfolgerungen noch mit zeitgenössischen Datensätzen abgeglichen werden müssen.

Moderne Sterberegister erfassen Todesursachen wesentlich präziser als historische Quellen, sodass sich die Trennung zwischen inneren und äußeren Faktoren direkter vornehmen lässt.

Sollten sich die Ergebnisse bestätigen, würde das nicht nur das wissenschaftliche Verständnis von Alterungsprozessen verändern, sondern könnte auch neue Ansatzpunkte für präventive Gesundheitsstrategien [12] eröffnen.

Die Studie zeigt jedenfalls, dass die genetische Komponente der Langlebigkeit [13] bisher systematisch unterschätzt wurde.


URL dieses Artikels:
https://www.heise.de/-11164312

Links in diesem Artikel:
[1] https://www.heise.de/tp/article/Werden-wir-ueberhaupt-noch-aelter-Die-ueberraschende-Wahrheit-zur-Lebenserwartung-10625798.html
[2] https://www.science.org/doi/10.1126/science.adz1187
[3] https://wis-wander.weizmann.ac.il/life-sciences/rethinking-longevity-genes-matter-more-we-thought
[4] https://www.heise.de/tp/article/Alterung-im-Zeitraffer-Diese-zwei-Lebensphasen-sind-entscheidend-10453288.html
[5] https://www.sciencealert.com/we-were-wrong-about-how-much-your-genes-shape-your-lifespan
[6] https://www.heise.de/tp/article/Die-Wahrheit-ueber-entzuendungshemmende-Ernaehrung-10670624.html
[7] https://www.heise.de/tp/article/Studie-klaert-auf-Viele-Risikofaktoren-fuer-Demenz-koennen-Sie-selbst-beeinflussen-10249176.html
[8] https://www.heise.de/tp/article/4-000-Schritte-taeglich-so-einfach-schuetzen-Sie-Ihr-Herz-10075443.html
[9] https://www.heise.de/tp/article/Diagnose-Krebs-Der-Weg-durch-die-ersten-wichtigen-Entscheidungen-11104367.html
[10] https://www.heise.de/tp/article/Arzttermin-gegen-Bargeld-Die-neue-Normalitaet-im-deutschen-Gesundheitssystem-10518313.html
[11] https://www.heise.de/tp/article/Schattenseiten-des-Influencer-Booms-Erfolg-wird-fuer-viele-zur-Herausforderung-9769896.html
[12] https://www.heise.de/tp/article/Die-30-Minuten-Regel-fuer-bessere-Fettverbrennung-10773666.html
[13] https://www.heise.de/tp/article/Blutuntersuchungen-geben-Einblicke-in-extreme-Langlebigkeit-9784079.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Starlink finanziert Grok: Elon Musks Masterplan nimmt Form an

Von Matthias Lindner — 03. Februar 2026 um 16:00

Matthias Lindner

Das Satellitensystem Starlink soll künftig die KI-Entwicklung bei xAI mitfinanzieren.

(Bild: miss.cabul / Shutterstock.com)

SpaceX übernimmt xAI per Aktientausch und plant Rechenzentren im Orbit – finanziert durch die Milliarden-Einnahmen von Starlink.

Elon Musk schließt zwei seiner wichtigsten Unternehmen zusammen. Gemeint sind SpaceX und xAI, wobei SpaceX am Montag erklärte, das KI-Startup übernehmen zu wollen. Das neue Unternehmen wird nach Schätzungen von Insidern wohl einen Wert von 1,25 Billionen US-Dollar haben, wie Bloomberg und das Wall Street Journal (WSJ) übereinstimmend berichten.

Der Zusammenschluss erfolgt demnach durch einen reinen Aktientausch. Wer xAI-Anteile hält, erhält dafür SpaceX-Papiere im Verhältnis von etwa eins zu sieben. Pro SpaceX-Anteil werden rund 527 Dollar veranschlagt.

Diese Zahlen gingen aus internen Schreiben an die Belegschaft hervor, während die offizielle Verlautbarung keine Finanzdaten nannte, heißt es im [1] WSJ.

Milliardenschwerer Geldbedarf für KI-Entwicklung

Der zentrale Grund für die Fusion ist der immense Kapitalbedarf von xAI. Wie es bei [2] Bloomberg heißt, verbrennt das Unternehmen pro Monat rund eine Milliarde US-Dollar mit der Entwicklung von Sprachmodellen und des Chatbots Grok.

Mit diesen Anwendungen kämpft xAI um Marktanteile mit anderen etablierten Konkurrenten wie OpenAI und Anthropic – die ebenfalls erhebliche Kapitalmengen verbrennen.

SpaceX verfügt über die nötigen Geldquellen. Das Satellitennetz Starlink mit über 9.000 Einheiten im Orbit wirft inzwischen mehr ab als das klassische Raketengeschäft. Diese Erlöse könnten künftig die teuren KI-Projekte mitfinanzieren.

Zugleich beherrscht SpaceX den Markt für kommerzielle Raketenstarts nahezu vollständig.

Fachleute von Bloomberg Intelligence warnen allerdings, dass die hohen Ausgaben von xAI die Bewertung des Gesamtkonzerns belasten könnten. Als positives Signal werten sie hingegen einen frischen Auftrag vom Pentagon über 200 Millionen Dollar.

Vision von Rechenzentren im Weltraum

Musk rechtfertigt den Schritt mit seiner Idee eines umfassenden Technologieverbunds. Raketen, Satelliten, KI und Kommunikationsdienste sollen zu einem System verschmelzen. In seiner Mitteilung spricht er vom "ehrgeizigsten, vertikal integrierten Innovationsmotor auf (und außerhalb der) Erde".

Der Unternehmer geht davon aus, dass Rechenleistung für KI mittelfristig am günstigsten im All zu haben sein wird. Sonnenenergie direkt aus dem Orbit soll die Stromversorgung sichern. So ließen sich KI-Modelle schneller und umfangreicher trainieren als auf der Erde, argumentiert er.

Konkret beantragte SpaceX Ende vergangener Woche bei der zuständigen Behörde die Erlaubnis für bis zu eine Million zusätzliche Satelliten, berichtet [3] Bloomberg. Sie sollen ein orbitales Netzwerk für KI-Berechnungen bilden.

Experten halten das Vorhaben allerdings für technisch und wirtschaftlich äußerst anspruchsvoll.

Kooperation bestand bereits vor der Fusion

Beide Firmen hatten schon vorher zusammengearbeitet. XAI zählte SpaceX zu seinen ersten Kunden, als es vor etwa zwei Jahren startete. Der Chatbot kam unter anderem im Kundendienst des Starlink-Dienstes zum Einsatz.

Die Verschmelzung reiht sich ein in Musks Strategie, seine verschiedenen Geschäfte zu verknüpfen. Vergangenes Jahr hatte er xAI bereits mit der Plattform X vereint, die er zuvor als Twitter gekauft hatte.

SpaceX steckte bereits zwei Milliarden in xAI. Tesla sagte kürzlich zu, denselben Betrag zu investieren. Die Verflechtungen nehmen also stetig zu.

Börsengang trotz Fusion geplant

SpaceX hält laut Insidern an seinem Plan fest, noch dieses Jahr an die Börse zu gehen. Bis zu 50 Milliarden Dollar könnten dabei eingesammelt werden – ein Rekordwert. In den vergangenen Tagen diskutierten Beteiligte intern über Chancen und Risiken der Fusion im Hinblick auf den anstehenden Börsengang.

Analysten der Bank Wedbush spekulieren im [4] WSJ bereits über einen nächsten Schritt. Sie halten es für denkbar, dass Musk binnen eineinhalb Jahren auch Tesla mit SpaceX zusammenführt.

Zusammengenommen ergäbe sich ein Konzern von etwa 2,8 Billionen US-Dollar Wert. Die Experten sehen darin Musks Ziel, möglichst viel vom KI-Ökosystem unter eigener Kontrolle zu bündeln.

Unklarer Nutzen und technische Risiken

Wie genau SpaceX vom Zusammenschluss profitieren soll, bleibt vorerst offen. Das Raketengeschäft läuft bereits außerordentlich gut, sodass der direkte Mehrwert der KI-Produkte schwer erkennbar ist.

Zudem muss SpaceX bei seiner neuen Großrakete Starship noch Fortschritte vorweisen. Seit 2023 laufen Testflüge, bei denen es wiederholt zu Problemen kam. Bislang brachte das System keine echte Nutzlast in den Orbit.

Ausgerechnet am Tag der Fusionsmeldung trat bei einer Falcon-9-Mission ein technisches Problem auf, nachdem die Satelliten bereits ausgesetzt waren. Die Teams prüfen nun die Ursache, bevor weitere Flüge stattfinden.


URL dieses Artikels:
https://www.heise.de/-11164098

Links in diesem Artikel:
[1] https://www.wsj.com/tech/elon-musk-says-spacex-has-acquired-xai-038a4072
[2] https://www.bloomberg.com/news/articles/2026-02-02/spacex-is-in-advanced-talks-to-combine-with-xai
[3] https://www.bloomberg.com/news/articles/2026-02-02/elon-musk-s-spacex-said-to-combine-with-xai-ahead-of-mega-ipo
[4] https://www.wsj.com/livecoverage/stock-market-today-dow-sp-500-nasdaq-02-03-2026/card/will-elon-musk-merge-tesla-with-spacex-after-xai-deal--gDHw1mYlBsrh6a4HOObL

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Telepolis

Macrons letzter Akt: Wie viel Macht bleibt Frankreichs Präsident?

Von Thomas Pany — 03. Februar 2026 um 14:30

Thomas Pany

Porträt Macron im Profil, etwas verbissen

Bild: Shutterstock.com

Der neue Haushalt markiert das Ende seiner Reformagenda. Innenpolitisch blockiert, außenpolitisch exponiert – die Unterstützung der Ukraine stößt an Grenzen.

Die blaue Pilotenbrille, mit der Emmanuel Macron zuletzt bei öffentlichen Auftritten auffiel und für Rätselraten sorgte, wirkt wie ein Symbol für die letzte Phase seiner Präsidentschaft. Sie steht weniger für Aufbruch als für Inszenierung. Wo die politische Gestaltungsmacht schwindet, gewinnt das Bild an Bedeutung.

Im April 2027 wird in Frankreich ein neuer Präsident gewählt. Macron darf nach zwei Amtszeiten nicht mehr kandidieren. Was bleibt, ist die Frage nach dem Vermächtnis. Französische Präsidenten wissen um die Macht der Geschichtsbücher – und um die Fallhöhe ihres eigenen Anspruchs. In der geschichtsbewussten Tradition der Fünften Republik entscheidet sich politisches Gewicht nicht nur im Amt, sondern im Rückblick.

Doch innenpolitisch ist der Spielraum des Präsidenten eng geworden. Seit dem Verlust der absoluten Mehrheit 2022 und erst recht nach den Neuwahlen 2024 wirkt Macron wie ein Präsident auf Abruf. Der nun verabschiedete Haushalt ist weniger Ausdruck politischer Stärke als ein Beleg für diesen Machtverlust.

Innenpolitisch hat er kaum noch Gestaltungsmacht. Schon im Sommer 2022 wurde er als "lame duck [1]" bezeichnet. Aktuell fällt die Bezeichnung bei Politico [2] erneut.

Der verabschiedete Haushalt ist weniger ein politischer Erfolg als ein Beleg für diesen Machtverlust.

Ersichtlich ist daran, dass sich dort keines der wichtigen innenpolitischen Vorhaben von Macron wiederfindet. Exemplarisch dafür: Der große Streitpunkt der letzten Jahre, der gekippt wurde, ist die Rentenreform – ein von Macron mit großem Einsatz betriebenes Projekt.

Der Macronismus ist beerdigt: Einziger Überlebender Emmanuel Macron

Das, was ihm in den letzten Monaten seiner Amtszeit noch bleibt, ist das internationale Podium. Innenpolitisch ist er eingehegt, außenpolitisch exponiert.

Dort wird er die gaullistische Tradition fortführen, die sämtliche Präsidenten der 5ten Republik weiterführen: Außenpolitische Leitlinien vorgeben. Wie er schon öfters gezeigt hat, kann er sich da als Stimme gegen die USA und für mehr europäische Souveränität profilieren und wichtige Impulse geben. Inwieweit das Früchte trägt, müssen seine Verbündeten in Europa unter Beweis stellen.

Das neue Budget gibt ihm jedenfalls nicht den Spielraum, um viel Geld auf den Tisch zu legen, um die Ukraine zu unterstützen. Wie wenig er real in den neuen geopolitischen Machtkämpfen zu bewirken vermag, wie eng die Grenzen gezogen sind, zeigen seine Vorschläge für Grönland [3], die keine zählbaren Effekte hatten – außer, dass Macron wichtig für die Bündnispolitik in Europa bleibt. Das immerhin ist kein unwichtiger Punkt.

Die Zerreißprobe – Wie Frankreichs Regierung den Haushalt durchsetzte

Das Budget kam erst nach monatelangem politischem Ringen zustande. Die Wurzeln der Krise liegen in der Parlamentswahl 2024, die Präsident Emmanuel Macron ohne absolute Mehrheit zurückließ.

Seit den von Macron ausgerufenen Neuwahlen im Juni 2024 ist das Land politisch weitgehend blockiert. Eine Linksallianz gewann die meisten Sitze, blieb aber weit von einer Mehrheit entfernt. Das rechte Rassemblement National erhielt die meisten Stimmen und wurde zu einer Kraft, mit der zu rechnen ist. Macrons zentristische Gruppierung verlor Sitze.

Lecornu musste auf den Verfassungsartikel 49.3 zurückgreifen, um das Budget ohne finale Abstimmung im Parlament durchzusetzen. Dabei hatte der Premier dem Parlament ein halbes Jahr zuvor versprochen, dieses als undemokratisch kritisierte Instrument niemals zu nutzen [4].

Die Verabschiedung war nur möglich, weil die Sozialistische Partei die Regierung duldete. Als Gegenleistung machte Lecornu den Sozialisten Konzessionen [5]: mehr Beamtenstellen, mehr Sozialwohnungen und günstigere Uni-Kantinen für einen Euro.

Vor allem aber setzte der Premier Macrons zentrale Rentenreform aus, die das Renteneintrittsalter von 62 auf 64 Jahre anheben sollte. Der sozialistische Abgeordnete Hervé Saulignac [6] sagte, seine Partei habe "ihre Pflicht erfüllt" und "das Schlimmste verhindert".

Die ursprünglichen Ziele für den Haushalt wurden verfehlt. Er wurde mit rund 40 Tagen Verspätung verabschiedet und das Defizitziel von 4,7 Prozent auf fünf Prozent des Bruttoinlandsprodukts aufgeweicht.

Der politische Fokus liegt nun auf der Präsidentschaftswahl 2027. Gabriel Attal, Macrons ehemaliger Premierminister, bestätigte gegenüber französischen Medien, das Budget markiere "das Ende" von Macrons zweiter Amtszeit.

Die Instabilität der Regierung zeigt sich am hohen Verschleiß an Regierungschefs. Lecornu ist der vierte Premierminister in zwei Jahren. Andere Quellen sprechen sogar von fünf Premierministern in zwei Jahren.

Macron selbst scheint die Sinnlosigkeit der Übung nach 18 Monaten parlamentarischer Blockade einzugestehen. Seine Neujahrsansprache am 31. Dezember hatte nicht den gleichen Schwung wie früher. Nur 8,9 Millionen Menschen schalteten ein, 800.000 weniger als im Vorjahr und 1,6 Millionen weniger als bei seiner ersten Neujahrsansprache 2017.

Ungelöste Probleme

Der verabschiedete Haushalt löst die grundlegenden Finanzprobleme nicht. Die Staatsschulden von 3.400 Milliarden Euro werden weiter steigen, laut Fachleuten von 117 auf 118 Prozent des Bruttoinlandsprodukts, so die Frankfurter Rundschau [7]. Kein Wunder, dass es nun in Kommentaren heißt, Frankreich sei nun ein Land sei, "in dem nichts mehr vorankommt – außer die Staatsschuld".

Der Haushalt beruht vor allem auf Steuererhöhungen für einige Großunternehmen, die rund 7,3 Milliarden Euro einbringen sollen. Die Militärausgaben werden um 6,5 Milliarden Euro erhöht, wie die Deutsche Welle berichtete. Macron hat versprochen, die Verteidigungsausgaben zu erhöhen, um einer wachsenden Zahl von Bedrohungen zu begegnen.

Der nächste Konflikt droht bereits. Die Verhandlungen für den Haushalt 2027 dürften kurz vor der Präsidentschaftswahl noch schwieriger werden, berichtet Le Monde [8]. Frankreich müsste einen Abbau des Defizits erreichen, der doppelt so groß ist wie 2026.

Der Ausnahmezustand als Normalfall

Das französische Finanzministerium hat bereits mit der Vorbereitung des Haushalts 2027 begonnen. Technische Konferenzen mit den verschiedenen Ministerien sind zwischen dem 9. Februar und dem 6. März geplant.

Viele Ökonomen halten es für unmöglich, das offizielle Ziel einer Defizitreduzierung im Jahr 2027 zu erreichen. Ein weiteres schwarzes Szenario bleibt in allen Köpfen: ein Parlament, das nicht in der Lage ist, rechtzeitig ein Finanzgesetz zu verabschieden, zum dritten Mal in Folge.


URL dieses Artikels:
https://www.heise.de/-11163880

Links in diesem Artikel:
[1] https://www.faz.net/aktuell/wirtschaft/verlust-der-parlamentsmehrheit-macron-wird-zur-lame-duck-18115657.html
[2] https://www.politico.eu/article/macron-enters-his-lame-duck-era-election-campaigns/
[3] https://de.euronews.com/2026/01/28/gronland-macron-frederiksen-nielsen
[4] https://www.fr.de/politik/frankreich-meistert-die-regierungskrise-aber-nicht-seine-staatsschulden-94151088.html
[5] https://www.derstandard.de/story/3000000306787/frankreich-meistert-regierungskrise-aber-nicht-die-staatsschulden
[6] https://www.theguardian.com/world/2026/feb/02/france-passes-budget-after-wrangling-no-confidence-motions-sebastien-lecornu
[7] https://www.politico.eu/article/macron-enters-his-lame-duck-era-election-campaigns/
[8] https://www.lemonde.fr/politique/article/2026/02/03/finances-publiques-apres-les-debats-interminables-sur-le-budget-2026-le-suivant-s-annonce-encore-plus-complique_6665158_823448.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

Xcode 26.3: KI-Agenten wie Claude und Codex direkt in der Entwicklungsumgebung

Von Heise — 03. Februar 2026 um 19:00
App-Entwickler bei der Arbeit

(Bild: Konstantin Savusia / Shutterstock.com)

Apple erweitert Xcode 26.3 mit KI-Entwicklungsmöglichkeiten. Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI können direkt genutzt werden.

Apple erweitert mit Version 26.3 von Xcode deutlich die Möglichkeiten, mithilfe von Künstlicher Intelligenz zu entwickeln. In einem am Dienstagabend veröffentlichten Release Candidate können in der Entwicklungsumgebung Coding Agents wie Claude Agent von Anthropic und Codex von OpenAI direkt in Xcode genutzt werden. Die neuen Funktionen knüpfen an die Integration von externen Large Language Models (LLMs) in Xcode 26 an, die es immerhin auch schon ermöglichte, Quelltexte automatisch ohne mühsames Copy & Paste an beliebte Chatbots wie ChatGPT und Claude weiterzugeben.

Die bisherige Integration hat aber ihre Grenzen: Modelle können nicht den vollen Kontext einer Anfrage sehen und sie können in vielem auch nicht selbst aktiv werden und müssen den Entwickler darum bitten bzw. ihn instruieren. Für Entwickler war die Coding Intelligence [1] in ihrem jetzigen Ausbaugrad gleichwohl schon eine deutliche Hilfe. Nachdem Apple im Jahr 2024 erst Pläne für ein eigenes LLM in Xcode verfolgt hatte, die jedoch nicht veröffentlicht wurden, stieß der iPhone-Hersteller mit dem neuen Ansatz, externe Modelle zu integrieren, auf der Entwicklerkonferenz WWDC im Juni 2025 auf positive Resonanz [2].

MCP-Unterstützung und viele neue Möglichkeiten

Die Erweiterung in Xcode 26.3 schafft hier ganz neue Möglichkeiten. Apple hat seine Software dahingehend erweitert, dass jeder Agent, der das quelloffene Model Context Protocol (MCP) unterstützt, künftig mit Xcode arbeiten kann. Dadurch ist es KI möglich, auch die Projektstruktur zu untersuchen, Projekteinstellungen zu verändern, testweise einen Build zu erzeugen und automatisierte Tests vorzunehmen. Durch Auswertung von Build Logs kann die KI ihren Code automatisch weiter bauen, bis das Projekt fehlerfrei kompiliert. Auch auf die aktuelle Dokumentation Apples können die Agenten zugreifen, sodass sie besser als bislang auch neue APIs unterstützen sollen.

Die KI-Agenten können auch Bildschirmfotos von Xcode anfertigen, um das zu sehen, was der Entwickler gerade sehen kann. Dies alles soll überdies darauf optimiert sein, den Gebrauch von Token – und damit die Kosten – zu reduzieren.

Installation mit einem Klick

Die Installation ist einfach: Über die Einstellungen können die Agenten mit einem Klick installiert werden. Dort können derzeit schon ChatGPT, Claude oder andere Modelle aktiviert werden. Entwickler müssen also nicht wie zum Beispiel bei Claude Code das Terminal und die Kommandozeile bemühen. Vorgenommene Veränderungen werden in gewohnter Weise mit einer Markierung im Quelltext sichtbar gemacht und sollen sich leicht zurücknehmen lassen.

Xcode 26.3 ist zunächst als Release Candidate für alle Mitglieder des Apple Developer Program verfügbar. Die Veröffentlichung im App Store soll in Kürze erfolgen.


URL dieses Artikels:
https://www.heise.de/-11164243

Links in diesem Artikel:
[1] https://www.heise.de/news/Xcode-bekommt-KI-Coding-Funktionen-9757272.html
[2] https://www.heise.de/news/Analyse-zur-WWDC-2025-Keynote-Apple-will-wieder-gut-aussehen-10437944.html
[3] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

Effizientes C++: Die versteckten Kosten des Rückgabedatentyps auto

Von Heise — 03. Februar 2026 um 15:40
Schraubenschlüssel mit zwei Zahnrädern

(Bild: Franziska Panter)

Wer die Dauer eines Compiler-Durchlaufs optimieren möchte, muss auf viele Details achten, darunter das Sprachelement auto.

Im heutigen Beitrag möchte ich mich mit dem Schreiben von effizientem C++-Code befassen. Dieses Thema lässt sich nicht in einem einzigen Beitrag behandeln. Zum Start möchte ich mich auf die Steuerung der Zeit konzentrieren, die der Compiler benötigt, und dabei ein Element der Sprache herausgreifen: auto.

Ich halte die Typinferenz auto für eine großartige Erweiterung der Sprache. Mit der C++14-Version von auto als Rückgabedatentyp ist es ein guter Weg, flexiblere und akkuratere Funktionen zu schreiben. Allerdings geht das zu Kosten eines längeren Kompiliervorgangs.

Aber beginnen wir ohne auto als Rückgabedatentyp. Hier ist eine Dummy-Funktion, die nichts Interessantes macht:

int Fun(bool b, int val)
{
  if(b) {
    return val * 2;
  } else {
    return val / 2 * 3;
  }
}

Ich brauchte für das Beispiel lediglich eine Funktion mit einem Rumpf, der für den Compiler nicht völlig trivial war. Da es im heutigen Beitrag um effizientes C++ geht, möchte ich über die Zeit sprechen, die zum Kompilieren dieser wenigen Zeilen Code erforderlich ist. Dabei geht es nicht unbedingt um die absoluten Zahlen, da diese auf verschiedenen Rechnern unterschiedlich sein werden.

Wie kannst du deinen Compiler überhaupt messen? Eine Möglichkeit ist der Linux-Befehl time. Dieser liefert jedoch nur wenige Informationen, die nicht dabei helfen, deine Build-Zeiten zu verbessern. Wenn dir ein Build langsam erscheint, benötigst du kein Tool, das dir sagt, dass du recht hast, sondern ein Tool, das dir zeigt, wo eine mögliche Beschleunigung möglich ist.

Wenn time nicht das richtige Tool ist, was dann? Ganz einfach: dein Compiler! Zumindest Clang. Er verfügt über die hilfreiche Befehlszeilenoption -ftime-trace. Damit kann Clang für jede Objektdatei eine .json-Datei mit zahlreichen Daten erstellen. Du kannst die Informationen beispielsweise mit Chrome und seinem Tracing Viewer untersuchen. Öffne einfach einen Tab und gib chrome://tracing ein. Lade dann die JSON-Datei. Für den obigen Code auf meinem Rechner mit Clang 19 sieht die Visualisierung so aus:

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang
Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Ein Wort zu meiner Vorgehensweise: Ich gehe davon aus, dass die Funktion Fun in einer Header-Datei steht und in der aktuellen Übersetzungseinheit nicht verwendet wird. Einfachheitshalber habe ich keinen anderen Code eingefügt oder verwendet. Ich habe eine .cpp-Datei mit dem oben gezeigten Code wie folgt compiliert:

clang++ -c a.cpp -ftime-trace

Zurück zur Visualisierung, auch wenn sie etwas kompakt ist. Die obere Leiste mit der Aufschrift ExecuteCompiler benötigt 6,499 ms.

Verwendung von auto als Rückgabedatentyp

Hier ist eine modifizierte Version des vorherigen Codes. Die einzige Änderung, die ich vorgenommen habe, ist die auto statt int als Rückgabedatentyp.

auto Fun(bool b, int val)
{
  if(b) {
    return val * 2;
  } else {
    return val / 2 * 3;
  }
}

Wenn ich diesen Code messe, erhalte ich folgende Ergebnisse:

Screenshot von Chrome mit den Tracing-Ergebnissen von Clang
Screenshot von Chrome mit den Tracing-Ergebnissen von Clang

Dieses Mal benötigt ExecuteCompiler 8,114 ms. Das sind ungefähr 1,5 ms mehr. Ja, das stimmt, das ist nur ein einzelner Datenpunkt. Vielleicht haben wir es hier mit Jitter zu tun. Das kann sein. Vielleicht gibt es Aufrufe, bei denen die beiden Zahlen näher beieinander liegen, aber es ist unwahrscheinlich, dass sie jemals gleich werden. Ich bin mir hier sicher, weil im zweiten Trace ein zusätzlicher Schritt erscheint: ParseFunctionDefinition. Dieser Schritt ist nur vorhanden, wenn man auto als Rückgabedatentyp für die Funktion verwendet oder die Funktion tatsächlich aufruft. Aber ich gehe davon aus, dass Fun in einer Header-Datei deklariert ist.

Das zweite Codebeispiel benötigt wegen ParseFunctionDefinition länger zum Kompilieren. Mit auto von C++14 als Rückgabedatentyp muss der Compiler die Funktionsdefinition nachschlagen, wenn er die Deklaration analysiert. Ohne auto verschiebt der Compiler die Analyse des Funktionsrumpfs, bis er wirklich benutzt wird.

Zusammenfassung

Wenn du die Dauer des Kompiliervorgangs optimieren möchtest, solltest du auf Funktionen achten, die auto als Rückgabedatentyp in Header-Dateien verwenden.


URL dieses Artikels:
https://www.heise.de/-11157548

Links in diesem Artikel:
[1] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ heise developer neueste Meldungen ff.org

Real User Monitoring: Dynatrace lenkt den Observability-Fokus auf Anwender

Von Heise — 03. Februar 2026 um 14:21
Müder Mann vor einem Laptop

(Bild: fizkes/Shutterstock.com)

Dynatrace erweitert Observability um Nutzer-Fokus. RUM Experience bietet Tools zur Analyse von Interaktionen, Fehlern und Performance in Apps.

Mit der Observability-Plattform von Dynatrace lassen sich nahezu alle wichtigen Aspekte eines IT-Systems überwachen: Anwendungen, Plattform, Systemleistung, Infrastruktur und viele weitere. Doch eine bedeutende Komponente rund um das Verwenden von Applikationen und Diensten fehlte: die Anwenderinnen und Anwender. Im Rahmen seiner Perform-Konferenz kündigte das Unternehmen nun Dynatrace RUM Experience an – Real User Monitoring im Frontend, das die bisherige Classic-Variante ablöst. Erklärtes Ziel ist es, mit dem neuen Baustein die Brücke vom Überwachen der IT-Performance bis zu den Nutzerinteraktionen mit Web- und Mobile-Applikationen zu schlagen.

RUM Experience: Nutzerinteraktionen als Schlüssel zur Fehleranalyse

Was genau ist Dynatrace RUM Experience und warum ist diese Funktion nützlich? Die Erfahrungen, die Anwenderinnen und Anwender beim Nutzen von Single-Page-Applikationen (SPAs) und mobilen Anwendungen sammeln, können entscheidende Hinweise auf potenzielle Fehlfunktionen geben. Solche Fehler sind in der Regel das Ergebnis einer Reihe von Nutzerinteraktionen. Ohne den Kontext – was hat der Anwender wann geklickt? – ist deren Analyse häufig schwierig oder gar nicht möglich, sodass sich auch die Fehlfunktionen nicht beheben lassen. Noch komplizierter wird die Situation, wenn mehrere miteinander verlinkte Applikationen ins Spiel kommen.

RUM setzt den Fokus auf die Nutzerinteraktion als das fehlende Bindeglied zwischen Telemetriedaten im Frontend und Systeminformationen im Backend. Die Analyse der daraus gewonnenen Erkenntnisse liefert dann auch Antworten auf businessrelevante Fragen, etwa an welcher Stelle und warum ein potenzieller Kunde eine Verkaufsseite verlassen hat. War nur eine nicht intuitive Navigation der Grund oder das zu langsame Laden von Daten oder beides – oder gab es noch andere Ursachen?

Dashboard der Dynatrace RUM Experience
Dashboard der Dynatrace RUM Experience

Dashboard der neuen Dynatrace RUM Experience

(Bild: Dynatrace)

Drei Kernkomponenten für umfassendes Frontend-Monitoring

Die standardmäßige Oberfläche von RUM enthält drei vorgefertigte Elemente: Experience Vitals [2], Error Inspector [3] und Users & Sessions [4]. Erstere verknüpft Telemetriedaten vom Frontend mit Anfragen an das Backend. So kann festgestellt werden, wo Leistungsprobleme in der Infrastruktur die Schnittstelle zu den Nutzern unnötig verlangsamen. Dabei kommen Industriestandards wie Core Web Vitals [5] oder ANR [6] (Application Not Responding) zum Einsatz. Der Error Inspector führt eine erste Analyse aufgetretener Fehler durch. Danach gruppiert und priorisiert er diese. So können sich Administratoren und Entwickler auf solche Fehler konzentrieren, die am wichtigsten und kritischsten sind. Users & Sessions erlaubt das Nachvollziehen der tatsächlichen Nutzerinteraktionen. Wo hat sich der Anwender in der Menüstruktur verirrt? Wo hat das Laden von Daten zu lange gedauert und der Nutzer die Anwendung verlassen? Insbesondere der letzte Punkt ist für Webshopbetreiber von dringender Bedeutung. Im Gespräch mit heise developer ließen einige Dynatrace-Kunden durchblicken, dass manchmal allein die Farbänderung eines Banners schon einen Umsatzzuwachs von über zehn Prozent bewirken kann.

Die Datenverwaltung für RUM erfolgt in Grail (Data Lakehouse) und Smartscape (Dependency Graph) – ergänzt durch erweiterte Richtlinien zum Datenschutz. Das beginnt mit den bekannten Zugriffsregeln und Regeln zur Dauer der Datenaufbewahrung. Am anderen Ende steht das Generieren von Prüfberichten bezüglich der Einhaltung der Datenschutzrichtlinien.

Setup und technische Implementierung

Zum leichteren Start hat Dynatrace die ersten Schritte mit RUM für Web-Anwendungen und/oder Mobile-Applikationen dokumentiert [7]. Im Idealfall ist das Setup innerhalb weniger Minuten erledigt. Im Falle von Web-Anwendungen muss der Dynatrace OneAgent dort laufen und die Applikation instrumentieren können. Zu den unterstützten Webservern zählen unter anderem Apache, NGINX, IIS und Node.js. In anderen Fällen sind mehr manuelle Schritte zum Aufsetzen von RUM nötig, die entsprechend länger dauern. Im Mobile-Umfeld erstreckt sich die Unterstützung von Android und iOS bis hin zu plattformübergreifenden Anwendungen, die mit React Native, Flutter oder .NET MAUI programmiert sind. Da auch das neue RUM Experience auf der Inspektion von HTTP-Kopfzeilen und Cookies basiert, müssen für dessen Einsatz Firewalls entsprechend freigeschaltet sein – so wie bisher schon für RUM Classic.

Die neue Dynatrace RUM Experience lässt sich laut Ankündigung im Blog [8] ab sofort nutzen. Sämtliche Funktionen und Apps sind im Rahmen einer Dynatrace Platform Subscription auf SaaS-Tenants der Version 330 oder höher standardmäßig verfügbar.


URL dieses Artikels:
https://www.heise.de/-11163592

Links in diesem Artikel:
[1] https://www.mastering-obs.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_clc_observ.empfehlung-ho.link.link&LPID=34258
[2] https://www.dynatrace.com/hub/detail/experience-vitals/
[3] https://www.dynatrace.com/hub/detail/error-inspector/
[4] https://www.dynatrace.com/hub/detail/users-sessions/
[5] https://web.dev/articles/vitals
[6] https://developer.android.com/topic/performance/vitals/anr
[7] https://docs.dynatrace.com/docs/observe/digital-experience/new-rum-experience
[8] https://www.dynatrace.com/news/blog/unprecedented-insights-into-frontend-user-experience-with-dynatrace-real-user-monitoring/
[9] mailto:map@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

❌