FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

Java 26 führt HTTP/3 ein und verzichtet endgültig auf die Applet-API

Von Heise
Java-Kaffeebohnen

(Bild: Natalia Hanin / Shutterstock.com)

Das aktuelle OpenJDK 26 ist strategisch wichtig und bringt nicht nur spannende Neuerungen, sondern beseitigt auch Altlasten wie die veraltete Applet-API.

Im Herbst 2025 erschien mit dem OpenJDK 25 die aktuelle Version, für die viele Hersteller einen Long-Term-Support (LTS) anbieten. Viele Unternehmen nutzen solche Releases als Stabilitätsanker für Migrationen und langfristige Planung. Java 26 ist dagegen wieder ein reguläres Halbjahres-Release und damit ein Schritt in einer kontinuierlichen Evolution der Plattform: Sprache, Runtime und Standardbibliothek werden systematisch modernisiert, ohne die Stabilität und Abwärtskompatibilität zu gefährden, für die Java seit Jahrzehnten bekannt ist.

Ein kleines Release mit strategischer Bedeutung

Insgesamt enthält Java 26 zehn JEPs (JDK Enhancement Proposals). Ein Teil davon setzt bekannte Entwicklungen fort, etwa bei Pattern Matching, Structured Concurrency oder der Vector API. Andere Änderungen betreffen die Performance der JVM, neue Netzwerkprotokolle oder Verbesserungen im Security-Stack. Hinzu kommen einige Aufräumarbeiten im JDK, etwa die endgültige Entfernung der alten Applet-API.

Auch wenn Java 26 auf den ersten Blick unspektakulär wirkt, ist seine strategische Bedeutung nicht zu unterschätzen. Einige der Änderungen bereiten die Plattform auf größere Entwicklungen vor, die in den kommenden Jahren anstehen. Dazu gehören insbesondere Project Valhalla mit den Value Types, eine stärkere Integrität des Objektmodells unter dem Leitgedanken „Integrity by Default“ sowie die Optimierungen für moderne Hardware, KI- und Cloud-Workloads.

HTTP/3 Unterstützung im Java HTTP Client

Der in Java 11 eingeführte java.net.http.HttpClient hat sich in den vergangenen Jahren zum Standardwerkzeug für HTTP-Kommunikation in Java-Anwendungen entwickelt. Mit Java 26 unterstützt diese API nun auch HTTP/3 (JEP 517 [1]). HTTP/3 setzt nicht mehr auf TCP, sondern auf QUIC, einem UDP-basierten Transportprotokoll. Dadurch ergeben sich mehrere Vorteile gegenüber HTTP/1.1 und HTTP/2:

  • geringere Latenz beim Verbindungsaufbau,
  • bessere Performance bei Paketverlust,
  • kein Head-of-Line-Blocking zwischen parallelen Streams und
  • stabilere Verbindungen bei Netzwechsel, etwa bei mobilen Clients.

Gerade in Cloud-Umgebungen oder bei global verteilten Anwendungen kann HTTP/3 spürbare Vorteile bringen. Für Entwicklerinnen und Entwickler bleibt die Nutzung der API dagegen weitgehend unverändert. Die gewünschte HTTP-Version können sie einfach beim Erstellen des Clients angeben:

HttpClient client = HttpClient.newBuilder()
        .version(HttpClient.Version.HTTP_3)
        .build();

HttpRequest request = HttpRequest.newBuilder()
        .uri(URI.create("https://example.com/api"))
        .GET()
        .build();

HttpResponse<String> response =
        client.send(request, HttpResponse.BodyHandlers.ofString());

System.out.println(response.body());

Lazy Constants: Initialisierung von Konstanten erst bei Bedarf

Mit JEP 526 [2] bringt Java 26 eine weitere Iteration der sogenannten Lazy Constants. Das Feature war bereits in Java 25 unter dem Namen Stable Values enthalten und erscheint nun als zweite Preview mit einer überarbeiteten API. Die Idee dahinter ist einfach: Konstanten sollen erst dann berechnet werden, wenn die Anwendung sie benötigt. Bisher erzeugt die JVM final-Felder im Rahmen der Klasseninitialisierung. Das ist effizient, wenn die Anwendung die Werte verwendet, kostet aber Zeit beim Start. In der Praxis können aufwendig zu erzeugende Objekte enthalten sein, die eine Anwendung möglicherweise nie oder erst viel später benötigt. Darum ist es sinnvoll, sie auch erst später zu initialisieren. Ein typisches Beispiel sind vorbereitete reguläre Ausdrücke oder Lookup-Strukturen:

static final Map<String, Pattern> PATTERNS = Map.of(
        "email", Pattern.compile("..."),
        "phone", Pattern.compile("..."),
        "zip", Pattern.compile("...")
);

Beim Laden der Klasse werden hier alle Patterns sofort kompiliert – unabhängig davon, ob sie später verwendet werden oder nicht. Eine solche Initialisierung selbst lazy umzusetzen, ist schwierig. Sie muss Thread-sicher sein und darf gleichzeitig möglichst wenig Synchronisations-Overhead erzeugen. Ein klassischer Ansatz wäre das sogenannte Double-Checked Locking:

private volatile Logger logger;

Logger logger() {
    if (logger == null) {
        synchronized (this) {
            if (logger == null) {
                logger = Logger.create(OrderController.class);
            }
        }
    }
    return logger;
}

Solche Konstrukte sind nicht nur fehleranfällig, sondern vor allem schwer lesbar und führen schnell zu subtilen Nebenläufigkeitsproblemen. Lazy Constants lösen dieses Problem direkt auf Plattformebene:

private final LazyConstant<Logger> logger = LazyConstant.of(() -> Logger.create(OrderController.class));

void submitOrder(User user) {
    logger.get().info("order started");
}

Die JVM übernimmt die Thread-sichere Initialisierung beim ersten Zugriff, sodass Entwicklerinnen und Entwickler keine eigenen Synchronisationsmechanismen implementieren müssen. Die JVM hat zudem die Möglichkeit, Optimierungen vorzunehmen. Das kann zudem in späteren Java-Releases zu Performanceverbesserungen führen.

Die aktuelle Preview bringt eine im Vergleich zum ersten Entwurf deutlich vereinfachte API. Niedrigstufige Methoden wie orElseSet() oder trySet() sind nicht mehr enthalten. Stattdessen konzentriert sich die API nun auf Fabrikmethoden, die den Inhalt über eine Berechnungsfunktion erzeugen. Zusätzlich soll der von StableValue zu LazyConstant geänderte Name den Zweck klarer beschreiben: einen konstanten Wert, der erst bei Bedarf erzeugt wird. Gerade in Cloud- und Microservice-Architekturen kann das Vorteile bringen. Anwendungen starten schneller, unnötige Objektallokationen werden vermieden und der Speicherbedarf in der frühen Laufphase einer Anwendung sinkt.

JVM-Optimierungen für moderne Workloads

Neben neuen APIs enthält Java 26 mehrere Verbesserungen in der Laufzeitumgebung. Sie zielen vor allem auf zwei typische Anforderungen moderner Anwendungen ab: hoher Durchsatz bei paralleler Last und schnelleres Startverhalten in Cloudumgebungen.

Mehr Durchsatz im G1 Garbage Collector

Der Garbage Collector (GC) G1 ist seit vielen Jahren der Standard-GC der JVM. Seine Stärke liegt in relativ stabilen Pausenzeiten bei gleichzeitig gutem Durchsatz. In Systemen mit vielen CPU-Kernen stieß G1 jedoch bislang an interne Skalierungsgrenzen, weil bestimmte Operationen stark synchronisiert waren. Mit JEP 522 [3] reduziert Java 26 gezielt diese Synchronisationspunkte. Dadurch entsteht weniger Lock Contention im Garbage Collector, und die Parallelisierung lässt sich besser nutzen. Besonders profitieren davon Anwendungen mit vielen Threads und hoher Objektallokation – etwa hoch parallele Backend-Systeme oder datenintensive Batch-Workloads.

Ein weiterer Schritt in Richtung schnellerer Starts ist JEP 516 [4]. Dahinter verbirgt sich ein Mechanismus, der es erlaubt, bestimmte Objekte bereits im Voraus zu erzeugen und wiederzuverwenden. Typische Kandidaten dafür sind:

  • Lookup-Tabellen,
  • Konfigurationsstrukturen,
  • Metadatenobjekte und
  • häufig verwendete String- oder Datenstrukturen.

Statt diese Strukturen bei jedem Start neu aufzubauen, können sie vorbereitet und beim Start direkt wiederverwendet werden. Das reduziert die Initialisierungsarbeit und verkürzt die Warm-up-Phase einer Anwendung. Ein wichtiger Unterschied zu früheren Ansätzen ist, dass dieses Ahead-of-Time Object Caching nun unabhängig vom verwendeten Garbage Collector funktioniert. Dadurch lässt sich die Optimierung mit unterschiedlichen GC-Konfigurationen kombinieren. Gerade in containerisierten Umgebungen kann das relevant sein. Anwendungen starten schneller, Auto-Scaling reagiert effizienter und der Ressourcenbedarf während der Startphase sinkt.

PEM Encodings im JDK

Mit JEP 524 [5] verbessert Java 26 in der zweiten Preview den Umgang mit kryptografischen Schlüsseln und Zertifikaten. Das JDK erhält eine native Unterstützung für PEM-kodierte kryptografische Objekte.

PEM („Privacy-Enhanced Mail“) ist ein textbasiertes Format zur Darstellung von Zertifikaten und Schlüsseln, das in vielen Bereichen zum Einsatz kommt, etwa für X.509-Zertifikate, Public und Private Keys oder Certificate Signing Requests. Eine typische PEM-Datei sieht folgendermaßen aus:

-----BEGIN PUBLIC KEY-----
MFkwEwYHKoZIzj0CAQYIKoZIzj0DAQcDQgAEi/kRGOL7wCPTN4KJ2ppeSt5UYB6u
cPjjuKDtFTXbguOIFDdZ65O/8HTUqS/sVzRF+dg7H3/tkQ/36KdtuADbwQ==
-----END PUBLIC KEY-----

Obwohl dieses Format im TLS- und Cloud-Umfeld weitverbreitet ist, war die direkte Unterstützung im JDK bislang begrenzt. Entwickler und Entwicklerinnen mussten häufig auf Drittbibliotheken zurückgreifen oder eigene Parser implementieren. Die neue API übernimmt zentrale Aufgaben wie das Einlesen von PEM-Daten, das Entfernen der Header und Footer sowie das Base64-Decoding. Dadurch lassen sich Zertifikate und Schlüssel direkt mit Bordmitteln des JDK verarbeiten. Gerade in aktuellen Deployment-Szenarien tauchen PEM-Dateien häufig auf, etwa in Kubernetes-Secrets, TLS-Konfigurationen, ACME-/Let’s-Encrypt-Integrationen oder mTLS-Set-ups zwischen Services. Die native Unterstützung reduziert Boilerplate-Code und verringert die Abhängigkeit von externen Security-Bibliotheken.

Aufräumarbeiten im JDK

Zur Evolution einer Plattform gehört nicht nur das Hinzufügen neuer Funktionen, sondern auch das konsequente Entfernen überholter Technologien und das Korrigieren von Fehlverhalten. Java 26 enthält zwei Änderungen, die auf den ersten Blick unspektakulär wirken, aber eine klare strategische Richtung zeigen.

Das JEP 504 entfernt die Applet-API [6] endgültig aus dem JDK. Applets waren in den 1990er-Jahren ein zentrales Versprechen der Java-Plattform: Java-Code sollte direkt im Browser laufen und so interaktive Webanwendungen ermöglichen. Diese Zeit ist längst vorbei. Moderne Browser unterstützen keine NPAPI-Plug-ins mehr, Sicherheitsanforderungen sind deutlich gestiegen und Webanwendungen basieren heute auf völlig anderen Architekturen – etwa JavaScript-Frameworks, REST-APIs oder Single-Page-Applications. Die Applet-API ist bereits seit mehreren Java-Versionen als „deprecated for removal“ markiert und verschwindet nun endgültig aus dem JDK. Für aktuelle Anwendungen hat diese Änderung praktisch keine Auswirkungen.

Deutlich weitreichender ist JEP 500 [7]: „Prepare to Make Final Mean Final“. In der Java-Sprache garantiert das Schlüsselwort final, dass ein Feld nach der Konstruktion nicht mehr verändert werden kann. In der Praxis ließ sich diese Einschränkung jedoch über Reflection oder Low-Level-APIs wie Unsafe umgehen. Viele Frameworks – insbesondere Serialisierungsbibliotheken – nutzten diese Möglichkeit, um Objekte ohne Aufruf des Konstruktors zu erzeugen oder Felder direkt zu manipulieren. Das Vorgehen kann jedoch wichtige Validierungsregeln (Invarianten) eines Objekts verletzen.

Als Beispiel dient folgende Java-Klasse mit Preconditions:

public class Adult {

    private final Instant birthdate;

    public Adult(Instant birthdate) {
        this.birthdate = birthdate;
        if (isYoungerThan18(birthdate)) {
            throw new IllegalArgumentException("Not 18 yet");
        }
    }
}

Wird ein Objekt dieser Klasse beispielsweise per Reflection erzeugt, kann eine Anwendung birthdate setzen, ohne dass die Validierung im Konstruktor ausgeführt wird. Das Ergebnis ist ein Objekt in einem ungültigen Zustand. JEP 500 bereitet daher den Weg für ein strengeres Integritätsmodell. Ziel ist es, dass final künftig standardmäßig tatsächlich die Unveränderlichkeit garantiert. Unsichere Zugriffe auf solche Felder sollen eingeschränkt werden, während Übergangsmechanismen über JVM-Parameter weiterhin Kompatibilität mit bestehendem Code ermöglichen. Diese Entwicklung ist Teil eines größeren Trends unter dem Stichwort „Integrity by Default“. Die Plattform bewegt sich weg von einem Modell, in dem Frameworks beliebig tief in das Objektmodell eingreifen können, und hin zu einem Ansatz, der Invarianten stärker schützt und bei dem das Verhalten von Objekten verlässlicher bleibt.

Während die bisher beschriebenen JEPs hauptsächlich neue Themen umfassten, gibt es wie bei jedem JDK-Release einige langlaufende Preview- und Inkubator-Features. Dazu zählen die Primitive Types in Patterns (mittlerweile in der vierten Fassung), die Structured Concurrency (sechste Preview) und die Vector API (zum elften Mal als Inkubator-Feature).

Pattern Matching über primitive Typen

Seit Java 21 entwickelt sich Pattern Matching schrittweise zu einem zentralen Sprachkonzept. Ziel ist es, komplexe Typprüfungen und Fallunterscheidungen einfacher und sicherer auszudrücken. Gemeinsam mit Records und Sealed Classes lassen sich damit Strukturen ähnlich wie algebraische Datentypen modellieren, wodurch viele ungültige Zustände bereits auf Typebene ausgeschlossen werden können. Nach Type Patterns, Pattern Matching im switch, Record Patterns und Unnamed Patterns sind Primitive Type Patterns der nächste Schritt in der Entwicklung von Java hin zum datenorientierten Paradigma. Das Feature tauchte erstmals bereits in Java 23 auf und erscheint in Java 26 mit JEP 530 als vierte Preview [8]. Inhaltlich hat sich gegenüber dem letzten Release wenig geändert – das OpenJDK-Team sammelt weiterhin Feedback, bevor es die Funktion finalisiert.

Pattern Matching erlaubt es, Datenstrukturen mit einem Muster zu vergleichen und gleichzeitig Teile daraus zu extrahieren. Ein Pattern kombiniert dabei eine Bedingung („passt dieser Typ oder Wertebereich?“) mit Variablen, in die passende Werte gebunden werden. Während dieses Konzept bisher nur für Referenztypen galt, erweitert Java 26 es auf primitive Datentypen und erlaubt es, primitive und Referenztypen austauschbar im Pattern Matching-Kontext zu verwenden. Das folgende Beispiel zeigt, wie man ein int verlustfrei in einen byte konvertiert:

private static String checkByte(int value) {
    if (value instanceof byte b) {
        return "byte b = " + b;
    } else {
        return "kein byte: " + value;
    }
}

System.out.println(checkByte(127)); // byte b = 127
System.out.println(checkByte(128)); // kein byte: 128

Neben den vereinfachten, verlustfreien Konvertierungen schärft das aktuelle JEP vor allem die Dominanzregeln im switch weiter. Sie stellen sicher, dass kein case unerreichbar ist, weil ein vorheriges Pattern bereits alle möglichen Werte abdeckt. Der Compiler erkennt solche Situationen inzwischen zuverlässiger und meldet sie als Fehler. Zusammen mit den bereits eingeführten Pattern-Typen ist das ein wichtiger Schritt hin zu einer konsistenteren und deklarativeren Sprache. Entwicklerinnen und Entwickler können Datenstrukturen direkt auswerten, Boilerplate-Code reduzieren und komplexe Fallunterscheidungen klarer formulieren. Weitere Mustertypen wie Array Patterns oder die Dekonstruktion beliebiger Klassen (nicht nur Records) sollen in zukünftigen OpenJDK-Releases folgen.

Die Structured Concurrency reift weiter

Die Einführung von Virtual Threads in Java 21 [9] hat die Nebenläufigkeit in Java deutlich vereinfacht. Doch diese schlanken Threads allein lösen noch nicht alle strukturellen Probleme paralleler Programme. Wie werden mehrere Aufgaben gemeinsam orchestriert? Was passiert, wenn eine Teilaufgabe fehlschlägt? Und wie stellt man sicher, dass keine Hintergrund-Tasks unkontrolliert weiterlaufen? Genau hier setzt die Structured-Concurrency-API an. Das Feature kam ebenfalls erstmals als Preview in Java 21 und erscheint in Java 26 mit JEP 525 [10] in der sechsten Preview. Nachdem es in Java 25 größere Änderungen an der API gab, dient die aktuelle Iteration vor allem dazu, weitere Erfahrungen aus der Praxis zu sammeln und das API-Design zu stabilisieren.

Klassische Java-Anwendungen starten parallele Aufgaben häufig über ExecutorService und Future:

ExecutorService executor = Executors.newFixedThreadPool(2);

Future<String> user = executor.submit(() -> loadUser());
Future<List<Order>> orders = executor.submit(() -> loadOrders());

String userResult = user.get();
List<Order> orderResult = orders.get();

Dieses Modell bringt einige Nachteile mit sich: Die Fehlerbehandlung ist fragmentiert, Tasks können weiterlaufen, obwohl andere bereits fehlgeschlagen sind, und die Lebensdauer der Aufgaben ist nicht klar an einen Scope gebunden. Structured Concurrency verfolgt einen anderen Ansatz: Parallele Aufgaben werden innerhalb eines gemeinsamen Lebenszyklus gestartet und verwaltet. Ähnlich wie bei try-with-resources ist damit klar definiert, wann Tasks beginnen und wann sie garantiert beendet sind:

try (var scope = StructuredTaskScope.open()) {
    Subtask<String> user = scope.fork(() -> loadUser());
    Subtask<List<Order>> orders = scope.fork(() -> loadOrders());
    scope.join();   // Join subtasks, propagating exceptions
    return new UserSummary(user.get(), orders.get());
}

Alle gestarteten Tasks gehören hier zu einem gemeinsamen Scope. Schlägt eine Aufgabe fehl, werden die anderen automatisch abgebrochen. Nach Verlassen des try-Blocks ist garantiert, dass keine Tasks weiterlaufen. Ein wichtiger Bestandteil des Konzepts ist die zentrale Fehlerbehandlung. Statt Exceptions einzelner Tasks separat zu behandeln, führt join() die Fehler des Scopes zusammen. Wenn ein Task fehlschlägt, löst join() eine StructuredTaskScope.FailedException aus, die die ursprüngliche Exception der fehlgeschlagenen Subtask kapselt. Gleichzeitig werden verbleibende Tasks abgebrochen.

Sogenannte Joiner definieren, wie Ergebnisse der Subtasks kombiniert und wie Fehler oder Zeitüberschreitungen behandelt werden sollen. Häufig verwendete Strategien sind bereits als Fabrikmethoden vorhanden, etwa Joiner.awaitAllSuccessfulOrThrow() (Default-Joiner) oder Joiner.anySuccessfulOrThrow(). Außerdem kann man einfach eigene Joiner implementieren. Java 26 führt zudem den Callback onTimeout() ein. Damit können Anwendungen entscheiden, wie sie mit Zeitüberschreitungen umgehen – etwa indem sie nur die bis dahin erfolgreichen Ergebnisse zurückgeben.

Ihre volle Stärke entfaltet die Structured Concurrency in Kombination mit Virtual Threads. Jede Aufgabe kann ohne komplexes Thread-Pool-Management in einem eigenen Virtual Thread laufen. Das ermöglicht ein Programmiermodell, das synchron wirkt, intern aber stark parallel skaliert. Gerade in Backend-Architekturen eignet sich dieser Ansatz für typische Muster wie parallele Serviceaufrufe, Datenaggregation oder Fan-Out/Fan-In-Strukturen. Structured Concurrency verbindet eine hohe Skalierbarkeit mit einem deutlich verständlicheren Programmiermodell für nebenläufige Anwendungen. Komplizierte und fehleranfällige Alternativen wie reaktive Programmierbibliotheken oder manuelle Thread-Verwaltung werden damit überflüssig.

Vector API: SIMD für Java

Ein weiteres langfristiges Performance-Projekt setzt Java 26 mit JEP 529 fort [11]: die Vector API. Sie erscheint inzwischen zum elften Mal im Inkubator-Status und gehört damit zu den langlebigsten experimentellen Features der letzten Jahre.

Ziel der Vector API ist es, SIMD-Instruktionen (Single Instruction, Multiple Data) aktueller CPUs direkt aus Java heraus nutzbar zu machen. Dabei lassen sich mehrere Werte in einem einzigen CPU-Befehl parallel verarbeiten. Diese Technik spielt eine wichtige Rolle in Bereichen wie numerischen Simulationen, Bildverarbeitung, Signalverarbeitung oder Machine-Learning-Algorithmen. Ein einfacher Vergleich zeigt den Unterschied. Ohne Vector API erfolgt die Verarbeitung der Werte in einer Schleife:

void scalarComputation(float[] a, float[] b, float[] c) {
    for (int i = 0; i < a.length; i++) {
        c[i] = (a[i] * a[i] + b[i] * b[i]) * -1.0f;
    }
}


Mit der Vector API lassen sich mehrere Werte gleichzeitig berechnen:

Listing 11: SIMD-Instruktionen mit Vector-API
```java
static final VectorSpecies<Float> SPECIES = FloatVector.SPECIES_PREFERRED;

void vectorComputation(float[] a, float[] b, float[] c) {
    int i = 0;
    int upperBound = SPECIES.loopBound(a.length);
    for (; i < upperBound; i += SPECIES.length()) {
        // FloatVector va, vb, vc;
        var va = FloatVector.fromArray(SPECIES, a, i);
        var vb = FloatVector.fromArray(SPECIES, b, i);
        var vc = va.mul(va)
                .add(vb.mul(vb))
                .neg();
        vc.intoArray(c, i);
    }
    for (; i < a.length; i++) {
        c[i] = (a[i] * a[i] + b[i] * b[i]) * -1.0f;
    }
}

Die Breite der Operation hängt von der CPU ab – beispielsweise 128 oder 256 Bit. Der JIT-Compiler kann diese Operationen direkt auf die SIMD-Instruktionen der jeweiligen Hardware abbilden. Die Vector API ist strategisch wichtig für datenintensive Anwendungen, etwa für Vektorberechnungen in Datenbanken, Embedding-Vergleiche in KI-Systemen oder andere numerische Workloads. Allerdings wartet sie noch auf eine wichtige Grundlage: Project Valhalla und die geplanten Value Types. Erst mit einem kompakteren Speicherlayout für Werte kann die API ihr volles Potenzial entfalten. Auch wenn die Vector API weiterhin im Inkubator bleibt, zeigt ihre kontinuierliche Weiterentwicklung deutlich, wohin sich die Plattform bewegt: Java soll aktuelle Hardware effizient ausnutzen können und auch für stark daten- und rechenintensive Anwendungen wie KI konkurrenzfähig bleiben.

Wichtiger Baustein in der langfristigen Entwicklung

Java 26 ist kein spektakuläres Feature-Release, aber ein wichtiges Puzzlestück in der langfristigen Weiterentwicklung der Plattform. Viele Änderungen wirken auf den ersten Blick klein, bereiten jedoch größere Entwicklungen vor. Eine der wichtigsten Baustellen bleibt Project Valhalla, das mit Value Types das Typsystem von Java grundlegend erweitert. Value Types versprechen kompaktere Datenstrukturen ohne Objekt-Header, bessere Cache-Lokalität und weniger Druck auf den Garbage Collector. Gerade für numerische Anwendungen, Datenverarbeitung oder KI-nahe Workloads wird das erhebliche Performancegewinne bringen. Jüngsten Gerüchten zufolge könnten Value Classes bereits im Sommer 2026 in das OpenJDK-Projekt einfließen und mit Java 28 im März 2027 erstmals als Preview-Feature erscheinen.

Parallel dazu entwickelt sich das Sicherheits- und Integritätsmodell der Plattform weiter. Unter dem Leitgedanken „Integrity by Default“ gibt es Einschränkungen für Mechanismen, die Objektinvarianten über Reflection oder unsichere APIs umgehen können. Ziel ist ein stabileres und besser optimierbares Objektmodell. Die Neuerungen in Java 26 zeigen eine klare Richtung: Die Plattform wird systematisch moderner – von der Sprache über das Nebenläufigkeitsmodell bis hin zur Runtime und den Netzwerkprotokollen. Dabei bleibt Java seinem bewährten Ansatz treu, größere Veränderungen schrittweise einzuführen und möglichst abwärtskompatibel zu bleiben.

Neben den vorgestellten zehn JEPs enthält Java 26 zahlreiche kleinere Verbesserungen. Details dazu finden sich in den Release-Notes [12]. Änderungen an der Java-Klassenbibliothek lassen sich zudem sehr übersichtlich im Java Almanac [13] nachvollziehen, der die Unterschiede zwischen den JDK-Versionen auflistet. Und auch ein Blick nach vorn lohnt sich: Im JEP-Index unter Draft and submitted JEPs [14] sammeln sich bereits zahlreiche Ideen für kommende Java-Versionen.


URL dieses Artikels:
https://www.heise.de/-11213403

Links in diesem Artikel:
[1] https://openjdk.org/jeps/517
[2] https://openjdk.org/jeps/526
[3] https://openjdk.org/jeps/522
[4] https://openjdk.org/jeps/516
[5] https://openjdk.org/jeps/524
[6] https://openjdk.org/jeps/504
[7] https://openjdk.org/jeps/500
[8] https://openjdk.org/jeps/530
[9] https://www.heise.de/blog/Java-21-ist-eines-der-spannendsten-Releases-der-letzten-Jahre-9309203.html
[10] https://openjdk.org/jeps/525
[11] https://openjdk.org/jeps/529
[12] https://jdk.java.net/26/release-notes
[13] https://javaalmanac.io/jdk/26/apidiff/25/
[14] https://openjdk.org/jeps/0#Draft-and-submitted-JEPs
[15] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 15:00

Programmiersprache C++26: Reflexion zur Kompilierungszeit

Von Heise
(C) Franziska Panter

(Bild: Franziska Panter)

C++26 kommt und führt unter anderem die Kompilierungszeit‑Reflexion ein, die einige Aufgaben vereinfacht, ohne auf Makros zurückgreifen zu müssen.

Im heutigen Beitrag meines C++-Blogs möchte ich über C++26 und eine der wahrscheinlich wirkungsvollsten Funktionen schreiben, die dem Arbeitsentwurf hinzugefügt wurden. Auch wenn C++26 noch ein paar Wochen bis zur offiziellen Fertigstellung braucht, wissen wir seit dem WG21-Sommertreffen im Juni 2025, was in C++26 enthalten sein wird.

Der neue Standard wird viele spannende Verbesserungen bringen, aber die wahrscheinlich größte Veränderung ist die Reflexion (Reflection) zur Kompilierungszeit! In Sofia hat das Standardisierungs-Komitee sieben Reflection-Papiere für C++26 angenommen:

Die verlinkten Beiträge bieten genügend theoretischen Lesestoff.

Kommen wir zur Praxis

Die wichtigste Frage ist: Was kannst du mit dieser neuen Funktion machen? Einige haben bereits ihre Ideen veröffentlicht.

Steve Downey [8] hat ein Beispiel, das eine JSON-Zeichenkette zur Kompilierungszeit analysiert und daraus C++-Objekte erstellt. Der direkte Link zum Compiler Explorer lautet godbolt.org/z/YsEK418K6 [9].

Das zweite Beispiel stammt von Jason Turner [10] und ermöglicht es, Bindungen zu anderen Sprachen zu generieren. Der direkte Link zum Compiler Explorer lautet godbolt.org/z/6Y17EG984 [11].

Ich finde beide Beispiele prima, aber will auch ein eigenes zeigen. Das Problem, das ich jahrelang zu lösen versucht habe und das auch in verschiedenen Schulungen und sogar in meinem eigenen Buch Programming with C++20 – Concepts, Coroutines, Ranges, and more [12] auftaucht. Ich musste die bittere Pille schlucken, einen nicht so tollen Code zu zeigen.

Reflexion, Reflexion an der Wand, was kann ich mit dir alles machen?

Ich rede von Enums und nicht davon, wie man ein Enum in einen String konvertiert und umgekehrt. Der Code dafür ist übrigens in den oben verlinkten Beiträgen zu finden.

Nein, ich hab mindestens noch ein anderes Problem mit Enums: Iteration. Wie oft wollte ich schon über ein enum iterieren. Es gibt Lösungen, die meist makrobasiert und mit vielen Regeln sind. Zum Beispiel nur aufeinanderfolgende Zahlen und ein letztes Mitglied namens Last oder MAX. Aber was ist, wenn es Lücken in einem enum gibt? Wie

enum class Color { Transparent, Red = 2, Green, Blue = 8, Yellow };

Genau, dann greift die Regel, dass nicht aufeinanderfolgende Nummerierungen nicht erlaubt sind.

Folgender Code zeigt einen Ansatz, der anderen Sprachen wie C# ähnelt, in denen das Iterieren der enum-Werte ohne weitere Umstände möglich ist:

// #A
template<typename E>
requires std::is_enum_v<E>
constexpr inline auto num_enumerators_of{
  std::meta::enumerators_of(^^E).size()};

// #B
template<typename E>
requires std::is_enum_v<E>
consteval auto get_enum_values()
{
  std::array<E, num_enumerators_of<E>> res;

  template for(size_t i{}; constexpr auto& e : std::define_static_array(
                             std::meta::enumerators_of(^^E)))
  {
    res[i++] = [:e:];
  }

  return res;
}

Ich habe in #A eine Hilfsvariable erstellt, einfach weil es für sich schon hilfreich ist, die Anzahl der Werte in einem enum zu ermitteln.

Die Implementierung für die Aufgabe selbst befindet sich dann in #B. Du kannst dir eine andere Implementierung ausdenken, die für größere Enums besser geeignet ist, aber diese hier ist schön kurz und bündig.

Die Utility-Funktion sieht in Aktion nicht besonders aus, und man merkt nicht, dass im Hintergrund eine Reflexion stattfindet:

for(const auto e : get_enum_values<Color>()) {
  std::print("{} ", std::to_underlying(e));
}

std::println();

Wie du siehst, gibt #B den stark typisierten Enum-Wert zurück. Deshalb ist std::to_underlying erforderlich, wenn der Wert mit std::print verwendet wird. Das ist eine Designentscheidung: Der Code bleibt so lange wie möglich stark typisiert.

Es gibt noch weitere Designüberlegungen, beispielsweise ob get_enum_values auch eine Variable sein sollte, da sie für jeden Typ konstant ist.

An dieser Stelle werde ich nicht alle neuen Teile erklären, da ich nur zeigen möchte, was mit C++26 möglich ist.

Den vollständigen Code zum Experimentieren findest du im Compiler Explorer [13].

P.S.: Falls du dich fragst, ob die Implementierung von #B für ein leeres enum, welches ein std::array der Größe Null ergibt, korrekt ist, lautet die Antwort: Ja, der Code ist korrekt. Einer der Vorteile von std::array ist, dass es einen Sonderfall für den Fall der Größe Null gibt. Ein Array im C-Stil wäre nicht gültig.


URL dieses Artikels:
https://www.heise.de/-11157616

Links in diesem Artikel:
[1] https://wg21.link/P1306R5
[2] https://wg21.link/P2996R13
[3] https://wg21.link/P3096R12
[4] https://wg21.link/P3293R3
[5] https://wg21.link/P3394R4
[6] https://wg21.link/P3491R3
[7] https://wg21.link/P3560R2
[8] https://bsky.app/profile/sdowney.org/post/3lscpfoocks2u
[9] https://godbolt.org/z/YsEK418K6
[10] https://bsky.app/profile/lefticus.bsky.social/post/3lsdk4tikwv2p
[11] https://godbolt.org/z/6Y17EG984
[12] https://andreasfertig.com/books/programming-with-cpp20/
[13] https://compiler-explorer.com/z/W8b9xrx5j
[14] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 11:00

Software Testing: Effektives Testreporting ohne Overhead

Von Heise
Software Testing: Effektives Testreporting ohne Overhead

(Bild: Richard Seidl)

Richard Seidl spricht mit Matthias Groß über Testreporting und dessen Umsetzung im Projektalltag.

In dieser Folge spricht Richard Seidl mit Matthias Groß über Testreporting und dessen Umsetzung im Projektalltag. Im Fokus steht eine pragmatische Herangehensweise: Statt überladener Dashboards setzt Matthias Groß auf eine klare 3x3-Matrix und automatisierte Datenaufbereitung mit Python und Excel.

Die beiden beleuchten, wie Testreporting nicht nur den Status sichtbar macht, sondern auch als Führungsinstrument genutzt werden kann. Das Gespräch zeigt, wie wichtig Zieldefinition, Datenqualität und flexible Sichten sind. Besonders spannend sind die Einblicke zu KI-Experimenten im Reporting und die ehrlichen Reflexionen darüber, was wirklich zählt.

Matthias Groß [2] ist Partner der TestGilde GmbH und seit 2007 als Berater für Softwarequalitätssicherung und Testmanagement tätig. Seine Schwerpunkte liegen im operativen Testmanagement, der Einführung und Weiterentwicklung von Testmanagementstrukturen sowie der Betreuung kundenspezifischer Testservices. Er engagiert sich zudem an der Dualen Hochschule Baden-Württemberg, ist Mitgründer der Testcommunity The TestLänd [3] und Mitglied des Programmkomitees des QS-Tags.

Software Testing im Gespräch

Bei diesem Format dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Effektives Testreporting ohne Overhead – Matthias Groß [4]“.


URL dieses Artikels:
https://www.heise.de/-11213174

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.linkedin.com/in/grossmatthias
[3] https://www.linkedin.com/groups/10010638/
[4] https://www.richard-seidl.com/de/blog/testreporting-framework
[5] mailto:mai@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 10:26

Nvidia attackiert mit dem ARM-Serverprozessor Vera auch AMD und Intel

Von Heise

Server-Racks mit bis zu 22.528 CPU-Kernen: Nvidias Vera-CPU mit Olympus-Kernen kommt nicht nur im Gespann mit KI-Beschleunigern auf den Markt.

Nvidias ARM-Serverprozessor „Vera“ mit selbst entwickelten ARM-Kernen soll in den Revieren von AMD Epyc und Intel Xeon räubern. Denn Nvidia kombiniert Vera nicht nur mit dem KI-Beschleuniger „Rubin“, sondern baut auch reine CPU-Systeme damit.

Auf der Hausmesse GTC hat Nvidia für das zweite Halbjahr 2026 auch ein „Vera CPU Rack“ angekündigt. In die wassergekühlte Ausführung passen Einschübe mit insgesamt 256 Vera-Prozessoren, die jeweils 88 Kerne haben. Insgesamt laufen in einem Rack dann 22.528 CPU-Kerne mit 45.056 Threads. Denn jeder der zu ARMv9.2 kompatiblen „Olympus“-Kerne verarbeitet zwei Threads gleichzeitig.

Mehr Kerne bei x86

Wenn es um die reine Anzahl von CPU-Kernen pro Rack geht, bieten AMD und Intel mehr. Beispielsweise Supermicro verkauft „Twin“-Server, die pro Höheneinheit (HE) zwei einzelne Server mit je zwei CPU-Fassungen enthalten. Damit lassen sich auf 40 HE insgesamt 160 physische Prozessoren unterbringen. In den wassergekühlten Versionen darf jeder bis zu 500 Watt verheizen, also 75 kW reine CPU-Leistungsaufnahme pro Rack.

Bestückt mit 160 AMD Epyc 9965 mit je 192 Zen-5c-Kernen [1] ergibt diese Konfiguration 30.720 CPU-Kerne und 61.440 Threads pro Rack. Schon mit dem 144-Kerner Intel Xeon 6780E wären 23.040 Kerne möglich, allerdings ohne Simultaneous Multithreading, weil das Intels E-Kerne nicht beherrschen. Dafür kommt der Xeon 6780E mit 330 Watt aus, die Version 6766E sogar mit 250 Watt. Vorzugskunden bekommen von Intel auch einen Xeon 6 mit bis zu 288 E-Kernen [2], also bis zu 46.080 pro Rack.

Modul mit zwei Nvidia-Vera-Prozessoren und je acht SOCAMM2
Modul mit zwei Nvidia-Vera-Prozessoren und je acht SOCAMM2

Modul mit zwei Nvidia-Vera-Prozessoren und je acht SOCAMM2.

(Bild: Nvidia)

Vera-Vorzüge

Nvidia führt mehrere Vorteile von Vera [3] im Vergleich zur Konkurrenz ins Feld und hat auch bereits Kunden: Unter anderem Meta will Vera einsetzen, aber auch Alibaba, Cloudflare, Nebius und Oracle Cloud Infrastructure (OCI).

Nvidia verspricht besonders hohe Effizienz der ARM-Kerne. Außerdem bindet Vera keine Registered DIMMs mit DDR5-SDRAM an, sondern acht SOCAMM2-Module [4] mit sparsamerem LPDDR5X-Speicher. Damit erzielt jede Vera-CPU eine Datentransferrate von rund 1,2 TByte/s und steuert bis zu 1,5 TByte Arbeitsspeicher an.

Vera gehört auch zu den ersten Prozessoren, die PCI Express 6.0 beherrschen. In der zweiten Jahreshälfte soll das allerdings auch bei AMD Venice [5] kommen.

Aufbau der Nvidia-CPU Vera mit 88 ARMv9.2-Kernen
Aufbau der Nvidia-CPU Vera mit 88 ARMv9.2-Kernen

Aufbau der Nvidia-CPU Vera mit 88 ARMv9.2-Kernen.

(Bild: Nvidia)

Hohe Singlethreading-Performance

Ohne bisher konkrete Benchmark-Ergebnisse zu veröffentlichen, verspricht Nvidia eine besonders hohe Singlethreading-Performance für die einzelnen Olympus-Kerne. Das soll für bestimmte Rechenaufgaben von KI-Workflows Vorteile bringen.

Auch Simultaneous Multithreading (SMT) setzen die Olympus-Kerne anders um als die x86-Kerne von AMD oder Intel. Nvidia spricht von Spatial Multithreading. Das soll die konkurrierenden Threads stärker voneinander isolieren und die Performance soll weniger stark schwanken als bei anderen SMT-Umsetzungen.

Nvidia kombiniert die Vera-Prozessoren in den eigenen Servern mit eigenen ConnectX-Netzwerkadaptern oder SmartNICs vom Typ BlueField-4. Dadurch lassen sich die Vera-Racks leicht mit KI-Beschleunigern von Nvidia kombinieren, für die Nvidia auch die Switches verkauft.

Auch andere Hersteller wollen Vera-Server verkaufen, etwa Dell, HPE, Lenovo und Supermicro. Sie verwenden das modulare System Nvidia MGX [6]. Es sind auch luftgekühlte Vera-Server und welche mit nur einem Prozessor (Single Socket) geplant.


URL dieses Artikels:
https://www.heise.de/-11214715

Links in diesem Artikel:
[1] https://www.heise.de/news/AMD-Server-CPU-Epyc-9005-Erster-Test-bestaetigt-hohe-Leistung-und-Effizienz-9976724.html
[2] https://www.heise.de/news/Server-CPU-Clearwater-Forest-kommt-als-Xeon-6-mit-bis-zu-288-Kernen-10733568.html
[3] https://developer.nvidia.com/blog/nvidia-vera-cpu-delivers-high-performance-bandwidth-and-efficiency-for-ai-factories/
[4] https://www.heise.de/news/x86-Steckmodul-fuer-Embedded-Systems-mit-wechselbarem-LPDDR5X-RAM-11207883.html
[5] https://www.heise.de/news/AMD-zeigt-riesige-Chipkonstrukte-Epyc-Venice-und-Instinct-MI455X-11133033.html
[6] https://www.nvidia.com/en-us/data-center/products/mgx/
[7] https://www.heise.de/ct
[8] mailto:ciw@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 19:01

Dune 3: Teaser zu Dune 3 zeigt neuen Konflikt

Von Peter Osteried
Der erste Teaser zu Dune 3 zeigt den neuen Krieg. Und Pauls inneren Konflikt: Er darf nicht sterben – noch nicht.
Der dritte Teil kommt im Dezember in die Kinos. (Bild: Warner Bros.)
Der dritte Teil kommt im Dezember in die Kinos. Bild: Warner Bros.

Warner Bros. hat den ersten Teaser zu Dune: Part Three veröffentlicht. Der Film setzt die Geschichte von Paul Atreides fort und orientiert sich inhaltlich an Frank Herberts Roman Dune: Messiah.

Glücklichere Zeiten

Im Mittelpunkt steht, was nach Pauls Sieg über das Haus Harkonnen geschieht: Der ehemalige Rebellenführer übernimmt die Rolle eines religiösen Messias und stößt damit einen galaktischen Krieg an. Gleichzeitig geht er aus politischen Gründen eine Ehe mit Prinzessin Irulan (Florence Pugh) ein, was zur Trennung von Chani (Zendaya) führt. Der Teaser deutet sowohl die militärischen Konflikte als auch Pauls persönliche Krise an.

Zu Beginn zeigt das Material noch ruhige Momente zwischen Paul und Chani. In einer Szene sprechen beide über mögliche Namen für ein gemeinsames Kind – ein Detail, das Kenner der Buchvorlage als Vorausdeutung einordnen dürften. Danach wechseln die Bilder zu großangelegten Kriegsszenen und politischen Spannungen im Imperium.

Paul selbst steht dabei im Zentrum der Handlung. In einem Voice-over beschreibt er die Eskalation der Gewalt: Je mehr er kämpfe, desto stärker werde der Widerstand. Gleichzeitig sucht er Rat bei seiner Mutter Lady Jessica (Rebecca Ferguson), die ihn daran erinnert, worin sein Vater und er sich unterscheiden.

Neben bekannten Figuren wie Stilgar, dem Anführer der Fremen (Javier Bardem), zeigt der Teaser neue und erweiterte Rollen. Dazu gehören Alia Atreides, Pauls Schwester, sowie erstmals ein Blick auf den Antagonisten Scytale, gespielt von Robert Pattinson.

Villeneuve schließt seine Trilogie ab

Die Regie führt erneut Denis Villeneuve, der bereits die ersten beiden Teile der Reihe inszenierte. Dune: Part Three soll die Geschichte um Paul Atreides abschließen und stärker auf die Folgen seiner Machtübernahme eingehen.

Der Teaser endet mit einer kampfbereiten Version von Paul, der vor den martialischen Truppen steht und erklärt, dass er nicht sterben darf – zumindest noch nicht.

Adblock test (Why?)

  • 17. März 2026 um 19:35

Autonomes Fahren: So kämpfen Tesla, Uber und Co um Vertrauen und Sicherheit

Von Peter Steinlechner
Eine Paneldiskussion zeigt, wie Entwickler, Betreiber und Behörden autonome Autos heute wirklich testen.
Cybercab von Tesla im Januar 2026 auf der Brussels Motor Show (Bild: JONAS ROOSENS/BELGA MAG/AFP via Getty Images)
Cybercab von Tesla im Januar 2026 auf der Brussels Motor Show Bild: JONAS ROOSENS/BELGA MAG/AFP via Getty Images

Auf der GTC 2026 wird beim Thema autonomes Fahren schnell klar: Die großen Visionen sind formuliert, jetzt geht es um Details, Daten und Risiken. In einer Paneldiskussion mit Vertretern von Nvidia, Tesla, Waabi, Motional, Uber und der kalifornischen Verkehrsbehörde DMV dreht sich alles um eine Frage: Wie lässt sich Sicherheit wirklich nachweisen?

Moderator Ali Kani, Automotive-Chef bei Nvidia, bringt die Herausforderung gleich zu Beginn auf den Punkt. Anders als bei KI-Textgeneratoren gehe es hier nicht um harmlose Fehler. "Wir wollen hier nie einen Fehler machen" , sagt er – schließlich gehe es um menschliche Sicherheit.

Zwischen den technischen Details wird ein größerer Trend sichtbar: Autonomes Fahren entwickelt sich zu einem der wichtigsten praktischen Einsatzfelder moderner KI.

Ashok Elluswamy, für die KI-Software bei Tesla zuständig, beschreibt offen, dass viele Methoden aus großen Modellen direkt übernommen werden. Training, Nachtraining und kontinuierliches Lernen ähneln stark den Verfahren aus Sprachmodellen.

Das Ziel formuliert er ungewöhnlich klar: Fahrzeuge seien der erste Schritt hin zu einer allgemeinen KI für die physische Welt. Es gehe nicht mehr nur um Fahrfunktionen, sondern um Systeme, die komplexe reale Situationen verstehen und darauf reagieren – mit all den Unsicherheiten der echten Welt.

Unterschiedliche Ansätze, gleiches Ziel

Die technischen Strategien bleiben dabei gegensätzlich. Elluswamy beschreibt Teslas Ansatz als radikal vereinfacht: Kameras statt Sensorfusion, ein durchgehendes neuronales Netz vom Eingang bis zur Fahrzeugsteuerung. "Wir haben das gesamte System end-to-end gemacht" , erklärt er.

Das auf autonomes Fahren für den Güterverkehr spezialisierte Unternehmen Waabi verfolgt eine Art Gegenentwurf. CEO Raquel Urtasun setzt auf Kamera, Lidar und Radar, um unterschiedliche Fehlerquellen abzufangen. "Diese Modalitäten haben sehr unterschiedliche Fehlerarten" , sagt sie.

Die Firma Motional (Level-4-Robotaxis) wiederum kombiniert mehrere Sensoren mit sogenannten Large Driving Models. CEO Laura Major betont vor allem die schwierigen Fälle: "Wir konzentrieren uns auf die wirklich harten Situationen."

Das könnte sein, wenn ein Fußgänger plötzlich zwischen parkenden Autos auf die Straße tritt, ein anderes Fahrzeug unerwartet einschert oder eine unübersichtliche Baustelle mit provisorischer Beschilderung und ungewöhnlichen Verkehrsführungen bewältigt werden muss.

Einigkeit herrscht bei der Validierung: Ohne Simulation geht es nicht mehr. Milliarden virtueller Kilometer, extreme Szenarien und gezielte Grenzfälle sind Standard.

Motional erzeugt bewusst Situationen, "die wir hoffentlich nie auf der Straße sehen" , und testet diese zusätzlich auf abgesperrten Strecken und im realen Verkehr.

Tesla nutzt dagegen riesige Mengen realer Fahrdaten. Seltene Ereignisse werden herausgefiltert und immer wieder abgespielt. "Man findet die Nadel im Heuhaufen und testet sie immer wieder" , beschreibt Elluswamy den Ansatz.

Mehrere Sprecher betonen, dass nur das finale Zusammenspiel aus Hardware und Software zählt. Wird das System verändert, verlieren frühere Tests einen Großteil ihrer Aussagekraft.

Validierung beginnt dann praktisch von vorn. Das erklärt, warum Fortschritte langsamer wirken, als viele erwarten: Jede Iteration zwingt zu neuen, aufwendigen Nachweisen.

Klare Regeln, langsamer Fortschritt

Miguel Acosta, Leiter für autonome Fahrzeuge beim California DMV, beschreibt den regulatorischen Rahmen. Seit mehr als zehn Jahren existiert ein dreistufiges System – vom Test mit Sicherheitsfahrer bis zum kommerziellen Einsatz.

Aktuell testen rund 30 Unternehmen, sechs davon ohne Fahrer. Nur drei sind im regulären Betrieb. Zentral ist der sogenannte Safety Case, also eine umfassende Begründung der Sicherheit inklusive Technik, Organisation und Prozessen.

Vertrauen entsteht nicht im Labor

Neben Technik und Regulierung entscheidet am Ende die Nutzererfahrung. Noah Zych, verantwortlich für autonome Mobilität bei Uber, beschreibt das pragmatisch: "Geben Sie den Leuten eine gute erste Fahrt."

Schon wenige Minuten könnten aus Skepsis Begeisterung machen – oder Vertrauen dauerhaft zerstören. Deshalb setzt Uber auf kleine Einsatzgebiete und vorsichtige Skalierung.

Die Diskussion zeigt vor allem eines: Autonomes Fahren ist kein einzelner Technologiesprung, sondern ein komplexer, iterativer Prozess. Neue KI-Ansätze, massive Simulationen und reale Tests greifen ineinander.

Adblock test (Why?)

  • 17. März 2026 um 18:51

Anzeige: Roborock mit Wischfunktion kostet kurze Zeit nur 190 Euro

Von Benjamin Gründken
Bei Amazon gibt es einen Saugroboter mit Wischfunktion, den Roborock Q7 L5+, verdächtig günstig.
Saugroboter kosten nicht notwendigerweise ein kleines Vermögen. (Bild: Erzeugt mit ChatGPT; Amazon, Roborock; Montage: Golem.de) amazon Affiliate

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Saugroboter kosten nicht notwendigerweise ein kleines Vermögen. Bild: Erzeugt mit ChatGPT; Amazon, Roborock; Montage: Golem.de

Saugroboter sind nicht grundlos so beliebt. Sie kommen zwar nicht in alle Ecken, halten die Wohnung aber weitgehend staubfrei. Damit ist schon sehr viel gewonnen, zumal sich der Staub dann auch nicht mehr so leicht auf Regalen und in den Ecken verteilt. Händisches Nacharbeiten ist nur noch selten erforderlich.

Hausarbeit mag des einen Hobby sein, sie nimmt den anderen aber die Zeit für Hobbys. Wer in Vollzeit arbeitet, den Haushalt vielleicht noch allein macht und Familie und Verpflichtungen hat, möchte seine knappe Freizeit nicht unbedingt mit Saugen verbringen.

Dankenswerterweise kosten Saugroboter dank des Konkurrenzkampfes zwischen Herstellern wie Roborock, Dreame und Xiaomi kein Vermögen mehr. High-End-Modelle mögen noch vergleichsweise teuer sein. Solide Einstiegsgeräte gibt es schon für unter 300 Euro. Besonders günstig ist aktuell der Roborock Q7 L5+. Bei Amazon ist er nun befristet für nur noch 189,99 Euro im Angebot.

Was kann der Roborock Q7 L5+?

Der Roborock Q7 L5+ ist angesichts seines Preises natürlich kein Spitzenmodell, aber für sein Geld auch überraschend gut ausgestattet. So verfügt er über eine Dockingstation, die den Staubbehälter automatisch in einen 2,7-Liter-Beutel entleert. Dadurch soll man je nach Nutzung bis zu sieben Wochen ohne Wechsel auskommen.

Dank HyperForce-Saugkraft erreicht der selbstfahrende Akku-Staubsauger laut Roborock 8.000 Pa. Damit soll er Staub, Krümel und Tierhaaren Herr werden. Der Roborock eignet sich laut Angaben für Teppiche, Hartböden und Fugen. Um zu verhindern, dass sich Haare verwickeln, gibt es das Dual-Anti-Tangle-System. Laut Hersteller soll dies den Wartungsaufwand minimieren.

Spannend: Obwohl der Q7 L5+ unter 200 Euro kostet, kann er nicht nur saugen, sondern gleichzeitig wischen. Drei einstellbare Wasserdurchflussstufen ermöglichen eine Anpassung an verschiedene Bodenarten. Derlei kommt natürlich weder mit einer Wiederbefüllung noch mit einer Heißlufttrocknung, ist in der Preisklasse aber auch nicht Standard.

Für präzise Karten ist die 360°-Lidar-Navigation zuständig. Mit einer Laufzeit von bis zu 150 Minuten lassen sich, so das Versprechen, auch größere Flächen abdecken. Hindernisse wie Türschwellen oder Teppichkanten sollen bis zu einer Höhe von 2 Zentimetern überwunden werden.

Preisfall nach Frühlingsangeboten

Wie man dem Preistracker Keepa entnehmen kann, kostete der Saugroboter bei Amazon während der gerade abgelaufenen Frühlingsangebote noch 249,99 Euro, Coupons und Gutscheine noch unberücksichtigt. Den aktuellen Preis, einmal mehr als befristetes Angebot markiert, gab es zwar in der Vergangenheit schon. Laut Preistracker lag Amazons 90-Tage-Schnitt allerdings noch bei 246,44 Euro. Der aktuelle Deal, bereitgestellt durch Roborock selbst und Versand via Amazon, gilt laut Produktseite

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
bis zum 23. März.

Roborock Q7 L5+ Saugroboter mit Wischfunktion

Zum Angebot

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

  • 17. März 2026 um 18:46

Störungsmeldung vom 17.03.2026 10:00

Von heise online

Neue Störungsmeldung für Provider Vodafone Kabel

Details

Beginn
17.03.2026 10:00
Region
Frankfurt am Main (069)
Provider
Vodafone Kabel
Zugangsart
Kabel

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

  • 17. März 2026 um 10:00

Ukraine testet erstmals humanoide Kampfroboter an der Front

Von Matthias Lindner
Humanoider Roboter Phantom-MK-1

(Bild: Screenshot: Youtube-Video von Foundation Robotics.)

Das US-Start-up Foundation schickte zwei Phantom-MK-1-Roboter in die Ukraine. Der Einsatz wirft technische und ethische Fragen auf.

Roboter und Drohnen [1] sind in der heutigen Militärtechnik und auf den Schlachtfeldern längst angekommen. Was bislang fehlte, waren humanoide Roboter, wie man sie etwa aus den Terminator-Filmen kennt, die Aufgaben im Krieg ausführen.

Aber auch das ändert sich gerade. So hat etwa das US-Robotikunternehmen Foundation im Februar zwei humanoide Roboter vom Typ Phantom-MK-1 in die Ukraine geschickt, um sie unter realen Bedingungen zu testen.

Laut Foundation-Mitgründer [2] Mike LeBlanc kamen die Roboter bei Aufklärungsmissionen nahe der Front zum Einsatz.

Was der Phantom MK-1 können soll

Foundation stellte den Phantom MK-1 im Oktober 2025 als einen der ersten speziell für militärische Zwecke entwickelten humanoiden Roboter vor. Der rund 1,75 Meter große und etwa 80 Kilogramm schwere Roboter soll Aufklärung, logistische Versorgung und Bombenentschärfung übernehmen.

LeBlanc formuliert das Ziel [3] klar: Der Roboter solle jede Waffe einsetzen können, "die ein Mensch einsetzen kann".

Technisch setzt der Phantom auf kamerabasierte Bildverarbeitung statt auf komplexe Sensorsysteme wie LiDAR.

Zentral ist das Prinzip "Human-in-the-Loop" [4]: Der Roboter steuert Bewegung und Navigation eigenständig, doch ein menschlicher Bediener behält die Entscheidungsgewalt über alle potenziell tödlichen Aktionen.

Ukraine als globales Testfeld für Militärrobotik

Die Ukraine entwickelt sich zunehmend zum weltweit wichtigsten Testgelände für neue Waffentechnologien. Allein im Januar kamen laut der staatlichen Nachrichtenagentur United24 Roboter tausendfach zum Einsatz – in erster Linie für Logistik, etwa für Nachschub, Verpflegung oder Munitionstransporte.

LeBlanc beschreibt laut Time seine Eindrücke aus der Ukraine als "wirklich schockierend": "Dies ist ein vollwertiger Roboterkrieg, in dem der Roboter der Hauptkämpfer ist und Menschen nur Unterstützung leisten".

Humanoide Roboter könnten laut Foundation dort einen Mehrwert bieten, wo Drohnen an ihre Grenzen stoßen – etwa in niedrigen Bunkern. Ihre menschenähnliche Wärmesignatur könnte zudem feindliche Überwachungssysteme täuschen.

Technische Schwächen und Sicherheitsrisiken

Trotz der ambitionierten Pläne zeigt die Realität deutliche Grenzen. Während eines Besuchs von Time-Journalisten stürzte einer der Phantom-Roboter mehrfach um. Die rund 20 Motoren, die einen Humanoiden antreiben, machen ihn anfällig für Störungen. Hinzu kommen Herausforderungen durch Schlamm, Staub und Regen im Feldeinsatz.

Experten warnen zudem vor Cyber-Risiken. Erbeutete Drohnen liefern bereits heute sensible Daten an den Feind. Ein gehackter humanoider Soldat könnte es einem Gegner ermöglichen, über Software-Hintertüren ganze Roboterflotten zu übernehmen.

Auch die Zuverlässigkeit der KI-Systeme steht in der Kritik: Sogenannte Halluzinationen [5], bei denen KI-Modelle falsche Informationen produzieren, stellen bei autonomen Waffensystemen [6] ein gravierendes Problem dar.

Ethische Debatte und globaler Wettlauf

Die Automatisierung der Kriegsführung [7] wirft zudem grundlegende Fragen auf. Kritiker fürchten, dass humanoide Soldaten die politischen Hemmschwellen für militärische Konflikte senken und die Verantwortung für Fehlentscheidungen verwischen.

"Es ist eine Frage der Menschenwürde", sagt etwa Peter Asaro vom Internationalen Komitee für Roboterwaffenkontrolle gegenüber Time. "Diese Maschinen sind keine moralischen oder rechtlichen Akteure, und sie werden niemals die ethischen Implikationen ihrer Handlungen verstehen."

Gleichzeitig treiben auch Russland und China die Entwicklung solcher Dual-Use-Technologien voran.

Foundation plant, bis Ende 2027 bis zu 50.000 Einheiten zu produzieren und diese für rund 100.000 US-Dollar pro Jahr zu vermieten. Der verbesserte Phantom MK-2 soll ab April mit wasserdichtem Gehäuse, größeren Akkus und einer Traglast von bis zu 80 Kilogramm verfügbar sein.


URL dieses Artikels:
https://www.heise.de/-11213603

Links in diesem Artikel:
[1] https://www.heise.de/tp/article/Ukraine-Krieg-Wie-Bodenkampfroboter-die-Frontlinien-veraendern-10667150.html
[2] https://time.com/article/2026/03/09/ai-robots-soldiers-war/
[3] https://militarnyi.com/en/news/ukraine-receives-phantom-mk-1-humanoid-robots-for-testing/
[4] https://interestingengineering.com/military/humanoid-soldier-robots-arrive-in-ukraine
[5] https://www.heise.de/tp/article/KI-Halluzinationen-Mathematisch-unvermeidbar-10669149.html
[6] https://www.heise.de/tp/article/Scout-AI-zeigt-KI-Agenten-fuehren-jetzt-eigenstaendig-Militaereinsaetze-durch-11188050.html
[7] https://www.heise.de/tp/article/Killer-Roboterschiffe-Fortschritt-mit-Sprengkraft-10792928.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 11:05

Chinas neue U-Boot-Klasse: Die stille Herausforderung für Amerika

Von Luca Schäfer
Ein aufgetauchtes U-Boot in einem Dock

Symbolbild: China arbeitet an einer neuen nuklear betriebenen U-Boot-Klasse

(Bild: tab62/Shutterstock.com)

Bohai baut, Washington bangt: Aufnahmen legen den Bau der neuen U-Boot-Klasse 095 nahe – das Ende der US-amerikanischen Unterwasser-Allmacht? Eine Analyse.

Der chinesische Drache taucht ab: Wie Mitte Februar entdeckte [1] Satellitenaufnahmen belegen, baut die Volksrepublik an einer neuen U-Boot-Waffe. In der Schiffswerft Bohai in Huludao, Provinz Liaoning, soll der erste Prototyp des nuklear-betriebenen U-Boot-Typs 095 (09V) vom Stapel gelaufen sein [2] – eine Entwicklung, die die Vormachtstellung der US-Virginia-Klasse herausfordern könnte.

Chinesische Militärentwicklungen gelten – trotz oder gerade wegen der grassierenden Korruption im Beschaffungswesen [3] – zu den am strengsten gehüteten Staatsgeheimnissen [4].

Die Aufnahmen gelten daher für Chinas Gegner als Glücksfall, hochauflösende Aufnahmen, die nicht mehr zur bekannten Generation 093 zu passen scheinen, erregen Aufmerksamkeit.

Die Bilder zeigen ein U-Boot im Ausrüstungsdock – auf dem dutzende technische Neuheiten [5] zu begutachten sind: eine neue X-Heckruder-Konfiguration, ein breiterer Rumpf, vermutlich ein neuartiger Pumpjet-Antrieb sowie eine leichtere Einzelhülle anstelle einer Doppelhülle. Steht die US-Pazifik Dominanz auf dem Spiel?

Aufrüstung unter Wasser

Damit werden altbekannte Fragen virulent: Chinas Werftkapazitäten übersteigen jene der amerikanischen Konkurrenz. Peking besitzt [6] mittlerweile mehr nuklearbetriebene U-Boote (die Zahlen varrieren je nach Quelle zwischen 14 und 32) als Moskau und schließt immer mehr zur Seemacht auf.

Dabei galt die U-Boot-Kategorie traditionell als Schwachpunkt chinesischer Sicherheitspolitik: Die große Flotte bestand maßgeblich aus dieselelektrischen Booten mit begrenzter Reichweite.

Dies ändert sich [7]: Von 60 Einheiten sind mindestens 14 atomar betrieben. Admiral Mike Brookes, Direktor des Geheimdienstes der US-Navy, beschrieb die Flotte als "im Wandel begriffen" – einer, der US-amerikanische Pazifik-Operationen empfindlich stören könnte.

Leiser Jäger

In der modernen U-Boot-Flotte dominieren [8] drei Typen: dieselelektrische Boote (SSK), atomar-betriebene ballistische Raketen-U-Boote (SSBN) sowie atomar-betriebene Angriffs-U-Boote (SSN).

Der neue chinesische Typ wird der SSN-Kategorie zugeordnet [9] – konzipiert für U-Boot- und Überwasserjagd, Aufklärung und Spezialeinsätze. Durch lange Reichweite und hohe Geschwindigkeit unterscheidet er sich grundlegend von den küstenverteidigungsorientierten SSK.

Bislang dominierten diese Kategorie die US-amerikanische Virginia-Klasse – von der die US-Navy rund 25 Stück besitzt [10] –, die als überaltertet geltende [11] russische Yasen-Klasse sowie die französischen Barracuda- und britischen Astute-Boote [12].

Die neue 095-Klasse [13] soll nach ersten Schätzungen die technischen Vorteile vereinen. Ein vermutlich leiserer Reaktor, ein erkennbarer Pump-Jet-Propeller [14] statt klassischer Schraube, spezielle Geräuschisolierung im Inneren sowie ein hydrodynamisch optimierter Rumpf sollen das Boot leiser als seine Vorgänger machen.

Mit geschätzten 110–115 Metern Länge, 12–13 Metern Breite, 9.000–10.000 Tonnen Verdrängung und einer Besatzung von bis zu 130 Soldaten liegt [15] die chinesische Variante in der klassischen Größenordnung moderner SSN.

Neue Dimensionen, alte Stärken

Der Vorgängertyp 093-B diente als Projektionsfläche, wurde jedoch abseits der Waffentechnik massiv verändert: Einzig bei der Bewaffnung setzt man den bewährten Kurs fort. Die 093-B-Variante führte bereits 12 vertikale Raketenstartrohre, die in die neue Version übernommen werden – manche Quellen nennen gar 16 [16] potenzielle Vertikalrohre hinter dem Turm.

Die Bewaffnung gilt als stark: Neben vertikalen Startsystemen umfasst sie [17] 8 Torpedorohre (Kaliber 533mm) mit schweren Torpedos (wahrscheinlich Yu-6), Anti-Schiff-Raketen des Typs YJ-18 (Reichweite 500 Kilometer), Marschflugkörper für Landangriffe sowie Seeminen. Als Abwehrwaffen kommen HQ-10-Luftabwehrraketen (gegen Hubschrauber) sowie CJ-10-Marschflugkörper hinzu – Schiffe wie Landziele [18] sind damit mögliche Optionen.

Neben leistungsfähigeren Langstreckenwaffen wurde primär die Integration moderner Marschflugkörper verbessert. Die bisherige Antriebslimitierung – wie das Genfer Institut für Internationale Beziehungen [19] in einer älteren Tiefenanalyse der Volksbefreiungsarmee betont – ist durch den nuklearen Druckwasserreaktor (PWR) technisch gelöst: Die Einsatzdauer ist nahezu unbegrenzt und lediglich durch die Lebensmittelversorgung [20] limitiert.

Im Vergleich zum Vorgängertyp besitzt die 095 das Doppelte der thermischen Leistung (200 MW gegenüber 75 MW bei der 093) – dies erlaubt [21] höhere Geschwindigkeiten und stellt zusätzlich mehr Energie für Elektroniksysteme bereit.

Strategische Redefinition

Als einziger Nachteil könnte sich der neue Typ als immens kostspielig und komplex in der Wartung erweisen – offizielle chinesische Angaben fehlen bisher.

Der strategische Nutzen dürfte den kalkulierten Preis rechtfertigen: Zwar liegt die Volksrepublik nach Experteneinschätzungen weiterhin leich hinter den USA [22], holt jedoch immens schnell auf – technologisch wie quantitativ. Mit bis zu drei baubaren SSN pro Jahr überragt China das US-Tempo von 1–1,5 SSN pro Jahr deutlich.

Die militärischen Aufgaben der 095 dürften klar umrissen sein: Sie schützt chinesische Flugzeugträger, jagt gegnerische U-Boote, kreuzt im Südchinesischen Meer und ist Teil der langfristigen Anti-Access/Area-Denial-Strategie (A2/AD) gegen die USA. Bis 2035 sollen 80 U-Boote fertiggestellt sein [23] – die Hälfte davon als SSN. Dabei soll der neue Typ das Rückgrat der Flotte bilden und als strategisches Angriffsschiff Eskortaufgaben übernehmen.

Zwei weitere strategische Komponenten sind entscheidend: Aufgrund seiner geografischen Lage und der US-hörigen vorgelagerten ersten Inselkette will China den Zugang zum westlichen Pazifik und zum Südchinesischen Meer erschweren. Im Falle eines US-Angriffs auf das Festland oder einer Eskalation um Taiwan wären zentrale Korridore – nach Pekings Planung – unter "roter" Kontrolle.

Die neue Klasse ermöglicht zudem Langstrecken- wie Geheimoperationen im Indischen Ozean, der Straße von Malakka oder entlang kontinentaler Handelsrouten. Ein entscheidender Faktor: Die chinesische maritime Zweitschlagskapazität steigt erheblich. Die Aufgabe der 095 wäre dabei nicht die Durchführung des Zweitschlags selbst, sondern Eskorte wie Schutz der [24] der SSBN-Flotte.

Nahe Verteidigung, weit entfernter Schutz

Entgegen der westlichen Erzählung ist Chinas maritime Transformation nicht auf Angriff ausgerichtet. Unter dem Motto "Near Seas Defense, Far Seas Protection" wird eine strategische Vorwärtsverteidigung zur Sicherung von Frieden und Freihandel angestrebt [25].

Küstenschutz und die Wahrung chinesischer Interessen in entfernten Seegebieten werden strategisch verwoben. Peking hat seine Rüstungsindustrie auf diese Doppelstrategie ausgerichtet. Die Anti-Piraterie-Einsätze ab 2008 im Golf von Aden [26] belegen: Das Land will primär seine Handelsinteressen schützen, keine aggressive Expansion betreiben – hat aber wohl am Beispiel Venezuelas, Russlands und des Irans verstanden, dass wirksame Abschreckung das Potenzial des Zweitschlags und einer imperial-aggressiven US-Politik im Niedergang einkalkulieren muss.

Die Folge ist ein globales maritimes Wettrüsten: Washington wird auf die neue Klasse mit beschleunigter Aufrüstung seiner U-Boot-Jäger reagieren. Möglich erscheint zudem, dass Russland und China geheime Absprachen getroffen haben – ein offizielles Militärbündnis existiert nicht, doch russisches Know-how soll bereits bei früheren Klassen geholfen haben [27].

Aktuell steht im Raum, dass Moskau auch bei der 096-Variate geholfen haben soll [28]. Die Schlussfolgerung liegt nahe: Chinas Aufrüstung ist mit Russland abgesprochen, um einen US-amerikanischen Albtraum zu realisieren – sie soll die Trump-Administration und ihre Verbündeten strategisch abschrecken.


URL dieses Artikels:
https://www.heise.de/-11213419

Links in diesem Artikel:
[1] https://www.navalnews.com/naval-news/2026/02/chinese-type-09v-next-generation-ssn-appears-at-bohai/
[2] https://defencesecurityasia.com/en/china-type-095-sui-class-nuclear-attack-submarine-bohai-ssn-launch/
[3] https://www.telepolis.de/article/Korruption-Kontrolle-Krieg-Xis-Kampf-um-die-Armee-11158112.html
[4] https://www.focus.de/politik/ausland/u-boot-bedrohung-chinas-mauer-unter-dem-meer-alarmiert-die-usa_3f4517e5-538f-4de1-9d6f-bddf3447f1b6.html
[5] https://www.defensenews.com/global/asia-pacific/2026/02/24/chinas-new-nuclear-submarine-breaks-cover-amid-shipbuilding-spree/
[6] https://defencesecurityasia.com/en/china-overtakes-russia-nuclear-submarines-global-undersea-power/
[7] https://www.businessinsider.de/politik/welt/china-baut-komplette-nuklear-u-boot-flotte-us-geheimndienst-warnt-jetzt/
[8] https://www.abbreviationfinder.org/de/acronyms/ssn_attack-submarine.html
[9] https://soldat.fr/de/blogs/marine-militaire/sous-marins-ssn-ssbn-ssk
[10] https://defence-network.com/u-s-navy-erhaelt-u-boot-virginia-klasse/
[11] https://www.reservistenverband.de/magazin-loyal/russlands-marine-alles-fuer-die-strategischen-u-boote/
[12] https://de.wikipedia.org/wiki/Suffren-Klasse_(2020)
[13] https://en.wikipedia.org/wiki/Type_095_submarine
[14] https://www.hobbywater.com/de/blogs/hobbywater-news/pump-jet-vs-propeller-how-to-choose?srsltid=AfmBOooWng50q6cKqhKiNkVJqLB2Y64z1gqrBpFFuTugBixx0vNyB18_
[15] https://www.janes.com/osint-insights/defence-news/sea/china-begins-outfitting-first-type-095-nuclear-attack-submarine
[16] https://tiananmenstremendousachievements.wordpress.com/2016/08/16/chinas-homegrown-new-type-095-095a-attack-nuclear-submarines/
[17] https://www.globalmilitary.net/ships/type-095/
[18] https://borealtimes.org/the-type-095-chinas-stealthy-submarine/
[19] https://www.giir.ch/uploads/6/8/4/7/68473163/the_rise_of_the_plan.pdf
[20] https://www.globalmilitary.net/ships/type-095/
[21] https://www.globalsecurity.org/military/world/china/plan-reactor.htm
[22] https://www.businessinsider.com/china-shifting-to-all-nuclear-submarine-construction-us-navy-intel-2026-3
[23] https://www.handelsblatt.com/politik/international/us-berichte-chinesisches-atom-boot-offenbar-bereits-beim-bau-gesunken/100073719.html
[24] https://news.usni.org/2026/03/05/chinese-navy-expanding-nuclear-attack-boat-fleet-and-missile-strike-capabilities-oni-commander-says
[25] https://ssdpaki.la.coocan.jp/en/proposals/121.html
[26] https://en.wikipedia.org/wiki/Chinese_anti-piracy_operations_in_the_Gulf_of_Aden
[27] https://www.taipeitimes.com/News/editorials/archives/2024/10/14/2003825242
[28] https://nationalinterest.org/blog/buzz/chinas-type-096-submarine-is-a-nuclear-nightmare-for-america

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 10:45

Bürgerräte unter der Lupe: Die entscheidenden Qualitätskriterien

Von Timo Rieg
Zwei Personen vor einem Stücl der alten Berliner Mauer. Fort die Inschrift, die daran appelliert, dass viele kleine Leute in vielen kleinen Orten etwas tun können.

Bild: Zalfa Imani auf Unsplash

Von Expertenauswahl bis Evaluation: Welche Regeln erfüllt sein müssen, damit Bürgerbeteiligung nicht zur Blackbox wird.

Da in Bürgerräten zufällig ausgeloste Menschen als Stellvertreter der von etwas betroffenen Bevölkerung zusammenkommen, kann und soll kein Vorwissen zum Beratungsthema erwartet werden. Daher muss alles, was relevant sein könnte, im jeweiligen Verfahren vorgetragen werden.

Auch wenn die Arbeitsweise anders ist, lässt sich das doch mit US-amerikanischen Gerichtsjurys vergleichen (und in Deutschland mit Schöffen, die als ehrenamtliche Richter dasselbe Stimmrecht wie Berufsrichter haben). Die Bürger haben auch als ehrenamtliche Richter keine Vorkenntnisse, ja sie dürfen sich vorab gar nicht mit dem zu entscheidenden Fall beschäftigen. Stattdessen muss alles im Gerichtsverfahren vorgetragen werden.

So läuft es auch bei Bürgerräten. Alles Für und Wider muss dort präsentiert werden. Deshalb hängt die Qualität von Bürgerräten am stärksten von dieser Aufbereitung ab.

Haben die Organisatoren ("Durchführungsträger") alle Positionen berücksichtigt? Kommen potentiell Betroffene hinreichend zu Wort? Werden ggf. öffentlich bereits wahrnehmbare Kritik oder Alternativvorschläge den beratenden Bürgern präsentiert?

Zwar werden im Nachhinein die Teilnehmer eines Bürgerrats in der Evaluation unter anderem dazu befragt, ob sie sich objektiv informiert gefühlt haben, doch auch die Öffentlichkeit muss dies kontrollieren können. Deshalb ist es notwendig, den Input eines Bürgerrats transparent zu machen.

Kriterium: Transparente Expertenauswahl

Ins Bürgergutachten als Ergebnisbericht gehört daher eine Liste aller angehörten Experten und Lobbyisten. Auch auf anderem Wege eingespeiste Informationen müssen benannt werden (Broschüren, Filme, Exkursionen).

Dabei sollten die Organisatoren begründen, wie sie zu ihrer Auswahl gekommen sind. Die Expertenvorträge und ggf. Befragungen durch die Bürgerrats-Mitglieder gehören ebenso zu dem, was aus Transparenzgründen nach Durchführung veröffentlicht werden sollte.

Denn die wesentliche Kritik an Bürgerräten bezieht sich stets auf diesen Informations-Input: Er sei einseitig gewesen, nicht ergebnisoffen, in eine bestimmte Richtung gefärbt. Dabei ist die Kritik von außen meist eine reine Unterstellung – eben weil die Details dazu nicht veröffentlicht werden (siehe "Bürgerrat gegen Fakes").

Kriterium: Fragestellungen und Arbeitsaufträge dokumentieren

Mit der Organisation des Inputs hängt der zweite wichtige Punkt für die Qualität eines Bürgerrats zusammen: die Aufbereitung des Entscheidungsthemas in einzelne Beratungseinheiten. Welche Einzelfragen die Bürger vorgelegt bekommen, hat zwangsläufig großen Einfluss auf ihre Empfehlungen am Ende des Verfahrens. Auch hier ist absolute Transparenz herzustellen.

Adblock test (Why?)

  • 17. März 2026 um 09:30

Blender 5.1: Audio-, Text- und Strahleneffekte

Von Heise
Gerendertes Blender-Bild mit niedlichem Tierchen

Der Splash Screen von Blender 5.1 zeigt eine Szene aus dem neuen Open Movie “Singularity” der Blender Animation Studios.

(Bild: blender.org)

Die freie 3D-Software Blender 5.1 bringt Vulkan-Support, Raycast-Funktionen für Strahleneffekte und enge Verzahnung von Videoschnitt und Compositor.

Die Open-Source-3D-Software Blender steht ab sofort in Version 5.1 zum Download für Windows, macOS und Linux sowie als Quellcode zum Download zur Verfügung. Die neue Version kommt unter der Haube mit vollständiger Unterstützung für die Grafikschnittstelle Vulkan, kann Nodes über Blender-Instanzen hinweg transportieren und bringt den Compositor, in dem man fertige Sequenzen oder Bilder nachbearbeitet, und den Video Sequence Editor näher zusammen.

Per Raycast Strahlen verschicken

Über die neue Raycast-Node kann man beim Rendern zusätzliche Strahlen verschicken lassen, um die nähere Umgebung abzutasten. So kann man beispielsweise Strahlen beim Auftreffen auf der Haut eines Characters nach Innen schicken, um wie bei einem Röntgenbild das Skelett darzustellen. Die Funktion lässt sich auch für cartoonartige Effekte nutzen.

Blender 5.1 führt eine neue Raycast-Node ein, mit der sich beim Rendern zusätzliche Strahlen aussenden lassen, wie hier für einen Röntgen-Effekt.

Videoschnitt und Compositor synchronisiert

Blender bringt ein eigenes System zum Schneiden und Bearbeiten von Videos mit, den Video Sequence Editor (VSE). Dieser arbeitet in Version 5.1 besser mit dem anderen Bereich von Blender für die Nachbearbeitung von Videos zusammen, dem Compositor. Letzterer hat eine neue Node mit dem Namen “Sequencer Strip Info” erhalten. Sie greift auf Attribute eines Strips im VSE zu wie dessen Start- und Endzeitpunkt. Die Effekte im Compositor lassen sich auf diese Weise mit dem Videoschnitt synchronisieren. Außerdem lässt sich im Compositor ein Setup für den VSE erstellen.

Tonhöhe der Audiospur anpassen

Bei Audiospuren im VSE lassen sich jetzt die Tonhöhen anpassen. Der Effekt kann klassisch über Halbtöne gesteuert werden oder über die Angabe eines Verhältnisses, etwa dass eine Tonspur 30 Prozent tiefer klingen soll. Außerdem kann man Audiostrips jetzt einen Echoeffekt hinzufügen.

Metastrips sind im VSE Spuren, bei denen mehrere Elemente zusammengefügt wurden, etwa zwei Audiospuren. In Blender 5.1 haben Metatstrips jetzt eine übergreifende Lautstärkekorrektur, wodurch sich die gemeinsame Lautstärke aller Audiospuren auf einmal anpassen lässt.

Teleportieren in der virtuellen Realität

In Blender kann man seine Szenen auch mittels VR-Brillen ansehen. Dabei wird vielen Nutzern übel, vor allem, wenn sie sich vorwärtsbewegen. Daher hat sich eingebürgert, zu teleportieren. Für Blender 5.1 haben die Entwickler die Bedienung der Teleportfunktion mächtig aufgebohrt und an gewachsene VR-Konventionen angepasst. Jetzt macht die Software deutlich, wohin man teleportiert. Ein Widget verhindert mit einem roten Signal versehentliches teleportieren in eine Wand.

Links eine gültige Teleportvorschau mit Ziel auf dem Boden. Rechts der Versuch, sich auf die Wand zu teleportieren. Die Szene istammt aus dem Hallwyl Museum in Stockholm, erstellt von Realityscan.

Vollständiger Vulkan-Support

Bisher setzte Blender auf OpenGL als Grafikschnittstelle. In naher Zukunft wollen die Entwickler auf das modernere Vulkan wechseln und durch die Bank von besserer Performance und schnelleren Ladezeiten profitieren. Das Vulkan-Backend war bei der VR-Szenenvorschau bisher deutlich langsamer als OpenGL. In Blender 5.1 ist diese letzte Performancelücke geschlossen und Vulkan damit in allen Punkten mindestens gleichauf mit OpenGL. Daher dürfte die Grafikschnittstelle in einer der kommenden Blenderversionen zum Standard werden.

Nodes zwischen Blender-Instanzen kopieren

Viele Bereiche in Blender werden über sogenannte Nodes gesteuert. Das sind Knoten mit Funktionen, die über Eingangs- und Ausgangswerte mit anderen Knoten verbunden werden. Die dabei entstehenden Node-Trees lassen sich jetzt zwischen Blender-Instanzen per Copy & Paste in der Zwischenablage austauschen. Das funktioniert auch zwischen unterschiedlichen Arten von Node-Editoren, zum Beispiel zwischen dem Shader Editor und dem Compositor.

Das Bild zeigt einen großen Node-Tree, deren Kontenpunkte alle erdenklichen grafischen Eigenschaften steuern. In Blender 5.1 lassen sich die einzelnen Nodes über Blender-Instanzen hinweg kopieren.

Texteffekte mit Geometry-Nodes

Mit Geometry-Nodes kann man in Blender eigene Werkzeuge bauen. In Blender 5.1 wurde der Umgang mit Text deutlich verbessert. Die Node “Strings to Curves” hat dafür zahlreiche Eingangssockets bekommen. Damit kann man jetzt nahezu jeden Parameter eines Textes animieren, sei es der Zeichenabstand, die Ausrichtung oder eine Box um den Text.

Neue Volume-Grid-Nodes

Die Blender-Community hat eine Reihe neuer Nodes zum Bearbeiten von Voxel-Gittern beigesteuert. Voxel sind eine dreidimensionale Form von Pixeln, die für volumetrische Effekte genutzt werden.

Die neue Clip-Grid-Node deaktiviert alle Voxel außerhalb eines definierten Würfels. Die Node “Cube Grid Topology” hingegen erzeugt einen Würfel, in dessen Gitter alle Voxel aktiviert sind. “Grid Mean” und “Grid Median” berechnen den Mittelwert beziehungsweise Median aller Voxel in einem Gitter. Mit “Grid Dilade” und “Grid Erode” werden die aktiven Bereiche in einem Gitter verkleinert respektive erweitert. Wenn man zuerst ein Dilade, dann ein Erode durchführt, lassen sich damit Löcher im Gitter schließen.

Die Node “Grid to Points” erzeugt auf jedem aktiven Voxel eines Gitters einen Punkt. Diese Punkte lassen sich verwenden, um Instanzen von Objekten zu erzeugen. So kann etwa jeder Voxel eines Gitters als Würfel dargestellt werden, was wiederum beim Debugging von Voxelgittern hilft.


URL dieses Artikels:
https://www.heise.de/-11213258

Links in diesem Artikel:
[1] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&amp;wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[2] mailto:akr@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 09:50

heise+ | iPad und iPhone mit Keyboard steuern: Die besten Tastenkürzel für mehr Speed

Von Heise
, Myrka – stock.adobe.com / KI / heise medien

(Bild: Myrka – stock.adobe.com / KI / heise medien)

Externe Tastaturen machen iPad und iPhone deutlich effizienter. Die wichtigsten Tastenkürzel für Multitasking, Steuerung und Textarbeit im Überblick.

Durch eine externe Tastatur fühlen sich iPads und selbst iPhones fast wie Desktop-Computer an. Mit Tastenkürzeln steuern Sie viele Funktionen effizient und beschleunigen Arbeitsabläufe spürbar – nicht nur bei der Eingabe längerer Texte. Apple dokumentiert die Kürzel allerdings nur knapp, manche sind sehr versteckt. Gerade auf dem iPhone fristen sie ein Schattendasein, dabei funktionieren viele Keyboard-Shortcuts dort ebenfalls und machen den ultramobilen Einsatz deutlich weniger frustrierend.

Tastatur verbinden

Verbinden Sie die Tastatur mit Smart Connector, USB-C-Kabel oder über Bluetooth. Für Letzteres müssen Sie die Tastatur unter Umständen einmalig in den Pairing-Modus versetzen und auf iPad oder iPhone in „Einstellungen > Bluetooth“ auswählen und damit koppeln. Bei der Verwendung externer Keyboards scheint es ratsam, unter „Einstellungen > Allgemein > Tastatur > Hardwaretastatur“ die „Auto-Großschreibung“ und „Auto-Korrektur“ abzuschalten. Den Kurzbefehl, durch zweimaliges Drücken der Leertaste einen Punkt zu setzen, lassen Sie wahlweise aktiv.

Sondertasten wie die Feststelltaste machen Sie in den Einstellungen zur Globus-Taste.,
Sondertasten wie die Feststelltaste machen Sie in den Einstellungen zur Globus-Taste.,

Sondertasten wie die Feststelltaste machen Sie in den Einstellungen zur Globus-Taste.

Unten passen Sie die Tastenbelegung unter „Sondertasten“ an. Falls Sie eine Tastatur ohne Globus-Taste besitzen, ändern Sie hier zum Beispiel die Feststelltaste (Caps Lock) auf „Globus“. Dadurch sind die Kürzel einfacher zu erreichen, wenn eine Fn-Taste auf der linken Seite fehlen sollte. Bei uns löste das obendrein das Problem, dass einzelne Befehle wie Fn + S auf einer Keychron-Tastatur nicht funktionierten.


URL dieses Artikels:
https://www.heise.de/-11196101

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/IT-Sicherheit-Wie-Apples-Speicherschutz-MIE-funktioniert-10992812.html
[2] https://www.heise.de/tests/iPhone-17-17-Pro-17-Pro-Max-und-Air-im-Test-10663319.html
[3] https://www.heise.de/ratgeber/iOS-und-iPadOS-26-in-Action-23-Tipps-fuer-die-neuen-Apple-Systeme-10646549.html
[4] https://www.heise.de/ratgeber/iPadOS-26-So-nutzen-Sie-das-neue-Fenstersystem-auf-Apple-Tablet-10646557.html
[5] https://www.heise.de/ratgeber/macOS-26-Tahoe-auszreizen-20-Tipps-fuer-Apples-neues-System-10646553.html
[6] https://www.heise.de/ratgeber/Apple-Apps-in-iOS-26-und-macOS-26-Die-besten-Tipps-zu-den-neuen-Systemen-10652679.html
[7] https://www.heise.de/ratgeber/Apple-Intelligence-Tipps-zum-Umgang-mit-KI-in-iOS-26-macOS-26-und-Co-10652685.html
[8] https://www.heise.de/ratgeber/watchOS-26-Das-ist-neu-auf-Apples-Uhren-und-so-setzen-Sie-es-ein-10653259.html
[9] https://www.heise.de/ratgeber/tvOS-26-Viele-Tipps-zu-Apples-neuem-Apple-TV-Betriebssystem-10653255.html
[10] https://www.heise.de/ratgeber/15-Tipps-Das-neue-Apple-Mail-richtig-nutzen-10383422.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 08:00

Störungsmeldung vom 17.03.2026 02:17

Von heise online

Neue Störungsmeldung für Provider T-Online

Details

Beginn
17.03.2026 02:17
Region
Bad Bentheim (05922)
Provider
T-Online
Zugangsart
ADSL

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

  • 17. März 2026 um 02:17

Gefahr im Schacht: Viele Aufzüge ohne Schutz gegen Hacker

Von Heise
Finger auf Knöpfen eines Aufzugs

(Bild: Pepj/Shutterstock.com)

Die Zahl der vom Tüv festgestellten Mängel an Aufzügen ist 2025 deutlich gestiegen. Wesentlicher Grund dafür sind Defizite beim Thema Cybersicherheit.

Aufzüge in Wohn- und Geschäftsgebäuden werden zunehmend digital gesteuert – und sind damit potenzielle Angriffsziele für Cyberkriminelle. Doch zu wenige Anlagen sind ausreichend dagegen geschützt, wie der Tüv-Verband in seinem aktuellen Anlagensicherheitsreport mitteilt. Demnach wiesen knapp zwei Drittel der untersuchten Aufzüge im vergangenen Jahr geringfügige Mängel auf. Das waren mehr als 4 Prozentpunkte mehr als im Vorjahr und sogar fast 22 Prozentpunkte mehr als 2023.

Ein wesentlicher Grund für diesen Anstieg seien Defizite bei der Cybersicherheit, betont der Tüv. „Die Betreiber sind seit mehreren Jahren dazu verpflichtet, entsprechende Schutzmaßnahmen umzusetzen und diese zu dokumentieren“, hieß es. Fehle der Nachweis, führe das zu einem geringfügigen Mangel. „Hersteller und vor allem Betreiber sollten die Cybersicherheit [1] ernst nehmen und ihren Pflichten nachkommen.“

„Immer wieder kommt es zu schweren Unfällen“

Insgesamt wurden im vergangenen Jahr knapp 723.300 Aufzugsanlagen überprüft. Mehr als jeder zehnte Aufzug wies dabei sogenannte erhebliche Mängel auf. Bei 0,8 Prozent beziehungsweise 5.800 Anlagen wies der Tüv gar gefährliche Mängel auf. 3.000 dieser Aufzüge wurden unverzüglich stillgelegt, weil sie eine Gefahr für Leib und Leben darstellten.

Grund dafür waren unter anderem verschlissene Tragseile. „Immer wieder kommt es zu schweren Unfällen“, teilte der Tüv weiter mit. „Deren Zahl kann mit dem bewährten Zusammenspiel von regelmäßiger Wartung durch den Betreiber, unabhängiger Prüfung und behördlicher Überwachung auf einem Minimum gehalten werden.“


URL dieses Artikels:
https://www.heise.de/-11213144

Links in diesem Artikel:
[1] https://www.heise.de/thema/Cybersecurity
[2] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&amp;wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[3] mailto:mho@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 07:37

heise+ | Nokias Campus in Finnland entwickelt und baut neue Technik für Mobilfunknetze

Von Heise

Am neu errichteten Campus „Home of Radio“ entwickelt und baut Nokia Hard-und Software für die Mobilfunknetze der Zukunft. Ein Besuch in Oulu.

Februar 2026: Nokia lud eine Gruppe von einem Dutzend internationaler Journalisten auf ihr Testgelände „Home of Radio“ ein. Geheimsachen bekamen die Besucher natürlich nicht zu sehen, aber der Überblick liefert spannende Einblicke. Journalisten der c‘t wagten einen Blick hinter die Kulissen.

Am neu errichteten Campus entwickelt und baut die Firma Nokia Hard- und Software für die Mobilfunknetze der Zukunft. Als Teil der kritischen Infrastruktur vieler Staaten muss die Technik dabei rauen Bedingungen widerstehen. Die Nähe zum Polarkreis ermöglicht viele wirklichkeitsnahe Prüfungen. Auch sonst ist der Campus für alle nötigen Tests gerüstet. Bis hier ein fertiges Produkt vom Band rollt, sind viele Stationen nötig.

Guckt man aus den riesigen Panoramafenstern im Gebäude, möchte man, geblendet vom Licht, jenseits schneebedeckter Wälder und eisglitzernder Seen fast die Silberstreifen am Horizont erkennen, die Nokia da mit Begriffen wie AI-Supercycle und 6G-Netzwerken auf die Präsentationsfolien zeichnet.


URL dieses Artikels:
https://www.heise.de/-11146268

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Nokias-Campus-in-Finnland-entwickelt-und-baut-neue-Technik-fuer-Mobilfunknetze-11146268.html
[2] https://www.heise.de/tests/Prepaid-Tarife-fuer-jeden-Bedarf-im-Vergleich-10362450.html
[3] https://www.heise.de/hintergrund/Neue-LEO-Satelliten-von-Almagest-AST-SpaceSail-und-Starlink-auf-dem-Markt-10277852.html
[4] https://www.heise.de/tests/Guenstige-Mobilfunk-Laufzeitvertraege-bis-30-Euro-pro-Monat-im-Vergleich-10232423.html
[5] https://www.heise.de/tests/Smartphone-Tarife-mit-mehr-als-30-Gigabyte-Datenvolumen-pro-Monat-im-Vergleich-10179652.html
[6] https://www.heise.de/tests/Mobilfunk-Prepaidtarife-mit-langer-Laufzeit-im-Vergleich-9997379.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 17. März 2026 um 07:00

Mit KI-Hardware: Nvidia erwartet bis 2027 eine Billion US-Dollar Umsatz

Von Johannes Hiltscher
Die Nachfrage nach KI -Rechenleistung ist so stark gestiegen, dass Nvidias CEO seine Umsatzprognose nach wenigen Monaten verdoppelt.
Nvidia hat seine Umsatzprognose mal eben verdoppelt - und wahrscheinlich wird es noch mehr. (Bild: Nvidia)
Nvidia hat seine Umsatzprognose mal eben verdoppelt - und wahrscheinlich wird es noch mehr. Bild: Nvidia

Eine halbe Billion US-Dollar Umsatz mit Blackwell- und Rubin-GPUs bis 2026 klangen bereits unfassbar viel. Diese Prognose von Nvidias CEO Jensen Huang ist nicht einmal ein halbes Jahr alt und bereits von der Realität überholt. Im Rahmen der Hausmesse GTC im kalifornischen Santa Clara hat Huang sie noch einmal verdoppelt.

Die alte Prognose bezog sich auf den Zeitraum von 2025 bis 2026, die neue bezieht noch das Jahr 2027 mit ein. Dennoch zeigt sie: Nvidia rechnet mit weiter steigender Nachfrage, ein Platzen der KI-Blase deutet sich also vorerst nicht an. Die Nachfrage nach KI-Rechenleistung sei so immens, dass Nvidia sie gar nicht stillen könne, so Huang. Daher sei die Prognose von einer Billion US-Dollar Umsatz auch konservativ – sie sei bereits sicher absehbar. Zwei Drittel des Umsatzes kommen dabei von Hyperscalern.

Praktisch erwartet Nvidia offensichtlich noch einmal mehr Umsatz, wird aber durch die Fertigungskapazität von TSMC begrenzt. Um mehr GPUs für Rechenzentren produzieren zu können, wurden allerdings die Fertigungskapazitäten für Consumer-GPUs reduziert . Ein wenig befreit sich Nvidia mit der Vera-Rubin-Generation allerdings von den Beschränkungen durch den langjährigen Partner: Hier kommen auch bei Samsung gefertigte LPUs zum Einsatz.

Nvidia gibt kaum noch Umsatz ab

Mit Vera Rubin hat Nvidia zudem eine Plattform geschaffen, bei der das Unternehmen die komplette Hardware für ein KI-Rechenzentrum abdeckt . Damit kann Nvidia, zumindest theoretisch, einen noch größeren Teil der Ausgaben für Hardware in seine Bilanz lenken.

Wohl deshalb warb Huang nachdrücklich für Nvidias Hardware. Sie sei nicht nur die günstigste, sondern auch die verlässlichste Plattform für KI – egal wo Kunden sie einsetzen wollten, Nvidia ermögliche es.

Adblock test (Why?)

  • 16. März 2026 um 22:56

Neues Vera-Rubin-System: Nvidia übernimmt das ganze Rechenzentrum

Von Johannes Hiltscher
Nvidia hat die KI-Hardware von Groq bereits voll absorbiert – das braucht mehr Platz im Rechenzentrum. Für Privatkunden gab es zumindest ein neues DLSS.
Ein Vera-Rubin-System nach Nvidias Vorstellung besteht aus 40 Racks. (Bild: Nvidia)
Ein Vera-Rubin-System nach Nvidias Vorstellung besteht aus 40 Racks. Bild: Nvidia

Nvidia hat in Santa Clara, Kalifornien, seine jährliche Hausmesse GTC 2026 abgehalten. Zu Beginn gab es einen kleinen Grund zum Feiern: Nvidias Programmierplattform Cuda (g+) wird in diesem Jahr 20 Jahre alt. Nvidia-CEO Jensen Huang bezeichnete die Plattform als Schwungrad, die durch sie erreichten Fortschritte hätten neue Nutzer angezogen, die wiederum neue Ideen umgesetzt hätten.

Einen Grundstein dafür habe die große Verbreitung von Cuda gelegt, das auf jeder Nvidia-Desktop-GPU läuft. Mit denen startete dann auch die Vorstellung – zwar nicht mit einer neuen Consumer-GPU-Generation, dafür aber mit DLSS 5 . Das sorgt nicht nur für schönere Bilder, sondern verändert diese deutlich: Gesichter und Texturen werden wesentlich detailreicher.

Danach wechselte der Fokus allerdings, wie zuletzt gewohnt, auf Unternehmen: Den Anfang machten zwei neue Bibliotheken zur Datenverarbeitung mittels KI, cuDF für die Arbeit mit Datenbanken sowie cuVS für die Arbeit mit unstrukturierten Daten. Gegenüber klassischer Verarbeitung mit CPUs sollen die Kosten um rund drei Viertel sinken – zumindest hätten das Beispiele von IBM, Dell und Google Cloud gezeigt.

Groq ist bereits in Vera-Rubin-Rack-System integriert

Schwerpunkt war erwartbar die Vera-Rubin-Plattform . Die integriert bereits die LPU von Groq, das Nvidia im Dezember 2025 praktisch übernommen hatte . Nvidia setzt dabei die bislang noch nicht vorgestellte dritte Generation der LPU namens LP30 ein. Gefertigt wird die bei Samsung, was die Kapazitätsengpässe bei TSMC umgeht.

Die Groq-Prozessoren sollen dabei insbesondere bei sehr großen Modellen mit Billionen Parametern den Inferenz-Durchsatz im Vergleich zu Blackwell wesentlich steigern. Damit könnten mehr Kunden bei Leading-Edge-Modellen bedient werden, laut Huang sei eine Verfünffachung des Umsatzes gegenüber Blackwell möglich. LPU und Rubin-GPU arbeiten dabei als Einheit. Die Rubin-GPUs übernehmen den rechenintensiven Prefill-Teil, bei dem die Eingabe-Tokens verarbeitet und der KV-Cache befüllt werden. Auch der Attention-Mechanismus läuft auf den GPUs.

Die LPUs hingegen übernehmen den Decode-Part, bei dem es auf hohe Speicherbandbreite ankommt. Hier werden die Gewichtsparameter benötigt, für die jede LPU 500 MByte schnellen SRAM enthält. Ein Rack mit 256 LPUs kommt dabei zwar nur auf 128 GByte RAM, dafür aber auf eine Speicherbandbreite von 40 Petabyte/s. Ein Rack mit Rubin-GPUs kommt trotz HBM4 nur auf 1,4 Petabyte/s.

Für Rubin Ultra sowie die nächste GPU-Generation Feynman sind jeweils neue LPU-Varianten – LP35 und LP40 – geplant. Die im vergangenen Jahr vorgestellte Rubin CPX (g+) , als Prefill-Beschleuniger geplant, wurde hingegen nicht mehr erwähnt. Auch gab es kaum neue Informationen zur Feynman-Generation.

Neuer CPU-Konkurrent für AMD, Ampere und Intel

Während Nvidia die Grace-CPU erst spät separat anbot , sieht dies beim neuen ARM-Prozessor Vera anders aus: Er wird auch direkt für reine CPU-Systeme angeboten. HPE etwa bietet für sein neues Cray-GX5000-System das GX240-Blade mit 16 Vera-CPUs an. In einem Rack lassen sich damit 640 CPUs unterbringen. Die CPU soll laut Nvidia die doppelte Leistung pro Watt im Vergleich zu anderen Modellen erreichen.

Nvidia selbst wird Blades mit vier Grace-CPUs anbieten. Ein Rack kommt damit auf 256 CPUs und setzt auf eine Ethernet-Bus-Bar, wodurch die manuelle Verkabelung entfällt.

Daneben bietet Nvidia mit dem CX9 auch eine eigene Storage-Lösung auf Basis von Vera-CPU und Bluefield4-NICs an. Damit kann ein komplettes Rechenzentrum nur mit Nvidia-Hardware aufgebaut werden.

Nvidias Systeme sind in den vergangenen Jahren bereits auf mehrere Racks angewachsen, mit der Vera-Rubin-Generation explodiert die Anzahl aber regelrecht. Zur CES 2026 stand Jensen Huang noch vor einem Bild mit 14 Racks, die ein Vera-Rubin-System bildeten. Zur GTC waren es jetzt 40 – was über 20 m Breite entspricht.

Allein 16 Racks sind für LPUs vorgesehen. Ausgeliefert werden sollen die Vera-Rubin-Systeme ab dem zweiten Halbjahr 2026. Anders als bei Blackwell soll diesmal alles reibungslos laufen.

Mit Rubin Ultra, dessen Tape-Out bereits erfolgt ist, steht anschließend ein komplett neu entworfenes Rack-System namens Kyber an. Die Blades enthalten weiter je vier GPUs und zwei Vera-CPUs, werden aber nun vertikal eingesetzt. Neu ist zudem, dass keine separaten Nvlink-Switches mehr verbaut werden müssen. Damit passen 144 statt bislang 72 GPUs in ein Rack, das eine Nvlink-Domain bildet.

Möglich ist das, da eine neue Mid- und Backplane eingesetzt werden. Die Mid-Plane dient dabei lediglich als Verbinder zwischen Blades und Backplane. Letztere ist die eigentliche Neuerung: Sie integriert die Nvlink-Switches. Das aktuelle Oberon-Rack-System wird Nvidia aber weiter pflegen – auch mit der kommenden GPU-Generation Feynman. Zu der wurde mit Rosa auch eine neue CPU-Generation angekündigt.

Optisches Scale-up kommt

Bei Rubin kann Oberon mit optischem Nvlink genutzt werden, um 576 GPUs in einer Scale-up-Einheit zu verbinden. Bei Feynman sollen mittels Co-Packaged Optics und Kyber-Racks 1.152 GPUs als Scale-up-Domain verbunden werden können.

Nicht fehlen durfte selbstverständlich auch ein Disney-Roboter – nach einem Star-Wars-Droiden diesmal Schneemann Olaf aus Frozen.

Adblock test (Why?)

  • 16. März 2026 um 22:28

Keynote: Mehr Tokens, schnellere KI-Hardware und autonomes Fahren

Von Peter Steinlechner
Nvidia Nvidia-Chef Jensen Huang hat Fabriken für Tokens, neue Systeme rund um Vera Rubin sowie Software, Roboter und autonome Autos vorgestellt.
Nvidia-Chef Jensen Huang stellt auf der GTC 2026 neue Hardware vor (Bild: Bild: Nvidia / Screenshot: Golem)
Nvidia-Chef Jensen Huang stellt auf der GTC 2026 neue Hardware vor Bild: Bild: Nvidia / Screenshot: Golem

Schon sehr früh macht Nvidia-Chef Jensen Huang in seiner Keynote auf der GTC 2026 klar, worum es seiner Firma inzwischen eigentlich geht: nicht mehr nur um Chips, sondern um eine komplette KI-Infrastruktur. "Wir sprechen über Technologie, wir sprechen über Plattformen" , sagt Huang gleich zu Beginn.

Nvidia habe inzwischen drei große Plattformen aufgebaut: CUDA-X für Software, integrierte Systeme für Rechenzentren und nun auch sogenannte "AI Factories" .

Diese Idee zieht sich durch die gesamte Präsentation: schnellere Inferenz, neue Rechenzentren als Token-Fabriken, eine neue Systemgeneration namens Vera Rubin, Agenten-Software mit OpenCLAW und am Ende auch neue Grafiktechnik wie DLSS 5.

Der wichtigste Punkt der Präsentation ist jedoch kein einzelnes Produkt, sondern Huangs Erklärung, warum Nvidia seine Plattform so stark erweitert. KI habe sich in kurzer Zeit von generativ über schlussfolgernd zu agentisch entwickelt.

Aus Systemen, die Texte oder Bilder erzeugen, würden Systeme, die selbst Aufgaben erledigen. Huang beschreibt das als "Inference Inflection" , also den Moment, in dem die Nachfrage nach KI-Inferenz explodiert.

Die dafür benötigte Rechenleistung sei in zwei Jahren grob um das Zehntausendfache gestiegen. Zusammen mit der deutlich höheren Nutzung ergebe sich allerdings gefühlt sogar eine Million mal mehr Bedarf.

Etwas konkreter wird Huang beim Kern der Show: Nvidia baut seine KI-Systeme von Blackwell in Richtung der nächsten Plattformgeneration Vera Rubin aus. Blackwell mit NVLink-72-Architektur ist laut Huang derzeit der wichtigste Motor für Inferenz-Workloads.

Vera Rubin soll die nächste Stufe für agentische KI werden. Laut Nvidia handelt es sich dabei um ein vollständig integriertes, flüssiggekühltes Rack-System mit neuer CPU-Architektur, neuem Storage-Stack und der sechsten Generation von NVLink.

Im Vorfeld der Präsentation hatte Nvidia diese Strategie auch in einem Pre-Briefing erläutert, an dem Golem teilgenommen hat. Dort erklärte das Unternehmen, dass künftig nicht einzelne Beschleuniger entscheidend seien, sondern komplette Systeme aus GPU, CPU, Netzwerk, Speicher und Software.

Deshalb spricht Huang auf der Bühne fast durchgehend über Racks und Rechenzentren statt über einzelne Chips.

Massiver Kostenvorteil angestrebt

Huang begründet das mit einem Begriff, den Nvidia inzwischen häufig verwendet: Rechenzentren seien die schon genannten "AI Factories" , also Fabriken für Tokens. In diesem Modell zählt nicht nur die rohe Leistung der Hardware, sondern vor allem, wie viele nutzbare Tokens ein Rechenzentrum erzeugen kann.

Deshalb betont Huang mehrfach, Nvidia wolle die "niedrigsten Kosten pro Token" liefern. In seinem Beispiel soll Blackwell den möglichen Umsatz einer solchen KI-Fabrik verfünffachen, Vera Rubin anschließend noch einmal deutlich steigern. Für Nvidia ist das weniger eine klassische Hardware-Roadmap als ein neues Geschäftsmodell für KI-Rechenzentren.

Neu ist außerdem die Verbindung von Vera Rubin mit Groq-Technik. Nvidia spricht hier von Dynamo als Software-Schicht, die Inferenz-Workloads aufteilt: hoher Durchsatz auf Nvidia-Hardware, besonders latenzkritische Token-Generierung auf Groq-Systemen.

Laut Huang könne das bei bestimmten Inferenz-Workloads eine "35-fache Leistungssteigerung" bringen. Für das Groq-LPX-System nennt Huang sogar einen groben Zeitplan: Es sei bereits in Produktion und werde in der zweiten Jahreshälfte 2026 ausgeliefert.

Für Vera Rubin nennt Huang keinen konkreten Starttermin, betont aber, das Sampling laufe "unglaublich gut" und ein erstes Rack sei bereits bei Microsoft Azure installiert worden.

Neben Hardware nimmt auch Software viel Raum ein. Nvidia kündigt mit OpenCLAW ein Open-Source-Framework für agentische Systeme an. Huang beschreibt es als "Betriebssystem für agentische Computer" .

Mit Nemo Claw soll es zusätzlich eine unternehmenstaugliche Referenzplattform geben, inklusive Sicherheitsmechanismen, Richtlinienverwaltung und Datenschutz-Komponenten.

Die Idee dahinter: KI-Agenten sollen nicht nur Antworten generieren, sondern aktiv mit Dateien, Tools und internen Daten arbeiten können. Einen konkreten Veröffentlichungstermin nennt Nvidia dafür noch nicht.

Auch autonome Fahrzeuge spielen für Nvidia eine wichtige Rolle. Huang bezeichnet sie als eines der ersten großen Beispiele für "Physical AI", also KI-Systeme, die direkt in der realen Welt handeln. Nvidia kombiniert dafür Training in Rechenzentren, Simulation mit Omniverse sowie spezielle Fahrzeugplattformen.

Ziel ist es, Fahrmodelle zunächst in riesigen virtuellen Umgebungen zu trainieren und anschließend im Fahrzeug auszuführen. Hersteller und Entwickler könnten so Milliarden Testkilometer simulieren, bevor Fahrzeuge auf die Straße kommen.

Für Nvidia ist das ein weiteres Beispiel dafür, wie dieselbe KI-Infrastruktur – von Simulation bis Inferenz – in ganz unterschiedlichen Branchen eingesetzt werden kann.

In der Keynote nennt Huang dabei auch neue Automobilpartner für Nvidias Plattform. Dazu gehören BYD, Hyundai, Nissan und Geely. Diese Hersteller schließen sich bestehenden Partnern wie Mercedes-Benz, Toyota und General Motors an.

Ein weiterer Schwerpunkt der Keynote ist die Weiterentwicklung von CUDA; die GPU-Plattform wird dieses Jahr 20 Jahre alt. Huang bezeichnet die Bibliotheken von CUDA-X als "die Kronjuwelen" von Nvidia.

Schlussworte mit Olaf dem Schneeman

Neue Versionen sollen insbesondere Datenverarbeitung beschleunigen: strukturierte Daten etwa mit cuDF, unstrukturierte Daten mit cuVS. Als Beispiele nennt Huang Plattformen wie IBM Watsonx.data, Dells AI Data Platform sowie Googles BigQuery und Vertex AI.

Daneben zeigt Nvidia erneut seine Strategie für sogenannte Physical AI. Plattformen wie Isaac Lab, Newton, Cosmos und Groot sollen eine gemeinsame Infrastruktur für Robotik, autonome Fahrzeuge und industrielle Systeme bilden.

Huang zeigt dabei auch Beispiele aus der Unterhaltungsindustrie: Mit Hilfe von Simulation und Reinforcement Learning lassen sich etwa animierte Figuren in echte Roboter übersetzen – etwa Disneys Schneemann Olaf aus dem Kinofilm Frozen.

Olaf ist als physische Figur mit KI und Robotik am Schluss der Keynote über die Bühne gelaufen und hat auf Huang reagiert. Der Nvidia-Chef beschreibt diese Entwicklung als nächsten Schritt, bei dem KI nicht nur digitale Inhalte erzeugt, sondern Maschinen in der realen Welt steuert.

Adblock test (Why?)

  • 16. März 2026 um 22:21

Das Ende der Nerds? Wie KI das Programmieren neu erfindet

Von Thomas Pany
Schmaler Typ mit Nerd-Brille vor einer Tafel, die ihm Muskeln aufmalt

Bild: Shutterstock.com

Programmieren wird zum Dialog mit KI-Systemen. Die Produktivität steigt – doch auch die Angst vor Jobverlust und einer neuen Hierarchie im Tech-Beruf.

Es geht eine neue Unruhe durch eine Branche, die jahrzehntelang als sicher galt und glänzende Karrieren versprach. Programmierer und Softwareentwickler waren lange gesuchte Fachkräfte, oft rarer als es die digitalisierungsgetriebenen Wünsche der Unternehmen erlaubten.

Nun rollt mit der KI die nächste große Veränderungswelle heran. Nachrichten berichten von Entlassungen, von Vorsicht bei Neueinstellungen und von wachsender Unsicherheit unter Nachwuchskräften.

Was müssen Programmierer künftig noch können, um gefragt zu bleiben? Wer sich anschaut, wie Clive Thompson in der New York Times [1] die neue Welt des Programmierens beschreibt, bekommt den Eindruck, dass hier mehr geschieht als nur ein weiterer Technologieschub. Es ist ein tiefer Rollenwechsel, den man mit der Frage: "Ist das jetzt das Ende der Nerds" überschreiben könnte.

Ein bezeichnender Auszug:

"In den 2000er‑ und 2010er‑Jahren abstrahierten Entwickler immer mehr Routinearbeit. Trafen sie auf eine mühsame Aufgabe, automatisierten sie sie und stellten den Code oft als Open Source zur Verfügung. Ein großer Teil moderner Software entsteht, indem Entwickler viele bereits vorhandene Codebausteine miteinander kombinieren.

Mit KI steigen Programmierer jedoch auf eine noch höhere Abstraktionsebene. Sie beschreiben in normaler Sprache, was ein Programm tun soll, und Agenten übersetzen diese menschliche Absicht in Code. Was bleibt also noch übrig?

Oder, wie Boris Cherny, der Leiter von Claude Code, es ausdrückte: ‚Was ist eigentlich Berechnung — was ist Programmieren?‘ Dann fügte er hinzu: ‚Man kann ziemlich schnell ziemlich philosophisch werden.‘"

Die Zeitersparnis durch K ist für Programmierer enorm, so der Zeitungsbericht. Doch bleibe die Frage: Was passiert mit einem Beruf, wenn Maschinen ihn besser können?

Von Zeile für Zeile zum Gespräch mit der Maschine

Programmieren war immer ein Handwerk. Man lernte Sprachen wie Python oder JavaScript, tippte Code, suchte Fehler, korrigierte sie – oft tagelang. Jetzt ändert sich das grundlegend. KI-Werkzeuge wie GitHub Copilot oder Claude Code schreiben Code, den Menschen nur noch prüfen und anpassen müssen.

"Programmieren wird zu einem Gespräch", schreibt Clive Thompson, der für seinen ausführlichen Bericht über 70 Entwickler bei Google, Amazon, Microsoft und Start-ups interviewt hat. Entwickler beschreiben der KI, was sie wollen – in normaler Sprache. Die KI setzt es um. Der Mensch wird zum Architekten, nicht mehr zum Bauarbeiter.

Boris Cherny, Leiter von Claude Code bei Anthropic, hat selbst als Teenager noch in Assembly programmiert, einer extrem komplizierten Sprache. Heute diktiert er seiner KI per Smartphone, was sie tun soll. "Ich habe keine einzige Zeile mehr von Hand geschrieben", sagt er der New York Times.

"Es ist eine fremde Intelligenz, mit der wir lernen zu arbeiten."

Produktivität steigt – aber nicht überall gleich

Drei große Experimente mit knapp 5.000 Entwicklern bei Microsoft, Accenture und einem anonymen Elektronikkonzern zeigen: KI macht Programmierer produktiver. Im Schnitt steigt die Zahl erledigter Aufgaben um 26 Prozent, so eine Studie von Kevin Zheyuan Cui und Kollegen [2].

Doch die Zahlen variieren stark. In Start-ups, wo neue Projekte entstehen, berichten manche Entwickler von einer zehn- bis hundertfachen Produktivitätssteigerung. Bei Großkonzernen wie Google liegt der Gewinn nur bei etwa zehn Prozent [3]. Der Grund: Dort geht es weniger ums Schreiben neuen Codes, sondern ums Verstehen alter, komplexer Systeme.

Die Studie von Cui zeigt, bemerkenswerterweise hatten weniger erfahrene Entwickler höhere Akzeptanzraten und größere Produktivitätszuwächse.

Zwischenüberschrift: Einstiegsjobs verschwinden

Das Karriereportal Handshake [4] berichtet: Die Zahl der Stellenanzeigen für Absolventen ist 2025 um 15 Prozent gesunken. Gleichzeitig sei die Zahl der Arbeitgeber, die KI in Stellenanzeigen erwähnen, in zwei Jahren um 400 Prozent gestiegen.

Informatik-Studenten spüren das. 70 Prozent der Absolventen 2026 sagen laut Handshake, dass sie pessimistisch in die Zukunft blicken. Fast 30 Prozent würden heute ein anderes Fach wählen [5], wenn sie könnten.

Wer nutzt KI zum Programmieren?

Anthropic [6], die Firma hinter Claude, hat untersucht, wer ihre KI nutzt. Das Ergebnis: Vor allem Start-ups setzen auf KI-Agenten wie Claude Code. 33 Prozent der Nutzung entfällt auf Start-ups, nur 13 Prozent auf große Unternehmen.

Start-ups nutzen KI auch anders. 79 Prozent der Gespräche mit Claude Code sind "Automatisierung" – die KI erledigt Aufgaben selbstständig. Bei Claude.ai, der Standard-Version, sind es nur 49 Prozent. Das zeigt: Je spezialisierter die KI, desto mehr übernimmt sie.

Auch die Art der Aufgaben ändert sich. Entwickler nutzen KI vor allem für Frontend-Entwicklung – also für Benutzeroberflächen und Webseiten. Sprachen wie JavaScript, HTML und CSS dominieren. Das sogenannte Vibe-Coding wird beliebter: Man beschreibt, was man will, und die KI baut es.

Massenentlassungen in der Tech-Branche

Die Zahlen sind eindeutig. Laut Challenger, Gray & Christmas [7] haben Unternehmen 2025 über 806.000 Stellen abgebaut – so viele wie seit 2020 nicht mehr. Davon entfielen 89.000 auf die Tech-Branche, ein Plus von 36 Prozent im Vergleich zum Vorjahr.

Seit 2023 wurden über 27.000 Jobs direkt wegen KI gestrichen. Microsoft hat im Frühsommer letzten Jahres 9.000 Stellen abgebaut, darunter viele in der Xbox-Sparte [8]. Das Unternehmen begründet die Kürzungen mit "organisatorischen Veränderungen " und der Notwendigkeit, in einem "dynamischen Markt " zu bestehen.

CBS News [9] berichtet: KI ist einer der fünf Hauptgründe für Entlassungen 2025. Doch andere Faktoren spielen ebenfalls eine Rolle: Zinsen, Inflation, Handelskonflikte.

Nerds werden zu Managern

Die Kultur des Programmierens ändert sich. Früher galt: Wer gut programmiert, ist introvertiert, sitzt allein vor dem Bildschirm und tippt Code. Heute müssen Entwickler ständig mit KI kommunizieren. "Programmieren wird dialogischer", sagt Anil Dash, ein langjähriger Entwickler, der New York Times.

Das sei ironisch. Denn viele wurden Programmierer, weil sie nicht reden wollten. Jetzt müssen sie ständig mit einer Maschine sprechen – und sie manchmal sogar anschreien, damit sie gehorcht.

Entwickler werden zu Managern von KI-Agenten. Sie entwerfen Systeme, prüfen Vorschläge, experimentieren. Das Handwerk verschwindet?

Wird Programmieren demokratisiert?

Es gibt auch eine optimistische Lesart. Wenn Programmieren einfacher wird, könnten mehr Menschen Software erstellen. Das sogenannte "Jevons-Paradox [10]" besagt: Wenn etwas günstiger wird, wird es mehr genutzt.

Ein Beispiel: Ein Manager einer Druckerei in Paris hat mit ChatGPT eine App gebaut, die Bilder für Drucker vorbereitet. Er kann kein Python. Aber die KI konnte es für ihn. "Ich habe keine Ahnung, wie der Code funktioniert", sagt er der New York Times [11].

Solche Fälle könnten zunehmen. Mehr Menschen könnten kleine Programme schreiben – ohne jemals Programmieren gelernt zu haben. Das würde die Zahl der Gelegenheitsprogrammierer erhöhen.

Was kommt als Nächstes?

Die Zukunft des Programmierens ist offen. Wird der Mensch weiter gebraucht? Oder wird KI irgendwann alles selbst machen? Werden Entwickler nur noch Aufseher sein, die Maschinen kontrollieren?

Eine Studie zeigt: KI hilft vor allem bei neuen Projekten. Bei alten, komplexen Systemen ist sie weniger nützlich. Doch KI wird besser. Und wenn sie besser wird, könnte sie auch alte Systeme verstehen.

Das CompTIA Tech Jobs Report [12] meldet: Im Juni 2025 wurden 90.000 neue Tech-Jobs geschaffen. Die Arbeitslosenquote in Tech-Berufen liegt bei 2,8 Prozent. Das klingt gut. Doch die Frage ist: Wie lange noch?

Die New York Times zitiert Thomas Ptacek, einen Entwickler aus Chicago zu den Auseinandersetzungen zwischen den Entwicklern, die KI lieben, und denen, die sie hassen: "Es ist ein Bürgerkrieg." Er sei da in der Mitte. Laut Ptacek machen sich die Verweigerer etwas vor, wenn sie behaupten, KI funktioniere nicht gut und könne auch nicht gut funktionieren.

"LLMs werden beim Programmieren gewinnen“, sagt er. Möglicherweise bedeute das schlechte Berufsaussichten.


URL dieses Artikels:
https://www.heise.de/-11212482

Links in diesem Artikel:
[1] https://www.nytimes.com/2026/03/12/magazine/ai-coding-programming-jobs-claude-chatgpt.html
[2] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4945566
[3] https://www.nytimes.com/2026/03/12/magazine/ai-coding-programming-jobs-claude-chatgpt.html
[4] https://joinhandshake.com/research/economic-research/labor-market-retro-january-2026/).
[5] https://joinhandshake.com/blog/network-trends/class-of-2026-spotlight-computer-science/
[6] https://www.anthropic.com/news/impact-software-development
[7] https://www.challengergray.com/blog/summer-lull-ends-july-job-cuts-spike-tech-ai-tariffs-blamed/
[8] https://apnews.com/article/microsoft-layoffs-xbox-f44079957b12370f72e24edebe9fcc6b
[9] https://www.cbsnews.com/amp/news/ai-jobs-layoffs-us-2025/
[10] https://www.nytimes.com/2026/03/12/magazine/ai-coding-programming-jobs-claude-chatgpt.html
[11] https://www.nytimes.com/2026/03/12/magazine/ai-coding-programming-jobs-claude-chatgpt.html
[12] https://www.comptia.org/en-em/about-us/news/press-releases/Tech-hiring-activity-outpaces-expectations-CompTIA-Tech-Jobs-Report-finds/

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 16. März 2026 um 14:46
❌