FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

tvOS 26.4 Beta: Audio-Verbesserungen – und iTunes-Apps verschwinden

Von Heise
Apple TV aus dem Jahre 2021

Apple TV aus dem Jahre 2021

(Bild: Apple)

Apple testet eine neue Audio-Funktion für Apple TV, die Verbindungsprobleme mit Soundbars beheben soll. Gleichzeitig entfernt tvOS die iTunes-Apps.

Apple hat die erste Beta-Version von tvOS 26.4 für Entwickler und öffentliche Tester bereitgestellt. Die neue Firmware enthält eine „Continuous Audio Connection“ genannte Funktion, die anhaltende Audioprobleme beim Apple TV beseitigen soll. Parallel dazu hat Apple [1] die iTunes-Filme- und iTunes-TV-Shows-Apps endgültig aus dem System entfernt.

Die neue Audio-Funktion nutzt das Dolby-MAT-Protokoll (Dolby Metadata-Enhanced Audio Transmission), um eine dauerhafte HDMI-Verbindung zwischen Apple TV und angeschlossenen AV-Receivern oder Soundbars aufrechtzuerhalten. Dabei wird der Ton als unkomprimiertes LPCM mit Dolby-Atmos-Metadaten übertragen. Das soll Probleme verhindern, die bisher beim Wechsel zwischen verschiedenen Audioformaten auftraten – etwa wenn vom Systemsound zu einem Film-Soundtrack umgeschaltet wird.

Behobene Probleme mit 5.1-Sound

Nutzer berichteten in den vergangenen Jahren häufig über Audioprobleme beim Apple TV, insbesondere in Kombination mit Sonos-Soundbars. Zu den Symptomen zählten zu leiser 5.1-PCM-Ton, störende Plopp-Geräusche, Lautstärkeschwankungen und kurze Stille beim Start der Wiedergabe. Diese Probleme gehen auf HDMI-Handshake-Schwierigkeiten zurück, die durch das ständige Umschalten zwischen Audioformaten entstanden.

Mit der kontinuierlichen Dolby-MAT-Verbindung bleiben diese Formatwechsel aus. Erste Nutzerberichte bestätigen, dass 5.1-Inhalte nun gleich laut wie Atmos-Material wiedergegeben werden. Allerdings gibt es auch neue Probleme: Bei Stereo-Inhalten interpretieren manche Sonos-Systeme das Signal fälschlicherweise als Surround-Mix, wodurch der Center-Kanal fehlt. Da sich tvOS 26.4 noch in der Beta-Phase befindet, dürften weitere Verbesserungen folgen.

iTunes-Apps nach über zwei Jahren entfernt

Parallel zur Audio-Funktion hat Apple die iTunes-Filme- und iTunes-TV-Shows-Apps vollständig aus tvOS entfernt. Bereits im Oktober 2023 kündigte das Unternehmen an, die Video-Dienste in der Apple-TV-App zu bündeln [2]. Mit tvOS 17.2 im Dezember 2023 wurden die Apps zunächst mit Weiterleitungsmeldungen versehen. Nun sind sie komplett verschwunden – sowohl auf dem Apple TV 4K als auch auf dem Apple TV [3] HD.

Betroffen ist auch die iTunes-Wunschliste [4], die Apple per E-Mail an Nutzer im Februar 2026 abgekündigt hat. Wer Filme oder Serien für einen späteren Kauf gespeichert hatte, sollte die Einträge in die Watchlist der Apple TV-App übertragen. Alle bereits gekauften Inhalte bleiben in der Apple TV-App zugänglich – es droht kein Zugriffsverlust.

Verfügbarkeit und Ausblick

Die Developer Beta 1 von tvOS 26.4 erschien am 16. Februar 2026, die Public Beta 1 folgte am 17. Februar. Apple veröffentlicht tvOS 26.4 typischerweise nach mehreren Beta-Phasen – die finale Version wird für Mitte bis Ende März 2026 erwartet. Die Continuous Audio Connection steht sowohl auf dem Apple TV 4K als auch auf dem älteren Apple TV HD zur Verfügung.

Ältere AV-Receiver könnten die dauerhafte Dolby-MAT-Verbindung fälschlicherweise als durchgehend aktives Atmos-Signal anzeigen. Apple betont jedoch, dass die Original-Audiomischung dadurch nicht verändert wird. Nutzer mit bekannten Kompatibilitätsproblemen – etwa beim Sony STR-ZA1100ES – berichten von deutlichen Verbesserungen.

tvOS 26.4 folgt auf tvOS 26.3, das Apple Mitte Februar 2026 mit umfangreichen Sicherheitskorrekturen veröffentlicht hatte.


URL dieses Artikels:
https://www.heise.de/-11181605

Links in diesem Artikel:
[1] https://www.heise.de/thema/Apple
[2] https://www.heise.de/news/Apple-entfernt-zwei-Apps-aus-tvOS-17-2-9569604.html
[3] https://www.heise.de/thema/Apple-TV
[4] https://www.heise.de/news/iTunes-Wunschliste-Apple-loescht-das-Feature-jetzt-ganz-11173723.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 18:30

Für Galaxy S25 und weitere: Samsung verteilt wieder Play-Dienste-Updates

Von Heise
Ein Samsung-Galaxy-Smartphone erhält ein Update.

Samsungs Galaxy-Smartphones erhalten wieder Play-Dienste-Updates.

(Bild: Below the Sky / Shutterstock.com)

Nach mehrmonatiger Pause hat Samsung die Verteilung von Play-Dienste-Updates für seine Galaxy-Smartphones und -Tablets wieder aufgenommen.

Mit Beginn der Verteilung des One-UI-8-Updates [1]für Galaxy-Smartphones und -Tablets hatte Samsung die Google-Play-Dienste-Updates ausgesetzt [2]. Die Geräte erhielten damit seit Monaten keine Updates über die Play-Dienste, die neben neuen Funktionen unter anderem auch Sicherheitslücken abdichten. Nun erhalten erste Geräte wieder recht aktuelle Play-Dienste-Versionen.

Screenshot Galaxy S24 mit neuer Play-Dienste-Version
Screenshot Galaxy S24 mit neuer Play-Dienste-Version

Unter anderem erhält das Galaxy S24 eine neue Play-Dienste-Version.

(Bild: Dirk Knop / heise medien)

Dass Samsung die Verteilung der Play-Dienste-Updates wieder freigegeben hat, berichten nicht nur Nutzerinnen und Nutzer auf Reddit [3] (via Android Authority [4]). Auch ein Galaxy S24 aus der heise-online-Redaktion hat heute eine Aktualisierung erhalten. Damit hat das S24 einen Versionssprung der Play-System-Dienste von September 2025 auf Januar 2026 hingelegt.

Laut mehreren Reddit-Beiträgen scheint Samsung die Verteilung für viele Modelle freigegeben zu haben: Neben dem Galaxy S24 landen aktuelle Versionen der Play-Dienste auf dem Galaxy S24 FE, der Galaxy-S25-Serie [5], dem Galaxy A55 5G sowie dem Galaxy Z Fold 7 [6].

Die Aussetzung der Play-Dienste-Updates, die direkt von Google stammen, war laut Samsung Absicht. Der Hersteller sagte gegenüber heise online im Dezember 2025 [7]: „Bei der Einführung neuer Geräte oder größerer One-UI-Updates spielt Samsung ausschließlich Software aus, die das Unternehmen verifiziert hat. Samsung hat die Verteilung von Google-Updates vorübergehend ausgesetzt, um mögliche Probleme zu vermeiden.“ Samsung sagte damals, Google-seitige Updates ab Januar wieder aufnehmen zu wollen. Aus dem Januar ist nun offenbar Februar geworden.

Android: Aktualisierungen über mehrere Kanäle

Android-Smartphones, auch jene mit Samsungs Oberfläche One UI, erhalten Softwareaktualisierungen über mehrere Wege: Neben den größeren Android-System-Updates, die ein- bis zweimal im Jahr erscheinen, erhalten sie außerdem Sicherheitsaktualisierungen, die mittlerweile etwa quartalsweise verteilt werden. Außerdem bekommen sie monatliche Updates über die Google-Play-Dienste. Während die jeweiligen Smartphone-Hersteller die ersten beiden Updatevarianten bereitstellen, kommen die Play-Dienste von Google.

Der Android-Entwickler kann damit bestimmte Systemkomponenten unter anderem durch eine modulare Bauweise des Betriebssystems teilweise selbst mit Updates und neuen Funktionen versorgen. Die System-Updates dienen auch zum Schließen von Sicherheitslücken und Beheben von Fehlern für bestimmte Komponenten, erklärt Google [8]. Über die Play-Dienste-Updates hat Google etwa einen erweiterten Diebstahlschutz, Instant Hotspot sowie Verbesserungen an Quick Share und Google Wallet eingeführt.

Die nächste Pause der Play-Dienste-Aktualisierungen dürfte nicht mehr fern sein. Denn Samsung bereitet schon das Update auf One UI 8.5 [9] vor, das mit dem Galaxy S26 [10] erscheint. Auf dem Markt befindliche Geräte erhalten das Update voraussichtlich ab Ende März 2026.


URL dieses Artikels:
https://www.heise.de/-11181393

Links in diesem Artikel:
[1] https://www.heise.de/news/One-UI-8-Samsung-verteilt-Android-16-fuer-Galaxy-S24-und-weitere-Geraete-10666878.html
[2] https://www.heise.de/news/Samsung-Galaxy-Play-Dienste-Updates-fehlen-seit-Monaten-11118002.html
[3] https://www.reddit.com/r/samsunggalaxy/comments/1r7y4gu/google_play_services_updates_resumed_on_all/
[4] https://www.androidauthority.com/recent-samsung-phones-getting-play-system-updates-3641949/
[5] https://www.heise.de/tests/Samsung-Galaxy-S25-Ultra-und-S25-im-Vergleich-10273668.html
[6] https://www.heise.de/tests/Falt-Smartphones-Samsung-Galaxy-Z-Fold7-und-Flip7-im-Test-10486284.html
[7] https://www.heise.de/news/Samsung-erklaert-ausbleibende-Google-Play-Dienstupdates-11124911.html
[8] https://support.google.com/product-documentation/answer/14343500
[9] https://www.heise.de/news/One-UI-8-Samsung-verteilt-Android-16-fuer-Galaxy-S24-und-weitere-Geraete-10666878.html
[10] https://www.heise.de/news/Galaxy-S26-Samsung-kuendigt-Unpacked-Event-an-11172342.html
[11] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[12] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[13] mailto:afl@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 15:34

Open-Source-Hardware mit HDMI: ESP32-P4-PC angekündigt

Von Daniel Schwabe
Rotes Entwicklungsboard „ESP32-P4-PC“ von Olimex in Schrägansicht, mit deutlich sichtbaren USB‑Buchsen, Ethernet‑Port, HDMI‑Anschluss, Micro‑SD‑Slot und weiteren Steckleisten sowie SMD‑Bauteilen auf der Oberseite, vor neutral grauem Hintergrund.

(Bild: Olimex)

Der Dual-Core-RISC-V-SoC mit 400 MHz und 32 MB PSRAM bringt Multimedia-Funktionen ins Mikrocontroller-Umfeld.

Olimex aus Bulgarien hat mit dem ESP32-P4-PC ein neues Open-Source-Hardware-Board vorgestellt, das (wie der Name schon sagt) auf dem ESP32-P4 basiert. Das Board bietet viele Schnittstellen und Erweiterungsmöglichkeiten auf einer Platine und richtet sich klar an Maker, die mehr wollen als nur einen weiteren WLAN-Mikrocontroller.

Der ESP32-P4 ist ein Prozessor mit zwei RISC-V-Kernen und bis zu 400 MHz Taktfrequenz. Der Chip bringt 768 KByte internen SRAM mit und unterstützt externes PSRAM. Davon sind auf dem ESP32-P4-PC 32 MByte untergebracht. Hinzu kommen Peripherieblöcke wie USB 2.0, Ethernet-MAC, LCD-Interface mit MIPI-DSI-Unterstützung sowie eine Kamera-Schnittstelle (CSI). Der P4 ist damit klar auf HMI-, Multimedia- und Edge-Anwendungen ausgelegt und weniger auf „Blink-LED“.

Gut ausgestattetes Board

Das Board von Olimex nutzt diese Fähigkeiten konsequent aus. Neben Ethernet-Anbindung – optional auch mit Stromversorgung darüber (PoE) – sind HDMI-Ausgang, MIPI-DSI für Displays und eine CSI-Schnittstelle für Kameras direkt vorgesehen. Damit lassen sich beispielsweise kompakte Vision-Systeme, smarte Bedienpanels oder lokale Edge-AI-Anwendungen aufbauen, ohne zusätzliche Adapterplatinen stapeln zu müssen. Wer schon einmal versucht hat, Kamera, Display und Ethernet sauber auf einem Mikrocontroller-Board unterzubringen, weiß: Das spart Nerven – und Steckverbinder. Allerdings unterstützt der ESP32-P4 von sich aus weder WLAN noch Bluetooth. Auch der ESP32-P4-PC verfügt über kein dementsprechendes Modul.

Für Debugging und Entwicklung steht USB-JTAG zur Verfügung. Die Stromversorgung erfolgt über USB-C, zusätzlich ist ein Lithium-Polymere-Akku mit UPS-Funktion integrierbar. Damit kann das Board bei Stromausfall weiterlaufen oder sauber herunterfahren. Gerade bei IoT-Gateways oder industriellen Steuerungen ist das ein praktisches Detail, das sonst oft nachgerüstet werden muss.

Auch klassische Maker-Anforderungen kommen nicht zu kurz. Alle freien GPIO-Pins sind herausgeführt. Über den UEXT-Anschluss lassen sich Erweiterungsmodule anbinden, wie man sie von Olimex kennt (beispielsweise ein Zigbee [1]-Modul). Zusätzlich sind ein Audio-Klinkenanschluss und ein MicroSD-Slot vorhanden. Das eröffnet Einsatzfelder von Multimedia-Terminals bis hin zu Datenloggern mit lokaler Speicherung.

Viele Interfaces

Technisch interessant ist die Kombination aus hoher Taktfrequenz, großem PSRAM und den dedizierten Multimedia-Schnittstellen des ESP32-P4. Laut Datenblatt unterstützt der Chip unter anderem parallele LCD-Interfaces, DMA für schnelle Datenübertragung und mehrere SPI-, I2C- und UART-Controller. Für Maker bedeutet das: Komplexe Anwendungen lassen sich stärker hardwarebeschleunigt umsetzen, anstatt alles per Software zu „erschlagen“.

Ergänzend dazu bringt der ESP32-P4 dedizierte Hardware-Unterstützung für Multimedia mit, darunter Beschleuniger für JPEG und Video-Codecs wie H.264. Damit lassen sich komprimierte Bild- und Videoströme hardwaregestützt dekodieren, ohne die beiden RISC-V-Kerne vollständig auszulasten. In Kombination mit der MIPI-CSI-Kameraschnittstelle und HDMI- beziehungsweise DSI-Ausgabe können so etwa IP-Kamera-Streams verarbeitet oder eigene Videoausgaben realisiert werden – und das weiterhin im typischen Mikrocontroller-Umfeld, also ohne ausgewachsenes Linux-System im Hintergrund.

Ein weiterer Punkt: Der ESP32-P4-PC ist vollständig Open-Source-Hardware. Schaltpläne und KiCad-Dateien werden bereitgestellt. Die Daten zur Platine liegen schon auf GitHub [2] bereit.

Preislich liegt das Board bei 25 Euro [3] und ist derzeit vorbestellbar, der Versand soll am 23. Februar 2026 beginnen.

Wer mehr Info zum ESP32-System braucht, findet in unserem Hardwarekompass [4] alles, was man wissen muss.


URL dieses Artikels:
https://www.heise.de/-11181268

Links in diesem Artikel:
[1] https://www.olimex.com/Products/Modules/RF/MOD-ZIGBEE-UEXT/
[2] https://github.com/OLIMEX/ESP32-P4-PC
[3] https://www.olimex.com/Products/IoT/ESP32-P4/ESP32-P4-PC/open-source-hardware
[4] https://www.heise.de/ratgeber/ESP32-Hardware-Kompass-Welches-Modell-Sie-fuer-Ihr-naechstes-Projekt-benoetigen-10321040.html
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/make
[7] mailto:das@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 15:24

Pixel 10a: Google legt sein Mittelklasse-Smartphone neu auf

Von Heise
Pixel 10a im Case

Pixel 10a (mit Schutzhülle).

(Bild: Google)

Google legt mit dem Pixel 10a sein Mittelklasse-Smartphone neu auf. Die neue Generation ist mehr Feinschliff als Revolution.

Mit dem Pixel 9a [1] hatte Google eine neue, stark reduzierte Designsprache für seine Mittelklasse eingeführt. Diese setzt der Konzern beim Pixel 10a konsequent fort: Das neue Modell soll robuster, der Bildschirmrahmen schmaler und die Rückseite nun komplett flach sein. Größere Änderungen hinsichtlich der Hardwareausstattung im Vergleich zum Pixel 9a muss man mit der Lupe suchen. Immerhin hält Google trotz der Speicherkrise die Preise stabil.

Das neue Modell verfügt wie das Pixel 9a, das in unserem Test keine groben Schwächen gezeigt hatte [2], über ein 6,3-Zoll-pOLED-Display mit Full-HD-Auflösung von 1080 × 2424 Pixeln und 422 ppi. Es unterstützt ferner eine Bildwiederholrate von 60 bis 120 Hz, ist aber mit bis zu 2000 cd/m² (HDR) und bis zu 3000 cd/m² eine kleine Spur heller als das des 9a, das bis 1800 cd/m² (HDR) und bis zu 2700 cd/m² unterstützt. Im Alltag dürfte das kaum sichtbar sein.

Robuster Feinschliff

Laut Google verfügt das Pixel 10a indes über etwas schmalere Ränder und mit Cornings Gorilla Glass 7i eine höhere Robustheit als das 9a, das nur Gorilla Glass 3 als Schutzschicht für den Bildschirm besitzt. Wie das 9a ist das neue Modell nach IP68 gegen Staub und Wasser geschützt.

Der schlankere Rahmen macht sich bei den Abmessungen bemerkbar: Das Pixel 10a ist mit 153,9 × 73 mm eine Spur schmaler und kürzer als das 9a, das 154,7 × 73,3 mm misst. Das 10a ist indes mit 9 mm minimal dicker als das 9a mit 8,9 mm. Das neue Modell wiegt zudem 183 g und damit 3 g weniger als der Vorgänger (186 g).

Wieder Tensor G4

Bei Prozessor, Speicher und Akku gibt es auf dem Papier keine Unterschiede zwischen 9a und 10a: Google verbaut weiterhin den Tensor-G4-Chip, der schon im 9a rechnet, flankiert von 8 GByte RAM und 128 respektive 256 GByte Flashspeicher. Gleich groß ist auch der Akku: Allerdings soll der 5100 mAh Energiespeicher 120 Stunden im Extrem-Energiesparmodus aushalten, während das 9a „nur“ bis zu 100 Stunden schafft – hier scheint der Hersteller also softwareseitig optimiert zu haben. Dies dürfte sich indes auch auf das 9a auswirken. Bei der normalen Akkulaufzeit spricht Google bei beiden von mehr als 30 Stunden. Immerhin soll das 10a nun mit 30 Watt laden, das 9a unterstützt nur 23 Watt.

Pixel 10a Farben
Pixel 10a Farben

Das Pixel 10a wird in vier verschiedenen Farben angeboten.

(Bild: Google)

Kabelloses Laden ist zwar an Bord, allerdings nur mit bis zu 10 W; das 9a unterstützt nur 7,5 W. Das mit dem Pixel 10 eingeführte magnetische Pixelsnap [3] unterstützt das neue Modell leider nicht. Hier macht Google eine klare Trennung zwischen der Mittel- und Oberklasse.

Kameras wie beim 9a

Während die Rückseite des 10a noch eine Spur flacher als beim 9a sein soll, sind die Kameras auf dem Papier identisch: Die Weitwinkelkamera besitzt einen 48-Megapixel-Sensor, der Ultraweitwinkelsensor hat 13 Megapixel. Die Frontkamera macht Bilder mit bis zu 13 Megapixeln. Pixel-typisch bringen die Kameras allerlei KI-gestützte Funktionen mit – etwa das mit dem Pixel 9 eingeführte „Mich hinzufügen“, bei dem man den Fotografen mit einem zweiten Foto zum Gruppenbild hinzufügen kann. In den Optionen zur Bildbearbeitung finden sich weitere KI-Spielereien wie der „magische Radierer“ oder „Beste Aufnahme“ zum Austauschen von Gesichtern in einem Gruppenfoto, auch die Makrofunktion ist an Bord. Auch die mit dem Pixel 10 eingeführte Funktion „Kamera-Coach“ kann genutzt werden.

Grafik: Eckdaten des Pixel 10a
Grafik: Eckdaten des Pixel 10a

Google

Hinsichtlich der Konnektivität unterstützt das 10a Wi-Fi 6E und Bluetooth 6.0. Weiterhin verfügt das Gerät über einen Nano-SIM-Slot sowie eSIM-Unterstützung. Ins Display ist ein optischer Fingerabdrucksensor integriert, über die Frontkamera lässt sich die Gesichtsentsperrung verwenden. Der einzige Kabelanschluss ist ein USB-C-3.2-Port, eine Klinkenbuchse hat das Google Pixel 10a nicht.

Android 16 ab Werk

Das Pixel 10a kommt mit Android 16 [4] und Material 3 Expressive [5] ab Werk und bekommt sieben Jahre lang Updates – also bis 2033. Angesichts dessen, dass das Pixel 9a im Grunde die gleiche Hardware besitzt, könnte es sein, dass Google dem 2025er-Modell irgendwann ein weiteres Jahr schenkt. Auf Nachfrage bei Google wurde das jedoch nicht bestätigt; man sehe 7 Jahre Updates vor. Nicht vergessen darf man jedoch, dass Google dem Pixel 6 und 7 sowie dem Pixel Tablet Jahre nach ihrer Einführung zusätzliche Softwareupdates [6] zugesagt hatte. Als weiteres Smartphone nach dem Pixel 10 unterstützt das 10a auch AirDrop-Support, um Daten mit iPhones oder Macs zu teilen.

Die Vorbestellungen des Pixel 10a sind ab heute offen [7], ausgeliefert wird es ab dem 5. März. Preislich ist es genauso teuer wie der Vorgänger: Das Modell mit 128 GByte kostet 549 Euro, für die 256‑GByte-Variante verlangt Google 649 Euro. Es wird in den Farben Lavender, Berry, Fog und Obsidian angeboten.


URL dieses Artikels:
https://www.heise.de/-11178858

Links in diesem Artikel:
[1] https://www.heise.de/tests/Google-Pixel-9a-im-Test-Die-Software-macht-den-Unterschied-10346374.html
[2] https://www.heise.de/tests/Google-Pixel-9a-im-Test-Die-Software-macht-den-Unterschied-10346374.html
[3] https://www.heise.de/news/Pixel-10-10-Pro-und-XL-Googles-neue-Smartphones-mit-Magsafe-und-Android-16-10550189.html
[4] https://www.heise.de/thema/Android-16
[5] https://www.heise.de/news/Material-3-Expressive-Googles-neues-Design-fuer-Pixel-angeschaut-10640073.html
[6] https://www.heise.de/news/Pixel-Tablet-Google-verlaengert-Update-Garantie-um-zwei-Jahre-11159693.html
[7] https://store.google.com/de/?hl=de
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[10] mailto:afl@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 16:00

KI-Boom: Helpdesk und IT-Administration immer schlechter bezahlt

Von Achim Sawall
IT-Beratung, Security und SAP sind im KI -Boom weiter besonders lukrativ. Amadeus Fire aus Frankfurt wertet seine Daten aus.
Cursor CEO Michael Truell im Dezember 2025: Das Startup hat einen KI-Helpdesk entwickelt, der 80 Prozent der Supportanfragen lösen soll (Bild: Fortune/Reuters)
Cursor CEO Michael Truell im Dezember 2025: Das Startup hat einen KI-Helpdesk entwickelt, der 80 Prozent der Supportanfragen lösen soll Bild: Fortune/Reuters

Durch den zunehmenden Einsatz von Künstlicher Intelligenz werden Routineaufgaben in der IT automatisiert, insbesondere Junior-Positionen und standardisierte Tätigkeiten gerieten unter Druck. Das ergab der Gehaltsreport IT 2026 von Amadeus Fire , basierend auf Online-Gehaltschecks bei Gehaltsreporter und Recruiting- und Vermittlung, der am 18. Februar 2026 vorgelegt wurde. Standardisierte Tätigkeiten, etwa im Helpdesk oder in Teilen der klassischen Administration, fielen in "niedrigere Gehaltsbänder" .

Auch bei der Softwareentwicklung werden Routineaufgaben zunehmend durch KI ersetzt. Es gibt allgemein einen harten Einbruch bei den offenen IT-Stellen: Die durchschnittliche Zahl offener Stellen in IT-Berufen hatte sich im Jahr 2024 im Vergleich zum Vorjahr um 26,2 Prozent reduziert. Das ging aus dem IW-Kurzbericht (Institut der deutschen Wirtschaft) hervor, der im August 2025 vorgelegt wurde. Insgesamt sank die Zahl offener Stellen für qualifizierte Arbeitskräfte bundesweit zwischen 2023 und 2024 dagegen nur um 4,3 Prozent.

In diesem Zeitraum reduzierte sich die Zahl offener Stellen für IT-Experten von durchschnittlich 40.369 auf nur noch 26.753 und sank damit binnen eines Jahres um mehr als ein Drittel (minus 33,7 Prozent). Besonders drastisch sei die Zahl offener Stellen für Experten der Informatik (minus 46,2 Prozent) und der Wirtschaftsinformatik (minus 38,2 Prozent) eingebrochen, hieß es.

Hype um spezialisierte IT-Fachkräfte mit hoher Business-Relevanz

"Gefragt sind vor allem spezialisierte IT-Fachkräfte mit hoher Business-Relevanz, und sie können mit deutlichen Gehaltsaufschlägen rechnen." , heißt es in dem Bericht.

Amadeus Fire Group mit Hauptsitz in Frankfurt am Main ist ein Anbieter für Personaldienstleistungen. Zu den bestbezahlten Tätigkeitsfeldern zählen nach ihren Prognosen im laufenden Jahr Consulting und Engineering, SAP-/ERP-Beratung, IT-Security sowie Projektmanagement. In diesen Bereichen liegen die Medianjahresgehälter häufig zwischen 75.000 und über 80.000 Euro. Spezialisierung und Nähe zum Business seien entscheidend.

Das Ende der C-Level-Selbstdarsteller?

Zugleich rückt die Automatisierung strategischer Entscheidungen von C-Level-Managern zunehmend in den KI-Fokus. Ein Chief Executive Officer etwa muss komplexe Daten durchschauen, um die langfristige Richtung vorzugeben. KI-Systeme können dies oft präziser und unbeeinflusst von persönlichen Interessen. Verwaltungsräte müssen sich fragen, ob sie sich hoch bezahlten Selbstdarsteller in stundenlangen Videokonferenzen noch weiter leisten wollen, nur weil das eine Tradition in der Wirtschaft ist. Der Bereich Finanzen ist aufgrund seiner strukturierten Daten am anfälligsten für eine vollständige Automatisierung.

Adblock test (Why?)

  • 18. Februar 2026 um 19:51

Dell'Oro Group: Open RAN bleibt weiter eine Nische

Von Achim Sawall
Die Mobilfunk -Betreiber haben wieder mehr Geld für ihr Antennennetz ausgegeben. Doch Open RAN kann seine Position auf dem Markt nicht deutlich stärken.
Deutschlands wichtigster Open-RAN-Player: Michael Martin, Vorstand 1&1 Mobilfunknetz, auf der Connect Conference 2025 in Mannheim (Bild: Achim Sawall/Golem)
Deutschlands wichtigster Open-RAN-Player: Michael Martin, Vorstand 1&1 Mobilfunknetz, auf der Connect Conference 2025 in Mannheim Bild: Achim Sawall/Golem

Open RAN bleibt für die Mobilfunkbetreiber ein Nischenprodukt und hatte "2025 einen Marktanteil im mittleren einstelligen Bereich am RAN-Markt" . Das hat das US-Marktforschungsinstitut Dell'Oro Group Golem auf Nachfrage erklärt. Insgesamt stabilisierte sich der globale Markt für Funkzugangsnetze (RAN) im Jahr 2025, nachdem er zwischen 2022 und 2024 fast 20 Prozent seines Wertes verloren hatte.

Stefan Pongratz, Vice President der Dell'Oro Group, sagte am 17. Februar 2026, trotz einer stärkeren Saisonalität im vierten Quartal werde für dieses Jahr ein weitgehend stabiler Umsatz im RAN-Bereich erwartet. Die Marktkonzentration erreichte in den vergangenen zehn Jahren einen Höchststand, während die durchschnittliche jährliche Wachstumsrate (CAGR) mit 1 Prozent bis zum Jahr 2030 moderat bleibe.

Umsatzrangliste unverändert

Laut der Dell'Oro Group sei die Umsatzrangliste im Jahr 2025 unverändert geblieben. Die fünf umsatzstärksten RAN-Anbieter weltweit sind der Marktführer Huawei, gefolgt von Ericsson, Nokia, ZTE und Samsung. Es befindet sich weiterhin kein US-Unternehmen in der Liste der bedeutenden RAN-Ausrüster.

"Die Dynamik im RAN-Anbietermarkt veränderte sich 2025: Führende Anbieter stärkten ihre Positionen, während kleinere ihre Strategien anpassten. Infolgedessen erhöhte sich die Marktkonzentration im RAN-Bereich im Laufe des Jahres" , erklärte die Dell'Oro Group weiter. Huawei und Nokia konnten demnach 2025 Marktanteile gewinnen, Ericsson und Samsung stagnierten, und der Umsatzanteil von ZTE im RAN-Bereich sank. Die kurzfristigen Aussichten seien weitgehend unverändert: Für 2026 werde mit einer Stabilität des gesamten RAN-Marktes gerechnet.

NEC und Mavenir stiegen bei Open-RAN-Technik aus

Tatsächlich war das Jahr 2025 ein neuer Tiefpunkt im Open-RAN-Markt: NEC aus Japan hat den Markt verlassen , in den USA verkaufte Boost Mobile/Dish Network seine Frequenzen und die neuen Eigner hatten kein Interesse an der Open-RAN-Technik, die verschrottet wurde. Im Juni 2025 kündigte Mavenir in den USA an, die Entwicklung und Produktion eigener Antennen einzustellen.

Pongratz sagte Golem: "Es stimmt, dass einige kleinere Anbieter ihre RAN-Aktivitäten reduzieren und Open RAN allein nicht ausreichte, um die Anbietervielfalt zu verbessern." Gleichzeitig sei laut Pongratz einer der Erfolge von Open RAN, dass die meisten größeren Anbieter die Open FH-Schnittstelle unterstützten.

Im RAN besteht die Verbindung zwischen der Basisstation (Baseband Unit, BBU) und dem Funkkopf (Remote Radio Head, RRH) oft aus geschlossenen Protokollen wie dem CPRI. Das Common Public Radio Interface ist zwar ein Standard, wurde aber von jedem Hersteller proprietär implementiert. Das bedeutet, dass eine Ericsson-Steuereinheit (BBU) nur mit einem Ericsson-Funkkopf (RRH) funktioniert. Die Open FH-Schnittstelle ersetzt CPRI durch ein offenes Profil, das meist auf 7.2x Split basiert. Wenn ein Hersteller dieses Profil nativ unterstützt, kann man theoretisch eine O-DU (Distributed Unit) von Nokia mit einer O-RU (Radio Unit) von Ericsson verbinden.

Open RAN bedeutet Cloud, virtualisierte Netzwerkelemente, White-Box-Hardware, Integrationssoftware und standardisierte Schnittstellen von vielen verschiedenen Partnern. Der Standard ist ein Versuch der Netzbetreiber, zusammen mit US-amerikanischen und japanischen Herstellern professionelle Mobilfunkausrüstung durch einfache Hardware und Entkopplung der Funktionen und deren Abbildung in Software zu ersetzen. Auf proprietäre, hoch entwickelte Chips der Ausrüster und die entsprechende modernste Software muss verzichtet werden, weshalb man nicht auf dem aktuellen Stand der Technik ist. 5G Advanced ist beispielsweise mit Open RAN bisher nicht absehbar.

Adblock test (Why?)

  • 18. Februar 2026 um 18:13

Vorschau: Transport Fever 3 rückt Simulation in den Mittelpunkt

Von Peter Steinlechner
Mehr Simulation statt nur Gewinnmaximierung: Das Aufbauspiel Transport Fever 3 überarbeitet Wirtschaft, Städtewachstum und Kampagne.
Artwork von Transport Fever 3 (Bild: Urban Games)
Artwork von Transport Fever 3 Bild: Urban Games

Mit Transport Fever 3 will das Schweizer Entwicklerstudio Urban Games seine Aufbaureihe neu ausrichten. Das Grundprinzip bleibt: Spieler verbinden Städte und Industrien über Straße, Schiene, Wasser und Luft und bauen ein funktionierendes Verkehrsnetz.

Der dritte Teil verschiebt den Fokus jedoch weg vom reinen Geldverdienen hin zu einem komplexeren Simulationssystem. "Geld ist nur noch einer von vielen wichtigen Faktoren" , erklärten die Entwickler bei einer Präsentation, an der auch Golem teilnahm.

Städte reagieren künftig auf Lärm, Umweltveränderungen und Verkehrsführung. Wachstum hängt damit nicht länger ausschließlich von effizienten Lieferketten ab, sondern auch davon, wie sehr Infrastruktur die Lebensqualität beeinflusst.

Zentral dafür ist ein überarbeitetes Warensystem. Güter bewegen sich nicht mehr weitgehend automatisch durch das Netzwerk, stattdessen lässt sich deren Ziel gezielt festlegen. "Ihr könnt jedes einzelne Stück Fracht steuern" , beschreibt das Studio den Ansatz.

Lagerhäuser dienen als echte Umschlagspunkte zwischen Verkehrsträgern und ermöglichen detailliertere Logistikplanung sowie größere Transportknotenpunkte.

Der Fuhrpark wächst auf über 290 Fahrzeuge aus der Zeit von 1900 bis 2030. Neu sind unter anderem Fracht-Straßenbahnen und Helikopter für die Offshore-Industrie. Die Straßenbahnen sollen in Innenstädten weniger Lärm und Emissionen verursachen als Lkw-Verkehr.

Zusätzlich simuliert das Spiel Städte und Bewohner umfassender als die Vorgänger: Bedürfnisse verändern sich mit der Zeit und Entscheidungen wirken sich direkt auf Bevölkerungswachstum und Stadtstruktur aus. Vier Klimazonen verändern Bau und Streckenführung, darunter ist erstmals eine subarktische Region.

Wetter und Tageszeiten

Neben dem klassischen Tycoon-Modus bleibt ein freier Sandbox-Modus ohne finanzielle Zwänge erhalten. Karten lassen sich weiterhin frei erstellen oder aus realen Höhenkarten generieren.

Auch ein Tag-Nacht-Wechsel und Wetter werden ergänzt, haben allerdings nur optische Wirkung. Gleichzeitig soll der Einstieg einfacher sein, etwa durch klarere Systeme und eine stärker geführte Kampagne.

Die Kampagne umfasst acht Szenarien, die lose an historischen Ereignissen orientiert sind, etwa am Mardi-Gras-Karneval um 1900 oder am Woodstock-Festival. Statt historischer Genauigkeit heißt es laut Studio "Gameplay first" .

Einzelne Missionen führen neue Mechaniken ein, darunter KI-Konkurrenz, spezielle Zielbedingungen und sogar Stealth-artige Aufgaben. Die finale Mission soll sich um Raumfahrt drehen und funktionieren, ohne Zeit vorzuspulen.

Technisch basiert der Titel weiterhin auf der hauseigenen Engine, die seit über zehn Jahren weiterentwickelt wird. Transport Fever 3 soll 2026 gleichzeitig für Windows-PC, Playstation 5 und Xbox Series X/S erscheinen, inklusive plattformübergreifender Mods.

Das Projekt wird komplett selbst finanziert und veröffentlicht. Die Entwicklung dauerte rund sechs Jahre und hatte etwa 24 Millionen US-Dollar Budget. Für das vergleichsweise kleine Studio war das ein ungewöhnlich großes Vorhaben.

Der seit 2019 erhältliche Vorgänger verkaufte sich plattformübergreifend über zwei Millionen Mal und lebt bis heute von seiner Mod-Community mit zehntausenden Erweiterungen.

Adblock test (Why?)

  • 18. Februar 2026 um 18:00

Impfzwang durch die Hintertür? Was wirklich hinter der Vorhaltepauschale steckt

Von Bernd Müller

Bernd Müller

Ein älterer Mann wird beim Arzt gegen Grippe geimpft.

(Bild: FaceStock / Shutterstock.com)

Ärzte erhalten seit Januar ein neues Honorar – doch in sozialen Medien kursierten wilde Behauptungen über Impfpflichten.

Impfen ist ein Thema, das die Gemüter erhitzt. Spätestens seit der Corona-Pandemie blicken viele skeptisch auf die Impfpolitik und fragen sich, ob der Staat wieder übergriffig wird, sobald das Thema auf den Tisch kommt.

Seit dem 1. Januar 2026 läuft jetzt in deutschen Hausarztpraxen ein neues Abrechnungssystem: Die sogenannte Vorhaltepauschale [1] wird erstmals nach den im vergangenen Jahr beschlossenen Kriterien vergütet – inklusive einer umstrittenen Impfkomponente.

Mit dieser Neuregelung sollte eigentlich die Impfquote in manchen Praxen angehoben werden – aber wie sich zeigt, spiegelt sich das Ziel noch nicht in den Erfolgen wider.

So berichtete [2] die Ärztezeitung kürzlich, dass immer noch zu wenige Menschen gegen Grippe geimpft seien. Besonders bei älteren Menschen und Personen mit Vorerkrankungen konnten zu wenig erreicht werden. Und besonders schlecht schnitt Baden-Württemberg im bundesweiten Ranking ab.

Welchen Anteil daran die hitzige Debatte um die Vorhaltepauschale im vergangenen Jahr hatte, ist nicht klar zu beantworten. In sozialen Netzwerken sorgte sie damals für Empörung, von 'Impfzwang‘ war die Rede. Es wurde sogar behauptet, jede vierte ärztliche Leistung müsse eine Impfung sein.

Der AfD-Bundestagsabgeordnete Martin Sichert griff das Thema im vergangenen Jahr in einer Rede ebenfalls auf [3] und sprach davon, dass Ärzte bestraft würden, die eine Mindestanzahl an Impfungen verfehlen.

Die Realität ist aber eine andere. Wer die zugrundeliegenden Dokumente liest, stellt fest: In der Social-Media-Debatte wurde – wieder einmal – einiges durcheinandergeworfen und verzerrt.

Worum es bei der Vorhaltepauschale geht

Seit 2013 erhalten Hausärzte eine Zusatzpauschale, damit sie ihren Versorgungsauftrag erfüllen können. Im vergangenen Jahr hat schließlich der Bewertungsausschuss – bestehend aus Kassenärztlicher Bundesvereinigung und GKV-Spitzenverband – diese Pauschale grundlegend überarbeitet.

Die Rechtsgrundlage [4] dafür schuf das Gesundheitsversorgungsstärkungsgesetz, das noch der alte Bundestag im Januar 2025 verabschiedet hatte. Ab dem 1. Januar 2026 gelten die neuen Regeln.

Die Kassenärztliche Vereinigung setzt die Pauschale automatisch einmal pro Behandlungsfall an. Ihre Grundbewertung beträgt 128 Punkte.

Je nach Größe der Praxis [5] wird die Pauschale angepasst: Praxen mit mehr als 1.200 Fällen je Arzt und Quartal erhalten einen Aufschlag von neun Punkten. Bei weniger als 400 Fällen erfolgt ein Abzug von dreizehn Punkten.

Wann die Pauschale tatsächlich gekürzt wird

Der eigentliche Streitpunkt dreht sich um eine Abschlagsregel bei geringer Impftätigkeit. Konkret gilt: Verabreicht eine Praxis in einem gesamten Quartal weniger als zehn Schutzimpfungen, reduziert sich die Vorhaltepauschale um 40 Prozent.

Zehn Impfungen in drei Monaten – das dürfte für die allermeisten Hausarztpraxen im regulären Betrieb kein Problem darstellen. Der Meinung ist zumindest Stephan Hofmeister, stellvertretender Vorstandsvorsitzender der KBV.

In einem Interview [6] ordnete er die Regel folgendermaßen ein: Die Vorhaltepauschale werde "nach wie vor für alle Praxen bezahlt." Die Bedingung von zehn Impfungen pro Quartal sei „für eine normale hausärztliche Praxis überhaupt kein Problem".

Für bestimmte Praxistypen greift die Kürzung ohnehin nicht, nämlich jene mit diabetologischem Schwerpunkt oder einem Schwerpunkt auf HIV. Das gilt auch für Substitutionspraxen.

Die 25-Prozent-Quote: freiwilliges Bonus-Kriterium statt Pflicht

Neben der Grundpauschale sieht die neue Regelung ein abgestuftes System von Zuschlägen vor.

Der Bewertungsausschuss hat hierfür zehn Qualitätskriterien definiert – von erweiterten Sprechzeiten über Hausbesuche hin zu Ultraschalluntersuchungen. Erfüllt eine Praxis mindestens zwei davon, erhält sie zehn zusätzliche Punkte. Ab acht erfüllten Kriterien steigt der Zuschlag auf 30 Punkte. Insgesamt erhält eine Praxis dann pro Fall 20,31 Euro [7].

Die viel diskutierte Impfquote stellt lediglich eines dieser zehn Wahlkriterien dar. Nur wer gezielt dieses eine Kriterium anrechnen lassen will, muss in den ersten drei Quartalen bei mindestens sieben Prozent seiner Behandlungsfälle eine Impfung dokumentieren und im vierten Quartal bei mindestens 25 Prozent.

Wer den Bonus stattdessen über andere Kriterien wie Abendsprechstunden oder psychosomatische Versorgung sichert, kann die Impfquote auch vollständig ignorieren.

Die in sozialen Medien verbreitete Formel "jede vierte Leistung" verzerrt den Sachverhalt gleich doppelt.

Erstens handelt es sich um ein optionales Bonus-Kriterium, nicht um eine Grundvoraussetzung für die Pauschale.

Zweitens bezieht sich die Quote auf Behandlungsfälle – also auf Patienten, die im Quartal versorgt werden. Ein einzelner Behandlungsfall kann dutzende Einzelleistungen umfassen, weshalb die Gleichsetzung von "Fall" und "Leistung" rechnerisch weit übertrieben ausfällt, wird von den Faktencheckern der dpa hervorgehoben.

Die Quoten hat der Bewertungsausschuss auf Grundlage der Abrechnungsdaten festgelegt, wie die [8] Ärztezeitung im vergangenen Jahr berichtete. Im vierten Quartal eines Jahres würden im Schnitt rund dreizehn Millionen Impfungen verabreicht. In den übrigen Quartalen seien es über drei Millionen.

Knapp 70 Prozent der Praxen würden die Vorgaben aus dem Stand meistern. Die restlichen 30 Prozent lägen nur knapp darunter. Der finanzielle Anreiz diene dazu, "auch künftig mindestens ein Viertel ihrer Patienten im Winterquartal zu impfen".

Ob in diesem Jahr die Impfquoten deutlich angehoben werden, wird sich noch zeigen müssen – belastbare Daten liegen erst in einigen Monaten vor.

Klar ist aber schon jetzt: Die Influenza-Impfquote liegt mit rund 40 Prozent bei den über 60‑Jährigen weit unter der von der WHO empfohlenen Marke von 75 Prozent, und selbst besonders gefährdete Gruppen wie Pflegebedürftige und Herzpatienten werden häufig nicht erreicht.

Angesichts dieser niedrigen Impfquoten gerade unter vulnerablen Gruppen erscheint zusätzlicher Anreiz zur Impfung weiterhin geboten. Allerdings wird sich erst im vierten Quartal deutlich zeigen, ob die Vorhaltepauschale dazu animiert, Patienten mehr von Impfungen zu überzeugen.


URL dieses Artikels:
https://www.heise.de/-11181419

Links in diesem Artikel:
[1] https://www.kvwl.de/mitglieder/abrechnung-honorar/vorhaltepauschale
[2] https://www.aerztezeitung.de/Politik/Grippe-Impfquote-bei-ueber-60-Jaehrigen-laut-BARMER-viel-zu-gering-462050.html
[3] https://dpa-factchecking.com/germany/251017-99-359846/
[4] https://www.kbv.de/documents/infothek/rechtsquellen/bewertungsausschuss/ebm/2026/ba-792-vorhaltepauschale.pdf
[5] https://www.kvwl.de/mitglieder/abrechnung-honorar/vorhaltepauschale
[6] https://vimeo.com/1131371942
[7] https://ebm-plus.de/vorhaltepauschale-gop-03040-2026/
[8] https://www.aerztezeitung.de/Wirtschaft/Impfquote-in-Vorhaltepauschale-So-begruenden-KBV-und-Krankenkassen-die-Vorgabe-460073.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 15:20

ZDF-Panne: Wenn KI-Bilder die Glaubwürdigkeit kosten

Von Thomas Pany

Thomas Pany

ZDF-Logo auf einem Gebäude

Bild: shutterstock.com

ZDF nutzte KI-Bilder für ICE-Bericht im heute-journal. Die Panne wurde auf X aufgedeckt, bevor Leitmedien reagierten. Ein Kommentar.

Das ZDF hat bei einem Beitrag für das heute-journal gepfuscht [1]. Die Redaktion wollte zeigen, wie brutal die Einwanderungsbehörde ICE in den USA vorgeht.

Um dies mit Bildern aus dem echten Leben zu dokumentieren, griff sie zu KI-generiertem Bildmaterial [2] und zu einem Ausschnitt aus einem älteren Video [3] aus einem ganz anderen Kontext, der nichts mit der Vorgehensweise von ICE zu tun hatte.

Dem doppelten Bock, der hier geschossen wurde, schließt sich eine ganze Reihe von Fragen an. Beginnen wir mit dem Klassiker, dem großen Schlüssel zum Vorwurf der manipulierten Öffentlichkeit: cui bono?

Das ist in diesem Fall recht eindeutig zu beantworten: Es profitieren die Kritiker und Gegner der öffentlich-rechtlichen Rundfunkanstalten. Sie waren wacher als andere und sahen das Wasserzeichen, mit dem die KI-generierten Bilder gekennzeichnet waren, früher und schneller.

Das Desaster

Ausgerechnet auf X – jener Plattform, die von vielen seriösen Journalisten mehr oder weniger ausdrücklich als trashige Bühne bezeichnet wird, von der man sich besser fernhält, weil dort zu viel Fake, Hate und Verschwörungserzählungen kursieren –, kamen die ersten Hinweise darauf, dass etwas in dem heute-journal-Beitrag nicht journalistisch sauber war.

Die Quellen reichten von alternativen Medien und dem ÖRR-Blog bis hin zu namhaften Medienkritikern wie Peter Welchering sowie politischen Akteuren wie dem FDP-Politiker Wolfgang Kubicki. Letztere werden von Leitmedien in der Regel kaum oder nur ausnahmsweise zitiert. Das Thema war dort bereits ausführlich bearbeitet, bevor Medien wie die SZ, die FAZ oder Die Zeit sich der Sache annahmen – offenkundig auch deshalb, weil die Fehler zu eklatant waren, um sie zu ignorieren.

Die Fehler räumte schließlich auch das ZDF ein. Allerdings auf eine Weise, die den Kritikern weiter Wasser auf die Mühlen lieferte. In kleinen Zügen ruderte die heute-journal-Redaktion zurück. Die Versuche des Senders, das Desaster zu managen [4], machten die Sache nicht besser, sondern eher schlimmer. Man tat sich ganz offensichtlich schwer damit, eigene Fehler in der Berichterstattung klar einzugestehen.

Zunächst korrigierte man sich auf eine unaufrichtige, kleinliche Art, die den Widerspruch zu den hohen Ansprüchen des ZDF beim Umgang mit KI, Fake-News und Faktenchecks nur noch deutlicher hervortreten ließ. Schließlich wurde eine Entschuldigung in einem eigenen heute-journal-Beitrag nachgereicht – nachdem alle Retusche vergebens gewesen war.

Paradoxe Situation

Das mündete in der paradoxen Situation, dass ausgerechnet das Lager derjenigen, die Faktenchecks grundsätzlich anzweifeln, sich nun als die eigentlichen Faktenchecker darstellen konnte.

Das ist politisches Kapital, das der riesige Apparat des ZDF – der über ausreichend Ressourcen zur Überprüfung von Inhalten verfügen müsste – seinen Gegnern selbst zur Verfügung gestellt hat.

Das hätte nicht passieren dürfen. Wer sich an Medienstaatsverträge hält, muss zu dem Schluss kommen: KI-Bilder haben in der Informationsberichterstattung der öffentlich-rechtlichen Sender nichts verloren.


URL dieses Artikels:
https://www.heise.de/-11181321

Links in diesem Artikel:
[1] https://presseportal.zdf.de/pressemitteilung/zdf-entschuldigt-sich-fuer-fehler-im-heute-journal#:~:text=ZDF%20entschuldigt%20sich%20f%C3%BCr%20Fehler,heute%20journal%22:%20ZDF%2DPresseportal
[2] https://www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html
[3] https://www.heise.de/news/ZDF-Beitrag-mit-gefaelschtem-KI-Video-im-heute-journal-11179788.html
[4] https://uebermedien.de/114229/die-falschen-ice-videos-im-heute-journal-und-die-katastrophale-reaktion-des-zdf/

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 15:00

Saturns Mond Titan: Ergebnis einer kosmischen Kollision?

Von Marcel Kunzmann

Marcel Kunzmann

Künstlerische Darstellung des Saturn mit einem seiner Monde

Künstlerische Darstellung des Saturn mit einem seiner Monde

(Bild: Frame Stock Footage/Shutterstock.com)

Computersimulationen legen nahe, dass Titan durch die Verschmelzung zweier früherer Monde entstand. Die Theorie könnte mehrere Rätsel um Saturn lösen.

Titan, der größte Mond des Saturn, könnte das Ergebnis einer gewaltigen Kollision zwischen zwei früheren Monden sein. Das legt eine aktuelle Studie unter Leitung von Matija Ćuk vom SETI Institute nahe, die kürzlich als Preprint für das Fachjournal Planetary Science Journal veröffentlicht wurde [1].

Die Forschungsarbeit baut auf Erkenntnissen der Cassini-Mission auf, die zwischen 2004 und 2017 das Saturn-System erkundete. Gegen Ende ihrer Mission lieferte die Sonde überraschende Messdaten zur Massenverteilung im Inneren des Planeten, die bisherige Annahmen über Saturns Rotation auf den Kopf stellten.

Cassini stellt alte Theorien infrage

Jahrzehntelang gingen Wissenschaftler davon aus, dass die Präzessionsperiode von Saturn – also das langsame Taumeln seiner Rotationsachse – mit jener des Neptun übereinstimmt. Diese vermeintliche Resonanz sollte durch Gravitationswechselwirkungen zwischen beiden Planeten dazu geführt haben, dass Saturn gekippt ist und wir seine Ringe sehen können.

Cassinis Messungen zeigten jedoch, dass Saturns Masse stärker im Zentrum konzentriert ist als erwartet. Dadurch weicht die Präzessionsrate von der Neptuns ab. Um diese Diskrepanz zu erklären, schlugen Forscher des MIT und der UC Berkeley vor, dass Saturn einst einen zusätzlichen Mond besessen haben könnte. Dieser wäre nach einer nahen Begegnung mit Titan aus seiner Umlaufbahn geschleudert worden und bei der Zerstörung hätten sich Saturns Ringe gebildet.

Computersimulationen weisen auf Kollision hin

Das Team um Ćuk nutzte Computersimulationen, um zu prüfen, ob ein zusätzlicher Mond nahe genug an Saturn herangekommen sein könnte, um Ringe zu bilden. Das wahrscheinlichste Ergebnis war jedoch eine Kollision des hypothetischen Mondes mit Titan selbst.

Einen entscheidenden Hinweis lieferte Hyperion. Die Umlaufbahn des unregelmäßig geformten Himmelskörpers ist mit jener Titans gekoppelt.

"Hyperion, der kleinste unter Saturns größeren Monden, lieferte uns den wichtigsten Hinweis auf die Geschichte des Systems", erklärte Ćuk. In Simulationen, in denen der zusätzliche Mond instabil wurde, ging Hyperion häufig verloren und überlebte nur in seltenen Fällen.

Die Forscher stellten fest, dass die Titan-Hyperion-Kopplung relativ jung ist und erst vor einigen hundert Millionen Jahren entstand – etwa zur selben Zeit, als der zusätzliche Mond verschwunden sein müsste.

"Vielleicht hat Hyperion diese Umwälzung nicht überlebt, sondern ist aus ihr hervorgegangen", sagt Ćuk [2]. Wenn der zusätzliche Mond mit Titan verschmolzen wäre, hätte dies Fragmente in der Nähe von Titans Umlaufbahn erzeugt – genau dort, wo Hyperion sich heute befindet.

Proto-Titan und Proto-Hyperion

Das neue Modell legt nahe, dass Titan aus der Verschmelzung zweier früherer Monde entstand: eines "Proto-Titan", der fast so groß wie der heutige Titan war, und eines kleineren "Proto-Hyperion". Diese Kollision könnte erklären, warum Titan relativ wenige Einschlagkrater aufweist – sie wären bei dem Zusammenstoß ausgelöscht worden.

Schwarz-Weiß-Abbildung des Saturnmondes Titan

Aufnahme des Titan durch die Raumsonde Cassini

(Bild: Commons/Nasa [3])

Auch Titans exzentrische Umlaufbahn, die sich allmählich zu einer Kreisbahn entwickelt, deutet auf eine kürzliche Störung durch Proto-Hyperion hin. Vor der Verschmelzung könnte Proto-Titan dem Jupitermond Kallisto geähnelt haben: verkratert und ohne Atmosphäre.

Die Simulationen zeigen zudem, dass Proto-Hyperion vor seinem Verschwinden die Umlaufbahn des weiter entfernten Saturnmondes Iapetus gekippt haben könnte. Damit würde die Theorie ein weiteres langjähriges Rätsel lösen.

Entstehung der Saturnringe

Wenn Titan tatsächlich durch eine Mondkollision entstand, stellt sich die Frage nach dem Ursprung von Saturns Ringen. Mitglieder des SETI-Teams hatten bereits vor über zehn Jahren vorgeschlagen, dass die Ringe aus Trümmern von Kollisionen zwischen mittelgroßen Monden in Saturnnähe stammen könnten.

Spätere Simulationen der University of Edinburgh und des Nasa Ames Research Center stützten diese Idee und zeigten, dass sich der Großteil der Trümmer wieder zu Monden zusammenfügen würde, während ein Teil nach innen gestreut würde und Ringe bilden könnte.

Lange Zeit galt die Sonne als Auslöser für diese innere Mondkollision. Die neue Forschung sieht jedoch einen weiteren Effekt der Titan-Verschmelzung als Ursache. Titans exzentrische Umlaufbahn kann innere Monde destabilisieren, wenn deren Perioden einem Bruchteil von Titans Periode entsprechen – eine Situation, die als orbitale Resonanz bekannt ist. Obwohl dies durch Zufall unwahrscheinlich ist, kann Titans sich ausdehnende Umlaufbahn solche Verhältnisse gelegentlich schaffen.

Die Folgen für betroffene kleinere Monde können katastrophal sein: Ihre Bahnen werden langgestreckt und führen zu Kollisionen mit Nachbarmonden. Wann diese zweite Katastrophe genau stattfand, ist unklar, sie muss jedoch nach Titans Verschmelzung erfolgt sein. Dies stimmt mit dem geschätzten Alter der Ringe von etwa 100 Millionen Jahren überein.

Dragonfly-Mission soll Hypothese testen

Die Nasa-Mission Dragonfly [4], die 2034 bei Titan ankommen soll, könnte diese Hypothese überprüfen. Der nuklear betriebene Oktokopter wird die Geologie und Chemie der Oberfläche analysieren.

Dragonfly könnte Hinweise darauf liefern, dass Titan vor einer halben Milliarde Jahren durch eine massive Mondkollision entstand. Der Start der Mission ist für 2028 geplant.


URL dieses Artikels:
https://www.heise.de/-11180971

Links in diesem Artikel:
[1] https://arxiv.org/abs/2602.09281
[2] https://www.eurekalert.org/news-releases/1116284
[3] https://www.nasa.gov/audience/formedia/features/MP_Photo_Guidelines.html
[4] https://de.wikipedia.org/wiki/Dragonfly_(Raumsonde)

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 14:00

6 Monate Liquid Glass: Halbzeitbilanz zu Apples 26er-Systemen | Mac & i-Podcast

Von Heise
Liquid Glass nach 6 Monaten: Halbzeitbilanz zu iOS 26 & Co.  Mac & i-Podcast

Apples große Liquid-Glass-Redesign hat für hitzige Diskussionen gesorgt. Wir ziehen Halbzeitbilanz und fragen uns, wo die Liebe zum Detail geblieben ist.

Nach einem knappen halben Jahr ist Liquid Glass im Alltag vieler Nutzer angekommen: Zwei von drei iPhones laufen laut Apple inzwischen mit iOS 26. Das umfassende Neu-Design sorgt allerdings seit der Präsentation im vergangenen Sommer immer wieder für Diskussionen – bis heute. Ein extra hinterhergeschobener Generalschalter macht die Bedienoberfläche wahlweise weniger durchscheinend. Und Apple dürfte auf lange Sicht damit beschäftigt bleiben, nachzubessern.

In Episode 115 werfen Malte Kirchner und Leo Becker einen genauen Blick auf den Zustand von iOS, iPadOS und macOS 26. Neben den schlechten wie guten Seiten von Liquid Glass geht es darum, welche neuen Funktionen sich bewährt haben – und welche Probleme bleiben. Dabei beschäftigt uns auch die zähe Weiterentwicklung von Apple Intelligence und die bislang nicht eingelösten Versprechen rund um eine neue, fähige KI-Siri. Wir diskutieren außerdem, warum Liquid Glass in macOS 26 besonders problematisch ist.

Apple-Themen – immer ausführlich

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio [2]) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio [3]) und bei Spotify [4]. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de [5].


URL dieses Artikels:
https://www.heise.de/-11181359

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] feed:https://mac-and-i.podigee.io/feed/mp3
[3] https://podcasts.apple.com/de/podcast/mac-i/id1499510618
[4] https://open.spotify.com/show/5Tcgc97HvYREYM7kIRsxii
[5] mailto:podcast@mac-and-i.de
[6] https://www.heise.de/mac-and-i
[7] mailto:lbe@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 14:50

Apple Music bekommt KI-Feature, Kooperation mit TikTok

Von Heise
Apple-Music-App auf Handy

(Bild: Primakov / Shutterstock.com)

Apple Intelligence wird in Apple Music derzeit nicht verwendet. Mit den nächsten iOS- und macOS-Versionen soll sich das ändern. Neu ist auch eine TikTok-Koop.

Während Spotify, Deezer oder Amazon Music bereits KI-Features in ihre Streamingdienste integriert haben, hält sich Apple damit bislang zurück. Zwar basierend die verwendeten Vorschlagalgorithmen seit Jahren auf maschinellem Lernen und zuletzt kam eine intelligente Überblendungsfunktion namens AutoMix [1] hinzu, doch prompten lässt sich hier noch nichts. Das soll sich Testern der aktuellen Entwicklerbeta von iOS 26.4 [2] zufolge bald ändern: In der dort integrierten Apple-Music-App findet sich eine neue Preview-Funktion namens „Playlist Playground“. Mit „Playground“ (Spielplatz) bezeichnet Apple schon zuvor KI-Features mit Prompting-Funktionalität wie den Bildgenerator Image Playground [3] innerhalb von Apple Intelligence.

Prompten bis die Playlist stimmt

Im Rahmen des Playlist Playgrounds lassen sich nun erstmals Wiedergabelisten anhand eingegebener Textbeschreibungen erstellen. Die Funktion ist auf der Mediathekseite rechts unten zu finden, indem man dort auf das Wiedergabelisten-Icon tippt. Daraufhin erscheint die Frage, was man gerne hören möchte – und man kann etwas Passendes eintippen oder mittels Siri an das iPhone weitergeben. Einige „Ideen“ liefert Apple bereits mit, etwa „Diskosongs, die die Siebziger definiert haben“ oder „Partysongs aus dem Hip-Hop“

Nach der Eingabebestätigung wird die Wiedergabeliste erstellt – Apple erlaubt es, sie dann zur eigenen Mediathek hinzuzufügen oder nochmals manuell zu bearbeiten. Möglich ist es außerdem, mit weiteren Prompteingaben nachzuarbeiten. In ersten Versuchen klappte das recht gut, man darf den Betastatus aber nicht ignorieren. Das Feature taucht nur auf, wenn „Apple Intelligence & Siri“ erlaubt ist und die Modelle heruntergeladen wurden. Zunächst blieb unklar, ob das Feature nur mit US-englischen Systemen arbeitet oder auch auf Deutsch.

Party auf TikTok

Apple hat unterdessen weitere Verbesserungen im Musikbereich vorgenommen. Zusammen mit TokTok lässt sich über die Funktion „Listening Party“ demnächst aus dem Videodienst heraus ein vollständiger Song in Apple Music wiedergeben. Das teilten Insider dem Apple-Blog 9to5Mac mit [4].

2023 hatte TikTok bereits eine Songspeicherung in Apple Music integriert. Unklar ist noch, wann die Funktion offiziell freigegeben wird. Ankündigungen dazu gab es noch nicht.


URL dieses Artikels:
https://www.heise.de/-11180975

Links in diesem Artikel:
[1] https://www.heise.de/news/AutoMix-Funktion-Warum-Apple-Music-jetzt-teils-merkwuerdig-ueberblendet-11137004.html
[2] https://www.heise.de/news/iOS-26-4-Beta-Code-Hinweise-auf-CarPlay-Videofunktion-mit-Apple-TV-11179938.html
[3] https://www.heise.de/news/Image-Playground-So-funktioniert-Apples-Bildgenerator-9995774.html
[4] https://9to5mac.com/2026/02/16/apple-music-and-tiktok-team-up-on-new-listening-party-feature-more/
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 13:51

Mit Update: Røde-Ansteckmikro direkt am iPhone ohne Empfänger betreiben

Von Heise
Direktanbindung von Røde-Mikros

Direktanbindung von Røde-Mikros: Ein Bauteil weniger.

(Bild: Røde)

Der australische Audiospezialist vereinfacht die Nutzung von Wireless Go Generation 3 und Wireless Pro für iOS- und iPadOS-Nutzer.

Die besonders unter YouTubern beliebten Ansteckmikrofone von Røde können mit dem iPhone nun einfacher verwendet werden: Zwei Modelle verbinden sich nach einem Firmware-Update direkt mit iOS-Geräten, ohne dass es einen zusätzlichen Empfänger am USB-C- oder Lightning-Port bräuchte. Das Feature nennt sich „Direct Connect“ und steht zunächst für die Modelle Wireless Pro und Wireless Go in dritter Generation zur Verfügung.

Capture-App liefert neue Firmware

Auf iPhone-Seite wird Rødes eigene Capture-App [1] benötigt. Diese ist kostenlos. Darüber erfolgt auch das Update. Dazu muss man Transmitter (mit Mikrofon) und Receiver zunächst aus der Ladehülle nehmen; sie müssen bereits verbunden sein. Der Receiver wird dann ins iPhone eingesteckt. Røde Capture sollte daraufhin ein Firmware-Update anzeigen, das sich dann einspielen lässt. Später steht dann eine neue Funktion in der App (oben links) bereit: „Direct Connect to TX“, also Direktverbindung zum Transmitter. Anschließend muss dieser noch einmal via Bluetooth gepairt werden, dann lässt er sich auf Knopfdruck einbinden.

Røde betont, dass die Übertragungsqualität nicht leiden soll. Auch via Bluetooth sei „die Broadcast-Audio-Qualität, für die die Geräte bekannt sind“ weiter vorhanden. Ob das wirklich so ist, sollte man aber zunächst mit Vergleichsaufnahmen testen. Es ist auch möglich, mehrere Geräte (etwa bei Wireless Go Generation 3) mit dem iPhone zu verbinden und sie über Røde Capture zu steuern. Praktische Beispiele hat der Hersteller in einem Video [2] zusammengefasst.

Kommen weitere Updates?

Ob künftig auch noch andere Mikros die Bluetooth-Funktion nachgereicht bekommen, blieb zunächst unklar. Das günstige Wireless Micro (99 Euro) beherrscht das Feature bereits. Das Wireless GO der dritten Generation kostet 200 Euro, die Wireless-Pro-Variante 300 Euro. Letztere kommt mit Time-Code-Funktion und mehr Zubehör.

Üblicherweise setzen Anbieter von Drahtlosmikrofonen auf proprietäre Sender und Empfänger, um die Stabilität der Verbindung sicherzustellen. Im semiprofessionellen Bereich werden allerdings freie Funkspektren verwendet, die nicht immer störungsfrei arbeiten.


URL dieses Artikels:
https://www.heise.de/-11180601

Links in diesem Artikel:
[1] https://apps.apple.com/de/app/r%C3%B8de-capture/id1588683096
[2] https://www.youtube.com/watch?v=X0xqj35Xvig
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 12:43

Website und App der Deutschen Bahn nach DDoS-Attacke zeitweise gestört

Von Heise
ICE der Deutschen Bahn

(Bild: Markus Mainka / Shutterstock.com)

Eine DDoS-Attacke auf die IT-Systeme der Deutschen Bahn hat das Buchungssystem gestört. Bahn.de und DB Navigator waren betroffen.

Ein Cyberangriff auf die Deutsche Bahn (DB) hat zu IT-Störungen geführt. Betroffen waren die Buchungssysteme.

Wie die Deutsche Bahn mitteilte [1], handelte es sich um eine Distributed-Denial-of-Service-Attacke (DDoS). Diese habe Auswirkungen auf die Auskunfts- und Buchungssysteme auf Bahn.de gehabt. Auch die App DB Navigator war betroffen.

Der Angriff begann am Dienstagnachmittag. Zeitweise gab es Schwierigkeiten, Fahrplanauskünfte einzuholen oder Fahrten zu buchen. Am Dienstagabend, meldete die Bahn zunächst, dass die Auskunfts- und Buchungssysteme „seit den Abendstunden wieder weitgehend stabil“ liefen.

Am Mittwochmorgen traten jedoch erneut Probleme auf. Diese seien inzwischen behoben, teilte die DB am späten Mittwochvormittag mit. „Unsere Abwehrmaßnahmen haben gegriffen“, Bahn.de und DB Navigator stünden wieder zur Verfügung.


URL dieses Artikels:
https://www.heise.de/-11180991

Links in diesem Artikel:
[1] https://www.deutschebahn.com/de/presse/Newsblog-12829716
[2] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[3] mailto:wpl@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 12:26

Jetzt patchen! Angreifer attackieren Dell RecoverPoint for Virtual Machines

Von Heise

(Bild: Gorodenkoff/Shutterstock.com)

Es sind wichtige Sicherheitsupdates für unter anderem Dell RecoverPoint for Virtual Machines und Avamar Server erschienen. Es gibt bereits Attacken.

Angreifer haben es schon länger auf eine „kritische“ Sicherheitslücke in Dell RecoverPoint for Virtual Machines abgesehen. Sicherheitspatches sind verfügbar. Weiterhin sind noch Dell Avamar Server, Avamar Virtual Edition, Networking OS10, Power Max EEM, Solutions Enabler Virtual Appliance, Unisphere 360, Unisphere for PowerMax und Unisphere for PowerMax Virtual Appliance angreifbar.

Seit zwei Jahren Attacken

Vor den laufenden Attacken auf eine „kritische“ Schwachstelle mit Höchstwertung (CVE-2026-22769 CVSS Score 10 von 10) in Dell RecoverPoint for Virtual Machines warnen Sicherheitsforscher von Google und Mandiant in einem Beitrag [1]. Wie aus einer Warnmeldung des Computerherstellers hervorgeht [2], greifen entfernte Angreifer aufgrund von hartcodierten Zugangsdaten ohne Authentifizierung auf Instanzen zu. Dabei setzen sie sich mit Root-Rechten in Systemen mittels einer Hintertür (Grimbolt) fest und kompromittieren PCs so vollständig.

Dahinter sollen staatliche chinesische Hacker der Gruppe UNC6201 stecken. Die Sicherheitsforscher geben an, dass bereits seit Mitte 2024 Attacken laufen. In welchem Umfang die Angriffe stattfinden und auf welche Zielpersonen es die Angreifer abgesehen haben, ist derzeit nicht bekannt. Admins sollten sicherstellen, dass die gegen die Angriffe abgesicherte Ausgabe 6.0 SP3 (6.0.3.1) installiert ist. Weitere Informationen zum Sicherheitsupdate stehen in der Warnmeldung [3].

Weitere Gefahren

Überdies können Angreifer noch weitere Dell-Produkte wie Avamar Server und Unisphere for PowerMax attackieren. Diese Schwachstellen sind mit dem Bedrohungsgrad „mittel“ eingestuft. Setzen Angreifer erfolgreich an den Lücken an, können sie unter anderem eigenen Code ausführen oder Dateien löschen. Angaben zu den Sicherheitsupdates finden sich in den verlinkten Warnmeldungen:


URL dieses Artikels:
https://www.heise.de/-11180541

Links in diesem Artikel:
[1] https://cloud.google.com/blog/topics/threat-intelligence/unc6201-exploiting-dell-recoverpoint-zero-day/?hl=en
[2] https://www.dell.com/support/kbdoc/en-us/000426773/dsa-2026-079
[3] https://www.dell.com/support/kbdoc/en-us/000426773/dsa-2026-079
[4] https://www.dell.com/support/kbdoc/en-us/000429181/dsa-2026-033-security-update-for-dell-networking-os10-vulnerabilities
[5] https://www.dell.com/support/kbdoc/en-us/000425796/dsa-2026-053-security-update-for-dell-avamar-server-and-dell-avamar-virtual-edition-improper-limitation-of-a-pathname-to-a-restricted-directory-path-traversal-vulnerability
[6] https://www.dell.com/support/kbdoc/en-us/000347698/dsa-2025-271-security-update-for-dell-avamar-and-dell-avamar-virtual-edition-multiple-vulnerabilities
[7] https://www.dell.com/support/kbdoc/en-us/000402262/dsa-2025-425-dell-powermaxos-dell-powermax-eem-dell-unisphere-for-powermax-dell-unisphere-for-powermax-virtual-appliance-dell-unisphere-360-dell-solutions-enabler-virtual-appliance-security-update-for-multiple-vulnerabilities
[8] https://www.dell.com/support/kbdoc/en-us/000347698/dsa-2025-271-security-update-for-dell-avamar-and-dell-avamar-virtual-edition-multiple-vulnerabilities
[9] https://www.dell.com/support/kbdoc/en-us/000402262/dsa-2025-425-dell-powermaxos-dell-powermax-eem-dell-unisphere-for-powermax-dell-unisphere-for-powermax-virtual-appliance-dell-unisphere-360-dell-solutions-enabler-virtual-appliance-security-update-for-multiple-vulnerabilities
[10] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[11] mailto:des@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 10:59

Mozilla kappt Firefox-Support für Windows 7, 8 und 8.1 endgültig

Von Heise
Firefox-Logo-Display

(Bild: David Tran Photo/Shutterstock.com)

Mozilla wollte den Support für Firefox unter Windows 7, 8 und 8.1 bereits 2024 kappen. Der erweiterte Support endet nun im Februar.

Firefox 115 hat noch Windows 7, 8 und 8.1 unterstützt. Nachdem Nutzer und Nutzerinnen mit diesen Betriebssystemen auf die Version Firefox ESR 115 gelenkt wurden, erfährt nun auch diese ihr Support-Ende. Damit endet nun auch im Februar die Unterstützung für die veralteten Betriebssysteme.

Das erklären die Mozilla-Entwickler in einem aktuellen Support-Beitrag [1]. „Microsoft hat die offizielle Unterstützung für Windows 7, 8 und 8.1 im Januar 2023 beendet. Nicht unterstützte Betriebssysteme erhalten keine Sicherheitsupdates und enthalten bekannte Schwachstellen. Ohne offizielle Unterstützung von Microsoft wird die Wartung von Firefox für veraltete Betriebssysteme kostspielig und riskant für Nutzerinnen und Nutzer“, führen sie dort aus.

Noch sicheres Surfen in veraltetem Windows möglich?

Die Frage, ob Firefox noch sicheres Surfen unter den genannten Windows-Versionen ermöglicht, schreiben die Programmierer sehr klar: „Mozilla stellt bis zum Ende der ESR-Version 115 im Februar 2026 wichtige Sicherheitsupdates über den Firefox-ESR-Kanal bereit. Danach kommen keine weiteren Sicherheitsupdates mehr, und es empfiehlt sich dringend, auf eine noch unterstützte Microsoft Windows-Version zu aktualisieren.“ Sie geben aber auch den Tipp, gegebenenfalls alternative Betriebssysteme in Betracht zu ziehen: „Wenn Ihre aktuelle Hardware aus irgendeinem Grund Windows 10 oder höher nicht unterstützt, können Sie auf ein Linux-basiertes Betriebssystem umsteigen. Die überwiegende Mehrheit der Linux-Distributionen wird mit Firefox als Standardbrowser ausgeliefert.“

Der Wechsel auf einen anderen Webbrowser sei auch keine Option, da etwa Google Chrome den Support für Windows 7, 8 und 8.1 bereits [2] eingestellt hat. Selbiges gelte für Microsoft Edge.

Dass Firefox die Unterstützung für die alten Windows-Versionen einstellt, war schon länger klar. Ursprüngliche Planungen sahen sogar den September 2024 [3] als Schlusspunkt dafür vor – da sollten auch die alten macOS-Versionen 10.12, 10.13 und 10.14 aus dem Support fallen. Dort kündigte die Mozilla-Foundation auch an, dass betroffene Firefox-Installationen automatisch auf den Firefox-ESR-115-Zweig umgestellt werden.


URL dieses Artikels:
https://www.heise.de/-11180671

Links in diesem Artikel:
[1] https://support.mozilla.org/en-US/kb/firefox-users-windows-7-8-and-81-moving-extended-support
[2] https://www.heise.de/news/Webbrowser-Firefox-beendet-Support-fuer-altes-Windows-und-macOS-9154400.html
[3] https://www.heise.de/news/Webbrowser-Firefox-beendet-Support-fuer-altes-Windows-und-macOS-9154400.html
[4] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[5] mailto:dmk@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 10:24

Ist MySQL noch zu retten? Offener Brief an Oracle

Von Heise
Oracle-Logo auf einem Gebäude

(Bild: Michael Vi/Shutterstock.com)

Nach MySQL-Community-Gipfeln fordert ein offener Brief Oracle zu Dialog über die Zukunft der Datenbank auf. Genügen Oracles jüngste Ankündigungen den Kritikern?

Knapp 200 Entwickler, Anwender und Unternehmen aus dem MySQL-Ökosystem haben Oracle in einem offenen Brief [1] aufgefordert, die künftige Governance der Open-Source-Datenbank zu überdenken. Das Schreiben wurde nach zwei MySQL Community Summits in San Francisco und Brüssel im Januar und Februar 2026 veröffentlicht. Federführend ist das auf MySQL-Services spezialisierte Unternehmen Percona, dessen Co-Founder Vadim Tkachenko für die Initiatoren spricht.

Im Kern kritisiert die Community mangelnde Transparenz, Ressourcenprobleme und fehlende Mitsprache bei der Weiterentwicklung von MySQL. „Die Entwicklung findet hinter verschlossenen Türen statt“, heißt es in einem begleitenden Blogbeitrag von Percona [2]. Private Code-Drops ohne öffentliche Diskussion, intransparente Behandlung von Sicherheitslücken und ein im Herbst 2025 erfolgter Personalabbau von rund 50 Prozent hätten das Vertrauen erschüttert. Seit Monaten gibt es kaum noch Commits im öffentlichen mysql/mysql-server-Repository auf GitHub.

Besonders problematisch sei die fehlende Transparenz bei Sicherheitsbugfixes. Anwender könnten nicht verifizieren, ob bekannte Schwachstellen ihre Installationen betreffen. Zudem sei unklar, wie Oracle künftig Ressourcen für MySQL bereitstellen wolle, nachdem wichtige Entwickler das Unternehmen verlassen haben. Oracle hatte die Entwicklungsressourcen zunehmend in die proprietäre Cloud-Datenbank HeatWave verlagert. Auch Frederic Descamps, langjähriger MySQL Community Manager bei Oracle, kündigte seinen Wechsel zur MariaDB Foundation [3] an.

Drei Governance-Modelle zur Auswahl

Die Unterzeichner schlagen Oracle drei unterschiedliche Governance-Modelle vor. Beim ersten, zentralisierten Modell würde Oracle nach dem Vorbild der OpenELA-Initiative eine Foundation anführen, die operative Last aber auf Partner verteilen. Beim zweiten Modell würde Oracle als strategischer Partner in ein von der Industrie geführtes Konsortium eintreten. Das dritte, vollständig autonome Modell sähe eine unabhängige Organisation vor, die MySQL-Advocacy betreibt und überprüft, ob Oracle die Versprechen einhält.

Bis Ende März 2026 soll eine Entscheidung über das Governance-Modell fallen, im zweiten Quartal die rechtliche Struktur geschaffen und im dritten Quartal eine Foundation gelauncht werden. Peter Zaitsev, Mitgründer von Percona, betont die Notwendigkeit unabhängiger Kontrolle: „Wir brauchen jemanden, der mit einer Stimme sprechen und sagen kann: Oracle, das hast du nicht geliefert, und das ist nicht in Ordnung.“

Oracle kündigt neue Ära an

Oracle reagierte bereits am 11. Februar 2026 mit einem Blogpost zur „Neuen Ära des Engagements mit der MySQL-Community“ auf die sich zuspitzende Kritik aus der MySQL-Community. Der Konzern kündigte unter der Führung von SVP Jason Wilcox eine Drei-Säulen-Strategie an: Innovation in der Community Edition, Erweiterung der Developer-Community und mehr Transparenz.

Konkret verspricht Oracle für MySQL 9.7 LTS (erwartet im April 2026) Vektorfunktionen für KI-Workloads, einen standardmäßig aktivierten Hypergraph Optimizer, vollständige JSON-Duality-Unterstützung mit DML sowie modernisierte Foreign-Key-Constraints. Zur Transparenz sollen öffentliche Diskussionen der Vorschläge, besseres Feedback zu abgelehnten Patches und die Veröffentlichung von Security-Bugs nach erfolgten Fixes gehören. Auch eine Roadmap zur geplanten Weiterentwicklung der Datenbank will Oracle veröffentlichen. Die Ankündigungen [4] gehen damit auf zentrale Kritikpunkte des offenen Briefs ein.

Skepsis bleibt bestehen

Trotz der Oracle-Ankündigungen bleibt die Community skeptisch. „Wir brauchen Verifizierung durch Taten, nicht durch Worte“, heißt es im Percona-Blogpost. Vadim Tkachenko kritisiert: „Das Oracle-MySQL-Team ist derzeit im Chaos.“ Zentrale Fragen zu den nötigen Ressourcen seien unbeantwortet geblieben, eine Ernennung eines Vice President für die MySQL-Entwicklung stehe weiterhin aus.

Der offene Brief ist auch Ausdruck eines größeren Problems: MySQL verliert seit Jahren an Popularität gegenüber PostgreSQL, das zur Standardwahl für neue Projekte geworden ist. PostgreSQL verfügt über eine unabhängige, dezentrale Governance durch die PostgreSQL Global Development Group – genau das, was sich die MySQL-Community von Oracle erhofft. Die Unterzeichner argumentieren, dass eine unabhängige Foundation mit transparenten Entscheidungsprozessen MySQL wieder wettbewerbsfähiger machen und die Weiterentwicklung verbessern könnte.

Die historische Entwicklung von MySQL von der Gründung durch Michael Widenius und David Axmark 1995 über den Kauf durch Sun Microsystems 2008 bis zur Oracle-Übernahme 2009 zeigt: Governance-Fragen begleiten die Datenbank seit jeher. Bereits nach der Oracle-Übernahme entstand mit MariaDB ein Fork unter Führung des MySQL-Gründers Widenius. Ob Oracle diesmal zu substanziellen Zugeständnissen bereit ist oder ob eine neue Fragmentierung des MySQL-Ökosystems droht, wird sich in den kommenden Wochen zeigen.


URL dieses Artikels:
https://www.heise.de/-11180613

Links in diesem Artikel:
[1] https://letter.3306-db.org/
[2] https://www.percona.com/blog/an-open-letter-to-oracle-lets-talk-about-mysqls-future/
[3] https://lefred.be/content/i-joined-the-mariadb-foundation/
[4] https://www.heise.de/news/Kein-Aus-fuer-MySQL-Features-fuer-Community-Edition-und-mehr-Transparenz-11179156.html
[5] https://www.heise.de/ix
[6] mailto:fo@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 12:54

Die Produktwerker: Product-Owner im 3-Horizonte-Modell

Von Heise
Produktwerker auf einem Bild (3 Männer), dazu Text

(Bild: Die Produktwerker)

In dieser Podcastfolge geht es um das 3-Horizonte-Modell, das Produktarbeit zwischen Kerngeschäft, Wachstum und Zukunft einordnet.

Was bedeutet das 3-Horizonte-Modell für die Arbeit von Product-Ownern? Darüber diskutieren Tim Klein und Dominique Winter in der aktuellen Podcastfolge. Das Modell stammt zwar aus der Strategiedebatte, dient in der Praxis aber vor allem als Orientierungsrahmen für Produktentscheidungen, Metriken und Erwartungen. Es hilft, Produktarbeit nicht nur auf das Tagesgeschäft zu reduzieren, sondern systematisch im Spannungsfeld von heute, morgen und übermorgen zu betrachten.

Die drei Horizonte im Detail

Im ersten Horizont steht das bestehende Kerngeschäft im Mittelpunkt. Organisationen sichern hier Wertschöpfung, stabilisieren Produkte, optimieren Abläufe und reagieren auf Marktanforderungen. Die Unsicherheit ist vergleichsweise gering, weil Markt, Nutzergruppen und Geschäftsmodell meist gut verstanden sind. Ziel ist, den Lebenszyklus des Produkts wirtschaftlich tragfähig zu verlängern. Wer jedoch ausschließlich in diesem Horizont plant, riskiert strategischen Stillstand.

Der zweite Horizont umfasst aufkommende Geschäftsfelder und Produktbestandteile, die erste Marktsignale liefern. Im Fokus steht, aus Ideen tragfähige Angebote zu entwickeln und Product-Market-Fit zu erreichen. Kundennähe, schnelles Feedback und konsequentes Lernen prägen diese Phase; der Schwerpunkt verschiebt sich von Stabilität hin zu Wachstum und Skalierung.

Im dritten Horizont geht es um Zukunftsoptionen unter hoher Unsicherheit. Statt gesicherter Umsätze dominieren Hypothesen, Problemverständnis und Experimente, die ausdrücklich scheitern dürfen. Das Modell macht damit sichtbar, dass Innovation nicht nur Tempo, sondern auch geschützten Raum braucht – zum Lernen, Ausprobieren und zum Umgang mit unklaren Ergebnissen.

Das 3-Horizonte-Modell als praktisches Werkzeug

Für Product-Owner bedeutet das eine bewusste, horizontabhängige Arbeitsweise. Im ersten Horizont dominieren Effizienz, Stabilität und Priorisierung innerhalb eines klaren Rahmens. Im zweiten Horizont stehen Validierung, Marktnähe und schnelles Nachjustieren im Vordergrund. Im dritten Horizont sind Mut, Neugier und Experimentierkompetenz entscheidend.

Als Portfolio- und Kommunikationsinstrument schafft das 3-Horizonte-Modell [4] Transparenz darüber, woran Teams tatsächlich arbeiten. Es verhindert, dass Innovationsvorhaben vorschnell an Kriterien des Kerngeschäfts gemessen werden und schützt umgekehrt etablierte Produkte vor ungerichteter Experimentierfreude. Damit wird das Modell weniger zum theoretischen Konstrukt als zu einem praktischen Werkzeug: Es verbindet Produktstrategie mit konkreter Produktarbeit und unterstützt nachhaltigen Produkterfolg über mehrere Zeitebenen hinweg.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der Produktwerker bereit: „Product Owner im 3-Horizonte-Modell [5]“.


URL dieses Artikels:
https://www.heise.de/-11180859

Links in diesem Artikel:
[1] https://product-owner-day.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_pod2.empfehlung-ho.link.link
[2] https://product-owner-day.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_pod2.empfehlung-ho.link.link
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://en.wikipedia.org/wiki/Three_Horizons
[5] https://produktwerker.de/product-owner-im-3-horizonte-modell/
[6] mailto:mai@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 11:36

Warum T-förmiges Wissen in Zeiten von KI wichtiger wird denn je

Von Heise
Vektorgrafik eines Kopfes mit einem Fragezeichen darin

(Bild: chana/Shutterstock.com)

KI-Tools verändern die Softwareentwicklung grundlegend. Wer in Grundlagenwissen und tiefe Expertise investiert, sichert seine Karriere langfristig.

Die Softwarebranche erlebt gerade einen Umbruch, der viele Entwicklerinnen und Entwickler verunsichert. Tools wie Claude Code, Codex, Copilot und andere KI-gestützte Assistenten übernehmen Aufgaben, die noch vor wenigen Jahren als Kernkompetenz galten. Code schreiben, Fehler finden, Dokumentation erstellen: All das erledigen diese Werkzeuge inzwischen in beeindruckender Qualität. Die Frage, welche Fähigkeiten in einer solchen Welt noch gefragt sind, beschäftigt Einsteigerinnen und Einsteiger ebenso wie erfahrene Fachkräfte.

Doch diese aktuellen Diskussionen sind nur der jüngste Gipfel einer Entwicklung, die ich schon seit über zwanzig Jahren in der Branche beobachte, und meine Antwort auf diese Frage ist eindeutig (und seit jeher die gleiche): Der Schlüssel zu einer erfolgreichen Karriere in der Softwareentwicklung schlechthin war schon immer und ist weiterhin das sogenannte T-förmige Wissen. Doch was früher ein Vorteil war, wird heute zur Notwendigkeit. Wer in Zeiten von KI bestehen will, muss verstehen, was hinter den Werkzeugen steckt, die sie oder er täglich einsetzt. Oberflächliches Wissen, das gestern noch ausgereicht hat, um Aufgaben zu erledigen, genügt morgen nicht mehr.

Was T-förmiges Wissen bedeutet

Das Konzept des T-förmigen Wissens stammt ursprünglich aus dem Management und beschreibt ein Kompetenzprofil, das zwei Dimensionen vereint. Der vertikale Balken des T steht für tiefe Expertise in einem spezifischen Fachgebiet. Hier geht es um echte Meisterschaft, um ein Verständnis, das über die Oberfläche hinausreicht und auch die Randfälle, die Geschichte und die Designentscheidungen eines Themenfeldes umfasst. Der horizontale Balken repräsentiert ein breites Grundlagenwissen, das über die eigene Spezialisierung hinausreicht und es ermöglicht, Verbindungen herzustellen und in verschiedenen Kontexten handlungsfähig zu sein.

In der Softwareentwicklung bedeutet das konkret: Eine Entwicklerin oder ein Entwickler mit T-förmigem Profil beherrscht ein Themenfeld wirklich fundiert, sei es eine bestimmte Technologie, eine Architekturform oder einen methodischen Ansatz. Diese Person kann nicht nur Standardaufgaben lösen, sondern auch ungewöhnliche Probleme analysieren, Entscheidungen begründen und andere anleiten. Gleichzeitig verfügt sie über solides Wissen in angrenzenden Bereichen: Algorithmen, Datenstrukturen, Betriebssysteme, Netzwerke, Security und vieles mehr.

Das unterscheidet T-förmige Fachkräfte sowohl von reinen Spezialisten als auch von Generalisten. Spezialistinnen und Spezialisten kennen ihr Fachgebiet zwar in- und auswendig, können aber außerhalb davon kaum Zusammenhänge herstellen. Sie sind gefangen in ihrer Nische und hilflos, sobald ein Problem die Grenzen ihres Expertenwissens überschreitet. Generalisten wissen von allem ein wenig, erreichen aber nirgendwo eine Tiefe, die echten Mehrwert schafft. Sie können mitreden, aber keine schwierigen Probleme lösen. Das T-Profil kombiniert das Beste aus beiden Welten: tiefes Verständnis dort, wo es zählt, und genug Breite, um größere Zusammenhänge zu erkennen und interdisziplinär zu arbeiten.

Warum eine Programmiersprache reicht, wenn man sie wirklich beherrscht

In Stellenanzeigen und Diskussionen über Karrierechancen geht es oft um konkrete Technologien. Java oder C#? Python oder Go? React oder Angular? Diese Fragen führen regelmäßig zu leidenschaftlichen Debatten, doch sie lenken vom Wesentlichen ab. Sie suggerieren, dass die Wahl der richtigen Technologie über Erfolg und Misserfolg entscheidet. Das ist ein Irrtum.

Meine Erfahrung zeigt: Es ist nahezu irrelevant, welche Programmiersprache jemand als Erste wirklich beherrscht. Was zählt, ist die Tiefe des Verständnisses. Wer eine Sprache wirklich durchdrungen hat, wer ihre Paradigmen, ihre Stärken und Schwächen, ihre typischen Anwendungsmuster verstanden hat, kann andere Sprachen vergleichsweise schnell erlernen. Die Syntax mag sich unterscheiden, die zugrundeliegenden Konzepte bleiben oft ähnlich.

Objektorientierung funktioniert in Java, C#, Python und vielen anderen Sprachen nach denselben Grundprinzipien. Kapselung, Vererbung, Polymorphie: Diese Konzepte tragen verschiedene Namen und haben unterschiedliche syntaktische Ausprägungen, aber ihr Kern bleibt derselbe. Funktionale Konzepte wie Immutability, reine Funktionen oder Higher-Order-Functions finden sich in Haskell ebenso wie in JavaScript oder Kotlin. Wer diese Konzepte einmal verstanden hat, erkennt sie überall wieder. Der Wechsel von einer Sprache zur anderen wird dann zur Übersetzungsaufgabe, nicht zum Neulernen.

Die Programmiersprache ist ein Werkzeug, nicht das Ziel. Ein Handwerker, der sein Handwerk versteht, kann mit verschiedenen Werkzeugen arbeiten. Er muss nicht für jede Schraube einen neuen Beruf erlernen. Genauso verhält es sich in der Softwareentwicklung: Die Konzepte sind übertragbar, die konkrete Sprache ist austauschbar. Wer das begriffen hat, verliert die Angst vor neuen Technologien und gewinnt die Freiheit, das jeweils passende Werkzeug zu wählen.

Die Grundlagen, die niemand überspringen sollte

Neben der tiefen Beherrschung einer Programmiersprache gibt es einen Kanon an Grundlagenwissen, der für jede Softwareentwicklerin und jeden Softwareentwickler unverzichtbar ist. Dieser Kanon bildet den horizontalen Balken des T. Dabei geht es nicht darum, in jedem dieser Bereiche zum Experten zu werden. Das wäre weder realistisch noch notwendig. Es geht darum, die verschiedenen Abstraktionsebenen zu verstehen und konzeptionell einordnen zu können. Wer die Schichten kennt, auf denen die eigene Arbeit aufbaut, trifft bessere Entscheidungen und erkennt Probleme früher.

Algorithmen und Datenstrukturen bilden das Fundament. Wer nicht versteht, warum eine Hash-Map schneller ist als eine lineare Suche, oder wann ein Baum einer Liste vorzuziehen ist, wird dauerhaft suboptimale Entscheidungen treffen. Das gilt unabhängig davon, ob man diese Strukturen selbst implementiert oder fertige Bibliotheken verwendet. Denn auch die Auswahl der richtigen Bibliothek erfordert dieses Verständnis. Eine falsche Datenstruktur kann den Unterschied zwischen einer responsiven Anwendung und einem trägen System ausmachen.

Eng damit verbunden ist die Laufzeitkomplexität. Die O-Notation mag auf den ersten Blick akademisch wirken, doch sie entscheidet im Alltag darüber, ob eine Anwendung performant läuft oder bei größeren Datenmengen in die Knie geht. Wer einmal erlebt hat, wie eine harmlos aussehende, verschachtelte Schleife einen Server lahmlegt, vergisst diese Lektion nicht mehr. Der Unterschied zwischen O(n) und O(n^2) ist bei kleinen Datenmengen vernachlässigbar, bei großen Datenmengen jedoch fatal.

Auf einer tieferen Ebene liegt das Verständnis von Speicherverwaltung. Stack und Heap, Referenzen und Werte, Garbage Collection und manuelles Memory-Management: Diese Konzepte bestimmen, wie Programme mit Ressourcen umgehen. Auch wer in einer Hochsprache mit automatischer Speicherverwaltung arbeitet, profitiert davon, die darunterliegende Mechanik zu verstehen. Memory-Leaks, Performanceprobleme und schwer zu findende Bugs haben ihre Ursache oft in mangelndem Verständnis dieser Grundlagen. Wer weiß, was unter der Haube passiert, debuggt effizienter und schreibt robusteren Code.

Security ist ein weiteres Feld, das niemand ausklammern sollte. Die häufigsten Sicherheitslücken basieren auf Fehlern, die mit grundlegendem Wissen vermeidbar wären: SQL-Injection, Cross-Site-Scripting, fehlerhafte Authentifizierung. Diese Angriffsvektoren sind seit Jahrzehnten bekannt, und dennoch tauchen sie immer wieder auf. Sicherheit ist keine Aufgabe für Spezialistinnen und Spezialisten allein, sondern muss von allen mitgedacht werden, die Code schreiben. Ein Grundverständnis von Bedrohungsmodellen und Abwehrstrategien gehört zum Handwerkszeug.

Schließlich gehört auch Architekturwissen zum unverzichtbaren Repertoire. Wie strukturiert man eine Anwendung so, dass sie wartbar, erweiterbar und testbar bleibt? Welche Muster und Prinzipien haben sich bewährt? Wann ist ein Monolith die richtige Wahl, wann eine verteilte Architektur? Diese Fragen lassen sich nur beantworten, wenn man verschiedene Ansätze kennt und ihre Vor- und Nachteile einschätzen kann. Architekturentscheidungen haben langfristige Konsequenzen und sind oft schwer zu revidieren. Wer sie fundiert trifft, spart später viel Aufwand.

Domänenwissen und Kommunikation als Multiplikatoren

Technisches Wissen allein macht allerdings noch keine erfolgreiche Karriere. Mindestens zwei weitere Faktoren wirken als Multiplikatoren und unterscheiden durchschnittliche von herausragenden Entwicklerinnen und Entwicklern. Ohne diese Faktoren bleibt technische Kompetenz abstrakt und entfaltet nicht ihr volles Potenzial.

Der erste Faktor ist Domänenwissen. Software existiert nicht im luftleeren Raum. Sie löst Probleme in konkreten Anwendungsfeldern: Finanzwesen, Gesundheitswesen, Logistik, E-Commerce oder unzähligen anderen Bereichen. Wer die Fachlichkeit der eigenen Domäne versteht, wer mit Anwenderinnen und Anwendern auf Augenhöhe sprechen kann, wer die Geschäftsprozesse kennt und ihre Tücken durchschaut, bringt einen Mehrwert ein, den rein technische Expertise nicht bieten kann.

Domänenwissen ermöglicht es, die richtigen Fragen zu stellen. Es schützt davor, technisch brillante Lösungen für die falschen Probleme zu bauen. Es hilft dabei, Anforderungen kritisch zu hinterfragen und Alternativen vorzuschlagen, die den eigentlichen Bedarf besser treffen. Wer versteht, warum ein Geschäftsprozess so funktioniert, wie er funktioniert, kann ihn intelligenter digitalisieren. Diese Fähigkeit wird umso wertvoller, je mehr die reine Code-Produktion automatisiert wird.

Der zweite Faktor ist Kommunikation. Softwareentwicklung ist Teamarbeit. Ideen müssen vermittelt, Entscheidungen begründet, Konflikte gelöst werden. Wer komplexe technische Sachverhalte verständlich erklären kann, wer zuhört und nachfragt, wer Feedback geben und annehmen kann, wird zum wertvollen Bindeglied zwischen Technik und Fachlichkeit. In einer Welt, in der KI immer mehr Routineaufgaben übernimmt, werden genau diese menschlichen Fähigkeiten wichtiger, nicht unwichtiger.

Kommunikationsfähigkeit ist keine Soft-Skill-Nebensache. Sie entscheidet darüber, ob gute Ideen umgesetzt werden oder in Meetings versanden. Sie bestimmt, ob ein Team effektiv zusammenarbeitet oder aneinander vorbei entwickelt. Die beste technische Lösung nützt wenig, wenn sie niemand versteht oder akzeptiert.

Was KI an dieser Gleichung verändert

KI-gestützte Entwicklungswerkzeuge sind beeindruckend. Sie generieren funktionierenden Code aus natürlichsprachlichen Beschreibungen. Sie schlagen Vervollständigungen vor, die oft genau das treffen, was man ohnehin schreiben wollte. Sie finden Fehler, erklären komplexe Codepassagen und erstellen Dokumentation. Für Routineaufgaben sind sie bereits heute unverzichtbare Helfer.

Doch diese Fähigkeiten haben Grenzen, die sich bei genauerem Hinsehen offenbaren. KI-Tools sind gut darin, Muster zu erkennen und zu reproduzieren. Sie versagen dort, wo es um echtes Verständnis geht. Sie generieren Code, der syntaktisch korrekt ist, aber subtile logische Fehler enthält. Sie schlagen Lösungen vor, die funktionieren, aber nicht skalieren. Sie produzieren en passant Sicherheitslücken, weil sie den Kontext nicht verstehen. Ohne menschliche Überprüfung entsteht technische Schuld im Zeitraffer.

Hier zeigt sich der Wert von t-förmigem Wissen: Wer die Grundlagen versteht, kann KI-generierten Code bewerten. Wer Algorithmen kennt, erkennt ineffiziente Lösungen. Wer Security-Prinzipien verinnerlicht hat, sieht Sicherheitslücken, bevor sie zu Problemen werden. Wer Architekturerfahrung mitbringt, kann einschätzen, ob ein Vorschlag ins Gesamtbild passt oder nicht.

KI verschiebt die Anforderungen, aber sie eliminiert sie nicht. Routineaufgaben werden automatisiert, doch die Fähigkeit, diese Automatisierung sinnvoll einzusetzen, erfordert mehr Verständnis, nicht weniger. Der Programmierer der Zukunft wird weniger Zeit mit dem Schreiben von Boilerplate-Code verbringen, aber mehr Zeit mit dem Verstehen, Bewerten und Integrieren von Lösungen. Das erfordert fundiertes Wissen, das über Copy-Paste-Kompetenz hinausgeht.

Wer künftig nicht mehr gebraucht wird

Meine These ist klar: Wer nur einen einzelnen Aspekt aus der beschriebenen Kombination abdeckt, wird es in Zukunft schwer haben. Die Zeit der Spezialisten ohne Breite und der Generalisten ohne Tiefe neigt sich dem Ende zu.

Wer nur eine Programmiersprache kennt, aber weder Tiefe noch Breite mitbringt, ist austauschbar. Die Syntax einer Sprache beherrscht jedes KI-Tool aus dem Stegreif. Das Verständnis der dahinterliegenden Konzepte nicht. Wer Java schreiben kann, aber nicht erklären kann, warum ein bestimmtes Pattern in einem bestimmten Kontext sinnvoll ist, verliert gegenüber einer KI, die dasselbe schneller produziert.

Wer nur Grundlagenwissen hat, ohne es praktisch anwenden zu können, bleibt theoretisch. Wissen, das nie zur Anwendung kommt, verliert seinen Wert. Die Fähigkeit, Theorie in funktionierende Lösungen zu übersetzen, macht den Unterschied zwischen akademischem Interesse und beruflicher Kompetenz.

Wer nur Domänenwissen mitbringt, ohne technisches Verständnis, kann zwar Anforderungen formulieren, aber nicht einschätzen, was realistisch umsetzbar ist. Die Brücke zwischen Fachlichkeit und Technik kann nur schlagen, wer beide Seiten versteht. Andernfalls entstehen Spezifikationen, die an der Realität vorbeigehen.

Wer nur kommunizieren kann, aber weder technisch noch fachlich fundiert ist, wird schnell als oberflächlich wahrgenommen. Kommunikation ohne Substanz erzeugt keinen Mehrwert. Sie führt zu Meetings ohne Ergebnisse und Präsentationen ohne Tiefgang.

Die Zukunft gehört denen, die diese Fähigkeiten kombinieren. Das bedeutet nicht, dass jede Einzelperson in allem exzellent sein muss. Es bedeutet, dass ein solides Fundament in allen Bereichen notwendig ist, ergänzt durch tiefe Expertise in mindestens einem davon. Diese Kombination macht den Unterschied zwischen ersetz- und unverzichtbar.

Der eigentliche Karrierehebel ist Lernfähigkeit

T-förmiges Wissen ist kein Zustand, den man einmal erreicht und dann für immer hält. Technologien verändern sich. Domänen entwickeln sich weiter. Was heute tiefe Expertise darstellt, kann in zehn Jahren Basiswissen sein. Was heute als Grundlage gilt, wird möglicherweise durch neue Paradigmen abgelöst. Die einzige Konstante in unserer Branche ist der Wandel.

Der eigentliche Karrierehebel ist deshalb nicht das Wissen selbst, sondern die Fähigkeit, kontinuierlich zu lernen. Wer gelernt hat zu lernen, wer weiß, wie man sich neue Themenfelder erschließt, wer die Disziplin aufbringt, regelmäßig in die eigene Weiterbildung zu investieren, kann sich immer wieder neu aufstellen. Diese Fähigkeit ist wichtiger als jedes konkrete Wissen, denn sie ermöglicht es, konkretes Wissen immer wieder zu erneuern.

Diese Lernfähigkeit ist selbst eine Fähigkeit, die man entwickeln kann. Sie umfasst das Wissen darum, wie man effektiv lernt, welche Ressourcen zuverlässig sind, wie man Wichtiges von Unwichtigem unterscheidet. Sie erfordert die Bereitschaft, sich immer wieder auf Anfängerniveau zu begeben, Fehler zu machen und daraus zu lernen. Das ist unbequem, aber unvermeidlich.

KI-Tools können bei diesem Lernprozess unterstützen. Sie können Konzepte erklären, Beispiele generieren, Fragen beantworten. Doch die Entscheidung, was man lernt und warum, bleibt beim Menschen. Die Integration neuen Wissens in das eigene Verständnisgebäude ist eine kognitive Leistung, die keine KI abnehmen kann. Lernen bleibt Arbeit, auch wenn die Werkzeuge besser werden.

Wer heute in T-förmiges Wissen investiert, tut also mehr, als nur aktuelle Kompetenzlücken zu schließen. Sie oder er entwickelt die Grundlage für lebenslanges Lernen in einer Branche, deren einzige Konstante der Wandel ist. Und genau das macht den Unterschied zwischen einer Karriere, die von technologischen Umbrüchen bedroht wird, und einer, die von ihnen profitiert.


URL dieses Artikels:
https://www.heise.de/-11165151

Links in diesem Artikel:
[1] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 11:27

heise+ | Deutsche KI-Start-ups im Spannungsfeld von Milliardeninvestitionen und KI-Blase

Von Heise

Ungeachtet der viel diskutierten KI-Blase investieren Unternehmen und Fonds weiterhin in KI-Start-ups – verstärkt auch in Europa. Kann das gutgehen?

Allen Befürchtungen einer bald platzenden Blase zum Trotz gedeiht die KI-Szene weiterhin prächtig. Investoren pumpen ordentlich Kapital in vielversprechende Start-ups – verstärkt auch in Deutschland und Europa. In Deutschland sind 2025 sogar drei KI-Schmieden zu besonders wertvollen, sogenannten Einhörnern geworden: die Drohnenfirma Quantum Systems aus Gilching bei München, der Prozessautomatisierer n8n sowie Parloa (Interaktion mit Kunden) aus Berlin. Bereits Ende 2024 schaffte es das im selben Jahr gegründete, auf Bildgenerierung spezialisierte Black Forest Labs aus Freiburg – um gleich im Folgejahr förmlich durch die Decke zu gehen.

Als Einhörner bezeichnet man junge, noch nicht börsennotierte Unternehmen, die eine Bewertung von einer Milliarde US-Dollar erreicht haben. Oft schaffen sie das enorme Wachstum binnen weniger Monate – durch ein oder mehrere Investorenrunden, die zig bis Hunderte Millionen US-Dollar frisches Kapital bringen. Ob diese Bewertung, die einflussreiche Investoren festlegen, etwas mit dem realen Wert der Firma zu tun hat, ist umstritten. In der Regel liegt sie ein Vielfaches höher als das hineingeflossene Wagniskapital. Black Forest Labs beispielsweise hat insgesamt 450 Millionen US-Dollar eingesammelt, bewertet wird es mit 3,25 Milliarden. Zum Vergleich: Das nach wie vor nicht börsennotierte OpenAI liegt bei 500 Milliarden US-Dollar und könnte mit der nächsten Finanzierungsrunde auf 750 Milliarden steigen.

Trotz der übermächtig erscheinenden Konkurrenz erweisen sich die hiesigen KI-Start-ups insgesamt als widerstandsfähig. Während vielen klassischen Gründern aufgrund der schlechten Wirtschaftslage das Geld ausgeht und sich Börsengänge verschieben, werden die auf künstliche Intelligenz und Verteidigung spezialisierten weiterhin gut gefüttert. Wir werfen einen Blick auf die europäische Szene, beginnend mit der deutschen KI-Landschaft.


URL dieses Artikels:
https://www.heise.de/-11098245

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/Deutsche-KI-Start-ups-im-Spannungsfeld-von-Milliardeninvestitionen-und-KI-Blase-11098245.html
[2] https://www.heise.de/tests/Claude-Opus-4-6-im-Hands-on-Maechtige-KI-Agenten-treiben-Kosten-in-die-Hoehe-11174875.html
[3] https://www.heise.de/ratgeber/OpenClaw-im-Selbstversuch-Erste-Schritte-mit-dem-Super-KI-Agenten-11167211.html
[4] https://www.heise.de/hintergrund/Vision-Language-Model-Wie-FastVLM-hochaufloesende-Bilder-im-Browser-analysiert-11156884.html
[5] https://www.heise.de/ratgeber/Privates-Wissensarchiv-Anleitungen-und-Co-mit-lokaler-KI-durchsuchen-11141754.html
[6] https://www.heise.de/hintergrund/Parameter-in-KI-Modellen-Was-sie-bei-grossen-Sprachmodellen-wirklich-bedeuten-11139376.html
[7] https://www.heise.de/hintergrund/IT-Recht-Rechtskonformer-Einsatz-von-KI-Agenten-11133778.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 18. Februar 2026 um 11:00
❌