FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

CH YH-1000S: Diese Drohne startet von der Wiese und landet auf dem Wasser

Von Marcel Kunzmann

Marcel Kunzmann

Eine Drohne auf einem Flugplatz

Chinas unbemanntes Frachtflugzeug YH-1000S absolvierte seinen Jungfernflug in der südwestchinesischen Metropole Chongqin

(Bild: Xinhua/X)

Der Hybridantrieb ermöglicht Starts von Grasflächen und Landungen auf Wasser – doch Experten sehen vor allem militärisches Potenzial.

China hat am Sonntag den Erstflug seiner neuen hybrid-angetriebenen Transportdrohne CH YH-1000S erfolgreich abgeschlossen. Wie der staatliche Sender CCTV am Dienstag berichtete [1], startete das unbemannte Fluggerät vom Flughafen der südwestchinesischen Stadt Chongqing.

Der Sender bezeichnete die CH YH-1000S als "weltweit erstes hybrid-angetriebenes unbemanntes Transportflugzeug". Die Drohne wurde von der China Academy of Aerospace Aerodynamics entwickelt und ist für den internationalen Markt konzipiert.

Hybridantrieb verkürzt Start- und Landebahnen

Das Fluggerät nutzt ein Hybridsystem, das gemeinsam mit einem Hersteller von Elektrofahrzeugen entwickelt wurde. Laut CCTV kombiniert dieses System einen benzinbetriebenen Motor mit einem Elektromotor und ermöglicht den Betrieb mit einer oder beiden Antriebsquellen.

"Die Drohne ist mit einem leistungsstarken Hybrid-Antriebsstrang ausgestattet, der Start- und Landedistanzen erheblich verkürzt und Nutzlast sowie Reichweite erhöht", erklärte CCTV, ohne weitere technische Details zu nennen. Die Zeitung China Daily berichtete, dass im Vergleich zur Basisversion der Hybridantrieb den Betrieb mit einem oder beiden Energiesystemen ermögliche.

Nach Angaben von CGTN erlaubt das System Starts und Landungen auf Nebenstraßen, verdichteten Erdpisten und sogar Grasflächen. Zudem können Schwimmer- und Ski-Ausrüstungen an der Unterseite angebracht werden, um Landungen auf Wasser und Schnee zu ermöglichen.

Weiterentwicklung des Vorgängermodells

Die CH YH-1000S ist eine verbesserte Version der CH YH-1000, die im Mai 2025 ihren Erstflug absolvierte und ein konventionelles Antriebssystem verwendet. Laut der staatlichen Nachrichtenagentur Xinhua kann das Vorgängermodell bis zu 1.200 Kilogramm Fracht transportieren, verfügt über eine Reichweite von 1.500 Kilometern und eine Betriebszeit von über zehn Stunden.

Das Projekt für die YH-1000 begann im Juni 2024. Im Januar 2025 absolvierte das Fluggerät erfolgreich Bodentests. Bei seinem Erstflug im Mai transportierte die YH-1000 etwa 400 Kilogramm Fracht, wie die Global Times berichtete [2].

Der Projektleiter erklärte damals: "Dieser Verifikationsflug zeigt, dass die YH-1000 die technische Grundlage für kommerzielle Operationen besitzt." Man werde mit Testbetrieben unter Berücksichtigung der Genehmigungen fortfahren, um "neue Impulse für die florierende Entwicklung der Niedrigflug-Wirtschaft in Westchina zu geben".

Laut People's Daily Online weist die YH-1000S noch kürzere Start- und Landedistanzen auf als das Vorgängermodell und verfügt über eine erhöhte Nutzlastkapazität sowie erweiterte Flugreichweite.

Zivile und militärische Anwendungen

Chinesische Behörden nannten als mögliche zivile Einsatzbereiche Frachttransport, Notfallrettung, Katastrophenhilfe, maritime Überwachung und Wetterbeobachtung. CGTN ergänzte, das Fluggerät könne auch für Ozeanüberwachung und sogar Wettermanipulation eingesetzt werden.

Das Flugzeug kann Fracht von vorne laden und entladen sowie von der Unterseite abwerfen, was flexible logistische Manöver ermöglicht, berichtete CGTN.

Die Drohne ist Teil der CH-Serie, deren Modelle bereits in mehr als zehn Länder exportiert wurden, wie staatliche Medien mitteilten.

Allerdings gibt es auch mögliche militärische Verwendungszwecke. Lyle Goldstein, Direktor des Asien-Programms bei Defence Priorities, erklärte [3] gegenüber der South China Morning Post, solche Drohnen könnten bei militärischen Operationen zur Versorgung von Elitetruppen beitragen, einschließlich eines möglichen Konflikts um Taiwan.

Die Versorgung von Fronttruppen sei oft schwierig, und schwere Transportdrohnen könnten bei der Lieferung von Munition und Nachschub helfen.


URL dieses Artikels:
https://www.heise.de/-11167795

Links in diesem Artikel:
[1] https://english.cctv.com/2026/02/03/ARTIK92zw3rHQ0fXGf1dJbJK260203.shtml
[2] https://www.globaltimes.cn/page/202507/1339591.shtml
[3] https://www.scmp.com/news/china/military/article/3342435/could-chinas-first-hybrid-transport-drone-prove-game-changer-taiwan-strait

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 19:45

Angriff per Signal: BfV und BSI warnen Politiker, Militärs und Diplomaten

Von Heise
Signal-App auf einem Smartphone, darüber eine Fignerspitze

(Bild: Melnikov Dmitriy / Shutterstock.com)

Ein vergangene Woche bekannt gewordener Angriff auf Nutzer des Messengers Signal zielt auf Bundestagsabgeordnete und andere wichtige Personen ab.

Das Bundesamt für den Verfassungsschutz und das Bundesamt für Sicherheit in der Informationstechnik warnen gemeinsam vor einem Phishingversuch eines mutmaßlich staatlichen oder staatlich gesteuerten Angreifers im Messenger Signa [1]l.

„Im Fokus stehen hochrangige Ziele aus Politik, Militär und Diplomatie sowie Investigativjournalistinnen und -journalisten in Deutschland und Europa“, heißt es in einem unter anderem an den Bundestag und seine Abgeordneten verschickten Sicherheitshinweis. „Die aktuell zu beobachtende Angriffskampagne ist insbesondere im Hinblick auf hochrangige Zielpersonen als sicherheitsrelevant einzustufen.“

Für den Angriff würden legitime Sicherheitsfunktionen missbraucht – die aber die Mithilfe der Nutzer erfordern. Vergleichbare Vorgehensweisen würden auch bei WhatsApp funktionieren, warnen die beiden Behörden, von denen das BfV mit der Spionageabwehr und das BSI mit der Cybersicherheit des Bundes betraut ist.

Erste Variante führt zu Accountverlust

Eine von zwei beschriebenen Angriffsvarianten verläuft dabei nach denkbar einfachem Muster: Ein angeblicher Support-Bot oder ein angebliches Support-Team schreiben die Nutzer an und behaupten, dass ihre Gerätesicherheit gefährdet sei.

Phishing-Attacke per Signal (0 Bilder) [2]

[3]

Nur wenn sie unmittelbar ihre Sicherheitspin oder eine Verifizierungs-SMS übermitteln würden, wäre ihr Gerät sicher. Folgen die Angeschriebenen der Aufforderung, nutzen die Angreifer das Konto ab diesem Moment in selbst kontrollierter Umgebung. Wer dann dem Konto schreibt, schreibt nur noch den Angreifern. Immerhin haben die dann aber keinen Zugriff auf die Kontakte des Nutzers und auch nicht auf vorher erfolgte Chatinhalte. Dennoch: Eine Wiederherstellung des Kontos durch den Nutzer ist dann nicht mehr möglich.

Zweite Variante ermöglicht weitergehenden Zugriff

BfV und BSI warnen aber auch vor einer zweiten Variante, bei der auch Inhalte und Kontakte kompromittiert werden können. Dabei wird ein Vorwand gesucht, warum der angegriffene Nutzer einen QR-Code scannen soll. Doch der ist die Berechtigung dafür, dass die Angreifer dann ein neues Gerät mit dem Konto verknüpfen können – was ihnen Nachrichten und Inhalte der vergangenen anderthalb Monate zugänglich macht und das Mitlesen aktueller Nachrichten erlaubt. Außerdem können sie im Namen des Opfers Nachrichten verschicken – und somit weitere mögliche Opfer erreichen.

Angesichts der Berichte über Sichtungen der Angriffe scheint es sich dabei nicht um einen sehr gezielten Angriff auf einzelne Akteure zu handeln, sondern um einen Streuschuss. Da Signal auf die Ende-zu-Ende-verschlüsselten Nachrichten keinen Zugriff hat und auch kein Client-Side-Scanning zu Spam oder Phishing betreibt, ist es auf die Aufmerksamkeit seiner Nutzer angewiesen, auf solche Versuche nicht hereinzufallen.


URL dieses Artikels:
https://www.heise.de/-11168254

Links in diesem Artikel:
[1] https://www.heise.de/thema/Signal
[2] https://www.heise.de/bilderstrecke/5023565.html?back=11168254;back=11168254
[3] https://www.heise.de/bilderstrecke/5023565.html?back=11168254;back=11168254
[4] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[5] mailto:dahe@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 14:27

Deutsche Bahn führt stillschweigend Passkeys ein

Von Heise
Digitale Identitäten auf einem Tablet, darüber ein Schloss in dem ein Gesicht steckt (Symbolbild)

(Bild: Jirsak/Shutterstock.com)

Bei der Deutschen Bahn ist ab sofort das Login mittels Passkeys möglich. Ein deutlicher Schritt vorwärts für die Kontosicherheit.

Die Deutsche Bahn [1] bietet ab sofort die Anmeldung mit Passkeys [2] in der App und auf der Webseite an. Das erhöht die Zugangssicherheit signifikant.

Neue Passkey-Mlglichkeit im DB-Konto
Neue Passkey-Mlglichkeit im DB-Konto

Im Konto der Deutschen Bahn lassen sich Passkeys verwalten.

(Bild: heise medien)

In der App und auf der Webseite der Deutschen Bahn ist nun die Anmeldung mittels Passkeys möglich. Bevor das klappt, müssen Interessierte sich natürlich erst einmal Passkeys für ihre Geräte erstellen. Das gelingt in den Konto-Einstellungen über den Punkt „Login und Sicherheit“ und dort den Klick auf die Schaltfläche „Zum Account-Manager“. Darin finden sich die Passkeys unter „Alternative Login-Methoden“.

Dort lassen sich neue Passkeys erstellen – eine Mengenbegrenzung nennt die Seite jedoch nicht. Bereits erstellte Passkeys lassen sich umbenennen oder auch wieder entfernen.

Passkey-Anmeldung ohne SMS-Zweitfaktor

Eine eigene FAQ auf der Webseite der DB [3] erklärt die Nutzung von Passkeys. Die Anmeldung mit Passkeys erfolgt dann ohne die sonst genutzte Zwei-Faktor-Authentifizierung mit SMS. Die sind dem CCC zufolge ohnehin keine gute Idee [4] und können sich abfangen lassen. Die Zugangssicherheit bei der Deutschen Bahn gewinnt daher deutlich.

Passkeys setzen auf eine kryptografische Absicherung von Zugängen, anstatt lediglich Benutzername und Passwort zu nutzen. Die althergebrachten Zugangsdaten sind anfällig für Phishing [5] oder landen als Remix in Datensammlungen im Internet, wo sie Kriminellen als Ausgangspunkt für Kontoübernahmen dienen. Passkeys hingegen nutzen einen privaten Schlüssel auf dem Endgerät, der dieses dann mit dem Zugang verknüpft. Zum Anmelden erfolgt dann in der Regel eine biometrische Identitätsprüfung, etwa mittels Fingerabdruck, Gesichtsscan mit Kamera oder einer PIN. Das ist deutlich komfortabler als das Eingeben von Passwörtern.

Inzwischen beherrschen diverse Passwort-Manager die Verwaltung von Passkeys, sodass sie sogar geräteübergreifend nutzbar sind. Etwa Microsofts Edge arbeitet so als Passwort-Manager [6], der über die Cloud die Passkeys auf die weiteren Geräte der Nutzer synchronisiert und sie dort bereitstellen kann.


URL dieses Artikels:
https://www.heise.de/-11167787

Links in diesem Artikel:
[1] https://www.heise.de/thema/Deutsche-Bahn
[2] https://www.heise.de/thema/Passkey
[3] https://www.bahn.de/faq/pk/service/kundenkonto/passkeys
[4] https://www.heise.de/news/Chaos-Computer-Club-Nutzt-2-Faktor-Authentifizierung-aber-bitte-nicht-via-SMS-9798159.html
[5] https://www.heise.de/thema/Phishing
[6] https://www.heise.de/hintergrund/Passkey-Sync-in-Microsoft-Edge-Passwortlose-Anmeldung-ueber-die-Cloud-11068120.html
[7] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp
[8] mailto:dmk@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 12:13

Debian: Projektleiter warnt vor stillem Rückzug von Entwicklern

Von Heise
Debian-Logo und Schriftzug, rosa Hintergrund

(Bild: heise medien)

Debian-Projektleiter Andreas Tille prangert ein strukturelles Problem an: Entwickler verschwinden ohne Rückmeldung – mit Folgen für Sicherheit und Wartung.

Das Debian-Projekt hat ein Kommunikationsproblem. Entwickler, die keine Zeit oder kein Interesse mehr haben, ziehen sich still zurück – ohne ihre Verantwortung offiziell zu übertragen. Ein solches Verhalten gefährdet die Wartung von Paketen, die Sicherheit von Accounts und die Kontinuität wichtiger Teams. Debian-Projektleiter Andreas Tille hat das Problem in seiner Februar-Mitteilung [1] an die Entwickler-Community detailliert beschrieben.

Das Kernproblem ist laut Tille nicht, dass Freiwillige aufhören zu arbeiten – das sei völlig normal. Problematisch sei vielmehr, dass sie dies nicht kommunizieren. „Debian existiert, weil Menschen sich freiwillig dafür entscheiden, ihre Zeit dafür aufzuwenden“, schreibt Tille. Doch die meisten seien mit Enthusiasmus beigetreten, ohne eine explizite Vereinbarung zu einer späteren Ankündigung, falls sich ihre verfügbare Zeit, Energie oder Interessen ändern.

Die Konsequenzen dieser stillen Abwanderung sind erheblich: Bugs bleiben unbearbeitet, sicherheitsrelevante Accounts ohne aktive Überwachung, delegierte Rollen existieren nur noch auf dem Papier. Besonders deutlich wurde das Problem bei der Reorganisation des FTPmaster-Teams, das über zwei Jahrzehnte für die Debian-Archive verantwortlich war. Im Oktober 2025 musste es aufgelöst und in zwei neue Teams aufgeteilt werden, weil wesentliche Arbeit von zu wenigen Menschen getragen wurde – mit negativen Auswirkungen auf Transparenz und Kommunikation.

MIA-Team soll automatisiert nach Inaktiven fahnden

Als Lösung schlägt Tille einen sechsstufigen automatisierten Prozess vor: Das MIA-Team (Missing In Action) soll mithilfe von Heuristiken inaktive Entwickler identifizieren und nach sechs Monaten ohne Aktivität automatisierte E-Mails versenden. Diese bieten einfache Optionen: Bestätigung der aktiven Präsenz, Übergang zum Emeritus-Status (ehrenhalber zurückgezogener Entwickler ohne aktive Pflichten) oder Kontaktaufnahme mit dem MIA-Team.

Bleibt eine Antwort aus, folgen sechs Monate lang monatliche Erinnerungen. Danach versucht das MIA-Team, die Person manuell zu erreichen, und warnt vor der Verwaisung ihrer Pakete. Erfolgt auch dann keine Reaktion, werden die Pakete nach einem weiteren Monat verwaist und der Account wird schließlich den Debian Account Managers zur möglichen Entfernung gemeldet.

Der Vorteil dieses automatisierten Systems: Es vermeidet direkte Fragen, die für manche Menschen sozial schwierig seien. Viele Entwickler empfinden es als unangenehm, von Freunden oder Kollegen direkt auf ihre Inaktivität angesprochen zu werden. „Aus gegenseitiger Rücksicht vermeiden wir es oft, zu fragen. Aus derselben Rücksicht vermeiden wir es auch, proaktiv zu sagen, dass wir zurückgetreten sind“, beschreibt Tille das Dilemma.

Delegation mit Ablaufdatum als weiterer Ansatz

Für delegierte Rollen schlägt Tille zusätzlich einen leichten Erneuerungsmechanismus vor. Delegierte sollen sechs Monate vor Ablauf ihrer Delegation einen kurzen Bericht mit Erneuerungsantrag einreichen. Bleibt dieser aus, läuft die Delegation automatisch ab. Dieser Ansatz normalisiere die Rotation und mache sie zu einem regulären Prozess statt einer konfliktbeladenen Ausnahmesituation.

Ein Beispiel für die Folgen fehlender Kommunikation ist das Data Protection Team: Alle bisherigen Delegierten sind zurückgetreten, die Delegation wurde widerrufen. Debian hat derzeit kein aktives Datenschutz-Team, obwohl die Aufgabe im DSGVO-Kontext wichtig ist. Der Workload war dabei gering – nur vier Anfragen im Jahr 2025.

Tille betont, dass bessere Sichtbarkeit von Inaktivität auch Chancen für neue Freiwillige schafft. Über eineinhalb Jahre hat er täglich ein langfristig inaktives Paket zur Zusammenarbeitsplattform Salsa migriert. Dies senke die Barriere für Beiträge erheblich und sende ein klares Signal, dass Hilfe willkommen ist. Bei aktiven Maintainern seien die Antworten meist konstruktiv gewesen – bei Paketen ohne Aktivität seit Jahren blieb die Reaktion dagegen meist aus.

Unklar ist derzeit, wie viel vom vorgeschlagenen MIA-Prozess bereits implementiert wurde. Tille fordert die Community auf, den aktuellen Status sichtbar zu machen, und lädt Interessierte explizit ein, sich einzubringen. Das Problem betreffe nicht nur Debian: „Dies ist eine wichtige Initiative für die Gesundheit des Debian-Projekts – und tatsächlich für jedes Open-Source-Projekt“, schreibt der Projektleiter.


URL dieses Artikels:
https://www.heise.de/-11167741

Links in diesem Artikel:
[1] https://lists.debian.org/debian-devel-announce/2026/02/msg00000.html
[2] https://www.heise.de/ix
[3] mailto:fo@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 11:22

heise-Angebot: Jetzt in der Make 1/26: 3D-Druck-Slicer im Vergleich

Von Akos Fodor

Bessere Drucke mit weniger Aufwand – wir erklären in der Make 1/26, was OrcaSlicer so beliebt macht, und teilen erprobte Slicer-Tipps aus der Redaktion.

Slicer wandeln CAD-Modelle mit wenigen Klicks in druckbare Pfade um – doch sie können längst viel mehr. Praktische Werkzeuge unterstützen beim Bearbeiten von Modellen, ohne dass man dafür 3D-Software beherrschen muss. Doch welche Funktionen lohnen sich wirklich? Und spielt die Wahl des Slicers überhaupt eine Rolle? Diesen Fragen gehen wir in der Make 1/26 nach.

Zunächst widmen wir uns dem OrcaSlicer, der sich wachsender Beliebtheit erfreut. Das Community-Projekt unterstützt bereits mehr als 320 Drucker, vereint Funktionen von Ultimaker Cura, PrusaSlicer und BambuStudio und bringt zahlreiche eigene Verbesserungen mit: von Baumstützen über versteckte Nähte, bis hin zu verbesserten Fuzzy-Skin-Mustern. Um zu verstehen, was den OrcaSlicer für Anfänger und auch 3D-Druck-Veteranen so interessant macht, werfen wir einen Blick auf auf seine Wurzeln und die Beziehung zu den anderen großen Slicern.

Streifen auf PETG-Drucken lassen sich mit einer Einstellung im Slicer vermeiden.

Für alle, die nach der Theorie gleich loslegen wollen, haben wir nützliche Funktionen zusammengetragen, mit denen sich schneller, schöner und stabiler drucken lässt – und die sich in unserem Redaktions- und Maker-Alltag bewährt haben: Wir zeigen etwa, was gegen Streifenbildung bei PETG hilft, wie Wände und die Ausrichtung sich auf die Stabilität auswirken oder was man mit Modifiern anstellen kann. Da jeder von uns seinen Drucker und Slicer verschieden verwendet, ist eine vielseitige Sammlung an Tipps und Tricks entstanden.

Die aktuelle Make: Am Kiosk und online erhältlich

Die Ausgabe 1/26 ist online und am Kiosk erhältlich. Mit einem unserer Abos [1] lag das Heft sogar bereits im Briefkasten. Außerdem können Sie die Make bequem als Printversion oder PDF im Heise Shop [2] bestellen – bis zum 20.02. sogar versandkostenfrei. Wenn Sie die Make lieber digital lesen, können Sie das in unseren Apps für iOS [3] und Android [4]. Online finden Sie auch das Inhaltsverzeichnis der Make 1/26 [5].


URL dieses Artikels:
https://www.heise.de/-11165777

Links in diesem Artikel:
[1] https://shop.heise.de/zeitschriften-abo/Make/Miniabo/?LPID=46501_MA000009_33946_2_57&wt_mc=intern.abo.make.ma_ea_2026.ticker-1.link.link
[2] https://shop.heise.de/make-01-2026/print?wt_mc=intern.shop.shop.make_2601.t1.textlink.textlink
[3] https://apps.apple.com/de/app/ct-hardware-hacks/id521645889
[4] https://play.google.com/store/apps/details?id=de.heise.android.ch.magazin&hl=de
[5] https://www.heise.de/select/make/2026/1
[6] https://www.heise.de/make
[7] mailto:akf@make-magazin.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 12:00

Apple AirTag 2: Nicht nur zum Gut-finden | Mac & i-Podcast

Von Heise
Apple AirTag 2: Nicht nur zum Gut-finden  Mac & i-Podcast

Apple hat die populären Tracker aufgemöbelt – mit sinnvollen wie fragwürdigen Änderungen. Wir ordnen ein, wo die Technik steht und welche Risiken bleiben.

Eine halbe Dekade hat sich Apple Zeit gelassen, um die AirTags in zweiter Generation frisch aufzulegen. Am Konzept ändert sich nichts, die Neuerungen sind zugleich zentral wie überschaubar: Verbesserte Funkchips sorgen in bestimmten Szenarien für mehr Reichweite, der Lautsprecher piepst kräftiger. Die Bluetooth-Tracker sind längst im Alltag angekommen, Apples „Wo ist?“-Netzwerk wird immer größer und andere Hersteller mischen ebenfalls mit – teils zu Dumping-Preisen.

In Episode 114 bewerten Malte Kirchner und Leo Becker, was die AirTags 2 konkret im Alltag bringen. Die Liste der Neuerungen hat auch Schattenseiten: Die Inkompatibilität zu älteren Betriebssystemversionen sorgt für Frust und einhelliges Kopfschütteln. Uns beschäftigen außerdem die bleibenden Nebenwirkungen der Technik: Stalking und missbräuchliche Nutzung bleiben ein Problem, auch wenn die anfänglichen Verbotsdebatten längst abgekühlt sind. Zudem geht es um Ultrabreitband als entscheidende Funktechnik für den Nahbereich, die auch digitale Schlüssel massentauglich machen könnte.

Apple-Themen – immer ausführlich

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio [2]) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio [3]) und bei Spotify [4]. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de [5].


URL dieses Artikels:
https://www.heise.de/-11168627

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] feed:https://mac-and-i.podigee.io/feed/mp3
[3] https://podcasts.apple.com/de/podcast/mac-i/id1499510618
[4] https://open.spotify.com/show/5Tcgc97HvYREYM7kIRsxii
[5] mailto:podcast@mac-and-i.de
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:lbe@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 17:10

Studie: Designer-Wissen macht KI-generierte UIs deutlich besser

Von Heise
Ein Designer arbeitet am Computer

(Bild: Redpixel.pl / Shutterstock.com)

Wer KI-Modelle um Designvorschläge bittet, wird häufig enttäuscht. Apple zeigt in einer Studie auf, wie die KI besser werden kann.

Wer schon mal eine KI [1] gebeten hat, ihm ein User-Interface für eine App vorzuschlagen, dürfte vielfach die Hände über dem Kopf zusammengeschlagen haben. Obwohl es gewiss nicht an Trainingsmaterial mangelt, beweisen Large Language Models kein gutes Händchen dafür, daraus etwas Ästhetisches und zugleich gut Nutzbares zu generieren. Speist man aber das Feedback professioneller Designer ein, sieht der Fall schon ganz anders aus. Dies hat Apple in einer Studie untersucht und die Ergebnisse in seinem Machine-Learning-Blog veröffentlicht [2].

Das Problem mit den User-Interfaces ist demnach, dass das klassische Anlernen der KI offenbar für Design-Belange völlig unzureichend ist. Bei der herkömmlichen Methode, dem verstärkenden Lernen aus menschlichen Rückmeldungen, vergibt ein Mensch Noten für die Erzeugnisse der KI. Mit dieser Methode, die während des Finetunings in der Trainingsphase eines neuen Modells angewendet wird, soll die KI gut von schlecht unterscheiden können. Doch in der Realität funktioniert das bei Designs dann trotzdem nicht so gut.

Apples Trick: Nicht nur gut oder schlecht

Die Apple-Forscher haben stattdessen eine komplexere Methode angewendet, die auch dem Feedback-Prozess in Designabteilungen entspricht. Mithilfe von 21 professionellen Designern wurden Designs mit Kommentaren und mit Strichzeichnungen versehen oder direkt verändert. Dieses Trainingsmaterial – insgesamt 1500 Anmerkungen – hat das Team in die Trainingsdaten eingespeist. Auf diese Weise wusste die KI nicht nur, ob etwas gut oder schlecht ist, sondern auch, warum. Mit sichtbarem Erfolg, wie die Apple-Forscher in dem Papier darlegen: Die Ergebnisse der KI wurden erneut einer professionellen Bewertung unterzogen. Im Vergleich zu den KI-generierten Designs anderer Modelle, darunter auch GPT-5 von OpenAI, habe das speziell trainierte Modell am besten abgeschnitten.

Wofür Apple die gewonnenen Erkenntnisse verwenden möchte, bleibt – wie bei diesen Forschungspapieren üblich – offen. Neben reiner Grundlagenforschung wäre aber zum Beispiel denkbar, dass Apple sein Designteam künftig mit KI-Hilfe unterstützen möchte. Auch im Bereich der Werkzeuge für Entwickler wäre ein KI-Modell, das unerfahrene Developer beim Erstellen geeigneter User-Interfaces für ihre Apps unterstützt, eine große Hilfe.

Bei der Studie kam Qwen2.5-Coder als Basis-Modell zum Einsatz. Die 21 professionellen Designer verfügten über zwei bis 30 Jahre Berufserfahrung und kamen aus den Bereichen UI/UX, Produktdesign und Servicedesign.


URL dieses Artikels:
https://www.heise.de/-11168496

Links in diesem Artikel:
[1] https://www.heise.de/thema/Kuenstliche-Intelligenz
[2] https://machinelearning.apple.com/research/designer-feedback
[3] https://www.heise.de/mac-and-i
[4] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 16:55

Analyse zu neuen Plänen: Macht Apple bei KI jetzt alles besser?

Von Heise
Apple und KI

Apple und KI: Genau richtig lange gewartet?

(Bild: Below the Sky / Shutterstock / Bearbeitung: heise medien)

Lange Zeit war Apple in Sachen Künstlicher Intelligenz hinten. Nun soll der Konzern auch dank Google-Gemini-Hilfe vorankommen. Was ist von den Ideen zu halten?

Apple Intelligence ist ein Begriff, bei dem Fans von KI bislang abwinken: Die Sprach- und Bildmodelle des iPhone-Herstellers gelten einfach nicht als konkurrenzfähig, genauso wenig wie die offerierten Dienste wie Schreibwerkzeuge [1], Image Playground oder Genmoji. Einen eigenen Chatbot bietet Apple ebenso wenig an, mit Siri lässt sich nur schlecht [2] plaudern. Zwei Nachrichten [3] aus den vergangenen Wochen könnten nun dazu führen, dass sich das alles ändert: Apple hat demnach vor, erstmals einen eigenen Chatbot direkt in seine Betriebssysteme zu integrieren, sowie, und das ist noch erstaunlicher, ein eigenes KI-Wearable auf den Markt zu bringen.

Chatbots wohl doch interessant

Zunächst zum Chatbot. Diesen hatte Apple über einen langen Zeitraum sowohl nach Innen als nach Außen abgelehnt. Softwareboss Craig Federighi gilt allgemein als KI-Skeptiker, der Rieseninvestitionen wie bei anderen IT-Riesen [4] bislang untersagt hatte. Offenbar fürchtete der Konzern, erstens nicht mit der Konkurrenz mithalten zu können, sowie zweitens in Fallen hineinzulaufen, die Apple gar nicht mag – etwa wenn KIs halluzinieren [5], Guardrails nicht beachten und damit das familienfreundliche Image des Konzerns antasten.

Doch mit iOS 27, macOS 27 und den anderen Betriebssystemen, die im Sommer vorgestellt und im Herbst ausgeliefert werden dürften, soll sich das ändern: Ein systemweit zur Verfügung stehender Chatbot ist glaubwürdigen Berichten zufolge vorgesehen, als eine Art Super-Siri. Das Ganze wird dann vom „bevorzugten Cloud-Anbieter“ des Konzerns „gepowert“, zu dem sich Google kürzlich offiziell erklären [6] durfte. Heißt: Apple steht außen drauf, ein Google-Gemini-basiertes Modell ist drin. Interessant wird hier, wie Apple dies vermarkten wird. Der Konzern äußert sich nicht zu technischen Details, es könnte für ihn aber ratsam sein, durchblicken zu lassen, dass man Google-Technik nutzt, um die oben erwähnten möglichen Peinlichkeiten zu umgehen.

Der bevorzugte Cloud-Anbieter

Völlig unklar ist auch noch, wie es mit dem Datenaustausch aussieht. Bislang wird angenommen, dass Apple zunächst einfachere Gemini-Modelle auf eigenen Servern im Rahmen der Private-Cloud-Compute-Initiative [7] laufen lässt, doch sind die für den im Herbst geplanten Chatbot wohl nicht gut genug. Danach kann Apple eigentlich nur noch Google-Tensor-Systeme [8] erwerben, die für die neuesten Gemini-Modelle optimiert sind, um sie in eigene Rechenzentren zu stellen. Oder aber die Rechenarbeit erfolgt in Googles Anlagen, was preislich und praktisch wohl sinnvoll ist, zumal auch die halbe iCloud auf Google-Cloud-Servern gehostet wird (neben Microsoft Azure und Amazons AWS [9]).

Erste Anzeichen, wie man sich das alles vorzustellen hat, wird es wohl im April geben. Dann kommt nach allen aktuellen Erkenntnissen endlich die kontextsensitive Siri [10] im Rahmen von iOS 26.4. Diese wird auf Apples eigenen Modellen sowie auf einfacheren Gemini-Modellen basieren, wie es bislang heißt. Der Konzern kann sich hier keine Schnitzer erlauben, nachdem das Vorhaben bereits im Sommer 2024 (!) angekündigt worden war. Siri soll damit endlich intelligenter werden, Nutzerinhalte verwenden, um echten Mehrwert zu bieten – und auch Apps steuern oder zumindest auslesen. Die Chatbot-Qualitäten eines ChatGPT oder Claude sind jedoch nicht zu erwarten, die kommen später.

Wirklich ein KI-Gadget

Schließlich kam auch noch die Meldung herein, dass Apple im Sinne einer direkten Konkurrenz zu Ex-Designboss Jony Ive [11] ein eigenes KI-Gadget in Form eines Wearables plant. Als ich dies erstmals vernahm, hielt ich es für einen Scherz. Schließlich sind bisherige Produkte in dem Segment krachend gescheitert, und es steht keineswegs fest, dass es Jony Ive zusammen mit Sam Altman gelingt, ein im Markt erfolgreiches KI-Wearable von OpenAI durchzusetzen.

Trotzdem scheinen die Informationen der Wahrheit zu entsprechen. Laut Angaben von The Information soll für 2027 eine Art anpinnbarer AirTag mit Lautsprecher, Kamera, Mikrofone und drahtloser Ladefunktion erscheinen. OpenAI hat selbst angeblich Stifte, Brillen, Pins und/oder Ohrstöpsel in der Pipeline. Die Sinnhaftigkeit dieser Geräte ergibt sich eigentlich nur daraus, dass sie ohne Zusatzhardware wie ein Smartphone funktionieren, denn sonst könnte man einfach dieses verwenden.

Apple hat außerdem bereits die Apple Watch, die die ideale Plattform für einen ständig verfügbaren KI-Assistenten darstellen dürfte – sie kann aber bislang offiziell nur indirekt Apple Intelligence. Apples möglicher KI-Pin soll ein Millionenseller werden. Wie intelligent oder Cloud-abhängig er wird, ist offen. Es wäre für Apple zumindest ungewöhnlich, in eine derart unbewiesene Kategorie vorzustoßen. Da ist der Aufkauf des KI-Unternehmens Q.AI schon spannender [12], das es ermöglichen soll, mit Sprachassistenten stimmlos zu kommunizieren. Das wäre ein echter Fortschritt.


URL dieses Artikels:
https://www.heise.de/-11150262

Links in diesem Artikel:
[1] https://www.heise.de/news/Schreibwerkzeuge-So-funktionieren-Apples-KI-Writing-Tools-9818327.html
[2] https://www.youtube.com/watch?v=kTefnhbg0Ig
[3] https://www.heise.de/news/Kuenstliche-Intelligenz-von-Apple-Siri-als-echter-Chatbot-und-KI-zum-Anpinnen-11150015.html
[4] https://www.heise.de/news/Apples-KI-Strategie-und-die-AI-Bubble-Holt-der-iPhone-Konzern-doch-noch-auf-11126903.html
[5] https://www.heise.de/news/BBC-warnt-vor-fehlerhaften-KI-Nachrichtenzusammenfassungen-10278955.html
[6] https://www.heise.de/news/Nach-Gemini-Siri-Deal-Google-nun-Apples-bevorzugter-Cloud-Anbieter-11166990.html
[7] https://www.heise.de/news/Apples-KI-Server-made-in-USA-fertig-10900087.html
[8] https://cloud.google.com/tpu
[9] https://www.heise.de/hintergrund/Das-iCloud-Problem-Warum-Apples-Backup-unsicherer-ist-als-viele-vermuten-7127983.html
[10] https://www.heise.de/news/Lange-erwartete-kontextsensitive-Siri-Angeblich-Bedenken-bei-internen-Tests-10778833.html
[11] https://www.heise.de/news/KI-Geraete-OpenAI-und-Jony-Ive-planen-ein-Always-on-Device-11112355.html
[12] https://www.heise.de/news/Apple-kauft-KI-Start-up-Q-AI-fuer-Milliarden-11160150.html
[13] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[14] https://www.heise.de/mac-and-i
[15] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 13:33

heise+ | Die Sicherheitsrisiken von KI-Assistenten wie OpenClaw

Von Heise

Das Projekt OpenClaw zeigt beeindruckend, was KI kann, wenn man sie lässt – und es zeigt, welch vielfältige Risiken damit einhergehen.

Ende Januar ging der Traum vieler IT-Nerds in Erfüllung: ein digitaler Assistent, der im eigenen Rechner lebt, mit dem man reden kann, der Aufträge erledigt, der sich selbst meldet, wenn etwas Wichtiges passiert, und auch autonom Lösungen für Probleme sucht, auf die er stößt. Selbstständiger gar als der „Computer“ in StarTrek und scheinbar nur eine SciFi-Bedienoberfläche von J.A.R.V.I.S. entfernt, Tony Starks digitalem Assistenten in den Iron-Man-Filmen.

Die dafür verantwortliche Software OpenClaw gewann derart rasant an Popularität, dass sogar die Hype-gewöhnte KI-Szene sich kollektiv die Augen rieb. Innerhalb von Tagen sammelte das erst gut zwei Monate alte Projekt über 160.000 Sterne in seinem GitHub-Repository und war Thema in praktisch jedem KI-Blog.

OpenClaw besteht im Wesentlichen aus einer Komponente namens „Gateway“, die diverse Chat-Interfaces mit dem KI-Coding-Agenten „Pi [11] [11]“ verknüpft und die Anbindung an eine Reihe Bedienoberflächen zur Konfiguration ermöglicht. Welches externe oder lokale Sprachmodell Pi einspannt, wie OpenClaw Sessions und das Gedächtnis des KI-Assistenten verwaltet, welche Werkzeuge (einschließlich eines Browsers) dem KI-Agenten zur Verfügung stehen und vieles mehr kann man konfigurieren.


URL dieses Artikels:
https://www.heise.de/-11164056

Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/OpenClaw-im-Selbstversuch-Erste-Schritte-mit-dem-Super-KI-Agenten-11167211.html
[2] https://www.heise.de/hintergrund/Vision-Language-Model-Wie-FastVLM-hochaufloesende-Bilder-im-Browser-analysiert-11156884.html
[3] https://www.heise.de/ratgeber/Privates-Wissensarchiv-Anleitungen-und-Co-mit-lokaler-KI-durchsuchen-11141754.html
[4] https://www.heise.de/hintergrund/Parameter-in-KI-Modellen-Was-sie-bei-grossen-Sprachmodellen-wirklich-bedeuten-11139376.html
[5] https://www.heise.de/hintergrund/IT-Recht-Rechtskonformer-Einsatz-von-KI-Agenten-11133778.html
[6] https://www.heise.de/hintergrund/Rechtliche-Tipps-zum-Selfhosting-von-LLMs-11099866.html
[7] https://www.heise.de/hintergrund/AutoML-Wie-KI-lernt-sich-selbst-zu-optimieren-11093914.html
[8] https://www.heise.de/ratgeber/Web-Suche-fuer-die-lokale-KI-So-schliessen-Ihre-LLMs-Wissensluecken-11116805.html
[9] https://www.heise.de/ratgeber/KI-Blase-Warum-Experten-vor-gravierenden-Folgen-fuer-Anleger-warnen-11094407.html
[10] https://www.heise.de/tests/DGX-Spark-Nvidias-Desktop-KI-Computer-im-Test-11102661.html
[11] https://github.com/badlogic/pi-mono/tree/main/packages/coding-agent

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 18:20

Bitcoin: Der Absturz von 126.000 auf 60.000 US-Dollar

Von Matthias Lindner

Matthias Lindner

Bitcoin Kurs Crash – 3D-Illustration eines zerbrochenen Bitcoin-Symbols im Absturz auf dunkelrotem Hintergrund symbolisiert die aktuelle Kurskorrektur

Bitcoin-Kurs im freien Fall: Die Kryptowährung verlor zeitweise mehr als die Hälfte ihres Wertes gegenüber dem Oktober-Hoch.

(Bild: Ormalternative / Shutterstock.com)

Der Bitcoin-Kurs ist massiv eingebrochen und hat zeitweise mehr als die Hälfte seines Wertes gegenüber dem Oktober-Hoch verloren.

Der Bitcoin-Kurs durchlebt schwere Zeiten. Am Freitag erholte sich der Token zwar um bis zu 5,8 Prozent und notiert aktuell bei knapp 68.300 US-Dollar.

Doch diese Stabilisierung folgt auf einen dramatischen Absturz von zeitweise mehr als der Hälfte gegenüber dem Oktober-Hoch von über 126.000 US-Dollar. Am Freitagmorgen wäre Bitcoin beinahe erstmals seit Oktober 2024 unter 60.000 US-Dollar gefallen.

Am Donnerstag hatte der Token noch sieben Prozent verloren, die Jahresverluste summieren sich damit auf fast 30 Prozent, heißt es [1] bei Bloomberg.

Die Schwankungsbreite erreicht außergewöhnliche Dimensionen. Ein Volatilitätsindex für Bitcoin schnellte laut Bericht binnen Tagen von 57 auf über 97 Prozent. Selbst für den notorisch wankelmütigen Kryptomarkt sind solche Ausschläge extrem.

Massenhafte Zwangsliquidationen belasten den Markt

Fachleute führen den Kursrutsch weniger auf konkrete Nachrichten als auf Marktmechanik zurück. Gehebelte Positionen werden in großem Stil aufgelöst, Hedgefonds bauen Risiken ab.

Innerhalb von 24 Stunden [2] mussten Anleger Verluste von 2,1 Milliarden Dollar bei liquidierten Wetten hinnehmen.

Auch die Nachfrage über börsengehandelte Fonds schwächelt. An einem einzigen Handelstag flossen 434 Millionen Dollar aus US-Bitcoin-ETFs ab. Die erhoffte dauerhafte Käuferwelle durch institutionelle Produkte ist ausgeblieben.

Fünfjahresvergleich offenbart Schwäche gegenüber traditionellen Assets

Für Privatanleger, die Bitcoin mit bewährten Anlagen vergleichen, zeigt sich ein klares Bild: Seit Anfang 2021 legte Bitcoin um 73 Prozent zu.

Gold gewann dagegen laut Bloomberg im selben Zeitraum 164 Prozent, der Nasdaq 100 kam auf 82 Prozent, der S&P 500 auf 75 Prozent. Die Kryptowährung liegt damit hinter allen drei Referenzwerten zurück.

Diese Entwicklung untergräbt das Versprechen überlegener Langfristrenditen. Besonders die Idee vom "digitalen Gold" gerät ins Wanken.

In geopolitischen Spannungen funktionierte Bitcoin nicht als Schutz, bei Dollarschwäche profitierte das glänzende Metall – nicht die Digitalwährung. Marktbeobachter stellen fest, dass sich Privatanleger zunehmend Aktien und Edelmetallen zuwenden.

Technische Analysten warnen vor weiteren Kursverlusten

Händler fixieren sich nun auf kritische Marken. Die 60.000-Dollar-Schwelle gilt als zentral – fällt sie, droht ein Kursrutsch auf 55.000 US-Dollar. Charttechniker verweisen [3] laut Bloomberg auf wichtige Durchschnittslinien: Die 200-Wochen-Linie liegt bei etwa 58.000 US-Dollar.

Historische Muster geben Anlass zur Sorge. In früheren Bärenmärkten verlor Bitcoin durchschnittlich 80 Prozent vom Höchststand. Bei einem Rückgang von 72 Prozent würde der Kurs auf etwa 35.200 Dollar fallen.

Zudem zeigen Daten, dass Einbrüche von 40 Prozent sich meist innerhalb von drei Monaten auf über 50 Prozent ausweiteten.

Große Halter und Miner unter Druck

Die Kursverluste belasten auch Unternehmenshalter. Das Unternehmen Strategy, das besonders stark auf Bitcoin setzt, meldete einen Quartalsverlust von 12,4 Milliarden US-Dollar durch Bewertungsverluste seiner Bestände.

Analysten schätzen, so Bloomberg, die Produktionskosten für Miner auf 87.000 Dollar – deutlich über dem aktuellen Kurs. Hält dieser Zustand an, könnten unrentable Betriebe aufgeben.


URL dieses Artikels:
https://www.heise.de/-11168575

Links in diesem Artikel:
[1] https://www.bloomberg.com/news/articles/2026-02-05/bitcoin-trails-s-p-500-nasdaq-100-gold-over-five-year-horizon
[2] https://www.bloomberg.com/news/articles/2026-02-06/bitcoin-btc-plunges-to-just-above-60-000-as-selloff-deepens
[3] https://www.bloomberg.com/news/articles/2026-02-05/wall-street-traders-game-out-how-far-the-bitcoin-charts-break

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 16:30

Chinas Hybrid-Drohne CH YH-1000S: Premiere mit militärischen Implikationen

Von Marcel Kunzmann

Marcel Kunzmann

Eine Drohne auf einem Flugplatz

Chinas unbemanntes Frachtflugzeug YH-1000S absolvierte seinen Jungfernflug in der südwestchinesischen Metropole Chongqin

(Bild: Xinhua/X)

Die CH YH-1000S absolvierte am Sonntag ihren Erstflug. Peking bewirbt zivile Einsatzmöglichkeiten, doch Experten sehen auch militärisches Potenzial.

China hat am Sonntag den Erstflug seiner neuen hybrid-angetriebenen Transportdrohne CH YH-1000S erfolgreich abgeschlossen. Wie der staatliche Sender CCTV am Dienstag berichtete [1], startete das unbemannte Fluggerät vom Flughafen der südwestchinesischen Stadt Chongqing.

Der Sender bezeichnete die CH YH-1000S als "weltweit erstes hybrid-angetriebenes unbemanntes Transportflugzeug". Die Drohne wurde von der China Academy of Aerospace Aerodynamics entwickelt und ist für den internationalen Markt konzipiert.

Hybridantrieb verkürzt Start- und Landebahnen

Das Fluggerät nutzt ein Hybridsystem, das gemeinsam mit einem Hersteller von Elektrofahrzeugen entwickelt wurde. Laut CCTV kombiniert dieses System einen benzinbetriebenen Motor mit einem Elektromotor und ermöglicht den Betrieb mit einer oder beiden Antriebsquellen.

"Die Drohne ist mit einem leistungsstarken Hybrid-Antriebsstrang ausgestattet, der Start- und Landedistanzen erheblich verkürzt und Nutzlast sowie Reichweite erhöht", erklärte CCTV, ohne weitere technische Details zu nennen. Die Zeitung China Daily berichtete, dass im Vergleich zur Basisversion der Hybridantrieb den Betrieb mit einem oder beiden Energiesystemen ermögliche.

Nach Angaben von CGTN erlaubt das System Starts und Landungen auf Nebenstraßen, verdichteten Erdpisten und sogar Grasflächen. Zudem können Schwimmer- und Ski-Ausrüstungen an der Unterseite angebracht werden, um Landungen auf Wasser und Schnee zu ermöglichen.

Weiterentwicklung des Vorgängermodells

Die CH YH-1000S ist eine verbesserte Version der CH YH-1000, die im Mai 2025 ihren Erstflug absolvierte und ein konventionelles Antriebssystem verwendet. Laut der staatlichen Nachrichtenagentur Xinhua kann das Vorgängermodell bis zu 1.200 Kilogramm Fracht transportieren, verfügt über eine Reichweite von 1.500 Kilometern und eine Betriebszeit von über zehn Stunden.

Das Projekt für die YH-1000 begann im Juni 2024. Im Januar 2025 absolvierte das Fluggerät erfolgreich Bodentests. Bei seinem Erstflug im Mai transportierte die YH-1000 etwa 400 Kilogramm Fracht, wie die Global Times berichtete [2].

Der Projektleiter erklärte damals: "Dieser Verifikationsflug zeigt, dass die YH-1000 die technische Grundlage für kommerzielle Operationen besitzt." Man werde mit Testbetrieben unter Berücksichtigung der Genehmigungen fortfahren, um "neue Impulse für die florierende Entwicklung der Niedrigflug-Wirtschaft in Westchina zu geben".

Laut People's Daily Online weist die YH-1000S noch kürzere Start- und Landedistanzen auf als das Vorgängermodell und verfügt über eine erhöhte Nutzlastkapazität sowie erweiterte Flugreichweite.

Zivile und militärische Anwendungen

Chinesische Behörden nannten als mögliche zivile Einsatzbereiche Frachttransport, Notfallrettung, Katastrophenhilfe, maritime Überwachung und Wetterbeobachtung. CGTN ergänzte, das Fluggerät könne auch für Ozeanüberwachung und sogar Wettermanipulation eingesetzt werden.

Das Flugzeug kann Fracht von vorne laden und entladen sowie von der Unterseite abwerfen, was flexible logistische Manöver ermöglicht, berichtete CGTN.

Die Drohne ist Teil der CH-Serie, deren Modelle bereits in mehr als zehn Länder exportiert wurden, wie staatliche Medien mitteilten.

Allerdings gibt es auch mögliche militärische Verwendungszwecke. Lyle Goldstein, Direktor des Asien-Programms bei Defence Priorities, erklärte [3] gegenüber der South China Morning Post, solche Drohnen könnten bei militärischen Operationen zur Versorgung von Elitetruppen beitragen, einschließlich eines möglichen Konflikts um Taiwan.

Die Versorgung von Fronttruppen sei oft schwierig, und schwere Transportdrohnen könnten bei der Lieferung von Munition und Nachschub helfen.


URL dieses Artikels:
https://www.heise.de/-11167795

Links in diesem Artikel:
[1] https://english.cctv.com/2026/02/03/ARTIK92zw3rHQ0fXGf1dJbJK260203.shtml
[2] https://www.globaltimes.cn/page/202507/1339591.shtml
[3] https://www.scmp.com/news/china/military/article/3342435/could-chinas-first-hybrid-transport-drone-prove-game-changer-taiwan-strait

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 14:00

Warum das Bildungsversprechen bricht – und was das für unsere Kinder heißt

Von Thomas Pany

Thomas Pany

Schülerin oder Studentin niedergekämpft am Schreibtisch mit Bücherstapeln

Bild: shutterstock.com

Generation Master, Generation Zweifel: Abschlüsse wachsen, Sicherheit nicht. Und am Horizont steht die KI.

Wer alles richtig macht, sollte nicht fallen. So lautete das unausgesprochene Versprechen der Bildungsgesellschaft: lernen, studieren, Abschluss erwerben – und sozial aufsteigen. Doch dieses Versprechen trägt nicht mehr für alle. Der französische Bildungsforscher François Dubet formuliert es im Interview mit Le Monde [1] so:

"Der Abschluss ist zugleich unverzichtbarer und weniger rentabel als früher. "

Eine Diagnose, die auch in Deutschland einen wunden Punkt berührt.

Bildung wurde über Jahrzehnte als Aufstiegsmaschine verstanden. Die Idee war ebenso ökonomisch wie demokratisch: Höhere Qualifikation steigert Produktivität und schafft Chancengleichheit.

Die Massenbildung hat den Zugang geöffnet – aber sie hat die Hierarchien nicht abgeschafft. Dubet, der gemeinsam mit Marie Duru-Bellat L'Emprise scolaire [2] veröffentlicht hat, beschreibt ein System, das breiter geworden ist, aber nicht durchlässiger.

Mehr Abschlüsse, weniger Wert

In Frankreich erwerben heute rund acht von zehn Jugendlichen das Abitur. Dort heißt es: "Baccalauréat" oder kurz: "Le Bac". Mehr als jeder Zweite beginnt ein Studium.

Studieren ist zur Normalität geworden – auch in unteren sozialen Schichten. Doch die Demokratisierung der Eliten bleibt begrenzt. Die Grandes Écoles und Vorbereitungsklassen sind weiterhin sozial stark abgeschottet.

Die Selektion hat sich lediglich verlagert: Nicht mehr "Abitur oder nicht“, sondern welches Zeugnis von welcher Universität?

Der Bildungsforscher Dubet spricht von einer Inflationslogik: Man braucht mehr, um dasselbe zu erreichen. Das gilt augenscheinlich nicht nur für Frankreich: Früher reichte das Abitur für gehobene Positionen, dann ein Bachelor, heute ein Master.

Die Auswahl wanderte weiter zum Master. Doch qualifizierte Arbeitsplätze entstehen nicht im gleichen Tempo wie Abschlüsse – sie hängen vom Arbeitsmarkt und von Konjunkturzyklen ab.

Fragile Absolventen auf unsicherem Terrain

Die Folge sind "fragile Absolventen" – gut ausgebildet, aber verletzlich gegenüber Schwankungen des Arbeitsmarkts. Studien des französischen Forschungszentrums Céreq zeigen: Mit der Inflation der Titel braucht es immer höhere Abschlüsse, um denselben Status zu erreichen.

Auch in Deutschland zeigt sich diese Dynamik. Laut dem Statistischen Bundesamt [3] sind 15 Prozent der Erwerbstätigen unter 35 formal überqualifiziert. Jede siebte junge Erwerbstätige verfügt über einen höheren Abschluss, als für die Tätigkeit erforderlich wäre. Bei Frauen liegt der Anteil bei 16 Prozent, bei Männern bei 13 Prozent.

Besonders betroffen sind junge Menschen mit Einwanderungsgeschichte: 18 Prozent von ihnen gelten als überqualifiziert. Zudem arbeiten 22 Prozent der unter 35-Jährigen fachfremd, bei Menschen mit Einwanderungsgeschichte 28 Prozent. Überqualifizierung bedeutet dabei nicht "zu viel Bildung", sondern ein Missverhältnis zwischen Qualifikation und Arbeitsmarkt.

Sortieren statt bilden

Der Abschluss dient zunehmend als Sortierinstrument. Laut Dubet entfernt sich das französische System von seinem ursprünglichen Zweck, Wissen und Fähigkeiten zu vermitteln, und wird zum Mechanismus der sozialen Differenzierung. Jeder zweite Absolvent eines allgemeinen Bachelorstudiengangs findet seine erste Stelle ohne fachlichen Bezug.

Das Problem ist nicht individuelles Scheitern, sondern ein strukturelles Versprechen, das nicht mehr eingelöst wird. Generationen wurde suggeriert, längere Zeiten an Schulen und Universitäten garantieren eine angemessene soziale Position.

Wenn diese Erwartung enttäuscht wird, entsteht nicht nur ökonomische Unsicherheit, sondern symbolische Entwertung – ein Gefühl des Abstiegs trotz Anstrengung.

Zwischenüberschrift: Neue Bildungsspaltung zwischen Elite und Masse

Eine Studie des französischen Planungskommissariats [4] zeigt: Drei von vier Franzosen glauben, früher sei es besser gewesen – auch zwei Drittel der unter 35-Jährigen. Heute ist im Nachbarland jeder zweite junge Mensch Hochschulabsolvent, 1975 war es nur jeder Fünfte.

Gleichzeitig ist der Berufseinstieg unsicherer, prekäre Beschäftigung verbreiteter, die relative Einkommensposition der Jungen schwächer.

Der Zugang zu Wohneigentum ist schwieriger geworden, während ältere Generationen größere Vermögensanteile konzentrieren. Auch der Cour des Comptes [5] (französischer Rechnungshof) konstatiert begrenzte Effekte der Bildungsförderung in benachteiligten Gebieten. Die soziale Frage verschwindet nicht – sie verschiebt sich.

Abschluss als einzige Form sozialer Anerkennung

Dubet plädiert nicht für weniger Bildung. Sein Einwand ist grundsätzlicher: Der Abschluss ist zur nahezu einzigen legitimen Form sozialer Anerkennung geworden. Damit wird jede Abweichung vom akademischen Ideal als Defizit gelesen.

Gefordert seien vielfältigere Wege, mehr Durchlässigkeit, Anerkennung außerakademischer Kompetenzen, die Möglichkeit von Pausen und Umwegen. Nicht die Akademisierung an sich ist das Problem, sondern die Monopolisierung von Status durch Zertifikate.

Wenn Bildung das zentrale Aufstiegsversprechen einer Demokratie ist, dann trifft sein Bruch den Kern ihres Selbstverständnisses. Die Enttäuschung darüber bleibt nicht folgenlos – sie vertieft die Spaltung zwischen Gewinnern und Verlierern des schulischen Wettbewerbs und öffnet politischen Polarisierungen Raum.

Hinzu kommt eine weitere Unbekannte: der wachsende Einfluss Künstlicher Intelligenz auf Ausbildung und Arbeitsmarkt. Noch ist unklar, welche Tätigkeiten automatisiert, welche Kompetenzen aufgewertet und welche entwertet werden.

Sicher ist nur, dass KI nicht mehr bloß Routinearbeiten ersetzt, sondern zunehmend analytische, kreative und wissenschaftliche Prozesse unterstützt oder übernimmt. Wenn Qualifikationen schneller veralten und Denkprozesse ausgelagert werden, könnte sich die Renditelogik von Abschlüssen weiter verschieben.

Bildung stünde dann nicht nur vor dem Problem der Titelinflation, sondern vor der grundsätzlichen Frage, welche Fähigkeiten in einer KI-geprägten Ökonomie überhaupt noch als knapp und damit als wertvoll gelten.


URL dieses Artikels:
https://www.heise.de/-11168163

Links in diesem Artikel:
[1] https://www.lemonde.fr/campus/article/2026/02/06/francois-dubet-le-diplome-est-a-la-fois-plus-indispensable-et-moins-rentable-qu-autrefois_6665627_4401467.html
[2] https://www.pressesdesciencespo.fr/fr/book/?GCOI=27246100854820
[3] https://www.presseportal.de/pm/32102/6204530
[4] https://www.strategie-plan.gouv.fr/publications/jeunesse-dhier-et-daujourdhui-le-grand-declassement
[5] https://www.vie-publique.fr/rapport/298465-leducation-prioritaire-une-politique-publique-repenser

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 13:45

Studie: Designer-Wissen macht KI-generierte UIs deutlich besser

Von Heise
Ein Designer arbeitet am Computer

(Bild: Redpixel.pl / Shutterstock.com)

Wer KI-Modelle um Designvorschläge bittet, wird häufig enttäuscht. Apple zeigt in einer Studie auf, wie die KI besser werden kann.

Wer schon mal eine KI [1] gebeten hat, ihm ein User-Interface für eine App vorzuschlagen, dürfte vielfach die Hände über dem Kopf zusammengeschlagen haben. Obwohl es gewiss nicht an Trainingsmaterial mangelt, beweisen Large Language Models kein gutes Händchen dafür, daraus etwas Ästhetisches und zugleich gut Nutzbares zu generieren. Speist man aber das Feedback professioneller Designer ein, sieht der Fall schon ganz anders aus. Dies hat Apple in einer Studie untersucht und die Ergebnisse in seinem Machine-Learning-Blog veröffentlicht [2].

Das Problem mit den User-Interfaces ist demnach, dass das klassische Anlernen der KI offenbar für Design-Belange völlig unzureichend ist. Bei der herkömmlichen Methode, dem verstärkenden Lernen aus menschlichen Rückmeldungen, vergibt ein Mensch Noten für die Erzeugnisse der KI. Mit dieser Methode, die während des Finetunings in der Trainingsphase eines neuen Modells angewendet wird, soll die KI gut von schlecht unterscheiden können. Doch in der Realität funktioniert das bei Designs dann trotzdem nicht so gut.

Apples Trick: Nicht nur gut oder schlecht

Die Apple-Forscher haben stattdessen eine komplexere Methode angewendet, die auch dem Feedback-Prozess in Designabteilungen entspricht. Mithilfe von 21 professionellen Designern wurden Designs mit Kommentaren und mit Strichzeichnungen versehen oder direkt verändert. Dieses Trainingsmaterial – insgesamt 1500 Anmerkungen – hat das Team in die Trainingsdaten eingespeist. Auf diese Weise wusste die KI nicht nur, ob etwas gut oder schlecht ist, sondern auch, warum. Mit sichtbarem Erfolg, wie die Apple-Forscher in dem Papier darlegen: Die Ergebnisse der KI wurden erneut einer professionellen Bewertung unterzogen. Im Vergleich zu den KI-generierten Designs anderer Modelle, darunter auch GPT-5 von OpenAI, habe das speziell trainierte Modell am besten abgeschnitten.

Wofür Apple die gewonnenen Erkenntnisse verwenden möchte, bleibt – wie bei diesen Forschungspapieren üblich – offen. Neben reiner Grundlagenforschung wäre aber zum Beispiel denkbar, dass Apple sein Designteam künftig mit KI-Hilfe unterstützen möchte. Auch im Bereich der Werkzeuge für Entwickler wäre ein KI-Modell, das unerfahrene Developer beim Erstellen geeigneter User-Interfaces für ihre Apps unterstützt, eine große Hilfe.

Bei der Studie kam Qwen2.5-Coder als Basis-Modell zum Einsatz. Die 21 professionellen Designer verfügten über zwei bis 30 Jahre Berufserfahrung und kamen aus den Bereichen UI/UX, Produktdesign und Servicedesign.


URL dieses Artikels:
https://www.heise.de/-11168496

Links in diesem Artikel:
[1] https://www.heise.de/thema/Kuenstliche-Intelligenz
[2] https://machinelearning.apple.com/research/designer-feedback
[3] https://www.heise.de/mac-and-i
[4] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 16:55

Neu in .NET 10.0 [9]: Null-Conditional Assignment in C# 14.0

Von Heise
Schild mit Schriftzug C#

(Bild: Pincasso / Shutterstock.com)

Entwicklerinnen und Entwickler können nun eine Zuweisung an eine Eigenschaft vornehmen, ohne vorher zu prüfen, ob das Objekt null ist.

Neben den bisher in dieser Blogserie aufgeführten Sprachelementen gibt es ein weiteres sehr hilfreiches neues Sprachkonstrukt in C# 14.0, das Microsoft „Null-Conditional Assignment“ nennt. Damit können Entwicklerinnen und Entwickler eine Zuweisung an eine Eigenschaft vornehmen, ohne vorher zu prüfen, ob das Objekt null ist.

Anstelle von

if (meineWebsite != null)
{
  meineWebsite.Url = "https://www.IT-Visions.de";
  meineWebsite.Url = meineWebsite.Url.ToLower();
  meineWebsite.Counter += 1;
}

darf man nun verkürzt mit dem Fragezeichen vor dem Punkt (?.) ohne if schreiben:

meineWebsite?.Url = "https://www.IT-Visions.de";
meineWebsite?.Url = meineWebsite.Url.ToLower();
meineWebsite?.Counter += 1;

Das führt zur Laufzeit zu keinem Fehler. Allerdings passiert auch rein gar nichts, falls die Variable meineWebsite den Wert null besitzt.

Die Variante

meineWebsite?.Owner.Name = "IT-Visions";
Console.WriteLine("Owner: " + meineWebsite?.Owner.Name);

funktioniert, wenn Website null ist. Aber nicht, wenn Website != null und Owner = null. Dann braucht man:

meineWebsite?.Owner?.Name = "IT-Visions";
Console.WriteLine("Owner: " + meineWebsite?.Owner?.Name);

Das Null-Conditional Assignment ist auch bei einem Indexer erlaubt:

Website[] websites = …;
websites?[0]?.Url = "https://www.IT-Visions.de";


URL dieses Artikels:
https://www.heise.de/-11165463

Links in diesem Artikel:
[1] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 15:35

Microsoft löst .NET Framework 3.5 aus Windows heraus

Von Heise
Verkehrsschild mit Aufschrift .NET

(Bild: Pincasso/Shutterstock.com)

Das klassische .NET Framework 3.5 wird in Zukunft keine optionale Windows-Komponente mehr sein, sondern ein eigenständiges Setup.

Microsoft hat bekannt gegeben, dass das klassische .NET Framework in der Version 3.5 ab 2026 in Windows 11 nicht mehr Teil des Betriebssystem-Setups sein wird. Bisher war .NET Framework 3.5 eine optionale Komponente bei der Betriebssysteminstallation.

Demnächst eigenständige Installation

Künftig muss man das Installationsprogramm für .NET Framework 3.5 von der Microsoft-Website herunterladen [1] und getrennt ausführen. Diese Änderung betrifft erst einmal nur Windows 11 ab Insider Preview Build 27965 [2] und wird dann aber voraussichtlich schon mit dem Feature-Release 26H1 in den stabilen Windows-Kanal eingehen.

Für Windows 10 ist diese Änderung nicht geplant. Details zu der Änderung erläutert Microsoft in einer kurzen FAQ [3].

Support für .NET Framework 3.5 endet 2029

Das .NET Framework 3.5 ist am 19. November 2007 erschienen. Der Support für diese Version endet am 9. Januar 2029, siehe Microsoft .NET Framework Lifecycle Policy [4]. Die Version 3.5 ist eine ältere Version des klassischen .NET Framework, das zahlreiche Nachfolger in den Versionen 4.0, 4.5, 4.6.x, 4.7.x und 4.8.x hatte.

Der Support für die Versionen 4.0, 4.5 und 4.5.1 endete schon im Jahr 2016. Die Versionen 4.5.2, 4.6 und 4.6.1 liefen 2022 aus dem Support. Der Version 4.6.2 geht es am 12. Januar 2027 an den Kragen.

Kein Support-Ende für .NET Framework 4.7 bis 4.8.1

Für die Versionen 4.7 bis 4.8.1 des klassischen .NET Framework wurde noch kein Support-Ende verkündet. Microsoft hatte bei der Einführung der modernen .NET-Versionen [5] (im Jahr 2016 zunächst als .NET Core in den Versionen 1.0 bis 3.1, dann seit Version 5.0 nur noch .NET genannt) zwar offiziell erklärt [6], dass es keine signifikante Weiterentwicklung des .NET Framework mehr geben wird. Nach dieser Aussage im Jahr 2019 erschien aber im August 2022 noch die Version 4.8.1 [7] für das klassische .NET Framework.

Microsoft hatte auch erklärt [8], dass man weiterhin an Fehlerbehebungen, Zuverlässigkeit und Sicherheit der klassischen .NET-Framework-Versionen arbeitet und dass das .NET Framework weiterhin mit Windows ausgeliefert werde. Wie die Änderung an der Auslieferungsart von .NET Framework 3.5 jetzt zeigt, bezieht sich diese Aussage „Teil von Windows“ aber offenbar nicht auf alle Versionen.

Aktuelle Version .NET 10.0

Die aktuelle Version des modernen .NET ist die Version 10.0, die am 11. November 2025 erschienen ist [9] – zusammen mit C# 14.0. Im heise-Blog Der Dotnet-Doktor [10] erscheint jede Woche ein Beitrag, der neue Funktionen in C# 14.0 und .NET 10.0 vorstellt.

Details zu der Umstellung von .NET Framework 3.5 finden sich im Microsoft-Blog [11].


URL dieses Artikels:
https://www.heise.de/-11167771

Links in diesem Artikel:
[1] https://www.microsoft.com/de-de/download/details.aspx?id=21
[2] https://blogs.windows.com/windows-insider/2025/10/08/announcing-windows-11-insider-preview-build-27965-canary-channel/
[3] https://learn.microsoft.com/en-us/dotnet/framework/install/dotnet-35-windows-11-faq
[4] https://learn.microsoft.com/lifecycle/products/microsoft-net-framework
[5] https://www.dotnetcore.de/DOTNET/dotnetCore
[6] https://devblogs.microsoft.com/dotnet/net-core-is-the-future-of-net/
[7] https://www.heise.de/news/Erste-neue-Funktionen-fuer-klassisches-NET-seit-3-Jahren-Version-4-8-1-ist-da-7217598.html
[8] https://devblogs.microsoft.com/dotnet/net-core-is-the-future-of-net/
[9] https://www.heise.de/news/NET-10-0-ist-fertig-11074367.html
[10] https://www.heise.de/thema/Der-Dotnet-Doktor
[11] https://devblogs.microsoft.com/dotnet/dotnet-framework-3-5-moves-to-standalone-deployment-in-new-versions-of-windows/
[12] mailto:rme@ix.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 12:23

Auslegungssache 152: Wirtschaftsvorteil Datenschutz?

Von Heise

Im c't-Datenschutzpodcast diskutieren die Hosts mit Frederik Richter darüber, ob Datenschutz Unternehmen ausbremst oder ihnen sogar Vorteile verschafft.

In der aktuellen Episode 152 der Auslegungssache widmen sich c't-Redakteur Holger Bleich und heise-Justiziar Joerg Heidrich einer derzeit teils verbittert geführten Debatte: Ist Datenschutz ein Standortvorteil für Unternehmen oder doch nur ein lästiger Kostentreiber? Als Gast begrüßen sie dazu Frederick Richter [1], Vorstand der Stiftung Datenschutz. Anlass ist ein aktuelles Whitepaper der Stiftung [2], das selbstbewusst den Titel "Wirtschaftsvorteil Datenschutz" trägt.

Frederick Richter
Frederick Richter

Frederick Richter schwenkt die Tasse im c’t-Datenschutz-Podcast.

Richter vertritt im Podcast die Position der Stiftung, dass Unternehmen, die Datenschutz ernst nehmen und zielgerichtet umsetzen, langfristig resilienter und erfolgreicher sind. Er argumentiert, dass guter Datenschutz fast automatisch auch eine bessere IT-Sicherheit mit sich bringt und das wichtigste Kapital im digitalen Raum schafft: Vertrauen. Gerade in Zeiten, in denen die DSGVO oft als Innovationsbremse verschrien werde, wolle die Stiftung Datenschutz einen Gegenpol setzen und Datenschutz als Qualitätsmerkmal „Made in Germany“ etablieren.

Bequemlichkeit vs. Datensparsamkeit

Die Diskussion im Podcast zeigt jedoch schnell, dass Theorie und Praxis auch in diesem Bereich bisweilen auseinanderklaffen. Während Einigkeit darüber besteht, dass Datenschutz Reputationsschäden verhindern kann, zweifeln die Hosts, dass er bereits heute ein echter Standortvorteil ist. Bleich verweist auf die Dominanz US-amerikanischer Konzerne, die oft nach dem Prinzip „Move fast and break things“ agieren und sich ihre marktbeherrschenden Positionen teils durch die Missachtung europäischer Standards gesichert haben. Auch die mangelnde Nachfrage der Kunden nach datenschutzfreundlichen Produkten wird thematisiert: Oft schlägt Bequemlichkeit die Datensparsamkeit.

Einig ist sich die Runde, dass im Datenschutzrecht die Bürokratie für kleine Unternehmen dringend abgebaut werden muss. Es sei unverhältnismäßig, wenn der Handwerksbetrieb um die Ecke dieselben Dokumentationspflichten erfüllen muss wie ein Großkonzern, obwohl das Risiko völlig unterschiedlich ist, betont Richter. Hier setzt die Runde ihre Hoffnungen in die anstehenden Reformen der DSGVO auf EU-Ebene.

Besonders kritisch sehen alle drei allerdings die Idee der Bundesregierung, betriebliche Datenschutzbeauftragte abzuschaffen. Das löse kein einziges Problem. Mehr Sympathie hat Richter für eine Zentralisierung der Datenschutzaufsicht auf Bundesebene, zumindest für länderübergreifende Sachverhalte. Die aktuelle Situation mit bis zu 17 unterschiedlichen Behördenmeinungen zum selben europäischen Recht sei nicht tragbar.

Bußgeld der Woche: 1,2 Mio. Euro der spanischen Datenschutzbehörde AEPD gegen einen Krankenhauskonzern (Infos von DSGVO-Portal [3])

Episode 152:

Hier geht es zu allen bisherigen Folgen:


URL dieses Artikels:
https://www.heise.de/-11165381

Links in diesem Artikel:
[1] https://stiftungdatenschutz.org/ueber-uns/personen
[2] https://stiftungdatenschutz.org/veroeffentlichungen/wirtschaftsvorteil-datenschutz
[3] https://www.dsgvo-portal.de/bussgelder/dsgvo-bussgeld-gegen-idcq-hospitales-2026-01-12-ES-4871.php
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/thema/auslegungssache
[6] https://www.heise.de/ct
[7] mailto:hob@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 06. Februar 2026 um 06:10

RISC-V-Einplatinencomputer mit RVA23-Chip für neue Linux-Distributionen

Von Christof Windeck

SpacemiT liefert einen der ersten RISC-V-Prozessoren mit RVA23-Technik. Der Achtkerner K3 verspricht ordentliche Leistung, kostet aber mehr als ein Raspi 5.

Grundsätzlich läuft Linux längst auch auf Prozessoren mit RISC-V-Prozessorkernen. Aber neue Linux-Distributionen und insbesondere Ubuntu 25.10 verlangen RISC-V-Chips mit Vektor-Rechenwerken und Virtualisierungsfunktionen [1], die die Spezifikation RVA23 erfüllen. Der SpacemiT K3 ist einer der ersten lieferbaren Chips damit.

SpacemiT hatte die RVA23-tauglichen CPU-Kerne namens X100 bereits Anfang 2025 angekündigt [2], aber für einen deutlich teureren Prozessor namens VitalStone V100 mit 64 Kernen.

Nun liefert SpacemiT erste Muster des Achtkerners K3 [3], der zusätzlich einen KI-Beschleuniger mit acht A100-Einheiten enthält, die bis zu 60 Tops leisten sollen.

Auch ein von SpacemiT nicht genauer beschriebener 3D-Grafikkern ist eingebaut, der OpenGL ES, Vulkan und OpenCL unterstützt. Laut Milk-V (siehe unten) soll es sich um einen Imagination Technology IMG BXM-4-64-MC1 handeln.

Als I/O-Schnittstellen stehen acht PCIe-3.0-Lanes, USB 3.0, 1-Gbit/s-Ethernet sowie eMMC 5.1, UFS 2.2, SDIO, I2C, SPI, I2S und bis zu 132 GPIOs bereit.

Die CPU-Kerne takten mit bis zu 2,4 GHz, haben jeweils 64 KByte L1-Caches für Befehle und Daten und insgesamt 8 MByte L2-Cache. Je vier der RISC-V-Kerne teilen sich 4 MByte L2-Cache. Als Thermal Design Power (TDP) nennt SpacemiT 15 bis 25 Watt, weshalb der K3 einen Lüfterkühler benötigt.

Canonical verkündet im eigenen Blog [4], dass das für April 2026 geplante Ubuntu 26.04 LTS (Resolute Raccoon) auf dem Spacemit K3 laufen soll.

Dabei bestätigen die Ubuntu-Macher abermals, dass es für den SpacemiT K1, der unter der Bezeichnung Ky K1 etwa auf dem Orange Pi RV2 [5] sitzt, bei Ubuntu 24.04 LTS bleiben soll. Der K1 rechnet auch auf dem Banana Pi BPI-F3 [6].

Blockdiagram SpacemiT K3 mit acht RISC-V-Kernen vom Typ X100.
Blockdiagram SpacemiT K3 mit acht RISC-V-Kernen vom Typ X100.

Blockdiagram SpacemiT K3 mit acht RISC-V-Kernen vom Typ X100.

(Bild: SpacemiT)

Vergleich mit ARM Cortex-A76

Die Performance der X100-Kerne vergleicht SpacemiT mit dem 2018 angekündigten ARM-Kern Cortex-A76 [7], der beispielsweise im Broadcom BCM2712 des Raspberry Pi 5 rechnet.

Der SpacemiT K3 hat einen Speicher-Controller mit zwei 32-Bit-Kanälen für LPDDR4X-4266 oder LPDDR5-6400, der bis zu 51 GByte/s übertragen soll. Maximal sind 32 GByte des zurzeit leider sehr teuren RAM [8] möglich.

Entwicklerboards im Anmarsch

SpacemiT bestückt das „Core Module“ (CoM) K3 CoM260 [9] mit dem K3 sowie 8, 16 oder 32 GByte LPDDR5-6400. Der Preis ist bisher nicht bekannt.

Die Marken Banana Pi und Milk-V wiederum bieten Entwicklerboards mit dem SpacemiT K3 CoM260 an. Diese führen die Anschlüsse des CoM auf Buchsen und Fassungen heraus und versorgen es mit Strom.

Das Carrier Board Banana Pi BPI-SM10 [10] bietet zwei M.2-Fassungen, einen GPIO-Pfostenstecker, diverse MIPI-Anschlüsse, viermal USB-A 3.0, DIsplayPort 1.2, RJ45 für Ethernet mit 1 Gbit/s und USB-C.

RISC-V-Entwicklerkit Banana Pi BPI-SM10
RISC-V-Entwicklerkit Banana Pi BPI-SM10

Banana Pi bildet das BPI-SM10 mit SpacemiT K3-CoM260 inklusive einem recht großen Lüfterkühler ab.

(Bild: Banana Pi)

Milk-V hat das Jupiter 2 [11] für das SpacemiT K3 CoM260 ausgelegt. Die Ausstattung ähnelt dem Banana Pi BPI-SM10.

Milk-V vertreibt das Jupiter 2 Dev Kit über die Handelsplattform Arace in Hongkong. Dort soll die Version mit 8 GByte RAM (DK041-D8) 251 Euro kosten, zuzüglich Versand, Einfuhrumsatzsteuer und Verzollungsgebühren. Allerdings sind sämtliche Varianten ausverkauft. Außerdem gibt es verwirrenderweise mehrere Varianten des Jupiter-2-Boards, darunter etwa auch eine mit dem Modul Radxa C200, auf dem ein Nvidia Jetson Orin sitzt.


URL dieses Artikels:
https://www.heise.de/-11167085

Links in diesem Artikel:
[1] https://www.heise.de/news/RISC-V-und-Linux-Ubuntu-25-10-erzwingt-nagelneue-Prozessoren-10537964.html
[2] https://www.heise.de/news/RISC-V-CPU-fuer-Server-mit-12-Nanometer-Technik-aus-China-10237197.html
[3] https://www.spacemit.com/products/keystone/k3
[4] https://canonical.com/blog/spacemit-announces-availability-of-ubuntu-on-k3-k1-series
[5] https://www.heise.de/tests/Einplatinencomputer-Orange-Pi-RV2-mit-RISC-V-SoC-im-Test-10392527.html
[6] https://www.heise.de/news/Acht-RISC-V-Kerne-Notebook-und-Einplatinencomputer-mit-Keystone-K1-CPU-9703973.html
[7] https://www.heise.de/news/ARM-CPU-fuer-Windows-Notebooks-Cortex-A76-4062931.html
[8] https://www.heise.de/news/Raspberry-Pi-4-kommt-jetzt-mit-zwei-Speicherchips-11166924.html
[9] https://www.spacemit.com/community/development-kit/k3-com260
[10] https://docs.banana-pi.org/en/BPI-SM10/BananaPi_BPI-SM10
[11] https://milkv.io/jupiter2-dev-kit
[12] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[13] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[14] https://www.heise.de/ct
[15] mailto:ciw@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 05. Februar 2026 um 19:50

Softwareentwicklung: OpenAI stellt GPT-5.3-Codex vor

Von Andreas Donath
OpenAI hat ein neues KI-Modell für die Softwareentwicklung veröffentlicht. GPT-5.3-Codex soll das Vorgängermodell in mehreren Bereichen übertreffen.
OpenAI bringt eine verbesserte Programmierunterstützung. (Bild: Kirill Kudryavtsev/AFP via Getty Images)
OpenAI bringt eine verbesserte Programmierunterstützung. Bild: Kirill Kudryavtsev/AFP via Getty Images

OpenAIs neues Modell GPT-5.3-Codex kombiniert verbesserte Coding-Fähigkeiten mit erweiterten Reasoning-Kompetenzen und Fachwissen. Laut Hersteller arbeitet GPT-5.3-Codex etwa 25 Prozent schneller als sein Vorgänger GPT-5.2-Codex. Die Leistungssteigerung zeigt sich in verschiedenen Benchmarks, die das Unternehmen zur Bewertung heranzieht.

In Tests erreichte GPT-5.3-Codex neue Bestwerte auf SWE-Bench Pro und Terminal Bench. Auch auf OSWorld und GDPVal – Benchmarks, die Coding-Fähigkeiten, agentisches Verhalten und praktische Anwendungen messen – zeigte das Modell den Angaben zufolge gute Ergebnisse. OpenAI nutzt diese vier Tests, um die Leistungsfähigkeit seiner Coding-Modelle zu bewerten.

Modell half bei eigener Entwicklung mit

Eine Besonderheit von GPT-5.3-Codex liegt in seiner Entstehungsgeschichte. Das Entwicklerteam setzte frühe Versionen des Modells ein, um am eigenen Training zu arbeiten. Die KI half dabei, Fehler zu identifizieren, den Rollout zu koordinieren und Testergebnisse auszuwerten. OpenAI bezeichnet GPT-5.3-Codex als erstes Modell, das aktiv an seiner eigenen Entwicklung beteiligt war.

Das neue Modell wird zahlenden ChatGPT-Nutzern in verschiedenen Codex-Umgebungen zur Verfügung stehen. Dazu gehören die App, die Kommandozeile, IDE-Erweiterungen und die Webversion. Ein API-Zugang ist laut OpenAI in Planung.

OpenAI gab kürzlich mehrere Partnerschaften bekannt. Dazu zählen Integrationen in Apples Xcode 26.3 und Github für Nutzer mit Copilot Pro+ oder Copilot Enterprise. Entwickler sollen Codex dadurch direkt in ihre bestehenden Arbeitsabläufe einbinden und komplexe Aufgaben automatisiert bearbeiten lassen können.

Adblock test (Why?)

  • 06. Februar 2026 um 07:27

Anzeige: LPIC-1: Linux-Wissen prüfungsorientiert auffrischen

Von Golem Karrierewelt
LPIC-1 gilt als international anerkannter Nachweis für solide Kenntnisse in der Linux-Administration. Ein fünftägiger Workshop bündelt alle prüfungsrelevanten Themen.
Bild: KI-generiert mit Dall-E

Linux ist in Rechenzentren, Cloudumgebungen und Embedded-Systemen ein schon lange etablierter Standard. Mit der Verbreitung steigen auch die Anforderungen an Administrationspraxis: Paketmanagement, Boot-Prozesse, Benutzer- und Rechteverwaltung, Netzwerkgrundlagen und ein belastbares Sicherheitsverständnis gehören zum Alltag. Zertifizierungen wie LPIC-1 machen diese Kenntnisse vergleichbar – und strukturieren, welche Themen in der Praxis tatsächlich sitzen sollten.

LPIC-1: zwei Prüfungen, klare Themenfelder

Das LPIC-1-Zertifikat des Linux Professional Institute validiert grundlegende Linux-Administration auf professionellem Niveau. Voraussetzung ist das Bestehen der beiden Prüfungen LPI 101 und LPI 102 . Die Prüfungen sind Multiple-Choice-Tests (je 90 Minuten) und können – abhängig vom gewählten Setting – im PearsonVUE-Testcenter oder als Online-Exam abgelegt werden.

Inhaltlich geht es unter anderem um Systemarchitektur, Installation und Paketverwaltung, GNU-/Unix-Kommandos, Geräte- und Dateisystemkonzepte (inklusive Filesystem Hierarchy Standard), Shells und Shell-Scripting, grundlegende Systemdienste, Netzwerkgrundlagen sowie Systemsicherheit.

Fünf Tage Live-Remote mit Fokus auf Prüfungsziele

Für die gezielte Wiederholung und Vertiefung der prüfungsrelevanten Inhalte bietet die Golem Karrierewelt den Live-Remote-Workshop " LPIC-1 Vorbereitungskurs LPI 101 und LPI 102: virtueller Fünf-Tage-Workshop " an. Die Schulung findet am 22. bis 26. Juni 2026 statt (weiterer Termin: 16.-20. November 2026) und wird von den Linux-Spezialisten der B1 Systems GmbH durchgeführt. Die Golem Karrierewelt ist zertifizierter Schulungspartner des LPI.

Der Workshop setzt solide Grundkenntnisse in der Linux-Systemadministration voraus und ist als prüfungsorientierte Auffrischung konzipiert. Originale Prüfungsfragen mit Antworten sind nicht Gegenstand der Schulung. Die Teilnahme erfolgt online, dazu ist ein eigener Rechner mit Internetzugang erforderlich. Optional ist die Buchung mit oder ohne Prüfungsgutscheine für LPI 101 und LPI 102 möglich.

Der Kurs

Wer sich vor dem Kauf für den kostenlosen Newsletter der Golem Karrierewelt anmeldet, erhält 10 Prozent Rabatt auf die erste Bestellung bei der Golem Karrierewelt.

Adblock test (Why?)

  • 06. Februar 2026 um 07:15

Claude Opus 4.6: Anthropic verdoppelt Kontextfenster auf 1 Million Token

Von Andreas Donath
Anthropic hat Claude Opus 4.6 veröffentlicht. Die neue Version bietet erstmals ein Kontextfenster von einer Million Token.
Anthropic Claude Opus 4.6 ist da. (Bild: Anthropic)
Anthropic Claude Opus 4.6 ist da. Bild: Anthropic

Zwei Monate nach der Vorversion präsentiert Anthropic die nächste Generation seines leistungsstärksten Sprachmodells. Claude Opus 4.6 bringt vor allem technische Verbesserungen bei der autonomen Aufgabenausführung und kann komplexe Workflows länger ohne Nutzereingriff bearbeiten.

Kontextfenster wächst auf das Doppelte

Das zentrale Update betrifft das Kontextfenster: Mit einer Million Token in der Betaphase bietet erstmals ein Opus-Modell von Anthropic diese Kapazität. Das ermöglicht es dem Modell, deutlich größere Informationsmengen in einer Sitzung zu verarbeiten. Praktisch heißt das: Umfangreiche Codebases, lange Dokumente oder mehrere Dateien lassen sich nun gleichzeitig analysieren, ohne dass Informationen verloren gehen.

Integration in Microsoft Office

Das Modell ist nicht nur für Entwickler, sondern auch für allgemeine Büroarbeiten gedacht. Das Unternehmen nennt Finanzanalysen, Rechercheaufgaben und Dokumentenverwaltung als mögliche Einsatzbereiche. In der Cowork-Umgebung kann Claude Opus 4.6 mehrere Aufgaben parallel bearbeiten und dabei Dokumente, Tabellen und Präsentationen erstellen oder ändern.

Parallel zur Modellveröffentlichung kündigte Anthropic Updates für seine Microsoft-Office-Integrationen an. Eine überarbeitete Version von Claude in Excel ging ebenso online wie eine Research-Preview von Claude in Powerpoint .

Das Modell ist seit Donnerstag über Claude.ai, die Anthropic-API und große Cloudanbieter verfügbar. Entwickler müssen in ihren API-Implementierungen als Modell Claude-opus-4-6 angeben. Der Preis bleibt unverändert bei 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token.

Adblock test (Why?)

  • 06. Februar 2026 um 07:10
❌