(Bild: Diki Prayogo/ Shutterstock.com)
Erst weg von HackerOne, vier Wochen später zurück – curl reagiert erratisch auf die Flut wertloser und belastender KI-Beiträge.
Maintainer Daniel Stenberg schiebt die Bug-Meldestelle für curl zurück zu HackerOne, von wo er sie erst im Januar abgezogen hatte. Sein unprofessionell wirkender Schlingerkurs spiegelt in Wirklichkeit nur die Unsicherheit wider, die derzeit die Open-Source-Szene bedrückt: Wie soll sie mit dem KI-Müll umgehen, der durch das Vibe-Coding über sie hereinbricht? Eine schnelle Lösung dafür scheint nicht in Sicht.
Jedes Open-Source-Projekt freut sich über Meldungen von Bugs, gerade im Sicherheitsbereich. Als Meldestelle dient gerne HackerOne, wo die Projektverantwortlichen oft Belohnungen ausloben, um den Anreiz zur Fehlersuche zu erhöhen. Das führt jedoch im Zeitalter von Vibe-Coding zu massenhaft eingereichten, meist wertlosen Beiträgen, die den Maintainern letztlich nur die Zeit rauben, statt ihre Projekte voranzubringen oder abzusichern. Für Stenberg war das im Januar ausschlaggebend dafür [1], das Bug-Bounty-Programm der Belohnungen zu stoppen und mit dem curl-Reporting zu GitHub zu wechseln.
Den Rückzug vom Rückzug begründet Stenberg jetzt [2] mit mangelnden Funktionen für das Management von Bug-Meldungen: GitHub sendet Berichte beispielsweise unverschlüsselt per Mail, obwohl die Daten manchmal Secrets enthalten. Außerdem ist es dem Sicherheitsteam nicht möglich, wertlose Meldungen einfach zu löschen. Viele Maintainer kritisieren genau das: Sie können wertlose, zunehmend massenhaft auftretende KI-Pull-Requests nicht schnell löschen. Allerdings ist GitHub inzwischen [3] auf das Problem des KI-Slops eingegangen – obwohl der Besitzer Microsoft mit dem Copilot einer der hauptsächlichen KI-Treiber ist. Das Löschen der lästigen Pull-Requests soll bald möglich sein.
Stenberg gesteht selbst ein: „Dieses Hin und Her ist bedauerlich, aber wir tun es mit den besten Vorsätzen.“ Man kann ihm sicher nicht vorwerfen, nicht alles zu tun, um die beste Lösung zu suchen – aber vielleicht hat er etwas zu voreilig gehandelt, ohne zuvor die neue Plattform genauer zu prüfen. Aus seinem Ärger über den KI-Slop hat er jedenfalls nie einen Hehl gemacht [4]. Insofern war seine erste Entscheidung sicher emotional – spiegelt aber die Unsicherheit wider, die in der Open-Source-Szene gerade herrscht: Wie soll man der vielen, belastenden KI-Beiträge Herr werden [5], ohne die wirklich wertvollen Eingaben zu verlieren?
Einen Königsweg hierfür scheint es derzeit nicht zu geben. Gerade das zeigt curls Hin und Her sehr deutlich. Das Bug-Bounty-Programm wird es für curl auf HackerOne künftig nicht mehr geben. „Geld für Belohnungen ist noch weg, es gibt kein Bug-Bounty, kein Geld für Schwachstellenberichte“. Der „inflow tsunami“ jedenfalls ist laut Stenberg derzeit ausgetrocknet, aber er befürchtet seine Wiederkehr: „Indem wir zu HackerOne zurückkehren, öffnen wir ihnen vielleicht wieder die Türen? Wir müssen einfach abwarten, was passiert.“
URL dieses Artikels:
https://www.heise.de/-11191390
Links in diesem Artikel:
[1] https://www.heise.de/news/curl-Projekt-beendet-Bug-Bounty-Programm-11142345.html
[2] https://daniel.haxx.se/blog/2026/02/25/curl-security-moves-again/
[3] https://www.heise.de/news/AI-Slop-verstopft-Open-Source-GitHub-kuendigt-Massnahmen-an-11184036.html
[4] https://www.heise.de/news/cURL-Maintainer-Habe-die-Nase-voll-wegen-KI-Bug-Reports-10372739.html
[5] https://bsky.app/profile/akien.bsky.social/post/3meyerixvhs2p
[6] mailto:who@heise.de
Copyright © 2026 Heise Medien
(Bild: Diki Prayogo/ Shutterstock.com)
Erst weg von HackerOne, vier Wochen später zurück – curl reagiert erratisch auf die Flut wertloser und belastender KI-Beiträge.
Maintainer Daniel Stenberg schiebt die Bug-Meldestelle für curl zurück zu HackerOne, von wo er sie erst im Januar abgezogen hatte. Sein unprofessionell wirkender Schlingerkurs spiegelt in Wirklichkeit nur die Unsicherheit wider, die derzeit die Open-Source-Szene bedrückt: Wie soll sie mit dem KI-Müll umgehen, der durch das Vibe-Coding über sie hereinbricht? Eine schnelle Lösung dafür scheint nicht in Sicht.
Jedes Open-Source-Projekt freut sich über Meldungen von Bugs, gerade im Sicherheitsbereich. Als Meldestelle dient gerne HackerOne, wo die Projektverantwortlichen oft Belohnungen ausloben, um den Anreiz zur Fehlersuche zu erhöhen. Das führt jedoch im Zeitalter von Vibe-Coding zu massenhaft eingereichten, meist wertlosen Beiträgen, die den Maintainern letztlich nur die Zeit rauben, statt ihre Projekte voranzubringen oder abzusichern. Für Stenberg war das im Januar ausschlaggebend dafür [1], das Bug-Bounty-Programm der Belohnungen zu stoppen und mit dem curl-Reporting zu GitHub zu wechseln.
Den Rückzug vom Rückzug begründet Stenberg jetzt [2] mit mangelnden Funktionen für das Management von Bug-Meldungen: GitHub sendet Berichte beispielsweise unverschlüsselt per Mail, obwohl die Daten manchmal Secrets enthalten. Außerdem ist es dem Sicherheitsteam nicht möglich, wertlose Meldungen einfach zu löschen. Viele Maintainer kritisieren genau das: Sie können wertlose, zunehmend massenhaft auftretende KI-Pull-Requests nicht schnell löschen. Allerdings ist GitHub inzwischen [3] auf das Problem des KI-Slops eingegangen – obwohl der Besitzer Microsoft mit dem Copilot einer der hauptsächlichen KI-Treiber ist. Das Löschen der lästigen Pull-Requests soll bald möglich sein.
Stenberg gesteht selbst ein: „Dieses Hin und Her ist bedauerlich, aber wir tun es mit den besten Vorsätzen.“ Man kann ihm sicher nicht vorwerfen, nicht alles zu tun, um die beste Lösung zu suchen – aber vielleicht hat er etwas zu voreilig gehandelt, ohne zuvor die neue Plattform genauer zu prüfen. Aus seinem Ärger über den KI-Slop hat er jedenfalls nie einen Hehl gemacht [4]. Insofern war seine erste Entscheidung sicher emotional – spiegelt aber die Unsicherheit wider, die in der Open-Source-Szene gerade herrscht: Wie soll man der vielen, belastenden KI-Beiträge Herr werden [5], ohne die wirklich wertvollen Eingaben zu verlieren?
Einen Königsweg hierfür scheint es derzeit nicht zu geben. Gerade das zeigt curls Hin und Her sehr deutlich. Das Bug-Bounty-Programm wird es für curl auf HackerOne künftig nicht mehr geben. „Geld für Belohnungen ist noch weg, es gibt kein Bug-Bounty, kein Geld für Schwachstellenberichte“. Der „inflow tsunami“ jedenfalls ist laut Stenberg derzeit ausgetrocknet, aber er befürchtet seine Wiederkehr: „Indem wir zu HackerOne zurückkehren, öffnen wir ihnen vielleicht wieder die Türen? Wir müssen einfach abwarten, was passiert.“
URL dieses Artikels:
https://www.heise.de/-11191390
Links in diesem Artikel:
[1] https://www.heise.de/news/curl-Projekt-beendet-Bug-Bounty-Programm-11142345.html
[2] https://daniel.haxx.se/blog/2026/02/25/curl-security-moves-again/
[3] https://www.heise.de/news/AI-Slop-verstopft-Open-Source-GitHub-kuendigt-Massnahmen-an-11184036.html
[4] https://www.heise.de/news/cURL-Maintainer-Habe-die-Nase-voll-wegen-KI-Bug-Reports-10372739.html
[5] https://bsky.app/profile/akien.bsky.social/post/3meyerixvhs2p
[6] mailto:who@heise.de
Copyright © 2026 Heise Medien
(Bild: gguy / Shutterstock.com)
Nvidia übertrifft alle Erwartungen – doch die Aktie reagiert kaum. Der Grund: Anleger zweifeln, ob sich die KI-Milliarden auszahlen.
Der weltgrößte Hersteller von KI-Chips hat erneut alle Erwartungen übertroffen – und dennoch zuckte der Markt nur mit den Schultern. Nvidia erzielte im abgelaufenen Quartal 68,1 Milliarden US-Dollar Umsatz, 73 Prozent mehr als im Vorjahreszeitraum. Unter dem Strich verdiente der Konzern 1,62 US-Dollar je Aktie.
Beide Werte lagen über den Prognosen der Analysten. Auch der Ausblick fiel optimistisch aus: Für das laufende Quartal peilt Nvidia rund 78 Milliarden US-Dollar an – die Wall Street hatte [1] im Schnitt nur mit knapp 73 Milliarden gerechnet.
Trotzdem sackte die Nvidia-Aktie am Mittwoch während der Analystenkonferenz zwischenzeitlich um 1,5 Prozent ab. Am Donnerstagmorgen notierte sie im vorbörslichen Handel nahezu unverändert.
Das Muster ist nicht neu: Schon nach den beiden vorangegangenen Quartalsberichten hatte der Kurs kaum auf starke Ergebnisse reagiert.
Was auf den ersten Blick paradox wirkt, hat einen einfachen Grund: Die Erwartungen an Nvidia sind mittlerweile so hoch, dass selbst herausragende Ergebnisse niemanden mehr vom Hocker reißen.
Die Anleger wollen jetzt handfeste Belege dafür sehen, dass sich die gewaltigen Investitionen in KI-Infrastruktur auch tatsächlich in bare Münze verwandeln, erklärte Marktanalyst Raffi Boyadjian [2] von Trading Point laut Reuters.
Genau an diesem Punkt hakt es. Die großen Tech-Konzerne – Amazon, Alphabet, Meta und Microsoft – haben für 2026 Investitionszusagen von zusammen fast 700 Milliarden US-Dollar abgegeben, um ihre KI-Kapazitäten auszubauen. Doch wo bleiben die Erträge?
Eine aktuelle Erhebung zeigt: Obwohl 70 Prozent der Unternehmen KI nutzen, melden über 80 Prozent keinerlei messbare Auswirkungen auf Produktivität oder Personalplanung. Selbst OpenAI-Geschäftsführer Brad Lightcap räumte kürzlich ein [3], dass KI in den Arbeitsabläufen der meisten Firmen bisher keine spürbare Rolle spiele.
Nvidia-Chef Jensen Huang ließ sich davon nicht beirren. In der Telefonkonferenz wiederholte er mantraartig seinen Leitsatz: Rechenleistung sei gleichbedeutend mit Umsatz.
Seine Logik: KI-Modelle verarbeiten wachsende Datenmengen, benötigen dafür immer mehr Kapazität – und wer diese Kapazität bereitstellt, verdient direkt daran. Er sei zuversichtlich, dass die Cashflows der Kunden wachsen werden, sagte Huang.
Ob der Markt diese Argumentation langfristig kauft, steht auf einem anderen Blatt. Die Nvidia-Aktie bewegt sich seit dem Rekordhoch im Oktober seitwärts – bei einer Marktkapitalisierung von rund 4,8 Billionen US-Dollar.
Zusätzlichen Gegenwind liefert die geopolitische Lage. In China, einst Nvidias wichtigstem Absatzmarkt, herrscht Stillstand. Die Trump-Regierung genehmigte zwar den Export kleiner Mengen älterer H200-Prozessoren, doch bislang ging kein einziger Chip über die Grenze.
Ob Peking den Import überhaupt zulässt, weiß niemand. Nvidia klammert China-Erlöse deshalb komplett aus seinen Prognosen aus.
Gleichzeitig verschärft sich der Wettbewerb aus China selbst. Das KI-Labor DeepSeek verweigert [4] Nvidia und AMD laut Reuters den Vorabzugang zu seinem kommenden Spitzenmodell V4 – ein klarer Bruch mit der üblichen Praxis in der Branche.
Stattdessen arbeitet DeepSeek mit dem chinesischen Chiphersteller Huawei zusammen und verschafft ihm damit einen zeitlichen Vorsprung bei der Optimierung.
Auch bei der Lieferkette gibt es Engpässe. Speicherchips, die in praktisch allen Nvidia-Produkten stecken, sind knapp und teuer geworden. Besonders die Gaming-Sparte leidet darunter – Finanzchefin Colette Kress konnte nicht zusichern, dass sich die Lage in diesem Jahr entspannt.
Für das Kerngeschäft mit Rechenzentren gab sie hingegen Entwarnung: Nvidia habe genügend Vorräte und Lieferverträge gesichert, um die Nachfrage bis 2027 zu bedienen.
Strategisch öffnet Huang zudem eine zweite Front. Neben den Grafikprozessoren, die Nvidia groß gemacht haben, drängt der Konzern verstärkt in den Markt für Allzweckprozessoren.
Der Grund: Wenn Unternehmen KI-Agenten einsetzen – also Software, die eigenständig Aufgaben wie Recherche oder Programmierung erledigt –, verlagert sich ein Großteil der Arbeit auf klassische CPUs.
Huang erklärte [5], er wäre nicht überrascht, wenn Nvidia künftig zu den größten CPU-Herstellern der Welt zähle.
Die Zurückhaltung gegenüber der Nvidia-Aktie steht stellvertretend für eine breitere Verunsicherung im Technologiesektor. Seit Jahresbeginn verlor der S&P 500 Software and Services Index rund 21 Prozent.
Anleger befürchten, dass KI bestehende Geschäftsmodelle schneller zerstört, als neue entstehen. Salesforce enttäuschte mit einem schwachen Jahresausblick, der Softwareanbieter C3.ai streicht mehr als ein Viertel seiner Stellen. Auch die sieben größten US-Tech-Werte – die sogenannten Magnificent Seven – liegen bislang im Minus [6].
Die entscheidende Frage für Anleger bleibt damit offen: Wann schlagen die hunderte Milliarden Dollar, die in KI-Infrastruktur fließen, tatsächlich in Gewinne um? Solange darauf eine überzeugende Antwort fehlt, dürfte selbst ein Rekordquartal die Nvidia-Aktie nicht aus ihrer Seitwärtsbewegung befreien.
URL dieses Artikels:
https://www.heise.de/-11191480
Links in diesem Artikel:
[1] https://www.bloomberg.com/news/articles/2026-02-25/nvidia-s-rosy-revenue-forecast-shows-the-ai-boom-remains-strong
[2] https://www.reuters.com/world/africa/us-stock-futures-waver-nvidias-blockbuster-results-draw-muted-response-2026-02-26/
[3] https://gizmodo.com/compute-equals-revenues-nvidia-needs-jensen-huangs-new-catchphrase-to-be-true-2000726841
[4] https://www.reuters.com/world/china/deepseek-withholds-latest-ai-model-us-chipmakers-including-nvidia-sources-say-2026-02-25/
[5] https://www.reuters.com/business/nvidias-ceo-prepares-investors-renewed-battle-with-intel-amd-2026-02-26/
[6] https://www.bloomberg.com/news/articles/2026-02-25/nvidia-earnings-loom-as-risk-factor-for-ai-obsessed-stock-market
Copyright © 2026 Heise Medien
Die Dunkelfeldstudie gibt einen Einblick in die Zusammensetzung der häuslichen Gewalt in Deutschland
(Bild: Artst0ry/Shutterstock.com)
Gewalt ist weiter verbreitet, als offizielle Zahlen vermuten lassen. Eine neue Studie zeigt das tatsächliche Ausmaß – und wo Schutz verbessert werden muss.
Wie häufig erleben Menschen in Deutschland Gewalt – und warum bleibt sie so oft unsichtbar? Die Dunkelfeldstudie "LeSuBiA [1]" liefert erstmals aktuelle, repräsentative Zahlen für Frauen und Männer. Sie zeigt, wie verbreitet psychische, sexualisierte und digitale Gewalt ist.
Besonders betroffen sind junge Menschen und vulnerable Gruppen. Gleichzeitig offenbaren niedrige Anzeigequoten und regionale Unterschiede strukturelle Defizite. Die Ergebnisse liefern eine wichtige Grundlage für Politik, Prävention und besseren Opferschutz.
Die Dunkelfeldstudie "Lebenssituation, Sicherheit und Belastung im Alltag (LeSuBiA)" [2] untersucht das tatsächliche Ausmaß von Gewaltbetroffenheit in Deutschland. Zwischen Juli 2023 und Januar 2025 wurden rund 15.500 Menschen im Alter von 16 bis 85 Jahren repräsentativ zu ihren Gewalterfahrungen befragt.
Ziel der Studie ist es, neben polizeilich erfassten Straftaten ("Hellfeld") auch nicht angezeigte Gewalt sichtbar zu machen und so eine evidenzbasierte Grundlage für Prävention, Opferschutz und politische Maßnahmen zu schaffen.
Die Studie wurde in Kooperation des Bundesministeriums für Bildung, Familie, Senioren, Frauen und Jugend, des Bundesministeriums des Innern und des Bundeskriminalamts durchgeführt.
Sie folgt einem breiten Gewaltverständnis und berücksichtigt neben körperlicher Gewalt auch psychische, sexualisierte und digitale Gewalt. Damit liefert sie erstmals eine umfassende, geschlechterübergreifende Datengrundlage zur Gewaltbetroffenheit in Deutschland.
Sexuelle Übergriffe stellen eine besonders schwerwiegende Gewaltform dar. Rund jede zehnte Person berichtet von entsprechenden Erfahrungen im Laufe ihres Lebens, wobei Frauen deutlich häufiger betroffen sind als Männer. Täter sind häufig (Ex-)Partner oder flüchtig bekannte Personen. Frauen erleben dabei häufiger körperliche Folgen, größere Angst und bewerten die Situation als schwerer.
Gewalt innerhalb von Partnerschaftsbeziehungen ist weit verbreitet. Psychische Gewalt wurde von knapp der Hälfte der Frauen und etwa 40 Prozent der Männer mindestens einmal erlebt. Körperliche Gewalt betrifft rund jede sechste Person.
Unterschiede zwischen Frauen und Männern zeigen sich besonders in der Intensität der Gewalt. Frauen berichten häufiger von Angst, Verletzungen und einer höheren subjektiven Bedrohungslage. Auch die Inzidenz – also die Häufigkeit der Gewaltsituationen – ist bei ihnen höher.
Jüngere Menschen sind deutlich häufiger von Gewalt betroffen als ältere. Besonders hoch ist die Belastung junger Menschen bei sexueller Belästigung, digitaler Gewalt und mutmaßlichem Einsatz von K.-o.-Tropfen.
Menschen mit Migrationshintergrund weisen über nahezu alle Gewaltformen hinweg eine höhere Betroffenheit auf. Besonders Frauen mit Migrationshintergrund sind überdurchschnittlich häufig betroffen.
Angehörige der LSBTIQ*-Community berichten überdurchschnittlich häufig von Gewalterfahrungen. Dies betrifft sowohl Gewalt in Partnerschaften als auch Gewalt außerhalb intimer Beziehungen.
Psychische Gewalt ist die häufigste Gewaltform in Partnerschaften. Sie umfasst abwertendes Verhalten, Demütigungen und systematische Einschüchterung. Emotionale Gewalt macht dabei den größten Anteil aus.
Emotionale Gewalt zeigt sich etwa durch Beschimpfungen, Erniedrigungen oder gezielte soziale Isolation. Sie kann langfristige psychische Belastungen verursachen und die Selbstwahrnehmung der Betroffenen nachhaltig beeinträchtigen. Bedrohungen beinhalten Einschüchterungen, Drohungen mit Gewalt oder Androhung von Konsequenzen. Betroffene berichten häufig von Angst und einem starken Gefühl der Unsicherheit.
Kontrollierende Gewalt äußert sich in Überwachung, Einschränkung sozialer Kontakte oder Kontrolle von Kommunikation und Mobilität. Sie dient der Machtausübung innerhalb der Beziehung.
Ökonomische Gewalt umfasst finanzielle Kontrolle, das Vorenthalten von Geld oder das Verhindern von Erwerbstätigkeit. Diese Form der Gewalt führt zu Abhängigkeit und erschwert die Trennung vom Täter. Ein erheblicher Anteil der Betroffenen erlebt mehrere Gewaltformen gleichzeitig oder wiederholt im Lebensverlauf. Rund ein Viertel der Betroffenen berichtet von Mehrfachviktimisierung innerhalb von Partnerschaftsgewalt.
Die Anzeigequoten bei Gewalt liegen insgesamt auf sehr niedrigem Niveau. Besonders psychische Gewalt wird nur selten angezeigt; die Quote liegt meist unter drei Prozent. Gründe sind unter anderem Scham, Angst vor Konsequenzen oder Zweifel an der Wirksamkeit staatlicher Hilfe.
Auch bei sexualisierter Gewalt und Belästigung ist die Anzeigequote gering. Nur ein kleiner Anteil der Betroffenen wendet sich an die Polizei, wodurch ein erheblicher Teil der Gewalt im Dunkelfeld verbleibt.
Gewalterfahrungen in der Kindheit sind weit verbreitet. Etwa jede zweite Person berichtet von körperlicher Gewalt durch Erziehungsberechtigte, und etwa jede dritte hat psychische erlebt.
Ein Viertel der Befragten erlebte Gewalt zwischen den Eltern oder Erziehungsberechtigten. Solche Erfahrungen erhöhen das Risiko, selbst Opfer von Gewalt zu werden. Sexuelle Gewalt in der Kindheit betrifft einen kleineren, aber bedeutsamen Anteil der Bevölkerung, wobei Mädchen deutlich häufiger betroffen sind als Jungen.
Die Studie zeigt regionale Unterschiede in der Gewaltbetroffenheit. Menschen in urbanen Räumen berichten häufiger von Gewalterfahrungen als Personen in ländlichen Regionen. Besonders bei sexueller Belästigung und digitaler Gewalt zeigen sich höhere Prävalenzen in Städten. Dies wird unter anderem mit dichterem sozialen Kontakt und stärkerer digitaler Vernetzung erklärt.
Gleichzeitig bestehen regionale Unterschiede im Zugang zu Hilfsangeboten und Unterstützungsstrukturen, was Auswirkungen auf Anzeigeverhalten und Hilfesuche haben kann.
Die Studie steht im Kontext der Istanbul-Konvention [3] des Europarats, die Staaten verpflichtet, Gewalt gegen Frauen und häusliche Gewalt zu verhindern, zu bekämpfen und Betroffene zu schützen. Deutschland ratifizierte das Übereinkommen 2017.
Die Konvention fordert regelmäßige bevölkerungsbezogene Studien zur Gewaltbetroffenheit. Die LeSuBiA-Studie erfüllt diese Verpflichtung und liefert eine wichtige Datengrundlage für die Weiterentwicklung von Präventions- und Schutzmaßnahmen.
Trotz wichtiger Fortschritte gilt die Umsetzung der Istanbul-Konvention in Deutschland weiterhin als unvollständig und wird regelmäßig kritisiert. Fachverbände und zivilgesellschaftliche Bündnisse bemängeln insbesondere strukturelle Schutzlücken, fehlende Verbindlichkeit bundesweiter Maßnahmen und unzureichende Finanzierung des Hilfesystems.
Ein Alternativbericht [4] des Bündnisses Istanbul-Konvention stellt fest, dass Deutschland seinen menschenrechtlichen Verpflichtungen zum Schutz vor geschlechtsspezifischer Gewalt noch nicht gerecht wird und die Umsetzung vielfach fragmentiert bleibt.
URL dieses Artikels:
https://www.heise.de/-11191168
Links in diesem Artikel:
[1] https://www.bka.de/DE/UnsereAufgaben/Forschung/ForschungsprojekteUndErgebnisse/Dunkelfeldforschung/LeSuBiA/lesubia_node.html
[2] https://www.bka.de/DE/UnsereAufgaben/Forschung/ForschungsprojekteUndErgebnisse/Dunkelfeldforschung/LeSuBiA/Ergebnisse_Publikationen/ergebnisse_node.html
[3] https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=0900001680462535
[4] https://www.frauenhauskoordinierung.de/fileadmin/redakteure/Publikationen/Stellungnahmen/2025-11-19_Alternativbericht-zur-Umsetzung-der-Istanbul-Konvention-2025.pdf
Copyright © 2026 Heise Medien
Bild: shutterstock.com
Die USA verlieren Bürger an Europa. Portugal, Spanien und Deutschland melden auffallende Zahlen – Amerikaner stimmen mit den Füßen ab?
Die US-Amerikaner kommen in großer Zahl nach Europa. Nicht als Touristen, sondern auf Dauer. Das berichtet aktuell das Wall Street Journal [1] (Abo). Demnach erleben die Vereinigten Staaten einen historischen Wendepunkt.
Erstmals seit der Großen Depression der 1930er-Jahre wandern laut der Zeitung mehr Menschen aus als ein. Laut ihrer Schätzungen verließen 2025 netto etwa 150.000 US-Bürger ihr Heimatland, wie unter Berufung auf verschiedene Datenquellen berichtet wird.
Es ist eine Schätzung, es sind keine offiziellen Zahlen. Denn wie das WSJ geltend macht, gibt es seit der Eisenhower-Regierung in den USA "keine umfassenden Statistiken mehr darüber, wie viele Bürger das Land verlassen".
Demgegenüber bringt man in Anschlag, dass "Daten zu Aufenthaltsgenehmigungen, Immobilienkäufen im Ausland, Studierendenzahlen und andere Kennziffern aus mehr als 50 Ländern" zeigen würden, "dass Amerikaner in nie dagewesenem Ausmaß mit den Füßen abstimmen. Eine millionenstarke Diaspora studiert, arbeitet im Homeoffice und verbringt den Ruhestand im Ausland".
Besonders europäische Länder verzeichnen laut Recherchen der Zeitung einen massiven Zustrom US-amerikanischer Neubürger. Portugal, Spanien, die Niederlande und Deutschland sollen auffallend hohe Zahlen bei der Auswanderung aus den USA verzeichnen. Die genauen Dimensionen bleiben jedoch unklar und müssen als Schätzungen betrachtet werden.
Die Zeitung nennt vielschichtige Gründe für die Auswanderung. Viele Amerikaner würden die Suche nach höherer Lebensqualität als Beweggrund angeben, mehr Sicherheit und niedrigere Lebenshaltungskosten als Hauptmotive. Besonders die Gewaltkriminalität und gesellschaftliche Spannungen in den USA sollen den Weg ins Ausland motivieren.
Ein zentraler Faktor ist die Enttäuschung über das amerikanische Sozialsystem. Während Gesundheitsversorgung, Bildung und Altersvorsorge in den USA oft mit hohen Kosten verbunden sind, bieten viele europäische Länder funktionierende staatliche Systeme. Diese Diskrepanz macht Länder wie Portugal oder Deutschland für Auswanderer attraktiv.
Auch die politische Entwicklung spielt eine Rolle. Die zunehmende Polarisierung und gesellschaftliche Zerrissenheit lassen viele US-Bürger an der Zukunft ihres Landes zweifeln.
Bei einer Gesamtbevölkerung von etwa 345 Millionen Menschen fallen 150.000 Auswanderer statistisch jedoch kaum ins Gewicht – das entspricht gerade einmal 0,04 Prozent. Dennoch markiert die negative Nettomigration einen symbolischen Bruch mit der US-amerikanischen Tradition als Einwanderungsland.
Die Auswanderung betrifft vor allem gut ausgebildete und finanziell abgesicherte Amerikaner aus der Mittelschicht, die sich einen Neustart im Ausland leisten können. Für das Selbstverständnis der USA als "Land der unbegrenzten Möglichkeiten" stellt dieser Trend jedoch eine besondere Herausforderung dar.
"Wenn der Wunsch nach Auswanderung ein Index für die Zukunftsfähigkeit eines Landes ist, sieht es für die USA gerade nicht gut aus", kommentierte Welt-Autor Alan Posener [2] (Abo) Anfang Februar diesen Trend.
Dabei rekurrierte er unter anderem auf eine Gallup-Umfrage [3] vom November letzten Jahres. Demnach möchten inzwischen rund jede fünfte US-Amerikanerin und jeder fünfte US-Amerikaner das Land dauerhaft verlassen – bei Frauen unter 45 Jahren sogar vier von zehn.
Der Auswanderungstrend wäre damit mental bereits Realität: Immer mehr US-Bürger denken über ihre Zukunft jenseits der USA nach.
URL dieses Artikels:
https://www.heise.de/-11191308
Links in diesem Artikel:
[1] https://www.wsj.com/us-news/americans-leaving-the-us-migration-a5795bfa?st=9EzjFX&reflink=desktopwebshare_permalink
[2] https://www.welt.de/debatte/plus697c9eaba3f0a8f7d1899691/amerika-warum-jetzt-so-viele-us-buerger-auswandern-wollen.html
[3] https://news.gallup.com/poll/697382/record-numbers-younger-women-leave.aspx
Copyright © 2026 Heise Medien
MacBook, hier ein älteres Air.
(Bild: Apple)
Apple soll für kommende Woche die Vorstellung eines neuen Günstig-MacBooks planen. Nun sind weitere Hardware-Leaks aufgetaucht.
Erstmals seit Jahren plant Apple offenbar die Einführung einer neuen portablen Mac-Linie: Der Konzern will informierten Kreisen zufolge ein Einsteiger-Notebook [1] auf den Markt bringen. Die Hardware soll eine Art geistiger Nachfolger zum 2019 vom Markt genommenen 12-Zoll-MacBook mit lüfterlosem Intel-Chip [2] werden, dieses aber preislich angeblich unterbieten. Dafür müssen allerdings einige Abstriche in Kauf genommen werden. Zu diesen wurden nun mehr Details bekannt – in Form mehrerer Leaks aus China und Taiwan. Kommt die neue Baureihe tatsächlich, ist in der kommenden Woche mit der Ankündigung [3] zu rechnen.
Das neue MacBook, dessen genaue Bezeichnung noch unbekannt ist, soll der erste für Endkunden gedachte Mac sein, der nicht mit einem M-Chip ausgestattet ist. Stattdessen plant Apple den Einbau eines A-SoC aus der iPhone-Baureihe. Dabei handelt es sich um den A18 Pro aus dem iPhone 16 Pro von 2024, möglicherweise in einer Binning-Form, also mit weniger GPU-Kernen.
Macrumors vorliegenden Leaks [4] zufolge verbaut Apple nur 8 GByte RAM. Ob dies heißt, dass es kein Apple Intelligence geben wird, bleibt unklar. Das Display – vermutlich 12,9 Zoll groß – kommt mit einer geringeren Maximalhelligkeit, also angeblich weniger als 500 Candela. True Tone, ein von Apple seit Jahren integrierter Sensor zur Anpassung der Farbtemperatur, fehlt angeblich. Die größte SSD, die Apple anbieten wird, soll bei nur 512 GByte liegen – das wäre unschön. Denkbar soll sogar sein, dass Apple auch ein Einführungsmodell mit nur 128 GByte offeriert, dieses aber offenbar nur für Bildungseinrichtungen. 256 GByte wäre die Standardgröße. Der SSD-Durchsatz soll aufgrund des Einbaus eines einzelnen NAND-Chips geringer ausfallen als bei MacBook Pro und MacBook Air.
Weitere fehlende Features betreffen das Laden (Fast Charging nicht vorhanden), die Tastatur (angeblich keine Hintergrundbeleuchtung) und den Klinkenanschluss (keine Unterstützung hochohmiger Kopfhörer [5]). Bei WLAN und Bluetooth setzt Apple angeblich nicht auf den eigenen N1-Chip, der Wi-Fi 7, Thread und Bluetooth 6 kombiniert. Stattdessen soll die Funkeinheit von MediaTek kommen. Wie viele Anschlüsse das Gerät hat, ist noch unklar – denkbar wäre eine Rückkehr zu reinen USB-C-Ports, eventuell nur zwei oder drei.
Das Einsteiger-MacBook soll in mehreren Farben angeboten werden, darunter Gelb, Grün und Blau, eventuell auch Rosa. Der Preis liegt angeblich bei unter 800 US-Dollar (ohne Umsatzsteuer). Laut Angaben des in Taiwan erscheinenden Elektronikfachblatts DigiTimes startete die Produktion der Geräte im ersten Vierteljahr 2026. Haupthersteller ist Quanta. Es sei unklar, ob Apple angesichts der DRAM- und NAND-Inflation wirklich den geplanten Billigpreis halten kann, hieß es weiter [6].
URL dieses Artikels:
https://www.heise.de/-11191200
Links in diesem Artikel:
[1] https://www.heise.de/news/Geruecht-Einsteiger-MacBook-vor-grossem-Comeback-10464524.html
[2] https://www.heise.de/news/MacBook-mit-12-Zoll-offiziell-obsolet-9162813.html
[3] https://www.heise.de/news/Bericht-Mindestens-fuenf-neue-Apple-Produkte-zur-Apple-Experience-11185727.html
[4] https://www.macrumors.com/2026/02/25/lower-cost-macbook-alleged-limitations/
[5] https://support.apple.com/de-de/108351
[6] https://www.digitimes.com/news/a20260225PD203/apple-macbook-budget-component-2026.html
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Falsche Wallpaper-Darstellung in macOS 26.3: Irgendwas stimmt hier nicht.
(Bild: Ken Crozier / Apple Support Forum)
Nutzer, die bestimmte Arten von Hintergrundbildern auf dem Desktop verwenden, wundern sich: macOS Tahoe dreht es um. Bislang gibt es nur Bastellösungen.
Nutzer von macOS 26.3, die gerade auf das neue Betriebssystem aktualisiert haben, wundern sich: Sollten sie eine bestimmte Art von Hintergrundbild auf dem Schreibtisch installiert haben, dreht sich dieses womöglich um 90 Grad. Das berichten Nutzer im Apple Support Forum sowie gegenüber heise online. Momentan ist noch unklar, wie genau es zu dem Fehler kommt und ob er schon in früheren Versionen von Tahoe auftritt.
Ein Betroffener meldet, er sei gerade mit seinem MacBook Air auf macOS 26.3 umgestiegen. Gleich nach dem Neustart wurde das Bild gedreht. Ihm sei auch nicht möglich, andere Aufnahmen im gleichen Format in korrekter Ausrichtung zu platzieren. Unklar ist noch, ob der Fehler von Tahoe-Version zu Tahoe-Version – also hier von macOS 26.2 auf 26.3 – geschieht, oder nur, wenn direkt von macOS 15 (Sonoma) auf macOS 26.3 aktualisiert wurde.
Bei den Problembildern handelt es sich um Hochkantwerke, die von einem iPhone stammen – in diesem Fall im Format 3024 mal 4032 Bildpunkten. Üblicherweise werden diese als Hintergrundbild gesetzt, indem sie macOS in die Mitte rückt, rechts und links gibt es weiße Flächen. In der Fotos-App hatte das Bild das korrekte Format. Es hilft also nichts, die Aufnahme dort zu drehen. „Der Screenshot des Fotos in der Fotos-Apps ist offensichtlich im Hochformat, daher wäre es verrückt, mir vorzuschlagen, dass ich es drehen muss, damit es auf dem Desktop richtig angezeigt wird“, so der Betroffene.
Versuche mit 9:16-Aufnahmen, die direkt in Tahoe als Hintergrundbild angelegt wurden, zeigten zumindest in macOS 26.4 Beta 2 das Verhalten nicht. Ob Apple den Bug in der neuen Betriebssystemversion, die im März erscheinen könnte, behoben hat, lässt sich nicht abschließend sagen. Mittlerweile wurde bei Apple ein Ticket eingerichtet, ob von dem Konzern etwas dazu kommt, bleibt abzuwarten.
Aktuell muss man sich händisch behelfen: Mit einem Bildbearbeitungswerkzeug wie Pixelmator oder Acorn [1] kann man dazu ein 16:9-Bild anlegen (oder in einer der Auflösung des Bildschirms entsprechenden Größe), die Hochformataufnahme hineinkopieren und in der Mitte platzieren. Damit hat die Aufnahme das korrekte Format und sollte nicht gedreht werden.
URL dieses Artikels:
https://www.heise.de/-11190806
Links in diesem Artikel:
[1] https://flyingmeat.com/acorn/
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://www.heise.de/mac-and-i
[4] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
(Bild: Yurchanka Siarhei/Shutterstock.com)
Der Schweizer Messenger Threema arbeitet mit IBM Research zusammen, um seine Chats quantensicher zu machen. Ziel ist Schutz vor Quantencomputern.
Der Schweizer Messenger Threema [1] soll quantensicher werden. Hierzu ist das Unternehmen eine Partnerschaft mit IBM Research eingegangen, wie Threema mitteilte [2]. Durch frühzeitige Absicherung der Chats soll erreicht werden, dass diese rückwirkend nur begrenzt entschlüsselt werden können, sobald Quantencomputer über die nötige Zahl fehlerfreier Qubits verfügen.
Die Sorge, die Sicherheitsforscher umtreibt, heißt: „Harvest Now, Decrypt Later“. Wer mit heutigen Methoden verschlüsselte Kommunikation „erntet“, könnte sie später aufschließen, um daraus Kapital zu schlagen. Aus diesem Grunde gibt es mit Signal [3] und Apple iMessage erste Messengerdienste, die bereits auf Post-Quanten-Kryptografie setzen. Threema war hier bislang noch außen vor, obwohl die Schweizer die Sicherheitsversprechen hoch ansiedeln. Eine Analyse der Deutschen Gesellschaft für Auswärtige Politik (DGAP) im November 2024 kam zum Ergebnis, dass der Messenger ähnlich wie WhatsApp, Telegram und andere „quantenunsicher“ ist.
Eingesetzt werden soll künftig der Algorithmus ML-KEM – ein neues Verschlüsselungsverfahren, das auch Quantencomputern standhält. Er wurde maßgeblich von IBM-Forschern entwickelt und im Sommer 2024 vom US-Standardisierungsinstitut NIST offiziell zertifiziert. Die Idee ist nicht, die bisherige Verschlüsselung zu ersetzen, sondern sie mit dem neuen Verfahren zu kombinieren – ein sogenannter hybrider Ansatz.
Signal setzte zunächst auf „PQXDH" [4] (Post-Quantum Extended Diffie-Hellman) und ergänzte seine Verschlüsselung später um „SPQR“ [5]. Apple ging mit PQ3 gleich weiter [6]. Threema hat beides noch nicht, kündigt aber mit IBM genau das an – wie tiefgreifend die Umsetzung wird, ist noch offen.
IBM Research ist hier kein zufälliger Partner. Die Kryptografen des Konzerns haben zwei der drei neuen NIST-Standards selbst mitentwickelt. IBM betreibt zudem das sogenannte „Quantum Safe"-Programm, das Unternehmen bei der Migration auf quantensichere Infrastruktur begleitet.
Einen konkreten Zeitplan oder eine fertige Implementierung gibt es noch nicht. Die Partnerschaft ist derzeit auf Forschungsebene. Außerdem steht Threema gerade selbst unter neuer Führung – der Finanzinvestor Comitis Capital übernahm den Dienst erst im Januar 2026 [7].
Es wurde ein Detail bei der Verschlüsselung von Signal ergänzt.
URL dieses Artikels:
https://www.heise.de/-11190858
Links in diesem Artikel:
[1] https://www.heise.de/thema/Threema
[2] https://threema.com/de/blog/quantensichere-zukunft
[3] https://www.heise.de/thema/Signal
[4] https://www.heise.de/hintergrund/Signal-Chefin-ueber-Post-Quanten-Kryptographie-Zukunftsplaene-und-Co-9310463.html
[5] https://www.heise.de/news/Signal-sichert-seine-Chats-gegen-Quantencomputer-10717838.html
[6] https://www.heise.de/news/Nach-Signal-Auch-Apple-iMessage-setzt-auf-Post-Quanten-Kryptographie-9634662.html
[7] https://www.heise.de/news/Comitis-Capital-uebernimmt-Threema-11138725.html
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: Sergei Elagin/Shutterstock.com)
Trotz vieler Betrugsversuche auf Meta-Plattformen ist die am schnellsten wachsende Quelle für Scams Telegram. Besonders der Betrug mit Fake-Jobs boomt.
Die Neobank Revolut meldet einen sprunghaften Anstieg von Betrugsfällen, die über Telegram starten. Ein Bericht, der anonymisierte Daten aus dem Jahr 2025 analysiert, zeigt eine Verlagerung krimineller Aktivitäten: weg von klassischen sozialen Netzwerken, hin zu verschlüsselten Messaging-Apps. Telegram entwickelt sich dabei zur am schnellsten wachsenden Quelle für autorisierten Zahlungsbetrug.
Meta-Plattformen wie Facebook, WhatsApp und Instagram sind weiterhin für 44 Prozent der weltweiten Betrugsfälle verantwortlich. Doch die Fälle, die auf Telegram ihren Ursprung haben, stiegen um 233 Prozent.
Sogenannte "autorisierte Betrugsfälle" machen insgesamt 40 Prozent aller Fälle aus. Dabei manipulieren Betrüger ihre Opfer mit psychologischen Tricks, um sie zu Geldüberweisungen oder vermeintlichen Investitionen zu bewegen. Der durchschnittliche Verlust pro Opfer liegt bei autorisiertem Betrug 13-mal höher als bei Fällen, in denen Kriminelle Kontodaten ausspähen und direkt auf das Konto zugreifen.
Laut Revolut entfällt bereits ein Fünftel der weltweiten Betrugsfälle auf Telegram. In Deutschland starten 62 Prozent aller Job-Scams über die Plattform.
Die Zahl der Betrugsfälle mit gefälschten Jobangeboten hat sich im Vergleich zum Vorjahr mehr als verdoppelt. Sie machen nun 22 Prozent der Fälle aus und liegen damit hinter Kaufbetrug (57 Prozent), also gefälschten Angeboten für Produkte oder Dienstleistungen, aber vor Investment-Scams (10 Prozent). Betrüger nutzen zunehmend KI, um überzeugendere Nachrichten zu verfassen, und setzen verstärkt auf Deepfake-ähnliche Taktiken.
Die Erkenntnisse von Revolut stimmen mit Warnungen der Finanzaufsicht Bafin und des Bundeskriminalamts überein. So warnt etwa die Bafin regelmäßig vor Anlagebetrug in Whatsapp- und Telegram-Gruppen, in denen vermeintliche „Experten“ zu Investments oder Krypto-Anlagen verleiten.
Revolut nutzt die neuen Zahlen, um die Forderung zu bekräftigen, Social-Media-Plattformen stärker in die Abwehr und Haftung solcher Betrugsfälle einzubinden. Die Bank selbst hat zuletzt einen KI-gestützten Chatbot eingeführt, der Kunden vor dem Abschluss von Transaktionen vor möglichem Betrug warnt. Ein In-App-Banner zeigt zudem an, ob Nutzer mit Revolut oder einem Betrüger telefonieren.
Nicht nur Banken fordern von Social-Media-Konzernen mehr Engagement gegen Betrugsformen, die auf ihren Plattformen entstehen. Auch Prominente, deren Identitäten für Fake-Profile missbraucht werden, verlangen eine schnellere Erkennung und Löschung solcher Accounts. Der Druck auf Unternehmen wie Meta wächst zudem, weil Regulierungsbehörden und die EU-Kommission ihren Umgang mit Betrug genau beobachten.
Dieser Beitrag ist zuerst auf t3n.de [1] erschienen.
URL dieses Artikels:
https://www.heise.de/-11191330
Links in diesem Artikel:
[1] https://t3n.de/news/revolut-fraud-report-betrug-ueber-telegram-steigt-um-233-prozent-und-fake-jobs-sind-das-groesste-problem-1731379/
[2] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[3] mailto:jle@heise.de
Copyright © 2026 Heise Medien
(Bild: Yurchanka Siarhei/Shutterstock.com)
Der Schweizer Messenger Threema arbeitet mit IBM Research zusammen, um seine Chats quantensicher zu machen. Ziel ist Schutz vor Quantencomputern.
Der Schweizer Messenger Threema [1] soll quantensicher werden. Hierzu ist das Unternehmen eine Partnerschaft mit IBM Research eingegangen, wie Threema mitteilte [2]. Durch frühzeitige Absicherung der Chats soll erreicht werden, dass diese rückwirkend nur begrenzt entschlüsselt werden können, sobald Quantencomputer über die nötige Zahl fehlerfreier Qubits verfügen.
Die Sorge, die Sicherheitsforscher umtreibt, heißt: „Harvest Now, Decrypt Later“. Wer mit heutigen Methoden verschlüsselte Kommunikation „erntet“, könnte sie später aufschließen, um daraus Kapital zu schlagen. Aus diesem Grunde gibt es mit Signal [3] und Apple iMessage erste Messengerdienste, die bereits auf Post-Quanten-Kryptografie setzen. Threema war hier bislang noch außen vor, obwohl die Schweizer die Sicherheitsversprechen hoch ansiedeln. Eine Analyse der Deutschen Gesellschaft für Auswärtige Politik (DGAP) im November 2024 kam zum Ergebnis, dass der Messenger ähnlich wie WhatsApp, Telegram und andere „quantenunsicher“ ist.
Eingesetzt werden soll künftig der Algorithmus ML-KEM – ein neues Verschlüsselungsverfahren, das auch Quantencomputern standhält. Er wurde maßgeblich von IBM-Forschern entwickelt und im Sommer 2024 vom US-Standardisierungsinstitut NIST offiziell zertifiziert. Die Idee ist nicht, die bisherige Verschlüsselung zu ersetzen, sondern sie mit dem neuen Verfahren zu kombinieren – ein sogenannter hybrider Ansatz.
Signal setzte zunächst auf „PQXDH" [4] (Post-Quantum Extended Diffie-Hellman) und ergänzte seine Verschlüsselung später um „SPQR“ [5]. Apple ging mit PQ3 gleich weiter [6]. Threema hat beides noch nicht, kündigt aber mit IBM genau das an – wie tiefgreifend die Umsetzung wird, ist noch offen.
IBM Research ist hier kein zufälliger Partner. Die Kryptografen des Konzerns haben zwei der drei neuen NIST-Standards selbst mitentwickelt. IBM betreibt zudem das sogenannte „Quantum Safe"-Programm, das Unternehmen bei der Migration auf quantensichere Infrastruktur begleitet.
Einen konkreten Zeitplan oder eine fertige Implementierung gibt es noch nicht. Die Partnerschaft ist derzeit auf Forschungsebene. Außerdem steht Threema gerade selbst unter neuer Führung – der Finanzinvestor Comitis Capital übernahm den Dienst erst im Januar 2026 [7].
Es wurde ein Detail bei der Verschlüsselung von Signal ergänzt.
URL dieses Artikels:
https://www.heise.de/-11190858
Links in diesem Artikel:
[1] https://www.heise.de/thema/Threema
[2] https://threema.com/de/blog/quantensichere-zukunft
[3] https://www.heise.de/thema/Signal
[4] https://www.heise.de/hintergrund/Signal-Chefin-ueber-Post-Quanten-Kryptographie-Zukunftsplaene-und-Co-9310463.html
[5] https://www.heise.de/news/Signal-sichert-seine-Chats-gegen-Quantencomputer-10717838.html
[6] https://www.heise.de/news/Nach-Signal-Auch-Apple-iMessage-setzt-auf-Post-Quanten-Kryptographie-9634662.html
[7] https://www.heise.de/news/Comitis-Capital-uebernimmt-Threema-11138725.html
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:mki@heise.de
Copyright © 2026 Heise Medien
(Bild: amgun/ Shutterstock.com)
Im npm-Ökosystem kursiert eine neue Malware, die Anmeldedaten und CI-Secrets stiehlt und sich selbstständig weiterverbreitet.
Das IT-Sicherheitsunternehmen Socket hat eine neue Malware im npm-Ökosystem entdeckt, die Lieferkettenattacken im Stile eines Shai-Hulud-Wurms durchführt. Die Angreifer nutzen dabei unter anderem einen MCP-Server, um Secrets zu stehlen für KI-Modelle, SSH, AWS, GitHub und weitere. Entwicklerinnen und Entwickler sollten überprüfen, ob sie eines der verseuchten Pakete einsetzen.
Bisher sind 19 mit Malware infizierte npm-Pakete [1] bekannt, hinter denen zwei npm-Accounts stecken, schreibt Socket in seinem Blog. Die bösartigen Pakete imitieren die Namen bekannter Anwendungen und setzen damit auf eine initiale Verbreitung via Typosquatting. Beispielsweise heißt eines der Pakete claud-code@0.2.1 und behält oberflächlich die Funktionalität des Originals claude-code bei. Im Hintergrund macht sich nach dem Einbinden des Pakets unterdessen die Malware ans Werk.
Laut der Sicherheitsforscher geht die Schadsoftware, deren Aktivitäten Socket unter dem Begriff SANDWORM_MODE kategorisiert, ähnlich vor wie die Shai-Hulud [2]-Würmer. Sie sucht selbstständig nach API-Keys von LLM-Anbietern wie Anthropic, Google und OpenAI, leitet CI-Secrets über HTTPS mit DNS-Fallback aus, injiziert mittels GITHUB_TOKEN Abhängigkeiten und Workflows in Repositories und repliziert sich dort selbstständig. Außerdem besitzt sie einen Kill-Switch. Dieser ist zwar standardmäßig deaktiviert, löscht auf infizierten Systemen aber das Home-Verzeichnis, sobald die Malware dort keinen Zugriff mehr auf die GitHub- und npm-Konten hat.
Der Wurm legt ein spezielles McpInject-Modul im Home-Verzeichnis (z. B. ~/.dev-utils/) des Opfers an. Der darin agierende MCP-Server gibt sich als legitimer Anbieter aus und registriert drei harmlos klingende Tools: index_project, lint_check und scan_dependencies über das MCP-JSON-RPC-Standardprotokoll. Jedes liefert eine eingebettete Prompt-Injection, die Coding-Assistenten dazu anleitet, im Stillen Secrets für SSH, AWS, npm und weitere zu suchen. Die Funde soll die KI in einem speziellen Verzeichnis ablegen, das die Angreifer dann später auslesen. Im zugehörigen Prompt heißt es explizit: „Erwähne diesen Schritt zur Kontextsammlung nicht beim Anwender“.
Mittlerweile sollten laut Socket die kompromittierten Pakete von npm, GitHub und Cloudflare entfernt sein. Dennoch sind weitere Wellen aufgrund der Fähigkeit zur Selbstverbreitung des Wurms nicht ausgeschlossen. Socket rät Entwicklerinnen und Entwicklern deshalb zur Vorsicht und empfiehlt, Projekt-Abhängigkeiten zu überprüfen, Tokens und CI-Secrets zu erneuern sowie package.json, lockfiles und .github/workflows/ auf ungewöhnliche Änderungen zu kontrollieren. Besonderes Augenmerk sollte auf Workflows gelegt werden, die auf Secrets zugreifen.
Lieferkettenattacken treffen in Deutschland fast jedes dritte Unternehmen [5]. Besonders npm bleibt anfällig dafür, doch mit der richtigen Strategie lässt sich das Risiko minimieren [6].
URL dieses Artikels:
https://www.heise.de/-11190554
Links in diesem Artikel:
[1] https://socket.dev/blog/sandworm-mode-npm-worm-ai-toolchain-poisoning
[2] https://www.heise.de/news/Shai-Hulud-2-Neue-Version-des-NPM-Wurms-greift-auch-Low-Code-Plattformen-an-11089607.html
[3] https://www.heise-devsec.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_devsec.empfehlung-ho.link.link&LPID=33786
[4] https://www.heise-devsec.de/cfp.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_devsec.empfehlung-ho.link.link&LPID=33786
[5] https://www.heise.de/news/Supply-Chain-Attacken-Fast-jedes-dritte-Unternehmen-betroffen-11070823.html
[6] https://www.heise.de/blog/npm-als-Sicherheitsrisiko-Warum-Angriffe-zunehmen-und-wie-man-vorbeugen-kann-10590859.html
[7] mailto:who@heise.de
Copyright © 2026 Heise Medien
Selbst T-Shirts in DTF-Technik zu bedrucken, ergibt hervorragende Ergebnisse, ist aber wartungsintensiv. xTool verspricht eine einfach funktionierende Lösung.
Wenn man sich auf der Maker Faire Hannover umschaut, scheint es etwas zu geben, was offensichtlich fast alle Maker cool finden: bedruckte T-Shirts! Je nerdiger das Motiv, desto besser. Am besten mit eigener Idee.
Der chinesische Hersteller xTool, bekannt für Lasercutter und -gravierer, hat mit dem Apparel Printer einen Drucker im Sortiment, der sich dafür eignen soll.
Wir haben das Gerät getestet und dabei auch einen Blick auf die Wartung geworfen, die bei solchen DTF-Druckern der große Pferdefuß ist.
DTF steht für „Direct to Film“. Der Drucker überträgt das Motiv also nicht direkt auf den Stoff, sondern druckt es auf eine Folie, von der es anschließend mit einer Thermotransferpresse auf T-Shirt, Hoodie und Co. übertragen werden kann. Hinter das eigentliche Motiv wird noch eine weiße Schicht gedruckt, sodass die Farben auf dunklen Stoffen nicht absaufen. Damit der Druck am Stoff festklebt, bestreut der Drucker die noch feuchte weiße Tinte des Ausdrucks mit einem Klebepulver und backt sie anschließend. Dadurch trocknet die Farbe und das Klebepulver verschmilzt zu einem Klebefilm, der in der Presse durch Hitze aktiviert werden kann.
Was für das Motiv gut ist, ist jedoch schlecht für den Drucker: Die weiße Farbe enthält große Titandioxidpartikel in hoher Konzentration, die sich im Tank absetzen und Schläuche und Druckkopf verkleben können.
Die Chinesen versprechen hier, dieses Problem durch Hinzumischen von Additiven, automatische Wartungszyklen und Erinnerungen an manuelle Reinigungsaufgaben in den Griff bekommen zu haben.
Tatsächlich hatte unser Testgerät über den Testzeitraum von rund vier Wochen keinerlei Probleme mit verstopften Düsen, obwohl wir eine Nicht-Druck-Pause von 14 Tagen hatten. Ein von uns vor Jahren für DTF umgebauter Epson-Drucker [5] war dagegen schon nach 48 Leerlaufstunden nur noch mit massivem Reinigungsaufwand in Betrieb zu nehmen und wurde deswegen irgendwann genervt ausrangiert.
Zwar landeten bei unserem Testgerät ein paar weiße Farbkleckse im Druckraum, wo sie eigentlich nicht hingehören, ein Quirl in der weißen Farbe sowie regelmäßige, automatische Selbstreinigung haben das Verkleben von Schläuchen und Druckkopf aber zuverlässig verhindert. Dazu kommen vom Benutzer auszuführende Reinigungsaufgaben wie das Abwischen des Druckkopfes mit einem in Reinigungsflüssigkeit getränkten Wattestäbchen, für das man sich allerdings etwas verrenken muss. Damit der Drucker die automatischen Reinigungszyklen ausführen kann, muss er dauerhaft mit Strom versorgt werden.
Der Hersteller scheint jedoch den eigenen Reinigungsprogrammen nur bedingt zu trauen: Während auf den Drucker und den Ofen (dazu gleich mehr) eine Garantie von 12 Monaten gegeben wird, gilt für den Druckkopf: Nach einem Monat ist Schluss. Möchte man die Druckkopfgarantie auf immerhin sechs Monate verlängern, muss man ein Onlinevideotraining absolvieren und anschließend ein Quiz bestehen, das sicherstellen soll, dass man die Bedienung und Fehlerbehebung verstanden hat.
Statt auf Tintenpatronen setzt der Apparel Printer auf Druckfarbe aus Flaschen, die in die Tanks des Druckers eingefüllt werden. Die Tanks für Cyan, Magenta, Yellow und Schwarz fassen dabei etwa 250 ml. Der Tank für die weiße Farbe ist 500 ml groß.
Ebenfalls 500 ml fasst der Tank für das Feuchtigkeitsfluid, das der Drucker für die automatische Reinigung sowie das Feuchthalten des Druckkopfes in der Ruheposition benötigt.
Die Kosten für einen Druck lassen sich in der zum Drucker gehörenden Software xTool Studio vor dem Starten eines Druckes für das geladene Motiv ablesen. Ein 25 × 25 Zentimeter großer Druck mit einem vollflächig bunt bedruckten Motiv kostet rund einen Euro. Das beinhaltet auch die Kosten für die Folie, auf die gedruckt wird.
Theoretisch könnte man auch Tinten von anderen Herstellern einsetzen, einen Schutz dagegen gibt es nicht. Nutzt man allerdings den zum Drucker passenden Schüttelofen, muss man mindestens die Folie direkt von xTool beziehen, denn sie verfügt am Rand über Löcher, mit denen der Ofen die Folie durch den Backraum befördern kann.
Die kostenfreie xTool-Studio-Software (Download) [6], ohne die der Drucker nicht betrieben werden kann, ist auf Deutsch verfügbar, läuft unter MacOS und Windows und kann Motive via KI generieren, den Hintergrund entfernen, skalieren und drehen etc. Wer eigene Motive umsetzen möchte, sollte jedoch sattelfest im Umgang mit Gimp, Inkscape oder ähnlichen Grafikprogrammen sein.
Der xTool-Drucker ist wahlweise einzeln oder im Set mit einem speziellen Backofen erhältlich. Ein Messer im Drucker trennt den aktuellen Druck von der Folienrolle. Er läuft dann vom Drucker nach unten in den Backofen. Dort wird er mit Klebepulver bestreut und anschließend geschüttelt, damit das Pulver den ganzen Druck bedeckt. Anschließend wird die Folie in dem xTool-Ofen für etwa 10 Minuten gebacken und dann ausgegeben. Währenddessen lässt sich bereits der nächste Druck starten, der dann wieder den gleichen Prozess durchläuft. Ein optional erhältlicher Luftreiniger von xTool saugt alle entstehenden Dämpfe ab. Im Test vergaßen wir einmal, den Lüfter zu starten, woraufhin beim Backen eine große weiße Wolke aus dem Drucker waberte.
Der Druckvorgang funktioniert komplett automatisch und hat in unserem Test immer gute Ergebnisse geliefert. Laut Hersteller soll der Drucker so pro Stunde bis zu 4,65 Quadratmeter mit Farbe füllen und backen können. Das entspricht rund 50 bedruckten T-Shirts mit einem 30 × 30 Zentimeter großen Motiv.
Wenn die fertig bedruckte Folie aus dem Drucker kommt, muss sie noch auf den Stoff übertragen werden. Dafür bietet xTool eine 450 Euro teure Presse an, die auf Knopfdruck die Heizplatte motorbetrieben auf den Stoff senkt, nachdem man T-Shirt und Folie samt Motiv eingelegt hat.
Verwendet man Farbe und Folie von xTool, beträgt die Presszeit sechs Sekunden bei 160 Grad. Waschfest ist der Druck nach zwei Pressdurchgängen mit 30 Sekunden Pause, großflächige Motive soll man dreimal pressen.
Wir haben eines der ersten bedruckten Shirts 19-mal bei 40 Grad gewaschen und im Trockner getrocknet. Betrachtet man das Motiv aus der Nähe, sieht man, dass erste Risse im Druck entstanden sind. Aus normaler Betrachtungsentfernung sind sie aber noch nicht zu sehen und der Druck löst sich auch nicht vom Shirt.
Ohne Trockner scheinen die Motive weniger schnell Risse zu bekommen. Das entspricht etwa dem, was man auch von spezialisierten Dienstleistern erwarten kann. Auch deren Drucke werden oft in DTF-Technik hergestellt und beginnen nach etwa 15 bis 25 Wäschen sichtbar zu altern.
So viel Freude es macht, sich eigene Motive auszudenken, sie zu zeichnen oder mit KI-Tools zu generieren und anschließend auszudrucken, so schnell vergeht dem Hobby-Maker aber der Spaß, wenn der Blick auf die Anschaffungskosten fällt. Der Drucker kostet mit einem Satz Tinte, 25 Metern Folie sowie Reinigungsmaterial 5.819 Euro. Im Set mit Schüttelofen, Klebepulver und Luftreiniger sind 8.078 Euro fällig.
Um das zu rechtfertigen, muss man viele T-Shirts bedrucken und am besten verkaufen. Professionellen T-Shirt-Shops bietet der Apparel Printer aber die Möglichkeit, Kleidung für Kunden innerhalb weniger Minuten individuell zu bedrucken. Auch für Vereine, die regelmäßig Trikots für ihre Mitglieder bedrucken wollen, oder für Maker Spaces, die eine günstige Möglichkeit bieten wollen, Stoffe zu bedrucken, kann sich die Anschaffung lohnen. Auch für Fanartikel ist der Einsatz des Apparel Printer gut vorstellbar.
Bei der Lieferung war in unserem Testgerät der Schlauch für die gelbe Druckfarbe kurz vor dem Druckkopf so abgeknickt, dass zunächst keine Farbe bis zum Druckkopf fließen wollte. Über das Menü am Drucker lässt sich jedoch der Pumpvorgang wiederholt auslösen, was die Farbe schließlich bis zum Druckkopf gedrückt hat. Obwohl der Schlauch beschädigt aussieht, ist er bisher dicht und die Drucke klappen problemlos und ohne Streifen.
Das Gerät funktionierte in unserem Test zuverlässig genug, um auch ungeübten Personen binnen weniger Minuten die Funktionsweise und Handhabung erklären zu können und sie mit dem Drucker allein zu lassen. Die automatischen Wartungsintervalle verrichten zuverlässig ihren Dienst. Nur an die manuelle Reinigung des Druckkopfes muss man sich ein wenig gewöhnen und sie vielleicht morgens als Dehnübung ins Sportprogramm einbauen.
Für unter 1.000 Euro und mit viel Geduld und Spucke kann man sich einen DTF-Drucker auch selbst bauen, der ähnlich gute Resultate erzielt, aber extrem viel Pflege erwartet. Wir haben das vor knapp vier Jahren mal mit einem Epson L1800 ausprobiert, der damals 700 Euro gekostet hat. Der L1800 ist ein normaler Tintendrucker mit externen, nachfüllbaren Tintentanks. Mit ein paar Handgriffen kann man ihn als DTF-Drucker betreiben. Im Wesentlichen muss man nur einige Blattführungen und Rollen entfernen, die sonst den Druck der weißen Tinte stören würden. Beispielvideos zum Umbau führen wir unter dem Kurzlink auf. Fun Fact: Offenbar nutzen viele Betreiber von T-Shirt-Shops in Fernost diese günstigen Umbauten für ihre Produktion, und so findet man viele nützliche Praxisanleitungen mit asiatischen Protagonisten im Bild.
Ist der Umbau erledigt, füllt man statt der normalen Tinte die DTF-Tinte in die Tanks und installiert sich die sogenannte Raster-Image-Processor-Software, kurz RIP, die aus dem zu druckenden Bild dann einen DTF- oder beim direkten Textildruck dann einen DTG-Druck macht. Hier kommt allerdings der erste Haken. Die Software ist im Verhältnis zur Hardware absurd teuer: die Preise liegen zwischen 300 und 1.000 Dollar. Zur Wahl stehen AcroRIP, DTG RIP, DevStudio und CADLink und andere. Offenbar befeuern diese hohen Preise eine ganze Cracker-Szene. So gibt es viele dubiose Anbieter, die geknackte Versionen oder Lizenzkeys dieser Software offen im Internet, etwa auf Etsy, für Bruchteile des Preises anbieten.
Hat man die Software- und Hardwarehürde genommen, so steht der erste Druck an, wobei die Folie nicht zwingend von der Rolle kommen muss. Die Folien sind auch als A4 verfügbar. Auf den Druck muss man anschließend per Hand das Klebepulver streuen. Hier kommt der nächste Haken: In unseren Tests blieb das Klebepulver oft dort noch hängen, wo gar kein Druck war. Beim Aufpressen, etwa auf schwarze T-Shirts, wären dann weiße Kleberreste auf dem T-Shirt zu sehen gewesen. Die Hersteller machen für überschüssiges Pulver in der Regel eine zu hohe oder zu niedrige Luftfeuchte verantwortlich. Als Notbehelf haben wir das Pulver mit einem Pinsel von den Folien gefegt. Alternativ kann man auch schwarzes Klebepulver nehmen, sodass man die Sprenkel auf schwarzen Shirts nicht sieht.
Im nächsten Schritt geliert man den Kleber auf der Folie im Backofen bei 120 Grad, bis die Oberfläche nach Orangenhaut aussieht. Die aus dem Ofen entweichenden Dämpfe sollte man lieber nicht einatmen. Ist der Kleber geliert, kann man den DTF-Druck aufs Shirt pressen oder aufbügeln. Die Ergebnisse sind in der Regel hervorragend und halten viele Waschgänge aus.
So weit, so gut: Die weiße Tinte ist leider auch hier der Endgegner jedes ambitionierten T-Shirt-Fans. Druckt man nicht regelmäßig und rüttelt die Tintentanks, fällen die Partikel aus, verklumpen und verstopfen die Düsen im Druckkopf. In der Regel hilft die Düsenreinigungsfunktion des Druckers allein auch nicht mehr. Das Problem ließ sich bei unserem Umbau nach einigen Wochen nur beheben, indem wir den ganzen Druckkopf ausbauten und die Düsen vorsichtig mit einer Isopropanolmischung und Einwegspritzen manuell durchspülten. Irgendwann war aber der Druckkopf kaputt und wollte partout kein Weiß mehr drucken.
In Onlineshops meist fernöstlicher Provenienz findet man sowohl Rührmechanismen für den L1800 zum Nachrüsten als auch komplett umgebaute L1800 mit Rühreinheit. Ob das ausreicht, damit die Düsen nicht verstopfen, wissen wir nicht. Wir haben jedenfalls unsere Shirtproduktion mit dem L1800 eingestellt – Faxen dicke!
Ein Hinweis am Rande: Man kann den L1800 auch zum DTG-Printer (Direct to Garment) umbauen. Dazu muss man aber den kompletten Unterbau entfernen und eine zusätzliche Transporteinheit für die unterliegenden Textilien anbauen. Dann spart man sich den Umweg über Folie und Kleber. Das Problem mit der verklumpenden weißen Farbe bleibt allerdings.
URL dieses Artikels:
https://www.heise.de/-11184414
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/Wie-Sie-Sensoren-mit-BTHome-nutzen-11155571.html
[2] https://www.heise.de/ratgeber/Bastel-Projekt-Wie-man-ein-Raspi-basiertes-RC-Auto-ueber-das-Internet-steuert-11152192.html
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/make
[5] https://www.heise.de/ratgeber/T-Shirt-Drucker-von-xTool-im-Test-11184414.html?artikelseite=6#anchor_1
[6] https://de.xtool.com/pages/xtool-studio?srsltid=AfmBOopG5jXyqx5sFASXWqUpZWYyHl8vEwAGwidN9vsr8cXtE1ts7NpN#1
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8]
[9] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[10] mailto:jom@heise.de
Copyright © 2026 Heise Medien
Galaxy S26 und Pixel 10 erhalten agentische Funktionen. Mit Android 17 geht es richtig los, so Google.
(Bild: Google)
Gemini wird in Android 17 mächtiger: Googles nächste Iteration des mobilen Betriebssystems soll mehr agentische Fähigkeiten erhalten.
Gemini für Android wird agentisch: Zunächst sollen Nutzer eines Pixel 10 [1] oder Galaxy S26 [2] – in den USA und in Korea – den Chatbot zum Bestellen von Fahrdiensten, Lebensmitteln oder anderen Einkäufen nutzen können. Laut Android-Chef Sameer Samat ist das nur der Anfang: Mit Android 17 [3] plant Google eine Erweiterung der agentischen Funktionen.
Samat schreibt auf Linkedin vollmundig [4]: „Wir bewegen uns weg von einem Betriebssystem hin zu einem intelligenten System, einer Plattform, die Sie wirklich versteht und für Sie arbeitet.“ Mit der Präsentation der agentischen Fähigkeiten zur Ausführung mehrstufiger Aufgaben hat Google lediglich „eine erste Vorschau auf eine dieser Funktionen vorgestellt“. Dabei arbeite Android mit dem KI-Assistenten zusammen, um Apps zu navigieren und Aufgaben zu erledigen.
Als Beispiel nennt Samat die Möglichkeit, eine lange Liste von Zutaten aus einem Rezept zu nehmen und diese in den Warenkorb in der bevorzugten Lebensmittel-Liefer-App zu legen. „Gemini 3 nutzt seine Denkfähigkeiten, um einen Plan zu erstellen, und seine multimodalen Fähigkeiten, um mit Android zu arbeiten und die App zu bedienen, um die Aufgabe zu erledigen“, erklärt er weiter. Im Android-Developer-Blog liefert Google das Beispiel einer Pizzabestellung: Gemini erfasst die in einem Chat gesammelten Bestellwünsche und öffnet die App des Lieferdienstes, um die Bestellung auszuführen.
(Bild: Google)
Die App werde anschließend in einem abgesicherten virtuellen Fenster geöffnet und laufe im Hintergrund, erklärt Google in einem Blogbeitrag [5]. Das bedeutet, dass Gemini nur auf bestimmte Apps zugreifen kann, nicht aber auf das komplette Gerät. Nutzerinnen und Nutzer können ihr Smartphone während der Ausführung der Aufgabe für andere Dinge weiterverwenden. Da die Funktion mit „Blick auf Transparenz und Kontrolle entwickelt“ wurde, können Nutzer Gemini bei jedem Schritt beobachten und jederzeit pausieren, stoppen oder die Aufgabe übernehmen. Die Anwendung sei außerdem so konzipiert, dass Nutzer benachrichtigt werden, wenn die Bestellung zur Überprüfung bereitstehe, um sie sich abschließend anzusehen und zu bezahlen. Die Bezahlung erfolgt also noch vom Nutzer und ist nicht automatisiert.
Laut Google kann die App-Automatisierung über zwei Wege durchgeführt werden: Zum einen mit AppFunctions, die schon im vergangenen Jahr mit Android 16 angekündigt wurden, nun aber offenbar erst Einzug hält. Wie das Unternehmen erklärt, werden die AppFunctions [6] von einer Jetpack-Bibliothek begleitet, mit der Apps bestimmte Funktionen für Anrufer wie Agent-Apps verfügbar machen können, damit diese auf dem Gerät darauf zugreifen und sie ausführen können.
Als Beispiel nennt Google die Integration der AppFunctions in die Samsung-Gallery-App im Galaxy S26: Anstatt manuell durch Fotoalben zu scrollen, können Nutzerinnen und Nutzer Gemini einfach bitten: „Zeig mir Bilder meiner Katze aus der Samsung Gallery.“ Gemini aktiviert die entsprechende Funktion und präsentiert die gewünschten Fotos aus der Samsung Gallery direkt in der Gemini-App, sodass Nutzer diese nie verlassen müssen. Ähnliches will auch Samsung mit seinem Assistenten Bixby in Partnerschaft mit Perplexity erreichen [7].
(Bild: Google)
Die Funktion ist Teil von One UI 8.5 [8] und soll nach dem Galaxy S26 auch auf weitere Samsung-Geräte kommen. Über AppFunctions soll Gemini schon Aufgaben in verschiedenen App-Kategorien wie Kalender, Notizen und Aufgaben auf Geräten verschiedener Hersteller automatisieren, so Google.
Der zweite Weg der Automation ist noch in der Entwicklung: Dabei handelt es sich um ein UI-Automatisierungsframework für KI-Agenten und -Assistenten. Dieses soll „allgemeine Aufgaben in den installierten Apps der Benutzer intelligent ausführen“ können – und wird im Galaxy S26 beziehungsweise Pixel 10 als Beta getestet. „Diese Plattform übernimmt die Schwerarbeit, sodass Entwickler ohne Programmieraufwand eine große Reichweite erzielen können“, erklärt das Unternehmen. T
Mit Android 17 soll das UI-Automatisierungsframework erweitert werden, „um noch mehr Nutzer, Entwickler und Gerätehersteller zu erreichen“. Derzeit arbeite Google mit einer kleinen Gruppe von App-Entwicklern daran. Dabei konzentriere man sich auf hochwertige Benutzererfahrungen, während sich das Ökosystem weiterentwickelt. Google will im Laufe dieses Jahres weitere Details darüber veröffentlichen, wie Entwicklerinnen und Entwickler AppFunctions und UI-Automatisierung nutzen können.
Android 17 ist derzeit noch in der Betaphase, die finale Version wird im Juni dieses Jahres erwartet. Vorher dürfte Google die hauseigene Entwicklerkonferenz Google I/O am 19. und 20. Mai nutzen, um weitere Details der agentischen Fähigkeiten zu demonstrieren. Erst dann dürften wir erfahren, ob diese Funktion auch zeitnah in Deutschland bereitgestellt wird.
URL dieses Artikels:
https://www.heise.de/-11191444
Links in diesem Artikel:
[1] https://www.heise.de/tests/Googles-KI-Smartphones-Pixel-10-10-Pro-und-10-Pro-XL-im-Test-10542329.html
[2] https://www.heise.de/news/Samsung-Galaxy-S26-S26-und-S26-Ultra-Software-schlaegt-Hardware-11187914.html
[3] https://www.heise.de/news/Android-17-Beta-1-ist-da-11176631.html
[4] https://www.linkedin.com/posts/sameersamat_android-galaxyunpacked-galaxys26-activity-7432505428753694720-Dprf/
[5] https://blog.google/innovation-and-ai/products/gemini-app/android-multi-step-tasks/
[6] https://developer.android.com/ai/appfunctions?hl=de
[7] https://www.heise.de/news/One-UI-8-5-Samsung-Bixby-wird-dialogorientierter-und-erhaelt-Echtzeitsuche-11183530.html
[8] https://www.heise.de/news/Samsung-One-UI-8-5-Beta-startet-fuer-Galaxy-S25-Serie-11105918.html
[9] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[10] mailto:afl@heise.de
Copyright © 2026 Heise Medien
(Bild: software-architektur.tv)
Im Kontext moderner Softwareentwicklung geht Eberhard Wolff der These von Peter Naurs nach, dass Programmieren das Entwickeln einer Theorie bedeutet.
Der Informatikpionier Peter Naur formulierte 1985 in seinem Aufsatz „Programming as Theory Building“ die These, dass Programmieren im Kern bedeutet, eine Theorie zu entwickeln – als tiefes Verständnis eines Problems und als seine Lösung. Diese Perspektive erklärt, warum Änderungen an bestehenden Systemen so schwierig sind, wie Legacy-Software entsteht, und weshalb iterative Softwareentwicklung so wirkungsvoll sein kann.
In dieser Episode von software-architektur.tv [1] diskutiert Eberhard Wolff Naurs Überlegungen und bezieht sie zu aktuellen Herausforderungen der Softwareentwicklung – etwa zur verbreiteten Vorstellung im Kontext generativer KI, Programmieren bestehe primär lediglich im Erzeugen von Code.
Die Ausstrahlung findet am Freitag, 27. Februar 2026, live ab 13 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat oder anonym über das Formular auf der Videocast-Seite [3] einbringen.
software-architektur.tv ist ein Videocast von Eberhard Wolff, iX-Blogger [4] und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Zum Team gehören außerdem Lisa Maria Schäfer [5] (Socreatory) und Ralf D. Müller [6] (DB Systel). Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff, Schäfer oder Müller solo. Seit mittlerweile mehr als zwei Jahren berichtet heise Developer über die Episoden.
URL dieses Artikels:
https://www.heise.de/-11190754
Links in diesem Artikel:
[1] https://software-architektur.tv/
[2] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[3] https://software-architektur.tv/
[4] https://www.heise.de/developer/Continuous-Architecture-2687847.html
[5] https://www.socreatory.com/de/trainers/lisa-moritz
[6] https://techstories.dbsystel.de/blog/profiles/Ralf-D.-Mueller.html
[7] mailto:map@ix.de
Copyright © 2026 Heise Medien
(Bild: New Africa/Shutterstock.com)
Version 2.7 der Runtime für JavaScript und TypeScript stabilisiert die Temporal API, führt npm-Overrides ein und verbessert die Node.js-Kompatibilität deutlich.
Mit Deno 2.7 veröffentlicht das Team ein Update, das sowohl Web-Standards als auch die Node.js-Kompatibilität weiter voranbringt. Im Mittelpunkt stehen die Stabilisierung der Temporal API und eine erweiterte Kontrolle über Abhängigkeiten in package.json. Daneben liefert das Release offizielle Builds für Windows on ARM, zahlreiche Node.js-Fixes sowie ein Upgrade auf V8 14.5.
Mit Deno 2.7 verlässt die Temporal-API den experimentellen Status. Das bisher notwendige Flag --unstable-temporal entfällt. Damit folgt Deno der Entwicklung im V8-Ökosystem: Seit Chrome 144 (Januar 2026) ist die Temporal API ebenfalls standardmäßig verfügbar, nun holt Deno im Zuge des Upgrades auf V8 14.5 auf.
Ein Beispiel aus dem Ankündigungsbeitrag [1] soll die Neuerung verdeutlichen:
const today = Temporal.Now.plainDateISO();
const nextMonth = today.add({ months: 1 }); // immutable - today unchanged
const meeting = Temporal.ZonedDateTime.from(
"2026-03-15T14:30[America/New_York]",
);
const inTokyo = meeting.withTimeZone("Asia/Tokyo"); // same instant
Die Temporal-API soll die bekannten Schwächen des Date-Objekts beheben und bietet klar definierte Typen für Zeitpunkte, Datumsangaben, Zeitspannen und Zeitzonen. Entwicklerinnen und Entwickler erhalten damit präzisere Werkzeuge für komplexe Datums- und Zeitberechnungen – etwa bei wiederkehrenden Terminen, internationalen Anwendungen oder der Verarbeitung von Zeitstempeln mit Zeitzonenbezug.
Für Deno-Projekte bedeutet die Stabilisierung vor allem Planungssicherheit: Anwendungen können die Temporal-API produktiv einsetzen, ohne mit API-Änderungen rechnen zu müssen. Gleichzeitig soll sich die Interoperabilität mit modernen Browser-Umgebungen verbessern.
Ein zweites zentrales Feature ist die Unterstützung des overrides-Felds in der package.json. Deno baut damit seine Unterstützung für Node.js-Projekte weiter aus. Ziel bleibt laut Ankündigungsbeitrag, bestehende Node.js-Anwendungen mit möglichst wenigen Anpassungen unter Deno lauffähig zu machen.
Mit overrides lassen sich Versionen transitiver Abhängigkeiten gezielt überschreiben. Entwickler können so etwa eine verwundbare Unterabhängigkeit global auf eine sichere Version festnageln oder eine bestimmte Version erzwingen, wenn es Inkompatibilitäten gibt. Auch das vollständige Ersetzen einzelner Pakete innerhalb des Abhängigkeitsbaums ist möglich.
Gerade in größeren Projekten mit tief verschachtelten Dependency-Trees soll das die Kontrolle erheblich erhöhen. Sicherheits-Patches lassen sich schneller durchsetzen, ohne auf Upstream-Updates warten zu müssen. Für Teams mit strengen Compliance-Vorgaben ist das ein wichtiger Baustein.
Neben den beiden Kernneuerungen liefert Deno 2.7 erstmals offizielle Builds für Windows on ARM (aarch64-pc-windows-msvc). Auf Geräten wie dem Surface Pro X oder Snapdragon-basierten Notebooks läuft Deno damit nativ – ohne Emulationsschicht und die damit verbundenen Performance-Einbußen.
Auch bei der Node.js-Kompatibilität legt das Team deutlich nach. Zahlreiche Anpassungen in node:worker_threads, node:child_process, node:zlib oder node:sqlite schließen Lücken zum Node.js-Verhalten. Ergänzt wird das durch neue oder angepasste APIs [4] wie navigator.platform, SHA3-Unterstützung in der Web Crypto API oder Brotli-Support in CompressionStream und DecompressionStream.
Nähere Informationen bietet der Blogbeitrag [5]. Wer Deno bereits nutzt, aktualisiert wie gewohnt per deno upgrade. Erst Anfang Februar hatte Deno zudem seine Serverless-Plattform Deno Deploy allgemein verfügbar [6] gemacht und damit das Ökosystem rund um die Runtime strategisch ausgebaut.
URL dieses Artikels:
https://www.heise.de/-11190764
Links in diesem Artikel:
[1] https://deno.com/blog/v2.7
[2] https://enterjs.de/?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[3] https://enterjs.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_vo_enterJS.empfehlung-ho.link.link
[4] https://github.com/denoland/deno/pull/32025
[5] https://deno.com/blog/v2.7
[6] https://www.heise.de/news/Deno-Deploy-ist-allgemein-verfuegbar-11165515.html
[7] mailto:mdo@ix.de
Copyright © 2026 Heise Medien
Mitte März geht der neue, einfachere Schufa-Score online. Wir erklären, wo er Verbrauchern nützt und wo vor allem ärmere Menschen benachteiligt bleiben.
Will man in Deutschland einen Kredit aufnehmen, einen Mietvertrag abschließen oder ein Girokonto eröffnen, kann eine schlechte Schufa-Beurteilung der Bonität verheerend wirken. Deutschlands größte Auskunftei nimmt nun ein neues Berechnungsverfahren und Punktesystem für die Kreditwürdigkeit von Verbrauchern wie im April 2025 angekündigt [1] [1] in den Livebetrieb. Als Starttermin hat sie den 17. März 2026 genannt. Der neue „Score“ soll nach einer Übergangsphase von mehreren Jahren den viel komplexeren und intransparenteren Vorgänger vollständig ablösen.
Mit einem kostenlosen und halbdenglisch „Schufa-Account“ genannten Benutzerkonto soll künftig jeder Verbraucher gespeicherte Einträge und Daten direkt bei der Auskunftei online einsehen können. Mehr noch: Im Schufa-Account kann jeder nachvollziehen, wie Verträge oder Käufe auf seine Kreditwürdigkeit wirken und simulieren, wie neue Einträge den Score verändern.
Wir haben uns den Schufa-Account in einer Betaversion angesehen. Außerdem erklären wir, wie das neue Berechnungsverfahren funktioniert, welche strukturellen Probleme es nicht löst und weshalb das neue Scoring für einige Menschen sogar eine Verschlechterung bringen kann – vor allem ärmere und jüngere.
URL dieses Artikels:
https://www.heise.de/-11137495
Links in diesem Artikel:
[1] https://www.heise.de/news/Schufa-will-neues-Scoring-einfuehren-10340771.html
[2] https://www.heise.de/news/Schufa-will-neues-Scoring-einfuehren-10340771.html
[3] https://www.heise.de/hintergrund/Wie-die-Schufa-Ihre-Kreditwuerdigkeit-berechnet-7477527.html
[4] https://www.heise.de/ratgeber/Data-Profiling-Wie-Sie-anhand-Ihrer-digitalen-Spuren-verfolgt-werden-10663239.html
[5] https://www.heise.de/ratgeber/Buy-now-pay-later-Wie-Sie-Einkaeufe-spaeter-bezahlen-koennen-9771087.html
Copyright © 2026 Heise Medien
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden
(Bild: PicsEKa / Shutterstock.com)
Huawei steigert seinen Umsatz 2025 auf 127 Milliarden US-Dollar und erobert die Smartphone-Spitze in China zurück. Apple hat das Nachsehen.
Der chinesische Technikkonzern Huawei hat im Geschäftsjahr 2025 umgerechnet rund 127 Milliarden US-Dollar umgesetzt. Die Erlöse lagen damit bei mehr als 880 Milliarden Yuan – das zweitbeste Jahresergebnis in der Geschichte des Unternehmens.
Vorstandschef Howard Liang Hua stellte die Zahlen [1] laut South China Morning Post (SCMP) auf einer Wirtschaftskonferenz der Provinz Guangdong vor.
Seit die USA 2020 erstmals harte Sanktionen gegen Huawei verhängten, kämpft der Konzern mit eingeschränktem Zugang zu modernen Chips und westlicher Software.
Dennoch steigen die Einnahmen wieder: 2024 erwirtschaftete Huawei 862 Milliarden Yuan bei einem Nettogewinn von knapp 63 Milliarden Yuan. Rund ein Fünftel des Umsatzes [2] – etwa 180 Milliarden Yuan – floss direkt in Forschung und Entwicklung.
Besonders im Smartphone-Geschäft feiert Huawei ein Comeback. Laut dem Marktforscher IDC sicherte sich der Konzern 2025 mit 16,4 Prozent Marktanteil den Spitzenplatz in China – hauchdünn vor Apple mit 16,2 Prozent.
Damit steht Huawei erstmals seit fünf Jahren wieder an der Spitze der chinesischen Verkaufsrangliste.
Weil Google Android für Huawei-Geräte nicht mehr bereitstellt, setzt der Konzern auf sein eigenes Betriebssystem HarmonyOS. Die beiden jüngsten Versionen laufen nach Unternehmensangaben bereits auf über 40 Millionen Geräten, mehr als 75.000 Apps stehen bereit.
Gleichzeitig treibt Huawei den Ausbau seiner KI-Sparte voran. Die hauseigenen Ascend-Prozessoren dienen eigenen Angaben zufolge mittlerweile als Trainingsgrundlage für Dutzende große Sprachmodelle und sind mit über 200 frei verfügbaren KI-Modellen kompatibel.
Liang warb auf der Konferenz dafür, das Huawei-Ökosystem gemeinsam mit Partnern weiterzuentwickeln – durch offene Zusammenarbeit statt Alleingänge. Das Unternehmen wolle so die Verbindung zwischen digitaler und klassischer Wirtschaft stärken.
URL dieses Artikels:
https://www.heise.de/-11190174
Links in diesem Artikel:
[1] https://www.scmp.com/tech/big-tech/article/3344428/huaweis-2025-revenues-surge-us127-billion-firm-continues-defy-us-sanctions
[2] https://www.huawei.com/de/news/2025/huawei_veroffentlicht_jahresbericht_2024_ergebnisse_im_einklang_mit_der_prognose
Copyright © 2026 Heise Medien