Nvidia steuert DRA-Treiber und Tooling für reproduzierbare GPU-Cluster bei. Die CNCF begrüßt llm-d als neues Projekt, das verteilte Inferenz optimiert.
Auf der KubeCon und CloudNativeCon Europe 2026 in Amsterdam spielte Infrastruktur für KI wie auch letztes Jahr eine zentrale Rolle. Ein Großteil von Trainings- und Inferenz-Workloads laufen auf Beschleunigern von Nvidia. Jetzt stellt das Unternehmen den Dynamic-Resource-Allocation-Treiber (DRA) [1] für seine GPUs unter die Schirmherrschaft der CNCF (Cloud Native Computing Foundation). Mit dem Treiber kann Kubernetes flexibel GPU-Ressourcen anfragen und umverteilen, mittels NVLink über eine Vielzahl von Kubernetes-Nodes, auf denen DRA aktiviert ist.
Flankiert wird der DRA-Treiber von einem neuen Open-Source-Werkzeug namens AI Cluster Runtime (AICR) [2], das reproduzierbar GPU-beschleunigte Kubernetes-Cluster hochzieht. Es erstellt Snapshots und schreibt die Kombination aus Treiber, Kubernetes-Operator, Kernel und Systemkonfiguration in sogenannte Rezepte, die später von einem Paketmanager wie Helm oder einem GitOps-Werkzeug wie Argo CD genutzt und gegen die AI-Conformance-Anforderungen der CNCF [3]validieren.
Das AI-Conformance-Programm der CNCF baut auf dem Kubernetes-Conformance-Programm auf. Die Zahl der Plattformen, die sich „certified AI Platform“ nennen dürfen, hat sich seit dem Start im November von 18 auf 31 nahezu verdoppelt. Neu dazu gekommen sind unter anderem OVHcloud, SpectroCloud, JD Cloud und China Unicom Cloud.
Inferenz Beine machen
Eines der neuen CNCF-Projekte ist llm-d [5], das im Mai 2025 von Red Hat, Google Cloud, IBM, CoreWeave und Nvidia ins Leben gerufen wurde. Bisherige Methoden in Kubernetes für Routing, Autoscaling und Cache sind nicht unbedingt für Inferenz geeignet, weil es sich um einen höchst variablen und gleichzeitig Zustands-behafteten Workload handelt.
(Bild: CNCF)
Das Projekt orchestriert Kubernetes-Cluster und nutzt die Inferenz-Erweiterung für das Kubernetes Gateway API (GAIE). Die Verarbeitung von Prompts und Token-Generierung wird auf verschiedene Pods aufgeteilt, die unabhängig voneinander skaliert werden können. Außerdem verwaltet es den State und kümmert sich um Prefix-Caching. Dabei ist llm-d komplett Hardware-agnostisch und arbeitet mit CPUs, GPUs und TPUs verschiedener Hersteller. Inferenz-Optimierung mit llm-d soll die Time to First Token (TTFT) deutlich verringern und den Token-Durchsatz steigern.
Updates aus den Projekten
CNCF-Projekte werden je nach Reifegrad den Kategorien Sandbox, Incubating und Graduation zugeordnet. Die Policy Engine Kyverno hat den höchsten Reifegrad erreicht und ist jetzt ein graduiertes Projekt.
Neben llm-d ist auch das Agones-Projekt ein Neuzugang in der Sandbox-Kategorie. Die Plattform zur Orchestrierung von Gameservern [6] wurde 2017 von Ubisoft und Google ins Leben gerufen und jetzt an die CNCF übergeben.
Ein bisschen Souveränität
Man hätte meinen können, dass das CNCF-Event in Europa Open Source als Schlüssel zu Digitaler Souveränität mehr in den Fokus rückt. Man betonte jedoch lediglich, dass Code global verfügbar ist und weiter verfügbar bleiben muss. Gesetzesvorgaben und Compliance-Vorschriften seien auf Deployment- und Plattformebene zu lösen. Das Thema Souveränität wurde größtenteils in den Open Sovereign Cloud Day [7]ausgelagert.
Mit etwa 13.000 Teilnehmenden aus 100 Ländern und einem umfangreichen Programm aus 900 Sessions war die Konferenz bislang die größte KubeCon und CloudNativeCon [8].
URL dieses Artikels: https://www.heise.de/-11225512
Sonos Neuzugang widersteht schlechtem Wetter besser als seine Vorgänger und streamt per Bluetooth ohne Sonos-App. Der Test klärt, ob er auch gut klingt.
Wenn man die Nachbarschaft oder Passanten nicht stört, spricht nichts dagegen, draußen per Lautsprecher der Lieblingsmusik zu lauschen. Speaker-Spezialist Sonos hat dafür eine Option mehr auf Lager. Der Neuzugang namens Sonos Play landet am Donnerstag, 26. März 2026, für 350 Euro in den Verkaufsregalen.
Dort ordnet er sich in puncto Preis und Größe zwischen dem günstigen Winzling Roam 2 (200 Euro) und dem kostspieligeren Koloss Move 2 (500 Euro) ein. Mit dem Roam teilt er sich den robusten Wetterschutz gemäß Schutzklasse IP67, mit dem Move die umfangreichere Soundhardware in Form von drei eingebauten Lautsprechern sowie eine lange Akkulaufzeit von 24 Stunden. Für wen sich das Gesamtpaket inklusive Klangvermögen und Bedienkonzept am besten eignet, klärt der Test.
Outdoor-Speaker sind zum Mitnehmen gedacht. Dafür eignet sich der Sonos Play dank zwei Eigenschaften in Summe besser als die Alternativen aus gleichem Hause: Mit einem Gewicht von 1,3 Kilo wiegt er nur knapp mehr als ein Drittel des Move 2 und zieht beim Schleppen die Arme nicht in die Länge.
URL dieses Artikels: https://www.heise.de/-11215532
Links in diesem Artikel: [1] https://www.heise.de/tests/Smarter-Outdoor-Lautsprecher-Sonos-Play-im-Test-11215532.html [2] https://www.heise.de/hintergrund/Denon-Multiroom-Speaker-Erste-Geraete-unter-neuer-Fuehrung-11215260.html [3] https://www.heise.de/ratgeber/Heimkinoanlagen-mit-c-t-Messsignalen-in-Dolby-Atmos-optimieren-11079326.html [4] https://www.heise.de/ratgeber/Lautsprecher-und-Subwoofer-im-Bass-abstimmen-mit-c-t-Testsignalen-11136889.html [5] https://www.heise.de/tests/Shure-MXA902-im-Test-Decken-Mikrofonarray-fuer-Konferenzraeume-11155529.html
Die Rechenzentrumsbetreiber haben mehr Bedarf als verfügbar ist. Doch den Netzausbau zahlt die gesamte Gesellschaft.
Alexander Rabe, Geschäftsführer des Eco - Verband der Internetwirtschaft, am 25. März 2026 auf der Breko-Veranstaltung Fiberdays in Frankfurt/Main.Bild:
Eco
Die Nachfrage für Strom für Rechenzentren entwickelt sich dreimal schneller als das Angebot. Das hat Alexander Rabe, Geschäftsführer des Eco – Verband der Internetwirtschaft, am 25. März 2026 auf der Breko-Veranstaltung Fiberdays in Frankfurt am Main gesagt . "Wir haben eine massive Ausbaulücke" , erklärte Rabe, der erneut noch niedrigere Strompreise für die Rechenzentrumsbetreiber gefordert hat.
Doch schon heute zahlen Rechenzentrumsbetreiber kaum die Hälfte des Preises für eine Kilowattstunde, der den privaten Haushalten berechnet wird. KI-Rechenzentren zahlen noch weniger. Auch legt man den Ausbau der großen Übertragungsnetze wie Südlink über die Netzentgelte auf alle Stromkunden um.
Die Allianz zur Stärkung digitaler Infrastrukturen im Eco begrüßte am 26. März 2026 die vom hessischen Digitalisierungsministerium vorgestellten Eckpunkte. Insbesondere ein strategisch gesteuerter Ausbau der Rechenzentrumskapazität wurde von der Branche als positives Signal gewertet.
Entscheidung der Bevölkerung von Groß-Gerau abgelehnt
Béla Waldhauser, Sprecher der Allianz im Eco, erklärte: "Die stärkere Integration von Rechenzentren in das Energiesystem ist grundsätzlich richtig. Allerdings ist derzeit nicht ausreichend definiert, welche konkreten Anforderungen sich daraus für Betreiber ergeben." Konkrete Aussagen zum Ausbau der Stromnetze seien jedoch ausgeblieben.
"Wenn der Ausbau der Energieinfrastruktur nicht konsequent mitgedacht wird, bleibt dies auch weiterhin ein zentrales Nadelöhr für Wachstum. Schon jetzt hat die Großregion Frankfurt/Main zu wenig Stromkapazitäten für weitere Rechenzentren zur Verfügung" , so Waldhauser.
Aktuelle Entwicklungen wie die Ablehnung von Rechenzentrumsprojekten, etwa in Groß-Gerau, unterstreichen aus Sicht der Allianz die Bedeutung klarer und verlässlicher Rahmenbedingungen. Die Regierung müsse – offenbar unabhängig von der Entscheidung des Stadtparlaments – "die notwendigen Infrastrukturen ermöglichen – und dafür die richtigen Rahmenbedingungen schaffen" , erklärte Waldhauser.
SPD, Grüne, FDP, Freie Wähler und Linke stimmten gegen das Projekt eines US-Unternehmens. Es umfasste ein Investitionsvolumen von rund 2,5 Milliarden Euro und sah fünf Gebäudeblöcke auf einer Fläche von etwa 20 Fußballfeldern im Stadtteil Dornberg vor.
Die Anwohner hatten sich zuvor in einer Bürgerinitiative organisiert. Sie kritisierten vor allem die geplante Dimension der Gebäude, die mit mehr als 30 Metern die höchsten Hochhäuser der Stadt überragt hätten.
Der Cleverseat von Clouvou präsentiert sich als günstige Alternative zum Gaming-Stuhl. Nun ist er im Angebot.
Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Der Cleverseat von ClouvouBild:
Erzeugt mit ChatGPT; Amazon, Clouvou; Montage: Golem.de
Gaming-Stühle waren lange Zeit beliebt. Allerdings sind sie nicht so gut für langes Sitzen geeignet, wie viele denken. Zwar stellen höherpreisige Modelle auch ergonomische Funktionen bereit, aber schon in der Mittelklasse haben sie oft das Nachsehen. Kostenoptimierte Modelle um die 100 Euro sind keine gute Idee.
Wer auf die Sportsitzoptik verzichten kann, erhält für sein Geld bei einem ergonomischen Bürostuhl oft mehr. Solche Modelle sehen nicht grundsätzlich altbacken aus. Der deutsche Anbieter Clouvou setzt zum Beispiel auf Rollen, die vom Stil her an Inlineskater erinnern.
Interessant ist das Clever-Set. Das Modell ist bis 150 Kilogramm belastbar, soll sich für Personen bis zu einer Körpergröße von 1,95 Metern eignen und ist bei Amazon im zeitlich befristeten Angebot.
Was kann der ergonomische Bürostuhl?
Ausgestattet ist der Clouvou Cleverseat mit 4-D-Armlehnen: Die lassen sich nicht nur in der Höhe, sondern auch in der Tiefe, im Winkel und im Abstand zur Sitzfläche verstellen. Abgerundet wird der Stuhl durch eine verstellbare Kopfstütze. Dem Hersteller zufolge lässt sich die Rückenlehne um bis zu 135 Grad neigen.
Die Stuhlhöhe variiert zwischen 112 und 134 Zentimetern, je nach Sitzhöhe und Kopfstützeneinstellung. Die Sitzfläche ist 53 Zentimeter breit und 54 Zentimeter tief, man kann sie zudem in der Tiefe verstellen. Da Ergonomie kein feststehender Begriff ist, prüft man die Herstellerangaben vor dem Kauf am besten gründlich: Schließlich sind nicht alle Menschen gleich proportioniert.
Um Schwitzen im Sommer vorzubeugen, gibt es ein atmungsaktives Mesh-Design. Bodenschonend und geräuscharm sind laut Hersteller die Bladewheels.
Clouvou wirbt mit einem "sehr gut" in der Handhabung laut Chip.de und einem Testsieg mit der Note 1,4 bei Haus und Garten – dort wurden aber nur drei Bürostühle zum Test zitiert. Amazon-Kunden bewerten den Stuhl zusammen mit anderen Modellen mit 4,8 von 5 Sternen. Über 3.000 Kunden kauften das Modell im letzten Monat laut Produktseite
Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
zu.
Befristet im Angebot
Derzeit kostet der Stuhl bei Amazon 199,98 Euro nach 20 Prozent Nachlass auf die hinterlegte UVP. Dort wird das befristete Angebot, limitiert bis zum 5. April, durch Cleverseat selbst bereitgestellt. Diesen Preis gab es schon öfter, im 90-Tage-Mittel betrug der Preis laut Keepa 220,35 Euro.
Interne Bedenken und technische Hürden: OpenAI legt das Projekt eines Adult Mode für ChatGPT unbefristet auf Eis.
OpenAI stoppt das Erotik-Modell Citron (Symbolbild).Bild:
Scott Olson/Getty Images
OpenAI hat die Entwicklung eines intern als Citron Mode bekannten Erotik-Chatbots auf unbestimmte Zeit eingestellt. Wie aus Unternehmenskreisen verlautet, konzentriert sich das Start-up von Sam Altman wieder verstärkt auf seine Kernprodukte und Produktivitätswerkzeuge. Die Entscheidung folgt auf Warnungen von Investoren und Mitarbeitern vor den gesellschaftlichen Folgen sexualisierter KI.
Die Kontroverse wog so schwer, dass sie zu personellen Konsequenzen führte. Ein ehemaliger leitender Angestellter erklärte Medienvertretern, er habe das Unternehmen unter anderem wegen dieses Projekts verlassen.
"KI sollte nicht deine Freunde oder deine Familie ersetzen; man sollte menschliche Verbindungen haben" , so der Ex-Mitarbeiter laut eines Berichts der Financial Times . OpenAI bestätigte, dass es derzeit keine Zeitlinie für eine Veröffentlichung gebe, da man zunächst die Auswirkungen emotionaler Bindungen an KI-Systeme erforschen müsse.
Lehren aus dem Debakel bei xAI
Hintergrund für die Vorsicht sind Erfahrungen der Konkurrenz. Elon Musks Unternehmen xAI hatte im vergangenen Jahr einen massiven Vorstoß in Richtung Adult-Content unternommen, erntete jedoch einen weltweiten Shitstorm.
Das Modell Grok generierte gefälschte sexuelle Bilder realer Personen, darunter auch Kinder. Angesichts der Tatsache, dass soziale Medien wie Meta derzeit mit einer "rechtlichen Abrechnung" bezüglich der Schädigung von Kindern konfrontiert sind, stufte OpenAI das Reputationsrisiko offenbar als zu hoch ein.
Die Einstellung ist Teil einer Abkehr von sogenannten Side Quests. Das Management will Ressourcen bündeln, um ChatGPT zu einer "Super-App" für Produktivität auszubauen. In dem Rahmen gab OpenAI am 24. März 2026 zudem das Aus für das Videomodell Sora sowie die zugehörige Social-App bekannt.
Technische Hürden und mangelnder Jugendschutz
Neben ethischen Bedenken scheiterte das Projekt an technischen Hürden. Es erwies sich wohl als schwierig, die auf Sicherheit getrimmten Modelle derart umzutrainieren, dass sie zwar explizite Inhalte generieren, aber illegale Szenarien wie Inzest oder Bestialität zuverlässig filtern.
Zudem bereitet die Altersverifikation Sorgen. Ein System zur Altersschätzung soll laut Berichten des Wall Street Journals eine Fehlerquote von zwölf Prozent aufweisen. Da OpenAI bereits mit Klagen von Familien konfrontiert ist, die ChatGPT eine schädigende Wirkung auf Teenager vorwerfen, wog das Risiko eines unbefugten Zugriffs durch Minderjährige anscheinend schwerer als das wirtschaftliche Potenzial des Erotik-Modells.
Urteile gegen Meta markieren Paradigmenwechsel: Nicht Inhalte, sondern das Plattformdesign rückt in den Fokus der Justiz – Tech-Konzerne unter Druck.
In Los Angeles entschied eine Jury am Mittwoch zugunsten einer jungen Frau, die geltend machte, Meta und YouTube hätten sie mit süchtig machenden Funktionen abhängig gemacht, wie die New York Times [1] berichtet.
Die Geschworenen befanden, dass Meta bei der Gestaltung ihrer Plattformen fahrlässig gehandelt hätten. Sie sprachen der Klägerin sechs Millionen Dollar Schadenersatz zu.
Bereits einen Tag zuvor hatte in New Mexico eine Jury Meta für haftbar erklärt, weil das Unternehmen gegen Landesrecht verstoßen habe, indem es Nutzer seiner Apps nicht ausreichend vor Tätern sexualisierter Gewalt gegen Minderjährige schützte, so Associated Press [2].
Meta wurde zu einer Geldstrafe von 375 Millionen Dollar verurteilt.
Die Entscheidungen markieren einen Wendepunkt, da sie Social-Media-Unternehmen nicht für Inhalte haftbar machen, die von Nutzern gepostet werden – wofür sie durch Section 230 des Communications Decency Act von 1996 geschützt sind –, sondern für Personenschäden durch das Design ihrer Produkte.
Catherine M. Sharkey, Juraprofessorin an der New York University, sagte gegenüber der New York Times, die Auswirkungen der Gerichtsentscheidungen seien "sehr, sehr groß".
"Wir befinden uns in einer neuen Ära, einer digitalen Ära, in der wir Definitionen von Produkten neu denken müssen."
Die Jury in Los Angeles befand, dass süchtig machende Funktionen wie endloses Scrollen und automatisches Abspielen von Videos die Apps gefährlich machten.
Diese Entscheidung rückt die Beklagten näher an Hersteller von Tabak, Opioiden und Konsumgütern heran, die für Schäden an ihren Nutzern haftbar gemacht wurden, so Rechtsexperten laut der New York Times.
Im Fall aus New Mexico verhängte die Jury gegen Meta eine Geldstrafe wegen Verstößen gegen Verbraucherschutzgesetze – unter anderem, weil die Plattform unsicher gestaltet gewesen sei und Kinder auf Facebook, Instagram und WhatsApp ausgenutzt werden konnten, so Associated Press.
Wissenschaftliche Grundlage: Suchtmuster und psychische Gesundheit
Die Klagen basieren auf wissenschaftlichen Erkenntnissen über die Auswirkungen süchtig machender Nutzungsmuster auf junge Menschen. Eine Studie vom Juli 2025 – veröffentlicht im Journal of the American Medical Association (JAMA) und abrufbar über PubMed [3] – untersuchte, wie sich die Nutzung von sozialen Medien, Smartphones und Videospielen bei US-Jugendlichen entwickelt.
Die Forscher identifizierten dabei mehrere typische Entwicklungsverläufe. Bei sozialen Medien und Smartphones zeigten sich drei unterschiedliche Muster, bei Videospielen zwei. Auffällig: Fast ein Drittel der Teilnehmer entwickelte ab etwa elf Jahren eine zunehmend problematische Nutzung von sozialen Medien oder Mobiltelefonen.
Die Studie zeigt zudem einen klaren Zusammenhang zwischen intensiver Nutzung und psychischen Risiken. Jugendliche, deren Nutzung von sozialen Medien oder digitalen Spielen im Zeitverlauf stark zunahm, hatten ein deutlich höheres Risiko für suizidales Verhalten als Gleichaltrige mit geringer Nutzung. Bei sozialen Medien war dieses Risiko mehr als doppelt so hoch.
Generell galt: Wer digitale Angebote besonders intensiv nutzte, zeigte häufiger psychische Auffälligkeiten. Dabei traten bei intensiver Nutzung von Videospielen vor allem innere Probleme wie Angst oder Rückzug auf, während eine stark steigende Nutzung sozialer Medien eher mit impulsivem oder auffälligem Verhalten verbunden war.
Entscheidend ist auch: Nicht die reine Bildschirmzeit zu Beginn der Studie war ausschlaggebend – sondern wie sich die Nutzung im Laufe der Zeit entwickelte.
Die Klägerin im Fall aus Los Angeles sagte, sie habe im Alter von sechs Jahren begonnen, soziale Medien zu nutzen, und machte geltend, die Plattformen hätten bei ihr Personenschäden verursacht, darunter Körperbildstörungen und Gedanken an Selbstverletzung (Associated Press [4]).
Unternehmen bestreiten, Politik fordert Gesetze
Meta und YouTube bestreiten jegliches Fehlverhalten. "Psychische Gesundheit ist äußerst komplex und kann nicht mit einer einzelnen App in Verbindung gebracht werden", erklärte Meta in einer Stellungnahme [5].
José Castañeda, ein Sprecher von Google, sagte, der Fall "missversteht YouTube, das eine verantwortungsvoll entwickelte Streaming-Plattform ist, keine Social-Media-Seite". Beide Unternehmen kündigten an, Berufung einzulegen.
US-Abgeordnete erklärten, die Urteile unterstrichen die Notwendigkeit von Gesetzen zur Kindersicherheit [6]. Als Vorwurf wurde geäußert, dass die Lobbyarbeit der Unternehmen den Kongress daran gehindert, mehr zum Schutz junger Nutzer zu unternehmen. Hervorgehoben wurde etwa, dass die Urteile "von ganz normalen Menschen" stammen.
Parallel zu den Gerichtsurteilen gibt es in den USA auch gesetzgeberische Vorstöße. In Kalifornien hat Attorney General Rob Bonta [7] einen frühen Sieg bei der Verteidigung von SB 976 errungen, einem Gesetz, das die Fähigkeit von Social-Media-Unternehmen und anderen Website-Betreibern einschränkt, schädliche, süchtig machende algorithmische Feeds, Benachrichtigungen und andere süchtig machende Designmerkmale zu verwenden, um Kinder und Jugendliche stundenlang an die Plattformen der Unternehmen zu binden.
Europa setzt auf Regulierung: DSA-Leitlinien für Plattformen
Während in den USA die Justiz voranschreitet, verfolgt Europa einen regulatorischen Ansatz. Die EU-Kommission hat am 14. Juli 2025 Leitlinien zum Schutz von Minderjährigen [8] im Rahmen des Digital Services Act (DSA) veröffentlicht.
Die Leitlinien legen eine Liste verhältnismäßiger und angemessener Maßnahmen fest, um Kinder vor Online-Risiken wie Grooming, schädlichen Inhalten, problematischen und süchtig machenden Verhaltensweisen sowie Cybermobbing und schädlichen Handelspraktiken zu schützen.
Die Empfehlungen zielen vor allem darauf ab, Kinder auf Plattformen besser zu schützen und ihnen mehr Kontrolle zu geben. Konten von Minderjährigen sollen standardmäßig privat sein, um unerwünschte Kontakte zu verhindern. Gleichzeitig sollen Algorithmen so angepasst werden, dass Kinder seltener auf problematische Inhalte stoßen oder in endlosen Empfehlungsschleifen landen.
Zentrale Funktionen sollen sicherer werden: Kinder sollen andere Nutzer leichter blockieren oder stummschalten können und nicht ohne Zustimmung zu Gruppen hinzugefügt werden. Auch das Weiterverbreiten ihrer Inhalte – etwa durch Downloads oder Screenshots – soll eingeschränkt werden, um Missbrauch zu verhindern.
Auch sollen Mechanismen begrenzt werden, die gezielt zur intensiven Nutzung anregen – etwa automatische Wiedergabe, Push-Nachrichten oder Lesebestätigungen. Auch kommerzielle Praktiken wie virtuelle Währungen sollen stärker reguliert werden, damit Kinder nicht zu Ausgaben oder problematischem Verhalten verleitet werden.
Die Leitlinien empfehlen zudem verlässliche Altersprüfungen – vorausgesetzt, sie sind genau, datensparsam und diskriminierungsfrei. Sie sollen vor allem dort eingesetzt werden, wo es um den Zugang zu Inhalten für Erwachsene geht, etwa bei Pornografie oder Glücksspiel, oder wenn für bestimmte Online-Dienste ein Mindestalter gilt.
Deutschland: Frühe Nutzung, wachsende Gefahren
Für Deutschland hatte die KIM-Studie 2024 [9] des Medienpädagogischen Forschungsverbunds Südwest herausgefunden, dass mehr als die Hälfte der internetnutzenden Sechs- bis 13-Jährigen täglich online ist.
Damit verschiebt sich die intensive Nutzung digitaler Angebote bis ins Grundschulalter – oft inklusive der Nutzung von Social Media, obwohl diese laut Nutzungsbedingungen erst ab 13 Jahren erlaubt ist.
Die Risiken für Kinder und Jugendliche im Netz nehmen weiter zu. Darauf weist jugendschutz.net [10] hin. In vielen populären Diensten sind Heranwachsende Gewalt, Hass und sexualisierten Inhalten ausgesetzt. Allein 2024 registrierte die Organisation mehr als 17.000 Verstöße gegen den Jugendmedienschutz.
Wirksame Altersprüfungen, Schutzmaßnahmen und funktionierende Meldesysteme fehlen jedoch oft. Zwar setzen Plattformbetreiber zunehmend auf KI – doch bislang kaum zur Prävention.
Offene Fragen und Ausblick
Die langfristige Wirksamkeit der US-Urteile ist unklar. Die Unternehmen haben Berufung eingelegt, und es bleibt abzuwarten, ob die Urteile Bestand haben und tatsächlich zu Änderungen im Design der Plattformen führen.
Rechtsexperten warnen, dass es noch zu früh sei, um zu beurteilen, ob die Entscheidungen dieser Woche den Internetgiganten dauerhaft schaden werden. In der Vergangenheit konnten Social-Media-Unternehmen juristische Erfolge erzielen, indem sie sich auf Section 230 beriefen. Auch der Supreme Court hat sich solchen Argumenten gegenüber offen gezeigt.
Dennoch ist der Druck auf Plattformen und Politik gestiegen. Die Urteile werden als Reaktion auf die jahrelange Untätigkeit des US-Kongresses gesehen und erhöhen den Druck zur Verabschiedung von Gesetzen.
Sarah Kreps, eine Professorin und Direktorin des Tech Policy Institute der Cornell University, sagte laut Associated Press:
"Der Grund, warum dieser Fall folgenreich ist, liegt nicht im Einzelfall, sondern in der Art und Weise, wie er ein wegweisender Testfall sein könnte, der die Beilegung anderer Klagen leiten könnte."
URL dieses Artikels: https://www.heise.de/-11225755
Chronische Entzündungen belasten Millionen Menschen. Deutsche Mediziner arbeiten daran, Therapien individuell zuzuschneiden. Kann das funktionieren?
Chronisch-entzündliche Erkrankungen begleiten Betroffene ein Leben lang. Ob Morbus Crohn, Schuppenflechte, rheumatoide Arthritis oder Asthma – all diesen Leiden liegt eine überschießende Immunreaktion zugrunde, die Organe und die Lebensqualität angreift. Weltweit nimmt die Häufigkeit solcher Erkrankungen zu.
Traditionelle Therapien gestatten lediglich die Wahl zwischen einer geringen Zahl von Wirkstoffen. Zwar helfen herkömmliche Medikament vielen, versagen aber auch immer wieder.
Genau hier setzt die Präzisionsmedizin an. Statt Standardtherapien sollen künftig Behandlungen entwickelt werden, die individuell auf jeden einzelnen Patienten zugeschnitten sind. Der Exzellenzcluster [1] "Precision Medicine in Chronic Inflammation" (PMI) in Schleswig-Holstein arbeitet seit Jahren an dieser Vision.
Exzellenzcluster PMI
Rund 400 Wissenschaftler aus Medizin und Grundlagenforschung forschen gemeinsam [2] in diesem Verbund. Beteiligt sind die Christian-Albrechts-Universität zu Kiel, die Universität zu Lübeck, das Universitätsklinikum Schleswig-Holstein und weitere Forschungseinrichtungen wie etwa das Forschungszentrum Borstel und das Max-Planck-Institut für Evolutionsbiologie in Plön.
Die Forschenden verfolgen drei entscheidende Ziele:
Erstens wollen sie chronisch-entzündliche Krankheiten früher erkennen.
Zweitens möchten sie besser abschätzen können, wie die Erkrankung verlaufen wird und welche Komplikationen drohen.
Drittens – und das ist besonders wichtig für Betroffene – wollen die Forscher künftig vorab ermitteln können, welche Therapie im Einzelfall wirkt.
Menschen, die etwa unter chronisch-entzündlichen Darmerkrankungen wie Morbus Crohn oder Colitis Ulcerosa leiden, haben heute Zugang zu einer Reihe moderner, prinzipiell wirksamer Medikamente. Welches dieser kostspieligen Präparate im Einzelfall anschlägt, lässt sich bisher jedoch nicht sicher vorhersagen.
Forschende Ärzte
"Derzeit wenden wir zunächst eines der verfügbaren Medikamente an und können im Einzelfall erst nach drei Monaten sagen, ob die Therapie anschlägt oder nicht", erklärt [3] Dr. Konrad Aden vom Institut für Klinische Molekularbiologie der Universität Kiel. Der Internist und Gastroenterologe behandelt Patienten mit chronisch-entzündlichen Darmerkrankungen. "Wir glauben aber, dass es möglich ist, das schon im Vorfeld präzise voraussagen zu können."
Damit solche Vorhersagen Realität werden, braucht es Ärztinnen und Ärzte, die sowohl Patienten behandeln als auch forschen. Im normalen Klinikalltag bleibt dafür jedoch kaum Zeit. Der Exzellenzcluster PMI hat deshalb ein strukturiertes Programm für sogenannte Clinician Scientists aufgebaut – forschende Medizinerinnen und Mediziner.
Das Programm verschafft ihnen Zeit für Forschungsprojekte, während sie parallel ihre Facharztausbildung absolvieren. Der Weg zum Facharzt verlängert sich dabei nur unwesentlich.
Datenbanken für präzisere Diagnosen
Die Grundlage solcher Forschung bilden große Datensammlungen und moderne Analysetechniken. Das Kieler Sequenzierzentrum gehört zu den größten seiner Art in Deutschland und ermöglicht es, das Erbgut von Patienten schnell und kostengünstig zu analysieren.
Besonders wichtig sind zudem die Biobanken in Kiel und Lübeck. Die Biobank PopGen umfasst mehr als 500.000 Proben und Daten von rund 70.000 Patienten mit verschiedenen Krankheiten sowie eine Kontrollgruppe. Patientinnen und Patienten, die am Universitätsklinikum Schleswig-Holstein behandelt werden, können mit ihrer Zustimmung Restmaterialien aus diagnostischen Untersuchungen für die Forschung zur Verfügung stellen.
Vom Versuch zur Anwendung
Die Forschung im PMI-Cluster ist in drei Bereiche gegliedert: Die Basis bilden Technologieplattformen und Grundlagenforschung. Darauf bauen vorklinische Forschungsprojekte auf, die neue Therapieansätze entwickeln. Und schließlich werden diese Ansätze in klinischen Studien an Patienten erprobt.
Diese Studien sollen den Nutzen der Präzisionsmedizin bei Patienten mit chronischen Entzündungserkrankungen bestätigen. Sie sind jeweils spezifischen und vielversprechenden Diagnose- oder Therapieansätzen gewidmet.
Tuberkulose präzise behandeln
Ein weiteres Beispiel aus der Praxis beschreibt Dr. Jan Heyckendorf vom Forschungszentrum Borstel. Der Oberarzt erforscht neue Konzepte der Tuberkulose-Therapie und entwickelt maßgeschneiderte Therapien, um die Behandlungsergebnisse bei multiresistenter Tuberkulose zu verbessern und gleichzeitig Übertragungsrisiken zu vermindern.
Diese Arbeit basiert auf genombasierter Diagnostik: Durch die Analyse des Erbguts der Tuberkulose-Bakterien lässt sich feststellen, gegen welche Antibiotika diese resistent sind. So können Ärzte von Anfang an die richtigen Medikamente auswählen, statt verschiedene Präparate auszuprobieren.
Um den Forschenden Planungssicherheit bei den komplexen und teils langwierigen Untersuchungen zu gewähren, wird der PMI-Excellenzcluster in Schleswig-Holstein bereits seit 2019 gefördert. Voraus ging eine Excellenzinitiative, die 2007 ins Leben gerufen wurde.
Gesellschaftliche, soziale und ökonomische Fragen
Zwischen 2019 und 2025 flossen 52,2 Millionen Euro in den Forschungsverbund in Schleswig-Holstein. Nun ist die Förderung für weitere sieben Jahre verlängert worden [4].
Allerdings ist es mit der Forschung nicht getan. Die wesentlich aufwändigere und auch teurere Präzisionsmedizin wirft bedeutende gesellschaftliche, soziale und ökonomische Fragen auf vor allem zur Finanzierbarkeit der Therapien und der Gerechtigkeit in zugang zu den modernen Verfahren auf.
Als interdisziplinärer Forschungsverbund suchen [5] die Wissenschaftler im PMI-Cluster zwar bereits nach Antworten für diese Herausforderungen. Ob sie aber von der Politik gehört werden, steht auf einem ganz anderen Blatt.
URL dieses Artikels: https://www.heise.de/-11223855
Links in diesem Artikel: [1] https://www.exzellenzstrategie.de/exzellenzcluster/pmi/ [2] https://www.precisionmedicine.de/de/ueber-den-cluster [3] https://das-immunsystem.de/blog/2018/09/27/der-neue-exzellencluster-zur-praezisionsmedizin-staerkt-forschende-aerztinnen-und-aerzte/ [4] https://www.precisionmedicine.de/en/success-for-pmi [5] https://nachrichten.idw-online.de/2024/03/11/wie-kann-eine-praezisionsmedizin-fuer-chronische-entzuendungen-realitaet-werden
Infrastrukturschäden in Golfstaaten und jetzt Russland: Die Welt steht vor der schwersten Versorgungskrise seit Jahrzehnten – und ein Ende ist nicht in Sicht.
Die globale Ölversorgung wird derzeit von zwei Seiten gleichzeitig unter Druck gesetzt. Einerseits haben ukrainische Drohnenangriffe vor wenigen Tagen rund 40 Prozent der russischen Ölexportkapazität lahmgelegt, wie die Nachrichtenagentur Reuters unter Berufung auf eigene Berechnungen und Marktdaten berichtet [1].
Andererseits haben iranische Vergeltungsschläge mittlerweile zwischen 30 und 40 Prozent der Raffineriekapazitäten in den Golfstaaten beschädigt oder zerstört, wie Frankreichs Finanzminister Roland Lescure am Mittwoch mitteilte [2].
Zusammengenommen fehlen dem Weltmarkt damit Millionen Barrel pro Tag – bei einem Ölpreis, der bereits die Marke von 100 US-Dollar je Barrel überschritten hat. Der Preisanstieg dürfte sich bald beschleunigen und Verbraucher in allen Bereichen treffen. Es droht eine massive Inflationswelle [3].
Laut Lescure sind durch die iranischen Angriffe rund elf Millionen Barrel Tagesproduktion vom Markt genommen worden. Der französische Minister warnte, dass die Wiederherstellung der zerstörten Anlagen bis zu drei Jahre dauern könnte. Selbst jene Raffinerien, die lediglich vorsorglich heruntergefahren wurden, bräuchten mehrere Monate für einen Neustart.
Ukraine legt russische Exporthäfen lahm
Parallel dazu hat die Ukraine ihre Angriffe auf die russische Energieinfrastruktur in diesem Monat massiv ausgeweitet. Betroffen sind alle drei großen westlichen Exporthäfen Russlands: Noworossijsk am Schwarzen Meer sowie Primorsk und Ust-Luga an der Ostsee.
Nach Reuters-Berechnungen sind damit rund zwei Millionen Barrel pro Tag an russischer Rohölexportkapazität ausgefallen – die schwerste Versorgungsstörung in der modernen Geschichte des zweitgrößten Ölexporteurs der Welt.
Hinzu kommt die Druschba-Pipeline, die über ukrainisches Territorium nach Ungarn und die Slowakei führt. Laut Kiew wurde ein Abschnitt der Leitung bereits Ende Januar durch russische Angriffe beschädigt. Beide Empfängerländer fordern die sofortige Wiederaufnahme der Lieferungen. Der Ölhafen Noworossijsk, der bis zu 700.000 Barrel pro Tag umschlagen kann, arbeitet seit einem schweren Drohnenangriff Anfang des Monats nur eingeschränkt.
Darüber hinaus haben häufige Beschlagnahmungen russischer Tanker in europäischen Gewässern – darunter ein von der französischen Marine aufgebrachtes Schiff – laut Händlern weitere 300.000 Barrel pro Tag an arktischen Ölexporten aus dem Hafen Murmansk unterbrochen.
Kiew begründet die Angriffe damit, Moskaus Öl- und Gaseinnahmen schmälern zu wollen, die rund ein Viertel des russischen Staatshaushalts ausmachen. Russland bezeichnet die Angriffe als terroristische Akte und hat die Sicherheitsvorkehrungen landesweit verschärft.
Moskau bleibt vorerst auf seine Exportrouten nach Asien angewiesen. Die Pipelines nach China – Skoworodino-Mohe und Atasu-Alaschankou – sowie die Seeexporte der Sorte ESPO Blend über den Hafen Kosmino laufen weiter und machen zusammen rund 1,9 Millionen Barrel pro Tag aus.
Hinzu kommen etwa 250.000 Barrel täglich von den Sachalin-Projekten im Fernen Osten sowie rund 300.000 Barrel pro Tag für belarussische Raffinerien. Die Kapazitäten dieser Routen sind jedoch begrenzt, wie Händler gegenüber Reuters erklärten.
Verhandlungen und Realität
Ein Ende der Kampfhandlungen am Golf ist indes nicht in Sicht. US-Präsident Donald Trump bezeichnete die laufenden Gespräche mit Iran als "produktiv". Iranische Offizielle wiesen dies öffentlich als Falschmeldungen zurück, die den Ölpreis drücken sollten, wie der Nachrichtensender Al Jazeeraberichtet [4].
Hinter den Kulissen haben Ägypten, die Türkei und Pakistan in den vergangenen Tagen einen indirekten Kommunikationskanal zwischen Washington und Teheran aufgebaut, wie zwei hochrangige diplomatische Quellen in der Region gegenüber Al Jazeera bestätigten.
Die iranischen Forderungen sind weitreichend: Teheran verlangt die Rückführung eingefrorener Gelder, verbindliche Garantien gegen weitere Angriffe sowie ein neues regulatorisches Rahmenwerk für die Durchfahrt durch die Straße von Hormus.
Negar Mortazavi, Analystin am Center for International Policy in Washington, erklärte [5] gegenüber Al Jazeera, Iran wolle den Krieg zu eigenen Bedingungen beenden und dabei Sanktionserleichterungen, Reparationen und wirtschaftliche Hebel herausschlagen. "Diese Kontrolle über die Straße von Hormus bringt sie auf Ideen – ‚vielleicht können wir Durchfahrtsgebühren erheben wie anderswo auf der Welt' – solche Diskussionen gibt es in Iran", sagte Mortazavi.
Die Trump-Regierung hob am Freitag vorübergehend Sanktionen auf den Kauf von 140 Millionen Barrel iranischen Öls auf See auf, um die Preise zu entlasten. Beobachter halten es jedoch für unwahrscheinlich, dass Iran seinen Hebel ohne substanzielle Gegenleistungen aufgibt – zumal der Krieg Teheran wirtschaftliche Erleichterungen verschafft habe, die auf diplomatischem Weg nicht erreichbar gewesen seien.
Wie der Analyst Trita Parsi ausführte [6], hat der Krieg gegen Iran die Islamische Republik wirtschaftlich in eine überraschend günstige Position gebracht: Vor dem Krieg produzierte Iran knapp 1,1 Millionen Barrel Öl täglich, die zu einem effektiven Preis von rund 47 US-Dollar je Barrel abgesetzt wurden; heute liegt die Produktion bei 1,5 Millionen Barrel, der Verkaufspreis bei rund 107 Dollar.
Hinzu kommen gestiegene Petrochemieexporte an einen erweiterten Abnehmerkreis sowie neue Zahlungsmechanismen, die den bisherigen Umweg über die Vereinigten Arabischen Emirate umgehen. Für Parsi ist das Fazit eindeutig: Trumps und Israels Krieg hat Iran de facto Sanktionserleichterungen beschert – und damit den Anreiz Teherans, einem Waffenstillstand zuzustimmen, erheblich verringert, solange kein Abkommen auch formale Sanktionsaufhebungen enthält. Für Trump dürfte das nicht akzeptabel sein.
Düsterer Ausblick
Experten rechnen nicht damit, dass die Ölpreise in absehbarer Zeit sinken werden. Sollten die USA eine Bodeninvasion starten, würde dies eine schwere iranische Vergeltung auslösen, was zu einer noch massiveren Eskalation führen dürfte.
In Asien zeigt sich bereits, was andernorts droht: Länder wie die Philippinen, Thailand und selbst Australien stehen vor akuten Versorgungsengpässen. Dort drohen nicht nur höhere Treibstoffpreise, sondern leere Tankstellen und die Einstellung von Flugverbindungen.
Sollte die Krise bis Mitte oder Ende April andauern, warnen Beobachter vor schwerwiegenden Folgen, darunter zivile Unruhen und humanitäre Krisen in mehreren asiatischen Staaten.
Die Präsidentin der Europäischen Zentralbank, Christine Lagarde, versicherte, die EZB verfüge über mehrere Instrumente, um den durch den Krieg ausgelösten Inflationsschock zu bewältigen, und werde sich nicht "durch Zögern lähmen" lassen. Bislang ist jedoch noch keine Zinsanhebung in Sicht.
URL dieses Artikels: https://www.heise.de/-11225276
Links in diesem Artikel: [1] https://www.reuters.com/business/energy/least-40-russias-oil-export-capacity-halted-reuters-calculations-show-2026-03-25/ [2] https://www.france24.com/en/france-confirms-oil-crisis-says-30-40-gulf-energy-infrastructure-destroyed [3] https://www.tagesschau.de/wirtschaft/konjunktur/inflation-verbraucherpreise-energiekrise-100.html [4] https://www.aljazeera.com/news/liveblog/2026/3/25/iran-war-live-trump-again-says-talks-underway-12-killed-in-south-tehran [5] https://www.aljazeera.com/news/2026/3/25/is-irans-negotiating-position-stronger-than-when-us-israeli-war-started [6] https://x.com/tparsi/status/2036173360183361997?s=46&t=HA0F63X_3YY3NpLe8icuzg
Der Notch des MacBook ist nicht nur nutzlos: Er sorgt auch dafür, dass man in die Kamera schaut.
(Bild: Notchie.app)
Bei Vorträgen und Präsentationen vor der Webcam ist es häufig schwer, Texte abzulesen, ohne dass man den Blick abwendet. Die App Notchie hilft.
Die Anzahl der Videokonferenzen hat auch Jahre nach der Corona-Krise nicht nachgelassen: Egal ob Teams, Zoom, Google Meet oder WebEx, es wird noch immer viel vor der Kamera kommuniziert. Wer dabei etwas vorträgt, schafft es oft nicht, ständig „Augenkontakt“ mit den Zusehern zu halten. Der Grund: Erstens befinden sich die Gesprächsnotizen oft in einem anderen Bereich des Bildschirms, zweitens ist die Kamera auf MacBook & Co. auch nicht besonders gut für das direkte Hineinsehen platziert. Das Tool Notchie will hier Abhilfe schaffen: Es ist eine Kombination aus Teleprompter und „Kamera im Auge behalten“-App. Dazu bedient sich die Anwendung eines cleveren Tricks.
Blick zum Notch sorgt für Blickkontakt
Denn was Notchie tut, sagt bereits der Name: Vorlese- oder Notizen-Text werden direkt unter dem Notch aktueller Macs platziert, in dem wiederum die Kamera steckt. Das gilt für MacBook Pro in den Varianten mit 14 und 16 Zoll als auch beim MacBook Air – nur das Neo [1] hat keinen Notch. Der Vorteil der Textplatzierung unter dem Notch ist simpel: Genau in diesem versteckt sich die FaceTime-Kamera. Man hat seine Augen also stets dort, wo man auch hinschauen müsste, um den Blickkontakt mit dem Publikum aufrechtzuerhalten, was Präsentationen deutlich professioneller erscheinen lassen kann.
Notchie bietet verschiedene Möglichkeiten der Anpassung. So kann man die Textfläche vergrößern, zusammenziehen, an der Darstellung Veränderungen vornehmen und einiges mehr. Eine zentrale App dient der Steuerung, sie erfasst die jeweiligen Skripte, sodass man schnell zwischen diesen Hin und Her wechseln kann. Die Geschwindigkeit der Wiedergabe des Prompter-Texts ist ebenfalls anpassbar.
Scrollen mit der Sprache
Sehr nützlich ist auch das sogenannte Voice-Sync-Scrolling. Dabei soll sich die Prompterausgabe an der Sprache orientieren. Dafür muss man der App allerdings eine Mikrofonfreigabe erteilen.
Notchie steht nur für macOS zur Verfügung. Die App ist lobenswerterweise als Einmalkauf zu haben und erfordert kein Abo. Mit knapp 30 US-Dollar ist Notchie allerdings nicht ganz billig. Der Vertrieb erfolgt über Apples App Store [2], außerdem ist die App auch Teil des Setapp-Abo-Pakets [3]. Eine Demoversion, die allerdings nur Sitzungen von maximal fünf Minuten erlaubt, kann hier heruntergeladen [4] werden
URL dieses Artikels: https://www.heise.de/-11224321
Links in diesem Artikel: [1] https://www.heise.de/tests/MacBook-Neo-im-Test-Der-Budget-Mac-mit-dem-Smartphone-Herz-11205775.html [2] https://apps.apple.com/de/app/notchie/id6756745307?mt=12 [3] https://www.heise.de/hintergrund/Faltrate-fuer-Apps-Was-Setapp-leistet-und-fuer-wen-es-sich-lohnt-6165525.html [4] https://www.notchie.app/trial [5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [6] https://www.heise.de/mac-and-i [7] mailto:bsc@heise.de
Apples Office-Suite war lange die sorgenfreie Grundausstattung auf Macs & Co. Jetzt sind die Apps Freemium statt einfach kostenlos. Geht das zu weit?
Seit Jahren bietet Apple das iWork-Paket – Pages, Keynote und Numbers – den eigenen Kunden gratis an. Mit dem Start von „Apple Creator Studio“ wurden die Textbearbeitung, Tabellenkalkulation und Präsentationssoftware jetzt zu Freemium-Apps. Neue Funktionen und Zusatzelemente gibt es nur für zahlende Nutzer. Zudem weisen die Apps prominent auf das Abo-Paket hin. Torpediert Apple damit die eigene Office-Software?
PRO
Leo Becker ärgert, dass Apple in Pages & Co. nicht vor nerviger Abo-Werbung zurückschreckt.
Pages, Keynote und Numbers sind eigentlich richtig gute Anwendungen. Mit der Einführung des Abo-Bundles Creator Studio hat Apple diese über Nacht jedoch zu „Nagware“ degradiert – Nerv-Software, die auf dem Papier kostenlos bleibt, Nutzern aber bei jeder Gelegenheit ein Abonnement andrehen will.
Das ist ein Jammer: Für viele Jahre wertete die iWork-Gratisbeigabe nämlich jedes Apple-Gerät auf, und das ganz ohne Fallstricke. Etliche Neukunden dürfte es erfreut haben, dass sie eine zugeschickte Office-Datei einfach öffnen können, ohne erst Software kaufen und installieren zu müssen. Das penetrante Upselling zerschmettert den bisher so positiven Ersteindruck: Die Apps verweisen auffällig auf vermeintliche Premium-Inhalte und schrecken sogar vor farblich ins Auge stechenden Buttons für KI-Funktionen nicht zurück, die erst das Abo freischaltet. Ob es in Zukunft überhaupt noch kostenlose Neuerungen für die iWork-Suite geben wird, bleibt unklar.
Dabei hat Apple sich nicht einmal die Mühe gemacht, ein attraktives Zusatzangebot für iWork-Nutzer zu schnüren. Für ein paar durchschnittliche Stockfotos und Vorlagen sowie stark limitierte KI-Funktionen veranschlagt der Konzern 13 Euro pro Monat. Das ist ein guter Abo-Preis für die im Creator Studio enthaltenen Profitools Final Cut und Logic Pro, aber vollkommen absurd für all jene, die einfach nur Pages, Keynote und Numbers ungestört weiterverwenden wollen.
Apple propagiert gerne, den Kunden das „bestmögliche Computing-Erlebnis“ bieten zu wollen. Bei der Software verabschiedet sich der Hersteller zusehends von diesem hehren Ziel. Und das allein für einen Tick mehr Umsatz mit Abo-Diensten. (lbe [2])
CONTRA
Holger Zelder findet alles halb so wild.
Doppelte Apps! Hässlich! Abo-Falle! Als sich plötzlich zwei Versionen von Pages, Numbers und Keynote auf dem Mac fanden, waren viele Nutzer irritiert. Das Chaos hat aber praktische, technische Gründe: Mit den neuen Versionen hat Apple Universal-Apps eingeführt, die auf mehreren Plattformen funktionieren. Dadurch muss Apple künftig nur eine Version für iOS, iPadOS und macOS pflegen.
Den Vorwurf der „Zerstörung von Apples Office-Programmen“ halte ich für übertrieben. Ja, wer kein Creator Studio abonniert, bekommt ein wenig Werbung eingeblendet. Da bin ich aber Schlimmeres wie nervige Pop-up-Fenster oder täglichen E-Mail-Terror gewohnt. Apples Hinweise sind im Vergleich zur Konkurrenz dezent, sodass ich sie leicht ignorieren kann. Lila Buttons für Bildgenerator, Auflösungsverbesserung oder die kuratierte Mediathek, die nur Abonnenten nutzen können, lassen sich leicht aus der Symbolleiste verbannen. Alte Vorlagen funktionieren weiterhin. Und wer ohnehin stets mit den gleichen Dokumenten arbeitet, greift darauf zurück und lässt die mit Abo-Sternchen links liegen.
Immerhin muss sich der Nutzer nur entscheiden, ob er Geld für ein paar Templates und ein wenig mehr KI-Funktionen ausgibt. Wer den KI-Krempel nicht braucht, muss ihn nicht bezahlen und verpasst derzeit nichts. Selbst wenn Apple die Abo-Funktionen in Zukunft ausbauen wird, decken Numbers, Pages und Keynote den Office-Grundbedarf für die meisten Privatnutzer ab. Außerdem lassen sich selbst mit einem kostenlosen iCloud-Account Dokumente im Browser bearbeiten oder mit anderen teilen.
Bei der Konkurrenz sieht das anders aus: Wenn man in Word nur ein Dokument speichern will, wird man schon in ein Microsoft-365-Abo genötigt. Die Apple-Apps bleiben hingegen auch ohne das Apple-Abo benutzbar – und das immerhin seit 2017! (hze [4])
Apple hat einen von Nutzern häufig verwendeten Workflow zum manuellen Aktualisieren von iPhone-Apps verändert. Hier findet man die Updates nun.
Nanu, wo sind denn meine Aktualisierungen hin? Wer in dieser Woche iOS 26.4 [1] installiert hat, wird sich das schnell fragen, denn Apple hat an der Bedienung seiner App-Store-Anwendung geschraubt. Warum dies ausgerechnet jetzt erfolgte und nicht etwa mit Einführung von iOS 26 [2] im Herbst, ist unklar. Der Umfang führt jedenfalls dazu, dass Nutzer eine wichtige Funktion nur mit einem Klick mehr erreichen. Glücklicherweise gibt es allerdings auch einen schnelleren Weg.
Gut versteckt, Updates immer noch lahm
Bislang erfolgten Updates von iOS-Apps so: Man begab sich in den App Store, klickte auf das eigene Icon rechts oben – und sah die vorhandenen Aktualisierungen. Fehlten welche, lohnte es sich, die Ziehgeste durchzuführen, um die Ansicht auf den neuesten Stand zu bringen. Per Klick konnte man dann alle Updates durchführen oder einzelne. Da Apple sich auch bei aktiven automatischen Updates für iOS-Apps gerne etwas Zeit ließ, nutzten auch User die Funktion des Öfteren, die dem Betriebssystem die Aktualisierung überlassen hatten.
Nun taucht, wenn man das eigene Icon anklickt, nicht sofort die Update-Übersicht auf. Stattdessen werden unter anderem das Einstellungsmenü für das eigene App-Store-Profil, vorhandene Abos, Benachrichtigungseinstellungen oder die Einstellungen für Bewertungen und Reviews aufgeführt. Zudem gibt es Knöpfe, um etwa Geld hinzuzufügen, Gutscheincodes einzulösen, Apps zu verschenken oder die App-Store-Konfiguration zu ändern. Die Updates selbst sind noch da, wenn auch auf den ersten Blick versteckt: Man findet sie nun an Stelle drei auf diesem Screen.
Über den Homescreen geht es schneller
Klickt man die Option an, erscheint der übliche Aktualisierungsbildschirm, wenn auch nun im Vollbild. Auch ein „Ziehen um zu aktualisieren“ funktioniert hier weiterhin. Updates arbeiten wie gehabt. Auch an der teils langsamen Aktualisierungsgeschwindigkeit bei automatischen Updates hat Apple nichts geändert, oft muss man prüfen, ob nicht noch weitere Aktualisierungen vorliegen.
Wem der Zusatzklick unnötig erscheint, hat zum Glück einen schnelleren Weg zur Verfügung: Wie Mac & i in seinen ausführlichen Tipps zu iOS 26.4 [3] beschreibt, reicht es, länger auf das App-Store-Icon auf dem Homescreen zu drücken: Legen Sie den Finger auf das App-Store-Icon, bis das Kontextmenü aufklappt, und wählen Sie dort „Updates“. Dann landet man ohne Umwege direkt in den Aktualisierungen.
URL dieses Artikels: https://www.heise.de/-11224240
Links in diesem Artikel: [1] https://www.heise.de/news/iOS-26-4-ist-da-Diese-Neuerungen-bringen-die-Apple-Updates-11223122.html [2] https://www.heise.de/news/Apple-laesst-Liquid-Glass-frei-iOS-26-Co-zum-Download-verfuegbar-10646514.html [3] https://www.heise.de/ratgeber/21-Tipps-zu-iOS-26-4-Akku-Limit-Untertitel-Ambient-Widget-und-mehr-11224708.html [4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [5] https://www.heise.de/mac-and-i [6] mailto:bsc@heise.de
In aktuellen Firmwares für Archer-Router von TP-Link haben die Entwickler vier Sicherheitslücken geschlossen.
Aufgrund von mehreren Softwareschwachstellen können Angreifer TP-Link-Router der Archer-Serie komplett kompromittieren. Alle mittlerweile geschlossenen Lücken sind mit dem Bedrohungsgrad „hoch“ eingestuft.
Bislang gibt es keine Hinweise auf laufende Attacken. Der Hersteller rät Besitzern, die verfügbaren Sicherheitspatches zeitnah zu installieren.
Konkret sind die Modelle Archer NX200, NX210, NX500 und NX600 bedroht. In einer Warnmeldung versichern die Entwickler [1], die Lücken in den Firmwares 1.3.0 Build 260311, 1.3.0 Build 260309, 1.4.0 Build 260311, 1.5.0 Build 260309 und 1.8.0 Build 260311 geschlossen zu haben. Alle vorigen Ausgaben sind den Entwicklern zufolge verwundbar.
Die Gefahren
Am gefährlichsten gilt eine Authentifizierungs-Schwachstelle im HTTP-Server (CVE-2025-15517). An dieser Stelle können Angreifer ohne Anmeldung auf Geräte zugreifen und im schlimmsten Fall eine mit Schadcode präparierte Firmware hochladen und installieren.
Für die Ausnutzung zwei weiterer Schwachstellen (CVE-2026-15518, CVE-2026-15519) benötigen Angreifer Adminrechte. Ist das gegeben, können sie eigene Befehle auf Ebene des Betriebssystems ausführen.
Aufgrund eines hart codierten kryptografischen Schlüssels im Kontext der Gerätekonfiguration können Angreifer Einstellungen verbiegen (CVE-2025-15605).
URL dieses Artikels: https://www.heise.de/-11224988
Links in diesem Artikel: [1] https://www.tp-link.com/us/support/faq/5027/?ref=factide.com [2] https://pro.heise.de/security/?LPID=39555_HS1L0001_27416_999_0&wt_mc=disp.fd.security-pro.security_pro24.disp.disp.disp [3] mailto:des@heise.de
Mit Android 17 integriert Google eine Kontaktauswahl. Mit dieser können Nutzer nur jene Kontakte und Daten mit Apps teilen, die wirklich nötig sind.
Mit Android 17 [1], das sich aktuell noch in der Beta 2 befindet [2], will Google ein Kontaktauswahlwerkzeug – einen „Contact Picker“ – einführen, das einer generellen Freigabe sämtlicher Kontakte aus dem Adressbuch für Apps einen Riegel vorschieben soll. Damit will Google Datenschutz und Benutzerkontrolle unter Android weiter verbessern.
Mehr Kontrolle
Bislang nutzten Anwendungen, die Zugriff auf die Kontakte eines bestimmten Benutzers benötigten, die breit gefasste Berechtigung READ_CONTACTS. Mit einem Klick erhielten Apps damit Zugriff auf das gesamte Adressbuch, obwohl wohl meist nur einen Bruchteil der Daten für die Nutzung erforderlich ist. Die neue Kontaktauswahl, die mit dem Intent ACTION_PICK_CONTACTS in Android 17 Einzug hält, schränkt das uneingeschränkte „Abschnorcheln“ von Kontaktdaten ein. Hierfür bekommt die neue Android-Version eine „standardisierte, sichere und durchsuchbare Oberfläche für die Kontaktauswahl“.
So soll die neue Kontaktauswahl unter Android 17 aussehen.
(Bild: Google)
Das Unternehmen erklärt im Beitrag auf dem Android-Developer-Blog [3], dass mit dieser Funktion Nutzerinnen und Nutzer Apps nur Zugriff auf die von ihnen ausgewählten Kontakte gewähren können. Dies entspreche „dem Anspruch von Android auf Datentransparenz und minimalen Zugriffsumfang“.
Ähnlicher Ansatz wie beim „Photo Picker“
Google erklärt, dass die Kontaktauswahl-API in Android [4] 17 Unterstützung für detaillierte Datenabfragen bietet. So könnten Apps wie bisher auch die Erlaubnis zum Zugriff auf die Nutzerkontakte anfordern, aber in der neuen Android-Version können sie nur die von Nutzern ausgewählten Kontakte einsehen. Das Konzept entspricht dem des Fotoauswahlwerkzeugs („Photo Picker“), das Google im Jahr 2022 mit Android 13 eingeführt [5] hatte.
Darüber hinaus können diese Apps die spezifischen Datenfelder anfordern, die sie benötigen. Wenn eine App also Zugriff auf die in den Kontakten gespeicherten Telefonnummern wünscht, kann sie dieses einzelne Datenfeld anfordern, anstatt den gesamten Kontaktdatensatz abzurufen.
Außerdem soll Android 17 die Auswahl eines oder mehrerer Kontakte gleichzeitig über die neue Kontaktauswahl unterstützen, was die Abfrage von Berechtigungen für mehrere Kontakte vereinfachen dürfte. App-Entwickler können zudem festlegen, wie viele Kontakte Nutzer gleichzeitig auswählen dürfen. Bei Verwendung dieser Schnittstelle ist der Lesezugriff auf Kontaktdatensätze zeitlich begrenzt. Überdies verbessert das Kontaktauswahlwerkzeug den Zugriff auf Kontakte aus verschiedenen auf dem Gerät gespeicherten Benutzerprofilen wie Privat oder Arbeit sowie aus geklonten Profilen und privaten Bereichen.
Google empfiehlt App-Entwicklern, über die neue Kontaktauswahl zur Datenminimierung nur die wirklich benötigten Kontaktdatenfelder abzufragen, „um ein optimales Nutzererlebnis zu gewährleisten und hohe Sicherheitsstandards einzuhalten“. „Wenn Ihre App nur eine SMS senden muss, fordern Sie Phone.CONTENT_ITEM_TYPE an. In der Auswahl werden Kontakte ohne Telefonnummer automatisch herausgefiltert, was zu einer übersichtlicheren Bedienoberfläche für den Nutzer führt“, erklärt das Unternehmen. Die vollständige Dokumentation zur Kontaktauswahl [6] bietet Google auf der Android-Developers-Webseite an.
Die Veröffentlichung der stabilen Version von Android 17 wird im Laufe des Juni 2026 erwartet.
URL dieses Artikels: https://www.heise.de/-11225020
Agentevals macht KI-Agenten messbar: Das neue Tool von Solo.io nutzt Telemetriedaten und eigene Metriken, um Qualität und Effizienz zu bewerten.
Solo.io hat im Rahmen der KubeCon EU 2026 mit agentevals ein Open-Source-Werkzeug vorgestellt [1], das die Qualität von KI-Agenten messbar machen soll. Aus dem Bereich der LLMs (Large Language Models) kennt man den Vergleich von Eingabe und Ausgabe. Doch dieser Ansatz genügt bei Agenten nicht, denn sie greifen auf weitere Werkzeuge, Informationssysteme oder sogar andere KI-Komponenten zurück. Wie gut und effektiv ist die Schleife von Aufrufen? Das umfasst die Daten, die hin- und herfließen, aber auch die Auswahl der externen Instanzen und deren Anzahl.
Agenten evaluieren, bevor sie in Produktion gehen
Für diese Auswertung macht sich agentevals [3] bereits bekannte Methoden aus dem Machine Learning zunutze und verwendet vorhandene Telemetriedaten. Außerdem können Anwender eigene Metriken definieren und Schwellenwerte festlegen. Letzteres bezeichnet das Projekt als „Golden Eval Sets“.
Beispielhafte Auswertung von agentevals mit einer Liste von Evaluators
Damit lassen sich Agenten evaluieren, bevor sie in Produktion gehen. Tut die Software, was sie soll? Arbeitet sie kosteneffizient und mit den richtigen Mitteln? Agentenbasierte KI arbeitet konstruktionsbedingt nicht deterministisch – gleiche Eingaben können also unterschiedliche Ergebnisse liefern. Agentevals soll einen Teil dieser Vorhersagbarkeit wiederherstellen. Am einfachsten gelingt die Integration über OpenTelemetry [4], ein offenes Observability-Framework für verteilte Systeme. Hier lassen sich entsprechende Agenten ohne Codeänderung anweisen, ihre Telemetriedaten an die agentevals-Plattform zu schicken. Ebenso lassen sich historische Daten auswerten. Ein bereits entsprechend dokumentierter Agentenlauf lässt sich im Nachhinein mit agentevals inspizieren. Dafür bietet das Werkzeug eine webbasierte Oberfläche und einen Kommandozeilenzugang.
Zusammen mit agentevals hat Solo.io bereits vier Projekte im Bereich der KI-Agent-Infrastruktur veröffentlicht. Im Gespräch mit heise erklärte Keith Babo, Vice President, Product bei Solo.io, dass jedes Mal dieselbe Motivation dahinterstand. Die Frage lautete jeweils: Welche Lücke im Ökosystem der KI-Agenten muss dringend geschlossen werden? Den Anfang machte kagent [5]. Das Framework ermöglicht es, KI-Agenten nativ in Kubernetes – der weitverbreiteten Container-Orchestrierungsplattform – zu betreiben. Danach folgte agentgateway [6], eine Data Plane – also die Komponente, die den eigentlichen Datenverkehr verarbeitet – für KI-Agenten beziehungsweise deren Plattform. Sie unterstützt unter anderem die Protokolle MCP (Model Context Protocol) und A2A (Agent-to-Agent). Mit agentregistry lassen sich KI-Artefakte zentral verwalten und auditieren.
Projekte unter dem Dach der CNCF und Linux Foundation
Auf der KubeCon EU 2026 in Amsterdam übergab Solo.io agentregistry an die CNCF (Cloud Native Computing Foundation) und findet dort mit kagent [7] sogar schon einen Bekannten; agentgateway liegt bei der Linux Foundation [8]. Offen ist, welcher Foundation agentevals zugeordnet wird – und welche Lücke Solo.io als Nächstes schließen will.
Keith Sabo vermutet, dass im nächsten Schritt MCP und dessen breiterer Einsatz in den Fokus rücken. Konkret: Wie lassen sich bestehende REST-APIs in die Welt von KI und Model Context Protocol überführen? Eine 1:1-Abbildung funktioniert dabei nicht. Alles von Grund auf neu zu entwickeln, ist aber oft ebenfalls keine Option. Es bleibt abzuwarten, ob Solo.io dieses Thema als Nächstes angeht.
URL dieses Artikels: https://www.heise.de/-11224668
Das Webframework IHP 1.5.0 bringt eine neue Datenbankschicht, deutliche Performance-Gewinne und eine verbesserte modulare Architektur.
Das Webframework IHP liegt in Version 1.5.0 vor. Es handelt sich um das bisher größte Release des Open-Source-Projekts mit 1.051 Commits. Die Entwickler haben die gesamte Datenbankschicht neu geschrieben, die Performance an vielen Stellen verbessert und die Architektur modularisiert.
IHP (Integrated Haskell Platform) ist ein Webframework, das viele für Webanwendungen typische Funktionen bereits ab Werk mitbringt. Es kombiniert die funktionale Programmiersprache Haskell mit dem Paketmanager Nix. Nix sorgt dabei für reproduzierbare Entwicklungsumgebungen. Das Framework richtet sich an Entwickler und Teams, die Webanwendungen mit hoher Typsicherheit und möglichst wenigen Laufzeitfehlern bauen wollen. IHP liefert dafür alle nötigen Werkzeuge mit – vom Prototyping bis zur Produktion.
Neue Datenbankschicht halbiert Latenzen
Die größte Änderung in Version 1.5.0 betrifft den Datenbankzugriff. IHP wechselt vom älteren Treiber postgresql-simple auf hasql. Dieser aktuellere Treiber nutzt das binäre Protokoll von PostgreSQL und arbeitet mit vorbereiteten Anweisungen (Prepared Statements). In Produktionsumgebungen sinkt die Latenz bei Datenbankabfragen dadurch um bis zu 50 Prozent. Die bestehende Query-Builder-API bleibt unverändert – vorhandener Code funktioniert ohne Anpassungen weiter. Nur wer bisher direkt auf postgresql-simple zugegriffen hat, muss migrieren.
Darüber hinaus haben die IHP-Entwickler auch andere Teile des Frameworks beschleunigt. Laut Release Notes belegt der integrierte Entwicklungsserver – er basiert auf GHCi, der interaktiven Umgebung des Haskell-Compilers – jetzt nur noch 500 bis 800 MByte Arbeitsspeicher statt zuvor 4 GByte. Ferner soll die Session-Middleware bei Routen, die nicht auf die Session zugreifen, dreimal schneller arbeiten. Die URL-Generierung soll nach dem Update fünfmal schneller und die Render-Pipeline doppelt so schnell wie in der Vorgängerversion sein.
Das neue Paket ihp-typed-sql führt einen sogenannten Quasiquoter ein – ein Haskell-Mechanismus, der SQL-Syntax direkt im Code erlaubt. Das Besondere: Der Compiler verbindet sich während des Übersetzungsvorgangs mit der Entwicklungsdatenbank und prüft, ob Tabellen, Spalten und Datentypen korrekt sind. Er erkennt auch, welche Spalten durch LEFT JOIN Null-Werte annehmen können. Fehlerhafte SQL-Abfragen fallen so bereits beim Build auf, nicht erst zur Laufzeit.
Pipeline-Modus bündelt Datenbankabfragen
Mit der neuen Funktion fetchPipelined können Entwickler mehrere unabhängige Datenbankabfragen in einem einzigen Netzwerk-Roundtrip an PostgreSQL senden. Statt jede Abfrage einzeln abzuschicken und auf die Antwort zu warten, schickt IHP alle Abfragen direkt hintereinander. Die Datenbank verarbeitet sie und liefert die Ergebnisse gebündelt zurück. Das reduziert die Netzwerklatenz spürbar.
IHP ist mit dieser Version weniger monolithisch aufgebaut. Die Entwickler haben über 15 Module – darunter ihp-mail, ihp-datasync und ihp-schema-compiler – als eigenständige Pakete auf Hackage veröffentlicht, dem zentralen Paket-Repository für Haskell (vergleichbar mit npm für JavaScript oder PyPI für Python). Andere Haskell-Projekte können diese Bibliotheken damit nutzen, ohne das gesamte Framework einzubinden. Bestehende IHP-Projekte sind nicht betroffen: Die Module werden weiterhin aus dem Hauptpaket re-exportiert.
Weitere Neuerungen und nötige Anpassungen
Darüber hinaus bringt Version 1.5.0 unter anderem Custom Routes für individuelle URLs neben dem automatischen Routing, Unterstützung für zusammengesetzte Primärschlüssel (Composite Primary Keys) und einen Integrationstestmodus mit automatisch erzeugter temporärer PostgreSQL-Datenbank. Als Standard-Compiler dient nun GHC 9.10, experimentell unterstützt IHP auch GHC 9.12.
Da der Wechsel der Datenbankschicht und die Modularisierung einige inkompatible Änderungen (Breaking Changes) mit sich bringen, stellt das Entwicklerteam einen Upgrade-Guide mit Schritt-für-Schritt-Anleitung bereit. Alle Informationen finden sich in den Release Notes auf GitHub [1].
URL dieses Artikels: https://www.heise.de/-11225000
Links in diesem Artikel: [1] https://github.com/digitallyinduced/ihp/releases/tag/v1.5.0 [2] https://www.heise.de/ix [3] mailto:fo@heise.de
Mit Android 17 integriert Google eine Kontaktauswahl. Mit dieser können Nutzer nur jene Kontakte und Daten mit Apps teilen, die wirklich nötig sind.
Mit Android 17 [1], das sich aktuell noch in der Beta 2 befindet [2], will Google ein Kontaktauswahlwerkzeug – einen „Contact Picker“ – einführen, das einer generellen Freigabe sämtlicher Kontakte aus dem Adressbuch für Apps einen Riegel vorschieben soll. Damit will Google Datenschutz und Benutzerkontrolle unter Android weiter verbessern.
Mehr Kontrolle
Bislang nutzten Anwendungen, die Zugriff auf die Kontakte eines bestimmten Benutzers benötigten, die breit gefasste Berechtigung READ_CONTACTS. Mit einem Klick erhielten Apps damit Zugriff auf das gesamte Adressbuch, obwohl wohl meist nur einen Bruchteil der Daten für die Nutzung erforderlich ist. Die neue Kontaktauswahl, die mit dem Intent ACTION_PICK_CONTACTS in Android 17 Einzug hält, schränkt das uneingeschränkte „Abschnorcheln“ von Kontaktdaten ein. Hierfür bekommt die neue Android-Version eine „standardisierte, sichere und durchsuchbare Oberfläche für die Kontaktauswahl“.
So soll die neue Kontaktauswahl unter Android 17 aussehen.
(Bild: Google)
Das Unternehmen erklärt im Beitrag auf dem Android-Developer-Blog [3], dass mit dieser Funktion Nutzerinnen und Nutzer Apps nur Zugriff auf die von ihnen ausgewählten Kontakte gewähren können. Dies entspreche „dem Anspruch von Android auf Datentransparenz und minimalen Zugriffsumfang“.
Ähnlicher Ansatz wie beim „Photo Picker“
Google erklärt, dass die Kontaktauswahl-API in Android [4] 17 Unterstützung für detaillierte Datenabfragen bietet. So könnten Apps wie bisher auch die Erlaubnis zum Zugriff auf die Nutzerkontakte anfordern, aber in der neuen Android-Version können sie nur die von Nutzern ausgewählten Kontakte einsehen. Das Konzept entspricht dem des Fotoauswahlwerkzeugs („Photo Picker“), das Google im Jahr 2022 mit Android 13 eingeführt [5] hatte.
Darüber hinaus können diese Apps die spezifischen Datenfelder anfordern, die sie benötigen. Wenn eine App also Zugriff auf die in den Kontakten gespeicherten Telefonnummern wünscht, kann sie dieses einzelne Datenfeld anfordern, anstatt den gesamten Kontaktdatensatz abzurufen.
Außerdem soll Android 17 die Auswahl eines oder mehrerer Kontakte gleichzeitig über die neue Kontaktauswahl unterstützen, was die Abfrage von Berechtigungen für mehrere Kontakte vereinfachen dürfte. App-Entwickler können zudem festlegen, wie viele Kontakte Nutzer gleichzeitig auswählen dürfen. Bei Verwendung dieser Schnittstelle ist der Lesezugriff auf Kontaktdatensätze zeitlich begrenzt. Überdies verbessert das Kontaktauswahlwerkzeug den Zugriff auf Kontakte aus verschiedenen auf dem Gerät gespeicherten Benutzerprofilen wie Privat oder Arbeit sowie aus geklonten Profilen und privaten Bereichen.
Google empfiehlt App-Entwicklern, über die neue Kontaktauswahl zur Datenminimierung nur die wirklich benötigten Kontaktdatenfelder abzufragen, „um ein optimales Nutzererlebnis zu gewährleisten und hohe Sicherheitsstandards einzuhalten“. „Wenn Ihre App nur eine SMS senden muss, fordern Sie Phone.CONTENT_ITEM_TYPE an. In der Auswahl werden Kontakte ohne Telefonnummer automatisch herausgefiltert, was zu einer übersichtlicheren Bedienoberfläche für den Nutzer führt“, erklärt das Unternehmen. Die vollständige Dokumentation zur Kontaktauswahl [6] bietet Google auf der Android-Developers-Webseite an.
Die Veröffentlichung der stabilen Version von Android 17 wird im Laufe des Juni 2026 erwartet.
URL dieses Artikels: https://www.heise.de/-11225020
Doomscrollen, swipen, liken: Für viele, insbesondere junge Nutzer wird das gefährlich. Politiker sind alarmiert, denn die Gesetze greifen zu langsam.
Gerade jetzt hatten Sie sich zum Gespräch zusammengefunden, aber Ihr Gegenüber hebt ständig die Hand, glotzt aufs Smartphone und scrollt auf dem Display herum. Der Faden reißt, Sie fühlen sich wenig wertgeschätzt. Vielleicht beginnen Sie ebenfalls aufs Handydisplay zu starren. Was wie schlechte Manieren wirkt, ist oft das Ergebnis gezielt gestalteter Systeme, die Aufmerksamkeit binden sollen.
Die Kommunikationspsychologie hat für fast alles Begriffe. Das geschilderte Phänomen nennt sie „Phubbing [1] [1]“, zusammengesetzt aus „Snubbing“ (jemanden ignorieren) und „Phone“ (Telefon). Sicherlich greifen Menschen auch zum Smartphone, um unangenehmen Gesprächssituationen zu entfliehen. Hauptsächlich aber treibt sie die FOMO, die „Fear of missing out“, also die Furcht, etwas Wichtiges zu verpassen. Aus dieser Dynamik entsteht nicht nur Unhöflichkeit, sondern ein Nutzungsverhalten, das zunehmend Merkmale klassischen Suchtverhaltens zeigt. Die Nutzer verhalten sich wie in einer Spielhalle, ihre Hand immer am Griff des einarmigen Banditen. Doch wie viel davon ist individuelles Verhalten – und wie viel Ergebnis gezielt gestalteter Plattformen? Genau hier setzt unsere Analyse an.
Denn das Suchtverhalten lässt sich provozieren. Social-Media-Dienste, Shops und die Gaming-Industrie haben dafür perfide Methoden entwickelt. Immer geht es darum, Nutzer bei der Stange zu halten, Handlungsdruck zu erzeugen oder fade, kurze Glücksgefühle zu erzeugen. Und im Endeffekt soll das den Plattformen mehr Geld in die Kassen spülen.
URL dieses Artikels: https://www.heise.de/-11155641
Von iCloud-Abhängigkeit zu eigener Infrastruktur: Wie ein Entwickler sein digitales Leben weg von Apple migriert und alles selbst hostet.
Bild:
Mike Faust/Golem.de
Dieser Golem-Plus-Artikel ist 24 Stunden frei verfügbar.
Die Zahlen zeigen, wie tief Apple in Europa verankert ist: Im Februar 2026 lag iOS dort bei rund 38 Prozent Marktanteil , in Deutschland bei rund 36 Prozent. Hinter diesen Zahlen steckt mehr als ein schickes Telefon. Für viele ist das iPhone der Schlüsselbund fürs digitale Leben: Apple-ID, iCloud-Backups, Fotos, Passwörter, Kalender, Geräte-Log-in. Das fühlt sich nach Komfort an, ist aber eine strukturelle Abhängigkeit: Identität, Daten, Zugriff und Wiederherstellung hängen an einem einzigen Konto – und damit an einem einzigen US-Konzern.
Selbst wenn die Daten in Europa liegen, bleibt die Rechtslage unbequem : US-Gesetze wie der Cloud Act (PDF) führen dazu, dass Anbieter unter US-Jurisdiktion Daten herausgeben müssen , die sie selbst kontrollieren – unabhängig davon, wo sie gespeichert sind.
Genau deshalb habe ich begonnen, Apple den Rücken zu kehren – nicht aus Nostalgie fürs Basteln, sondern um meine digitale Infrastruktur wieder zu entkoppeln und sie migrierbar und unter meiner Kontrolle zu haben.
Der Auslöser war ein praktisches Problem: Ich brauchte neben meinem Arbeits-Mac eine zweite Maschine. Ich entschied mich für einen Framework-Laptop mit Linux. Der Single Point of Failure war mir schon länger bewusst, aber mit der Zweitmaschine war klar: Ich will meine Daten und Dienste unabhängig von einem Hersteller, Betriebssystem und Land verwalten.
Das Bündel-Problem verstehen
Apple ist nicht nur Hardware. Die Apple-ID ist Dreh- und Angelpunkt, iCloud nicht nur Speicher. Apples Cloud verwaltet Dateien, Fotos, Passwörter, Kalender, E-Mail und die Wiederherstellungsfunktion.
Die Folge: Sobald Apple den Hahn zudreht, habe ich nicht nur meine E-Mail-Adresse verloren, sondern auch den Zugriff auf Fotos, Dateien, Passwörter und womöglich auf andere Webdienste. Dabei muss es nicht einmal zu einer Kontosperre kommen. Sobald ein Passwort verloren geht oder ich nach mehrmaliger Fehleingabe temporär gesperrt bin, kommt mein ganzes digitales Leben zum Stillstand.
Der Lösungsansatz muss sein: Die vier Schichten – Identität, Daten, Zugriff und Wiederherstellung – von einem Hersteller trennen und auf verschiedene Dienste aufteilen.
Die Open-Source-Landschaft ist mittlerweile so stark gewachsen, dass es kein Hindernis mehr darstellt, all diese Dienste selbst zu betreiben. Eine Übersicht:
Schichten - Tabelle 1
Schicht
Was damit gemeint ist
Was Apple daraus macht
Identität
Wie ich erreichbar bin
@icloud und Apple-ID als Zentrum
Daten
Dateien, Fotos, Passwörter, Kalender
Alles in iClous, alles in meinem Konto
Zugriff
Geräte, Apps, Authentifizierung
Am besten mit Apple-Geräten
Wiederherstellung
Recovery, wenn etwas schiefgeht
"Vertrauen Sie dem Prozess"
Ein Punkt, den viele unterschätzen: Serverstandort Europa bedeutet nicht automatisch europäische Kontrolle.
Bei US-Anbietern spielt die Jurisdiktion eine Rolle. Der Cloud Act verankert, dass Anbieter Daten herausgeben müssen, die in ihrer "possession, custody or control" (Besitz, Gewahrsam, Kontrolle) liegen – unabhängig davon, ob sie innerhalb oder außerhalb der USA gespeichert sind.
Natürlich gibt es Rechtsrahmen für Datentransfers wie das EU-US Data Privacy Framework . Das ändert aber nichts an der praktischen Frage: Wie viel meines digitalen Lebens hängt technisch und organisatorisch an einem US-Konzern? Für mich war die Antwort: zu viel.
Die Migration planen
Der erste Schritt kann sich überwältigend anfühlen. Wer tief im Apple-Ökosystem steckt, ist sich oft gar nicht bewusst, wie viel der Konzern für ihn übernimmt. Über Jahre hat die Firma es perfektioniert, unsichtbar und im Hintergrund alles zu tun, damit sich Benutzer auf die Anwendungen und Spaß konzentrieren können. Schade, dass das jetzt zum Verhängnis wird!
Mein Plan war, alle Apple-Dienste mit Open-Source-Varianten zu ersetzen, die ich auch selbst hosten kann. Ich wählte Dienste nach Github-Aktivität und Verbreitung aus. Ich hoste sie alle selbst, die Daten sichere ich jede Nacht auf einem Server in einem anderen Rechenzentrum.
Einzig Domain und E-Mail unterliegen nicht direkt meiner Kontrolle. Die Domain muss ich bei einem Anbieter registrieren – schließt der mich aus, habe ich auch ein Problem.
Ich wählte zwei Domainnamen: einen für meinen Server, damit ich auf meine Dienste per URL und TLS zugreifen kann, und einen für meine E-Mail-Adresse.
Schichten - Tabelle 2
Schicht
Apple-Dienst
Alternative
Identität
@icloud-E-Mail
eigene Domain + Migadu
Daten: Dateien
iCloud Drive
Seafile
Daten: Passwörter
Apple Passwords
Vaultwarden
Daten: Fotos
Apple Photos
Immich
Daten: Kalender
Apple Calender
Radicale
Daten: Kontakte
Apple Contacts
Radicale
Daten: Musik
Apple Music
Jellyfin
Wiederherstellung
iCloud-Backup
Restic + Hetzner Storage Box
E-Mail-Adresse von Apple lösen
Der wichtigste Schritt ist oft der unspektakulärste: Weg von @icloud.com, hin zu einer Adresse auf einer eigenen Domain. Hierzu holte ich mir eine solche ( Hetzner bietet einen entsprechenden Dienst an ). Danach habe ich beim Schweizer Dienst Migadu ein Konto eröffnet. Dort kann ich meine Domain hinzufügen und Migadu liefert mir die 10 bis 14 DNS-Einträge, die ich bei meinem Domain-Registrar hinterlegen muss.
Sobald die Einstellungen aktiv sind (das kann zwischen fünf Minuten und einer Stunde dauern), empfange ich E-Mails an meine eigene Domain. Jeder E-Mail-Client, der IMAP und SMTP unterstützt, funktioniert damit. Ich persönlich nutze Thunderbird; die Konfiguration ist hier dokumentiert .
Auch bin ich aktuell Betatester von Thunderbird Pro . Dieser Dienst kann Migadu perspektivisch ersetzen und E-Mails werden damit in Deutschland gespeichert.
Die Basis ist ein dedizierter Server bei OVH: Xeon-Prozessor, 64 GByte RAM, 4 TByte Festplatte. Je nach Region gibt es verschiedene Konfigurationen. Ich habe mir den Server damals via Black-Friday-Angebot gesichert. 64 GByte RAM sind etwas viel, 32 GByte würden auch ausreichen. Vorsicht beim Speicher, der ist nicht problemlos zu erweitern. Ich nutze den Server für Bilder und Musik, brauche daher etwas mehr.
Auf dem Server läuft Debian mit Docker. Ich habe zuerst jeden Dienst von Hand installiert, merkte aber schnell, dass ein Docker-Setup zeitsparender ist. Docker macht das Aufsetzen und Aktualisieren einfacher, jedoch kommt etwas Komplexität bei den Netzwerkeinstellungen und Daten hinzu. Generell gilt: Docker-Netzwerk via 127.0.0.1:PORT und nicht 0.0.0.0, damit der Container keinen Zugriff auf das externe Netzwerk hat. Die Daten werden via volumes angehängt, damit sie einen Neustart überleben.
Jeder Dienst bekommt einen eigenen Container und eine Subdomain. Als Reverse Proxy nutze ich Caddy , der zwei wesentliche Vorteile gegenüber Nginx hat: Caddy holt sich TLS-Zertifikate automatisch über Let's Encrypt, zudem ist die Konfiguration wesentlich kürzer als bei Nginx. Diese ist minimal:
Jede Subdomain zeigt auf einen lokalen Port, hinter dem ein Docker-Container lauscht. Caddy kümmert sich um HTTPS. Den Server selbst habe ich strikt abgeriegelt: Alle Ports außer 80 und 443 sind geschlossen. Für SSH nutze ich einen eigenen Port statt des Standardports 22, damit automatisierte Scanner ins Leere laufen.
Passwörter mit Vaultwarden verwalten
Apple Passwords war bequem, aber plattformgebunden. Auch 1Password wäre eine Option, kostet aber monatlich Geld, und ich muss darauf vertrauen, dass meine Passwörter wirklich verschlüsselt gelagert sind. Ich entscheide mich für Vaultwarden , eine in Rust geschriebene Implementierung der Bitwarden-API. Alle offiziellen Bitwarden-Clients funktionieren damit: Browsererweiterungen, Desktop- und mobile Anwendungen.
Der Container lauscht nur auf localhost. Caddy stellt ihn per Reverse Proxy nach außen bereit, damit muss Port 8081 nicht der ganzen Welt zugänglich sein. Die Migration ist einfach: 1Password und Apple Passwords ermöglichen den Export als CSV-Datei. Vorsicht: Die Datei enthält Passwörter im Klartext, nach dem Import in Vaultwarden sofort löschen.
Wichtig: `SIGNUPS_ALLOWED=false` verhindert, dass sich Fremde an der eigenen Instanz registrieren. Beim ersten Setup kurz auf `true` setzen, den eigenen Account anlegen, dann wieder deaktivieren und den Container neu starten.
Mit Seafile ersetze ich iCloud Drive. Im Vergleich zu Nextcloud ist Seafile schlanker und auf Dateisynchronisation spezialisiert. Es nutzt ein eigenes Delta-Sync-Protokoll, das nur geänderte Blöcke überträgt – bei großen Dateien ein spürbarer Vorteil. Und ich muss kein komplexes Setup wie Nextcloud verwalten.
Das Docker-Setup besteht aus drei Containern: MariaDB als Datenbank, Memcached für das Caching und der eigentliche Seafile-Server:
Seafile bietet Desktop-Clients für Linux, MacOS und Windows sowie eine mobile App. Der Sync funktioniert zuverlässig, auch bei instabiler Verbindung. Ein Webinterface zum Verwalten von Bibliotheken (Seafiles Begriff für Ordnergruppen) gibt es ebenfalls.
Fotos mit Immich verwalten
Immich ist der ambitionierteste Ersatz in meinem Setup. Die Anwendung bietet Gesichtserkennung, Ortssuche auf einer Karte, automatische Alben und eine Zeitleiste – Features, die man sonst nur von Google Photos oder Apple Photos kennt.
Das Setup ist etwas aufwendiger: Neben dem eigentlichen Server braucht Immich PostgreSQL mit der pgvecto.rs-Erweiterung für die Vektorsuche, Redis als Cache und einen separaten Machine-Learning-Container:
Die mobile App (iOS und Android) lädt Fotos automatisch hoch. Der Machine-Learning-Container analysiert Bilder im Hintergrund und ermöglicht danach die Suche nach Personen, Objekten oder Orten. Wer von Apple Photos migriert, kann den Originalexport per Kommandozeile importieren. Immich ist das aktivste Projekt in meinem Stack – das Repository auf Github hat über 90.000 Sterne und ein sehr aktives Release-Intervall.
Hinweis: Der Import kann lange dauern. Ich selbst habe circa 35.000 Bilder aus der iCloud exportiert und via Web UI in Immich importiert. Es gibt auch eine hilfreiche CLI , mit der das etwas geschmeidiger geht. Bis Immich alle Bilder klassifiziert und die Metadaten ausgelesen hat, kann es bis zu 24 Stunden dauern (und verbraucht dabei viel RAM).
Für Kalender und Kontakte setze ich auf Radicale , einen leichtgewichtigen CalDAV-/CardDAV-Server. Radicale besteht aus einer einzigen Python-Anwendung, braucht keine Datenbank und speichert alles als Dateien. Die Konfiguration beschränkt sich auf wenige Zeilen. Jeder Client, der CalDAV und CardDAV unterstützt, wie Thunderbird, Gnome Calendar oder der iOS-Kalender, synchronisiert problemlos damit.
Für Musik nutze ich Jellyfin als Medienserver. Es ist ein Fork von Emby und komplett Open Source. Ich lade meine Musikbibliothek auf den Server und Jellyfin indiziert sie automatisch mit Metadaten und Coverbildern. Mit der Finamp-App (verfügbar für iOS und Android) habe ich unterwegs Zugriff auf meine Sammlung, inklusive Offline-Download. Apple Music brauche ich damit nicht mehr.
Backups mit Restic automatisieren
Ohne Backup ist Self-Hosting Selbstbetrug. Ich setze auf die 3-2-1-Regel: drei Kopien der Daten auf zwei verschiedenen Medien, davon eine extern. Die erste Kopie sind die Live-Daten auf dem Server. Die zweite liegt verschlüsselt auf einer Hetzner-Storage-Box in einem deutschen Rechenzentrum. Die dritte synchronisiere ich wöchentlich auf eine externe Festplatte.
Restic übernimmt die tägliche Sicherung. Das Tool dedupliziert und verschlüsselt Daten clientseitig, bevor sie per SFTP auf die Storage Box wandern. Ein systemd-Timer startet das Backup täglich um 2 Uhr morgens. Vorher erstellt ein Skript Datenbankdumps von PostgreSQL und MariaDB, damit die Sicherung konsistent ist.
Die Aufbewahrung ist gestaffelt: 7 tägliche, 4 wöchentliche, 12 monatliche und 2 jährliche Snapshots. Ältere Snapshots werden automatisch bereinigt. So wächst der Speicherverbrauch nicht unbegrenzt und ich kann trotzdem bis zu zwei Jahre zurückgehen.
Das Setup mit Ansible reproduzierbar machen
Wer noch mehr Automatisierung will, kann sich das Ganze via Ansible reproduzierbar machen. Der Artikel ist hierfür zu kurz, und es kann eine Weile dauern, sich mit Ansible vertraut zu machen. Aber das Prinzip ist klar: Ansible ermöglicht es, sogenannte Playbooks auszuführen. Via `site.yml` wird der Zielserver angegeben. Ansible verbindet sich anschließend mit damit, installiert Python (falls nicht vorhanden) und führt dann die einzelnen Schritte durch.
Dadurch kann das gesamte Setup mit einem einzelnen Befehl auf einen anderen Server aufgespielt werden:
Das Playbook durchläuft sieben Rollen: Basissystem, Docker-Installation, Caddy als Reverse Proxy, alle Docker-Dienste, Backup-Konfiguration, Wartungsskripte und Server-Härtung. Sensible Daten wie Passwörter und SSH-Schlüssel liegen verschlüsselt in einem Ansible Vault (AES-256).
Mein Self-Hosting-Setup kostet etwa 34 Euro im Monat:
Kosten pro Monat
Posten
Kosten / Monat
OVH-Server
25 Euro
Migadu-E-Mail
1,50 Euro
Domain
2 Euro
Hetzner Storage Box
5 Euro
Das Apple-Äquivalent (iCloud+ (2TB), Apple Music und optional 1Password) läge bei rund 25 Euro im Monat. Ich zahle also etwa 10 Euro mehr. Dafür habe ich einen dedizierten Server mit 64 GByte RAM und 4 TByte Speicher, auf dem neben meinen persönlichen Diensten auch Nebenprojekte laufen. Den Mehrpreis betrachte ich als Investition in Unabhängigkeit und Lerneffekt.
Fazit: Lohnt sich der Aufwand?
Die technische Migration war weniger aufwendig als erwartet. Docker-Compose-Dateien sind kein Hexenwerk, und die meisten Self-Hosting-Projekte haben mittlerweile hervorragende Dokumentation. Die eigentliche Hürde war mental: sich von der Bequemlichkeit eines integrierten Ökosystems zu lösen und bewusst Verantwortung für die eigene Infrastruktur zu übernehmen.
Der Wartungsaufwand liegt bei etwa 30 Minuten pro Monat: Container aktualisieren, Backup-Logs prüfen, gelegentlich Systemupdates einspielen. Ansible macht das reproduzierbar, Restic sorgt dafür, dass ich ruhig schlafen kann.
Für wen lohnt sich das? Wer in der IT arbeitet und Docker-Grundlagen mitbringt, kann das Projekt an einem Wochenende aufsetzen. Wer weniger technisch unterwegs ist, sollte zumindest den ersten Schritt machen: eine eigene E-Mail-Domain einrichten. Allein das löst die wichtigste Abhängigkeit.
Bastian Gruber arbeitet als Staff Software Engineer bei Mozilla und hat diesen Artikel als freier Autor für Golem geschrieben. Er dokumentiert seine Projekte auf seinem Blog .