FreshRSS

🔒
✇ Mac & i ff.org

Apple schickt Siri-Entwickler ins KI-Bootcamp

Von Heise — 16. April 2026 um 15:43
Siri auf verschiedenen Geräten

(Bild: Apple)

Apple schickt Siri-Entwickler laut einem Bericht in ein KI-Bootcamp, um sie im Einsatz von KI-Coding-Tools zu schulen und das Team zu modernisieren.

Apple [1] schickt angeblich eine größere Zahl von Entwicklern seiner Sprachassistenz Siri in einen mehrwöchigen KI-Lehrgang, damit diese lernen, wie sie KI-Coding-Tools für die Programmierung einsetzen können. Laut einem neuen Bericht will Apple dafür sorgen, dass das Team zu anderen Abteilungen im Hause aufschließt. Gerade die Arbeit des Siri-Teams steht in diesem Jahr besonders im Fokus der Öffentlichkeit, ist es doch bislang die im Jahr 2024 versprochene Weiterentwicklung des Sprachassistenten [2] schuldig geblieben.

Es gehe um weniger als 200 Personen aus einer Gruppe von insgesamt mehreren hundert Entwicklern. Nach dem Bootcamp sollen noch rund 60 Entwickler im Kern-Siri-Team verbleiben. Weitere 60 sollen für Qualitätssicherung und Sicherheits-Evaluierung verbleiben. Apple plant offenbar, ein kleineres, schlagkräftigeres Team zu bilden, das mithilfe von KI-Coding-Tools eine höhere Effizienz erreicht.

Intern als „Nachzügler“ verschrien

Der Bericht von The Information [3], der sich auf namentlich nicht genannte Quellen im Unternehmen stützt, knüpft an frühere Veröffentlichungen an, die ein eher betrübliches Bild der Siri-Abteilung [4] zeichneten. So soll das Siri-Team bei Apple intern seit Jahren als Nachzügler („laggard“) gelten. Es ist von aufgeblähten Strukturen und mangelnder Wettbewerbsfähigkeit die Rede.

Offiziell lassen sich die durchgesickerten Informationen nicht bestätigen, weil Apple zu solchen Interna schweigt. Allerdings deuten die Ergebnisse und personelle Umwälzungen der vergangenen Monate und Jahre darauf hin, dass es in der Siri-Abteilung Apples nicht rund läuft. Die im Jahr 2011 erstmals veröffentlichte Sprachassistenz [5] ließ schon vor dem Hype signifikante Weiterentwicklungen vermissen. Spätestens seit der Konkurrenz durch Chatbots wie ChatGPT, Claude und Gemini sieht Apples Siri aber richtig alt aus.

Neustart mit Gemini in iOS 27

Das sollte sich mit der Einführung der Apple Intelligence, die auf der Entwicklerkonferenz WWDC im Jahr 2024 vorgestellt wurde, signifikant ändern – tat es aber nicht. Stattdessen musste Apple die Veröffentlichung der angekündigten KI-Siri öffentlich verschieben [6]. KI-Chef John Giannandrea nahm seinen Hut [7]. An seiner Stelle hat Softwarechef Craig Federighi das Zepter übernommen. Er hat Mike Rockwell, der für die Vision Pro verantwortlich zeichnete, mit der Verantwortung für die Weiterentwicklung von Siri betraut.

Mit der Bekanntgabe, dass Google mit seinem KI-Modell Gemini künftig die Grundlage für die KI-Siri [8] bildet, schien der erhoffte Neuanfang erreicht. Der jetzige Bericht von The Information deutet aber darauf hin, dass die zu bewältigende Arbeit für die Modernisierung offenbar doch viel umfangreicher ausfällt. Beobachter wundern sich, dass Apple Teile seines Siri-Teams zwei Monate vor der WWDC auf einen Lehrgang schickt. Es könnte aber darauf hindeuten, dass die für iOS 27 erforderlichen Arbeiten größtenteils abgeschlossen sind und sich der Blick des Teams teilweise schon auf die kommenden Schritte richtet.

Auf der Weltentwicklerkonferenz Apples, die am 8. Juni beginnt, werden mit iOS 27 erste konkrete Ergebnisse [9] des Siri-Neustarts erwartet. Die neue Siri soll besser mit natürlicher Sprache zurechtkommen, gesprächiger sein und auch komplexe Aufgaben übernehmen können. Dazu gehört laut Brancheninsidern auch ein echter Chatbot-Betrieb mit eigener App [10], der längere Konversationen und eine Suchfunktion ermöglichen soll.


URL dieses Artikels:
https://www.heise.de/-11261019

Links in diesem Artikel:
[1]  https://www.heise.de/thema/Apple
[2] https://www.heise.de/news/Apple-Intelligence-Das-sagen-der-KI-und-der-Software-Chef-zum-Siri-Neubeginn-9757150.html
[3] https://www.theinformation.com/articles/apple-sends-siri-staffers-coding-bootcamp-latest-shakeup-organization
[4] https://www.heise.de/news/Siri-Chaos-Warum-Apple-seine-bessere-Sprachassistentin-nicht-hinbekommt-10347900.html
[5] https://www.heise.de/news/Was-Siri-versteht-1355676.html
[6] https://www.heise.de/news/Bericht-Neue-Siri-doch-nicht-in-iOS-26-4-11173689.html
[7] https://www.heise.de/news/Apples-frueherer-KI-Chef-John-Giannandrea-verlaesst-das-Unternehmen-11255446.html
[8] https://www.heise.de/news/Nach-Siri-Fail-Apple-setzt-fuer-KI-Modelle-auf-Google-Gemini-11138386.html
[9] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[10] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[11] https://www.heise.de/mac-and-i
[12] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

heise+ | Apple Business: Das können die neuen Unternehmensdienste

Von Heise — 16. April 2026 um 15:19
Nutzer von Apple Business

Nutzer von Apple Business: Keine Dienstleister mehr nötig?

(Bild: Apple)

Apple bündelt seine Angebote für Firmen und bringt die eingebaute Geräteverwaltung nach Deutschland – sogar kostenfrei. Die Details zum neuen Gesamtpaket.

Die neue Plattform für Geschäftskunden im Apple-Ökosystem ist da: Nach der Ankündigung von Apple Business im März [1] [1] geht es ab dieser Woche offiziell los. Das neue Paket kombiniert die bisher getrennten Dienste Apple Business Essentials, Apple Business Manager und Apple Business Connect in einer einzigen Oberfläche. Bestehende Daten migriert Apple automatisch. Kostenlose Geräteverwaltung, Markenmanagement auf Apple Maps plus Apple Mail und eine App-Verteilung für beliebig viele Geräte gehören zum Paket.

Nicht verfügbar sind in Deutschland vorerst die E-Mail-, Kalender- und Verzeichnisdienste, zusätzlicher iCloud-Speicher, AppleCare+ for Business (also eine Geräteversicherung für Geschäftskunden), Werbung in Apple Maps für Geschäftskunden sowie das Feature „Verifizieren mit Wallet im Internet“. Letzteres ist eine Funktion, mit der sich Nutzer über digitale Ausweisdokumente auf Websites identifizieren. Eine Übersicht der regionalen Verfügbarkeiten der einzelnen Dienste [2] [2] hat Apple in ein Supportdokument gepackt.

Für IT-Administratoren ist vor allem die eingebaute Geräteverwaltung interessant, die bislang als kostenpflichtiges US-Abo lief. Unternehmen, die Apple-Hardware einsetzen und bisher auf Mobile Device Management (MDM) verzichtet haben, erhalten damit erstmals ein Bordmittel. iPhones, iPads und Macs lassen sich per MDM von einem zentralen Ort aus konfigurieren, absichern und bei Verlust sperren.


URL dieses Artikels:
https://www.heise.de/-11260854

Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Business-Kostenlose-All-in-One-Plattform-fuer-Unternehmen-startet-11223070.html
[2] https://support.apple.com/de-de/126603

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

ÖPNV-Expressmodus-Funktion beim iPhone: YouTuber zeigen potenziellen Angriff

Von Heise — 16. April 2026 um 14:34
Angriff auf den Expressmodus

Angriff auf den Expressmodus: Visa sieht sich abgesichert.

(Bild: Veritasium / Screenshot YouTube)

Mit dem Expressmodus kann man in U-Bahn-Systemen wie in London oder New York schnell sein Ticket per NFC bezahlen. Besteht hier eine Sicherheitslücke?

iPhone und Apple Watch verfügen im Rahmen von Apple Pay über eine Funktion, die die Nutzung von Nahverkehrssystemen in aller Welt erleichtern soll. Mit dem sogenannten Expressmodus muss man sein Gerät nur noch an das Lesegerät an der Zugangssperre halten und löst dann automatisch sein Ticket über eine hinterlegte Kreditkarte. Das geht etwa in der New Yorker U-Bahn [1] oder in London. Ein Entsperren des Apple-Geräts per Fingerabdruck, Gesichtserkennung oder PIN ist nicht notwendig, sofern man den Expressmodus aktiviert hat.

Doch wie sicher ist das? Wäre es möglich, so auf fremde Kosten mit der bei Apple Pay hinterlegten Kreditkarte einzukaufen? Ein Video des bekannten Wissenschaftskanals Veritasium [2] hat das nun näher untersucht. Das Ergebnis: Mit (ziemlich viel) Mühe und spezieller Hardware sowie Karten eines bestimmten Kreditkartenausgebers konnte dem bekannten YouTuber MKBHD bei einem Testlauf eine größere Geldsumme entwendet werden.

Problem seit 2021 bekannt

Gänzlich neu ist der Ansatz nicht, bereits 2021 konnten Sicherheitsforscher der Hochschulen Surrey und Birmingham das Vorgehen demonstrieren [3]. Allerdings scheint sich seither wenig getan zu haben. Der Grund: Visa, der Kartenausgeber, der davon betroffen ist, meint, es sei unwahrscheinlich, dass es in der Praxis zu dem Angriff kommt. Zudem, sagte Apple gegenüber Veritasium, habe Visa mitgeteilt, dass der übliche Zahlungsschutz greift. Betroffene können die Kreditkartenbuchung also widerrufen, selbst wenn das mit viel Ärger verbunden sein dürfte.

Der Angriff selbst ist eine Man-in-the-Middle-Attacke: Das iPhone wird auf ein manipuliertes NFC-Lesegerät gelegt, das sich als legitimes ÖPNV-Terminal ausgibt. Es zieht Zahlungsdaten vom iPhone drahtlos ab, die dann wiederum an ein Notebook weitergereicht werden, auf dem sie mittels Python-Skript manipuliert werden. Die Informationen werden anschließend auf ein Burner-Gerät – offenbar ein Android-Telefon, das gerootet wurde – weitergeleitet. Letzteres führt dann die Transaktion auch tatsächlich aus, wenn es auf einen Kartenleser gelegt wird – mit den iPhone-Daten. Der manipulierte Leser musste die gleiche Terminal-ID haben wie ein legitimes Tap-to-Pay-Terminal in einer ÖPNV-Station. Die komplexe Methode funktioniert nicht mit MasterCard und American Express, da es hier offenbar weniger leicht ist, legitime Daten an das Android-Gerät weiterzuleiten.

iPhone lässt Summe als Kleinbetrag durch

Interessant: Eines der von den Forschern entdeckten Probleme war, dass iOS in der aktuellen Form offenbar darauf vertraut, dass das NFC-Lesegerät angibt, dass es sich bei der abgefragten Summe um eine geringe handelt. Tatsächlich gegen die Zahl geprüft wird das aber nicht, es wird nur ein Flag gelesen und diesem dann geglaubt. Bei Geräten anderer Hersteller sei das nicht so, sagt Veritasium. Das heißt: Es konnte dem iPhone vorgegaukelt werden, dass es sich um eine Kleinzahlung handelt, die für den Expressmodus üblich sind, während dann tatsächlich 10.000 US-Dollar abgebucht wurden.

Es ist unklar, ob Kriminelle die komplexe Methode tatsächlich einsetzen. Wer auf Nummer sicher gehen will, nutzt den ÖPNV-Expressmodus nicht mit Visa-Karten. Dann sollte die Angriffsform grundsätzlich nicht möglich sein.


URL dieses Artikels:
https://www.heise.de/-11260078

Links in diesem Artikel:
[1] https://www.heise.de/news/New-York-City-will-U-Bahn-Ticket-aufs-iPhone-bringen-10364410.html
[2] https://www.youtube.com/watch?v=PPJ6NJkmDAo
[3] https://www.heise.de/news/Apple-Pay-Funktion-erlaubt-angeblich-Geldklau-von-gesperrten-iPhones-6204960.html
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/mac-and-i
[6] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Counterpoint-Vorhersage: Apple reißt Foldable-Markt an sich

Von Heise — 16. April 2026 um 11:12
Mensch mit Foldable

Mensch mit Foldable (nicht von Apple): Das iPhone Ultra wird im Herbst erwartet.

(Bild: Karlis Dambrans / Shutterstock)

Das iPhone Ultra soll ab September Apples erstes Falt-Handy werden. In Nordamerika könnte es laut Marktforschern schnell Samsung & Co. überholen.

Wenn Apple mit seinem iPhone Ultra [1] im kommenden Herbst erstmals auf den Foldable-Markt vordringt, könnte der Hersteller schnell Marktanteile gewinnen. Davon geht zumindest das üblicherweise zuverlässige Marktforschungsunternehmen Counterpoint in einer in dieser Woche veröffentlichten Prognose aus. Allein in den USA könnte Apple demnach noch 2026 bis zu 46 Prozent des Gesamtmarktes an sich nehmen. Dank dem iPhone Ultra (das möglicherweise auch anders [2] heißt) soll der Markt für Falt-Handys zudem stark wachsen – laut Counterpoint bis zu 48 Prozent im Vergleich zum Vorjahr. Besonders viel Druck werde dabei auf Google mit seinem Pixel Fold [3] ausgeübt, aber auch Samsung und Motorola könnten mit ihren Foldables Marktanteile verlieren, schreibt Counterpoint.

Markt wird umgepflügt, meint Counterpoint

Bei Google sieht Counterpoint trotz möglicherweise überarbeiteter Hardware eine Marktanteilsschrumpfung von 5 Prozent auf 3 Prozent im Jahr 2026. Der Marktanteil von Motorola mit seinen Razr-Foldables gehe gar um fast die Hälfte (von 44 auf 23 Prozent). Auch für Samsung sagt Counterpoint Verkaufsverluste voraus: Der Marktanteil werde von 51 auf 29 Prozent zurückgehen, auch wenn der Konzern global bei Foldables besser aufgestellt sei und selbst ein Pass-ähnliches Faltbares [4] wie Apple plant.

Counterpoint hat mit seiner Prognosestudie nur auf den nordamerikanischen Markt geschaut. In anderen Weltregionen könnte Apple mehr oder weniger Marktanteil erzielen. In den USA werde Apple die Richtung des Marktes „signifikant ändern”, so Counterpoint-Analystin Liz Lee. Foldables sind aktuell allerdings sowieso nur ein Nischengeschäft.

Was passiert in China?

Der Foldable-Markt ist komplexer als andere Smartphone-Segmente. So werden viele Topmodelle aus China nicht in den USA oder Europa angeboten. So verkauft etwa Huawei seine Geräte nicht in den Vereinigten Staaten. Oppo, das mit dem Find N6 [5] zuletzt mit einem ersten nahezu „faltenfreien“ Foldable auf den Markt kam, bringt seine Geräte außerhalb Chinas nur langsam raus. Es kommt also zu Marktverzerrungen, weil nicht alle Geräte in allen Ländern verfügbar sind.

Spannend ist daher, wie sich der chinesische Markt entwickelt, wo immer wieder auch besondere Foldables – etwa Trifolds [6] – erschienen waren. Apple ist allerdings hervorragend positioniert, besonders teure Produkte in den Markt zu drücken. Der Konzern wird angeblich mindestens 2000 US-Dollar pro Ultra verlangen, mit mehr Speicher könnte es in Richtung 2800 Dollar gehen. Die Euro-Preise dürften bei Vollausstattung die 3000er-Marke knacken.


URL dieses Artikels:
https://www.heise.de/-11258867

Links in diesem Artikel:
[1] https://www.heise.de/news/iPhone-Ultra-Neues-zu-moeglichen-Preisen-Technik-und-Verfuegbarkeiten-11254203.html
[2] https://www.heise.de/news/iPhone-Foldable-Namensfragen-Mockups-und-moegliche-Verschiebung-11247703.html
[3] https://www.heise.de/news/Pixel-10-Pro-Fold-Foldable-ist-so-wasser-und-staubfest-wie-ein-Smartphone-10553245.html
[4] https://www.heise.de/news/Faltbares-Apple-Handy-Kommt-der-Formfaktor-des-iPhone-mini-als-Pass-zurueck-11125785.html
[5] https://www.heise.de/news/Foldable-Find-N6-Oppo-buegelt-die-Falte-aus-11213537.html
[6] https://www.heise.de/news/Nach-nur-drei-Monaten-Samsung-stellt-Verkauf-des-Galaxy-Z-TriFold-ein-11214319.html
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Mac: Native App für Gemini, Claude Code parallelisiert

Von Heise — 16. April 2026 um 10:34
Gemini-App auf dem Mac

Gemini-App auf dem Mac.

(Bild: Google)

Google und Anthropic rüsten auf dem Mac auf: Gemini kommt erstmals als eigene Anwendung, während Claude Code gleichzeitige Sessions beherrscht.

Seit Längerem schon gibt es native Apps von Claude, Claude Code, Perplexity oder ChatGPT für den Mac [1]. Google mit Gemini fehlte bislang. Das hat der Internetriese nun geändert: In der Nacht zum Donnerstag wurde die erste native App für das KI-System freigegeben. Die Anwendung läuft ab macOS 15 alias Sequoia und kostet nichts, solange man mit einem Gratis-Account zurechtkommt.

Shortcut und generative Modelle

Ähnlich wie ChatGPT oder Claude versucht sich Google mit der Gemini-App für macOS [2] an einer tieferen Integration ins System. Die App ist durch einen Tastaturbefehl zu erreichen, der an die macOS-Systemsuche Spotlight erinnert: Statt Command + Leertaste ist es Option + Leertaste. Ein vollständiges Gemini-Fenster erhält, wer zusätzlich die Umschalttaste drückt. Die App ist zudem via Dock und Menüleiste erreichbar. Wie bei der Konkurrenz lassen sich auch Bildschirminhalte und einzelne Fenster freigeben, damit Gemini diese analysieren kann und „kontextbezogene Hilfe“ bietet, so Google. Integriert sind außerdem generative Modelle für Bilder und Video, also Nano Banana [3] und Veo, die sich „mit einem Klick“ aufrufen lassen sollen. Weitere Google-Werkzeuge wie NotebookLM, aber auch Dateien, Drive und Fotos sind eingebaut, auch wenn letztere drei nicht zur KI-Suite gehören.

Google hat im Gegensatz zu Perplexity-Computer [4] und anderen Ansätzen wie OpenClaw derzeit noch keine Desktop-Automatisierungen eingebaut. Diese sind aber künftig geplant. „Wir legen den Grundstein für einen wirklich persönlichen, proaktiven und leistungsstarken Desktop-Assistenten – in den kommenden Monaten werden wir Ihnen weitere Informationen dazu mitteilen“, schreibt das Unternehmen. Bestehende Gemini-Accounts von Mobilgeräten können weiterverwendet werden.

Session-Player Claude Code

Neben der Gemini-App für macOS tut sich im Hinblick auf Mac-KI auch etwas beim Google-Konkurrenten Anthropic. Dort hat man nun dem Desktop-Client von Claude Code [5] neue Möglichkeiten verschafft. Er kann nun Sessions parallelisiert anzeigen und abfahren, Terminal-Fenster einblenden, mit verschiedenen Repos interagieren und mehr.

Ein YouTube-Video der neuen Features [6] wirkt anfangs recht chaotisch, da viele Entwickler mit parallelen Sessions arbeiten, ist der neue Funktionsumfang aber willkommen. Dabei gilt es zu beachten, ein ausreichend großes Claude-Paket abonniert zu haben. Die App ist auch für Windows und Linux zu haben, unter macOS und Linux kam nun auch SSH-Support hinzu.


URL dieses Artikels:
https://www.heise.de/-11259974

Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/KI-zu-Befehl-So-kontrollieren-Sie-mit-Kuenstlicher-Intelligenz-Ihren-Mac-11162430.html
[2] https://gemini.google/mac/
[3] https://www.heise.de/tests/Nano-Banana-ausprobiert-Die-beste-kostenlose-KI-Bildbearbeitung-von-Google-10621377.html
[4] https://www.heise.de/news/Perplexity-baut-Personal-Computer-auf-Mac-mini-Basis-11209166.html
[5] https://claude.com/blog/claude-code-desktop-redesign
[6] https://www.youtube.com/watch?v=rWaQSQEm_aY
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

heise+ | Orion im Test: Der Browser, der Chrome & Firefox vereint

Von Heise — 16. April 2026 um 10:00

Orion nutzt die Rendering-Engine von Apples Browser Safari, unterstützt Chrome- und Firefox-Erweiterungen und hält weitere nützliche Überraschungen bereit.

Der Browser ist die meistgenutzte Anwendung auf dem Rechner – und gleichzeitig die, über die sich viele am wenigsten Gedanken machen. Oftmals kommt so die vorinstallierte App oder einen Chrome-Klon zu Einsatz. Denn fast alle „alternativen“ Browser nutzen den technischen Unterbau von Googles Browser.

Das Unternehmen Kagi geht einen anderen Weg. Es setzt bei seinem Browser Orion auf das technische Fundament von Apples Safari-Browser und bettet sich gut in die Mac-OS-Welt ein. Auf die bei anderen Browsern allgegenwärtigen KI-Beigaben verzichtet der Hersteller bewusst.

Ich nutze den Browser seit ein paar Wochen als Standardbrowser und zeige, wo sich Orion bewährt hat. An einigen Stellen muss man ihn mit Erweiterungen aufrüsten. Und es gibt ein paar Details, bei denen der neue Browser noch nicht rund läuft.


URL dieses Artikels:
https://www.heise.de/-11229328

Links in diesem Artikel:
[1] https://www.heise.de/tests/Orion-im-Test-Der-Browser-der-Chrome-Firefox-vereint-11229328.html
[2] https://www.heise.de/ratgeber/Bookmark-Manager-Links-sammeln-und-clever-organisieren-11213553.html
[3] https://www.heise.de/ratgeber/YouTube-per-Bookmarklet-ohne-peinliche-Uebersetzungen-nutzen-11150540.html
[4] https://www.heise.de/tests/Comet-fuer-Android-Wie-Perplexitys-KI-Browser-die-Google-Suche-ersetzen-will-11099570.html
[5] https://www.heise.de/hintergrund/So-nutzen-Sie-Bookmarklets-zum-Automatisieren-im-Browser-11081590.html
[6] https://www.heise.de/ratgeber/WhatsWeb-Webseiten-Scanner-im-Test-11078848.html
[7] https://www.heise.de/ratgeber/KI-Browser-Was-hinter-den-Trojanische-Surfbrettern-steckt-10973803.html
[8] https://www.heise.de/tests/Smarter-surfen-Sieben-Browser-mit-KI-Funktionen-im-Vergleich-10665754.html
[9] https://www.heise.de/tests/Smarter-surfen-Sieben-Browser-mit-KI-Funktionen-im-Vergleich-10665754.html
[10] https://www.heise.de/hintergrund/Ungestoert-surfen-Werbung-Banner-Tracking-und-andere-Quaelgeister-loswerden-10501676.html

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Bericht: Grok stand angeblich kurz vor App-Store-Rauswurf

Von Heise — 15. April 2026 um 18:07
Zwei Finger tippen auf einem Smartphone auf die Grok-App

(Bild: Talukdar David/Shutterstock.com)

Einem Medienbericht zufolge stand die KI-App Grok kurz vor dem Ausschluss aus Apples App Store. Grund waren uneinvernehmlich erstellte Deepfake-Nacktbilder.

Der Vorwurf, der aus Kreisen der Politik und von Nutzern erhoben wurde, wog schwer: Fassen Apple und Google die Apps von finanz- und reichweitenstarken Unternehmen selbst bei eklatanten Verstößen gegen die App-Store-Regeln mit Samthandschuhen an? Dieser Verdacht ist in der Vergangenheit schon mit Blick auf die Apps von Meta laut geworden. Als jedoch bekannt wurde, dass das KI-Modell Grok uneinvernehmlich erstellte Deepfake-Nacktbilder von Frauen [1] und mutmaßlich auch von Kindern ermöglichte, schüttelten Kritiker nur noch mit dem Kopf. Wieso duldeten Apple und Google dies?

In einem nicht öffentlichen Brief an US-Senatoren, der jetzt durch NBC News veröffentlicht [2] wurde, tritt Apple dem Eindruck entgegen, dass das Unternehmen untätig geblieben sei. Sowohl xAI als Herausgeber der KI Grok als auch X als soziales Netzwerk, das Grok integriert, seien nach Beschwerden und Medienberichten kontaktiert worden. Auch habe Apple Verstöße gegen die Richtlinien festgestellt und den Firmen ein Ultimatum gestellt. Nur wenn sie ein Maßnahmenpaket zur Verbesserung der Content-Moderation umsetzen, bleibe ihnen der Rauswurf erspart. Auf politischer Ebene wird bereits über ein Verbot von KI-Systemen für Deepfakes [3] ohne Zustimmung diskutiert.

Grok angeblich kurz vor Rauswurf

X und xAI haben zwischenzeitlich reagiert und das Erstellen von Deepfakes erschwert. Laut NBC News sollen die Schutzmechanismen weiterhin umgehbar sein. Veröffentlichungen in einem Ausmaß von vor einigen Monaten waren zuletzt aber nicht mehr festzustellen. xAI habe Apple unter anderem Einschränkungen der Bildbearbeitungsfunktionen und stärkere Zugriffsbeschränkungen versprochen.

Laut dem Bericht soll Grok auch tatsächlich kurz vor dem Rauswurf gestanden haben. Während bei X rasch nachgebessert wurde, habe sich der Entwickler der Grok-App Zeit gelassen. In der Öffentlichkeit war von alledem freilich nichts zu bemerken: Apple äußerte sich öffentlich zu den Vorgängen nicht. Kritiker beharren indessen darauf, dass der iPhone-Hersteller im Falle eines Einzelentwicklers oder Start-ups die Regeln konsequenter durchsetzen würde. Erst kürzlich wurde bekannt, dass Apple Updates für Vibe-Coding-Apps blockiert [4], weil diese gegen technische Richtlinien verstießen.


URL dieses Artikels:
https://www.heise.de/-11259603

Links in diesem Artikel:
[1] https://www.heise.de/news/Sexualisierte-Deepfakes-von-Grok-Betroffene-Minderjaehrige-klagen-in-den-USA-11213108.html
[2] https://www.nbcnews.com/tech/tech-news/apple-threat-remove-grok-app-store-deepfake-letter-musk-x-ai-rcna331677
[3] https://www.heise.de/news/EU-Ausschuss-unterstuetzt-Verbot-von-Deepfake-faehigen-KI-Systemen-mit-Ausnahmen-11216979.html
[4] https://www.heise.de/news/Apple-blockiert-Updates-fuer-Vibe-Coding-Apps-11216714.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Luminar: KI-Tools für präzise Retusche und schönes Bokeh

Von Heise — 15. April 2026 um 15:32
Vergleichsbild einer Frau mit und ohne Retusche

Das überarbeitete Werkzeug „Skin AI“ trennt zwischen Haut- und Gesichtsretusche, um wie hier die Haut zu glätten.

(Bild: Skylum)

Luminar hat seine KI-gestützte Bildbearbeitung um neue und verbesserte Werkzeuge für die Porträtretusche und möglichst natürliche Hintergrundunschärfe ergänzt.

Der Softwarehersteller Skylum bemüht sich mit der neuen Version der KI-Bildbearbeitung Luminar 1.27 um möglichst naturgetreue Hautretusche, authentisches Bokeh und natürliche Übergänge bei Masken. Die neuen Funktionen sind laut Hersteller sowohl auf dem Desktop als auch auf Mobilgeräten einheitlich verfügbar. Luminar synchronisiert die Bearbeitungen zwischen den Geräten. Fotografen sollen dadurch nahtlos wechseln und weiterarbeiten können.

Porträtbearbeitung mit Skin AI und Face AI

Das überarbeitete Werkzeug „Skin AI“ trennt zwischen Haut- und Gesichtsretusche. Nutzer können so einzelne Bereiche bearbeiten, ohne das gesamte Gesicht zu verändern. Ein Blemish-Removal-Regler ersetzt die bisherige Checkbox zum Entfernen von Hautunreinheiten. Ziel ist ein natürlicher Look, der störende Details reduziert, aber die Hautstruktur erhält.

Per Regler statt wie bisher per Checkbox retuschiert Luminar 1.27 Hautunreinheiten.

(Bild: Skylum)

Das Face-AI-Werkzeug erkennt selbsttätig Gesicht, Augen und Mund. Es kann in der neuen Version Augenringe abschwächen. Das soll auch bei leicht gedrehten Gesichtern zuverlässig funktionieren.

Das Face-AI-Werkzeug schwächt in der neuen Version Augenringe ab.

(Bild: Skylum)

Natürlich maskierte Übergänge

Die neue Mask-Feather-Funktion sorgt für weiche Übergänge bei lokalen Anpassungen. Indem sie Übergänge zwischen bearbeiteten und unveränderten Bildbereichen glättet. Helligkeitskorrekturen oder Retuschen sollen damit natürlicher wirken.

Die Mask-Feather-Funktion glättet Übergänge zwischen bearbeiteten und unveränderten Bildbereichen.

(Bild: Skylum)

Bokeh-KI für mehr Tiefe im Bild

Der Filter „Bokeh AI“ bildet den Look lichtstarker Objektive nach. Er zeichnet den Hintergrund bei Porträts oder Tieraufnahmen weich und verleiht ihnen damit mehr Tiefe. Die Technik erzeugt mehrstufige Tiefenkarten, um die Geometrie der Szene vorherzusagen und Motive sowie Vorder- und Hintergrund zu trennen. So entsteht im Bestfall eine natürliche Unschärfe mit sanften Lichtpunkten.

Der Filter „Bokeh AI“ zeichnet den Hintergrund weich und verleiht Fotos damit mehr Tiefe.

(Bild: Skylum)

Preise und Verfügbarkeit

Das Update steht ab sofort für Windows und macOS sowie als Mobil-App für iOS, Android und ChromeOS zur Verfügung. Luminar kostet 140 Euro. Registrierte Nutzer erhalten das Update auf Version 1.27 kostenlos.

Siehe auch:


URL dieses Artikels:
https://www.heise.de/-11259046

Links in diesem Artikel:
[1] https://www.heise.de/download/product/skylum-luminar?wt_mc=intern.red.download.tickermeldung.ho.link.link
[2] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[3] mailto:akr@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Adobe Premiere Pro und After Effects: Präzise Farbsteuerung, schnelle Masken

Von Heise — 15. April 2026 um 15:00

Im „Color Mode“ von Premiere Pro lassen sich Farben für mehrere Clips simultan ändern.

(Bild: Adobe)

Mit einer neuen Farbsteuerung, KI-gestützter Maskierung und einer neuen Suchfunktion bringt Adobe nützliche Werkzeuge für professionelle Videocutter.

Die Videobearbeitungssoftware Adobe Premiere Pro 26.2 hat eine neu entwickelte Umgebung zur Farbkorrektur erhalten. After Effects 26.2 soll Personen und Objekte dank KI sauber maskieren und verfolgen können. Und die Cloud-Plattform Frame.io streamt künftig Videoinhalte.

Premiere Pro: Farbkorrektur im Color Mode

Nutzer können im „Color Mode“ Farbkorrekturen direkt im Schnitt erledigen, ohne in eine separate Umgebung wechseln zu müssen. Das Video bleibt in voller Größe sichtbar.

Zuerst passt man Belichtung, Kontrast oder Farbtemperatur an. Danach bearbeitet man einzelne Bildbereiche oder entwickelt Looks. Premiere Pro zeigt an, ob eine Anpassung nur einen Clip betrifft oder eine ganze Sequenz beeinflusst. Der Color Mode soll mit dem Anspruch der Nutzer wachsen. Einsteiger sollen mit wenigen Reglern arbeiten und Profis komplexe Farblooks entwickeln können.

Über Räder für Kontrast, Belichtung, Farbtemperatur, Balance und Sättigung beeinflusst der Color Mode in Premiere Pro 26.2 die Farbstimmung eines Videos.

(Bild: Adobe)

Überblick bei komplexen Projekten

Eine neue Suchfunktion hilft Anwendern, die mit umfangreichen Projekten arbeiten. Sie macht die Timeline nicht nur oberflächlich, sondern bis auf Clip-Ebene durchsuchbar. Premiere Pro legt dazu einen Index mit Clipnamen, Spuren, Effekten, Markern und weiteren Metadaten an. Die Suche lässt sich außerdem nach Clips, Effekten oder Markern filtern.

After Effects: KI-gestützte Maskierung

Neben der Farbkorrektur hat Adobe KI-Werkzeuge zur Objektauswahl und Maskierung ergänzt. Bewegte Motive sollen sich schnell freistellen, Kanten präzise bearbeiten und feine Details wie Haare sauber erfassen lassen. Adobe kombiniert dabei Bildanalyse, Objekterkennung und Bewegungsverfolgung, um typische Objekte wie Menschen, Gesichter, Kleidung oder Gegenstände zu erkennen.

After Effects 26.2 soll Motive schneller und präziser freistellen und verfolgen können als zuvor.

(Bild: Adobe)

Frame.io streamt Videos

Eine neue Desktop-Anwendung für den Cloud-Dienst Frame.io Drive bindet Videoprojekte wie ein lokales Laufwerk ein. Dateien sollen sich damit ohne Download oder Synchronisation in Premiere Pro, Photoshop oder After Effects nutzen lassen. Statt Dateien zu verschicken oder zu kopieren, greifen Teams gleichzeitig auf eine gemeinsame Datenbasis zu. Damit entfallen Probleme wie Versionskonflikte oder verzögerte Datenübertragung. Die Inhalte werden bei Bedarf gestreamt, ein Zwischenspeicher sorgt für flüssige Wiedergabe.

Preise und Verfügbarkeit

Die Updates für Premiere Pro und After Effects stehen laut Adobe ab sofort für Kunden der Creative Cloud zum Download zur Verfügung. Die Frame.io-App will Adobe schrittweise und zunächst nur für Unternehmenskunden einführen. Das Komplett-Abo Creative Cloud Pro kostet 78 Euro monatlich. Ein Einzelabo von Adobe Premiere Pro oder After Effects kostet jeweils 26 Euro pro Monat.

Siehe auch:


URL dieses Artikels:
https://www.heise.de/-11258200

Links in diesem Artikel:
[1] https://www.heise.de/download/product/adobe-premiere-pro-33612?wt_mc=intern.red.download.tickermeldung.ho.link.link
[2] https://www.heise.de/download/product/adobe-after-effects-36621?wt_mc=intern.red.download.tickermeldung.ho.link.link
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:akr@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Tipp: Verwaiste Songs aus der Musik-App entfernen

Von Heise — 15. April 2026 um 09:00

Wer bei Aufräumaktionen auf der SSD Musik löscht, steht womöglich mit einer unvollständigen Musik-App-Datenbank dar. So bereinigen Sie diese wieder.

Ich habe meine SSD aufgeräumt und dabei auch lokale Musik mit dem Finder gelöscht. Nun gibt es in der Musik-App viele Einträge mit einem Ausrufezeichen. Wie kann ich diese gesammelt anzeigen und dann entfernen?

Leider gibt es kein direktes Kriterium für intelligente Wiedergabelisten, um solche Tracks aufzuspüren. Aber selbst, wenn es das gäbe, wäre es nur bedingt hilfreich.

Die Musik-App erkennt fehlende Dateien nämlich erst, wenn sie (vergeblich) auf sie zugreifen möchte, etwa bei der Wiedergabe oder beim Anzeigen von Metadaten.

In der Regel schlummern also viele Einträge in der Datenbank, bei denen die App noch gar nicht weiß, dass die zugehörigen Dateien nicht mehr existieren.

Es gibt aber einen Trick, der ohne Zusatztools auskommt. Damit er korrekt funktioniert, müssen Sie sicherstellen, dass sich keine gelöschten Dateien im Papierkorb befinden.

Die Musik-App findet diese und merkt sich den neuen Dateipfad – der Papierkorb ist im Prinzip auch nur ein Ordner.

Wechseln Sie in die Ansicht Titel und wählen dort mit Command + A alle Songs aus. Erstellen Sie nun über „Ablage > Neu > Playlist aus Auswahl“ (Umschalt + Command + N) eine Wiedergabeliste, die den gesamten Inhalt Ihrer Mediathek enthält.

Geben Sie ihr einen Namen, den Sie gut erkennen können, etwa „Alle Tracks (temp)“. Wenn Sie Songs zu einer Playlist hinzufügen, prüft die Musik-App, ob entsprechende Dateien noch im Dateisystem vorliegen.

Ist das nicht der Fall, fügt die App die verwaisten Einträge auch nicht zur neuen Wiedergabeliste hinzu.

Mit einer Behelfsplaylist überprüft die Musik-App alle Einträge auf fehlende Dateien
Mit einer Behelfsplaylist überprüft die Musik-App alle Einträge auf fehlende Dateien

Mit einer Behelfsplaylist überprüft die Musik-App alle Einträge auf fehlende Dateien.

Erstellen Sie jetzt über „Ablage > Neu > Intelligente Playlist“ (Option + Command + N) eine regelbasierte Wiedergabeliste. Ändern Sie hier das Kriterium „Künstler:in“ in „Playlist“, wählen daneben „ist nicht“ und dann die zuvor angelegte Playlist „Alle Tracks (temp)“ aus.

Mit „OK“ zeigt die Musik-App nun den intelligenten Ordner an, der alle Songs aufführt, die nicht in der zuvor angelegten Playlist enthalten sind.

Schalten Sie die Ansicht auf „Darstellung > Als Titel“ um, weil die Standarddarstellung fehlende Tracks nicht mehr kenntlich macht.

Sie sollten dann vor jedem Eintrag der Playlist ein Ausrufezeichen sehen. Wählen Sie mit Command + A alles aus, öffnen per Sekundärklick das Kontextmenü und führen dann „Aus Mediathek löschen“ aus. Das übliche Tastaturkürzel Command + Löschen funktioniert hier unter Umständen nicht.

Eine intelligente Playlist findet alle Songs, deren Dateien nicht mehr existieren
Eine intelligente Playlist findet alle Songs, deren Dateien nicht mehr existieren

Eine intelligente Playlist findet alle Songs, deren Dateien nicht mehr existieren.

Jetzt sind Sie alle verwaisten Einträge los. Die beiden Behelfsplaylists können Sie im Anschluss wieder löschen.


URL dieses Artikels:
https://www.heise.de/-11253505

Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.heise.de/mac-and-i
[3] mailto:wre@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

heise+ | Prompten statt Coden: So geht das mit Apples Xcode

Von Heise — 15. April 2026 um 08:00
Entwickeln mit KI

Entwickeln mit KI: Claude Code und GitHub Copilot helfen.

(Bild: Vanessa Bahr / KI / heise medien)

Xcode integriert seit Version 26.3 auch externe AI-Dienste. Wir vergleichen die native Integration von Claude Code mit der Einbindung von GitHub Copilot.

Kaum eine Technologie hat die IT-Welt seit ihrem Erscheinen so sehr durcheinandergewirbelt wie die auf großen Sprachmodellen basierende künstliche Intelligenz. Vibe-Coding ist ein Trend, bei dem natürlichsprachliche Anweisungen an Code-Agenten die klassische Programmierung ersetzen. Das ist auch in Apples Entwicklungsumgebung möglich. GitHub Copilot von Microsoft ist ein mittlerweile erprobter KI-Coding-Assistent und lässt sich über ein Xcode-Plugin direkt in die Entwicklungsumgebung einbinden. Copilot punktet mit einer perfekten Anbindung an die GitHub-Plattform und einem ausgereiften Ökosystem. Was ihm noch fehlt, ist eine native Integration, wie sie Apple seit Xcode 26.3 für die Newcomer OpenAI Codex und Claude Code bietet.

Im Beispielprojekt, das Sie hier herunterladen [1] [1] können, implementiert GitHub Copilot eine Taschenrechner-App. Noch vor wenigen Jahren zählte dies zu den Standardaufgaben für Informatikstudenten. Den von der Microsoft-KI selbstständig entwickelten Code lassen wir anschließend von Claude Code analysieren und verbessern.

Denn bei der Qualität des generierten Codes bewegt sich die Microsoft-Lösung im Mittelfeld – ein Kompromiss, den viele Teams zugunsten des nahtlosen GitHub-Workflows eingehen. Copilot ist in allen GitHub-Plänen verfügbar, auch im kostenlosen Plan. Dieser ist freilich in Anzahl der Anfragen sowie der Auswahl der Modelle begrenzt. Für ein erstes Schnuppern sollte es aber reichen. Eine Übersicht über alle Pläne und deren Features findet sich auf der GitHub-Webseite [2] [2].


URL dieses Artikels:
https://www.heise.de/-11255049

Links in diesem Artikel:
[1] https://ftp.heise.de/mac-and-i/listings/2026/03/mi2603_sourcecode.zip
[2] https://github.com/features/copilot/plans

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Blackmagic Design erweitert immersive 3D-Kamera um Live-Streaming

Von Heise — 14. April 2026 um 17:09
Blackmagic URSA Cine Immersive 100G am Spielfeldrand filmt Basketballspiel aus nächster Nähe.

Die Blackmagic URSA Cine Immersive 100G erscheint im Herbst.

(Bild: Blackmagic Design)

Blackmagic bringt ein Stereokameramodell heraus, das für immersives Live-Streaming optimiert ist. Apple demonstrierte die Technik bereits auf der Vision Pro.

Rund ein Jahr nach der Markteinführung der Blackmagic URSA Cine Immersive [1] kündigt das Unternehmen eine neue Version der Stereokamera an. Die URSA Cine Immersive 100G ist kein komplett neues Modell, sondern eine Weiterentwicklung mit Fokus auf die Live-Übertragung hochauflösender 180-Grad-3D-Videos.

Die in der Ankündigung hervorgehobenen Sensoreigenschaften sind im Kern bereits Teil der ursprünglichen URSA Cine Immersive, die Aufnahmen mit 8160 × 7200 Pixeln pro Auge bei bis zu 90 Bildern pro Sekunde und 16 Blendenstufen Dynamikumfang ermöglicht.

Neu an der URSA Cine Immersive 100G ist die optimierte Live-Infrastruktur: 100G-Ethernet statt 10G-Ethernet sowie der separat erhältliche Blackmagic URSA Live Encoder, ein Prozessormodul, das immersives Live-Video in Apple ProRes komprimiert und als SMPTE-2110-22 IP ausgibt. Dadurch lassen sich die stereoskopischen Bildströme mit hohen Bildraten über eine einzige 100G-Ethernet-Verbindung übertragen, schreibt Blackmagic Design.

Der Hersteller bezeichnet URSA Cine Immersive 100G als erste Kinokamera, die für Live-Produktionen auf Basis von Apple Immersive Video ausgelegt ist, einem immersiven 180-Grad-Videoformat, das eigens für Apple Vision Pro [2] entwickelt wurde. Wie schon das Standardmodell dürfte sich das neue Modell trotz Apple-Fokus auch für die Ausgabe an andere Endgeräte eignen.

Apple und Blackmagic bündeln Kräfte für immersive Videos

Apple und Blackmagic arbeiten im Bereich immersiver Video eng zusammen: Blackmagic liefert die Kamerahardware und Bearbeitungssoftware, Apple stellt mit der Vision Pro die Plattform und Inhalte bereit. Zu den Apple-Produktionen gehören etwa der U-Boot-Kurzfilm „Submerged“ [3] sowie immersive Dokumentationen wie „Wild Life“ und „Elevated [4]“.

Was das neue Modell im Bereich Live-Streaming leistet, demonstrierte Apple Anfang des Jahres mit Live-Übertragungen von Spielen der LA Lakers [5] auf der Apple Vision Pro. Zuschauer konnten die Partien in ausgewählten Regionen als immersives 180-Grad-Erlebnis mit mehreren Perspektiven verfolgen, das sie virtuell direkt ans Spielfeld versetzt.

Ab Herbst könnten andere Produzenten das Angebot an immersiven Livestreams erweitern: Das 100G-Modell soll im dritten Quartal 2026 erscheinen. Der Preis liegt laut Ankündigung [6] bei 26.495 US-Dollar zuzüglich lokaler Steuern und Abgaben. Das Standardmodell ist im Preis gefallen und kostet nun 24.995 US-Dollar, also 5.000 US-Dollar weniger als zur Markteinführung. Im Webshop werden allerdings abweichende Dollar-Preise für beide Modelle genannt. Der separat erhältliche Blackmagic URSA Live Encoder erscheint im Laufe des Jahres, einen genauen Termin nennt Blackmagic Design nicht. Im Webshop steht ein Preis von 1645 US-Dollar.

Das Unternehmen stellte gleichzeitig auch eine neue Version seiner Videosoftware DaVinci Resolve 21 [7] vor.


URL dieses Artikels:
https://www.heise.de/-11257343

Links in diesem Artikel:
[1] https://www.heise.de/news/Fuer-Apple-Immersive-Video-Blackmagics-3D-Kamera-kostet-30-000-US-Dollar-10202945.html
[2] https://www.heise.de/tests/Apple-Vision-Pro-M5-im-Test-Doppelt-haelt-besser-10793698.html
[3] https://www.heise.de/news/Unter-Wasser-Deutscher-Starregisseur-Berger-filmt-fuer-die-Vision-Pro-9975179.html
[4] https://www.heise.de/news/Vision-Pro-Mehr-immersive-Inhalte-von-Apple-9806015.html
[5] https://www.heise.de/news/Ausprobiert-Basketball-ganz-nah-mit-der-Vision-Pro-11137928.html
[6] https://www.blackmagicdesign.com/media/release/20260414-04
[7] https://www.heise.de/news/Videobearbeitung-DaVinci-Resolve-21-mit-KI-Werkzeugen-und-Fotofunktionen-11256439.html
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:tobe@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Verbesserte Bordkarten in Apple Wallet: Diese neuen Features gibt es

Von Heise — 14. April 2026 um 12:56
Bordkarte in der Apple Wallet

Bordkarte in der Apple Wallet.

(Bild: Apple / heise medien)

Immer mehr Airlines unterstützen Apples mit iOS 26 eingeführte neue digitale Bordkarten in der Wallet. Diese Funktionen sollen helfen.

Bordkarten in der Apple Wallet gibt es seit vielen Jahren. Mit iOS 26 [1] hatte Apple hier eine Reihe neuer Features implementiert, die das Reisen mit einem iPhone weiter erleichtern sollten. Nach und nach machen nun immer mehr Fluggesellschaften [2] mit. Ein Überblick, was der neue digitale Boarding Pass [3] alles kann.

Nicht nur QR-Code anzeigen

Bislang war die Apple Wallet für Bordkarten vor allem ein Anzeigeinstrument. Einmal hinzugefügt – etwa als E-Mail-Anhang oder direkt aus einer Airline-App – taucht die Karte samt QR-Code automatisch auf, wenn Zeit zum Abflug ist. Je nach Fluggesellschaft war es außerdem möglich, den Boarding Pass nachträglich zu aktualisieren, ein Feature, das allerdings nicht bei allen Fluggesellschaften zum Einsatz kam.

Mit iOS 26 gibt es hier eine Reihe von Verbesserungen, wobei es auch hier jeweils davon abhängt, was eine Airline unterstützen möchte und was nicht. Jüngstes Beispiel ist die gerade frisch auf Version 2026.10 gebrachte Anwendung von American Airlines [4]. Sie zeigt gut, welches Spektrum die neuen Bordkarten in Apple Wallet beherrschen, wenn die Features auch umgesetzt werden. Manche Gesellschaften wie Delta (siehe Bild) hatten einige der neuen Features bereits aktiv geschaltet, sie mittlerweile aus technischen Gründen aber wieder deaktiviert.

Live-Aktivitäten mit Flugverlauf

Die neue American-Airlines-App kommt nun erstmals mit einer Integration der Karten-App bei den Bordkarten. So soll man leichter ans Gate finden. Integriert sind außerdem sogenannte Destination Guides für das Reiseziel sowie die „Wo ist?“-Funktion fürs Gepäck, sollte man diesem einen AirTag spendiert [5] haben. Die Features gab es zwar vorher schon, doch die Wallet bringt sie nun zusammen. Bereits integriert hatte American Airlines Live-Aktivitäten für den Flugverlauf. Dabei zeigt die App im Sperrbildschirm, der Dynamic Island oder dem Smart Stack der Apple Watch den aktuellen Flugverlauf – laut Angaben der Gesellschaft „in Echtzeit“.

Andere Airlines, die die verbesserte Bordkarte unterstützen (oder unterstützen wollen) sind die Lufthansa-Gruppe, United, Virgin Austrlia, Qantas, Air Canada, JetBlue, Southwest sowie Jetstar. Wann Delta wieder mitmacht, ist derzeit noch unklar.


URL dieses Artikels:
https://www.heise.de/-11256549

Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/iOS-und-iPadOS-26-in-Action-23-Tipps-fuer-die-neuen-Apple-Systeme-10646549.html
[2] https://www.heise.de/news/Apple-Wallet-Diese-Airlines-machen-bei-Apples-verbesserten-Bordkarten-mit-10762155.html
[3] https://support.apple.com/de-de/111112
[4] https://apps.apple.com/de/app/american-airlines/id382698565
[5] https://www.heise.de/tests/Lautstark-lokalisiert-AirTag-2-im-Test-11160732.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

DaVinci Resolve 21 bringt Video- und Fotobearbeitung zusammen

Von Heise — 14. April 2026 um 12:05
DaVinci-Resolve-Oberfläche

Das Videoschnittprogramm DaVinci Resolve 21 bearbeitet auch Fotos.

(Bild: Blackmagic Design)

Blackmagic Design erweitert seine Videobearbeitung DaVinci Resolve 21 um einen Arbeitsbereich zur Fotobearbeitung und KI-Werkzeuge etwa zur Porträtbearbeitung.

Das australische Unternehmen Blackmagic Design hat eine neue Version seines Videoschnittprogramms [1] vorgestellt: DaVinci Resolve 21 hat einen Arbeitsbereich zur Fotobearbeitung erhalten und legt einen weiteren Schwerpunkt auf künstliche Intelligenz.

Im Fotoarbeitesbereich kann man unter anderem Bilder beschneiden und ausrichten.

(Bild: Blackmagic Design)

Node-gestützte Fotobearbeitung

Die wohl größte Neuerung ist die Einführung der „Photo Page“. Damit können Nutzer Fotos ohne den Rückgriff auf externe Programme direkt in DaVinci Resolve bearbeiten. Im Fotobereich lassen sich beispielsweise Fotos zuschneiden und Farben korrigieren. Der Hersteller setzt dabei auf Node-gestützte Bearbeitung, die auch beim Color-Grading von Videos zum Einsatz kommt.

Nutzer sollen über Nodes komplexe Anpassungen kombinieren können. Änderungen lassen sich auf ganze Bilderserien anwenden. Über eine LightBox-Ansicht lässt sich das Resultat, angewendet auf ein Fotoalbum, kontrollieren. Auch eine Funktion zum Fotografieren mit angeschlossener Sony- oder Canon-Kamera ist integriert. Zur Unterstützung weiterer Kameras, etwa von Nikon oder Fujifilm machte der Hersteller bisher keine Angaben.

Farben lassen sich über Node-gestützte Color-Grading-Werkzeuge für Bilder und Bilderserien anpassen.

(Bild: Blackmagic Design)

KI-Werkzeuge für Suche und Porträtbearbeitung

Ein zweiter Schwerpunkt liegt auf KI-Werkzeugen. Blackmagic Design will damit typische Bearbeitungsschritte automatisieren oder verbessern. KI-Werkzeuge helfen beim schnellen Durchsuchen von Medieninhalten. Mit „AI IntelliSearch“ sollen sich Medien nach individuellen Personen und Objekten durchsuchen lassen. Die Ergebnisse erscheinen als Video-Clips im Media Pool.

Ein KI-Sprachgenerator erzeugt aus Text oder kurzen Sprachproben realistisch klingende Stimmen. Über „AI CineFocus“ soll man den Fokus eines Bildes nachträglich festlegen und Tiefenschärfe sowie optische Effekte gezielt steuern können. „AI Slate ID“ erkennt automatisch Klappentafel-Informationen und übernimmt Metadaten, um den Schnittprozess zu beschleunigen.

Eine ganze Reihe Werkzeuge bearbeitet Gesichter: Mit dem „AI Face Age Transformer“ lässt sich das Alter von Personen im Bild anpassen, um etwa zeitliche Sprünge glaubwürdig darzustellen. Der „AI Face Reshaper“ ändert Gesichtszüge in Videos. Ein KI-Werkzeug zur Hautretusche reduziert Hautunreinheiten, ohne die natürliche Hautstruktur zu verlieren.

Veröffentlichung und Ausblick

DaVinci Resolve 21 ist derzeit als öffentliche Testversion verfügbar. Eine fertige Version soll im Laufe des Jahres 2026 erscheinen. Die Software steht für Windows, macOS und Linux zur Verfügung. Blackmagic Design stellt eine Basisversion kostenlos zum Download bereit. Die vorgestellten KI-Werkzeuge sind in der Studio-Version enthalten. Sie kostet 305 Euro.

Siehe auch:


URL dieses Artikels:
https://www.heise.de/-11256439

Links in diesem Artikel:
[1] https://www.heise.de/thema/Videoschnitt
[2] https://www.heise.de/download/product/davinci-resolve?wt_mc=intern.red.download.tickermeldung.ho.link.link
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:akr@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Maryland: Apple schließt ersten gewerkschaftlich organisierten US-Laden

Von Heise — 14. April 2026 um 11:37
Apple Towson Town Center in Maryland

Apple Towson Town Center in Maryland: Bald dicht – angeblich wegen Krise in der Mall.

(Bild: Apple)

Der Towson Town Center Store war der erste in den USA, der eine gewerkschaftliche Vertretung hatte. Nun schließt er – laut Apple aus wirtschaftlichen Gründen.

Apple stellt den Betrieb in dem unter amerikanischen Arbeitnehmeraktivisten wohl bekanntesten Laden des Konzerns in den kommenden Monaten ein: Bis Juni soll der Towson Town Center Store in Maryland [1], gelegen in einem Vorort der Stadt Baltimore, zum letzten Mal öffnen. Der Store ist einer von drei US-Ladengeschäften des Konzerns, die Apple aus wirtschaftlichen Gründen schließt. Es sei eine „schwere Entscheidung“ gewesen, hieß es in einem Statement. Interessant dabei: Während Mitarbeiter der betroffenen Stores in Trumbull, Connecticut, und Escondido, Kalifornien, in andere Läden in der Nähe versetzt werden, kann sich die Besatzung aus Towson nur auf offene Stellen bewerben. Dies entspreche dem ausgehandelten Tarifvertrag, so der Konzern.

Mall-Sterben in den USA

Der Towson-Store war der erste Apple-Laden in den USA, in dem eine gewerkschaftliche Organisation gelang, gegen die Apple selbst lange angekämpft [2] hatte. 2022 wurde per Mitarbeiterwahl entschieden, dass die International Association of Machinists and Aerospace Workers' Coalition of Organized Retail Employees, kurz IAM CORE, Hausgewerkschaft in dem Store wird. Bis 2024 wurde dann erfolgreich ein Tarifvertrag ausgehandelt und abgeschlossen [3]. IAM CORE hatte gehofft, dass dieser als Modell für andere Apple-Läden dienen könnte.

Apples Angaben zufolge macht man die drei Läden dicht, weil das jeweilige Umfeld immer schlechter geworden sei. Es habe in den Einkaufszentren, in denen diese liegen, den Abgang mehrerer Händler sowie „sich verschlechternde Bedingungen“ gegeben. Tatsächlich gibt es seit vielen Jahren ein sogenanntes Mall-Sterben in den USA, wie man es auch aus Europa kennt. Dabei verlassen wichtige „Ankerläden“ ein Einkaufszentrum, was dann wiederum zu einem Rückgang der Kundenzahl führt.

Gewerkschaft: Sind „empört“

IAM Core sieht allerdings noch andere Gründe für den Beschluss, ausgerechnet Towson Town Center zu schließen. Man untersuche derzeit „alle rechtlichen Möglichkeiten” und sei „empört“ von Apples Entscheidung, hieß es in einem Statement [4]. Der Laden sei „kritisch“ für seine Umgebung und zudem per ÖPNV gut zu erreichen gewesen. Die Gewerkschaft sieht zudem nicht, warum der Tarifvertrag eine Versetzung der Mitarbeiter verhindere.

Gegenüber Macrumors teilte Apple mit, im Tarifvertrag sei geregelt, dass Mitarbeiter in einen anderen Laden versetzt oder erneut angestellt würden, sofern Apple einen neuen Laden im Umkreis von 80 Kilometern [5] eröffnet. Allerdings gibt es einen derartigen Laden momentan nicht. Apple habe auch keine entsprechenden Pläne. Sollte sich das innerhalb von 18 Monaten ändern, muss den gekündigten Arbeitnehmern als erstes ein Arbeitsangebot unterbreitet werden. Ansonsten stehe ihnen eine Abfindung zu.


URL dieses Artikels:
https://www.heise.de/-11256260

Links in diesem Artikel:
[1] https://www.apple.com/retail/towsontowncenter/
[2] https://www.heise.de/news/Massnahmen-gegen-Gewerkschaftsmitglieder-Mitarbeiter-gehen-gegen-Apple-vor-7328534.html
[3] https://www.heise.de/news/Apple-schliesst-vorlaeufigen-Vertrag-mit-US-Gewerkschaft-in-einem-Store-9817092.html
[4] https://www.facebook.com/MachinistsUnion/posts/the-iam-union-is-outraged-by-apples-decision-to-close-its-towson-md-storethe-fir/1374367958052059/
[5] https://www.macrumors.com/2026/04/10/unionized-apple-store-permanently-closing/
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

heise+ | Kurztests: Muse-Controller, Charging Stand, X5 Lite und Shutter Switch

Von Heise — 14. April 2026 um 08:00
Apple-Peripherie im Kurztest

Apple-Peripherie im Kurztest.

(Bild: Andreas Wodrich / heise medien)

Vier Produkte für Apple-Nutzer im Test: Stift für die Vision Pro, Lader für AirPods Max, iPhone-Game-Controller und Smart-Home-Rollladenschalter.

Für Mac, iPhone, iPad und Co. gibt es zahllose Zubehörprodukte. Im Mac & i-Kurztest haben wir fünf aktuelle Hardware-Angebote auf ihre Tauglichkeit überprüft. Dieses Mal dabei: Malen mit der Vision Pro, AirPods Max lagern und laden, besser Zocken mit dem iPhone und HomeKit-kontrollierbare Rollläden.

Griffiges Spatial Computing

Der Muse-Controller von Logitech ist ein Stift, der nur mit der Vision Pro funktioniert. Er ähnelt dem MX Ink für Metas Quest. Zwei Knöpfe befinden sich vorne, der längere der beiden ist drucksensitiv. Ein dritter am anderen Stiftende dient als Power-Button. Der Stift kommt mit zwei unterschiedlich breiten Spitzen, die man leicht tauschen kann. Man koppelt ihn via Bluetooth mit dem Apple-Headset, geladen wird er per USB-C.

In VisionOS 26.2 sowie in ausgewählten Apps lässt sich der Stift als Fingerersatz nutzen, etwa im Designprogramm Spatial Analogue oder dem Malprogramm TouchDesk. Der Muse arbeitet mit seiner druckempfindlichen Spitze genauer als die Fingerspitzen und gibt durch einen Vibrationsmotor haptisches Feedback.


URL dieses Artikels:
https://www.heise.de/-11211350

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Apples früherer KI-Chef John Giannandrea verlässt das Unternehmen

Von Heise — 13. April 2026 um 17:28
Die WWDC-Fragestunde 2024 mit dem damaligen KI-Chef Apples

Da war die Welt noch in Ordnung: YouTuberin und Moderatorin Justine Ezarik (von links), Apples KI-Chef John Giannandrea und Software-Chef Craig Federighi auf der Bühne im Steve-Jobs-Theater.

(Bild: Apple)

Nach dem holprigen Start von Apple Intelligence verlässt KI-Chef John Giannandrea das Unternehmen. Angekündigt wurde der Rückzug im Dezember.

Es war ein denkwürdiger Auftritt am Nachmittag des 11. Juni 2024: Apples damaliger KI-Chef John Giannandrea und Software-Chef Craig Federighi demonstrierten auf der Bühne des Steve Jobs Theater im Apple-Hauptquartier in Cupertino den großen Schulterschluss. Die von Apple-Chef Tim Cook eingeleitete Fragestunde [1] mit YouTuberin iJustine sollte die kurz zuvor vorgestellte Apple Intelligence inhaltlich vertiefen und vermutlich ein Signal der Einmütigkeit in der Apple-Chefetage ausstrahlen. Jetzt, nicht einmal zwei Jahre danach, wird Giannandrea das Unternehmen zur Monatsmitte verlassen.

Das Schicksal des früheren Google-Mitarbeiters ist eng verknüpft mit den KI-Bemühungen Apples [2]. Damals angekündigte Grundfunktionen der Apple Intelligence wie das Zusammenfassen von Texten oder maßgeschneiderte Emojis erreichten zwar binnen weniger Monate einen großen Teil der Apple-Kundschaft. Der Blick der Fachwelt richtete sich allerdings mehr auf das, was nicht kam: Siri sei kein Sprachassistent mehr, sondern ein Geräteassistent mit tieferem Verständnis dafür, was auf dem Gerät passiert, tönte Giannandrea in der damaligen Fragestunde. Zwei Jahre später gibt es immer noch nur die Ankündigung, dass Siri besser werden soll. Zuletzt verdichteten sich jedoch Berichte, wonach Apple für iOS 27 eine eigene Siri-App sowie einen Chatbot-Modus [3] plant.

KI-Weichen neu gestellt

Giannandrea kam im Jahr 2018 zu Apple. Bei Google war er zuvor acht Jahre lang tätig. Seine Expertise in Machine-Learning passte gut zu Apples Ambitionen, die mit der Neural Engine auch in Hardware gegossen wurden. Doch als mit ChatGPT von OpenAI Jahre später die generativen Sprachmodelle einen Hype auslösten, wirkte Apple wie auf dem falschen Fuß erwischt. Die Vorstellung der Apple Intelligence, 2024, sollte der Befreiungsschlag werden. Die „AI for the rest of us“ (KI für den Rest von uns) sollte mit dem Datenschutz-Vorrang punkten. Stattdessen machte Apple Schlagzeilen damit, dass die KI-Siri offenbar gar nicht funktionierte und das Projekt offenbar komplett zurückgesetzt werden musste. Intern gilt die Dauerbaustelle Siri bereits seit Längerem als Problemfall [4], da versprochene Funktionen immer wieder verschoben wurden.

Die diesjährige Entwicklerkonferenz WWDC am 8. Juni [5] soll nun den Trubel der vergangenen Jahre vergessen machen. Apple ist eine Kooperation mit Google eingegangen, um deren KI-Modell Gemini zu verwenden. Vor allem aber wurden erhebliche Veränderungen in der Leitung vorgenommen. Dabei gilt Federighi intern als Verfechter eines eher pragmatischen KI-Kurses mit Fokus auf Budgets [6] und Partnerschaften. Der ehemalige Vision-Pro-Chef brachte für den Umbau der Siri-Abteilung [7] zahlreiche Experten aus seinem alten Team mit. Weitere erfahrene Kräfte, die es richten sollen, sind Eddy Cue und Sabih Khan. Erneut ist ein Ex-Googler mit in der Verantwortung: Neuzugang Amar Subramanya soll als Vice President of AI aber deutlich weniger Eigenständigkeit genießen als sein Vorgänger. Er berichte an Federighi.

Eine letzte Aktienprämie

Giannandrea war in den vergangenen Monaten nur noch Berater für Apple. Sein Rückzug wurde im Dezember 2025 angekündigt, nachdem zuvor bereits laut geworden war, dass es zwischen den Ressortleitern bei Apple geknirscht hat. Bereits im März 2025 habe Cook Giannandrea deshalb die Leitung des Siri-Teams entzogen, hieß es in Medienberichten. Es war ein Rückzug in Raten. Sein Verbleib bis Mitte April erklärt Bloomberg-Reporter Mark Gurman [8] mit den üblichen Gepflogenheiten in börsennotierten Unternehmen, um Giannandrea noch eine letzte Aktienprämie auszahlen zu können.

Nach Apple will der frühere KI-Chef laut Bericht in verschiedenen Unternehmensvorständen mitwirken und als Berater für Start-up-Unternehmen tätig werden. Wie stark Apples stotternder KI-Motor tatsächlich mit seiner Person verknüpft war, wird sich in den nächsten Monaten zeigen. Finanziell profitiert der Konzern trotz technischer Rückstände massiv: Erwartungen zufolge wird Apple bald eine Milliarde US-Dollar durch KI-Apps [9] im App Store verdienen.


URL dieses Artikels:
https://www.heise.de/-11255446

Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Intelligence-Das-sagen-der-KI-und-der-Software-Chef-zum-Siri-Neubeginn-9757150.html
[2]  https://www.heise.de/thema/Kuenstliche-Intelligenz
[3] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[4] https://www.heise.de/news/Dauerbaustelle-Siri-Vision-Pro-Chef-soll-es-jetzt-richten-10323435.html
[5] https://www.heise.de/news/WWDC-2026-am-8-Juni-Apple-gewaehrt-ersten-Blick-auf-iOS-27-und-macOS-27-11221912.html
[6] https://www.heise.de/news/Federighi-und-Apples-KI-Ambitionen-Pragmatismus-statt-Innovation-11152262.html
[7] https://www.heise.de/news/Apple-baut-Siri-Abteilung-um-uebernimmt-Vision-Pro-Entwickler-10359675.html
[8] https://www.bloomberg.com/news/newsletters/2026-04-12/apple-ai-smart-glasses-features-styles-colors-cameras-giannandrea-leaving-mnvtz4yg
[9] https://www.heise.de/news/Apple-verdient-bald-eine-Milliarde-US-Dollar-dank-KI-im-App-Store-11221048.html
[10] https://www.heise.de/mac-and-i
[11] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

iPhone Ultra: Neues zu möglichen Preisen, Technik und Verfügbarkeiten

Von Heise — 13. April 2026 um 14:20
Ein Mann hält einen Finger auf einen faltbaren Bildschirm eines Smartphones oder Tablets.

Faltbares Smartphone (nicht von Apple).

(Bild: ra2 studio / Shutterstock.com)

Apples erstes Foldable soll mit bestehenden Problemen bei faltbaren Smartphones aufräumen. Dafür werden Kunden allerdings tief in die Tasche greifen müssen.

In weniger als einem halben Jahr soll es so weit sein: Apples erstes faltbare iPhone wird vorgestellt. Trotz anderslautender Gerüchte [1] gilt der September allgemein als gesetzter Vorstellungstermin für das wohl „Ultra“ genannte Foldable. Denkbar ist allerdings, dass die Auslieferung erst im Oktober beginnt. Der geplante Preisbereich ist ambitioniert: Laut Informationen der Finanznachrichtenagentur Bloomberg [2] beginnt er bei 2000 US-Dollar, mit mehr Speicher könnte er an der Marke von 2800 Dollar kratzen. In Euro dürfte es deutlich über 2000 Euro losgehen und sich bis auf knapp 3000 Euro ziehen – dann mit 2 TByte Flash.

Faltenfrei und haltbar dabei

Apple sind mehrere Durchbrüche gelungen, heißt es weiter. Dazu gehört die weitgehende Entfernung der bekannten „Bügelfalte“ [3], die andere Foldables noch aufweisen, sowie eine Verbesserung der allgemeinen Haltbarkeit der Klappgeräte. Zumindest die weitgehende Faltenfreiheit ist allerdings nicht neu: So konnte erst kürzlich der chinesische Hersteller Oppo, mit dem Apple gerade in einem Rechtsstreit wegen des angeblichen Diebstahls geistigen Eigentums [4] steht, mit dem Find N6 [5] ein solches Gerät zeigen. Auch Samsung arbeitet an solchen Displays [6].

Beim iPhone Ultra plant Apple einen Reisepass-artigen Formfaktor [7]: Das Gerät soll im geschlossenen Zustand breiter sein, als man das von regulären Smartphones kennt. Sinn der Sache ist es, dass das Gerät aufgeklappt das Bildseitenverhältnis eines iPad mini hat, was zwar nicht ganz 16:9 darstellen soll, das Design aber weniger quadratisch macht. Geplant sind angeblich gut 7,7 Zoll Innenmaß bei 5,3 Zoll außen. Auch hier gibt es aus China konkurrierende Geräte: Bei Huawei bereitet man mit dem Pura X Max gerade ein solches Gerät [8] vor. Samsung will mit einem möglichen „Galaxy Z Fold 8 Wide“ ebenfalls in diese Richtung gehen.

Touch-ID-Rückkehr und Fensterfragen

Das iPhone Ultra soll ansonsten erstmals seit vielen Jahren keine Face-ID-Gesichtserkennung mitbringen, stattdessen auf einen mit Touch-ID-Fingerabdrucksensor ausgestatteten Sleep/Wake-Knopf setzen, wie man ihn etwa vom iPad mini kennt. Geplant sind zudem eine Front-Kamera und zwei rückwärtige Bildsensoren, insgesamt also ein eingeschränkteres Foto- und Videosystem als etwa bei einem iPhone-Pro-Modell.

Spannend wird noch, wie Apple die Software umsetzt. Bislang bietet nur iPadOS mittlerweile ein echtes Fenstersystem [9], beim iPhone werden alle Apps im Vollformat ausgeführt. Denkbar wäre, dass Apple zumindest mehrere Apps gleichzeitig im „Side-by-Side“-Format erlaubt. Eine frei konfigurierbare Fensteroberfläche gilt (leider) als unwahrscheinlich.


URL dieses Artikels:
https://www.heise.de/-11254203

Links in diesem Artikel:
[1] https://www.heise.de/news/iPhone-Foldable-Namensfragen-Mockups-und-moegliche-Verschiebung-11247703.html
[2] https://www.bloomberg.com/news/articles/2026-04-07/apple-s-foldable-iphone-remains-on-track-for-september-debut
[3] https://www.heise.de/news/Foldable-ohne-Buegelfalte-So-soll-das-faltbare-iPhone-geschmeidig-bleiben-10488599.html
[4] https://www.heise.de/news/Apple-verklagt-Oppo-wegen-Diebstahls-von-Geschaeftsgeheimnissen-10963515.html
[5] https://www.heise.de/news/Foldable-Find-N6-Oppo-buegelt-die-Falte-aus-11213537.html
[6] https://www.heise.de/news/Faltenfrei-Samsung-Display-entdeckt-das-fuers-iPhone-Fold-passen-koennte-11131025.html
[7] https://www.heise.de/news/Faltbares-Apple-Handy-Kommt-der-Formfaktor-des-iPhone-mini-als-Pass-zurueck-11125785.html
[8] https://www.androidauthority.com/huawei-pura-x-max-wide-foldable-3656828/
[9] https://www.heise.de/ratgeber/iPadOS-26-So-nutzen-Sie-das-neue-Fenstersystem-auf-Apple-Tablet-10646557.html
[10] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[11] https://www.heise.de/mac-and-i
[12] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

„ClickFix“-Angriffe auf macOS jetzt auch via Script Editor

Von Heise — 13. April 2026 um 12:59
Website, die Apple nachahmt

Website, die Apple nachahmt: Nein, so schafft man auf dem Mac keinen Platz.

(Bild: Jamf)

Eine aktuell laufende Malware-Kampagne nutzt Apples Script Editor statt des Terminals, um den Datenklauer Atomic Stealer auf Macs einzuschleusen.

Sicherheitsforscher vom MDM-Spezialisten Jamf haben eine neue Variante der sogenannten ClickFix-Angriffstechnik entdeckt, bei der Nutzer dazu bewegt werden, Kommandos auf ihrem Mac auszuführen, die dann Malware installieren. Die neue Verteilmethode des bekannten Datenklauschädlings Atomic Stealer scheint darauf optimiert zu sein, einen neuen Schutz im macOS-Terminal [1] zu umgehen, den Apple mit macOS 26.4 eingeführt hatte. Dieser soll dafür sorgen, dass problematischer Code nicht mehr so leicht ausgeführt werden kann.

Wie Jamf Threat Labs in einer Analyse [2] schreibt, locken die Angreifer ihre Opfer auf eine gefälschte Apple-Webseite, die vorgibt, dabei zu helfen, Speicherplatz auf dem Mac freizugeben. Ein „Execute“-Button auf der Seite ruft dabei das applescript://-URL-Schema auf. Der Browser fordert daraufhin vom Nutzer die Erlaubnis, Script Editor zu öffnen – eine Aktion, die das Opfer womöglich arglos bestätigt.

Vom URL-Schema zum Datenklauer

Das eigentlich neue an der Methode liegt in der Nutzung des applescript://-URL-Schemas: Beim Aufruf startet Script Editor mit einem von der Website übergebenen, bösartigen AppleScript. Dieses Script führt nach der Ausführung durch den Nutzer eine verschleierte Befehlskette aus. Zunächst wird per curl-Kommando eine Payload von einem externen Server geladen, die nach Dekodierung anschließend an zsh übergeben wird. Eine zweite Stufe dekodiert per Base64 und gunzip weiteren Code, der schließlich die eigentliche Malware – ein Mach-O-Binary des Atomic Stealers – nach /tmp herunterlädt, erweiterte Attribute zum Ausführungsschutz entfernt und die Datei startbar macht.

Interessant dabei ist, dass die Installationskette dabei den Terminal-Paste-Schutz von macOS 26.4 umgeht. Apple hatte diese Schutzfunktion eingeführt, um Nutzer vor ClickFix-Angriffen zu warnen, wenn sie manipulierte Befehle ins Terminal einfügen, wobei das auch nicht immer funktioniert. Durch den Wechsel zu Script Editor wird dieser Mechanismus laut Jamf augenscheinlich ausgehebelt. Um die Malware aktiv zu schalten, muss der User allerdings noch den Abspielknopf (Play) in Script Editor klicken. Dass er das tun soll, wird auf der nachgeahmten Apple-Seite so mitgeteilt.

Was Atomic Stealer abgreift

Atomic Stealer ist ein schon seit 2023 aktiver Infostealer, der unter anderem über Telegram an Kriminelle vermarktet wird. Die Malware stiehlt unter anderem Keychain-Passwörter, Browser-Daten wie Autofill-Einträge, Cookies und Kreditkartennummern sowie Krypto-Wallets. Auch Dateien vom Desktop und aus dem Dokumentenordner können exfiltriert werden.

Neu ist die Verwendung von Script Editor zur Malware-Verbreitung eigentlich nicht, doch die Verbreitung via applescript://-Links ist neu. Nutzer sollten das Aufrufen des Script Editors über eine Website keinesfalls bestätigen. Apple hat bislang noch nicht auf die neue Methode reagiert. Es dürfte relativ leicht sein, diese zu verhindern.


URL dieses Artikels:
https://www.heise.de/-11251412

Links in diesem Artikel:
[1] https://www.heise.de/news/Angriffe-uebers-Terminal-Apple-verhindert-Kommando-Ausfuehrung-11226507.html
[2] https://www.jamf.com/blog/clickfix-macos-script-editor-atomic-stealer/
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

✇ Mac & i ff.org

Apple arbeitet angeblich an vier verschiedenen Designs der ersten Smartglasses

Von Heise — 13. April 2026 um 05:03
Tim Cook mit Apple-Kunden 2025 in Detroit

Apple-Chef Tim Cook mit Apple-Kunden in Detroit im September 2025

(Bild: Apple)

Die ersten Apple-Smartglasses sollen gleich mit unterschiedlichen Gestellen kommen. Die Kamera soll oval statt rund sein, wenn die Brillen wohl 2027 erscheinen.

Dass Apple an eigenen smarten Brillen arbeitet, ist schon lange kein Geheimnis mehr. Doch jetzt wird berichtet, dass der iPhone-Konzern bereits bei der ersten Version seiner Smartglasses mindestens vier verschiedene Brillen-Designs entwickelt hat, die in unterschiedlichen Farben verfügbar sein werden. Zudem könnte die Kamera oval statt rund sein, um sich von anderen Smartglasses abzusetzen. Nach bisheriger Planung sollen die Apple-Smartglasses 2027 auf den Markt kommen.

Letzten Herbst hieß es noch, dass Apple angeblich wegen Meta gleich eine Display-Brille bauen will [1], nachdem Meta Platforms mit der „Ray-Ban Display“ Smartglasses mit integriertem Bildschirm und sEMG-Armband enthüllt [2] hatte. Daraufhin stampfte Apple offenbar eine leichte Version des eigentlich für 2027 geplanten Vision Pro VR-Headsets ein und hat die eigenen Ressourcen auf die Entwicklung von Bildschirmbrillen verschoben.

Apple-Smartglasses mit hochwertigem Gestell

Jetzt berichtet der bekannte Apple-Insider Mark Gurman bei Bloomberg [3] vom aktuellen Stand der Smartglasses-Entwicklung Apples. Nach Angaben von an dem Projekt arbeitenden Mitarbeitern plant der Konzern eine enge Verknüpfung mit dem iPhone und dessen Ökosystem. Dessen KI-Assistent Siri soll mit iOS 27 bis nächstes Jahr deutlich verbessert werden, was zeitlich zur Einführung der ersten Apple-Smartglasses passen würde.

Dabei beschränkt sich Apple wohl nicht auf ein einziges Brillengestell. Zwar werden die Apple-Smartglasses von EssilorLuxottica hergestellt, die auch Metas smarte Brillen produzieren und mit denen der Facebook-Konzern derzeit über achtzig Prozent Marktanteil hält [4]. Doch Apple setzt angeblich auf Vielfalt und hochwertiges Material. So wurden die letzten Muster aus Acetat gefertigt, einem biobasierten Kunststoff auf Basis natürlicher Rohstoffe, der sich bei hochwertigen Brillenrahmen durch hohe Festigkeit, Farbvielfalt und Langlebigkeit auszeichnen soll.

Mindestens vier verschiedene Gestelle

Dabei hat Apples Design-Team mindestens vier verschiedene Gestelle entwickelt, von denen einige oder vielleicht sogar alle angeboten werden könnten. Dazu gehört ein großes rechteckiges Gestell, wie die bekannten „Ray-Ban Wayfarer“, ein schlankeres rechteckiges Design, das der Brille von Apple-Chef Tim Cook ähneln soll, ein Gestell mit großen ovalen oder kreisrunden Gläsern sowie ein kleineres, feineres, ovales oder kreisförmiges Brillen-Design. Farblich prüft Apple eine Reihe von Vorschlägen, etwa Schwarz, Ozeanblau und ein helles Braun. Ziel sei es, ein „ikonisches, leicht wieder erkennbares Design“ zu entwickeln.

Dazu dürfte auch das Design der Kameralinse gehören, denn diese soll nicht einfach rund sein, wie bei gängigen Smartglasses und Smartphones, sondern oval – vertikal ausgerichtet. Das könnte an ovale Augen etwa von Cartoon-Figuren oder Puppen erinnern. Die Linsen sollen dabei allerdings von Lichtern umgeben sein.

Laut Gurman sollen die intern unter dem Projektnamen N50 laufenden Smartglasses gegen Ende 2026 vorgestellt werden und 2027 in den Handel kommen.


URL dieses Artikels:
https://www.heise.de/-11253761

Links in diesem Artikel:
[1] https://www.heise.de/news/Angeblich-wegen-Meta-Apple-will-jetzt-gleich-eine-Display-Brille-bauen-10699579.html
[2] https://www.heise.de/news/Meta-enthuellt-Ray-Ban-Display-Smart-Glasses-mit-Bildschirm-und-sEMG-Armband-10660806.html
[3] https://www.bloomberg.com/news/newsletters/2026-04-12/apple-ai-smart-glasses-features-styles-colors-cameras-giannandrea-leaving-mnvtz4yg
[4] https://www.heise.de/news/Smart-Glasses-Meta-haelt-ueber-achtzig-Prozent-Marktanteil-11196844.html
[5] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[6] mailto:fds@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

❌