TV-App mit immersiven Videos von Apple: Der Konzern setzt auf spektakuläre Bilder.
(Bild: Apple)
Im Sommer 2024 kam es in Nahost zu einem tragischen Zwischenfall bei einer Apple-Videoproduktion. Der Absturz eines Kleinflugzeugs wird derzeit untersucht.
Apples sogenannte Immersive-Videos [1] sind bekannt für spektakuläre Aufnahmen: Da geht es dann beispielsweise aufs Hochseil, in den Dschungel zu wilden Tieren, über die Dächer von Paris oder zu Events des Funsport- und Brausekonzerns Red Bull. Beim Versuch, eines dieser mit Spezialkameras gefilmten Videos [2] aufzuzeichnen, kam es nun allerdings zu einem tragischen Unglück: In der jordanischen Wüste stürzte die Pilotin in einem Kleinflugzeug ab.
Der Vorfall mit dem Microlight, an dem eine 3D-Kamera montiert war, ereignete sich bereits im Sommer 2024, also zu einem Zeitpunkt, als die Vision Pro nur wenige Monate auf dem Markt war. Die Wirtschaftsnachrichtenagentur Bloomberg konnte jetzt im Rahmen einer Untersuchung durch britische Regierungsstellen [3] erste Informationen zu dem Unglück veröffentlichen.
Opfer war Claire Lomas, eine britische Frau mit Querschnittslähmung, die mit Hilfe eines Exoskeletts den Londoner Marathon absolviert hatte. Sie war auch professionell ausgebildete Pilotin. Das Video war Teil einer Apple-Immersive-Video-Serie namens „Adventure“. Die Idee war dabei, mit dem Kleinflugzeug über die Wüste Jordaniens zu fliegen und dabei 3D-Naturaufnahmen zu filmen. Lomas hatte ihre Fluglizenz seit zwei Jahren und war schon vorher mit den Microlights unterwegs gewesen. Die 44-jährige war bei dem Absturz zwar nicht sofort tot, starb aber mehrere Wochen später an den Verletzungen, so die britischen Behörden. Laut Bloomberg hatte Apple für „Adventure“ die britische Produktionsfirma Atlantic Studios engagiert. Angeblich war Apple bereit, pro Folge Millionen US-Dollar auszugeben, obwohl die Immersive-Videos nicht abendfüllend sind, oft sind sie 10 bis 20 Minuten lang.
Weder Apple noch Atlantic Studios wollten sich zu Lomas' Unfall äußern. Apple kommentierte gegenüber Bloomberg gar nicht, Atlantic Studios teilte mit, aufgrund des aktuell laufenden Verfahrens könne man nicht antworten. Auch die Familienanwälte von Lomas gaben keine Informationen heraus. In den kommenden Wochen soll es aber ein Hearing des UK Coroner's Office (Amt für Gerichtsmedizin) geben. Warum dies so lange dauerte, ist unklar. Laut Bloomberg gab es Kritik an der Durchführung der „Adventure“-Serie.
Mitarbeiter klagten über lange Arbeitszeiten, die sie als unsicher empfanden. Apple soll nach Beschwerden Beauftragte für Gesundheit und Sicherheit geschickt haben. Bis auf das Unglück mit Lomas soll es keine weiteren bekanntgewordenen Vorfälle gegeben haben. Das Video aus Jordanien sollte verschiedene bekannte Orte in dem Land zeigen. Bislang erschienen fünf Folgen der „Adventure“-Serie.
URL dieses Artikels:
https://www.heise.de/-11262221
Links in diesem Artikel:
[1] https://www.heise.de/news/Vision-Pro-Apple-kuendigt-neue-immersive-Filme-an-10667526.html
[2] https://www.heise.de/news/Fuer-Apple-Immersive-Video-Blackmagics-3D-Kamera-kostet-30-000-US-Dollar-10202945.html
[3] https://www.bloomberg.com/news/articles/2026-04-16/pilot-claire-lomas-was-being-filmed-for-apple-vision-pro-video-during-crash
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/mac-and-i
[6] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
John Ternus bei der iPhone-17-Keynote: Gilt als möglicher neuer Apple-Chef.
(Bild: Apple)
Nach Apples Produktfeuerwerk im März haben sich Technikchef John Ternus und Marketingboss Greg Joswiak zur weiteren Strategie des Konzerns geäußert.
Apple glaubt, dass das mit der Vision Pro [1] eingeführte Spatial Computing künftig „unausweichlich“ sein wird – und damit, auch wenn das Unternehmen dazu keine Aussage macht, wohl auch Smart Glasses. In einem Interview mit dem Techblog Tom's Guide sagte der weltweite Marketingchef des Konzerns, Greg Joswiak, die Kombination aus digitaler und physischer Welt sei nicht aufzuhalten. Und darum geht es bei Spatial Computing.“ Er könne allerdings keine Timeline geben, wann es so weit ist. Die Vision Pro habe aber gezeigt, wie die Zukunft aussehen könne.
Aktuell bietet Apple keine eigenen smarten Brillen wie jene von Meta an. Offenbar ist aber bis 2027 geplant, mehrere Varianten rein mit Kameras, Mikrofon und Lautsprecher [2] auf den Markt zu bringen, in einigen Jahren dann Smart Glasses mit Bildschirmen. Apple äußert sich wie üblich nicht zu noch unbekannten Produkten, die Gerüchte verdichten sich allerdings. Die zusammen mit Ray-Ban erstellten Meta-Brillen sollen, so zumindest Meta selbst, ein Verkaufserfolg sein. Allerdings gab es zuletzt massive Kritik am Datenschutz [3] bei den Geräten.
In dem Interview [4] wurde auch Apples Technikchef John Ternus befragt, der sich unter anderem zum MacBook Neo [5] äußerte. Das Gerät sei ganz anders als die Konkurrenz, so Ternus. „Die Produkte in diesem Segment, mit denen (das Neo) konkurriert, bestehen aus Kunststoff. Man kann sie buchstäblich verbiegen.“ Sie seien „so billig“, weil die Firmen versuchten, an jeder Stelle zu sparen. Apples Ansatz sei ein anderer: ein geringerer Preis bei hohem Wert.
Joswiak betonte, das Neo sei nicht einfach ein abgespecktes MacBook Air. „Am Neo ist so viel neu. Wir haben ein komplett neues [physisches] Trackpad-Design, das immer noch besser ist als bei jedem PC. Wir haben neu gedacht, wie wir die Gerätehülle herstellen und alles zusammensetzen. Wir haben die Messlatte nicht heruntergesetzt.“ Das Neo sei ein „toller, qualitativ hochwertiger Mac zu einem fantastischen Preis“.
Ternus machte auch Andeutungen dazu, warum die verbesserte KI-Siri [7] immer noch nicht verfügbar ist. Das KI-Rennen ist für Apple noch am Anfang. „Wir denken nie über die Technologie an sich nach“, erklärte Ternus. „Wir fragen uns immer: Wie können wir Technologie nutzen, um unseren Nutzern großartige Produkte, Funktionen und Erlebnisse zu bieten?“Joswiak betonte, KI sei ein Marathon – und kein Sprint.
URL dieses Artikels:
https://www.heise.de/-11261197
Links in diesem Artikel:
[1] https://www.heise.de/tests/Apple-Vision-Pro-M5-im-Test-Doppelt-haelt-besser-10793698.html
[2] https://www.heise.de/news/Apple-arbeitet-angeblich-an-vier-verschiedenen-Designs-der-ersten-Smartglasses-11253761.html
[3] https://www.heise.de/news/Privatsphaere-Buergerrechtler-warnen-vor-Gesichtserkennung-bei-Meta-Smart-Glasses-11255667.html
[4] https://www.tomsguide.com/computing/apples-joz-and-ternus-on-smart-glasses-the-macbook-neo-and-whats-next-for-ai
[5] https://www.heise.de/tests/Apple-MacBook-Neo-im-Test-schick-rasant-und-guenstig-11168637.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/news/Apple-Softwarechef-Kontextsensitive-Siri-war-keine-Vaporware-10440967.html
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/mac-and-i
[10] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Nutzung von NordVPN (Symbolbild): Gerade nicht viel zu grinsen.
(Bild: NordVPN)
User des VPN-Dienstes aus Litauen melden seit dem Upgrade auf Version 10.0 Verbindungs- und Bedienungsprobleme beim Mac-Client. 10.0.4 soll es richten.
Wer den Mac-Client von NordVPN verwendet, hat unter Umständen derzeit Schwierigkeiten: Zahlreiche Nutzer auf Reddit und anderen Foren melden diverse Fehler [1] nach der großen Aktualisierung auf Version 10 der App. Diese wird unter anderem per Mac App Store vertrieben und ermöglicht die Verwaltung des Dienstes – darüber sucht man etwa aus, welche Technik verwendet werden soll und welche Ausgangs-IP genutzt wird. Nun kommt es vor, dass die Verbindung nicht gehalten wird und sich alle paar Minuten bis Sekunden neu herstellt, hieß es. Probleme gab es auch bei den DNS-Einstellungen und der Kill-Switch-Funktion, die sich zwischenzeitlich nicht deaktivieren ließ. Insgesamt soll die App nur langsam laufen und Bedienschwierigkeiten machen. Nutzer konnten das Problem auch nach mehreren Neustarts nicht beheben.
Weder die Mobil- noch die Windows-Versionen des NordVPN-Clients sollen betroffen sein, mancher Mac-Nutzer sieht die Fehler ebenfalls nicht. Momentan ist noch unklar, woran das liegt – möglicherweise arbeitet die Software je nach verwendetem Betriebssystem, also etwa macOS 15 (Sequoia) oder 26 (Tahoe) anders. NordVPN bestätigte das Problem mittlerweile und teilte mit, dass man ein „langsameres App-Verhalten, Lags bei der Navigation zwischen Eintstellungsbildschirmen und Tabs und eine erhöhte CPU-Last” erkannt hat.
Es handele sich dabei um ein bekanntes Problem und die Ingenieure seien gerade dabei, eine Lösung „zu identifizieren und zu implementieren”. NordVPN entschuldige sich dafür. Mittlerweile ist klar, wann die Lösung kommt: Bereits im Laufe des heutigen Freitags soll ein Hotfix auf Version 10.0.4 eingespielt werden, aktuell verteilt wird Version 10.0.3. Wer zuvor nicht auf NordVPN 10 aktualisiert hatte, wurde von dem Verhalten verschont.
Hilfreich kann zuvor sein, den Cache der App zu löschen, was allerdings einen Ausflug in Systemordner bedingt – das sollten nur Nutzer machen, die wissen, was sie da tun.
Der Vorfall zeigt, dass es bei VPN-Anbietern nicht immer sinnvoll ist, deren eigene Clients zu verwenden, die zudem teils tief in das System eingreifen. Die meisten Firmen erlauben es parallel auch, den Dienst manuell zu konfigurieren. Das ist bei NordVPN auch so, zumindest wenn man OpenVPN [2] nutzt. Hier lassen sich Konfigurationsdateien herunterladen [3]. Offiziell wird diese Methode für WireGuard nicht unterstützt, allerdings gibt es Anleitungen [4], um an die Daten zu gelangen.
URL dieses Artikels:
https://www.heise.de/-11261205
Links in diesem Artikel:
[1] https://www.reddit.com/r/nordvpn/comments/1skgmz6/horrible_update/
[2] https://openvpn.net/connect-docs/connect-for-macos.html
[3] https://nordvpn.com/de/blog/nordvpn-config-files/
[4] https://gist.github.com/bluewalk/7b3db071c488c82c604baf76a42eaad3
[5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[6] https://www.heise.de/mac-and-i
[7] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
(Bild: Apple)
Apple schickt Siri-Entwickler laut einem Bericht in ein KI-Bootcamp, um sie im Einsatz von KI-Coding-Tools zu schulen und das Team zu modernisieren.
Apple [1] schickt angeblich eine größere Zahl von Entwicklern seiner Sprachassistenz Siri in einen mehrwöchigen KI-Lehrgang, damit diese lernen, wie sie KI-Coding-Tools für die Programmierung einsetzen können. Laut einem neuen Bericht will Apple dafür sorgen, dass das Team zu anderen Abteilungen im Hause aufschließt. Gerade die Arbeit des Siri-Teams steht in diesem Jahr besonders im Fokus der Öffentlichkeit, ist es doch bislang die im Jahr 2024 versprochene Weiterentwicklung des Sprachassistenten [2] schuldig geblieben.
Es gehe um weniger als 200 Personen aus einer Gruppe von insgesamt mehreren hundert Entwicklern. Nach dem Bootcamp sollen noch rund 60 Entwickler im Kern-Siri-Team verbleiben. Weitere 60 sollen für Qualitätssicherung und Sicherheits-Evaluierung verbleiben. Apple plant offenbar, ein kleineres, schlagkräftigeres Team zu bilden, das mithilfe von KI-Coding-Tools eine höhere Effizienz erreicht.
Der Bericht von The Information [3], der sich auf namentlich nicht genannte Quellen im Unternehmen stützt, knüpft an frühere Veröffentlichungen an, die ein eher betrübliches Bild der Siri-Abteilung [4] zeichneten. So soll das Siri-Team bei Apple intern seit Jahren als Nachzügler („laggard“) gelten. Es ist von aufgeblähten Strukturen und mangelnder Wettbewerbsfähigkeit die Rede.
Offiziell lassen sich die durchgesickerten Informationen nicht bestätigen, weil Apple zu solchen Interna schweigt. Allerdings deuten die Ergebnisse und personelle Umwälzungen der vergangenen Monate und Jahre darauf hin, dass es in der Siri-Abteilung Apples nicht rund läuft. Die im Jahr 2011 erstmals veröffentlichte Sprachassistenz [5] ließ schon vor dem Hype signifikante Weiterentwicklungen vermissen. Spätestens seit der Konkurrenz durch Chatbots wie ChatGPT, Claude und Gemini sieht Apples Siri aber richtig alt aus.
Das sollte sich mit der Einführung der Apple Intelligence, die auf der Entwicklerkonferenz WWDC im Jahr 2024 vorgestellt wurde, signifikant ändern – tat es aber nicht. Stattdessen musste Apple die Veröffentlichung der angekündigten KI-Siri öffentlich verschieben [6]. KI-Chef John Giannandrea nahm seinen Hut [7]. An seiner Stelle hat Softwarechef Craig Federighi das Zepter übernommen. Er hat Mike Rockwell, der für die Vision Pro verantwortlich zeichnete, mit der Verantwortung für die Weiterentwicklung von Siri betraut.
Mit der Bekanntgabe, dass Google mit seinem KI-Modell Gemini künftig die Grundlage für die KI-Siri [8] bildet, schien der erhoffte Neuanfang erreicht. Der jetzige Bericht von The Information deutet aber darauf hin, dass die zu bewältigende Arbeit für die Modernisierung offenbar doch viel umfangreicher ausfällt. Beobachter wundern sich, dass Apple Teile seines Siri-Teams zwei Monate vor der WWDC auf einen Lehrgang schickt. Es könnte aber darauf hindeuten, dass die für iOS 27 erforderlichen Arbeiten größtenteils abgeschlossen sind und sich der Blick des Teams teilweise schon auf die kommenden Schritte richtet.
Auf der Weltentwicklerkonferenz Apples, die am 8. Juni beginnt, werden mit iOS 27 erste konkrete Ergebnisse [9] des Siri-Neustarts erwartet. Die neue Siri soll besser mit natürlicher Sprache zurechtkommen, gesprächiger sein und auch komplexe Aufgaben übernehmen können. Dazu gehört laut Brancheninsidern auch ein echter Chatbot-Betrieb mit eigener App [10], der längere Konversationen und eine Suchfunktion ermöglichen soll.
URL dieses Artikels:
https://www.heise.de/-11261019
Links in diesem Artikel:
[1] https://www.heise.de/thema/Apple
[2] https://www.heise.de/news/Apple-Intelligence-Das-sagen-der-KI-und-der-Software-Chef-zum-Siri-Neubeginn-9757150.html
[3] https://www.theinformation.com/articles/apple-sends-siri-staffers-coding-bootcamp-latest-shakeup-organization
[4] https://www.heise.de/news/Siri-Chaos-Warum-Apple-seine-bessere-Sprachassistentin-nicht-hinbekommt-10347900.html
[5] https://www.heise.de/news/Was-Siri-versteht-1355676.html
[6] https://www.heise.de/news/Bericht-Neue-Siri-doch-nicht-in-iOS-26-4-11173689.html
[7] https://www.heise.de/news/Apples-frueherer-KI-Chef-John-Giannandrea-verlaesst-das-Unternehmen-11255446.html
[8] https://www.heise.de/news/Nach-Siri-Fail-Apple-setzt-fuer-KI-Modelle-auf-Google-Gemini-11138386.html
[9] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[10] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[11] https://www.heise.de/mac-and-i
[12] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Nutzer von Apple Business: Keine Dienstleister mehr nötig?
(Bild: Apple)
Apple bündelt seine Angebote für Firmen und bringt die eingebaute Geräteverwaltung nach Deutschland – sogar kostenfrei. Die Details zum neuen Gesamtpaket.
Die neue Plattform für Geschäftskunden im Apple-Ökosystem ist da: Nach der Ankündigung von Apple Business im März [1] [1] geht es ab dieser Woche offiziell los. Das neue Paket kombiniert die bisher getrennten Dienste Apple Business Essentials, Apple Business Manager und Apple Business Connect in einer einzigen Oberfläche. Bestehende Daten migriert Apple automatisch. Kostenlose Geräteverwaltung, Markenmanagement auf Apple Maps plus Apple Mail und eine App-Verteilung für beliebig viele Geräte gehören zum Paket.
Nicht verfügbar sind in Deutschland vorerst die E-Mail-, Kalender- und Verzeichnisdienste, zusätzlicher iCloud-Speicher, AppleCare+ for Business (also eine Geräteversicherung für Geschäftskunden), Werbung in Apple Maps für Geschäftskunden sowie das Feature „Verifizieren mit Wallet im Internet“. Letzteres ist eine Funktion, mit der sich Nutzer über digitale Ausweisdokumente auf Websites identifizieren. Eine Übersicht der regionalen Verfügbarkeiten der einzelnen Dienste [2] [2] hat Apple in ein Supportdokument gepackt.
Für IT-Administratoren ist vor allem die eingebaute Geräteverwaltung interessant, die bislang als kostenpflichtiges US-Abo lief. Unternehmen, die Apple-Hardware einsetzen und bisher auf Mobile Device Management (MDM) verzichtet haben, erhalten damit erstmals ein Bordmittel. iPhones, iPads und Macs lassen sich per MDM von einem zentralen Ort aus konfigurieren, absichern und bei Verlust sperren.
URL dieses Artikels:
https://www.heise.de/-11260854
Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Business-Kostenlose-All-in-One-Plattform-fuer-Unternehmen-startet-11223070.html
[2] https://support.apple.com/de-de/126603
Copyright © 2026 Heise Medien
Angriff auf den Expressmodus: Visa sieht sich abgesichert.
(Bild: Veritasium / Screenshot YouTube)
Mit dem Expressmodus kann man in U-Bahn-Systemen wie in London oder New York schnell sein Ticket per NFC bezahlen. Besteht hier eine Sicherheitslücke?
iPhone und Apple Watch verfügen im Rahmen von Apple Pay über eine Funktion, die die Nutzung von Nahverkehrssystemen in aller Welt erleichtern soll. Mit dem sogenannten Expressmodus muss man sein Gerät nur noch an das Lesegerät an der Zugangssperre halten und löst dann automatisch sein Ticket über eine hinterlegte Kreditkarte. Das geht etwa in der New Yorker U-Bahn [1] oder in London. Ein Entsperren des Apple-Geräts per Fingerabdruck, Gesichtserkennung oder PIN ist nicht notwendig, sofern man den Expressmodus aktiviert hat.
Doch wie sicher ist das? Wäre es möglich, so auf fremde Kosten mit der bei Apple Pay hinterlegten Kreditkarte einzukaufen? Ein Video des bekannten Wissenschaftskanals Veritasium [2] hat das nun näher untersucht. Das Ergebnis: Mit (ziemlich viel) Mühe und spezieller Hardware sowie Karten eines bestimmten Kreditkartenausgebers konnte dem bekannten YouTuber MKBHD bei einem Testlauf eine größere Geldsumme entwendet werden.
Gänzlich neu ist der Ansatz nicht, bereits 2021 konnten Sicherheitsforscher der Hochschulen Surrey und Birmingham das Vorgehen demonstrieren [3]. Allerdings scheint sich seither wenig getan zu haben. Der Grund: Visa, der Kartenausgeber, der davon betroffen ist, meint, es sei unwahrscheinlich, dass es in der Praxis zu dem Angriff kommt. Zudem, sagte Apple gegenüber Veritasium, habe Visa mitgeteilt, dass der übliche Zahlungsschutz greift. Betroffene können die Kreditkartenbuchung also widerrufen, selbst wenn das mit viel Ärger verbunden sein dürfte.
Der Angriff selbst ist eine Man-in-the-Middle-Attacke: Das iPhone wird auf ein manipuliertes NFC-Lesegerät gelegt, das sich als legitimes ÖPNV-Terminal ausgibt. Es zieht Zahlungsdaten vom iPhone drahtlos ab, die dann wiederum an ein Notebook weitergereicht werden, auf dem sie mittels Python-Skript manipuliert werden. Die Informationen werden anschließend auf ein Burner-Gerät – offenbar ein Android-Telefon, das gerootet wurde – weitergeleitet. Letzteres führt dann die Transaktion auch tatsächlich aus, wenn es auf einen Kartenleser gelegt wird – mit den iPhone-Daten. Der manipulierte Leser musste die gleiche Terminal-ID haben wie ein legitimes Tap-to-Pay-Terminal in einer ÖPNV-Station. Die komplexe Methode funktioniert nicht mit MasterCard und American Express, da es hier offenbar weniger leicht ist, legitime Daten an das Android-Gerät weiterzuleiten.
Interessant: Eines der von den Forschern entdeckten Probleme war, dass iOS in der aktuellen Form offenbar darauf vertraut, dass das NFC-Lesegerät angibt, dass es sich bei der abgefragten Summe um eine geringe handelt. Tatsächlich gegen die Zahl geprüft wird das aber nicht, es wird nur ein Flag gelesen und diesem dann geglaubt. Bei Geräten anderer Hersteller sei das nicht so, sagt Veritasium. Das heißt: Es konnte dem iPhone vorgegaukelt werden, dass es sich um eine Kleinzahlung handelt, die für den Expressmodus üblich sind, während dann tatsächlich 10.000 US-Dollar abgebucht wurden.
Es ist unklar, ob Kriminelle die komplexe Methode tatsächlich einsetzen. Wer auf Nummer sicher gehen will, nutzt den ÖPNV-Expressmodus nicht mit Visa-Karten. Dann sollte die Angriffsform grundsätzlich nicht möglich sein.
URL dieses Artikels:
https://www.heise.de/-11260078
Links in diesem Artikel:
[1] https://www.heise.de/news/New-York-City-will-U-Bahn-Ticket-aufs-iPhone-bringen-10364410.html
[2] https://www.youtube.com/watch?v=PPJ6NJkmDAo
[3] https://www.heise.de/news/Apple-Pay-Funktion-erlaubt-angeblich-Geldklau-von-gesperrten-iPhones-6204960.html
[4] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[5] https://www.heise.de/mac-and-i
[6] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Mensch mit Foldable (nicht von Apple): Das iPhone Ultra wird im Herbst erwartet.
(Bild: Karlis Dambrans / Shutterstock)
Das iPhone Ultra soll ab September Apples erstes Falt-Handy werden. In Nordamerika könnte es laut Marktforschern schnell Samsung & Co. überholen.
Wenn Apple mit seinem iPhone Ultra [1] im kommenden Herbst erstmals auf den Foldable-Markt vordringt, könnte der Hersteller schnell Marktanteile gewinnen. Davon geht zumindest das üblicherweise zuverlässige Marktforschungsunternehmen Counterpoint in einer in dieser Woche veröffentlichten Prognose aus. Allein in den USA könnte Apple demnach noch 2026 bis zu 46 Prozent des Gesamtmarktes an sich nehmen. Dank dem iPhone Ultra (das möglicherweise auch anders [2] heißt) soll der Markt für Falt-Handys zudem stark wachsen – laut Counterpoint bis zu 48 Prozent im Vergleich zum Vorjahr. Besonders viel Druck werde dabei auf Google mit seinem Pixel Fold [3] ausgeübt, aber auch Samsung und Motorola könnten mit ihren Foldables Marktanteile verlieren, schreibt Counterpoint.
Bei Google sieht Counterpoint trotz möglicherweise überarbeiteter Hardware eine Marktanteilsschrumpfung von 5 Prozent auf 3 Prozent im Jahr 2026. Der Marktanteil von Motorola mit seinen Razr-Foldables gehe gar um fast die Hälfte (von 44 auf 23 Prozent). Auch für Samsung sagt Counterpoint Verkaufsverluste voraus: Der Marktanteil werde von 51 auf 29 Prozent zurückgehen, auch wenn der Konzern global bei Foldables besser aufgestellt sei und selbst ein Pass-ähnliches Faltbares [4] wie Apple plant.
Counterpoint hat mit seiner Prognosestudie nur auf den nordamerikanischen Markt geschaut. In anderen Weltregionen könnte Apple mehr oder weniger Marktanteil erzielen. In den USA werde Apple die Richtung des Marktes „signifikant ändern”, so Counterpoint-Analystin Liz Lee. Foldables sind aktuell allerdings sowieso nur ein Nischengeschäft.
Der Foldable-Markt ist komplexer als andere Smartphone-Segmente. So werden viele Topmodelle aus China nicht in den USA oder Europa angeboten. So verkauft etwa Huawei seine Geräte nicht in den Vereinigten Staaten. Oppo, das mit dem Find N6 [5] zuletzt mit einem ersten nahezu „faltenfreien“ Foldable auf den Markt kam, bringt seine Geräte außerhalb Chinas nur langsam raus. Es kommt also zu Marktverzerrungen, weil nicht alle Geräte in allen Ländern verfügbar sind.
Spannend ist daher, wie sich der chinesische Markt entwickelt, wo immer wieder auch besondere Foldables – etwa Trifolds [6] – erschienen waren. Apple ist allerdings hervorragend positioniert, besonders teure Produkte in den Markt zu drücken. Der Konzern wird angeblich mindestens 2000 US-Dollar pro Ultra verlangen, mit mehr Speicher könnte es in Richtung 2800 Dollar gehen. Die Euro-Preise dürften bei Vollausstattung die 3000er-Marke knacken.
URL dieses Artikels:
https://www.heise.de/-11258867
Links in diesem Artikel:
[1] https://www.heise.de/news/iPhone-Ultra-Neues-zu-moeglichen-Preisen-Technik-und-Verfuegbarkeiten-11254203.html
[2] https://www.heise.de/news/iPhone-Foldable-Namensfragen-Mockups-und-moegliche-Verschiebung-11247703.html
[3] https://www.heise.de/news/Pixel-10-Pro-Fold-Foldable-ist-so-wasser-und-staubfest-wie-ein-Smartphone-10553245.html
[4] https://www.heise.de/news/Faltbares-Apple-Handy-Kommt-der-Formfaktor-des-iPhone-mini-als-Pass-zurueck-11125785.html
[5] https://www.heise.de/news/Foldable-Find-N6-Oppo-buegelt-die-Falte-aus-11213537.html
[6] https://www.heise.de/news/Nach-nur-drei-Monaten-Samsung-stellt-Verkauf-des-Galaxy-Z-TriFold-ein-11214319.html
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Gemini-App auf dem Mac.
(Bild: Google)
Google und Anthropic rüsten auf dem Mac auf: Gemini kommt erstmals als eigene Anwendung, während Claude Code gleichzeitige Sessions beherrscht.
Seit Längerem schon gibt es native Apps von Claude, Claude Code, Perplexity oder ChatGPT für den Mac [1]. Google mit Gemini fehlte bislang. Das hat der Internetriese nun geändert: In der Nacht zum Donnerstag wurde die erste native App für das KI-System freigegeben. Die Anwendung läuft ab macOS 15 alias Sequoia und kostet nichts, solange man mit einem Gratis-Account zurechtkommt.
Ähnlich wie ChatGPT oder Claude versucht sich Google mit der Gemini-App für macOS [2] an einer tieferen Integration ins System. Die App ist durch einen Tastaturbefehl zu erreichen, der an die macOS-Systemsuche Spotlight erinnert: Statt Command + Leertaste ist es Option + Leertaste. Ein vollständiges Gemini-Fenster erhält, wer zusätzlich die Umschalttaste drückt. Die App ist zudem via Dock und Menüleiste erreichbar. Wie bei der Konkurrenz lassen sich auch Bildschirminhalte und einzelne Fenster freigeben, damit Gemini diese analysieren kann und „kontextbezogene Hilfe“ bietet, so Google. Integriert sind außerdem generative Modelle für Bilder und Video, also Nano Banana [3] und Veo, die sich „mit einem Klick“ aufrufen lassen sollen. Weitere Google-Werkzeuge wie NotebookLM, aber auch Dateien, Drive und Fotos sind eingebaut, auch wenn letztere drei nicht zur KI-Suite gehören.
Google hat im Gegensatz zu Perplexity-Computer [4] und anderen Ansätzen wie OpenClaw derzeit noch keine Desktop-Automatisierungen eingebaut. Diese sind aber künftig geplant. „Wir legen den Grundstein für einen wirklich persönlichen, proaktiven und leistungsstarken Desktop-Assistenten – in den kommenden Monaten werden wir Ihnen weitere Informationen dazu mitteilen“, schreibt das Unternehmen. Bestehende Gemini-Accounts von Mobilgeräten können weiterverwendet werden.
Neben der Gemini-App für macOS tut sich im Hinblick auf Mac-KI auch etwas beim Google-Konkurrenten Anthropic. Dort hat man nun dem Desktop-Client von Claude Code [5] neue Möglichkeiten verschafft. Er kann nun Sessions parallelisiert anzeigen und abfahren, Terminal-Fenster einblenden, mit verschiedenen Repos interagieren und mehr.
Ein YouTube-Video der neuen Features [6] wirkt anfangs recht chaotisch, da viele Entwickler mit parallelen Sessions arbeiten, ist der neue Funktionsumfang aber willkommen. Dabei gilt es zu beachten, ein ausreichend großes Claude-Paket abonniert zu haben. Die App ist auch für Windows und Linux zu haben, unter macOS und Linux kam nun auch SSH-Support hinzu.
URL dieses Artikels:
https://www.heise.de/-11259974
Links in diesem Artikel:
[1] https://www.heise.de/hintergrund/KI-zu-Befehl-So-kontrollieren-Sie-mit-Kuenstlicher-Intelligenz-Ihren-Mac-11162430.html
[2] https://gemini.google/mac/
[3] https://www.heise.de/tests/Nano-Banana-ausprobiert-Die-beste-kostenlose-KI-Bildbearbeitung-von-Google-10621377.html
[4] https://www.heise.de/news/Perplexity-baut-Personal-Computer-auf-Mac-mini-Basis-11209166.html
[5] https://claude.com/blog/claude-code-desktop-redesign
[6] https://www.youtube.com/watch?v=rWaQSQEm_aY
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/mac-and-i
[9] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Orion nutzt die Rendering-Engine von Apples Browser Safari, unterstützt Chrome- und Firefox-Erweiterungen und hält weitere nützliche Überraschungen bereit.
Der Browser ist die meistgenutzte Anwendung auf dem Rechner – und gleichzeitig die, über die sich viele am wenigsten Gedanken machen. Oftmals kommt so die vorinstallierte App oder einen Chrome-Klon zu Einsatz. Denn fast alle „alternativen“ Browser nutzen den technischen Unterbau von Googles Browser.
Das Unternehmen Kagi geht einen anderen Weg. Es setzt bei seinem Browser Orion auf das technische Fundament von Apples Safari-Browser und bettet sich gut in die Mac-OS-Welt ein. Auf die bei anderen Browsern allgegenwärtigen KI-Beigaben verzichtet der Hersteller bewusst.
Ich nutze den Browser seit ein paar Wochen als Standardbrowser und zeige, wo sich Orion bewährt hat. An einigen Stellen muss man ihn mit Erweiterungen aufrüsten. Und es gibt ein paar Details, bei denen der neue Browser noch nicht rund läuft.
URL dieses Artikels:
https://www.heise.de/-11229328
Links in diesem Artikel:
[1] https://www.heise.de/tests/Orion-im-Test-Der-Browser-der-Chrome-Firefox-vereint-11229328.html
[2] https://www.heise.de/ratgeber/Bookmark-Manager-Links-sammeln-und-clever-organisieren-11213553.html
[3] https://www.heise.de/ratgeber/YouTube-per-Bookmarklet-ohne-peinliche-Uebersetzungen-nutzen-11150540.html
[4] https://www.heise.de/tests/Comet-fuer-Android-Wie-Perplexitys-KI-Browser-die-Google-Suche-ersetzen-will-11099570.html
[5] https://www.heise.de/hintergrund/So-nutzen-Sie-Bookmarklets-zum-Automatisieren-im-Browser-11081590.html
[6] https://www.heise.de/ratgeber/WhatsWeb-Webseiten-Scanner-im-Test-11078848.html
[7] https://www.heise.de/ratgeber/KI-Browser-Was-hinter-den-Trojanische-Surfbrettern-steckt-10973803.html
[8] https://www.heise.de/tests/Smarter-surfen-Sieben-Browser-mit-KI-Funktionen-im-Vergleich-10665754.html
[9] https://www.heise.de/tests/Smarter-surfen-Sieben-Browser-mit-KI-Funktionen-im-Vergleich-10665754.html
[10] https://www.heise.de/hintergrund/Ungestoert-surfen-Werbung-Banner-Tracking-und-andere-Quaelgeister-loswerden-10501676.html
Copyright © 2026 Heise Medien
(Bild: Talukdar David/Shutterstock.com)
Einem Medienbericht zufolge stand die KI-App Grok kurz vor dem Ausschluss aus Apples App Store. Grund waren uneinvernehmlich erstellte Deepfake-Nacktbilder.
Der Vorwurf, der aus Kreisen der Politik und von Nutzern erhoben wurde, wog schwer: Fassen Apple und Google die Apps von finanz- und reichweitenstarken Unternehmen selbst bei eklatanten Verstößen gegen die App-Store-Regeln mit Samthandschuhen an? Dieser Verdacht ist in der Vergangenheit schon mit Blick auf die Apps von Meta laut geworden. Als jedoch bekannt wurde, dass das KI-Modell Grok uneinvernehmlich erstellte Deepfake-Nacktbilder von Frauen [1] und mutmaßlich auch von Kindern ermöglichte, schüttelten Kritiker nur noch mit dem Kopf. Wieso duldeten Apple und Google dies?
In einem nicht öffentlichen Brief an US-Senatoren, der jetzt durch NBC News veröffentlicht [2] wurde, tritt Apple dem Eindruck entgegen, dass das Unternehmen untätig geblieben sei. Sowohl xAI als Herausgeber der KI Grok als auch X als soziales Netzwerk, das Grok integriert, seien nach Beschwerden und Medienberichten kontaktiert worden. Auch habe Apple Verstöße gegen die Richtlinien festgestellt und den Firmen ein Ultimatum gestellt. Nur wenn sie ein Maßnahmenpaket zur Verbesserung der Content-Moderation umsetzen, bleibe ihnen der Rauswurf erspart. Auf politischer Ebene wird bereits über ein Verbot von KI-Systemen für Deepfakes [3] ohne Zustimmung diskutiert.
X und xAI haben zwischenzeitlich reagiert und das Erstellen von Deepfakes erschwert. Laut NBC News sollen die Schutzmechanismen weiterhin umgehbar sein. Veröffentlichungen in einem Ausmaß von vor einigen Monaten waren zuletzt aber nicht mehr festzustellen. xAI habe Apple unter anderem Einschränkungen der Bildbearbeitungsfunktionen und stärkere Zugriffsbeschränkungen versprochen.
Laut dem Bericht soll Grok auch tatsächlich kurz vor dem Rauswurf gestanden haben. Während bei X rasch nachgebessert wurde, habe sich der Entwickler der Grok-App Zeit gelassen. In der Öffentlichkeit war von alledem freilich nichts zu bemerken: Apple äußerte sich öffentlich zu den Vorgängen nicht. Kritiker beharren indessen darauf, dass der iPhone-Hersteller im Falle eines Einzelentwicklers oder Start-ups die Regeln konsequenter durchsetzen würde. Erst kürzlich wurde bekannt, dass Apple Updates für Vibe-Coding-Apps blockiert [4], weil diese gegen technische Richtlinien verstießen.
URL dieses Artikels:
https://www.heise.de/-11259603
Links in diesem Artikel:
[1] https://www.heise.de/news/Sexualisierte-Deepfakes-von-Grok-Betroffene-Minderjaehrige-klagen-in-den-USA-11213108.html
[2] https://www.nbcnews.com/tech/tech-news/apple-threat-remove-grok-app-store-deepfake-letter-musk-x-ai-rcna331677
[3] https://www.heise.de/news/EU-Ausschuss-unterstuetzt-Verbot-von-Deepfake-faehigen-KI-Systemen-mit-Ausnahmen-11216979.html
[4] https://www.heise.de/news/Apple-blockiert-Updates-fuer-Vibe-Coding-Apps-11216714.html
[5] https://www.heise.de/mac-and-i
[6] mailto:mki@heise.de
Copyright © 2026 Heise Medien
Das überarbeitete Werkzeug „Skin AI“ trennt zwischen Haut- und Gesichtsretusche, um wie hier die Haut zu glätten.
(Bild: Skylum)
Luminar hat seine KI-gestützte Bildbearbeitung um neue und verbesserte Werkzeuge für die Porträtretusche und möglichst natürliche Hintergrundunschärfe ergänzt.
Der Softwarehersteller Skylum bemüht sich mit der neuen Version der KI-Bildbearbeitung Luminar 1.27 um möglichst naturgetreue Hautretusche, authentisches Bokeh und natürliche Übergänge bei Masken. Die neuen Funktionen sind laut Hersteller sowohl auf dem Desktop als auch auf Mobilgeräten einheitlich verfügbar. Luminar synchronisiert die Bearbeitungen zwischen den Geräten. Fotografen sollen dadurch nahtlos wechseln und weiterarbeiten können.
Das überarbeitete Werkzeug „Skin AI“ trennt zwischen Haut- und Gesichtsretusche. Nutzer können so einzelne Bereiche bearbeiten, ohne das gesamte Gesicht zu verändern. Ein Blemish-Removal-Regler ersetzt die bisherige Checkbox zum Entfernen von Hautunreinheiten. Ziel ist ein natürlicher Look, der störende Details reduziert, aber die Hautstruktur erhält.
(Bild: Skylum)
Das Face-AI-Werkzeug erkennt selbsttätig Gesicht, Augen und Mund. Es kann in der neuen Version Augenringe abschwächen. Das soll auch bei leicht gedrehten Gesichtern zuverlässig funktionieren.
(Bild: Skylum)
Die neue Mask-Feather-Funktion sorgt für weiche Übergänge bei lokalen Anpassungen. Indem sie Übergänge zwischen bearbeiteten und unveränderten Bildbereichen glättet. Helligkeitskorrekturen oder Retuschen sollen damit natürlicher wirken.
(Bild: Skylum)
Der Filter „Bokeh AI“ bildet den Look lichtstarker Objektive nach. Er zeichnet den Hintergrund bei Porträts oder Tieraufnahmen weich und verleiht ihnen damit mehr Tiefe. Die Technik erzeugt mehrstufige Tiefenkarten, um die Geometrie der Szene vorherzusagen und Motive sowie Vorder- und Hintergrund zu trennen. So entsteht im Bestfall eine natürliche Unschärfe mit sanften Lichtpunkten.
(Bild: Skylum)
Das Update steht ab sofort für Windows und macOS sowie als Mobil-App für iOS, Android und ChromeOS zur Verfügung. Luminar kostet 140 Euro. Registrierte Nutzer erhalten das Update auf Version 1.27 kostenlos.
Siehe auch:
URL dieses Artikels:
https://www.heise.de/-11259046
Links in diesem Artikel:
[1] https://www.heise.de/download/product/skylum-luminar?wt_mc=intern.red.download.tickermeldung.ho.link.link
[2] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[3] mailto:akr@ct.de
Copyright © 2026 Heise Medien
Im „Color Mode“ von Premiere Pro lassen sich Farben für mehrere Clips simultan ändern.
(Bild: Adobe)
Mit einer neuen Farbsteuerung, KI-gestützter Maskierung und einer neuen Suchfunktion bringt Adobe nützliche Werkzeuge für professionelle Videocutter.
Die Videobearbeitungssoftware Adobe Premiere Pro 26.2 hat eine neu entwickelte Umgebung zur Farbkorrektur erhalten. After Effects 26.2 soll Personen und Objekte dank KI sauber maskieren und verfolgen können. Und die Cloud-Plattform Frame.io streamt künftig Videoinhalte.
Nutzer können im „Color Mode“ Farbkorrekturen direkt im Schnitt erledigen, ohne in eine separate Umgebung wechseln zu müssen. Das Video bleibt in voller Größe sichtbar.
Zuerst passt man Belichtung, Kontrast oder Farbtemperatur an. Danach bearbeitet man einzelne Bildbereiche oder entwickelt Looks. Premiere Pro zeigt an, ob eine Anpassung nur einen Clip betrifft oder eine ganze Sequenz beeinflusst. Der Color Mode soll mit dem Anspruch der Nutzer wachsen. Einsteiger sollen mit wenigen Reglern arbeiten und Profis komplexe Farblooks entwickeln können.
(Bild: Adobe)
Eine neue Suchfunktion hilft Anwendern, die mit umfangreichen Projekten arbeiten. Sie macht die Timeline nicht nur oberflächlich, sondern bis auf Clip-Ebene durchsuchbar. Premiere Pro legt dazu einen Index mit Clipnamen, Spuren, Effekten, Markern und weiteren Metadaten an. Die Suche lässt sich außerdem nach Clips, Effekten oder Markern filtern.
Neben der Farbkorrektur hat Adobe KI-Werkzeuge zur Objektauswahl und Maskierung ergänzt. Bewegte Motive sollen sich schnell freistellen, Kanten präzise bearbeiten und feine Details wie Haare sauber erfassen lassen. Adobe kombiniert dabei Bildanalyse, Objekterkennung und Bewegungsverfolgung, um typische Objekte wie Menschen, Gesichter, Kleidung oder Gegenstände zu erkennen.
(Bild: Adobe)
Eine neue Desktop-Anwendung für den Cloud-Dienst Frame.io Drive bindet Videoprojekte wie ein lokales Laufwerk ein. Dateien sollen sich damit ohne Download oder Synchronisation in Premiere Pro, Photoshop oder After Effects nutzen lassen. Statt Dateien zu verschicken oder zu kopieren, greifen Teams gleichzeitig auf eine gemeinsame Datenbasis zu. Damit entfallen Probleme wie Versionskonflikte oder verzögerte Datenübertragung. Die Inhalte werden bei Bedarf gestreamt, ein Zwischenspeicher sorgt für flüssige Wiedergabe.
Die Updates für Premiere Pro und After Effects stehen laut Adobe ab sofort für Kunden der Creative Cloud zum Download zur Verfügung. Die Frame.io-App will Adobe schrittweise und zunächst nur für Unternehmenskunden einführen. Das Komplett-Abo Creative Cloud Pro kostet 78 Euro monatlich. Ein Einzelabo von Adobe Premiere Pro oder After Effects kostet jeweils 26 Euro pro Monat.
Siehe auch:
URL dieses Artikels:
https://www.heise.de/-11258200
Links in diesem Artikel:
[1] https://www.heise.de/download/product/adobe-premiere-pro-33612?wt_mc=intern.red.download.tickermeldung.ho.link.link
[2] https://www.heise.de/download/product/adobe-after-effects-36621?wt_mc=intern.red.download.tickermeldung.ho.link.link
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:akr@ct.de
Copyright © 2026 Heise Medien
Wer bei Aufräumaktionen auf der SSD Musik löscht, steht womöglich mit einer unvollständigen Musik-App-Datenbank dar. So bereinigen Sie diese wieder.
Ich habe meine SSD aufgeräumt und dabei auch lokale Musik mit dem Finder gelöscht. Nun gibt es in der Musik-App viele Einträge mit einem Ausrufezeichen. Wie kann ich diese gesammelt anzeigen und dann entfernen?
Leider gibt es kein direktes Kriterium für intelligente Wiedergabelisten, um solche Tracks aufzuspüren. Aber selbst, wenn es das gäbe, wäre es nur bedingt hilfreich.
Die Musik-App erkennt fehlende Dateien nämlich erst, wenn sie (vergeblich) auf sie zugreifen möchte, etwa bei der Wiedergabe oder beim Anzeigen von Metadaten.
In der Regel schlummern also viele Einträge in der Datenbank, bei denen die App noch gar nicht weiß, dass die zugehörigen Dateien nicht mehr existieren.
Es gibt aber einen Trick, der ohne Zusatztools auskommt. Damit er korrekt funktioniert, müssen Sie sicherstellen, dass sich keine gelöschten Dateien im Papierkorb befinden.
Die Musik-App findet diese und merkt sich den neuen Dateipfad – der Papierkorb ist im Prinzip auch nur ein Ordner.
Wechseln Sie in die Ansicht Titel und wählen dort mit Command + A alle Songs aus. Erstellen Sie nun über „Ablage > Neu > Playlist aus Auswahl“ (Umschalt + Command + N) eine Wiedergabeliste, die den gesamten Inhalt Ihrer Mediathek enthält.
Geben Sie ihr einen Namen, den Sie gut erkennen können, etwa „Alle Tracks (temp)“. Wenn Sie Songs zu einer Playlist hinzufügen, prüft die Musik-App, ob entsprechende Dateien noch im Dateisystem vorliegen.
Ist das nicht der Fall, fügt die App die verwaisten Einträge auch nicht zur neuen Wiedergabeliste hinzu.
Erstellen Sie jetzt über „Ablage > Neu > Intelligente Playlist“ (Option + Command + N) eine regelbasierte Wiedergabeliste. Ändern Sie hier das Kriterium „Künstler:in“ in „Playlist“, wählen daneben „ist nicht“ und dann die zuvor angelegte Playlist „Alle Tracks (temp)“ aus.
Mit „OK“ zeigt die Musik-App nun den intelligenten Ordner an, der alle Songs aufführt, die nicht in der zuvor angelegten Playlist enthalten sind.
Schalten Sie die Ansicht auf „Darstellung > Als Titel“ um, weil die Standarddarstellung fehlende Tracks nicht mehr kenntlich macht.
Sie sollten dann vor jedem Eintrag der Playlist ein Ausrufezeichen sehen. Wählen Sie mit Command + A alles aus, öffnen per Sekundärklick das Kontextmenü und führen dann „Aus Mediathek löschen“ aus. Das übliche Tastaturkürzel Command + Löschen funktioniert hier unter Umständen nicht.
Jetzt sind Sie alle verwaisten Einträge los. Die beiden Behelfsplaylists können Sie im Anschluss wieder löschen.
URL dieses Artikels:
https://www.heise.de/-11253505
Links in diesem Artikel:
[1] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[2] https://www.heise.de/mac-and-i
[3] mailto:wre@heise.de
Copyright © 2026 Heise Medien
Entwickeln mit KI: Claude Code und GitHub Copilot helfen.
(Bild: Vanessa Bahr / KI / heise medien)
Xcode integriert seit Version 26.3 auch externe AI-Dienste. Wir vergleichen die native Integration von Claude Code mit der Einbindung von GitHub Copilot.
Kaum eine Technologie hat die IT-Welt seit ihrem Erscheinen so sehr durcheinandergewirbelt wie die auf großen Sprachmodellen basierende künstliche Intelligenz. Vibe-Coding ist ein Trend, bei dem natürlichsprachliche Anweisungen an Code-Agenten die klassische Programmierung ersetzen. Das ist auch in Apples Entwicklungsumgebung möglich. GitHub Copilot von Microsoft ist ein mittlerweile erprobter KI-Coding-Assistent und lässt sich über ein Xcode-Plugin direkt in die Entwicklungsumgebung einbinden. Copilot punktet mit einer perfekten Anbindung an die GitHub-Plattform und einem ausgereiften Ökosystem. Was ihm noch fehlt, ist eine native Integration, wie sie Apple seit Xcode 26.3 für die Newcomer OpenAI Codex und Claude Code bietet.
Im Beispielprojekt, das Sie hier herunterladen [1] [1] können, implementiert GitHub Copilot eine Taschenrechner-App. Noch vor wenigen Jahren zählte dies zu den Standardaufgaben für Informatikstudenten. Den von der Microsoft-KI selbstständig entwickelten Code lassen wir anschließend von Claude Code analysieren und verbessern.
Denn bei der Qualität des generierten Codes bewegt sich die Microsoft-Lösung im Mittelfeld – ein Kompromiss, den viele Teams zugunsten des nahtlosen GitHub-Workflows eingehen. Copilot ist in allen GitHub-Plänen verfügbar, auch im kostenlosen Plan. Dieser ist freilich in Anzahl der Anfragen sowie der Auswahl der Modelle begrenzt. Für ein erstes Schnuppern sollte es aber reichen. Eine Übersicht über alle Pläne und deren Features findet sich auf der GitHub-Webseite [2] [2].
URL dieses Artikels:
https://www.heise.de/-11255049
Links in diesem Artikel:
[1] https://ftp.heise.de/mac-and-i/listings/2026/03/mi2603_sourcecode.zip
[2] https://github.com/features/copilot/plans
Copyright © 2026 Heise Medien
Die Blackmagic URSA Cine Immersive 100G erscheint im Herbst.
(Bild: Blackmagic Design)
Blackmagic bringt ein Stereokameramodell heraus, das für immersives Live-Streaming optimiert ist. Apple demonstrierte die Technik bereits auf der Vision Pro.
Rund ein Jahr nach der Markteinführung der Blackmagic URSA Cine Immersive [1] kündigt das Unternehmen eine neue Version der Stereokamera an. Die URSA Cine Immersive 100G ist kein komplett neues Modell, sondern eine Weiterentwicklung mit Fokus auf die Live-Übertragung hochauflösender 180-Grad-3D-Videos.
Die in der Ankündigung hervorgehobenen Sensoreigenschaften sind im Kern bereits Teil der ursprünglichen URSA Cine Immersive, die Aufnahmen mit 8160 × 7200 Pixeln pro Auge bei bis zu 90 Bildern pro Sekunde und 16 Blendenstufen Dynamikumfang ermöglicht.
Neu an der URSA Cine Immersive 100G ist die optimierte Live-Infrastruktur: 100G-Ethernet statt 10G-Ethernet sowie der separat erhältliche Blackmagic URSA Live Encoder, ein Prozessormodul, das immersives Live-Video in Apple ProRes komprimiert und als SMPTE-2110-22 IP ausgibt. Dadurch lassen sich die stereoskopischen Bildströme mit hohen Bildraten über eine einzige 100G-Ethernet-Verbindung übertragen, schreibt Blackmagic Design.
Der Hersteller bezeichnet URSA Cine Immersive 100G als erste Kinokamera, die für Live-Produktionen auf Basis von Apple Immersive Video ausgelegt ist, einem immersiven 180-Grad-Videoformat, das eigens für Apple Vision Pro [2] entwickelt wurde. Wie schon das Standardmodell dürfte sich das neue Modell trotz Apple-Fokus auch für die Ausgabe an andere Endgeräte eignen.
Apple und Blackmagic arbeiten im Bereich immersiver Video eng zusammen: Blackmagic liefert die Kamerahardware und Bearbeitungssoftware, Apple stellt mit der Vision Pro die Plattform und Inhalte bereit. Zu den Apple-Produktionen gehören etwa der U-Boot-Kurzfilm „Submerged“ [3] sowie immersive Dokumentationen wie „Wild Life“ und „Elevated [4]“.
Was das neue Modell im Bereich Live-Streaming leistet, demonstrierte Apple Anfang des Jahres mit Live-Übertragungen von Spielen der LA Lakers [5] auf der Apple Vision Pro. Zuschauer konnten die Partien in ausgewählten Regionen als immersives 180-Grad-Erlebnis mit mehreren Perspektiven verfolgen, das sie virtuell direkt ans Spielfeld versetzt.
Ab Herbst könnten andere Produzenten das Angebot an immersiven Livestreams erweitern: Das 100G-Modell soll im dritten Quartal 2026 erscheinen. Der Preis liegt laut Ankündigung [6] bei 26.495 US-Dollar zuzüglich lokaler Steuern und Abgaben. Das Standardmodell ist im Preis gefallen und kostet nun 24.995 US-Dollar, also 5.000 US-Dollar weniger als zur Markteinführung. Im Webshop werden allerdings abweichende Dollar-Preise für beide Modelle genannt. Der separat erhältliche Blackmagic URSA Live Encoder erscheint im Laufe des Jahres, einen genauen Termin nennt Blackmagic Design nicht. Im Webshop steht ein Preis von 1645 US-Dollar.
Das Unternehmen stellte gleichzeitig auch eine neue Version seiner Videosoftware DaVinci Resolve 21 [7] vor.
URL dieses Artikels:
https://www.heise.de/-11257343
Links in diesem Artikel:
[1] https://www.heise.de/news/Fuer-Apple-Immersive-Video-Blackmagics-3D-Kamera-kostet-30-000-US-Dollar-10202945.html
[2] https://www.heise.de/tests/Apple-Vision-Pro-M5-im-Test-Doppelt-haelt-besser-10793698.html
[3] https://www.heise.de/news/Unter-Wasser-Deutscher-Starregisseur-Berger-filmt-fuer-die-Vision-Pro-9975179.html
[4] https://www.heise.de/news/Vision-Pro-Mehr-immersive-Inhalte-von-Apple-9806015.html
[5] https://www.heise.de/news/Ausprobiert-Basketball-ganz-nah-mit-der-Vision-Pro-11137928.html
[6] https://www.blackmagicdesign.com/media/release/20260414-04
[7] https://www.heise.de/news/Videobearbeitung-DaVinci-Resolve-21-mit-KI-Werkzeugen-und-Fotofunktionen-11256439.html
[8] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[9] mailto:tobe@heise.de
Copyright © 2026 Heise Medien
Bordkarte in der Apple Wallet.
(Bild: Apple / heise medien)
Immer mehr Airlines unterstützen Apples mit iOS 26 eingeführte neue digitale Bordkarten in der Wallet. Diese Funktionen sollen helfen.
Bordkarten in der Apple Wallet gibt es seit vielen Jahren. Mit iOS 26 [1] hatte Apple hier eine Reihe neuer Features implementiert, die das Reisen mit einem iPhone weiter erleichtern sollten. Nach und nach machen nun immer mehr Fluggesellschaften [2] mit. Ein Überblick, was der neue digitale Boarding Pass [3] alles kann.
Bislang war die Apple Wallet für Bordkarten vor allem ein Anzeigeinstrument. Einmal hinzugefügt – etwa als E-Mail-Anhang oder direkt aus einer Airline-App – taucht die Karte samt QR-Code automatisch auf, wenn Zeit zum Abflug ist. Je nach Fluggesellschaft war es außerdem möglich, den Boarding Pass nachträglich zu aktualisieren, ein Feature, das allerdings nicht bei allen Fluggesellschaften zum Einsatz kam.
Mit iOS 26 gibt es hier eine Reihe von Verbesserungen, wobei es auch hier jeweils davon abhängt, was eine Airline unterstützen möchte und was nicht. Jüngstes Beispiel ist die gerade frisch auf Version 2026.10 gebrachte Anwendung von American Airlines [4]. Sie zeigt gut, welches Spektrum die neuen Bordkarten in Apple Wallet beherrschen, wenn die Features auch umgesetzt werden. Manche Gesellschaften wie Delta (siehe Bild) hatten einige der neuen Features bereits aktiv geschaltet, sie mittlerweile aus technischen Gründen aber wieder deaktiviert.
Die neue American-Airlines-App kommt nun erstmals mit einer Integration der Karten-App bei den Bordkarten. So soll man leichter ans Gate finden. Integriert sind außerdem sogenannte Destination Guides für das Reiseziel sowie die „Wo ist?“-Funktion fürs Gepäck, sollte man diesem einen AirTag spendiert [5] haben. Die Features gab es zwar vorher schon, doch die Wallet bringt sie nun zusammen. Bereits integriert hatte American Airlines Live-Aktivitäten für den Flugverlauf. Dabei zeigt die App im Sperrbildschirm, der Dynamic Island oder dem Smart Stack der Apple Watch den aktuellen Flugverlauf – laut Angaben der Gesellschaft „in Echtzeit“.
Andere Airlines, die die verbesserte Bordkarte unterstützen (oder unterstützen wollen) sind die Lufthansa-Gruppe, United, Virgin Austrlia, Qantas, Air Canada, JetBlue, Southwest sowie Jetstar. Wann Delta wieder mitmacht, ist derzeit noch unklar.
URL dieses Artikels:
https://www.heise.de/-11256549
Links in diesem Artikel:
[1] https://www.heise.de/ratgeber/iOS-und-iPadOS-26-in-Action-23-Tipps-fuer-die-neuen-Apple-Systeme-10646549.html
[2] https://www.heise.de/news/Apple-Wallet-Diese-Airlines-machen-bei-Apples-verbesserten-Bordkarten-mit-10762155.html
[3] https://support.apple.com/de-de/111112
[4] https://apps.apple.com/de/app/american-airlines/id382698565
[5] https://www.heise.de/tests/Lautstark-lokalisiert-AirTag-2-im-Test-11160732.html
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Das Videoschnittprogramm DaVinci Resolve 21 bearbeitet auch Fotos.
(Bild: Blackmagic Design)
Blackmagic Design erweitert seine Videobearbeitung DaVinci Resolve 21 um einen Arbeitsbereich zur Fotobearbeitung und KI-Werkzeuge etwa zur Porträtbearbeitung.
Das australische Unternehmen Blackmagic Design hat eine neue Version seines Videoschnittprogramms [1] vorgestellt: DaVinci Resolve 21 hat einen Arbeitsbereich zur Fotobearbeitung erhalten und legt einen weiteren Schwerpunkt auf künstliche Intelligenz.
(Bild: Blackmagic Design)
Die wohl größte Neuerung ist die Einführung der „Photo Page“. Damit können Nutzer Fotos ohne den Rückgriff auf externe Programme direkt in DaVinci Resolve bearbeiten. Im Fotobereich lassen sich beispielsweise Fotos zuschneiden und Farben korrigieren. Der Hersteller setzt dabei auf Node-gestützte Bearbeitung, die auch beim Color-Grading von Videos zum Einsatz kommt.
Nutzer sollen über Nodes komplexe Anpassungen kombinieren können. Änderungen lassen sich auf ganze Bilderserien anwenden. Über eine LightBox-Ansicht lässt sich das Resultat, angewendet auf ein Fotoalbum, kontrollieren. Auch eine Funktion zum Fotografieren mit angeschlossener Sony- oder Canon-Kamera ist integriert. Zur Unterstützung weiterer Kameras, etwa von Nikon oder Fujifilm machte der Hersteller bisher keine Angaben.
(Bild: Blackmagic Design)
Ein zweiter Schwerpunkt liegt auf KI-Werkzeugen. Blackmagic Design will damit typische Bearbeitungsschritte automatisieren oder verbessern. KI-Werkzeuge helfen beim schnellen Durchsuchen von Medieninhalten. Mit „AI IntelliSearch“ sollen sich Medien nach individuellen Personen und Objekten durchsuchen lassen. Die Ergebnisse erscheinen als Video-Clips im Media Pool.
Ein KI-Sprachgenerator erzeugt aus Text oder kurzen Sprachproben realistisch klingende Stimmen. Über „AI CineFocus“ soll man den Fokus eines Bildes nachträglich festlegen und Tiefenschärfe sowie optische Effekte gezielt steuern können. „AI Slate ID“ erkennt automatisch Klappentafel-Informationen und übernimmt Metadaten, um den Schnittprozess zu beschleunigen.
Eine ganze Reihe Werkzeuge bearbeitet Gesichter: Mit dem „AI Face Age Transformer“ lässt sich das Alter von Personen im Bild anpassen, um etwa zeitliche Sprünge glaubwürdig darzustellen. Der „AI Face Reshaper“ ändert Gesichtszüge in Videos. Ein KI-Werkzeug zur Hautretusche reduziert Hautunreinheiten, ohne die natürliche Hautstruktur zu verlieren.
DaVinci Resolve 21 ist derzeit als öffentliche Testversion verfügbar. Eine fertige Version soll im Laufe des Jahres 2026 erscheinen. Die Software steht für Windows, macOS und Linux zur Verfügung. Blackmagic Design stellt eine Basisversion kostenlos zum Download bereit. Die vorgestellten KI-Werkzeuge sind in der Studio-Version enthalten. Sie kostet 305 Euro.
Siehe auch:
URL dieses Artikels:
https://www.heise.de/-11256439
Links in diesem Artikel:
[1] https://www.heise.de/thema/Videoschnitt
[2] https://www.heise.de/download/product/davinci-resolve?wt_mc=intern.red.download.tickermeldung.ho.link.link
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:akr@ct.de
Copyright © 2026 Heise Medien
Apple Towson Town Center in Maryland: Bald dicht – angeblich wegen Krise in der Mall.
(Bild: Apple)
Der Towson Town Center Store war der erste in den USA, der eine gewerkschaftliche Vertretung hatte. Nun schließt er – laut Apple aus wirtschaftlichen Gründen.
Apple stellt den Betrieb in dem unter amerikanischen Arbeitnehmeraktivisten wohl bekanntesten Laden des Konzerns in den kommenden Monaten ein: Bis Juni soll der Towson Town Center Store in Maryland [1], gelegen in einem Vorort der Stadt Baltimore, zum letzten Mal öffnen. Der Store ist einer von drei US-Ladengeschäften des Konzerns, die Apple aus wirtschaftlichen Gründen schließt. Es sei eine „schwere Entscheidung“ gewesen, hieß es in einem Statement. Interessant dabei: Während Mitarbeiter der betroffenen Stores in Trumbull, Connecticut, und Escondido, Kalifornien, in andere Läden in der Nähe versetzt werden, kann sich die Besatzung aus Towson nur auf offene Stellen bewerben. Dies entspreche dem ausgehandelten Tarifvertrag, so der Konzern.
Der Towson-Store war der erste Apple-Laden in den USA, in dem eine gewerkschaftliche Organisation gelang, gegen die Apple selbst lange angekämpft [2] hatte. 2022 wurde per Mitarbeiterwahl entschieden, dass die International Association of Machinists and Aerospace Workers' Coalition of Organized Retail Employees, kurz IAM CORE, Hausgewerkschaft in dem Store wird. Bis 2024 wurde dann erfolgreich ein Tarifvertrag ausgehandelt und abgeschlossen [3]. IAM CORE hatte gehofft, dass dieser als Modell für andere Apple-Läden dienen könnte.
Apples Angaben zufolge macht man die drei Läden dicht, weil das jeweilige Umfeld immer schlechter geworden sei. Es habe in den Einkaufszentren, in denen diese liegen, den Abgang mehrerer Händler sowie „sich verschlechternde Bedingungen“ gegeben. Tatsächlich gibt es seit vielen Jahren ein sogenanntes Mall-Sterben in den USA, wie man es auch aus Europa kennt. Dabei verlassen wichtige „Ankerläden“ ein Einkaufszentrum, was dann wiederum zu einem Rückgang der Kundenzahl führt.
IAM Core sieht allerdings noch andere Gründe für den Beschluss, ausgerechnet Towson Town Center zu schließen. Man untersuche derzeit „alle rechtlichen Möglichkeiten” und sei „empört“ von Apples Entscheidung, hieß es in einem Statement [4]. Der Laden sei „kritisch“ für seine Umgebung und zudem per ÖPNV gut zu erreichen gewesen. Die Gewerkschaft sieht zudem nicht, warum der Tarifvertrag eine Versetzung der Mitarbeiter verhindere.
Gegenüber Macrumors teilte Apple mit, im Tarifvertrag sei geregelt, dass Mitarbeiter in einen anderen Laden versetzt oder erneut angestellt würden, sofern Apple einen neuen Laden im Umkreis von 80 Kilometern [5] eröffnet. Allerdings gibt es einen derartigen Laden momentan nicht. Apple habe auch keine entsprechenden Pläne. Sollte sich das innerhalb von 18 Monaten ändern, muss den gekündigten Arbeitnehmern als erstes ein Arbeitsangebot unterbreitet werden. Ansonsten stehe ihnen eine Abfindung zu.
URL dieses Artikels:
https://www.heise.de/-11256260
Links in diesem Artikel:
[1] https://www.apple.com/retail/towsontowncenter/
[2] https://www.heise.de/news/Massnahmen-gegen-Gewerkschaftsmitglieder-Mitarbeiter-gehen-gegen-Apple-vor-7328534.html
[3] https://www.heise.de/news/Apple-schliesst-vorlaeufigen-Vertrag-mit-US-Gewerkschaft-in-einem-Store-9817092.html
[4] https://www.facebook.com/MachinistsUnion/posts/the-iam-union-is-outraged-by-apples-decision-to-close-its-towson-md-storethe-fir/1374367958052059/
[5] https://www.macrumors.com/2026/04/10/unionized-apple-store-permanently-closing/
[6] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[7] https://www.heise.de/mac-and-i
[8] mailto:bsc@heise.de
Copyright © 2026 Heise Medien
Apple-Peripherie im Kurztest.
(Bild: Andreas Wodrich / heise medien)
Vier Produkte für Apple-Nutzer im Test: Stift für die Vision Pro, Lader für AirPods Max, iPhone-Game-Controller und Smart-Home-Rollladenschalter.
Für Mac, iPhone, iPad und Co. gibt es zahllose Zubehörprodukte. Im Mac & i-Kurztest haben wir fünf aktuelle Hardware-Angebote auf ihre Tauglichkeit überprüft. Dieses Mal dabei: Malen mit der Vision Pro, AirPods Max lagern und laden, besser Zocken mit dem iPhone und HomeKit-kontrollierbare Rollläden.
Der Muse-Controller von Logitech ist ein Stift, der nur mit der Vision Pro funktioniert. Er ähnelt dem MX Ink für Metas Quest. Zwei Knöpfe befinden sich vorne, der längere der beiden ist drucksensitiv. Ein dritter am anderen Stiftende dient als Power-Button. Der Stift kommt mit zwei unterschiedlich breiten Spitzen, die man leicht tauschen kann. Man koppelt ihn via Bluetooth mit dem Apple-Headset, geladen wird er per USB-C.
In VisionOS 26.2 sowie in ausgewählten Apps lässt sich der Stift als Fingerersatz nutzen, etwa im Designprogramm Spatial Analogue oder dem Malprogramm TouchDesk. Der Muse arbeitet mit seiner druckempfindlichen Spitze genauer als die Fingerspitzen und gibt durch einen Vibrationsmotor haptisches Feedback.
URL dieses Artikels:
https://www.heise.de/-11211350
Copyright © 2026 Heise Medien
Da war die Welt noch in Ordnung: YouTuberin und Moderatorin Justine Ezarik (von links), Apples KI-Chef John Giannandrea und Software-Chef Craig Federighi auf der Bühne im Steve-Jobs-Theater.
(Bild: Apple)
Nach dem holprigen Start von Apple Intelligence verlässt KI-Chef John Giannandrea das Unternehmen. Angekündigt wurde der Rückzug im Dezember.
Es war ein denkwürdiger Auftritt am Nachmittag des 11. Juni 2024: Apples damaliger KI-Chef John Giannandrea und Software-Chef Craig Federighi demonstrierten auf der Bühne des Steve Jobs Theater im Apple-Hauptquartier in Cupertino den großen Schulterschluss. Die von Apple-Chef Tim Cook eingeleitete Fragestunde [1] mit YouTuberin iJustine sollte die kurz zuvor vorgestellte Apple Intelligence inhaltlich vertiefen und vermutlich ein Signal der Einmütigkeit in der Apple-Chefetage ausstrahlen. Jetzt, nicht einmal zwei Jahre danach, wird Giannandrea das Unternehmen zur Monatsmitte verlassen.
Das Schicksal des früheren Google-Mitarbeiters ist eng verknüpft mit den KI-Bemühungen Apples [2]. Damals angekündigte Grundfunktionen der Apple Intelligence wie das Zusammenfassen von Texten oder maßgeschneiderte Emojis erreichten zwar binnen weniger Monate einen großen Teil der Apple-Kundschaft. Der Blick der Fachwelt richtete sich allerdings mehr auf das, was nicht kam: Siri sei kein Sprachassistent mehr, sondern ein Geräteassistent mit tieferem Verständnis dafür, was auf dem Gerät passiert, tönte Giannandrea in der damaligen Fragestunde. Zwei Jahre später gibt es immer noch nur die Ankündigung, dass Siri besser werden soll. Zuletzt verdichteten sich jedoch Berichte, wonach Apple für iOS 27 eine eigene Siri-App sowie einen Chatbot-Modus [3] plant.
Giannandrea kam im Jahr 2018 zu Apple. Bei Google war er zuvor acht Jahre lang tätig. Seine Expertise in Machine-Learning passte gut zu Apples Ambitionen, die mit der Neural Engine auch in Hardware gegossen wurden. Doch als mit ChatGPT von OpenAI Jahre später die generativen Sprachmodelle einen Hype auslösten, wirkte Apple wie auf dem falschen Fuß erwischt. Die Vorstellung der Apple Intelligence, 2024, sollte der Befreiungsschlag werden. Die „AI for the rest of us“ (KI für den Rest von uns) sollte mit dem Datenschutz-Vorrang punkten. Stattdessen machte Apple Schlagzeilen damit, dass die KI-Siri offenbar gar nicht funktionierte und das Projekt offenbar komplett zurückgesetzt werden musste. Intern gilt die Dauerbaustelle Siri bereits seit Längerem als Problemfall [4], da versprochene Funktionen immer wieder verschoben wurden.
Die diesjährige Entwicklerkonferenz WWDC am 8. Juni [5] soll nun den Trubel der vergangenen Jahre vergessen machen. Apple ist eine Kooperation mit Google eingegangen, um deren KI-Modell Gemini zu verwenden. Vor allem aber wurden erhebliche Veränderungen in der Leitung vorgenommen. Dabei gilt Federighi intern als Verfechter eines eher pragmatischen KI-Kurses mit Fokus auf Budgets [6] und Partnerschaften. Der ehemalige Vision-Pro-Chef brachte für den Umbau der Siri-Abteilung [7] zahlreiche Experten aus seinem alten Team mit. Weitere erfahrene Kräfte, die es richten sollen, sind Eddy Cue und Sabih Khan. Erneut ist ein Ex-Googler mit in der Verantwortung: Neuzugang Amar Subramanya soll als Vice President of AI aber deutlich weniger Eigenständigkeit genießen als sein Vorgänger. Er berichte an Federighi.
Giannandrea war in den vergangenen Monaten nur noch Berater für Apple. Sein Rückzug wurde im Dezember 2025 angekündigt, nachdem zuvor bereits laut geworden war, dass es zwischen den Ressortleitern bei Apple geknirscht hat. Bereits im März 2025 habe Cook Giannandrea deshalb die Leitung des Siri-Teams entzogen, hieß es in Medienberichten. Es war ein Rückzug in Raten. Sein Verbleib bis Mitte April erklärt Bloomberg-Reporter Mark Gurman [8] mit den üblichen Gepflogenheiten in börsennotierten Unternehmen, um Giannandrea noch eine letzte Aktienprämie auszahlen zu können.
Nach Apple will der frühere KI-Chef laut Bericht in verschiedenen Unternehmensvorständen mitwirken und als Berater für Start-up-Unternehmen tätig werden. Wie stark Apples stotternder KI-Motor tatsächlich mit seiner Person verknüpft war, wird sich in den nächsten Monaten zeigen. Finanziell profitiert der Konzern trotz technischer Rückstände massiv: Erwartungen zufolge wird Apple bald eine Milliarde US-Dollar durch KI-Apps [9] im App Store verdienen.
URL dieses Artikels:
https://www.heise.de/-11255446
Links in diesem Artikel:
[1] https://www.heise.de/news/Apple-Intelligence-Das-sagen-der-KI-und-der-Software-Chef-zum-Siri-Neubeginn-9757150.html
[2] https://www.heise.de/thema/Kuenstliche-Intelligenz
[3] https://www.heise.de/news/iOS-27-Apple-erwaegt-Siri-App-und-Siri-fragen-Knopf-11224654.html
[4] https://www.heise.de/news/Dauerbaustelle-Siri-Vision-Pro-Chef-soll-es-jetzt-richten-10323435.html
[5] https://www.heise.de/news/WWDC-2026-am-8-Juni-Apple-gewaehrt-ersten-Blick-auf-iOS-27-und-macOS-27-11221912.html
[6] https://www.heise.de/news/Federighi-und-Apples-KI-Ambitionen-Pragmatismus-statt-Innovation-11152262.html
[7] https://www.heise.de/news/Apple-baut-Siri-Abteilung-um-uebernimmt-Vision-Pro-Entwickler-10359675.html
[8] https://www.bloomberg.com/news/newsletters/2026-04-12/apple-ai-smart-glasses-features-styles-colors-cameras-giannandrea-leaving-mnvtz4yg
[9] https://www.heise.de/news/Apple-verdient-bald-eine-Milliarde-US-Dollar-dank-KI-im-App-Store-11221048.html
[10] https://www.heise.de/mac-and-i
[11] mailto:mki@heise.de
Copyright © 2026 Heise Medien