Xiaomis 17er-Serie kommt in zwei Variationen nach Deutschland, die sich in der Größe und bei der Kamera -Ausstattung unterscheiden.
Das Xiaomi 17 UltraBild:
Xiaomi
Xiaomi hat kurz vor dem Mobile World Congress (MWC) 2026 den internationalen Start seiner 17er-Serie bekannt gegeben. In Deutschland werden das Xiaomi 17 und das Xiaomi 17 Ultra erscheinen; die Leica Edition des Ultra wird hierzulande als Leitzphone auf den Markt kommen.
Das Xiaomi 17 und das 17 Ultra verwenden den gleichen Prozessor, zum Einsatz kommt Qualcomms aktuelles Premium-SoC Snapdragon 8 Elite Gen 5. Von der Displaygröße sind beide Modelle identisch mit ihren Vorgängern: Das 17 kommt mit einem 6,3 Zoll großen OLED-Bildschirm und einer Auflösung von 2.656 x 1.220 Pixeln und einer Bildrate von 120 Hz.
Das Ultra-Modell ist mit seinem 6,9 Zoll großen OLED-Display merklich größer als das 17. Die Auflösung liegt bei 2.608 x 1.200 Pixeln, die Bildrate beträgt auch hier 120 Hz. Beide Displays sind heller als bei der Xiaomi-15-Serie: Die Panels kommen dem Hersteller zufolge auf bis zu 3.500 cd/m².
Ultra-Modell mit Telezoom
Die Kameraausstattung unterscheidet sich zwischen den beiden Geräten: Das Xiaomi 17 kommt mit drei Kameras, die jeweils 50-Megapixel-Sensoren verwenden. Neben der Hauptkamera gibt es eine Superweitwinkelkamera und eine Telekamera mit 2,6-facher Vergrößerung. Die Frontkamera hat 50 Megapixel.
Bild 1/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 2/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 3/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 4/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 5/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 6/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 7/11: Das Xiaomi 17 Ultra (Bild: Xiaomi)
Bild 8/11: Das Xiaomi 17 (Bild: Xiaomi)
Bild 9/11: Das Xiaomi 17 (Bild: Xiaomi)
Bild 10/11: Das Xiaomi 17 (Bild: Xiaomi)
Bild 11/11: Das Xiaomi 17 (Bild: Xiaomi)
Das Xiaomi 17 Ultra hat ebenfalls drei Kameras, die Hauptkamera ist identisch mit der des 17. Die Superweitwinkelkamera hat ebenfalls 50 Megapixel, aber eine leicht größere Blende. Die Telekamera hat 200 Megapixel und einen mechanischen Zoom. Das ermöglicht eine stufenlose optische Vergrößerung im Bereich von 3,2-fach bis 4,3-fach. Auch beim Ultra hat die Frontkamera 50 Megapixel. Die Kameras der 17er-Serie wurden zusammen mit Leica entwickelt.
Der Akku des Xiaomi 17 hat eine Nennladung von 6.330 mAh, der des Xiaomi 17 Ultra ist mit 6.000 mAh etwas kleiner. Das 17 lässt sich per Kabel mit 100 Watt und drahtlos mit 50 Watt laden. Beim Ultra sind es jeweils 90 und 50 Watt. Ausgeliefert werden beide Smartphones mit Android 16 und Hyper OS, Xiaomis Android-Fork. Nutzer sollen fünf neue Android-Versionen und 6 Jahre lang Sicherheitsupdates bekommen.
Das Xiaomi 17 hat 12 GByte Arbeitsspeicher, die Version mit 256 GByte Flash-Speicher kostet 1.000 Euro. Die Variante mit 512 GByte Speicher kostet 1.100 Euro. Das Ultra hat 16 GByte RAM, mit 512 GByte Flash-Speicher kostet es 1.500 Euro. Die Version mit 1 TByte Speicher ist für 1.700 Euro zu haben, bis einschließlich dem 14. März 2026 gibt es das Modell für 1.550 Euro.
Das Leitzphone ist Leicas erstes weltweit verfügbares Smartphone – mit starkem Fokus auf die Kamera. Golem hat sich das 2.000-Euro-Smartphone angeschaut.
Das Leitzphone von LeicaBild:
Tobias Költzsch/Golem
Leica hat zusammen mit Xiaomi ein Smartphone unter eigenem Namen veröffentlicht: Das Leitzphone löst die bisherigen Leica Phones ab, die exklusiv nur in Japan verfügbar waren und zusammen mit Sharp entwickelt wurden. Diese Zusammenarbeit ist nun beendet, neuer Partner ist Xiaomi.
Golem konnte sich das Leitzphone bereits vor der Veröffentlichung anschauen – vor allem die Kamera, auf die Leica viel Wert legt. Technisch ist das Gerät ein Xiaomi 17 Ultra Leica Edition, das seinerseits außerhalb Chinas nicht auf den Markt kommen wird. Leica verspricht sich wohl vor allem für Europa, dass der Name Leitzphone stärkeren Eindruck hinterlässt als der von Xiaomi.
Das Design des Leitzphone ist schlicht und wird vom großen, runden Kameramodul auf der Rückseite dominiert. Dieses hat einen drehbaren Ring, über den sich verschiedene Funktionen steuern lassen. Wir haben bei unserem Testgerät den Zoom daraufgelegt, es ist aber auch möglich, den Fokus, den Weißabgleich oder die Belichtungskorrektur darüber zu steuern.
Teleobjektiv mit analogem Zoom
Der Zoom ist nicht ausschließlich digital, es gibt ein Teleobjektiv mit analogem Zoom. Alle Objektive sind von Leica entwickelt. Der Vergrößerungsbereich des Tele ist mit auf das Kleinbildformat umgerechnet 75 bis 100 mm eher klein, liegt aber in einem guten Bereich für Porträts. Der Sensor der Telekamera hat 200 Megapixel (Samsung HPE), entsprechend scheinen auch digital gezoomte Bilder bis zu einer 15-fachen Vergrößerung in unserem kurzen Test qualitativ noch gut zu sein.
Bild 1/7: Das Leitzphone von Leica kommt mit Xiaomis Android-Version, aber mit eigenem Skin. (Bild: Tobias Költzsch/Golem)
Bild 2/7: Eine im M9-Modus gemachte Aufnahme (Bild: Tobias Költzsch/Golem)
Bild 3/7: Das Design des Leitzphone ist schlicht. (Bild: Tobias Költzsch/Golem)
Bild 4/7: An der Seite sowie auf der Rückseite ist der Markenname von Leica abgebildet. (Bild: Tobias Költzsch/Golem)
Bild 5/7: Das Leitzphone hat drei Kameras, die Objektive stammen von Leica. (Bild: Tobias Költzsch/Golem)
Bild 6/7: Das Leitzphone kostet 2.000 Euro. (Bild: Tobias Költzsch/Golem)
Bild 7/7: Die Seite des Smartphones ist dank des eingefrästen Musters sehr griffig. (Bild: Tobias Költzsch/Golem)
Die Hauptkamera verwendet einen 1"-Sensor mit 50 Megapixeln (Light Fusion 1050L) und einer Blende von 1:1.67. Ein Bildstabilisator ist wie bei der Telekamera verbaut, die Brennweite entspricht umgerechnet 23 mm. Die Superweitwinkelkamera mit umgerechnet 14 mm verwendet einen 50-Megapixel-Sensor (Samsung JN5) mit einer Blende von f/2.2.
Die Bildergebnisse machen einen guten ersten Eindruck. Leica hat beim Leitzphone zwei verschiedene Fotostile eingebaut, Authentic und Vibrant – bei Letzterem ist die Sättigung etwas kräftiger. Außerdem gibt es die von Leica-Kameras bekannten Filter sowie Bokeh-Simulationen.
Zudem hat das Leitzphone die sogenannten Essential Modes. Darin lässt sich der Bildeindruck von zwei Kameraklassikern aus Wetzlar wählen: dem M9 mit Kodak-Sensor, der unter Leica-Liebhabern einen hohen Stellenwert genießt, und dem M3 in Schwarz-Weiß. Leica zufolge handelt es sich nicht um reine Filter, sondern um eine eigene Bildbearbeitungs-Pipeline.
Starke Bilder im M9-Modus
Vor allem der Look des M9-Essential-Mode gefällt uns gut: Die Bilder haben einen sehr warmen Look und neigen zu einem leichten Grünstich, den wir aber nicht unangenehm finden. Die Schwarz-Weiß-Bilder des M3-Modus haben einen guten Kontrast.
Den Drehring finden wir bei unserer Fotosession praktisch, aber kein Muss. Er vereinfacht sicherlich die Nutzung bestimmter Kameraoptionen, in der Realität dürfte aber wohl auch die Kamera des Leitzphone meist als Point-and-Shoot-Kamera verwendet werden.
Das Leitzphone ist mit 163 x 77,6 x 8,3 mm relativ groß, was auch am 6,9 Zoll großen OLED-Display liegt. Der Bildschirm hat eine Auflösung von 2.608 x 1.200 Pixeln, eine Bildrate zwischen 1 und 120 Hz und eine maximale Helligkeit von 3.500 cd/m². Der Bildeindruck ist gut, die Farbwiedergabe gefällt uns.
Im Inneren des Leitzphone steckt mit Qualcomms Snapdragon 8 Elite Gen 5 der aktuell leistungsfähigste Mobile-Chip im Android-Bereich. Ergänzt wird das SoC von 16 GByte Arbeitsspeicher und 1 TByte Flash-Speicher. Einen Leistungstest konnten wir im Rahmen unseres kurzen Hands-on noch nicht durchführen.
Ausgeliefert wird das Gerät mit Android 16 und Xiaomis Fork Hyper OS. Der Android-Skin ist allerdings an das Leica-Design angepasst worden. So gibt es eigene Icons sowie exklusive Widgets nur für das Leitzphone. Dazu zählt ein Goldene-Stunde-Widget, das Nutzern anzeigt, wann die goldene Stunde ist und man fotografieren gehen kann. Auch die Kamera-App des Smartphones ist an das Design der Lux-App angepasst worden.
Bild 1/7: Das Leitzphone von Leica kommt mit Xiaomis Android-Version, aber mit eigenem Skin. (Bild: Tobias Költzsch/Golem)
Bild 2/7: Eine im M9-Modus gemachte Aufnahme (Bild: Tobias Költzsch/Golem)
Bild 3/7: Das Design des Leitzphone ist schlicht. (Bild: Tobias Költzsch/Golem)
Bild 4/7: An der Seite sowie auf der Rückseite ist der Markenname von Leica abgebildet. (Bild: Tobias Költzsch/Golem)
Bild 5/7: Das Leitzphone hat drei Kameras, die Objektive stammen von Leica. (Bild: Tobias Költzsch/Golem)
Bild 6/7: Das Leitzphone kostet 2.000 Euro. (Bild: Tobias Költzsch/Golem)
Bild 7/7: Die Seite des Smartphones ist dank des eingefrästen Musters sehr griffig. (Bild: Tobias Költzsch/Golem)
Der Akku ist Leica zufolge 6.000 mAh groß und lässt sich mit bis zu 90 Watt per Kabel laden. Drahtloses Laden ist mit einer Leistung von bis zu 50 Watt möglich. Das Leitzphone ist nach IP68 vor Wasser und Staub geschützt.
Fazit
Das Leitzphone ist technisch gesehen ein Xiaomi 17 Ultra LE, bei dem Leica aber – wie bei vorigen Xiaomi-Smartphones – bei der Kameraentwicklung mitgewirkt hat. Insofern ist es kein reines Umlabeln, sondern am Ende ist der Unterschied zwischen dem Leitzphone und der Leica Edition aber lediglich eine Marketingentscheidung.
Das bedeutet nicht, dass das Leitzphone schlecht ist – im Gegenteil: Die Hardware macht einen sehr guten Eindruck, ebenso die Kamera mit ihren guten Objektiven und vor allem den tollen Essential Modes. Der drehbare Ring ist ein nettes Gimmick, wäre für uns aber nicht kaufentscheidend.
Kaufentscheidend dürfte bei den meisten wohl eher der Preis sein: Mit 2.000 Euro ist das Smartphone 300 Euro teurer als das Xiaomi 17 Ultra ohne Drehring und Essential Modes. Für die Mehrkosten bekommen Käufer noch Zugang zu Leicas Kundendienst – bei Problemen müssen sich Besitzer des Leitzphone nicht an Xiaomi wenden.
Das Leitzphone wird es direkt bei Leica und Xiaomi geben. In Deutschland ist zudem die Deutsche Telekom exklusiver Vermarktungspartner, auch dort wird es das Smartphone geben.
Der Autohersteller BMW startet ein Pilotprojekt für humanoide Roboter in der Produktion. Es geht um ermüdende und millimetergenaue Arbeit.
BMW testet den humanoiden Roboter Aeon in Leipzig.Bild:
BMW
Der Münchner Autohersteller BMW testet in seinem Leipziger Werk erstmals in Europa den Einsatz humanoider Roboter. Während des Tests und später in der Pilotphase solle der Roboter Aeon des Unternehmens Hexagon Robotics in der Montage von Hochvoltbatterien und in der Komponentenfertigung zum Einsatz kommen, teilte BMW am 28. Februar 2026 mit . Ziel des Projekts sei es, humanoide Robotik in die bestehende Serienproduktion von Automobilen zu integrieren und Einsatzmöglichkeiten zu erproben.
Der Mitteilung zufolge lassen sich an den menschenähnlicher Korpus von Aeon verschiedenste Hand- und Greifelemente oder Scan-Werkzeuge flexibel andocken. Der Roboter bewege sich auf Rollen und sei dynamisch einsetzbar.
Laut BMW erfolgten erste Tests mit humanioden Robotern bereits im US-amerikanischen Werk in Spartanburg. In Zusammenarbeit mit dem Unternehmen Figure AI habe sich gezeigt, dass sogenannte körperliche KI (engl.: Physical AI) einen messbaren Mehrwert leisten könne. "Innerhalb von zehn Monaten unterstützte der Roboter Figure 02 die Produktion von mehr als 30.000 BMW X3 und arbeitete dabei täglich von Montag bis Freitag in einer 10-Stunden-Schicht" , heißt es in der Mitteilung.
Präzises Arbeiten möglich
Dabei habe Figure 02 die präzise Entnahme und Positionierung von Blechteilen für den Schweißprozess übernommen. Diese Aufgabe stellte hohe Anforderungen an Geschwindigkeit und Genauigkeit und sei gleichzeitig körperlich ermüdend. Insgesamt habe Figure 02 mehr als 90.000 Bauteile bewegt und in rund 1.250 Betriebsstunden etwa 1,2 Millionen Schritte zurückgelegt.
Das Pilotprojekt bestätigte demnach, "dass humanoide Roboter präzise, wiederholgenaue Arbeitsschritte – etwa das millimetergenaue Positionieren von Komponenten – sicher ausführen können" . Der Einsatz der Roboter sei bei den Mitarbeitern auf großes Interesse gestoßen und habe sich im Projektverlauf zu einem selbstverständlichen Teil des Arbeitsalltags entwickelt.
1259 v. u. Z. schlossen Ägypten und die Hethiter Frieden. Zuvor kämpften beide Großmächte um Syrien. Doch wie kam es nach der verlorenen Schlacht zum Vertrag?
Im Uno-Hauptquartier in New York hängt die Kopie eines Vertrages aus dem Jahre 1259 v. u. Z., den der ägyptische Pharao Ramses II. (1279–1213 v. u. Z.) mit dem Großkönig der Hethiter Ḫattušili III. (1267–1240 v. u. Z.) geschlossen hat.
Es ist einer der ersten überlieferten Verträge zwischen zwei konkurrierenden Großmächten in der Geschichte der Menschheit. Die Originale der wechselseitig ausgestellten Texte bestanden aus silbernen Tafeln. Dieses Material wurde wegen der immensen Bedeutung des Abkommens gewählt. Erhalten sind uns nur Kopien auf Tontafeln.
Das Hethiterreich
Das ägyptische Pharaonenreich am Nil ist weithin bekannt. Aber wer sind die Hethiter und wo lag deren Reich? Das Kernland der Hethiter lag in Anatolien und am Oberlauf von Euphrat und Tigris. Phasenweise reichte es bis an die Küste der Ägäis. Die Hauptstadt im anatolischen Hochland im Bogen des Flusses Halys (Maraššanta) hieß Ḫattuša (Hattuscha).
Zeitweilig wurde sie ins südliche Anatolien nach Tarhuntassa verlegt. Das Reich – Ḫatti genannt – bestand zwischen 1720 und 1190 v. u. Z. und dominierte im zentralen Kleinasien für etwa 500 Jahre.
Karte des Vorderen Orients im 13. Jahrhundert v.u.Z.
An der Spitze des Reiches stand ein Großkönig, der die Streitkräfte anführte, oberster Priester war, Verträge mit anderen Mächten schloss, Gesetze erließ und den Thronfolger bestimmte, der zumeist aus der königlichen Sippe kam. Thronstreitigkeiten unter den Verwandten führten wiederholt zu Schwächephasen der hethitischen Macht und zuletzt um 1190 v. u. Z. zum Untergang.
Mit Ägypten gab es eine gemeinsame Grenze an den Ufern des Mittelmeers nördlich der phönizischen Küstenstädte, Byblos, Sidon und Tyros, sowie nördlich von Damaskus nach modernen Kategorien im libanesisch-syrischen Raum. Dort entzündeten sich die Konflikte zwischen beiden Reichen. Der dritte Faktor im Ringen der altorientalischen Großmächte im 13. Jahrhundert v. u. Z. war Assyrien, das südöstlich an das Hethiterreich grenzte und im Wesentlichen das Zweistromland beherrschte.
Im Westen zur Ägäis hin existierten zu dieser Zeit von den Hethitern abhängige Klientelstaaten, worunter Wilusa, das hypothetisch mit Troja identifiziert wird, wegen des legendären von Homer beschriebenen Krieges der Berühmteste ist. Schon um 1280 v. u. Z. schlossen der hethitische Großkönig Muwatalli II. und Alexander von Troja den sogenannten Alaksandu-Vertrag.
Ende der Bronzezeit
Der Untergang der Hethiter markierte das Ende der Bronzezeit. Die Seevölker fegten über das damalige Staatensystem und brachten große Umbrüche mit. Klimatische Veränderungen – anhaltende Trockenheit – taten ein Übriges. Um 1190 v. u. Z. endete das letzte hethitische Großkönigtum des Suppiluliuma II.
Einige kleine Nachfolgereiche im Süden – Tarhuntassa, Karkemissa – setzten die hethitische Kultur noch Jahrhunderte fort. Hethitische Krieger erfreuten sich weiter hoher Wertschätzung. König David, der um 1000 v. u. Z. zuerst über Juda und dann auch über Israel herrschte, hatte hethitische Söldner, die sich in den Aufständen gegen ihn als sehr zuverlässig erwiesen.
David hat es ihnen nicht gedankt. Seinen besten Kämpfer, den Hethiter Uria (Urija), ließ er bei der Belagerung von Rabba, der Hauptstadt des Königreiches Ammon, soweit nach vorne schicken, dass der Hethiter fallen musste, erfahren wir aus dem Alten Testament. Der Herrscher befahl seinem Feldherrn Joab: "Stellt Uria vornehin, wo der Kampf am härtesten ist, und zieht euch hinter ihm zurück, dass er erschlagen werde und sterbe" (2 Sam 11, 15).
Der Grund war Urias Frau Bathseba, die der hinterhältige und wollüstige David heimlich beim Baden beobachtete, dann schwängerte und zuletzt nach Urias geplantem Tod heiratete. Sie gebar ihm Salomo, der ihm auf dem Thron folgte, was wiederum einigen älteren Söhnen des Königs, Abschalom und Adonija, das Leben kostete.
Vorherrschaft in der Levante
Zurück in das 13. Jahrhundert v. u. Z. als das Reich von Ḫatti noch einen Machtfaktor im Vorderen Orient darstellte: Der hethitische Großkönig Muwattalli II., der von etwa 1295/94 bis 1272 v. u. Z. herrschte, hatte im syrisch-libanesischen Raum das kleine Königreich Amurru und die Grenzfestung Kadesch am Fluss Orontes wieder enger an sein Reich gebunden.
Das gefiel den Ägyptern, die das Gebiet selbst wiederholt angriffen und zeitweilig eingliederten, überhaupt nicht. Es ging um die Vorherrschaft in der Levante und um viel Prestige zwischen den beiden Großmächten. Dazu kam, dass Ramses II. erst etwa 20 Jahre alt und neu im Amt war und sich außenpolitisch beweisen wollte. So zog er 1276 v. u. Z. zum ersten Mal nach Syrien, zwang den Herrscher von Amurru Bentešina auf seine Seite und eroberte das Kleinkönigreich. Es war klar, dass die Hethiter den Verrat Bentešinas und den Verlust Amurrus nicht hinnehmen würden.
Beide Seiten rüsteten zur großen Schlacht, über die wir verglichen mit anderen Ereignissen dieser Zeit relativ gut Bescheid wissen. Pharao Ramses II. hielt sich für einen großen Feldherrn nach dem Erfolg aus dem ersten Feldzug in den syrischen Raum. Mit über 20.000 möglicherweise auch über 30.000 Mann und 2.500 bis 3.500 Streitwagen mit je zwei Mann pro Wagen zog er im Frühling 1274 über Gaza erneut dorthin, um die Festung Kadesch zu erobern und den erwarteten hethitischen Angriff zu kontern.
Niederlage der Äygpter
Muwattalli II. hatte alle Reserven mobilisiert, die alten Verbündeten der Hethiter und jede Menge Söldner aktiviert und alle Feinde Ägyptens um Hilfe gebeten.
So kam ein Heer von ca. 37.000 Mann und bis zu 3.500 Streitwagen zusammen. Die hethitischen Streitwagen mit drei Mann Besatzung galten als veraltet – zu schwer und zu unbeweglich, aber ihre Hieb- und Stichwaffen waren top: Sie bestanden aus gehärtetem Stahl, obwohl die Kombattanten doch noch tief in der Bronzezeit steckten. Außerdem war Großkönig Muwattalli II. ein erfahrener Feldherr, der unterstützt von seinem jüngeren Bruder Ḫattušili III. einen schlauen Plan ausgeheckt hatte.
Ramses II. ließ sich ohne ausreichende Aufklärung dazu verleiten, sein Heer aufzuspalten. Er zog mit einer Abteilung, der Amun-Division, vorneweg und überquerte den Orontes, während die Re-Division in kurzem Abstand, die beiden anderen Einheiten Ptah und Seth ca. 20 bis 30 km zurück folgten. Die Hethiter erkannten sofort ihre Chance, sie umzingelten den isolierten Pharao und griffen mit 1.000 Streitwagen die Re-Abteilung an, die sie fast vollständig aufrieben.
Ramses II., seine Leibwache und die Amun-Division standen, eingeschlossen vom jetzt überlegenen Heer der Hethiter, vor der Vernichtung. Da kam ihnen das Glück zu Hilfe: Eine Elitestreitwageneinheit der ägyptischen Armee, die Nearin, hatte getrennt von den vier Divisionen des Hauptheeres die Küstenstraße genommen und traf gerade auf dem Schlachtfeld ein, als es dem Pharao an den Kragen gehen sollte.
Die Schlacht ging dennoch verloren, aber Ramses II. konnte von dieser schnellen Eingreiftruppe aus der Umklammerung gerettet werden. Am Folgetag zogen sich die Ägypter über den Orontes zurück, Ramses sammelte die Ptah- und Seth-Division, die am Kampf nicht teilgenommen hatten, ein und marschierte wieder in Richtung Nil.
Kampf der Giganten
Der insgesamt klägliche militärische Auftritt der Ägypter führte dazu, dass die Hethiter die Festung Kadesch, bei der die Bataille stattgefunden hatte, behaupteten. Das Amurrureich geriet wieder unter hethitische Oberhoheit. Der vom Pharao gestützte König Bentešina wurde durch einen Herrscher von Gnaden des Großkönigs Muwattalli II. ersetzt. Die Kleinkönigreiche im syrischen Raum stellten die Tributzahlungen an den Pharao ein.
Кто виноват? Wer trägt die Schuld? Natürlich nicht der Pharao, der Oberbefehlshaber. Seine Generäle und hohen Offiziere wurden zu Verantwortlichen für die Niederlage erklärt und das Militär verlor an Einfluss im Reich. In der Propaganda an den Wänden der ägyptischen Tempel in Abydos, Abu Simbel und Luxor sowie auf den Pylonen, den Torbauten, des Ramesseums in Theben finden sich noch heute Reliefs, die einen glorreichen Sieg des Pharaos über den Großkönig Muwatalli II. darstellen.
Keine Schlacht, ja kein anderes Ereignis der 3.000-jährigen altägyptischen Geschichte wurde so oft bildlich dargestellt und so eingehend literarisch behandelt wie dieser Kampf der Giganten.
Und ewig siegte der göttliche Ramses II. Im Reich am Nil wird dem keiner widersprochen haben, in der restlichen Welt kam diese Propagandalüge nicht so gut an. Ein Nachfolger des hethitischen Großkönigs ließ festhalten: "Als aber Muwattalli […] König war, da brachen ihm die Leute von Amurru die Treue […] und traten in die Gefolgschaft des Königs von Ägypten ein. Da haben […] Muwattalli und der König von Ägypten miteinander um Amurru gekämpft und Muwattalli hat ihn besiegt […]."
Aus Niederlagen wurden glorreiche Siege. Parallelen zu heute sind rein zufällig. Es gab immer wieder und es gibt sie noch – Diktatoren, die sich zu Tode siegen. Aber es gibt Alternativen: Wie Frieden möglich wurde, erfahren Sie in der nächsten Folge.
Literatur:
Die Hethiter und ihr Reich. Das Volk der 1000 Götter (2002).
Israel Finkelstein / Neil A. Silberman, David und Salomo. Archäologen entschlüsseln einen Mythos (2006).
Ramses. Göttlicher Herrscher am Nil (2017).
URL dieses Artikels: https://www.heise.de/-11187345
Links in diesem Artikel: [1] https://commons.wikimedia.org/wiki/File:East-Hem_1300bc.jpg [2] https://creativecommons.org/licenses/by-sa/3.0/deed.de [3] https://commons.wikimedia.org/wiki/File:Emanuel_Eichel_-_David_beobachtet_Bathseba_beim_Baden.jpg [4] https://commons.wikimedia.org/wiki/File:Modern_reconstruction_of_a_65m_long_section_of_the_city_wall_made_of_mud_brick,_Hattusa,_the_capital_of_the_Hittite_Empire_in_the_late_Bronze_Age,_Bo%C4%9Fazkale,_Turkey_(26064042932).jpg [5] https://creativecommons.org/licenses/by-sa/2.0/deed.de [6] https://commons.wikimedia.org/wiki/File:Ramses_II_-_The_mummy.jpg
Xcode 26.3 integriert Coding Agents wie von Anthropic und Codex von OpenAI
(Bild: Apple)
Apple hat sich mit dem Thema KI nicht nur bei Consumern schwer getan. Auch Entwickler warteten lange auf KI in Xcode. Jetzt wurde ein Meilenstein erreicht.
Apple hat die fertige Version seiner Entwicklungsumgebung Xcode in Version 26.3 veröffentlicht. Mit dem Update hält agentisches Coding in die Mac-App Einzug. Entwickler sind damit nicht mehr auf zusätzliche Software-Tools angewiesen, wohl aber auf einen Zugang zu einem geeigneten Large-Language-Modell. OpenAI Codex und Anthropic Claude Agent werden sozusagen „ab Werk“ unterstützt. Es können aber auch Coding Agents und Softwaretools eingesetzt werden, sofern diese das Model Context Protocol (MCP) unterstützen.
Damit hat Apple seine große KI-Kurskorrektur vollendet: Ursprünglich, im Juni 2024, hatte Apple nämlich eigentlich ein eigenes KI-Modell nur für Coding in Aussicht gestellt. Swift Assist sollte als Begleit-Tool für alle Coding-Aufgaben dienen [1], agentisch Ideen in Code umsetzen und auf einem cloudbasierten Apple-Modell basieren. Apple pries diese Idee damals damit an, dass Nutzercode nicht auf Apples Servern gespeichert oder zum Modelltraining verwendet wird. Die Spezialisierung auf Swift-Code im Training sowie der Zugang zu den jeweils neuesten SDKs sollten den Swift Assist von den Fähigkeiten der generalisierten KI-Modelle abheben.
Kehrtwende und ein Happy End
Doch aus Apples großen Plänen wurde nichts. Als nach einem Jahr noch nicht einmal eine erste Beta-Version von Swift Assist zu sehen war, schlug das Unternehmen auf der Entwicklerkonferenz WWDC im Juni 2025 einen neuen Weg ein [2]. Statt der eigenen KI schuf Apple eine Schnittstelle zu ChatGPT, die auch für Claude von Anthropic oder andere KI-Modelle verwendet werden konnte. Dies war bereits ein großer und vor allem sofort verfügbarer Schritt nach vorne. Wenn es allerdings darum ging, Projektparameter zu ändern, Storyboards zu verändern oder tiefergehende Eingriffe in vorhandenem Code vorzunehmen, musste die KI passen und konnte nur Ratschläge geben.
Mit der jetzigen Integration von Coding Agents erhält die KI deutlich weitreichendere Möglichkeiten, auf geöffnete Projekte zuzugreifen. Sie kann auch erzeugten Code auf Lauffähigkeit überprüfen und Fehlermeldungen direkt verarbeiten. Damit kann Apple der nächsten WWDC im Juni deutlich entspannter entgegensehen. Spannend bleibt, ob und inwieweit sich der für die Foundation Models geschlossene Deal mit Google, künftig dessen KI Gemini zu verwenden, auch auf die Entwicklertools auswirkt. Gemini 3 gilt auch als recht stark im Coding. Eine Integration wäre aus Sicht vieler Entwickler wünschenswert.
Xcode 26.3 integriert Coding Agents wie von Anthropic und Codex von OpenAI
(Bild: Apple)
Apple hat sich mit dem Thema KI nicht nur bei Consumern schwer getan. Auch Entwickler warteten lange auf KI in Xcode. Jetzt wurde ein Meilenstein erreicht.
Apple hat die fertige Version seiner Entwicklungsumgebung Xcode in Version 26.3 veröffentlicht. Mit dem Update hält agentisches Coding in die Mac-App Einzug. Entwickler sind damit nicht mehr auf zusätzliche Software-Tools angewiesen, wohl aber auf einen Zugang zu einem geeigneten Large-Language-Modell. OpenAI Codex und Anthropic Claude Agent werden sozusagen „ab Werk“ unterstützt. Es können aber auch Coding Agents und Softwaretools eingesetzt werden, sofern diese das Model Context Protocol (MCP) unterstützen.
Damit hat Apple seine große KI-Kurskorrektur vollendet: Ursprünglich, im Juni 2024, hatte Apple nämlich eigentlich ein eigenes KI-Modell nur für Coding in Aussicht gestellt. Swift Assist sollte als Begleit-Tool für alle Coding-Aufgaben dienen [1], agentisch Ideen in Code umsetzen und auf einem cloudbasierten Apple-Modell basieren. Apple pries diese Idee damals damit an, dass Nutzercode nicht auf Apples Servern gespeichert oder zum Modelltraining verwendet wird. Die Spezialisierung auf Swift-Code im Training sowie der Zugang zu den jeweils neuesten SDKs sollten den Swift Assist von den Fähigkeiten der generalisierten KI-Modelle abheben.
Kehrtwende und ein Happy End
Doch aus Apples großen Plänen wurde nichts. Als nach einem Jahr noch nicht einmal eine erste Beta-Version von Swift Assist zu sehen war, schlug das Unternehmen auf der Entwicklerkonferenz WWDC im Juni 2025 einen neuen Weg ein [2]. Statt der eigenen KI schuf Apple eine Schnittstelle zu ChatGPT, die auch für Claude von Anthropic oder andere KI-Modelle verwendet werden konnte. Dies war bereits ein großer und vor allem sofort verfügbarer Schritt nach vorne. Wenn es allerdings darum ging, Projektparameter zu ändern, Storyboards zu verändern oder tiefergehende Eingriffe in vorhandenem Code vorzunehmen, musste die KI passen und konnte nur Ratschläge geben.
Mit der jetzigen Integration von Coding Agents erhält die KI deutlich weitreichendere Möglichkeiten, auf geöffnete Projekte zuzugreifen. Sie kann auch erzeugten Code auf Lauffähigkeit überprüfen und Fehlermeldungen direkt verarbeiten. Damit kann Apple der nächsten WWDC im Juni deutlich entspannter entgegensehen. Spannend bleibt, ob und inwieweit sich der für die Foundation Models geschlossene Deal mit Google, künftig dessen KI Gemini zu verwenden, auch auf die Entwicklertools auswirkt. Gemini 3 gilt auch als recht stark im Coding. Eine Integration wäre aus Sicht vieler Entwickler wünschenswert.
Google und Meta sollen bereits einen Milliarden-Deal für KI-Chips abgeschlossen haben. Neue Joint-Ventures könnten zudem TPUs leasen.
Google hat mit Meta offenbar einen großen Fisch an Land gezogen, der die eigenen Tensor Processing Units (TPUs) kaufen und in Rechenzentren einsetzen will. TPU nennt Google seine KI-Beschleuniger, die als Alternative unter anderem zu Nvidias und AMDs GPUs dienen. Aktuell ist die Version TPU v7.
Laut The Information [1] ist das Abkommen zwischen Google und Meta auf mehrere Jahre ausgelegt. Im Vergleich zu den Millionen von Beschleunigern, die Meta von AMD [2] und Nvidia für Dutzende Milliarden US-Dollar kauft, geht es beim Google-Deal um deutlich kleinere Summen. Von mehreren Milliarden US-Dollar ist die Rede. Insbesondere der Preis pro Beschleuniger dürfte niedriger sein als bei der Konkurrenz.
Google bekommt so als Hardware-Zulieferer einen Fuß in die Tür. Angeblich will der Konzern künftig zehn Prozent von Nvidias Marktanteil abhaben. Das wären voriges Jahr rund 16 Milliarden US-Dollar gewesen, rein auf KI-Beschleuniger bezogen: Mit solchen machte Nvidia 162,4 Milliarden US-Dollar Jahresumsatz, mit Netzwerk-Hardware weitere 31,4 Milliarden, Tendenz weiter steigend.
Google-Joint-Ventures für mehr Verbreitung
Um die Verbreitung von TPUs voranzutreiben, will Google mit einem nicht genannten, großen Investor angeblich ein Joint-Venture gründen. Darüber könnte der Konzern die KI-Beschleuniger an weitere Betreiber von Rechenzentren leasen. Weitere Joint-Ventures mit anderen Investoren könnten folgen. Alternativ zum Leasing könnten diese Tochterunternehmen auch ganze Rechenzentren für Kunden betreiben.
Google muss derweil die Vermarktung der eigenen TPUs und den Einsatz von Nvidia-Hardware ausbalancieren. Mindestens für die Vermietung innerhalb der eigenen Cloud ist Google weiter auf Nvidias KI-Beschleuniger angewiesen, weil viele Kunden mit Nvidias Software arbeiten.
Nvidia-Chef Jensen Huang schließt laut The Information gezielt Abkommen ab, um vielversprechende Firmen an sich zu binden, darunter zuletzt Anthropic [3]. Solche Tendenzen zeigten sich schon früher, etwa bei Nvidias Einstieg bei Groq [4], womit die Firma einem Deal zwischen OpenAI und Groq zuvorkam. Huang sei nur allzu bewusst, dass mit Gemini und Claude manche der besten KI-Modelle mit Google-Hardware trainiert wurden.
TPU v7 als Alternative
Googles TPU v7 ist auf dem Papier mit 4,6 FP8-Petaflops langsamer als Nvidias Blackwell Ultra (B300) mit 5 Pflops beziehungsweise 10 mit Sparsity (Wegfall von Nullen in den Matrizen). Auch die Speicherkapazität ist mit 192 statt 288 GByte HBM3e geringer.
Allerdings ist die TPU v7 mit geschätzt 1000 statt 1400 Watt sparsamer. Dafür setzt Google auf den modernen 3-Nanometer-Fertigungsprozess N3P vom Chipauftragsfertiger TSMC, während Nvidia auf den verbesserten 5-nm-Prozess 4NP zurückgreift. Effizienz entwickelt sich zur wichtigsten Metrik, da alle Hyperscaler bei der Stromzufuhr zu ihren Rechenzentren limitiert sind. Zudem wollen sich Hyperscaler offensichtlich nicht von Nvidia als alleinigen Zulieferer abhängig machen.
URL dieses Artikels: https://www.heise.de/-11193578
Links in diesem Artikel: [1] https://www.theinformation.com/articles/google-strikes-multibillion-dollar-ai-chip-deal-meta-sharpening-nvidia-rivalry?rc=klmisg [2] https://www.heise.de/news/Auf-OpenAI-folgt-Meta-AMD-verkauft-GPUs-fuer-Milliarden-von-US-Dollar-11188239.html [3] https://www.heise.de/news/Microsoft-Nvidia-und-Anthropic-Milliarden-Deal-fuer-KI-11084220.html [4] https://www.heise.de/news/Nvidia-Vertragsschluss-mit-Inferenz-Chip-Startup-11124836.html [5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [6] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner [7] mailto:mma@heise.de
Weil Anthropic dem Pentagon keinen uneingeschränkten KI-Zugang gewähren will, eskaliert die US-Regierung den Streit und zieht die ganze Branche in den Konflikt.
Donald Trump hat am Freitagabend angekündigt , alle Bundesbehörden anzuweisen, Anthropics Technologie sofort nicht mehr zu nutzen. Kurz zuvor war eine Frist abgelaufen, bis zu der Anthropic einer Lockerung seiner Nutzungsrichtlinien hätte zustimmen sollen.
Auf Truth Social schrieb Trump: "Die linken Spinner bei Anthropic haben einen KATASTROPHALEN FEHLER begangen, indem sie versucht haben, das Kriegsministerium unter Druck zu setzen." Das Verteidigungsministerium hatte zuvor einen Vertrag im Wert von 200 Millionen US-Dollar gekündigt und drohte zusätzlich damit, Anthropic als sogenanntes Lieferkettenrisiko einzustufen – eine Bezeichnung, die üblicherweise ausländischen Akteuren vorbehalten ist.
Anthropic hält an roten Linien fest
Anthropic-CEO Dario Amodei hatte in einer Erklärung am Donnerstag klargestellt, dass sein Unternehmen den Pentagon-Forderungen "gutem Gewissen nicht nachkommen" könne. Das Verteidigungsministerium bestand auf uneingeschränktem Zugang zu Claude, einschließlich der Nutzung für Massenüberwachung und autonome Waffensysteme ohne menschliche Kontrolle.
Amodei schreibt, der Einsatz von KI zur massenhaften Überwachung eigener Bürger sei mit demokratischen Werten unvereinbar. Zwar sei vieles davon nach geltendem Recht noch legal – aber nur, weil die Gesetzgebung mit den technischen Möglichkeiten noch nicht Schritt gehalten habe.
Konkret nennt er die Möglichkeit, öffentlich zugängliche Daten – Bewegungsprofile, Browserverläufe, soziale Verbindungen – automatisiert und im großen Maßstab zu einem vollständigen Persönlichkeitsbild zusammenzuführen. Das sei heute technisch möglich. Für ihn ist das eine Grenze.
Die Branche beobachtet den Präzedenzfall
Unterstützung erhielt Anthropic vom Wettbewerber: OpenAI-Chef Sam Altman erklärte laut einem CNBC-Bericht , sein Unternehmen habe dieselben roten Linien. Rund 500 Mitarbeiter von OpenAI und Google unterzeichneten einen offenen Brief mit dem Wortlaut "we will not be divided" . Beide Unternehmen unterhalten ebenfalls Militärverträge – und könnten bald in vergleichbaren Verhandlungen stehen.
Bei Amazon gibt es einen 75 Zoll großen Mini-LED-TV zum kleinen Preis zu kaufen. Dabei wird sogar mancher OLED-TV in den Schatten gestellt.
Der TCL C7K Mini-LED-TV wird bei Amazon nun zum Bestpreis verkauft.Bild:
Erzeugt mit Dall-E; Amazon
Jahrzehntelang prägte der japanische Hersteller Sony mit seinen Bravia-TVs die Wohnzimmer in vielen Ländern. Seit dem Jahr 2012 fertigt Sony keine Displays mehr, sondern kauft die Panels nur noch bei anderen Herstellern ein. Im März 2027 wird die eigene Herstellung komplett aufgegeben. Schließlich verkauft Sony seine TV-Sparte an das chinesische Unternehmen TCL, welches ein neues Joint Venture gründet. Doch bereits heute können TCL-TVs überzeugen, so die Experten von Hifi.de. Nun gibt es den TCL C7K mit entspiegeltem Display zum Bestpreis bei Amazon.
Eigenes HVA-LCD-Panel beim TCL C7K und Q7C
Der chinesische Hersteller TCL baut seine Fertigungstiefe weiter aus – und drückt damit die Preise. Ab März 2027 entwickelt und produziert das Unternehmen im Joint Venture sämtliche Sony-TVs. Schon jetzt setzt TCL bei eigenen Modellen wie dem C7K und Q7C auf zahlreiche selbst entwickelte Komponenten.
Neben dem HVA-LCD-Panel stammt sogar der Kunststoff für das Gehäuse aus eigener Produktion. Diese konsequente vertikale Integration senkt Kosten entlang der gesamten Lieferkette.
C7K vs. Q7C: Der Unterschied liegt im Panel
Die beiden Modellreihen TCL C7K und TCL Q7C sind technisch nahezu identisch. Einziger Unterschied ist, dass der C7K über ein Anti-Glare-Panel verfügt, während der Q7C auf ein glänzendes Panel setzt, was insbesondere Farben noch prächtiger erscheinen lässt. Für helle Räume kann dagegen ein mattes Display, wie beim C7K besser sein.
Bis zu 2.000 cd/m²: LCD schlägt OLED bei der Helligkeit
Im HDR-Modus erreicht der TCL-Fernseher eine Spitzenhelligkeit von bis zu 2.000 cd/m². Damit übertrifft er viele OLED-Modelle derselben Preisklasse – etwa einen LG OLED B5 – teils deutlich.
Gerade in hellen Räumen spielt der LCD-TV diesen Vorteil aus. Laut Testern profitieren HDR-Inhalte sichtbar von kräftigen Highlights und hohen Kontrasten.
Starke Bildqualität trifft wenig Anschlüsse
Zwar bieten OLED-TVs weiterhin technisch bedingt perfektes Schwarz und Vorteile in sehr dunklen Szenen. In puncto Maximalhelligkeit liegt der TCL jedoch vorne. Laut Hifi.de setzt der TCL C7K / Q7C im Preisbereich unter 1.000 Euro neue Maßstäbe. Besonders gelobt werden die sehr gute Bildqualität, die HDR-Darstellung und das Hochskalieren auf 4K-UHD. Zudem kann das 2.2-Soundsystem von Bang & Olufsen mit seinen 60 Watt überzeugen.
Negativ fällt auf, dass kein USB-Recording geboten wird. Auch müssen Nutzer auf einen Kopfhörer-Anschluss verzichten. Und von den vier verbauten HDMI-Anschlüssen bieten lediglich zwei HDMI 2.1.
Mit Google TV und 144 Hz VRR
Beim Betriebssystem vertraut der chinesische Hersteller TCL auf Google TV. Damit hebt man sich von Konkurrenten wie Hisense ab, die auf eigens entwickelte Betriebssysteme setzen.
Gamer können sich zudem über 4K-UHD mit 144 Hz und VRR freuen. Der C7K / Q7C unterstützt sogar AMD Freesync für eine möglichst flüssige Bildwiedergabe ohne Tearing. Allerdings liegen die Latenz und Reaktionszeiten oberhalb eines OLED-TVs.
Noch nie günstiger
Zum Zeitpunkt der Artikelerstellung verkauft Amazon den entspiegelten C7K von TCL für nur 999 Euro . Dafür erhält man die 75 Zoll große Version. Dabei kann man nicht nur 500 Euro auf die UVP sparen, sondern erzielt den historischen Bestpreis gemäß Keepa-Preishistorie. Günstiger gab es diesen Mini-LED-TV mit einer Bildschirmdiagonalen von 189 cm laut Keepa also noch nie.
Reklame
TCL 75C7K 75 Zoll QD-Mini LED Fernseher, 4K HDR Premium 3000, Smart Google TV mit 144Hz
Von TCL, dem baldigen Eigentümer der Sony-Bravia-TVs, gibt es mit der Baureihe C7K und Q7C Mini-LED-Fernseher, die Tester vom Magazin Hifi.de überzeugen konnten.
Mit einer Spitzenhelligkeit von bis zu 2.000 cd/m² ist der TCL C7K nicht nur hell genug für HDR-Inhalte, sondern auch heller als der Einsteiger-OLED-TV LG OLED B5.
Spieler können sich über 144 Hz und VRR freuen.
Zudem steht ein 2.2-Soundsystem von Bang & Olufsen parat.
Zum Zeitpunkt der Artikelerstellung verkauft Amazon den TCL C7K mit 75 Zoll zum historischen Bestpreis, wie ein Blick in die Keepa-Preishistorie aufzeigt. So muss man lediglich 999 Euro für den Smart-TV mit einer Bildschirmdiagonalen von 189 cm zahlen.
Dieser Artikel enthält sogenannte Affiliate-Links. Bei einem Kauf der Produkte über diese Links erhält Golem.de eine kleine Provision. Dies ändert nichts am Preis der Artikel.
Anwohner eines xAI- Rechenzentrums berichten von dauerhafter Lärmbelästigung und wollen den Bau permanenter Anlagen verhindern.
Proteste gegen das xAI-Rechenzentrum in Memphis, Tennessee am 17. Juni 2025Bild:
USA TODAY Network via Reuters Connect
Das US-Unternehmen xAI hat für sein Rechenzentrum in Southaven im US-Bundesstaat Mississippi eine Lärmschutzwand errichtet, die Anwohner vor den Geräuschen der dort für die Stromversorgung betriebenen Gasturbinen schützen soll. Wie NBC News berichtet , trägt die Lärmschutzwand, die 7 Millionen US-Dollar gekostet haben soll, allerdings kaum zu einer Reduzierung der Geräuschemissionen bei.
Anwohner beschreiben in dem Bericht, dass der Betrieb der 27 temporären Gasturbinen Tag und Nacht erfolgt und von plötzlich auftretenden Knall- und Platzgeräuschen sowie einem dauerhaften Brummen begleitet ist. Die Lärmschutzwand wird dabei scherzhaft als Temu-Lärmwand bezeichnet.
Die temporären Gasturbinen wurden von xAI zunächst ohne Genehmigung der Gemeinde installiert. Letztere erteilte aber später die Erlaubnis, dass die Gasturbinen für 12 Monate ohne weitere Genehmigungen betrieben werden dürfen. Das Unternehmen beantragte zudem, 41 für den permanenten Betrieb gedachte Gasturbinen installieren zu dürfen.
Weitere Proteste sollen Genehmigung verhindern
Anwohner befürchten nun, dass die permanenten Turbinen ebenso laut sein könnten wie die temporären. Hinzu kommen Bedenken, dass mehr Abgase in das umliegende Gebiet mit Wohnhäusern, Parks und Schulen gelangen könnten.
Bereits im Januar erklärte die US-amerikanische Umweltschutzbehörde EPA , dass der Betrieb der Anlagen von xAI unter US-Bundesrecht falle und somit Luftreinhaltegenehmigungen erfordere. Das Unternehmen hatte sich zuvor auf örtliche Vorschriften berufen, die den temporären Betrieb der Gasturbinen ohne Genehmigung erlaubten.
In Deutschland stimmte die Stadtverordnetenversammlung von Groß-Gerau im Februar 2026 gegen die Ansiedlung eines großflächigen Rechenzentrums . Hierbei war für Anwohner allerdings die Größe des Projekts für den Widerstand ausschlaggebend.
Eine spezielle Beschichtung macht möglich, was bisher undenkbar war: Solarzellen erzeugen auch dann Energie, wenn es regnet.
Solarzellen funktionieren nach dem Prinzip: Wenn die Sonne scheint, wird Strom erzeugt. Verdunkelt sich aber der Himmel und regnet es, dann sind Solarzellen nur nette Accessoires auf dem Hausdach. Doch was wäre, wenn auch dann Strom erzeugt würde?
Genau daran arbeitet ein Team am Institut für Materialwissenschaften in Sevilla (ICMS). Die Forscher haben offenbar einen Weg gefunden, um gleich zwei Energiequellen mit einem Bauteil nutzbar zu machen, nämlich Sonnenlicht und die Bewegungsenergie fallender Regentropfen.
Im Kern steckt eine Perowskit-Solarzelle – ein Zelltyp, der wegen seiner hohen Effizienz und niedrigen Materialkosten als vielversprechend gilt. Darauf bringen die Forscher per Plasmaverfahren eine fluorierte Kunststoffschicht auf, die chemisch an Teflon erinnert.
Diese Schicht wurde in verschiedenen Dicken getestet, von 30 bis 250 Nanometer. Der Großteil der Test wurden aber mit einer Schichtdicke von 130 nm durchgeführt. Dabei war die Beschichtung für über 90 Prozent des Sonnenlichts durchlässig.
Trifft nun ein Wassertropfen auf diese Oberfläche, passiert etwas Interessantes: Beim Aufprall, Ausbreiten und Abperlen des Tropfens verschieben sich elektrische Ladungen zwischen Wasser und Beschichtung.
Dieses Phänomen – in der Physik als Triboelektrizität oder Reibungselektrizität bekannt – lässt sich über eingebaute Elektroden als Stromsignal abgreifen. Im Grunde funktioniert jeder einzelne Regentropfen dabei wie ein winziger Schalter, der kurzzeitig Strom fließen lässt.
Starke Spannungsspitzen, aber bescheidene Dauerleistung
Die Messergebnisse aus dem Labor klingen zunächst spektakulär: Ein einziger auftreffender Regentropfen erzeugte Spannungsspitzen von bis zu 110 Volt.
Dieser Wert bedarf allerdings einer Einordnung. Die Spannung ist zwar hoch, fließt aber nur für den Bruchteil einer Sekunde. Die tatsächlich verfügbare Dauerleistung liegt bei maximal rund vier Milliwatt pro Quadratzentimeter – genug für kleine elektronische Bauteile, aber weit entfernt von dem, was ein Haushalt benötigt.
Bei Sonneneinstrahlung erreichten die besten Zellen einen Wirkungsgrad von 17,9 Prozent und büßten durch die zusätzliche Schutzschicht kaum an Leistung ein.
Um zu zeigen, dass beide Energiequellen tatsächlich gleichzeitig funktionieren, betrieb das Team im Labor LED-Lampen parallel mit simuliertem Sonnenlicht und künstlichem Regen und lud dabei kleine Kondensatoren auf.
Schutzschild gegen den größten Feind der Perowskit-Zelle
Perowskit-Solarzellen gelten als vielversprechend. Aber sie haben eine gravierende Schwäche: Feuchtigkeit, selbst in minimalem Ausmaß, kann das kristalline Material binnen Minuten zersetzen.
Wer also ausgerechnet Regentropfen auf eine solche Zelle fallen lassen will, muss zunächst dieses Grundproblem lösen.
Die fluorierte Beschichtung übernimmt deshalb neben der Stromerzeugung noch eine zweite, ebenso wichtige Rolle: Sie wirkt stark wasserabweisend und versiegelt die empfindlichen Schichten darunter.
In Verbindung mit einem zusätzlichen Industriekleber auf Epoxidharzbasis hielt die so geschützte Zelle im Dauertest mehr als 300 Stunden unter feuchten Bedingungen durch.
Selbst nach 15 Minuten vollständig unter Wasser arbeitete sie noch – während eine ungeschützte Vergleichszelle bereits nach wenigen Minuten ausfiel.
Die Tropfenoberfläche selbst erwies sich ebenfalls als widerstandsfähig und lieferte nach über 17.000 Aufprällen noch mehr als 85 Prozent ihrer ursprünglichen Leistung.
Wann profitieren Hausbesitzer von der Technik?
Noch handelt es sich um Laborforschung an Zellen im Zentimeterformat. Bis daraus großflächige Module für Hausdächer entstehen, dürfte noch einige Zeit vergehen. Mehrere weitere Schritte gilt es zu meistern – etwa die Skalierung auf größere Flächen. Zudem muss sich die Beschichtung unter realen Bedingungen im Freien bewähren.
Kurzfristig sehen die Forscher [2] Möglichkeiten für den Einsatz vor allem bei kleinen, energieautarken Geräten: Sensoren an Brücken oder Gebäuden, Wetterstationen in der Landwirtschaft oder vernetzte Komponenten im Internet der Dinge, die unabhängig vom Wetter zuverlässig mit Strom versorgt werden müssen.
Für alle, die auf CO2-freien Strom bei jedem Wetter hoffen, bleibt die Technik vorerst Zukunftsmusik – allerdings eine mit solidem wissenschaftlichem Fundament.
URL dieses Artikels: https://www.heise.de/-11193714
Links in diesem Artikel: [1] https://www.sciencedirect.com/science/article/pii/S2211285525010377?via%3Dihub [2] https://interestingengineering.com/energy/spanish-solar-panels-electricity-raindrops
Kriegsspiel im Kleinformat: In der fiktiven Übungsstadt Schnöggersburg übt die Bundeswehr urbane Szenarien. Was genau soll hier trainiert werden? Eine Analyse.
Der Krieg ist zurück in den Zentren: Mariupol, Aleppo, Mossul – das sind die blutigen Lehrstücke [1] einer Gegenwart des "urban warfare", das mit dem Bild des chirurgischen Drohnenangriffs wenig gemein hat.
Was von den ukrainisch-russischen Fronten via YouTube zu sehen [2] ist, zeigt brutal-blutigen Häuserkampf, gepaart mit Kamikaze- oder FPV-Drohnen. Fakt ist: Mehr als die Hälfte der Weltbevölkerung lebt heute in Städten, Tendenz stark steigend [3] – urbane Missionen entscheiden künftige Kriege. Die Zeit der offenen Feldschlacht ist vorbei.
Die Blaupause lieferte der Irak-Krieg. Er schuf [4] einen gefährlichen, imperialistischen Präzedenzfall: Die Informationsstelle Militarisierung(IMI) aus Tübingen, ein antimilitaristischer Thinktank, ordnete [5] den US-amerikanischen Häuserkampf im irakischen Falludscha 2004 als Modell kommender Militärdoktrinen ein – spezialisierte Bodeneinheiten, begleitet von Luftoperationen, schalten Aufständische und Zielobjekte aus.
Solche Einheiten brauchen aber realitätsnahe Übungsorte, auch in Deutschland. Nördlich von Magdeburg wurde die deutsche Armee fündig.
Von Hitler zum Heer
Auf 232 Quadratkilometern Colbitz-Letzlinger Heide liegt [6] Schnöggersburg – keine Stadt, die man bewohnen kann, sondern ein militärisches Bühnenbild: mehr als 500 künstliche Gebäude [7], darunter Wohnhäuser, eine Altstadt, Industrieanlagen, ein Sportstadion, ein Flughafen, 400 Meter U-Bahn-Tunnel, 800 Meter Kanalisationsnetz, Straßenbahnen, ein Supermarkt, ein Regierungsviertel und ein Fluss mit Brücken. Eine Kulisse, eine Attrappe, eine Fiktion einer Geisterstadt für den Krieg der Zukunft.
Die Geschichte des Ortes ist braun: Bis in die 1930er Jahre war es ein reales Dorf und Luftkurort, ab 1934 nutzte es der NS-Staat als Heeresversuchsanastalt Hillersleben [8]– bekannt für seine 30 Kilometer lange Artillerieschussbahn, auf der Dora-Geschütze und die verdeckt-aufrüstende Wehrmacht ihr Gerät erprobten.
Nach 1945 übernahm [9] die Rote Armee das Gelände, stationierte zeitweise bis zu 20.000 Soldaten vor Ort, zog sich zwischen 1990 und 1994, nach dem Ende des Warschauer Paktes, sukzessive zurück. Die CDU-FDP-Landesregierung kippte den 1997 geschlossenen "Heidekompromiss", der eine Aufteilung in zivile und militärische Nutzung getrennt nach Himmelrichtungen vorsah [10], 2004. Fortan regierten wieder die Uniformträger, alleine – die Politik torpedierte eine zivile Nutzung.
Europas Häuserkampfhauptstadt
Ab 2012 entstand die fiktive Übungsstadt Schnöggersburg im heutigen Sinne. Der damalige Bundeswehr-Oberstleutnant Peter Makowski gab [11] offen zu Protokoll, was die Armee beabsichtigte: ein kulturelles Zentrum, ein politisches Viertel, ein Industriegebiet.
Eine "Fabelstadt, die sich in der ganzen Welt befinden könnte." Dass ihr Grundriss dabei europäischen Mittelstädten verdächtig ähnelt [12], nährte von Beginn an die Kritik, die Armee trainiere dort den Einsatz im Inneren. Denn mit Falludscha oder Mossul hat Schnöggersburg wenig gemein – es erinnert an Merseburg, Bamberg oder die Frankfurter U-Bahn-Tunnel.
Rund 240.000 Soldaten aus mehr als einem Dutzend Ländern – darunter die Niederlande, Großbritannien, Georgien, Frankreich und Norwegen – wurden dort in über 30 Jahren ausgebildet, zuletzt intensivierten sich Häuser- und Nahkampfspezialisierungen zunehmend.
Kein einziger scharfer Schuss fiel dabei: Laser-Technologie und Duell-Simulatoren machen Attacken virtuell erfahrbar, elektronische Systeme halten [13] Bewegungen, Fehler und Lagebilder zur Analyse fest – vergleichbar mit der Videoanalyse im Profifußball. Modernste Technik und die in Europa weitgehend einmalige Verfügbarkeit machten Schnöggersburg zur Häuserkampfhauptstadt.
Gewinner Rheinmetall
Der Rüstungskonzern Rheinmetall baute das Gefechtsübungszentrum in einer Public-Private-Partnership mit. Es kostete [14] die Allgemeinheit – nach explodierenden Preisen – mehr als 140 Millionen Euro. Der Düsseldorfer Rüstungskonzern sicherte sich dabei nicht nur Ausrüstungsaufträge, sondern auch langfristige Modernisierungs- [15] und zuletzt umfassende Digitalisierungsverträge [16].
Rheinmetall zementierte seinen Status als wichtiger Lieferant einer massiv aufrüstenden Bundeswehr – und dies mit einem Ministerium, das wiederholt mit Berateraffären [17] und dem Hauch der Korruption zu kämpfen hatte. Denn das BMVg band sich zuletzt eng [18] an den Düsseldorfer Gewinner-Konzern der Zeitenwende.
Was mit 140 Millionen Euro alternativ möglich gewesen wäre, lässt sich simpel berechnen: 140 Kitas (zu je 1 Million) oder dutzende Schulrenovierungen, so plante [19] das Land Baden-Württemberg rund 170 Millionen für Schulsanierungen ein.
Die Prioritäten liegen beim Bund sowie im Land Sachsen-Anhalt quer zu den Bedürfnissen einer schwachen Nach-Wende-Region – so kündigte [20] der MDR Ende 2025 massive Bildungskürzungen an, die den Schulbetrieb gefährden könnten. Damit war nicht selbstverständlich der Schulbetrieb in den Häusern von Schnöggersburg gemeint.
Normalisierung von Gewalt
Seit der Zeitenwende und dem Ukraine-Krieg ist Schnöggersburg aus dem Schatten getreten [21]: Ein Besucherzentrum öffnete, Führungen sind nach Anmeldung möglich.
Auf der Berlinale 2025 lief der Dokumentarfilm "Szenario" [22], der die Übungsstadt als Setting einer zwischen Realität und Fiktion verschwimmenden Kriegserzählung nutzt.
Die Bundeswehr präsentiert [23] sich gleichzeitig als moderner Arbeitgeber – Kunstblut, Videoanalyse, Action-Ästhetik, zielgruppengerechte Videoformate. Das Kalkül ist simpel: Der Personalmangel ist akut, die Aufwuchszahlen ehrgeizig, das Rekrutierungsproblem ungelöst [24]. Wer die „stärkste konventionelle Armee Europas" (Merz) haben will, braucht Soldaten.
Doch Schnöggersburg als Abenteuerspielplatz zu vermarkten, ändert nichts an dem, was dort im Kern gelehrt wird. Die Sprache des Krieges ist Gewalt. Kein Laser-Simulator, kein Besucherzentrum und kein Berlinale-Film vermag [25] das Grauen des echten Krieges abzubilden – und keine Videoanalyse ergibt Erquickliches für Gaza, Aleppo oder Kiew. Wenn aus Kunstblut Echtes wird, dürfte auch der Letzte begriffen haben, welchen Nutzen Schnöggersburg hat.
Mehr Fragen als Antworten
Die entscheidende Frage bleibt offen: Gegen wen richtet sich Schnöggersburg, was wird dort genau geprobt?
Der Grundriss der Übungsstadt ähnelt europäischen Städten. Die Verweise auf Irak-Szenarien legen Häuserkampf gegen Aufständische nahe – nicht gegen feindliche Armeen. U-Bahn-Schächte und Industrieanlagen sprechen eher für westliche Metropolen als für Einsatzgebiete in der Sub-Sahara.
Auf eine Anfrage der Linkspartei verwies [26] das Verteidigungsministerium auf Terrorismusbekämpfung. Daraus leite sich "die Notwendigkeit eines breiten Fähigkeitsspektrums mit Durchsetzungsfähigkeit im gesamten Aufgaben- und Intensitätsspektrum ab. Dies schließt auch den Kampf in urbanen Räumen ein."
Protest ist unerwünscht, kritische Nachfragen ohnehin – schließlich sei der Einsatz im Inneren der Armee streng reglementiert, wie klar definiert [29]. Somit, abseitig der willkommenen Amtshilfe, ausgeschlossen. Doch mit der Erosion der Weltordnung, geraten nicht zuletzt auch als sicher geglaubte Rechtsgrundsätze in Schieflage. Alles eine Frage der Zeit und der politischen Notwendigkeit?
Schnöggersburg ist mehr als eine Übungsanlage: Es ist ein Paradigma. Als europäische Häuserkampfhauptstadt normalisiert es das Militärische, transferiert es in die Köpfe der Gesellschaft. Was dort erprobt wird, bleibt im Dunkeln. Ukrainische, deutsche oder europäische Szenarien sind vorstellbar.
URL dieses Artikels: https://www.heise.de/-11192974
Experten warnen vor drei Hürden – und eine davon liegt ausgerechnet im europäischen Recht selbst. Die wirksamste Lösung ist eine andere.
Seit Monaten wird darüber diskutiert, wie soziale Medien auf Kinder und Jugendliche wirken und wie man diese vor den negativen Folgen des Social-Media-Konsums schützen kann. Immer mehr Regierungen, auch in Europa, beschreiten einen restriktiven Weg: Minderjährigen soll der Zugang zu TikTok, Instagram, Snapchat und Co. verwehrt werden.
Polen hat zuletzt angekündigt, diesen Weg beschreiten zu wollen, und folgt damit dem Beispiel von Frankreich, Griechenland und Australien. Auch in Deutschland könnte sich ein Verbot bald auf der Tagesordnung befinden: Von den Grünen bis hin zur AfD wird es gefordert, lediglich die Linken sehen darin eine zu kurz gedachte Lösung.
So sehr aber das Social-Media-Verbot gefordert wird – hinter der Forderung verbergen sich juristische Fallstricke, technische Sackgassen und eine Forschungslage, die weit weniger eindeutig ist, als politische Reden vermuten lassen.
Schützt ein Verbot wirklich?
Bevor über konkrete Gesetze gesprochen wird, lohnt ein Schritt zurück: Gibt es überhaupt gute Gründe für die Annahme, dass ein Verbot Kinder wirksam schützen könnte? Fachleute für Digitalpolitik haben daran erhebliche Zweifel [1].
Die Forschungslage ist dabei keineswegs so dünn, wie manche behaupten – aber auch nicht so eindeutig, wie andere suggerieren. Wer etwa schlicht die tägliche Bildschirmzeit neben die Lebenszufriedenheit stellt, findet in der statistischen Zusammenschau vieler Studien kaum einen Zusammenhang.
Der Kognitions- und Neurowissenschaftler Christian Montag erklärte das in Rahmen eines vom Science Media Center (SMC)organisierten Pressegesprächs [2]: Gut gemachte Arbeiten aus den Niederlanden hätten gezeigt, dass es nach der Nutzung sozialer Medien "eigentlich drei Gruppen" gebe – einer Mehrheit, bei der sich nichts ändere, einer Gruppe, der es schlechter gehe, und einer, der es besser gehe.
"Und wenn man die natürlich alle in einen Topf reinschmeißt, dann kann sie sich so was rausmitteln."
Hinzu kommt ein Aspekt, der in der politischen Debatte häufig untergeht: Soziale Medien sind nicht nur Zeitfresser, sondern auch Kommunikationsräume. Jugendliche nutzen sie, um Meinungen auszutauschen, Beziehungen zu pflegen und ihre Identität zu erproben.
Der Medienrechtler Stephan Dreyer vom Leibniz-Institut für Medienforschung wies im SMC-Gespräch darauf hin, dass man es hier mit "zentral wichtigen Kommunikationsdiensten" zu tun habe, über die Jugendliche Informations-, Identitäts- und Beziehungsmanagement betrieben. Und das sei anders als bei Alkohol und Tabak.
Das bedeutet: Wer in einem Rechtsstaat ein Verbot erlassen will, muss nachweisen, dass es verhältnismäßig ist. Das Vorsorgeprinzip erlaubt zwar, auch bei unsicherer Datenlage zu handeln – aber es befreit nicht von der Pflicht, mildere Alternativen ernsthaft zu prüfen.
Was Polen und Europa konkret planen
Die polnische Regierung arbeitet jetzt an einem Gesetzentwurf, der sozialen Medien die Tür für Kinder unter 15 Jahren zuschlagen soll. Plattformen, die den Zugang für diese Altersgruppe nicht unterbinden, müssten mit Geldstrafen rechnen. Die Pflicht zur Altersprüfung läge bei den Unternehmen.
Bildungsministerin Barbara Nowacka rechnet laut [3]Bloomberg damit, dass das Gesetz Anfang 2027 greift.
Ihre Begründung: "Wir sehen die psychische Gesundheit von Kindern und Jugendlichen, wir sehen einen Rückgang ihrer intellektuellen Fähigkeiten." Die Plattformen hielten "ihre eigenen Vorschriften nicht ein" und überprüften das Alter nicht.
Auf die Frage nach möglichen geopolitischen Spannungen mit Washington antwortete sie: "Um ehrlich zu sein, ist es völlig zweitrangig, wer der Eigentümer dieser oder jener Plattform ist".
Warschau reiht sich in eine lange Schlange ein. Die französische Nationalversammlung hat bereits ein Verbot für unter 15-Jährige beschlossen. Spaniens Regierungschef Pedro Sánchez nannte soziale Medien in einer Rede in Dubai einen "gescheiterten Staat".
Dänemark, Großbritannien, Portugal, Griechenland, Norwegen, Österreich, Irland und die Niederlande diskutieren ähnliche Vorhaben. Australien ging als erstes Land voran – dort wurden im Dezember 2025 rund fünf Millionen Konten von unter 16-Jährigen geschlossen.
Dass dieser Kurs Reibung erzeugt, liegt auf der Hand. Europa ist für Konzerne wie Meta oder Snap nach Nordamerika der zweitwichtigste Markt, die Werbeeinnahmen wachsen hier teils schneller als in den USA. Und für einen Nato-Frontstaat wie Polen, der US-Truppen beherbergt, ist jeder Konflikt mit Washington ein Balanceakt.
Die Risiken sind real – aber vielschichtig
Die Sorgen um Kinder auf sozialen Medien sind nicht erfunden – aber sie lassen sich nicht auf eine einzige Kennzahl eindampfen. Montag sprach im SMC-Gespräch von einem "großen Strauß an Themen, die es zu berücksichtigen gilt".
Verdrängte Kindheit. Das Geschäftsmodell der Plattformen zielt darauf ab, Onlinezeiten zu verlängern und das Engagement zu steigern. Für Heranwachsende kann das heißen, dass wichtige Entwicklungsaufgaben zu kurz kommen – bei den Jüngsten etwa Bewegung und soziales Spiel, bei Jugendlichen die Identitätsfindung. In der Forschung wird das als Displacement-Hypothese diskutiert: Mehr Zeit auf der Plattform bedeutet weniger Zeit für alles andere.
Inhalte, die nicht für Kinderaugen gedacht sind. Algorithmen spielen Inhalte nach Engagement-Potenzial aus, nicht nach pädagogischer Eignung. Montag formulierte es anschaulich: Schon Erwachsene stolperten regelmäßig über verstörende Inhalte – "und dann kann man sich durchaus vorstellen, was das dann eben noch mit jüngeren Menschen macht".
Verzerrte Körperbilder. Filter und algorithmisch verstärkte Schönheitsideale konfrontieren junge Nutzer mit Körpernormen, die mit der Wirklichkeit wenig zu tun haben. Die Fachliteratur zeigt Zusammenhänge zwischen intensiver Social-Media-Nutzung und Unzufriedenheit mit dem eigenen Körper, in manchen Studien auch mit Essstörungen.
Montag mahnte allerdings zur Vorsicht: "Bei Psychopathologien handelt es sich komplexe Störungsbilder, die durch viele Faktoren beeinflusst werden". Eine einzelne Ursache reicht zur Erklärung nicht aus.
Mobbing ohne Pausenglocke. Was früher auf dem Schulhof blieb, kann heute innerhalb von Stunden ein Publikum von Hunderten oder Tausenden erreichen. Die algorithmische Verstärkung gibt Cyberbullying eine Reichweite, die mit dem analogen Äquivalent kaum vergleichbar ist.
Sucht – oder doch nur Gewohnheit? Die Sprache im öffentlichen Diskurs klingt oft medizinisch: "Dopamin-Trigger", "Suchtpotenzial", "digitales Kokain". Tatsächlich gibt es bislang keine anerkannte Diagnose namens Social-Media-Sucht.
Die Weltgesundheitsorganisation führt lediglich pathologisches Glücksspiel und Computerspielabhängigkeit als Online-Verhaltensstörungen. Ob sich das Rahmenwerk auf soziale Medien übertragen lässt, ist Gegenstand intensiver Forschung weltweit.
Algorithmen statt Altersverbote: Wo der wirksamere Hebel liegt
Wenn das Verbot nicht die beste Antwort ist, wo sollte der Hebel dann ansetzen? Viele Forscher zeigen auf die Architektur der Plattformen selbst. Endloses Scrollen, hyperpersonalisierte Feeds, Push-Nachrichten mitten in der Nacht – all das sind bewusste Entscheidungen der Plattformbetreiber, die sich ändern ließen.
Zumindest ein neurowissenschaftlicher Befund gilt als gut abgesichert: Erhalten Jugendliche für eigene Beiträge viele Likes, feuern messbar Belohnungszentren im Gehirn – darunter das ventrale Striatum. Dieser Mechanismus könnte erklären, warum sich Nutzungsroutinen so hartnäckig verfestigen.
Doch genau an dieser Stelle stößt die unabhängige Wissenschaft an eine Mauer. Seit dem Cambridge-Analytica-Skandal haben die Plattformen ihre Datenschnittstellen weitgehend dichtgemacht.
Forscher können nicht testen, wie sich ein einzelnes Designelement – etwa das Entfernen der Like-Anzeige – auf das Verhalten auswirkt. Montag forderte, das in der Industrie vorhandene Wissen dringend zu teilen, "damit wir überhaupt zu einer guten Einschätzung kommen können".
Dreyer spitzte die Konsequenz zu: "Warum bestrafen wir jetzt sozusagen die Kinder mit Verboten, wenn es eigentlich die Plattformgestaltung ist, an die wir ran müssten?"
Der bereits geltende Artikel 28 des Digital Services Act verlange ein "hohes Maß an Privatsicherheit und Schutz für Kinder und Jugendliche auf Onlineplattformen" – also im Kern altersgerechte Angebote statt Komplettsperren.
Wie ein solcher Ansatz in der Praxis aussehen kann, zeigt ein Blick nach China. Dort trat im April 2025 ein landesweiter "Minderjährigen-Modus" in Kraft. Statt Plattformen komplett zu sperren, werden Algorithmen an fünf Altersgruppen angepasst [4], tägliche Zeitlimits gesetzt und zwischen 22 und 6 Uhr die meisten Apps blockiert. Gerätehersteller, App-Entwickler und App-Store-Betreiber arbeiten bei der Umsetzung zusammen.
Die US-Denkfabrik ITIF bewertete den Ansatz als "in mancher Hinsicht ein überraschend weniger restriktiver Ansatz" als Totalverbote in demokratischen Staaten – wobei man in westlichen Ländern von inhaltlichen Vorgaben im Sinne "sozialistischer Grundwerte" wohl weniger begeistert sein dürfte.
Recht, Technik, Umgehung: Die Hürden der Umsetzung
Auch wer ein Verbot grundsätzlich befürwortet, muss sich mit einer Reihe unangenehmer Folgefragen auseinandersetzen. Die erste liegt paradoxerweise im europäischen Recht selbst.
Der DSA als Sperrriegel für nationale Alleingänge. Der Digital Services Act regelt als europäische Verordnung bereits umfassend, was Plattformen dürfen und was nicht – Jugendschutz eingeschlossen.
Nationale Gesetze, die denselben Adressaten mit demselben Schutzzweck Pflichten auferlegen, geraten in Konflikt mit diesem übergeordneten Regelwerk. Dreyer formulierte es unmissverständlich:
"Das heißt, genau genommen, sie können sie erlassen, aber sie sind dann nicht anwendbar, weil diese Vorschriften nicht mit höherrangigen Recht, in diesem Fall also dem DSA, vereinbar sind."
Die EU-Kommission erinnere die Mitgliedstaaten "in wöchentlicher Regelmäßigkeit" daran.
Wer also will, dass ein Verbot tatsächlich greift und Plattformen in die Pflicht nimmt, muss den Umweg über Brüssel nehmen. Nationale Spielräume bestehen nur dort, wo nicht die Plattformen selbst, sondern etwa Eltern oder Endgeräte adressiert werden.
Griechenland geht diesen Weg [5]: Dort sollen Eltern verpflichtend eine "Kids Wallet"-App auf den Geräten ihrer Kinder einrichten, die den Zugang zu bestimmten Diensten blockiert. Zusätzlich plant Athen, VPN-Umgehungen durch Indizien wie Spracheinstellungen, griechische Mobilfunknummern oder – bei Einwilligung – Standortdaten zu erschweren.
Drei Wege, das Alter zu prüfen – keiner ohne Haken. Die IT-Sicherheitsforscherin Anja Lehmann vom Hasso-Plattner-Institut ordnete im SMC-Gespräch die verfügbaren Technologien ein.
Der erste Weg ist die Altersschätzung: Eine KI wertet Videoaufnahmen, Stimmproben oder Surfverhalten aus und leitet daraus ein ungefähres Alter ab. Lehmann illustrierte das mit einem trockenen Beispiel: "Hat man sich zum Beispiel mal länger für eine Steuererklärung oder für eine Autoversicherung interessiert, ist man vermutlich über 16 oder hat sehr bizarre Hobbys."
Solche Verfahren sind niedrigschwellig, aber leicht zu täuschen und verschärfen bestehende Datenschutzprobleme, weil sie auf möglichst umfassender Datensammlung beruhen.
Der zweite Weg ist die klassische Verifikation: Nutzer scannen ihren Personalausweis oder halten ihn in eine Videokamera, oft abgewickelt über Drittanbieter. Zwar verlässlicher, aber riskant – wer sensible Dokumente an externe Dienste weitergibt, öffnet ein Einfallstor für Datenmissbrauch.
Der dritte Weg sind digitale Altersnachweise, wie sie über die europäische digitale Identitätslösung (EUDI-Wallet) möglich werden. Hier weist ein kryptografisches Protokoll lediglich nach, dass eine Person über einer bestimmten Altersgrenze liegt – ohne Namen, Adresse oder Geburtsdatum preiszugeben.
Lehmann nannte dies den datensparsamsten Ansatz. Ein Restrisiko bleibe allerdings: Die Behörde, die den digitalen Ausweis ausstellt, könne theoretisch nachvollziehen, wer sich hinter einem anonymen Nachweis verbirgt. Technisch ließe sich das durch sogenannte Zero-Knowledge-Proofs lösen – umgesetzt sei das aber noch nicht.
VPN als Achillesferse. Egal wie gut die Altersprüfung funktioniert: Solange ein Verbot nur in einzelnen Ländern gilt, können Nutzer mit einem virtuellen privaten Netzwerk vortäuschen, sich anderswo zu befinden.
In Großbritannien schnellte die Nachfrage nach solchen Diensten nach Einführung von Alterskontrollen in die Höhe. Frankreichs Ministerin für KI und Digitales, Anne Le Hénanff, erklärte laut Bloomberg bereits: "VPNs sind das nächste Thema auf meiner Liste".
Die Infrastruktur von heute als Kontrollwerkzeug von morgen? Lehmann wies auf ein Risiko hin, das über die aktuelle Debatte hinausreicht: Jede Infrastruktur für die Altersverifikation, die heute aufgebaut wird, könnte morgen für andere Abfragen genutzt werden.
"Wer garantiert, dass man in ein paar Jahren nicht etwas anderes abfragt? Dass man vielleicht nach Geschlecht, nach Herkunft oder doch nach Klarnamen abfragt?" Ihr Fazit:
"Man könnte sogar sagen, wir belohnen die Plattform für ihr schädliches Verhalten, indem wir ihnen noch mehr Informationen und sehr gute Informationen von den Kindern geben."
Ohne Evaluation bleibt alles Spekulation. Für Australien – das Verbot gilt erst seit Dezember 2025 – existieren noch keinerlei belastbare Wirkungsdaten.
Um zu verstehen, ob eine Maßnahme tatsächlich hilft, bräuchte es Längsschnittstudien, die über Jahre hinweg Variablen wie Wohlbefinden, Körperzufriedenheit, suchtähnliches Nutzungsverhalten und psychische Auffälligkeiten erfassen. Idealerweise mit einer Vergleichsgruppe – etwa Jugendliche in Ländern ohne Verbot.
Montag räumte ein, dass das "nicht ganz leicht" sei, und plädierte für sogenannte Quasi-Experimente, die den natürlichen Unterschied zwischen Ländern mit und ohne Regulierung nutzen.
Was bleibt, ist ein Paradox: Die politische Dynamik ist enorm, der Wille zum Handeln offenkundig. Doch je genauer man hinschaut, desto klarer wird, dass ein Altersverbot allein weder die Ursachen noch die Symptome zuverlässig adressiert. Die wirksamsten Hebel – Algorithmen-Design, Plattformarchitektur, Geschäftsmodelle – liegen tiefer. Und sie erfordern nicht weniger politischen Mut, sondern mehr.
URL dieses Artikels: https://www.heise.de/-11193150
Links in diesem Artikel: [1] https://www.bloomberg.com/news/articles/2026-02-04/europe-takes-on-tech-with-social-media-bans-and-paris-raid-on-x [2] https://media.sciencemediacenter.de/stories/699427e31da7e9cbdc5e221d/Transkript_Regulierung-sozialer-Medien-psychologische-rechtliche-und-technische-Aspekte_SMC-Press-Briefing_2026-02-19.pdf [3] https://www.bloomberg.com/news/articles/2026-02-27/poland-plans-social-media-ban-for-kids-in-challenge-to-us-tech [4] https://www.telepolis.de/article/Minderjaehrigen-Modus-statt-Verbot-Ein-Blick-auf-Social-Media-in-China-11189157.html [5] https://www.telepolis.de/article/Griechenland-zeigt-wie-Kontrolle-wichtiger-wird-als-Freiheit-11179239.html
Nuki bringt im März eine Nachrüstmöglichkeit seiner smarten Schlösser mit Aliro. Dazu gibt es nun Angaben zum HomeKey-Support – und zur Samsung-Unterstützung.
Nukis gerade vorgestellte Aliro-Erweiterung für die Smart Locks des österreichischen Anbieters [1] soll zum Verkaufsstart mit den Standards HomeKey (Apple) sowie Digital Home Key (Samsung) kompatibel sein. Das teilte die Firma gegenüber Mac & i mit. „Apple HomeKey und Samsung Digital Home Key unterstützen ab Start Aliro 1.0 und werden somit auch funktionieren“, so das Unternehmen. Aliro, ein Smart-Lock-Standard der Zertifizierungsorganisation Connectivity Standards Alliance (CSA), wurde in dieser Woche offiziell in der ersten Finalversion [2] verabschiedet. Unklar blieb zunächst, ob Apple, Samsung und auch Google Updates für ihre Software liefern müssen, damit Aliro 1.0 unterstützt wird.
Ein Standard für Apple, Samsung und Google
Mit Apple HomeKey und Samsung Digital Home Key ist es möglich, Schlösser per NFC zu öffnen. Dazu muss man nur sein Smartphone oder seine Computeruhr an ein NFC-fähiges Keypad halten. Bislang klappte das jeweils nur mit passender Hardware, so bietet etwa der chineische Anbieter Aqara mit dem U200 [3] eines der ersten Schlösser nur für Home Key an. Aliro vereinheitlicht die Schnittstelle nun erstmals, orientiert sich dabei an anderen Smart-Home-Standards wie Matter [4].
Nukis Keypad 2 NFC ist eine neue Version des bestehenden, Bluetooth-basierten Keypads für die smarten Schlösser des Herstellers. Es lässt sich für bestehende Locks des Herstellers ab der 2. Generation nachrüsten. Bislang wird nur per Fingerabdruck oder PIN-Code entsperrt, mit der NFC-Variante kommt nun Aliro via NFC hinzu. Verkaufsstart ist ab dem 24. März, einen Preis hat Nuki noch nicht genannt. Das Gerät ist bislang das erste seiner Art auf dem europäischen Markt.
Ultra-Wideband fehlt noch, Nuki überlegt aber
Zum Einsatz von Aliro muss ein Matter-Hub im Netzwerk vorhanden sein, gab Nuki weiter an. Bei Apple wäre das dann ein HomePod 2, HomePod mini oder Apple TV 4K [5]. Auf der IFA hatte Nuki das System mit einem SmartThings-Hub demonstriert. Interessant: Neben HomeKey und Digital Home Key soll man auch die Nuki-App zum Entsperren per NFC nutzen können – via neuer „Tap to Open“-Funktion.
Das Keypad 2 NFC wird laut Nuki Ultra-Wideband (UWB) nicht unterstützen, obwohl das die HomeKey-only Konkurrenz von Aqara [6] (noch nicht in Europa erhältlich) mittlerweile kann. Die Auto-Unlock-Funktion ist darüber deutlich genauer und sicherer möglich als mittels Bluetooth Low Energy (BLE). UWB sei eine „wegweisende Technologie“ so Nuki, „für ein noch präziseres Hands-free-Erlebnis“, die man für europäische Türsysteme anpassen will. Das Unternehmen möchte aber noch keine Roadmap verraten, wann es so weit ist. Das heißt wohl: Wer HomeKey oder Digital Home Key mit Nuki einsetzen will, muss später eine weitere Keypad-Variante erwerben, wenn er auch noch UWB haben möchte.
URL dieses Artikels: https://www.heise.de/-11192896
Knapp zwei Wochen nach visionOS 26.3 legt Apple eine kleinere Aktualisierung vor. Sie behebt einen kürzlich ermittelten Bug, der recht speziell ist.
Besitzer des Apple-Headsets Vision Pro [1] sollten einen Blick in die Systemeinstellungen werfen: Dort steht seit Donnerstagabend visionOS 26.3.1 zum Download bereit. Die Aktualisierung ist ein reines Bugfix-Update, das einen speziellen Fehler behebt. Es erscheint rund zwei Wochen nach visionOS 26.3 [2], das unter anderem wichtige sicherheitsrelevante Verbesserungen [3] lieferte.
Apple-TV-App flackerte – aber nur bei Sport
Für visionOS 26.3.1 führt Apple genau einen Fix auf: Bei Verwendung der Multiview-Funktion in der Apple-TV-Anwendung kam es zu einem störenden Flackern. Mit Multiview ist es möglich, Sportereignisse aus verschiedenen Perspektiven zu betrachten und diese auch zu wechseln. Was genau zu dem Fehler führte, ist unklar. Nach dem Update soll das Bild wieder normal sein.
Die Aktualisierung von visionOS wird wie erwähnt über die Systemeinstellungen im Bereich Aktualisierung angestoßen. Nach Download und Installationsvorbereitung erscheint der Hinweis, dass man das Headset zur Installation absetzen muss. Danach kann man auf dem außenliegenden EyeSight-Display einen Fortschrittsbalken sehen. Ist die Aktualisierung durchgelaufen, erscheint das Apple-Logo und das Headset startet neu.
Dringend updaten, falls noch nicht geschehen
Nutzer sollten visionOS 26.3.1 zum Anlass nehmen, ihre Vision Pro zu aktualisieren, sollten sie noch bei visionOS 26.2 oder noch älteren Versionen steckengeblieben sein. Mit visionOS 26.3 wurden Fehler behoben [4], die in iOS bereits durch staatliche Malware ausgenutzt wurden, um iPhones zu übernehmen. Berichte über direkte Angriffe auf das Apple-Headset gibt es aber nicht. Da die Software intern auf dem aufbaut, was in iOS, iPadOS und macOS steckt, ist visionOS in vielen Fällen aber auch von den dort aufgefundenen Sicherheitslücken betroffen, schließlich handelt es sich um einen vollwertigen Computer.
Die Vision Pro kostet mindestens 3699 Euro in der kleinsten Version. Apple hatte sie im vergangenen Herbst mit dem neueren M5-Chip ausgerüstet, sonst aber nur wenige Änderungen an der Hardware vorgenommen. Das Headset wird nur über Apples eigene Ladengeschäfte und den Apple Online Store vertrieben.
URL dieses Artikels: https://www.heise.de/-11192862
Links in diesem Artikel: [1] https://www.heise.de/tests/Apple-Vision-Pro-M5-im-Test-Doppelt-haelt-besser-10793698.html [2] https://www.heise.de/news/iOS-26-3-veroeffentlicht-Leichterer-Android-Switch-mehr-EU-Funktionen-11172138.html [3] https://www.heise.de/news/iOS-26-3-und-Co-Viele-Sicherheitsluecken-gefixt-auch-fuer-aeltere-Versionen-11173685.html [4] https://support.apple.com/en-us/126353 [5] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html [6] https://www.heise.de/mac-and-i [7] mailto:bsc@heise.de
Ausschnitt aus Apple-Kurzvideo zum „#AppleLaunch“: Ankündigung vom Chef.
(Bild: Apple)
Auf seinem X-Profil hat sich Apple-CEO Cook zur kommenden Woche mit neuen Geräten geäußert. Auch wann der „#AppleLaunch“ beginnt, ist nun klar.
Neue Apple-Produkte voraus: Nun hat auch Tim Cook bestätigt, dass es in der kommenden Woche so weit sein wird – und zwar schon ab Montag. Bekannt war bereits, dass Apple für kommenden Mittwoch (4. März) zu einer „Special Apple Experience“ nach London, New York und Shanghai geladen [1] hat, zu der insbesondere Influencer und wenige auserwählte Journalisten anreisen. Doch erste Releases wird es bereits zum Wochenbeginn [2] geben, wie bereits vermutet worden war.
Über die Woche verteilt
Cook schrieb am Donnerstagabend auf X [3], dass eine „große Woche vor uns" liegt. Interessant ist dabei die Terminangabe in einem zweiten Satz: „Alles beginnt am Montagmorgen“, so der Apple-Boss. Garniert wird das Posting mit dem Hashtag „#AppleLaunch“ samt eigens bei X eingekauftem Logo. Ein Kurzvideo im selben Posting zeigt dann noch eine silberne Gehäuserückseite, die zu einem MacBook passen könnte. Ein Finger macht aus einem darauf befindlichen Oval ein vollständiges Apple-Logo.
Cooks Aussage spricht dafür, dass Apple seine Ankündigungen über die Woche verteilt. Am Mittwoch können sich die zur „Special Apple Experience“ Eingeladenen dann wohl die Produkte vor Ort ansehen, bevor sie dann, eventuell bereits in der übernächsten Woche, in die Auslieferung gehen. Eine echte Keynote samt Videopräsentation scheint hingegen nicht geplant zu sein. Eventuell veröffentlicht der Konzern pro Tag Kurzvideos mit Erklärungen. Unklar sind noch die Vorstellzeiten. „Montagmorgen“ spricht eher für den Abend in Europa, möglich ist aber auch, dass die Produkte frühmorgens kalifornischer Zeit per Pressemitteilung angekündigt werden. Das wäre dann ab zirka 13:30 Uhr oder 14 Uhr.
Geplante Produkte
Nach aktuellem Gerüchtestand sind ein neues Einsteiger-iPhone 17e [4] mit neuerem Chip und Hardwareverbesserungen, iPad 11 und iPad Air M4 [5] sowie ein ganz neues Einsteiger-MacBook [6] vorgesehen. Letzteres wäre eine komplett neue Baureihe mit günstigen Komponenten – zu einem Preis von deutlich unter 1000 Euro.
Schließlich könnte Apple auch noch Zubehörprodukte zeigen sowie neue MacBook-Pro-Modelle mit M5 Max und M5 Pro. Der Konzern hatte beim MacBook Pro im Herbst nur das Midrange-Modell mit M5-Chip [7] präsentiert, Profis warten seither auf die schnelleren Maschinen.
URL dieses Artikels: https://www.heise.de/-11192854
Das US-Verteidigungsministerium will laut einem Bericht KI einsetzen, um Schwachstellen in Chinas Infrastruktur zu finden und diese für Angriffe zu nutzen.
Das US-Verteidigungsministerium will mithilfe von Künstlicher Intelligenz Schwachstellen in der chinesischen Infrastruktur ausmachen. Das berichtet die Financial Times [1] unter Berufung auf nicht namentlich genannte Quellen. Das Ministerium verhandele dazu mit führenden US-KI-Unternehmen über Partnerschaften. Im Fokus liegen Stromnetze, Versorgungsanlagen, sensible Netzwerke sowie andere Systeme.
Ziel sei es, dass KI eigenständig in Computernetzwerke eindringt, Schwachstellen in der Software kartiert und potenzielle Angriffsziele in die US-Kriegsplanung integriert. Das Ministerium plane, bestehende Werkzeuge für die Cyberspionage durch KI zu ergänzen. Eine Überlegung sei, Kraftwerke in der Nähe von Rechenzentren im Konfliktfall auszuschalten, um die KI-Fähigkeiten von Gegnern zu schwächen.
KI soll Chinas Manpower-Vorteil ausgleichen
Die USA sehen in KI eine Chance, mit Chinas Fähigkeiten in der Cyberkriegsführung gleichzuziehen. Das, was China in diesem Bereich an Manpower bereithalte, könnte für die USA die KI sein. In kürzerer Zeit könnten mehr potenzielle Schwachstellen abgeklopft werden. Das Verteidigungsministerium hat bereits Verträge mit Firmen wie OpenAI, Anthropic, Google und xAI im Umfang von je bis zu 200 Millionen US-Dollar. Hierbei geht es um Militär-, Cyber- und Sicherheitsanwendungen.
Im Ansinnen der US-Regierung steckt weiteres Konfliktpotenzial für einen bestehenden Streit mit Anthropic. Hierbei ging es um die Nutzung der KI-Modelle für die Massenüberwachung der US-Bevölkerung und für den Betrieb in vollautonomen Waffensystemen. Anthropic hatte dies als Überschreiten roter Linien bezeichnet. Das Verteidigungsministerium drohte damit, das KI-Unternehmen als Risiko für die Lieferketten einzustufen, wenn es nicht kooperiere. Auch eine Verpflichtung zur Bereitstellung der Technik per Kriegsgesetz stand als Drohung im Raum. Anthropic weist ein entsprechendes Ultimatum zurück [2].
Im US-Verteidigungsministerium herrsche die Ansicht vor, dass China keine Skrupel haben wird, KI auf jede erdenkliche Weise für Konflikte einzusetzen, zitiert die FT einen Informanten. Deshalb wollten auch die USA weitreichend von KI Gebrauch machen.
URL dieses Artikels: https://www.heise.de/-11193136
Links in diesem Artikel: [1] https://www.ft.com/content/a56d70b5-669c-4bcc-8541-a4961fc99802 [2] https://www.heise.de/news/KI-Technik-fuers-US-Militaer-Anthropic-weist-das-Ultimatum-des-Pentagon-zurueck-11192161.html [3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner [4] mailto:mki@heise.de
Batch-Scans mehrerer verdächtiger Dateien und passgenaue Malware-Recherchen zur Incident Response: Mit dem Gratis-Tool vt-cli folgt VirusTotal Ihrem Kommando.
Googles Online-Dienst VirusTotal (VT) ist die wohl beliebteste Anlaufstelle für Malware-Scans durch Privatanwender wie auch Profis. Über das Webinterface kann man einzelne Dateien oder verdächtige URLs mit wenigen Klicks übermitteln. VT durchleuchtet sie mit Scan-Engines mehrerer Anbieter, führt zusätzlich dynamische und statische Analysen durch und bündelt alle Informationen in einem ausführlichen Report.
Jenseits einfacher Anwendungsfälle stößt die grafische Oberfläche des Dienstes jedoch schnell an ihre Grenzen. Zum Beispiel dann, wenn Sie bei akutem Schadcode-Befall möglichst zügig nicht nur eine einzelne Datei, sondern gleich den Inhalt eines ganzen Ordners scannen wollen. Oder wenn Sie im Zuge einer Kompromittierung wissen möchten, ob einige der verdächtigen IP-Adressen aus Ihren Logfiles bereits bei früheren VT-Analysen aufgetaucht sind.
Das „VirusTotal Command-Line Interface“, kurz: vt-cli erspart Ihnen in solchen Situationen zeitraubende Einzel-Uploads beziehungsweise -Suchanfragen. Das auf der Kommandozeile basierende Hilfstool entkoppelt die VirusTotal-Funktionen vom Webinterface, indem es direkt auf das zugrundeliegende API zugreift. So können Sie mittels einfacher Terminal-Befehle die von VT gewohnten Scan- und Suchfunktionen nutzen und überdies den Output Ihren individuellen Bedürfnissen anpassen.
Wie Sie mit dem für Linux, Windows und macOS verfügbaren Gratis-Tool schnelle Batch-Scans umsetzen, Ergebnisse filtern und die VT-Plattform gezielt nach relevanten Bedrohungsinformationen durchsuchen können, erklärt dieser Artikel. Außerdem vermittelt er einen ersten Eindruck davon, wie Entwickler vt-cli zum Skripten von VirusTotal-Abfragen nutzen können, ohne sich mit Interna der Programmierschnittstelle zu befassen.
Herunterladen und einrichten
vt-cli ist ein offizielles VirusTotal-Projekt, dessen Quellcode bei GitHub gehostet wird. Am schnellsten bringt man es auf dem eigenen System zum Laufen, indem man auf die fertig kompilierten Binaries zurückgreift. Die stehen zum Veröffentlichungszeitpunkt dieses Artikels in Version 1.2.0 zum Download bereit [2].
Eine Installation ist nicht notwendig: Nach dem Extrahieren der Standalone-Anwendung „vt“ kopieren Sie diese einfach in das gewünschte Verzeichnis und starten sie mit dem Kommandozeilenbefehl vt init. In unserem Testdurchlauf mit Windows 11 sowie mit einer frischen Installation des Debian-basierten Kali Linux in VirtualBox klappte das jeweils problemlos. Wer das in der Sprache Go programmierte Projekt lieber selbst kompilieren möchte, folgt der Kurzanleitung in der Readme.MD [3].
Nach Eingabe des persönlichen API-Keys – hier im Cygwin-Terminal unter Windows – kann man mit vt-cli loslegen.
(Bild: Screenshot)
In der vt-cli-Dokumentation tummeln sich Anwendungsbeispiele, die die bereitgestellten VirusTotal-Funktionen auf clevere und praktische Weise mit Unix-Befehlen wie cat oder grep kombinieren. Um diese Beispiele unverändert unter Windows übernehmen zu können, raten die vt-cli-Entwickler zur zusätzlichen Installation der freien Laufzeitumgebung Cygwin [4]. Das Cygwin-Terminal versteht Unix-Befehle und bietet laut vt-cli-Team zudem Performance-Vorteile gegenüber der Standard-Windows-Konsole bei der Ausgabe großer Textmengen.
Die Schlüssel, bitte!
Nach dem ersten Aufruf von vt-cli via vt init fragt das Tool nach einem VirusTotal-API-Key. Einen solchen können Sie in der Ausführung „standard free public“ kostenlos von der VT-Website beziehen [5]. Dort legen Sie zunächst einen Account an, loggen sich ein und klicken dann oben rechts auf Ihren Benutzernamen.
Das VT-Team rät zum vertraulichen Umgang mit dem persönlichen API-Key.
(Bild: VirusTotal / Screenshot)
Über den Menüpunkt „API Key“ sind der kostenlose Schlüssel wie auch Informationen zu den Nutzungsbedingungen und -beschränkungen abrufbar. Insbesondere die Aufforderung, den Schlüssel vor unbefugtem Zugriff zu schützen, sollten Sie dringend beherzigen: Bösewichte missbrauchen gestohlene Keys gern für massenhafte Anfragen, um etwa Verschleierungstaktiken ihres Schadcodes zu testen. Im schlimmsten Fall führt derlei Missbrauch zur Sperrung des Schlüssels.
Schnelle Suche vorab
Nach einmaliger Übergabe des Keys an vt-cli speichert das Tool diesen dauerhaft in einer Konfigurationsdatei im Home- beziehungsweise Benutzerverzeichnis Ihres Systems. Nun ist vt-cli startklar.
An dieser Stelle noch ein wichtiger Hinweis: Wenn Sie Dateien mit Ihrem kostenlosen API-Key zu VT hochladen, sind die Resultate dauerhaft online abrufbar – und zwar für alle Nutzer. Achten Sie deshalb unbedingt darauf, keine Dokumente vertraulichen Inhalts zu übermitteln.
Falls Sie bei einer bestimmten verdächtigen Datei unsicher sind, ob Ihr Upload nicht doch ein Datenschutzproblem darstellen könnte, bietet sich ein Alternativweg an: Mit vt file (Dateihash) starten Sie eine Suchanfrage auf der VT-Plattform. Ist die Datei dort bereits bekannt und ein Report vorhanden, gibt Ihnen vt-cli dessen Inhalt im Terminal aus.
Für die Anfrage benötigen Sie den SHA-256-, SHA-1- oder MD5-Hash Ihrer verdächtigen Datei. Den ermitteln Sie unter Linux ganz einfach mit Kommandozeilen-Tools wie sha256sum, sha1sum und md5sum. Unter Windows können Sie etwa das PowerShell-Cmdlet Get-FileHash [6] nutzen.
Analysieren...
Um ein wenig mit den Scan-Funktionen zu experimentieren genügt es im Zweifel, schnell ein paar harmlose Testdateien zusammenzustellen oder alternativ auf die EICAR-Testdatei [7]zurückzugreifen.
Eine Analyse werfen Sie ganz einfach mit
vt scan file (Pfadangabe/Dateiname) --open
beziehungsweise
vt scan url (URL) --open
an. Dabei akzeptiert vt scan nicht nur URLs, sondern ebenso Domains und IP-Adressen.
Der Parameter --open sorgt dafür, dass vt-cli nach erfolgter Analyse Links zu den generierten VirusTotal-Reports auf der Kommandozeile ausgibt, so dass Sie sich in der gewohnten Webansicht durch die Ergebnisse klicken können. Alternativ dazu können Sie sich aber auch mit --wait alle Resultate direkt ins Terminal schreiben lassen, sobald die Analyse abgeschlossen ist.
Es lohnt in jedem Fall, sich näher mit den verfügbaren und teils auch kombinierbaren Scan-Parametern zu befassen: So schickt etwa --password string (Passwort) das benötigte Kennwort mit, wenn Sie ein geschütztes Schadcode-Archiv an VirusTotal senden. Eine Gesamtübersicht über alle verfügbaren Optionen bieten die vt-cli-Doku-Abschnitte zu scan file [8] und zu scan url [9].
... in einem Rutsch
Nun aber zurück zu unserem eingangs beschriebenen Batch-Scan-Szenario. Für den Scan mehrerer Dateien oder auch URLs akzeptiert vt-cli Eingaben nach dem Schema
scan file (Datei 1)(Datei 2)(…)
und
scan url (URL 1)(URL 2)(…).
Noch einfacher lässt sich der Scan eines ganzen Ordners voller verdächtiger Dateien mit folgendem Einzeiler abarbeiten:
vt scan file (Ordnerpfad) --open
Ordner-Scan: vt-cli schreibt zu jeder untersuchten Datei den VirusTotal-Link ins Terminal.
(Bild: Screenshot)
Will man wiederum einen ganzen Schwung URLs nacheinander an VirusTotal übermitteln, speichert man diese zunächst in einer Textdatei mit einem Eintrag je Zeile. Das Abarbeiten dieser Liste gelingt dann mit vt-cli und dem Unix-Befehl cat folgendermaßen:
cat (Pfadangabe/URL-Liste) | vt scan url - --open
Dabei schickt vt scan url - den via cat ausgelesenen Dateiinhalt zeilenweise zur Analyse weiter. Im Anschluss liefert --open wie gewohnt zu jeder URL den erzeugten VT-Link zurück.
Schnelle Einschätzung
Sie haben keine Zeit, umfangreiche Analyseberichte zu wälzen und wünschen sich einfach nur eine schnelle Bedrohungseinschätzung auf der Kommandozeile?
In diesem Fall verzichten Sie beim Aufruf von vt scan komplett auf Parameter wie --open oder --wait. Statt VT-Links oder Reports gibt vt-cli dann einfach nur eine Analyse-ID in Gestalt eines Hashes zurück. Diese reichen Sie an den folgenden Befehl weiter:
vt analysis (ID)
Dieser schreibt lediglich die Resultate der Scan-Engines ins Terminal und verzichtet auf Zusatzinformationen wie Verhaltensanalysen oder Community-Kommentare.
Die vom scan-Befehl zurückgegebene Analyse-ID ist verwendbar, um Ergebnisse abzurufen und nach Belieben zu filtern.
(Bild: Screenshot)
Kombiniert mit Unix-Befehlen lässt sich diese Ausgabe noch weiter filtern. Etwa so:
grep sucht in der Analyse alle Vorkommen des Begriffs „category“. VirusTotal nutzt diesen intern, um die Rückgaben der Scan-Engines in Kategorien wie „harmless“, „malicious“ und „undetected“ einzuordnen und Scanfehler zu protokollieren. sort und uniq -c sortieren die gefundenen Zeilen alphabetisch, zählen deren Vorkommen und entfernen Doppler vor der Ausgabe. Die könnte dann beispielsweise so aussehen:
Sie wissen jetzt, dass 54 Scanner die Datei oder URL für schädlich halten – eine recht klare Einschätzung. Auf ähnliche Weise gelingt übrigens auch eine schnelle Abfrage der herstellerspezifischen Malware-Aliases nach einem Dateiscan: Ersetzen Sie einfach „category:“ durch „result:“.
Wissenswert für Entwickler: Über die Analyse-IDs sind Scan-Ergebnisse dauerhaft referenzierbar. Somit kann man die IDs auch verwenden, um etwa im Zuge umfangreicher System-Scans Resultate „zwischenzuspeichern“ und weiterzuverarbeiten, statt sie sofort auszugeben.
Hilfe bei der Aufklärung
Wenn ein System mit Schadsoftware infiziert wurde, steht man vor größeren Problemen als nur einer einzelnen infizierten Datei. Im Zuge der Incident Response gilt es, zahlreiche Einbruchsspuren (Indicators of Compromise, IoCs [10]) auszuwerten und sie zueinander in Beziehung zu setzen, um das Geschehen zu rekonstruieren und adäquat darauf reagieren zu können.
Vorhandene VirusTotal-Reports können auch in diesem Zusammenhang eine wertvolle Recherchequelle darstellen. Mit vt-cli zapfen Sie diese ganz nach Bedarf an: Via vt file (Hash), alternativ aber auch mit den Befehlen vt domain (Domain), vt ip (IP-Adresse) und vt url (URL), sofern Ihnen etwa verdächtige Netzwerkaktivitäten oder Informationen aus Firewall-Logs als Ausgangspunkt dienen.
Die große Stärke von Anfragen via vt-cli gegenüber der Suchfunktion auf der VT-Website offenbart sich, wenn man die verfügbaren Befehlsergänzungen nutzt. Statt sich einfach komplette Reports zurückliefern zu lassen, kann man die Suche spezifizieren, um im Zuge der Incident Response wesentliche Fragen zu klären. Hier ein paar Beispiele:
Auf welche konkreten Schädlinge weist von mir beobachteter bzw. mitgeloggter Traffic hin?Die Befehle vt domain reports / vt ip reports / vt url reports, gefolgt von der jeweiligen Zieladresse, spüren alle VT-Analysen auf, in denen diese Adressen auftauchen.
Umgekehrt kann man mit den Befehlen vt file contacted_urls, vt file contacted_ips und vt file contacted_domains, jeweils gefolgt vom Schadcode-Hash, herausfinden, mit welchen Gesprächspartnern im Web aufgepürte Malware kommuniziert.
Hat mein ursprünglich analysierter Schadcode noch weitere Dateien aufs System geschleust? Sollte dem so sein, gibt vt file dropped_files (Hash) einen oder mehrere Hashes der gedroppten Malware aus der VT-Datenbank zurück. Mit erneuten vt file-Aufrufen können Sie dann direkt weiterrecherchieren.
Kommandozeilenaffinität vorausgesetzt, ist vt-cli eine echte Bereicherung für alle, die die gewohnten VirusTotal-Funktionen flexibler und zielgerichteter nutzen wollen. Programmierern können die verfügbaren Befehle das Umsetzen eigener Projekte erleichtern – von stark individualisierten Scans bis hin zu exakt zugeschnittenen Suchanfragen an VT als Wissensdatenbank.
Ein guter Ausgangspunkt, um sich mit den hier angesprochenen sowie weiteren Features vertraut zu machen, ist neben der ausführlichen vt-cli-Doku [15] die via vt help auf der Kommandozeile abrufbare Übersicht über alle Befehle.
Grenzen setzt der Funktionsumfang des kostenlosen API-Keys, der Premium-Features wie etwa Malware-Downloads oder Zugriff auf den „VT Hunting“-Service ausklammert und die Zahl der täglichen VT-Anfragen auf 500 begrenzt.
Diese recht großzügigen Beschränkungen lassen jedoch reichlich Raum für die maßgeschneiderte Malware-Jagd mit vt-cli. Viel Spaß beim Experimentieren!
URL dieses Artikels: https://www.heise.de/-11176057
Die Rust-Implementierung sudo-rs zeigt beim Eintippen von Passwörtern nun standardmäßig Sternchen an. Ein Bruch mit langer Unix-Tradition.
Die Rust-Implementierung sudo-rs bricht mit einer jahrzehntealten Unix-Konvention: Beim Eintippen von Passwörtern erscheinen nun standardmäßig Sternchen auf dem Bildschirm. Wie aus einem Commit im GitHub-Repository [1] hervorgeht, aktiviert die Software die Option „pwfeedback“ seit Mitte Februar 2026 standardmäßig. Traditionell zeigt sudo seit 46 Jahren beim Eintippen von Passwörtern keinerlei Rückmeldung – eine bewusste Designentscheidung aus Sicherheitsgründen.
Die Entwickler begründen die Änderung mit Usability-Verbesserungen für neue Anwender. In der Commit-Nachricht heißt es, die Sicherheit sei zwar theoretisch schlechter, da Passwortlängen für Beobachter in der physischen Nähe des Nutzers sichtbar würden. Dieser minimale Nachteil werde jedoch durch die deutlich verbesserte Bedienbarkeit aufgewogen. Tatsächlich ist sudo damit eines der letzten Unix-Tools, das überhaupt keine visuelle Rückmeldung bei der Passworteingabe gibt – andere Anwendungen zeigen längst Platzhalterzeichen.
Die Änderung betrifft Ubuntu-Anwender mit allen Versionen, die sudo-rs standardmäßig einsetzen. In einem Bug-Report [2] beschwerte sich zumindest ein traditionell eingestellter Nutzer vehement über die Neuerung: Das Anzeigen von Asterisken verstoße gegen Jahrzehnte der Praxis und verrate die Passwortlänge an „Shoulder Surfer“ – Personen, die dem Nutzer über die Schulter schauen. Ubuntu markierte den Fehlerbericht jedoch als „Won't Fix“. Eine Rücknahme der Änderung ist nicht geplant.
Einfache Deaktivierung möglich
Administratoren, die das alte Verhalten bevorzugen, können die Sternchen-Anzeige deaktivieren. Dazu muss in der sudoers-Konfigurationsdatei die Zeile Defaults !pwfeedback eingefügt werden. Für Server-Umgebungen dürfte die Änderung weniger relevant sein, da dort typischerweise SSH-Keys statt Passwörter zum Einsatz kommen.
sudo-rs ist eine vollständige Neuimplementierung des sudo-Befehls in der Programmiersprache Rust. Das Projekt zielt darauf ab, die Sicherheitsprobleme zu vermeiden, die aus der 30 Jahre alten C-Codebasis des Originals resultieren können. Rust verhindert durch seinen Borrow Checker ganze Klassen von Speicherverwaltungsfehlern wie Buffer Overflows. Auch in vielen anderen Distributionen lässt sich sudo-rs inzwischen statt des herkömmlichen sudo einsetzen, wobei eine mit Ubuntu vergleichbare Umstellung bei den anderen Mainstream-Systemen bislang nicht erfolgt ist.
Die Trifecta Tech Foundation, die sudo-rs entwickelt, ließ das Projekt bereits zweimal extern auditieren. Die letzte Prüfung im August 2025 fand keine Sicherheitslücken. Beim ersten Audit 2023 entdeckten die Prüfer eine Path-Traversal-Schwachstelle, die allerdings auch das originale sudo betraf. Ubuntu-Nutzer können noch bis Version 26.04 via update-alternatives zum klassischen sudo zurückwechseln.
URL dieses Artikels: https://www.heise.de/-11192641
Links in diesem Artikel: [1] https://github.com/trifectatechfoundation/sudo-rs/commit/fb51e41919c25e3b178c4f994e668a5fc80136ee [2] https://bugs.launchpad.net/ubuntu/+source/rust-sudo-rs/+bug/2142721 [3] https://www.heise.de/ix [4] mailto:fo@heise.de