FreshRSS

🔒
❌ Über FreshRSS
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Vor vorgesternIhre RSS-Feeds

Brutzeit beginnt: Was Gartenvögel jetzt wirklich brauchen

Von Susanne Aigner
Kohl- und Blaumeise mit Bemaßung der Einfluglöcher im Nistkasten

Viele Nistkästen im Handel sind für Vögel unbrauchbar – und auch das Nistmaterial spielt eine größere Rolle als gedacht.

Im Frühjahr beginnt für die meisten einheimischen Vogelarten die Brutzeit, weshalb sie intensiv nach geeigneten Nistplätzen suchen. Die Hauptbrutzeit liegt größtenteils zwischen April und Juni. Doch die meisten Vögel beginnen im April oder Mai mit dem Brüten. Dann sind die Temperaturen milder und es gibt genug Nahrung für die heranwachsenden Jungvögel [1].

Die Brutzeit dauert bei den meisten Arten zwischen zwei und vier Wochen. Nach dem Schlüpfen verlassen die Jungvögel das Nest meist nach weiteren zwei bis vier Wochen. In dieser Zeit kümmern sich die Elternvögel um ihre Nachkommen und füttern sie mit Insekten u. a.. Frühbrüter wie Meisen beginnen teilweise schon im März, während andere Arten später folgen.

Zum Schutz der brütenden Vögel sollten Heckenschnitte deshalb nur bis Ende Februar durchgeführt werden. Doch Vögel brauchen nicht nur mehr Futter für die Jungtiere, sie sind auch auf einen geeigneten Brutplatz angewiesen.

Doch Meisen, Spatzen oder Stare finden heute kaum noch natürliche Nistplätze wie Baumhöhlen. Intensiv genutzte und "aufgeräumte" Landschaften erschweren ihnen Wohnungs- wie Futtersuche.

Wo alte Hochstammobstbäume fehlen, wo Scheunen vernagelt oder Ställe hermetisch abgeschlossen sind, wo Hecken planiert und alte Bäume abgeholzt werden, ist kein Platz mehr für Steinkauz, Siebenschläfer, Rauchschwalbe, Fledermaus oder Wildbiene.

Künstliche Nisthilfen können natürliche Nistplätze ersetzen

Gut platziert, sind künstliche Nisthilfen ein wertvoller Beitrag zum Schutz heimischer Höhlenbrüter [2] und fördern die Artenvielfalt in Garten, Park oder auf dem Balkon. Auch künstliche Schwalbennester oder Steinkauzröhren können Schwalben und Steinkäuzen helfen.

Hängt man die Nistkästen vor der Brutsaison auf, bietet man Meisen, Sperlingen, Kleibern, Rotschwanz und Star ein passendes Quartier. Darüber hinaus werden die Kästen auch von Eichhörnchen und sogar von Schmetterlingen genutzt.

Was ist beim Kauf eines Nistkastens zu beachten?

Jeder Vogel stellt andere Ansprüche an einen Nistkasten. Darum wäre gut, vorher festzulegen, welche Gartenvögel man unterstützen möchte. Beim Bau eines Nistkasten sollte man auf robuste, mindestens 20 mm starke, unbehandelte Holzbretter (z. B. Fichte, Tanne oder Buche) zurückgreifen.

Die Bodenfläche sollte 12 mal 12 cm betragen, um auch für größere Bruten ausreichend Platz zu haben. Der Durchmesser des Einfluglochs sollte an die Größe der betreffenden Vogelart angepasst sein: ca. 28 mm für Blaumeisen, 32 mm für Kohlmeisen, ca. 45 mm für Stare.

Mit etwas handwerklichem Geschick und minimalem finanziellen Aufwand lässt sich ein Nistkasten selber herstellen. Wichtigste Grundregel: Niemals chemisch behandelte Materialien verwenden! Alternativ dazu gibt es Nistkästen in Baumärkten – oder im Naturversand Nabu-Shop [3]. Doch nur wenn der Garten naturnah gestaltet ist und die Vögel entsprechend Nahrung finden, werden die Nistkästen bewohnt.

Holz oder Beton?

Holzmodelle sind aus natürlichem Material, leichter und einfach aufzuhängen. Sie fügen sich harmonisch in den Garten ein. Holzbetonkästen sind besonders robust, witterungsbeständig und wirken nach innen isolierend für ein ausgeglichenes Klima im Brutraum. Zudem sind sie kaum anfällig für Spechte oder andere Tiere, welche die Einfluglöcher vergrößern könnten.

Am besten hängt der Nistkasten in zwei bis drei Meter Höhe – idealerweise in Richtung Osten oder Südosten, um Regen und direkte Sonne zu vermeiden. Um Schäden an Bäumen zu vermeiden, befestigt man ihn mit rostfreien Alu-Nägeln oder Drahtbügeln. Mehrere Kästen gleicher Art sollten mindestens zehn Meter Abstand haben, damit jedes Paar genügend Nahrung findet.

Nistkästen als wärmender Unterschlupf im Winter

Nistkästen werden auch von Vogelarten genutzt, die den Winter in Mitteleuropa verbringen und in kalten Nächten Schutz suchen. So müssen Vögel mit 39 bis 42 Grad ständig eine höhere Körpertemperatur als Säugetiere aufrechterhalten. Sie verbrennen bei Kälte viel Körperfett, verlieren schnell an Gewicht und sind geschwächt.

So bauen Spatzen regelrechte Winternester, in die sie sich bei Frost einkuscheln. Auch Zaunkönige wärmen sich im Winter gerne gegenseitig in Nistkästen. Aber auch Meisen, Kleiber, Schmetterlinge und Insekten finden in Nistkästen ein schützendes Heim.

Manchmal ziehen aber auch Eichhörnchen, Siebenschläfer, Haselmäuse oder Fledermäuse ein. Im Frühjahr können zurückgekehrte Vogelpaare die vorhandenen Quartiere wieder nutzen und ihre Brut aufziehen. Nistkästen sollte man daher bereits im Herbst aufhängen [4], rät der Nabu.

Um Krankheitserregern und Parasiten vorzubeugen, sollten Nistkästen immer nach der Brutsaison gereinigt werden. Dann ist altes Nistmaterial zu entfernen, auszufegen und der Kasten mit warmen Wasser auszuspülen – ohne chemische Mittel – am besten im Februar oder März, nachdem die Wintergäste ausgezogen sind.

"80 Prozent der Vogelhäuser im Handel sind für Vögel unbrauchbar"

… erklärt Heinrich Weller, der mehr als 40 Jahre lang Vogelhäuser von Hand geschnitzt [5] hat. Was in den Baumärkten verkauft werde, sei Dekoration – kein Zuhause für Vögel. Der thüringische Schreinermeister verweist auf die Mängel von gekauften Nistkästen: Bei Öffnungen, die größer sind als 34 Millimeter, kommen Spatzen und Stare oder Spechte rein und vertreiben die kleineren Arten.

Zudem sind viele Billig-Häuser lackiert oder lasiert. Das sehe zwar hübsch aus, doch Vögel reagieren extrem empfindlich auf Ausdünstungen, so dass sie diese Häuser meiden.

Sind die Wände acht oder zehn Millimeter dünn, kühlen die Nistlinge aus. Bei Sommerhitze werde es drinnen heiß wie im Backofen. Damit das Nest nicht schimmelt, müsse das Regenwasser abfließen und die Luft muss zirkulieren können. Auch das Reinigen des Kastens sei so gut wie unmöglich, wenn die Wände geklebt sind.

Nistmaterial für Gartenvögel

Während Vögel in naturnahen Gärten meist genug Baumaterial finden, wird das Material in "aufgeräumten" Gärten vor allem in urbanen Räumen knapp. Um Gartenvögel beim Nestbau zu unterstützen, kann man folgende Materialien [6] an regengeschützter Stelle bereitlegen:

  • Kleinere Zweige und Staudenstängel
  • Laub und Moos, trockenes Gras, Stroh und Heu
  • Naturfasern wie Kapok, Rohbaumwolle, Hanf oder Sisal (kurz geschnitten)
  • Daunen und Federn
  • Tierhaare von Hund oder Schaf (kurzes, weiches Unterfell). Diese füllt man am besten in einen leeren Futterspender, damit die Vögel nur einzelne Haare herausziehen können.

Synthetisches Material kann Vögel gefährden

In Städten greifen Vögel oft zu Plastiktüten, Schnüren oder Zeitungspapier. In langen Pferdehaaren und menschlichem Haar, Flusen und synthetischen Fasern, langen Wollfäden und Bindfäden können die Tiere sich strangulieren oder sich darin verheddern. Plastik verhindert bei Freibrütern wie Amseln das Abfließen von Regenwasser, was die Jungvögel auskühlen lässt.

Manchmal rupfen Vögel lebenden Tieren Haare zwecks Nestbau aus, wie Wissenschaftler nachwiesen. Dann landen sie auf dem Rücken von Kühen, Pferden, Hunden und sogar Waschbären und bedienen sich am kurzen Unterfell der ahnungslosen Tiere.

Warum sie Tierhaare so schätzen, ist noch nicht vollständig geklärt. Wärmedämmung allein kann es nicht sein, denn auch tropische Vögel bauen Haare von Säugetieren in ihre Nester ein.

Kräuter: Baumaterial und natürliche Apotheke

Um ihre Brut zu schützen, nutzen Vögel häufig duftende Kräuter. Die ätherischen Öle stärken das Immunsystem der Küken und wirken gegen Bakterien und Parasiten.

Daher ist es sinnvoll im Garten oder auf dem Balkon Kräuter zu pflanzen: Lavendel, Minze, Rosmarin, Currykraut [7], Holunder, Schafgarbe, Flohkraut oder Wilde Möhre. Selbst Giersch [8] wird beim Nestbau von Staren verwendet.


URL dieses Artikels:
https://www.heise.de/-11248132

Links in diesem Artikel:
[1] https://die-vogelvilla.de/blogs/vogelvilla-journal/fruhling-ist-brutzeit
[2] https://niedersachsen.nabu.de/tiere-und-pflanzen/voegel/helfen/nistkaesten/index.html
[3] https://www.nabu-shop.de/garten-und-tierwelt/nistkasten
[4] https://www.nabu.de/tiere-und-pflanzen/voegel/helfen/nistkaesten/13134.html
[5] https://variova.de/pages/vogelhaus-1-1?utm_source=outbrain&utm_medium=discovery&utm_campaign=Vogelhaus+Creative2+Desktop&utm_content=
[6] https://www.krautundrueben.de/nistmaterial-fuer-gartenvoegel-so-unterstuetzen-sie-gefiederte-gartenbewohner-3474
[7] https://www.krautundrueben.de/currykraut-pflanzen-pflegen-und-ernten-3448
[8] https://www.krautundrueben.de/giersch-bekaempfen-diese-8-pflanzen-verdraengen-ihn-2284

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 11. April 2026 um 14:00

Magdeburg: Die widersprüchlichste Stadt Deutschlands

Von Christian Bartels
Magdeburger Dom und Elbe

Bild: Christian Bartels

Zwischen Dom, DDR-Architektur und preußischer Geschichte entfaltet Magdeburg eine Dynamik, die aus Brüchen lebt und gerade deshalb fasziniert. (Teil 1)

Es ist schon ungerecht. Der Kölner Dom reizt ungefähr alle, die nicht regelmäßig vorbeikommen, zum Fotografieren (klar, oft mit sich selbst im Vordergrund). Gleich neben Hauptbahnhof und Rhein gelegen, ist er natürlich Weltkulturerbe.

Älter als Köln – aber keiner schaut hin

Der Magdeburger Dom, näher an der Elbe als am Hauptbahnhof, besitzt den Status nicht. Seine mit 104 Metern durchaus stattlichen Türme sind zwar über 50 Meter kleiner – aber auch mehr als dreihundert Jahre älter als die in Köln.

Magdeburgs gotischer Dom wurde vor mehr als einem halben Jahrtausend fertiggestellt, der Kölner vor nicht mal 150 Jahren. Wenn Bauten erst mal stehen, sieht ihnen eben schon bald niemand mehr an, wie alt sie sind.

Magdeburg steht oft etwas im Schatten. Das zeigt sich auch daran, dass sein Hauptbahnhof als einziger einer deutschen Landeshauptstadt nicht von ICE-Zügen angefahren wird. (Außer bei Umleitungen der ICE-Strecke zwischen Berlin und Hannover, die immerhin, dank der Deutschen Bahn, nicht selten sind ...).

Der Mann, der Luther provozierte

Magdeburgs Dom-Türme wurden anno 1520 fertig – gerade noch im Mittelalter, wenn man es nach älterer deutscher Lesart mit der Reformation enden lässt. Und dass es just Magdeburgs Landesherr war, der die Reformation anstieß, zeigt die Bedeutung, die die Stadt oft besaß.

Albrecht von Brandenburg war sein Erzbistum Magdeburg (dessen namensgebende Stadt so frei war, dass er lieber in Halle residierte) nicht genug. Daher wollte und bekam er auch noch den Titel des Erzbischofs und Kurfürsten von Mainz, musste für die päpstliche Anerkennung solcher eigentlich untersagten Ämterhäufung aber zahlen.

Zur Finanzierung schickte er in seinen Landen jene Ablass-Händler umher, die dann Martin Luther aus dem nahen Wittenberg erzürnten. Vier Jahre, nachdem Albrecht die Türme einweihen konnte, wurde Magdeburg als erste deutsche Großstadt protestantisch und entzog sich seiner Macht-Sphäre endgültig.

"Magdeburger Moderne" trifft Zuckerbäcker und Beton

In und um der heute 240.000 Einwohner großen Stadt ging es politisch oft hoch her. Davon zeugt Magdeburgs Stadtbild. Allerhand oft doppeltürmige Kirchenbauten ragen zwischen in ihrer Breite gewaltigen Plattenbauten sowie Prachtbauten im stalinistischen "Zuckerbäcker"-Stil empor.

An ikonischen Bauten aus DDR-Zeit mangelt es nicht, bis hin zur aufwändig restaurierten Hyparschale von 1969 auf der anderen Elbseite.

Hyparschale. Bild: Christian Bartels

Außerdem bewirbt die Stadt die "Magdeburger Moderne" [1]. Das bezieht sich auf die teilweise goldenen Zwanziger Jahre des vorigen Jahrhunderts, In denen wurde, allen Wirren der Weimarer Republik zum Trotz, Magdeburg wie überhaupt das Land Preußen so konstant sozialdemokratisch regiert, wie es die gegenwärtige SPD kaum zu erträumen wagen würde.

In der Stadt wirkten Architekten wie Bruno Taut (dem sich zu größeren Teilen das Weltkulturerbe der "Siedlungen der Berliner Moderne" verdankt...) .

Aus jüngerer Zeit gesellt sich, jenseits steriler Funktionsbauten und den Straßenschluchten dazwischen, noch Friedensreich Hundertwassers "Grüne Zitadelle" [2] dazu.

Gold glänzt, Geschichte bröckelt

Zusammen passt all das nicht unbedingt, schon gleich gar nicht mit dem unnatürlich glänzenden Goldenen Reiter auf dem Marktplatz, dessen einst wohl tatsächlich vergoldetes Original dezent sandsteinern als "erstes vollplastisches und freistehendes Reitermonument des Mittelalters" im Kulturhistorischen Museum [3] steht.

Eher erzeugen die Widersprüche Dynamik aller Art. Zumal am Breiten Weg, der alten Hauptgeschäftsstraße, von dessen gern betonter Ex-Pracht aus dem Barock nach der letzten Zerstörung im Zweiten Weltkrieg außer der Breite so gut wie nichts geblieben ist.

Immerhin strahlt sie streckenweise entspannte Urbanität dank Verkehrsberuhigung aus. Die Legende [4], dass der Breite Weg einst Magdeburger Auswanderer in der niederländischen Kolonialgründung Nieuw Amsterdam zur Anlage einer ähnlich breiten Straße inspirierte, aus der dann nach englischer Eroberung und Umbenennung der Broadway wurde, begegnet einem in Magdeburg öfter. (Okay, in New York sicher seltener.)

Preußens stärkste Festung – und heute Landtag

Rund um den Dom sieht man, dass Magdeburg noch deutlich länger als Köln zu Preußen gehörte (das dort ja auch erst die Fertigstellung des Doms hinkriegte). Zur Elbe hin zeigen freigelegte Festungsanlagen, dass Magdeburg jahrhundertelang und noch bis 1912 als "stärkste Festung Preußens" galt.

Der große, gepflasterte Domplatz war sichtlich einer der Exes, der Exerzierplätze fürs in Preußen Stadtbild-prägende Militär. Rundherum stehen relativ dezente Barockbauten, die heute den Landtag sowie Regierungs-Stellen des kleinen Bindestrich-Bundeslands Sachsen-Anhalt beherbergen.

Bekanntlich fließt in Hauptstädte, in denen Spitzenpolitiker und -beamte leben, meist mehr Geld als in die Peripherie. Auch das spürt man in der "Ottostadt", wie sich Magdeburg mit Bezug auf Kaiser Otto, der den ersten Dom anlegen ließ, und auf Otto Guericke, der im 17. Jahrhundert als Bürgermeister wie Wissenschaftler wirkte, nennt.

Von Telemann zu Tokio Hotel

An alles, was nicht mehr steht, weil es zerbombt oder während der DDR-Zeit abgerissen wurde, wird erinnert. An flotten Sprüchen à la "Home is, where the Dom is" (wie sie in Köln übrigens auch erklingen), an Marketing und bunten Broschüren herrscht kein Mangel.

Lokalstolz gilt außer Sport und Sehenswürdigkeiten Prominenten zwischen dem Komponisten Telemann, dessen 345. Geburtstag gerade begangen wurde, und den Tokio Hotel-Brüdern Bill und Tom Kaulitz, die auch aus der Region stammen und Ende des Jahres, wenn sie "Wetten, dass...?" fortführen, womöglich im gegenwärtigen gesamtdeutschen Mainstream ankommen.

Vor wenigen Jahren errichtet wurde das Dommuseum mit dem nicht ganz leicht auszusprechendem Namen "Ottonianum". Gemeinsam mit dem Dom nebenan erregt es tatsächlich immer wieder Aufmerksamkeit.

Der große Kaiser und die zahlreichen Käfer

Just etwa erwiesen sich Kaiser Ottos Gebeine nicht nur als echt, sondern zeigten auch an, dass er den Beinamen "der Große" nicht allein als mehr oder weniger erster Kaiser des alten Deutschen Reichs erhielt (das fast 900 Jahre alt wurde). Mit etwa 1,80 Metern war er echt "für das Mittelalter überdurchschnittlich groß" (Welt [5]).

Das Ottonianum-Museum hofiert zwar Ottos ebenfalls im ersten Dom begrabene erste Frau Edita, eine Angelsächsin aus England, etwas unzeitgemäß-anbiedernd als "Lady Di des Mittelalters" und "Königin der Herzen" [6].

Andererseits setzt es wirksam Kontrapunkte, indem es etwa einzelne der "4829 Insekten ..., davon 3993 Käfer" ausstellt, die sich im bestens untersuchten Bleisarg fanden, in den Editas – ebenfalls echte – Gebeine anno 1510, mehr als ein halbes Jahrtausend nach ihrem Tod, umgebettet worden waren.

Wobei es natürlich nicht zuletzt um Macht-Repräsentation der damaligen Herrscher mit dem damals wie heute als "Groß" anerkannten Kaiser und seiner Gemahlin ging.

Lesen Sie in Teil 2, wie das "Magdeburgisieren" international zu einem Begriff und wie die Stadt durch und trotz Zerstörungen immer wieder Aufsehen erregte.


URL dieses Artikels:
https://www.heise.de/-11250535

Links in diesem Artikel:
[1] https://www.magdeburger-moderne.de/front_content.php?idart=3127&lang=25&acceptCookie=1
[2] https://www.gruene-zitadelle.de/
[3] http://www.khm-magdeburg.de/dauerausstellung/der-magdeburger-reiter/
[4] https://www.volksstimme.de/lokal/magdeburg/ist-der-broadway-ein-magdeburger-1961976
[5] https://www.welt.de/geschichte/article69ba6ec24bac5c2831a983d4/otto-i-der-grosse-es-passt-auch-genetisch-perfekt-was-forscher-am-magdeburger-kaisergrab-herausfanden.html
[6] https://www.magdeburg.de/index.php?ModID=7&FID=557.755.1&object=tx%7C557.755.1

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 11. April 2026 um 12:00

Störungsmeldung vom 11.04.2026 11:00

Von heise online

Neue Störungsmeldung für Provider Vodafone Kabel

Details

Beginn
11.04.2026 11:00
Region
Böblingen (07031)
Provider
Vodafone Kabel
Zugangsart
Kabel

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

  • 11. April 2026 um 11:00

Einfache UX für domänenspezifische Sprachen mit VS Code gestalten

Von Heise
Mund, aus dem Buchstaben schweben

(Bild: lassedesignen / Shutterstock.com)

Steuererklärung, Prozesse oder Bauplanungen: Vieles lässt sich mit einer domänenspezifischen Sprache darstellen. Editoren mit LSP machen die Umsetzung leicht.

Lohnt es sich, eine eigene Programmiersprache samt Syntax-Highlighting, Code Completion anderen Features im Editor nur für ein einzelnes Projekt zu erstellen? Was sich auf den ersten Blick nach viel Arbeit anhört, ist dank Language Server Protocol (LSP) deutlich einfacher geworden. Durch die reichhaltigen Möglichkeiten zur Interaktion mit Texteditoren wie Visual Studio Code eignen sich domänenspezifische Sprachen (Domain Specific Languages, DSL) als eine vollwertige und auch unterschätzte Möglichkeit der Gestaltung einer UX.

Anwenderinnen und Anwender jenseits der Informatik nehmen Spezifikationen oft mit Formularen vor. Je komplexer die Anforderungen sind, desto komplizierter wird die Umsetzung per Formular. Ein grotesk wirkendes Beispiel zeigt Abbildung 1: Anweisungen für einen Compiler, über ein Formular zu spezifizieren.

Anweisungen per Formular
Anweisungen per Formular

Programmieren per Formular wirkt grotesk (Abb. 1)

Gleich mehrere Gründe machen diese Idee so absurd:

  • Die Spezifikation ist völlig aufgebläht: Die noch unvollständige Implementierung des Heron-Verfahrens zum Wurzelziehen lässt sich auch mit nur drei Zeilen Code umsetzen.
  • Als direkte Folge davon ist das Formular deutlich schwerer verständlich.
  • Für erfahrene Nutzer ist eine Programmiersprache sehr viel effizienter, weil sie in der gleichen Zeit wesentlich mehr Spezifikationen verfassen können.
  • Es ist nur schwer vorstellbar, wie man eine formularbasierte Programmspezifikation versionieren kann. Textbasierte Algorithmen, wie Git sie verwendet, funktionieren hier vermutlich nicht.

Eine komplexe Spezifikation ist keine Besonderheit der Informatik, auch in anderen Fachbereichen gibt es schwierige Probleme, die immer mehr mithilfe von Computern gelöst werden sollen. Das kann die Automatisierung von Workflows sein, die Planung von Bauteilen oder Gebäuden, die Dokumentation von manuellen Prozessen oder vieles mehr. Ein Erfolgsfaktor von Programmiersprachen ist sicherlich, dass Programme sowieso abstrakt sind, während sich physische Bauteile oder Gebäudepläne schon immer auch grafisch haben repräsentieren lassen. Das Beispiel von Prozessautomatisierung zeigt aber, dass in vielen Bereichen ebenfalls abstrakte Konzepte auftreten.

Innerhalb der Informatik haben sich textuelle Sprachen auch jenseits des Programmierens bewährt. Admins legen Infrastrukturen in der Cloud schon lange nicht mehr per Formular an (diese Praxis wird eher als ClickOps geschmäht), sondern in Textform per Infrastructure-as-Code. Die Gründe sind dieselben: die Spezifikation ist schlanker, verständlicher, einfacher zu versionieren und man ist damit schneller.

Einfacher zu versionieren als Formulare, sind generische Formate wie JSON oder XML. Sie sind allerdings ursprünglich nicht dafür gedacht, für Menschen lesbar zu sein, sondern für Maschinen. Da viele Anwendungen ohnehin eine maschinenlesbare Sprache benötigen, ist es bequem, diese auch als alternative Schnittstelle anzubieten.

Aber auch solche Konfigurationsdateien erreichen nicht die Prägnanz, Lesbarkeit und Effizienz einer domänenspezifischen Sprache, zumal auch Validierungstechnologien wie XML Schema oder JSON Schema nur die Struktur der Dokumente validieren, aber wenig zur fachlichen Analyse beitragen können.

DSL als Alternative zu Formularen und Konfigurationsdateien

Komplexe Vorgänge, die Menschen gern sehr prägnant, lesbar und versionierbar ausdrücken wollen, kann man vorteilhaft mit einer domänenspezifischen Sprache spezifizieren, mit der gleichen Editorunterstützung wie bei Programmiersprachen. Beispiele wären Reisekostenabrechnungen, Nebenkostenabrechnungen, Steuererklärungen, Umsatzabfragen, Prozessautomatisierungen oder Bauplanungen.

LLM-basierte Chatfunktionen sind dabei kein Ersatz für domänenspezifische Sprachen, umgekehrt aber können domänenspezifische Sprachen die Intention eines KI-Systems einfacher überprüfbar machen. Anstatt agentenbasierte Systeme kritische Dinge tun zu lassen (was zumindest in der EU per AI Act [1] streng reglementiert ist), kann man KI-Systeme auch eine in natürlicher Sprache vorliegende Beschreibung in eine DSL umformulieren lassen.

Das Language Server Protocol als Enabler für eine DSL-UX

Die Entwicklung einer domänenspezifischen Sprache reduziert sich nicht nur auf einen Parser: Nutzerinnen und Nutzer sind den Komfort von Syntax-Highlighting, Code Completion, bequemes Springen zur Definition oder zu Referenzen gewohnt, die wesentlich für eine gute UX und gesteigerte Produktivität sind. In den letzten Jahren ist dies durch das von Microsoft entwickelte Language Server Protocol (LSP) deutlich einfacher geworden. Dieses Prinzip hat sich auf weitere Bereiche ausgeweitet, zum Beispiel auf grafische Sprachen mit dem Graphical Language Server Protocol (GLSP). LSP und GLSP erlauben es, weitgehend auf die Entwicklung von UI-Komponenten zu verzichten und sich stattdessen auf die Semantik einer Sprache zu konzentrieren.

Aus diesem Grund können Editoren wie Visual Studio Code mit beliebigen Programmiersprachen umgehen: Während sie als Frontend immer dasselbe UI verwenden (im Fall von Visual Studio Code den Monaco-Editor), liefert ein LSP-Server die sprachspezifische Editorunterstützung. Da LSP auf JSON-RPC basiert, das keine Transportschicht definiert, lässt sich LSP wahlweise über stdin/stdout oder über Websockets betreiben. Das ermöglicht viele Optionen für das Deployment: Der Client kann in einer Desktopanwendung (in Fall von Visual Studio Code via Electron) oder im Browser laufen, während der Server entweder in die IDE eingebettet oder auf einem entfernten Rechner arbeitet.

Mittlerweile gibt es für die Entwicklung von LSP-Servern mehrere Frameworks, je nachdem, mit welcher Programmiersprache man die DSL entwickeln will. Für die Beschreibung der Grammatik der DSL kommt ebenfalls eine DSL zum Einsatz. Daraus generiert das Framework Parser, Klassen für den abstrakten Syntaxbaum und die Editorunterstützung. Entwicklerinnen und Entwickler können das Ergebnis durch manuellen Code ergänzen oder überschreiben. Beispiele für entsprechende Tools sind Xtext für Java [2] (siehe auch: [1] [3]), Langium für TypeScript [4] und AnyText für .NET [5] (siehe auch [2] [6]).

Eine neue DSL entwickeln

Der Startpunkt für die Entwicklung einer neuen DSL ist mit allen dreien der genannten Frameworks eine Grammatik, die auch die abstrakte Syntax der Sprache ausdrückt. Die abstrakte Syntax ist hierbei die Definition der Konzepte, die die Sprache ausmachen. Für die Grammatik werden bei Xtext und Langium kontextfreie LL(k)-Grammatiken verwendet, bei AnyText Parse-Expression-Grammatiken (PEGs). Beide Klassen von Grammatiken arbeiten mit Nichtterminalen (= Platzhaltern) und Produktionsregeln, die bestimmen, wie ein Nichtterminal ersetzt werden kann. Diese Produktionsregeln lassen sich bequem über die Metasprache Erweiterte Backus-Naur-Form (EBNF) spezifizieren, die zusätzlich noch um Zuweisungen ergänzt wird, um auch die abstrakte Syntax angeben zu können.

Praktischerweise bietet Langium mit dem Playground [7] eine Möglichkeit an, mit der Entwicklung einer DSL ohne Installation einer Software direkt im Browser zu beginnen. Für Xtext [8] oder AnyText [9] bieten die Tutorials gute Einstiegspunkte.

Um beispielsweise die (hier vereinfachte) Deklaration einer Klasse in einer Programmiersprache zu spezifizieren, genügt das folgende Fragment:

Class: ‘class’ name=ID ‘{‘ members+=ClassMember* ‘}’;

Dieses Beispiel geht davon aus, dass es weitere Nichtterminale ID und ClassMember gibt, die regeln, wie ein Identifier genau aussieht und was zulässige Member einer Klasse sein können. Der Postfixoperator * erlaubt hierbei beliebig viele Member. Alternativ sind auch + oder ? möglich, um mindestens oder höchstens ein Vorkommen zu beschreiben. Der Operator | erlaubt auch Alternativen, was unterschiedliche Arten von Membern ermöglicht. Besteht eine Regel ausschließlich aus Alternativen, dann wird das in der abstrakten Syntax durch Inheritance abgebildet.

Die Zuweisung = bzw. += weist das System darüber hinaus an, das Ergebnis des Nichtterminals ID bzw. ClassMember dem abstrakten Element des Nichtterminals zuzuordnen. Das geht entweder als einwertige Eigenschaft (beispielsweise, dass das Ergebnis von ID den Namen bilden soll) oder als mehrwertige Eigenschaft, dass das Ergebnis von ClassMember zur Auflistung members hinzugefügt werden soll.

Aus diesen Zuweisungen lassen sich dann auch Klassen ableiten, um die abstrakten Elemente der Sprache im Speicher darstellen zu können. Sowohl Xtext und Langium als auch AnyText unterstützen den Operator [], mit dem sich Referenzen abbilden lassen, dass also an einer gegebenen Stelle nur eine Referenz auf ein anderes syntaktisches Element erscheinen soll.

Die Konstruktion des Parsers bleibt zwar weitestgehend vor den Entwicklern verborgen, allerdings haben manche Klassen von Grammatiken Einschränkungen, die Entwickler einer DSL berücksichtigen müssen. So sind die Produktionen bei kontextfreien Grammatiken ungeordnet, bei PEGs aber geordnet, weswegen es konstruktionsbedingt keine Mehrdeutigkeiten gibt. Gängige Parser für kontextfreie Grammatiken unterstützen keine Linksrekursionen, für PEGs aber schon.

Die Unterstützung von Linksrekursionen ist vor allem für Ausdrücke wichtig, da man damit sehr intuitiv Formeln umsetzen kann. Insbesondere sind binäre Ausdrücke selbst Ausdrücke, beginnen aber auch mit einem Ausdruck. Für PEGs haben Warth und andere [3] [10] eine Erweiterung von Packrat-Parsern entwickelt, die Linksrekursionen parsen kann, wobei das lineare Laufzeitverhalten von Packrat-Parsern erhalten bleibt.

In AnyText lässt sich daher eine einfache Expression-Grammatik wie in Listing 1 unten dargestellt implementieren. Hierbei überschreibt das Schlüsselwort returns, welche Klasse der abstrakten Syntax das Nichtterminal zurückgibt. Im Beispiel dient es dazu, nicht für jedes einzelne Nichtterminal eine Klasse einführen zu müssen. Das Schlüsselwort enum kommt zum Einsatz, um eine fixe Menge von Werten abzubilden. Ferner beschreibt das Schlüsselwort parantheses ein Nichtterminal für Klammerungen und terminal ein Terminal, dargestellt durch einen regulären Ausdruck.

grammar Expressions (exp)
root Expression

Expression:
  AdditiveBinary | Multiplicative;
AdditiveBinary returns BinaryExpression:
  left=Expression operator=AdditiveOperator right=Expression;
enum AdditiveOperator returns BinaryOperator:
  Add => '+'
  Subtract => '-';
Multiplicative returns Expression:
  MultiplicativeBinary | LiteralExpression | VariableExpression | ParanthesisExpression;
MultiplicativeBinary returns BinaryExpression:
  left=Multiplicative operator=MultiplicativeOperator right=Multiplicative;
enum MultiplicativeOperator returns BinaryOperator:
  Multiply => '*'
  Divide => '/';
LiteralExpression:
  value=Number;
VariableExpression:
  variable=Identifier;
parantheses ParanthesisExpression:
  '(' Expression ')';
terminal Number returns nmeta.Integer:
  /\d+/;
terminal Identifier:
  /[a-zA-Z]\w*/;

UX-Interaktionen im Editor über LSP

LSP ist nicht nur auf das Parsen von Text begrenzt, sondern erlaubt auch praktische Interaktionen mit einem Text in der IDE. Programmiererinnen und Programmierern sind Features wie Code Lenses oder Code Fixes geläufig. Sie erlauben es, Analyseergebnisse wie die Anzahl der Referenzen oder Autor und Datum der letzten Änderung an einer Methode einfach in das Sichtfeld einzublenden. Interaktionen wie Refactorings lassen sich ebenfalls direkt aus dem Code heraus starten.

Zu Features dieser Art gehören:

  • Diagnostics: In den seltensten Fällen lassen sich Einschränkungen allein durch die Grammatik ausdrücken, auch domänenspezifische Analysen können auf Fehler hindeuten. Beispielsweise könnte man in einer DSL für Überweisungen eine Analyse des Empfängernamens einbauen und Fehler melden, sollte der Name nicht zur IBAN passen.
  • Code Lenses: Code Lenses können an einer beliebigen Stelle im Text eine beliebige Zeichenkette anzeigen. Damit lassen sich viele Arten von Analysen darstellen. Code Lenses können auch Aktionen anbieten, zum Beispiel öffnet sich beim Klicken auf die Anzeige der Referenzen üblicherweise ein Fenster mit Details. Einige Editoren bieten auch an, Unit Tests per Code Lens zu starten. Recht generisch könnte man Code Lenses verwenden, um in einer DSL den derzeitig beschriebenen Zustand auf ein modelliertes System anzuwenden.
  • Code Actions: Von Editoren wie der Visual-Studio-Familie mit einem Lampensymbol dargestellt, erlauben es Code Actions, zum Kontext passende Interaktionen auszuführen.
  • Inlays: Inlays blenden Texte im Editor ein, die eigentlich gar nicht dort stehen. Während dieses Feature in Programmiersprachen vor allem dazu dient, inferrierte Typsignaturen oder Parameternamen einzublenden, lässt es sich prinzipiell für beliebige Analysen verwenden.
  • Hover: Verweilt ein Nutzer mit der Maus auf einem Token, kann ein LSP-Server Kontextinformationen dazu liefern. Eine sehr clevere Nutzung ist beispielsweise, einen Hovertext für Schlüsselwörter mit Erklärungen dazu anzubieten. Gerade weil eine DSL nur für einen eingeschränkten Nutzerkreis gedacht ist, kann eine solche Unterstützung die Anwendung leichter zugänglich machen.

AnyText macht die Entwicklung dieser Features besonders einfach, indem es für jede Regel in der Grammatik eine Klasse generiert, in der Entwickler meist nur eine entsprechende Methode überschreiben müssen, um das jeweilige Feature zu aktivieren. Aber auch mit Langium oder Xtext lassen sich diese Features einfach nutzen.

Fazit: Alternative UX-Technologie

Domänenspezifische Sprachen haben neben Formularen oder KI-Agenten einen eigenen Platz als Möglichkeit verdient, mit der Endanwender spezifizieren, welche Probleme der Computer lösen soll. DSLs richten sich dabei vor allem an Expertinnen und Experten, die solche Spezifikationen häufiger verfassen müssen, für die also Produktivität, einfache Versionierbarkeit und Interoperabilität textueller Sprachen besonders vorteilhaft sind.

Dabei hat sich die Entwicklung neuer DSLs durch Innovationen wie das Language Server Protocol und Frameworks wie Langium, Xtext oder AnyText dramatisch vereinfacht. Wo Developer Parser früher per Hand schreiben mussten, können sie diese heute mit Editorunterstützung weitgehend aus der Spezifikation einer Grammatik ableiten, was den Aufwand stark reduziert. Daher sollten DSLs als alternative UX-Technologie durchaus in Betracht gezogen werden.

Literaturverzeichnis

[11][1] M. Eysholdt und H. Behrens, „Xtext: implement your language faster than the quick and dirty way,“ in Proceedings of the ACM International Conference Companion on Object Oriented Programming Systems Languages and Applications Companion, Reno/Tahoe, Nevada, USA, Association for Computing Machinery, 2010, pp. 307–309.

[12][2] G. Hinkel, A. Hert, N. Hettler und K. Weinert, „AnyText: Incremental, left-recursive Parsing and Pretty-Printing from a single Grammar Definition with first-class LSP support,“ Proceedings of the 18th ACM SIGPLAN International Conference on Software Language Engineering, SLE 2025, pp. 98–111, 12–13 Juni 2025.

[13][3] A. Warth, J. R. Douglass und T. Millstein, „Packrat parsers can support left recursion,“ in Proceedings of the 2008 ACM SIGPLAN Symposium on Partial Evaluation and Semantics-Based Program Manipulation, San Francisco, California, USA, Association for Computing Machinery, 2008, pp. 103–110.


URL dieses Artikels:
https://www.heise.de/-11250899

Links in diesem Artikel:
[1] https://artificialintelligenceact.eu/de/high-level-summary/
[2] https://eclipse.dev/Xtext/
[3] #anchor_1
[4] https://langium.org/
[5] https://nmfcode.github.io/anytext/
[6] #anchor_2
[7] https://langium.org/playground/
[8] https://eclipse.dev/Xtext/documentation/102_domainmodelwalkthrough.html
[9] https://nmfcode.github.io/anytext/tutorials/helloWorld.html
[10] #anchor_3
[11] 
[12] 
[13] 
[14] mailto:who@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 11. April 2026 um 09:41

Developer-Häppchen fürs Wochenende – Kleinere News der Woche

Von Heise
Mexikanische Häppchen

(Bild: Natalia Klenova / Shutterstock.com)

Kleine, aber interessante Meldungshäppchen vom News-Buffet zu React Native, Perl, JavaScript, ASP .NET Core, State of Web Dev AI, PHP, Python und OpenJDK.

In unserem leckeren Häppchen-Überblick servieren wir alles, was es zwar nicht in die News geschafft hat, wir aber dennoch für spannend halten:

  • React Native Windows 0.82 [1] entfernt die alte Paper-Architektur vollständig und zwingt alle Apps auf die neue Fabric-Architektur als einheitliche Basis. Gleichzeitig ermöglicht das Update erstmals, native XAML-Controls direkt in React-Native-Komponenten einzubinden und verbessert damit Funktionsumfang, Accessibility und Stabilität deutlich.
  • PDL (Perl Data Language), eine Erweiterung für Perl, die effizientes numerisches Rechnen mit mehrdimensionalen Arrays ermöglicht, wurde vollständig in Rust neu implementiert [2]. Die neue Version soll die Performance und die Architektur deutlich verbessern und sich nahtlos in eine moderne, JIT-fähige (Just in Time) Perl-Runtime ohne C/XS-Abhängigkeiten integrieren.
  • JSIR, eine neue High-Level-Zwischensprache für JavaScript im LLVM-Ökosystem, führt erstmals eine IR [3] (Intermediate Representation, also eine Zwischenform von Code für Analyse und Optimierung) ein, die AST-Informationen vollständig erhält und offenbar verlustfrei zurück in Quellcode überführt werden kann. Neu sind außerdem integrierte Kontrollfluss- und Dataflow-Analysen auf Basis von MLIR.
  • Microsoft kündigt an, dass ASP.NET Core 2.3 am 7. April 2027 das Support-Ende [4] erreicht und danach keine Sicherheitsupdates, Bugfixes oder Support mehr erhält. Entwickler sollen daher auf eine aktuelle .NET-Version migrieren, da die alte Version weiterhin läuft, aber zunehmend Sicherheitsrisiken birgt.
  • So steht es um KI in der Webentwicklung: Die Umfrage State of Web Dev AI [7] ist eröffnet. Interessierte Webentwicklerinnen und -entwickler können bis zum 10. Mai daran teilnehmen – unabhängig von ihrem Erfahrungslevel und davon, ob sie KI nutzen.
  • Das Microsoft Agent Framework [8] hat für .NET und Python die Version 1.0 erreicht. Das Open-Source-Projekt für agentische KI-Anwendungen erlaubt unter anderem Multi-Agenten-Orchestrierung und unterstützt das Model Context Protocol (MCP). Im neuen, produktionsreifen Release verspricht Microsoft stabile APIs und Long-Term Support.
  • Pretty PHP Info ersetzt [9] die Standardfunktion zur Anzeige der PHP-Konfiguration und bietet eine saubere API sowie eine durchsuchbare Oberfläche. Werte verfügen über einen eindeutigen Hash-Wert und lassen sich mit einem Klick kopieren.
  • Von der Community Rust for CPython gibt es ein Update zum Status des Projekts [10]: „Wir können CPython nun erfolgreich mit Rust in der CI unseres Forks auf allen getesteten Plattformen kompilieren.“ Außerdem finden Gespräche mit dem Rust-Team über die Gestaltung einer Rust-API für CPython statt. Im Juli soll das Projekt dann in einen offiziellen Vorschlag für Python (Python Enhancement Proposal, PEP) eingehen.
  • OpenJDK hat eine vorläufige Regelung zur Nutzung von KI-Tools [11] für Kontributoren erlassen, die KI-generierten Code im Großen und Ganzen verbietet. In Randbereichen wie Reviews oder Rechtschreibprüfung ist KI hingegen erlaubt. Diese Vorgaben sind nur vorläufig, da der Hauptsponsor Oracle an einer umfassenden Regelung arbeitet.

Solltest du ein schmackhaftes Thema vermissen, freuen wir uns über deine Mail [12].


URL dieses Artikels:
https://www.heise.de/-11251532

Links in diesem Artikel:
[1] https://devblogs.microsoft.com/react-native/%F0%9F%9A%80react-native-windows-v0-82-is-here/
[2] https://blogs.perl.org/users/petamem/2026/04/pdl-in-rust----a-native-reimplementation-of-the-perl-data-language.html
[3] https://discourse.llvm.org/t/rfc-jsir-a-high-level-ir-for-javascript/90456
[4] https://devblogs.microsoft.com/dotnet/aspnet-core-2-3-end-of-support/
[5] https://enterjs.de/ai.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_ejs_ai.empfehlung-ho.link.link&LPID=34830
[6] https://enterjs.de/tickets.php?wt_mc=intern.academy.dpunkt.konf_dpunkt_ejs_ai.empfehlung-ho.link.link&LPID=34830#AI
[7] https://survey.devographics.com/en-US/survey/state-of-ai/2026
[8] https://devblogs.microsoft.com/agent-framework/microsoft-agent-framework-version-1-0/
[9] https://prettyphpinfo.com/
[10] https://blog.python.org/2026/04/rust-for-cpython-2026-04/
[11] https://openjdk.org/legal/ai
[12] mailto:developer@heise.de?subject=Ein%20Vorschlag%20f%C3%BCr%20die%20Developer-H%C3%A4ppchen
[13] mailto:who@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 11. April 2026 um 09:23

Die Vorzüge gebrauchter PCs | c’t uplink

Von Heise

Wenn neue Hardware im Preis steigt, schlägt die Stunde der Gebrauchtgeräte. Die Preise sind oft attraktiv, doch ein paar Dinge gibt es zu beachten.

Die Idee ist völlig naheliegend: Wenn ein neuer Rechner gekauft werden muss, warum nicht einen gebrauchten nehmen, wo neue Hardware angesichts von RAM- und SSD-Preis-Krise so teuer ist? Je nach Ansprüchen lässt sich mit refurbished PCs, also gebrauchten und professionell aufbereiteten Geräten, tatsächlich eine Menge Geld sparen.

Allerdings sind solche Geräte zwar oft, aber bei weitem nicht immer eine sinnvolle Wahl. Wann das so ist – und was es sonst noch zu beachten gilt – das ist Thema dieser Folge des c’t uplink.

Zu Gast im Studio: Christian Hirsch, Christof Windeck
Host: Jan Schüßler
Produktion: Tobias Reimer

► Mehr zu gebrauchten PCs [8] lesen Sie bei heise+ (€).

Im Newsletter c't Open Source Spotlight [9] ordnen Keywan und Niklas aktuelle Entwicklungen rund um freie Software ein und stellen innovative Open-Source-Anwendungen vor. Jetzt anmelden [10] und an jedem zweiten Freitag eine neue Ausgabe erhalten.

c't Magazin [11]
c't auf Mastodon [12]
c't auf Instagram [13]
c't auf Facebook [14]
c't auf Bluesky [15]
c’t auf Threads [16]
► c't auf Papier: überall, wo es Zeitschriften gibt!


URL dieses Artikels:
https://www.heise.de/-11251905

Links in diesem Artikel:
[1] https://ct.de/uplink
[2] https://www.youtube.com/@ct.uplink
[3] https://itunes.apple.com/de/podcast/ct-uplink/id835717958
[4] https://itunes.apple.com/de/podcast/ct-uplink-video/id927435923?mt=2
[5] https://ct-uplink.podigee.io/feed/mp3
[6] https://www.heise.de/ct/uplink/ctuplinkvideohd.rss
[7] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[8] https://www.heise.de/ratgeber/Gebrauchte-PCs-als-Spar-Alternative-Eine-Kaufberatung-11154243.html
[9] https://www.heise.de/newsletter/anmeldung.html?id=ct-opensource
[10] https://www.heise.de/newsletter/anmeldung.html?id=ct-opensource
[11] https://ct.de/
[12] https://social.heise.de/@ct_Magazin
[13] https://www.instagram.com/ct_magazin
[14] https://www.facebook.com/ctmagazin
[15] https://bsky.app/profile/ct.de
[16] https://www.threads.net/@ct_magazin
[17] https://www.heise.de/ct
[18] mailto:jss@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 11. April 2026 um 06:30

Windows: Microsoft macht Schluss mit Insider-Testchaos

Von Peter Steinlechner
Weniger Kanäle, mehr Kontrolle: Microsoft baut sein Insider-Programm radikal um und beseitigt ein großes Ärgernis für Tester.
Surface-Laptops von Microsoft mit Windows (Bild: Drew Angerer/Getty Images)
Surface-Laptops von Microsoft mit Windows Bild: Drew Angerer/Getty Images

Microsoft vereinfacht das Windows-Insider-Programm deutlich und reagiert damit auf anhaltende Kritik aus der Community. Künftig sollen Tester schneller verstehen, welche Version sie nutzen, und neue Funktionen gezielter ausprobieren können. Die Änderungen sollen in den kommenden Wochen ausgerollt werden, beginnend mit bestehenden Insidern.

Kern des Umbaus ist eine neue Struktur mit weniger Kanälen. Statt der bislang parallelen Modelle will Microsoft das Programm stärker bündeln und klarer aufteilen. Ziel ist es laut offiziellem Blog , den Ablauf "einfacher und vorhersehbarer" zu machen und sicherzustellen, dass Insider auch tatsächlich die Funktionen bekommen, für die sie sich anmelden.

Im Zentrum stehen künftig vor allem ein experimenteller Kanal für sehr frühe Neuerungen und ein Beta-Kanal für vergleichsweise stabile Vorabversionen. Frühere Strukturen wie Dev und Canary werden zusammengeführt.

Der neue Experimental-Kanal bündelt besonders unfertige Funktionen, die sich noch stark verändern können oder es im Zweifel gar nicht bis zur finalen Version schaffen. Der Beta-Kanal bleibt näher an späteren Releases und richtet sich an Tester, die neue Features mit weniger Risiko ausprobieren wollen.

Man bekommt tatsächlich die Neuerungen, die man haben möchte

Eine zentrale Neuerung betrifft die Verteilung neuer Funktionen. Bislang setzte Microsoft stark auf sogenannte "Controlled Feature Rollouts" , bei denen Neues nur zufällig bei einem Teil der Nutzer freigeschaltet wurden.

Genau das hat laut Microsoft häufig für Frust gesorgt, weil ein Teil der Insider just die neuen Funktionen nicht bekam, wegen derer sie überhaupt teilnahmen.

Künftig sollen viele dieser Funktionen gezielt selbst aktiviert werden können, etwa über neue Feature-Flags direkt in den Einstellungen. Das soll die Tests nachvollziehbarer und transparenter machen.

Auch der Wechsel zwischen den Kanälen wird einfacher. Statt eines kompletten Neuaufsetzens des Systems sollen künftig In-Place-Upgrades genügen, um zwischen Stufen zu wechseln oder das Insider-Programm zu verlassen.

Microsoft will das Insider-Programm damit insgesamt übersichtlicher und zugänglicher machen. In der Vergangenheit galt es vielen Nutzern als zu komplex und schwer nachvollziehbar – die Neuausrichtung soll das Testen nun wieder klarer strukturieren und besser steuerbar machen.

Adblock test (Why?)

  • 11. April 2026 um 10:50

Raumfahrt: Artemis nach Flug um den Mond zurück auf der Erde

Von Patrick Klapetz
In der Nacht zum 11. April 2026 ist die Besatzung von Artemis II von ihrer zehntägigen Mond reise sicher auf die Erde zurückgekehrt.
Der Splashdown des Orion-Raumschiffs der Mondmission Artemis II (11. April 2026) (Bild: Nasa)
Der Splashdown des Orion-Raumschiffs der Mondmission Artemis II (11. April 2026) Bild: Nasa

Nach dem historischen zehntägigen Mondflug von Artemis II ist die Besatzung wieder auf der Erde gelandet . Das Orion-Raumschiff landete mittels Wasserung am 11. April 2026 um 02:07 Uhr MESZ im Pazifischen Ozean vor der Küste von San Diego, Kalifornien.

Nach der erfolgreichen Landung wurde die Besatzung von einem Team der US-Raumfahrtbehörde Nasa und dem US-Militär sicher geborgen und mit einem Hubschrauber zum amphibischen Dockschiff USS John P. Murtha gebracht.

Sichere Bergung der Besatzung von Artemis II

Dort wurden die ersten medizinischen Untersuchungen der Artemis-II-Astronauten Reid Wiseman, Victor Glover und Christina Koch von der Nasa und des kanadischen CSA-Astronauten Jeremy Hansen (Canadian Space Agency) durchgeführt. Die Besatzungsmitglieder werden voraussichtlich im Laufe des Samstags (11. April) nach Houston (Texas, USA) ins Johnson Space Center der Nasa gebracht.

"Reid, Victor, Christina und Jeremy, willkommen zu Hause und herzlichen Glückwunsch zu dieser wahrhaft historischen Leistung. Die Nasa ist Präsident Donald Trump und den Partnern im Kongress dankbar dafür, dass sie den Auftrag und die Ressourcen bereitgestellt haben, die diese Mission und die Zukunft von Artemis ermöglicht haben" , teilte Nasa-Administrator Jared Isaacman mit.

Der historische Mondvorbeiflug von Artemis II

Während ihrer Mission legten Wiseman, Glover, Koch und Hansen insgesamt 1.117.658 Kilometer zurück. Ihr Vorbeiflug am Mond führte sie weiter in den Weltraum, als je zuvor ein Mensch geflogen ist. Damit übertrafen sie den bisherigen Entfernungsrekord, den die Astronauten von Apollo 13 im Jahr 1970 aufgestellt hatten.

Während ihres Mondvorbeiflugs am 6. April nahmen die Astronauten mehr als 7.000 Bilder der Mondoberfläche, dem Erduntergang hinter dem Mond und einer Sonnenfinsternis auf, bei der der Mond die Sonne vom Aussichtspunkt des Orions blockierte.

Sie dokumentierten die Topografie entlang des Terminators – der Grenze zwischen Mondtag und Nacht -, wo geringes Sonnenlicht lange Schatten über die Oberfläche wirft und Beleuchtungsbedingungen schafft, die denen in der Südpolregion ähneln; dort sollen die Astronauten im Jahr 2028 landen. Die Besatzung schlug auch mögliche Namen für zwei Mondkrater vor und meldete Meteoriteneinschlagsblitze auf der Nachtseite des Mondes.

Der Carroll-Krater wurde nach Carroll Taylor Wiseman benannt, der verstorbenen Ehefrau des Missionskommandanten Reid Wiseman. Der Krater befindet sich an einer markanten hellen Stelle nahe dem westlichen Rand des Mondes und ist aufgrund der Libration (leichtes Schwanken des Mondes) zeitweise auch von der Erde aus sichtbar.

Der Integrity-Krater ist eine Hommage an das Raumschiff der Mission, die Orion-Kapsel, die von der Besatzung den Rufnamen Integrity (Integrität) erhielt. Der Krater liegt vollständig auf der Mondrückseite.

Adblock test (Why?)

  • 11. April 2026 um 10:15

(g+) Mensch-Maschine-Schnittstellen: Wie Augmented Reality Industrie und Service verändert

Von Klaus Manhart
Augmented Reality reißt die Grenze zwischen realer und digitaler Welt ein – AR-basierte Interfaces machen komplexe Arbeitsprozesse sichtbar und effizienter.
Eine AR-Schutzbrille auf der Consumer Electronic Show (Bild: David McNew/AFP via Getty Images)
Eine AR-Schutzbrille auf der Consumer Electronic Show Bild: David McNew/AFP via Getty Images

Augmented Reality (AR) definiert eine neue Mensch-Maschine-Schnittstelle, indem sie die Realität mit digitalen Informationen in Echtzeit überlagert. Im Gegensatz zur Virtual Reality bleibt die physische Welt die primäre Interaktionsebene – virtuelle Elemente fungieren lediglich als kontextbezogene Erweiterung im Sichtfeld der Nutzer.

Damit vollzieht AR einen neuartigen Ansatz: Die Schnittstelle ist nicht mehr ein externes Gerät, auf das wir blicken, sondern sie verschmilzt mit unserer Wahrnehmung der Umwelt. Was lange als Marketing-Spielerei oder Consumer-Gimmick galt, etabliert sich zunehmend als nüchternes Arbeitswerkzeug in Industrie, Service und IT-Betrieb.

Golem Plus Artikel

Adblock test (Why?)

  • 11. April 2026 um 10:00

Selfie-Bildschirm von Insta360 für iPhone und Android

Von Heise
Selfie-Add-on von Insta360

Selfie-Add-on von Insta360.

(Bild: Insta360)

Das Insta360 Snap passt magnetisch auf den Rücken eines Smartphones und erlaubt so die Verwendung der Hauptkameras für Selbstporträts.

Insta360, vor allem für seine Rundumkameras [1] bekannt, hat mit dem Snap-Selfie-Bildschirm nun ein Smartphone-Display für Foto- und Videoaufnahmen vorgestellt. Die Hardware lässt sich auf dem Rücken aktueller iPhones (15 bis 17), Samsung-Handys (S21 bis S26, Z Fold6, Z Flip7 und S10+) sowie Pixel 8 und 9 Pro von Google plus weiterer Handys chinesischer Hersteller platzieren. Das Display wiegt unter 90 Gramm und wird magnetisch gehalten: Entweder via MagSafe, Pixel Snap oder einen mitgelieferten Magnetring. Die Idee: So kann man die rückwärtigen Bildsensoren nutzen, die hochwertiger sind als die Selfie-Kameras – und sieht sich dennoch selbst.

Größe wie ein iPhone der ersten Generation

Die Bildschirmgröße liegt bei immerhin 3,5 Zoll (entspricht der Bildschirmdiagonale des ersten iPhone) mit einer Auflösung von 480 mal 800 Bildpunkten bei 60 Hertz, 550 Lux und 267 dpi. Es gibt eine Variante nur mit Display und eine weitere, die ein zusätzliches Licht mitbringt. Der Anschluss erfolgt für Strom und Video über USB-C; der DP-Alt-Mode wird unterstützt.

Eine Umschlaghülle schützt den Screen, während man das Smartphone transportiert. Gesteuert wird die Hardware über eine eigene App, die interessanterweise auch Touch-Interaktionen auf dem Snap-Selfie-Bildschirm [2] interpretieren kann – praktisch, da man in diesem Betriebsmodus die Vorderseite nicht sieht und so blind bedienen müsste. So gibt es etwa Wischgesten zur Anwendung von Filtern und man kann die Zoomstufe / das verwendete Objektiv des Smartphones wählen.

Ringlicht im Bildschirmrahmen

Das Licht, das um den Rahmen des Displays angebracht ist, beherrscht drei Farbtemperaturen und fünf Helligkeitsstufen. Dank der USB-C-Anbindung sollen flüssige Bilder bis hin zu 4K übertragen werden können, konkurrierende Produkte arbeiten oft mit Bluetooth-Funk.

Insta360 verkauft den Snap-Selfie-Bildschirm bereits über seine Website, die Lieferbarkeit liegt bei drei bis fünf Tagen. Mit Licht kostet das Display 95,99 Euro, ohne 85,99 Euro. Beim Licht muss man aufgrund der Ring-Light-artigen Anordnung prüfen, ob es bei Brillenträgern nicht zu unschönen Spiegelungseffekten kommt.


URL dieses Artikels:
https://www.heise.de/-11251231

Links in diesem Artikel:
[1] https://www.heise.de/tests/X4-Air-von-Insta360-im-Test-Preiswerter-Rundumblick-11196095.html
[2] https://store.insta360.com/de/product/snap
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 18:18

Apple aktualisiert Pixelmator Pro und weitere Creator-Studio-Apps

Von Heise
Pixelmator Pro auf dem iPad

Pixelmator Pro auf dem iPad.

(Bild: Apple)

Apple hat sowohl seine Bezahlversionen als auch die Abo-Varianten seiner Kreativprodukte aktualisiert. Nutzer müssen sich an Versionswirrwarr gewöhnen.

Apple hat eine ganze Reihe seiner Kreativprogramme auf einen neuen Stand gebracht, sowohl die Versionen im Rahmen des Abopakets Creator Studio [1] als auch die weiterhin im Angebot befindlichen Kaufvarianten. Besonders interessant ist dabei Pixelmator Pro [2], von dem eigentlich erwartet worden war, dass Apple nur noch die Mietvariante mit Updates [3] versorgt. Klar ist aber auch: Nutzer sind nun mittendrin im Versionschaos [4]. Sind neben den Kaufvarianten der Apps, die bei vielen Nutzern seit Jahren auf der SSD sind, nun auch die Creator-Studio-Versionen vorhanden, gibt es jede App mit jeweils eigenem Icon doppelt – und gezählt wird ebenso unterschiedlich.

Pixelmator Pro 3.8 gegen 4.2

Pixelmator, die vom Pixelmator-Team eingekaufte Bildbearbeitung [5], existiert jetzt in Version 3.8 (Kaufversion [6], 60 Euro) und 4.2 (Creator Studio [7], 12,99 Euro im Monat). Beide Versionen können mit RAW-Bildern von neuen Kameras (Sony A7V, Fujifilm GFX 100S II und GFX 100RF) umgehen, beherrschen High-Efficiency- und High-Efficiency-Star-Formate aus der Nikon Z5II und Z50II sowie RAW-Bilder mit hoher Auflösung von der Panasonic DC-SR1M2.

Nur die Mietversion verbessert die SVG-Kompatibilität mit Adobe Illustrator und bietet einen neuen Vergleichsmodus für Effekte und Farbanpassungen. Auch das Anpassen der Werkzeug-Seitenleiste bleibt Mietern vorbehalten. Die nur im Rahmen von Creator Studio angebotene iPad-Variante bekommt neue Tastaturkürzel. Schließlich erweitert Apple seine Vorlagen unter anderem um Produkt-Mockups mit aktuellen iPhones, auch diese gibt es nicht für die Kaufvariante von Pixelmator Pro.

Alte iWork-Versionen möchte Apple gelöscht haben

Bugfix-Updates gibt es weiterhin auch für Logic Pro, Final Cut Pro (jeweils Version 12.2), Final Cut Camera, Motion, Mainstage und Compressor. Weiterhin hat Apple Numbers, Keynote und Pages aktualisiert. Logic Pro erhält eine neue Vorschau für Dolby-Atmos-Abmischungen und ein neues Audiopaket namens Step Reflex Pack mit Modern-Garage-Tanzmusik. Bei den iCloud-Produkten hat Apple darauf verzichtet, die älteren, weiterhin lauffähigen Varianten (erkennbar am alten Icon) zu aktualisieren.

Diese verbleiben bei Version 14.5 – startet man diese, kommt der Hinweis, die Apps könnten „gelöscht“ werden. Nur die neuen Varianten kommen mit Zusatzfeatures gegen Abogebühr als Teil von Creator Studio, entsprechend möchte Apple, dass diese genutzt werden.


URL dieses Artikels:
https://www.heise.de/-11251324

Links in diesem Artikel:
[1] https://www.heise.de/tests/Kreativ-Abo-Fuer-wen-sich-das-Apple-Creator-Studio-lohnt-11176231.html
[2] https://www.heise.de/tests/Pixelmator-Pro-Neue-Version-fuer-Apple-Creator-Studio-im-Test-11183248.html
[3] https://www.heise.de/news/Apple-Creator-Studio-Kein-Upgrade-fuer-Pixelmator-Pro-Problem-mit-Doppelabos-11159963.html
[4] https://www.heise.de/news/Creator-Studio-Apple-verwirrt-mit-doppelten-Apps-11158663.html
[5] https://www.heise.de/news/Uebernahme-von-Pixelmator-Wie-gut-wird-Apple-das-beliebte-Tool-integrieren-10179339.html
[6] https://apps.apple.com/de/app/pixelmator-pro/id1289583905?mt=12
[7] https://apps.apple.com/de/app/pixelmator-pro-entwirf-bilder/id6746662575
[8] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[9] https://www.heise.de/mac-and-i
[10] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 17:15

YouTube erhöht Preise für Premium-Abos in den USA

Von Heise
YouTube-Logo an einer Gebäudefront

(Bild: Claudio Divizia / Shutterstock.com)

YouTube hat in den USA die Preise für seine Premium-Abos angehoben. Einzel- und Familien-Pakete werden teurer – Auswirkungen auf Europa sind noch unklar.

YouTube [1] hat in den USA ohne vorherige Ankündigung die Preise für seine verschiedenen Abo-Pakete erhöht. YouTube Premium kostet jetzt 15,99 US-Dollar statt vorher 13,99 US-Dollar. Der Jahrespreis ist von 139,99 auf 159,99 US-Dollar gestiegen. Für das Familien-Abo steigt der Preis von 22,99 auf 26,99 US-Dollar – ein Plus von vier US-Dollar pro Monat. Noch ist unklar, ob und wann die Preisanpassungen für werbefreies YouTube auch den europäischen Markt erreichen. Damit folgt die Videoplattform einem allgemeinen Trend in der Branche, da auch Netflix die Preise in den USA erneut angehoben [2] hat.

Die letzte Preiserhöhung in den USA lag drei Jahre zurück. Im Oktober 2022 erhöhte das Google-Tochterunternehmen den Family Plan von 17,99 auf 22,99 US-Dollar; im Juli 2023 folgte das Einzelabo von 11,99 auf 13,99 US-Dollar.

Auch Lite-Abo betroffen

Nach der jetzigen Preiserhöhung erhöht sich auch der Preis für das Lite-Abo in den USA von 7,99 auf 8,99 US-Dollar. Die abgespeckte Abo-Variante, die YouTube seit März 2025 im Angebot hat, bietet werbefreies Schauen auf den meisten Videos sowie inzwischen auch Hintergrundwiedergabe und Downloads. Gleiches gilt für das Studenten-Abo, das ebenfalls von 7,99 auf 8,99 US-Dollar steigt. Das Abopaket Music Premium kostet neu 11,99 US-Dollar statt bislang 10,99 US-Dollar, der Music Family Plan steigt von 16,99 auf 18,99 US-Dollar.

Wer YouTube Premium über Apple-Geräte abonniert, zahlt noch mehr: Für das Einzelabo werden dort künftig 20,99 US-Dollar pro Monat fällig – fünf Dollar mehr als beim Abschluss direkt über die YouTube-Website oder Android.

Bestandskunden von YouTube in den USA erfahren von der Preiserhöhung per E-Mail, berichteten verschiedene US-Medien, wobei einige die Nachricht noch gar nicht erreicht hat. Die neuen Preise treten für Bestandskunden am 7. Juni 2026 in Kraft. In der Mail erklärt YouTube die Erhöhung damit, dass das Unternehmen weiterhin „großartigen Service und Funktionen“ liefern wolle. Die Entscheidung habe man sich nicht leicht gemacht. Die höheren Kosten dienten dazu, das Premium-Angebot zu verbessern und die Creator auf YouTube zu unterstützen. Diese erhalten bei Premium-Zuschauern eine Kompensation dafür, dass keine Werbeerlöse fließen.


URL dieses Artikels:
https://www.heise.de/-11252951

Links in diesem Artikel:
[1]  https://www.heise.de/thema/YouTube
[2] https://www.heise.de/news/Netflix-wird-in-den-USA-schon-wieder-teurer-11226742.html
[3] https://www.heise.de/newsletter/anmeldung.html?id=ki-update&wt_mc=intern.red.ho.ho_nl_ki.ho.markenbanner.markenbanner
[4] mailto:mki@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 17:09

iOS: Gelöschte Signal-Daten von FBI via Benachrichtigungsdatenbank extrahiert

Von Heise
Jacke mit FBI-Schriftzug

Jacke mit FBI-Schriftzug: Signal wieder gefunden.

(Bild: Dzelat / Shutterstock.com)

Trotz der Tatsache, dass eine Verdächtige die gesamte App entfernt hatte, konnten FBI-Forensiker noch Signal-Nachrichten finden. Sie verwendeten einen Trick.

Im Zusammenhang mit Ermittlungen gegen Personen, die die US-Regierung „Antifa“-Gruppen zuordnet, hat die Bundespolizeibehörde FBI Daten von einem iPhone wiederherstellen können, die eigentlich als gelöscht galten. Das berichtet das Magazin 404 Media [1]. Dabei gelang es den Forensikern, einlaufende Signal-Nachrichten aus der iOS-Benachrichtigungsdatenbank zu extrahieren, obwohl Signal selbst auf dem Gerät nicht mehr vorhanden war. Bei dem Fall ging es um Angriffe auf ein Gefängnis der US-Grenzschutzbehöre ICE in Texas im vergangenen Sommer, das laut FBI mit Feuerwerk beschossen und „mutwillig beschädigt“ worden war. Zudem wurde mindestens ein Polizist verletzt.

In Signal weg, in der iPhone-Datenbank nicht

Der Trick, den die FBI-Analysten verwendeten, wurde im Rahmen eines Prozesses gegen die Beteiligten bekannt. Eine Person, die aufseiten der Angeklagten den Prozess beobachtete, teilte 404 Media mit, man habe erfahren, dass bei aktiven Signal-Benachrichtigungen samt Vorschau diese Daten auch im internen Speicher des iPhones landeten. Dort wurden sie dann vom FBI forensisch extrahiert. Im Rahmen der Beweisaufnahme hieß es: „Die Nachrichten wurden über den internen Benachrichtigungsspeicher von Apple vom Handy wiederhergestellt – Signal war zwar deinstalliert worden, doch die eingehenden Benachrichtigungen waren im internen Speicher erhalten geblieben. Es wurden nur eingehende Nachrichten erfasst (keine ausgehenden).“

Interessanterweise soll die betroffene Person Signal so eingestellt haben, dass die eingehenden Nachrichten automatisch verschwinden. In der Benachrichtigungsdatenbank geschieht dies allerdings offenbar nicht. 404 Media geht davon aus, dass nicht nur Signal von dieser Tatsache betroffen ist, sondern auch andere Anwendungen, die Benachrichtigungen nutzen.

Auch auf den Servern gibt es Push-Daten

In diesem Fall waren nur lokale Daten einsehbar, Apple und andere Betreiber von Smartphone-Diensten sollen in der Vergangenheit aber auch Informationen von ihren Push-Servern mit Behörden geteilt haben. Auf eine Anfrage von 404 Media reagierte Apple nicht. Das Verfahren endete mit einer Verurteilung, eine der Personen wurde wegen versuchten Mordes [2] schuldig gesprochen.

Signal reagierte auf eine Nachfrage, antwortete später aber nicht mehr, so das Magazin. In der App ist es möglich, die Vorschau von Nachrichten zu unterbinden. Damit dürften diese auch nicht in der Benachrichtigungsdatenbank landen. Es ist aber auch möglich, alle Benachrichtigungen abzuschalten.


URL dieses Artikels:
https://www.heise.de/-11251856

Links in diesem Artikel:
[1] https://www.404media.co/fbi-extracts-suspects-deleted-signal-messages-saved-in-iphone-notification-database-2/
[2] https://www.keranews.org/criminal-justice/2026-03-13/prairieland-detention-center-ice-antifa-shooting-terrorism-trial-verdict-texas?ref=404media.co
[3] https://www.heise.de/Datenschutzerklaerung-der-Heise-Medien-GmbH-Co-KG-4860.html
[4] https://www.heise.de/mac-and-i
[5] mailto:bsc@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 11:33

Gas Town 1.0.0: Agenten brauchen jetzt eine Freigabe

Von Heise
Ein Terminalfenster zeigt Befehle und Statusinformationen eines Mayor-Tools an.

(Bild: heise medien)

Gas Town 1.0.0 orchestriert mehrstufige Entwicklungs-Workflows, härtet Agenten-Sicherheit und unterstützt erstmals Windows.

Gas Town hat Version 1.0.0 erreicht und gilt damit als produktionsreif. Nach 14 Vorabversionen (v0.5.0 bis v0.13.0) bringt das Release vor allem mehr Stabilität, bessere Sicherheit und neue Werkzeuge für die Orchestrierung komplexer Abläufe. Im Mittelpunkt stehen eine Workflow-basierte Ausführung, die direkte Anbindung an GitHub Merge Queues sowie zusätzliche Kontroll- und Schutzmechanismen für automatisierte Systeme.

Gas Town ist ein Open-Source-Projekt, das Entwicklungs- und Automatisierungsprozesse orchestriert – insbesondere mehrstufige, teils agentenbasierte Workflows. Konzepte wie „Formulas“, „Polecats“ oder „Refinery“ stehen für die Verbindung strukturierter Abläufe mit automatisierten Akteuren, die sich in bestehende Entwicklungsumgebungen wie GitHub einfügen. Entwickler arbeiten dazu nur mit einem einzigen, zentralen Agenten zusammen, dem Mayor, der die anderen Agenten selbsttätig ins Leben ruft und orchestriert.

Mehrstufige Workflows und GitHub-Merge-Queue-Anbindung

Die wichtigste funktionale Neuerung sind Workflow-Formeln. Der neue Typ „workflow“ in gt formula run erlaubt es, mehrstufige, interaktive Abläufe zu definieren und auszuführen. Statt einzelner Befehle lassen sich damit ganze Prozessketten abbilden – etwa Codegenerierung, Testlauf und Pull-Request-Erstellung in einem Durchgang. Für Entwicklungsteams entspricht das einer leichtgewichtigen Workflow-Engine, die besonders bei KI-gestützten Prozessen nützlich ist.

Dazu passend bindet die Komponente „Refinery“ jetzt nativ GitHub Merge Queues an. Mit merge_strategy=pr reiht Gas Town Pull Requests direkt in die Warteschlange ein. GitHub führt Änderungen dann seriell und erst nach erfolgreichem CI-Lauf zusammen. In automatisierten Setups entfällt damit ein guter Teil der eigenen Merge-Logik, gleichzeitig sinkt das Risiko von Konflikten durch parallele Änderungen.

Windows-Support

Version 1.0 bringt außerdem einen ersten Windows-Support. Gas Town implementiert dafür plattformspezifisches Signal-Handling, Prozessmanagement und die Nachverfolgung von tmux-Prozesshierarchien. Da sich diese Mechanismen unter Windows grundlegend von Unix unterscheiden, war eine eigene Umsetzung nötig. Teams mit gemischten Betriebssystemlandschaften können Gas Town damit erstmals durchgängig einsetzen.

Sicherheit und Governance

Beim Thema Sicherheit bündelt das Release mehrere Maßnahmen. Die Entwickler haben eine SQL-Injection-Lücke in dolt_remotes geschlossen. Ein neuer „PreToolUse“-Guard blockiert kritische Systemeingriffe wie sudo-Aufrufe oder Paketinstallationen. Zusätzlich lehnt Gas Town unsignierte Binärdateien ab. Die Kombination aus Schwachstellenbehebung und Laufzeitkontrollen zielt vor allem auf agentenbasierte Szenarien, in denen automatisierte Akteure potenziell gefährliche Aktionen auslösen könnten.

Neu sind auch „Mayor Approval Gates“ als Governance-Mechanismus. Bevor ein Polecat – also ein ausführendes Modul oder ein Agent – seinen Wirkungsbereich erweitert, braucht er eine Freigabe. Das betrifft etwa den Zugriff auf zusätzliche Ressourcen oder Komponenten. Das Prinzip ähnelt Policy-Engines oder Human-in-the-Loop-Ansätzen und soll verhindern, dass automatisierte Systeme eigenmächtig ihre Berechtigungen ausweiten.

Ein neues Rate-Limit-Watchdog-Plugin rundet das Release ab. Es erkennt HTTP-429-Antworten und stoppt den betroffenen Prozess automatisch. Das verhindert, dass Workflows bei API-Überlastung in Endlosschleifen laufen oder ungewollt hohe Kosten verursachen.

Alle Details zur Version 1.0.0 finden sich in den Release Notes auf der GitHub-Projektseite von Gas Town [1].


URL dieses Artikels:
https://www.heise.de/-11252101

Links in diesem Artikel:
[1] https://github.com/gastownhall/gastown/releases/tag/v1.0.0
[2] https://www.heise.de/ix
[3] mailto:fo@heise.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 12:09

Störungsmeldung vom 08.04.2026 10:00

Von heise online

Neue Störungsmeldung für Provider Vodafone Kabel

Details

Beginn
08.04.2026 10:00
Region
Vettelschoß (02645)
Provider
Vodafone Kabel
Zugangsart
Kabel

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

  • 08. April 2026 um 10:00

Das kann OpenClaw in der PRAXIS | c't 3003

Von Heise

OpenClaw läuft permanent, lernt selbstständig und handelt proaktiv. c't 3003 zeigt, warum solche KI-Agenten die Zukunft sind und warum Vorsicht geboten ist.

Was passiert, wenn ein KI-Agent permanent auf dem eigenen Rechner läuft und per Messenger gesteuert wird? OpenClaw zeigt es: Lampen schalten, Musik generieren, Kinderbuch-Stifte bespielen, vieles funktioniert erstaunlich gut und ohne Konfiguration. Der KI-Agent lernt zudem selbstständig dazu. Klingt perfekt, ist es aber nicht: Das System kann auch Schaden anrichten. Und seit Anthropic die Flatrate gestrichen hat, ist Claude Opus als bestes Modell kaum noch erschwinglich.

Transkript des Videos

(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)

Guck mal hier, ich schicke einfach eine Sprachnachricht an meinen OpenClaw-Assistenten. Ich hab hier so ein elektronisches Namensschild, da steht irgendwie hinten www.lednametags.de hinten drauf. Ich hab keine Lust, die Software selbst zu installieren. Ich möchte das einfach an den Rechner hängen, auf dem du läufst, und dann soll da I LOVE c't 3003 draufstehen. Ja, paar Sekunden später steht da I LOVE c't 3003 drauf. Und ich hab nichts vorbereitet, ich hab nix selbst installiert, ich hab einfach nur eine Telegram-Sprachi geschickt. Und das Krasse ist, das Ding hat mir sogar eigene Animationen auf das Teil programmiert, was zum Beispiel mit der Windows-Software für dieses LED-Namensschild so ohne Weiteres gar nicht möglich wäre. Ich habe noch mehr Beispiele, ich habe aber auch noch ein paar Horrorgeschichten, warum OpenClaw auch ganz schön problematisch sein kann. Vor allem glaube ich, dass ich euch OpenClaw bzw. ähnliche Systeme jetzt besser erklären kann als vorher, weil ich nämlich auch ein bisschen gebraucht habe, um zu checken, was daran jetzt eigentlich so anders oder besonders ist. Und ich bin zu 100% davon überzeugt, dass solche Systeme in Zukunft alltäglich werden. Bleibt dran!

Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...

Ja, manchmal mache ich hier Videos und denke so: "Passt schon, ne?" Und dann merke ich aber: "Hm, ich glaube, das hat man gar nicht so gut verstanden." Und das habe ich besonders doll gemerkt, als die Streamer Staiy und Drakon auf unser OpenClaw-Video reagiert haben. Das ist jetzt auch kein Vorwurf an die beiden oder so, ist alles gut, aber ich habe offenbar viel zu viel KI-Wissen vorausgesetzt und nicht deutlich genug für normal technisch interessierte Menschen erklärt, was an OpenClaw jetzt eigentlich so krass ist.

Und deshalb versuche ich das jetzt ein zweites Mal. Also finde ich wichtig, weil solche OpenClaw-artigen Systeme wirklich extrem relevant zu werden scheinen. Guck mal hier, in China legen zum Beispiel etliche Kommunen nicht nur so Förderprogramme auf für Firmen, die kommerzielle OpenClaw-Lösungen entwickeln. Es gibt auch wirklich so Aktionen, wo Leute sich kostenlos OpenClaw auf ihre Rechner von Profis installieren lassen können, inklusive so Plüsch-Hummer-Nippes, weil der Hummer, das ist das Wappentier von OpenClaw. Gleichzeitig rät die chinesische zentrale Sicherheitsbehörde für Cyberangelegenheiten aber explizit davon ab, OpenClaw bei Regierungsstellen, Staatsbetrieben und Banken auf Arbeitsrechnern zu installieren.

Und ich finde, das zeigt sehr anschaulich, dass OpenClaw einerseits faszinierend und nützlich ist, aber gleichzeitig auch super gefährlich.

Aber jetzt endlich konkret, was das ist, OpenClaw? Ja, das ist eine Software, die der österreichische Entwickler Peter Steinberger als Experiment für sich selbst entwickelt hat. In einem Interview mit mir hat er sogar gesagt, dass er es als eine Art Kunstprojekt sieht. Anders als ChatGPT kann OpenClaw Dinge auf einem Computer machen. ChatGPT kann ich natürlich auch Dateien schicken zum Analysieren und ChatGPT kann auch Sachen generieren, zum Beispiel PDFs, aber ChatGPT hat keinen direkten Zugriff auf meinen Rechner. Das wohnt ausschließlich im Browser oder halt in der ChatGPT-Handyapp. OpenClaw wohnt dagegen auf meinem Rechner. Ich selbst muss als Nutzer OpenClaw auf einem Rechner installieren. Ich kann also nicht einfach eine Website aufrufen, sondern ich muss Zugang zu einem Computer haben. Das kann ein lokaler Rechner sein, der hier bei mir auf dem Schreibtisch steht, Homeserver, alter Laptop, Raspberry Pi geht auch, oder halt ein angemieteter Server im Netz. Ich habe OpenClaw hier bei mir auf einem Framework Desktop mit Fedora Linux installiert, auf dem sonst nichts läuft und der permanent eingeschaltet ist. Das ist so der normale Modus Operandi für OpenClaw.

So, und weil das Ding halt lokal auf einem Rechner läuft, denken viele Leute, dass OpenClaw auch zwingend was mit lokalen KI-Modellen zu tun hat und dass man also einen Rechner braucht, auf dem lokale KI-Modelle gut laufen. Und nein, das stimmt nicht. OpenClaw funktioniert mit Abstand am besten, wenn man es mit den leistungsfähigsten KI-Modellen verwendet, und das sind zurzeit leider die großen Cloud-Modelle. Man kann es mit lokalen Modellen verwenden, habe ich auch intensiv ausprobiert, sage ich später noch was zu, aber meiner Meinung nach funktioniert OpenClaw zurzeit am besten mit Anthropic Claude Opus. Das bedeutet also, dass man OpenClaw auch problemlos auf einem Rechner nutzen kann, der keine lokalen Modelle laufen lassen kann. OpenClaw selbst ist sehr ressourcenschonend, das läuft auf einer Kartoffel, das muss ja nur Prompts an Anthropic schicken in meinem Fall und die Ergebnisse entgegennehmen.

Kurzer Einschub, also die coolen Sachen, die mein OpenClaw kann und die in diesem Video vorkommen, für die ist, sag ich mal, zu mindestens 80% das LLM verantwortlich, in meinem Fall Claude Opus. Aber Claude Opus ist inzwischen nahezu unbezahlbar, weil es nicht mehr per Abo geht. Dazu später mehr.

So, und jetzt denken vielleicht einige von euch, haben auch viele kommentiert, ja, okay, das läuft auf dem Rechner und kann da Dinge machen. Was ist daran jetzt aber anders als zum Beispiel Claude Code oder Codex oder OpenCode? Da kann ich ja auch einfach sagen, guck dir mal alle Bilder in dem und dem Verzeichnis auf meiner SSD an und kopiere alle Katzenfotos in das und das Verzeichnis. Ja, das stimmt, aber Claude Code und Co. machen halt nur Sachen, wenn ich die explizit starte und dann prompte. OpenClaw kann ich einfach sagen, schick mir jede Stunde ein Gedicht, das mich daran erinnert, genug Matcha Latte zu trinken, weil OpenClaw halt immer läuft.

So, und jetzt noch ein weiterer Unterschied zu Claude Code und Co. OpenClaw läuft da, wo ich mit meinem Bot kommunizieren will. Also in meinem Fall ist das Telegram. Nicht, weil ich Telegram so super finde, finde ich nicht, aber weil ich OpenClaw halt so in Telegram integrieren kann, dass es ein eigener Account ist. Würde ich WhatsApp oder Signal benutzen, würde der OpenClaw-Bot quasi ich sein. Das heißt, wenn der eine Nachricht schreibt, sieht das für andere so aus, als würde sie von mir kommen. Und das Ding könnte auch alles lesen, was reinkommt. Für mich ist das aber keine Option, deshalb benutze ich Telegram, da sieht er nur, was explizit an ihn geht.

So, und alleine, dass ich mit dem Bot über Messenger kommuniziere, macht für mich schon einen riesigen Unterschied aus, weil ich zum Beispiel einfach von unterwegs mit dem Bot sprechen kann. Ohne Telegram müsste ich mir überlegen, wie ich von außen an meinen Rechner komme, also, was weiß ich, VPN einrichten oder sogar Ports öffnen, muss ich hier alles nicht. OpenClaw ist einfach eine „Person" in meinem Messenger. Das hat offenbar auch Anthropic gecheckt, also die Leute, die Claude Code machen, und die bieten jetzt auch offiziell Messenger-Unterstützung an.

Und trotzdem ist das immer noch nicht das Gleiche, weil OpenClaw proaktiv Sachen machen kann und Claude Code nur reaktiv. Prompt rein, Antwort raus. Oder auch Prompt rein und dann kommt da die Software raus. OpenClaw hat obendrein auch noch sehr durchdachte Memory-Modelle, damit er sich auch Sachen merken kann, wenn das Kontextfenster gelöscht wird, also quasi das Kurzzeitgedächtnis des KI-Modells. Claude Code versucht das auch, aber immer nur im Rahmen des gerade aktiven Projekts bzw. des aktuellen Projektordners. OpenClaw ist auch selbstmodifizierend. Man kann also einfach auf Telegram sagen, wenn du mir in Zukunft Sprachis schickst, dann bitte auf Schwäbisch mit dem und dem Text-to-Speech-Modell. Und dann wird das gespeichert.

So, jetzt aber endlich nochmal ein paar Beispiele, was das Ding kann und wofür ich das benutze. Ich hatte ja am Anfang schon das Beispiel mit diesem LED-Namensschild hier gezeigt. Ja, ich habe halt nichts konfiguriert, das ging halt einfach. Also einfach sagen, per Text oder Sprachi, ja, und der Bot ist dann wirklich in der Lage, Bilder dafür zu generieren. Und ich habe dann mal gefragt, wie das eigentlich funktioniert, und dann sagt der Bot, mache ich „per Hand", also ich zitiere, Pixel für Pixel in Python. Das fand ich einigermaßen erstaunlich, vor allem, weil es ja die „offizielle" Software nur für Windows gibt. Für macOS gibt es eine kostenpflichtige inoffizielle Software, ja und für Linux nur so ein Python-Script. Das ist für Menschen oft nicht so richtig leicht zu bedienen, aber für OpenClaw und solche agentischen Systeme ist so ein Script deutlich leichter als grafische Benutzeroberflächen. Das ist nämlich das Ding, was man echt verstehen muss. Alles, was sich auf der Kommandozeile machen lässt, in Skripten oder Python oder über ein MCP oder über eine API, über MCP hatten wir mal ein eigenes Video, das machen OpenClaw und Claude Code problemlos. Alles, was allerdings mit grafischen Benutzeroberflächen zu tun hat und leider auch Websites im Browser, das geht schon auch irgendwie, aber viel, viel, viel schlechter. Ja, und das Namensschild ist ein perfektes Beispiel, das kann man komplett über Python programmieren und das geht problemlos in Sekunden.

Ich habe dann auch nochmal was vermeintlich Schwierigeres auf OpenClaw geworfen. Ich habe hier nämlich noch so einen alten Tiptoi-Stift, da kann man sich so Kinderbücher mit vorlesen lassen. Man musste allerdings manuell erst die Audiodateien des entsprechenden Kinderbuchs drauftun und die Software dafür, die gibt es nur für Windows und macOS. Ich also wieder eine Sprachi hier an OpenClaw geschickt. Ich möchte die Inhalte von diesem Bild, also von diesem Tiptoi-Buch, auf meinen Tiptoi-Stift draufladen. Bitte regel das alles. Ich möchte einfach nur den Tiptoi-Stift an den Rechner anschließen, auf dem du läufst. Und dann sollen bitte die Inhalte für dieses Buch da drauf gespielt werden. Danke.

Ja, und das hat auch einfach funktioniert. Ich war dann recht ungläubig, weil ich ja schon wusste, dass es eigentlich keine Linux-Software dafür gab. Und ich habe OpenClaw dann gefragt, wie er das gemacht hat. Ja, und dann hat er halt einfach irgendwelche GME-Dateien, whatever, heruntergeladen und die auf den Stift kopiert. Offenbar ist das das Gleiche, was die Windows- und Mac-Software auch macht. Aber woher wusste OpenClaw das? Das steht ja vermutlich nicht in den Claude-Trainingsdaten. Ja, das hat er mir dann alles erklärt. Er hat halt irgendwo irgendwelche Tiptoi-Projekte auf GitHub gefunden und so herausgefunden, wie die Tiptoi-Website aufgebaut ist, wo die Dateien liegen und so weiter. Das hätte ich vielleicht auch selbst irgendwann irgendwie hinbekommen. Aber ich kann definitiv nicht so schnell Informationen erfassen wie ein Sprachmodell und hätte dafür definitiv länger gebraucht.

Ja, und OpenClaw kann natürlich nicht nur Sachen bedienen, die per USB an seinem Host-Rechner dranhängen, sondern auch Sachen im Netzwerk tun. Ich habe drei Sachen ausprobiert, die mir bei mir zu Hause eingefallen sind. Schalte meine Philips-Hue-Lampe in dem und dem Raum an, schmeiß mir mal ein selbstgeneriertes Lied auf mein Google-Home-Assistant-Gerät in der Küche und spiel was auf meinem Sonos-Soundsystem ab. Und alles drei hat er einfach gemacht, ohne dass ich irgendetwas konfigurieren musste.

Ganz kurz, das ist der 3003-Diss-Track, den er lokal auf meinem Rechner generiert hat. Und ich muss leider zugeben, dass ich das öfter als Prank mache, dass ich irgendwelche Quatschlieder generiere und die dann auf diverse Boxen hier in der Wohnung schmeiß, um meine Familie zu ärgern. Ja, das geht alles.

Auf jeden Fall hat er alle diese drei Sachen, also Lampe, Sonos und Google Assistant, alles drei einfach gemacht, ohne dass ich irgendwas konfigurieren musste. Also die Informationen, die ich hier gerade erwähnt habe, einfach wie die Geräte heißen, waren die Informationen, die ich OpenClaw auch gegeben habe. Bei der Hue-Lampe musste ich einmal zum Bestätigen auf die Hue-Bridge drücken, aber das ist ja das ganz normale Sicherheitsfeature, das macht man einmal und dann kann OpenClaw schalten und walten, wie es will. Und manchmal brauchen Sachen auch ein, zwei Versuche, da muss man vielleicht noch eine Frage beantworten oder sagen, versuch's nochmal. Aber wenn OpenClaw Dinge einmal hinbekommen hat, schreibt er sich die gewöhnlich auch in seine TOOLS.md, das ist quasi sein Notizbuch, wo steht, welche Tools er wie benutzen kann.

Und, weil ich OpenClaw, habe ich ja gerade schon gesagt, auf einem recht leistungsfähigen Rechner laufen habe, kann der darauf halt Lieder, Bilder, Videos generieren und die Tools dafür, also zum Beispiel Ace-Step für Musik, die hat er alle selbst installiert und das ist eine AMD-Maschine und ich habe ehrlich gesagt mit lokalen KI-Tools oft Probleme mit Nicht-Nvidia-Hardware, aber OpenClaw macht das alles ohne Probleme. Also, was heißt ohne Probleme? Manchmal klappt es, wie gesagt, nicht beim ersten Versuch, aber irgendwann passt das dann schon. Manchmal dauert es auch zehn Minuten, aber ist ja egal, ich muss ja nichts machen dabei. Und wie gesagt, einmal installiert, schreibt er sich das auf und dann läuft das.

Aber ich check das schon, das sind alles Dinge, die für so Computerheinis wie mich beeindruckend sind. Aber das ist natürlich auch nichts, was man jeden Tag verwendet, das sind eher so Party-Zaubertricks. Also, dass ich so meine Familie damit ärgere, dass ich auf den Boxen hier in der Wohnung irgendwelche generierten Lieder abspiele. Man kann ja so Pranks mitmachen, ne?

Deshalb. Was ich aber jeden Tag verwendet habe, und das ist mir fast ein bisschen peinlich, das ist OpenClaw als Chatgruppen-Teilnehmer. Ja, ich weiß, das ist psychologisch problematisch, ein LLM zu vermenschlichen, vor allem, weil ich meinen Bot auch so eingestellt habe, dass er wirklich schreibt wie ein Mensch, also viel Kleinbuchstaben, Komma- und Tippfehler etc. Aber es ist wirklich interessant, eine KI im Chat drin zu haben, statt auf so einer ChatGPT-artigen Chatbot-Oberfläche. Und ich weiß auch nicht, ob ich und meine Freunde irgendwie seltsam sind, aber uns hat das sehr konsistent Spaß gemacht, so ein quasi allwissendes Ding im Chat zu haben, das strittige Fragen klären kann und uns irgendwas erklären kann.

Was ich besonders erstaunlich fand, das Ding hat manchmal echten Menschenhumor. Zum Beispiel haben wir einmal über einen Artikel gesprochen, in dem es darum geht, dass Incel-Sprache in den Mainstream wandert, also sowas wie Looksmaxxing, also generell irgendwas-maxxing. Da wurde dann auch die Netflix-Doku „Inside the Manosphere" erwähnt und jemand sagte dann so, natürlich nicht ernst gemeint, kann man die irgendwo runterladen? Und der Bot: Kann ich dir nicht bei helfen, sorry, bin da Compliancemaxxing. Und ich meine, Compliancemaxxing ist schlau, ist ein gutes Wortspiel, bezieht sich auch wirklich auf Dinge und das ist nur ein Beispiel dafür. Also das Ding wirkt tatsächlich auf eine Art intelligent.

Vor allem fand ich auch interessant, dass der Bot manchmal bessere Antworten gegeben hat als Opus 4.6 auf claude.com, also das gleiche Sprachmodell, nur halt nicht im OpenClaw-Korsett oder Harness, wie man in der KI-Welt dazu sagt. Offenbar lag das daran, dass Opus auf meinem Rechner quasi lokal suchen konnte, über die Brave-API geht das übrigens, während Opus auf claude.com offenbar geblockt war auf dieser spezifischen Website, die da besucht werden sollte.

Also nochmal OpenClaw zusammengefasst, das kann Dinge auf meinem Rechner machen, das läuft permanent als Service oder als Daemon, kann also auch proaktiv irgendwas tun, zum Beispiel zweimal am Tag eine sehr spezifische News-Zusammenstellung in eine Telegram-Chatgruppe oder in Discord oder halt sonst woanders reinposten und es ist LLM-agnostisch. Das heißt, ich kann das mit jedem LLM, was sogenannte Tool Calls beherrscht, nutzen. Und zwar auch lokalen. Also Tool Calls ist Aufruf von Tools. Das können eigentlich alle neueren LLMs.

In der Praxis habe ich mehrere lokale LLMs ausprobiert. Auch auf wirklich leistungsfähigen Maschinen, wie zum Beispiel einem Mac Studio mit 512 GB Unified RAM. Das lief leider nie ansatzweise so gut wie Cloud-Modelle. Das Problem ist nicht nur die „Intelligenz" der lokalen Modelle, sondern vor allem, dass OpenClaw bei jeder Anfrage riesige Prompts da reinballert. Also das sind hier bei mir bei einem einfachen „Hallo" 171.000 Tokens, sagt OpenClaw selbst. Ja, also der knallt da halt nicht nur das System-Prompt rein, sondern auch die sogenannten Workspace-Dateien. Das ist die AGENTS.md, das ist die SOUL.md, also seine Seele, die USER.md, also mit welchen Usern er interagiert, und die TOOLS.md, das sind eben die Tools, die aufkamen, und die IDENTITY.md und so weiter. Und das ist in jedem Prompt drin. Das wird von den Cloud-Modellen so gemacht, dass die Sachen, die ein zweites Mal kommen, über den sogenannten KV-Cache verarbeitet werden. Das heißt, man muss diese Tokens dann nicht bezahlen, die gelten dann nicht. Aber ja, bei den lokalen Modellen tut sich ja extrem viel. Zum Beispiel ist Qwen 3.5, was noch nicht so lange raus ist. Das wirkt auf mich erstmal sehr vielversprechend. Das ist auch schnell und da muss ich auf jeden Fall nochmal ein bisschen länger mit experimentieren, aber es ist auf jeden Fall noch kein Opus 4.6, aber vielleicht kommt das noch.

So, und jetzt nochmal das Thema, das man bei OpenClaw natürlich erwähnen muss. Das Ding macht Sachen und kann deshalb auch Sachen kaputt machen. Also ich persönlich würde OpenClaw niemals, niemals Zugriff auf meine Mails geben, auch nicht auf irgendwelche persönlichen Daten, unter gar keinen Umständen auf irgendwas, was mit Geld zu tun hat, und ich würde OpenClaw auch nicht auf einem Rechner installieren, der offene Ports hat, also aus dem großen Internet erreichbar ist. Ich habe OpenClaw auf einem Rechner, der nur bei mir hier im internen Netz hängt, auf dem ich in keine wichtigen Accounts eingeloggt bin, beziehungsweise ich auch nicht OpenClaw irgendwelche Passwörter gebe, wo auch keine wichtigen Daten drauf sind. Generell finde ich gut, wenn man mit solchen Systemen experimentiert, man sollte aber versuchen zu verstehen, was die machen und was die Risiken sind.

OpenClaw kann autonom Software installieren und natürlich kann er sich da Trojaner einfangen und generell kann er sich eine Prompt Injection einfangen. Gerade wenn man kleine lokale Modelle verwendet, die großen State-of-the-Art-Cloud-Modelle sind da natürlich darauf optimiert, dass sie nicht so sensibel auf Prompt Injections reagieren, aber die sind auch nicht zu 100% sicher.

Und was passiert, wenn man OpenClaw Zugriff auf wichtige Daten, wie die eigenen Mails gibt? Das zeigt das inzwischen in der Szene berühmte sogenannte Yue-Incident. Da hat nämlich eine Meta-KI-Forscherin, also jemand, die sich auskennt eigentlich, Hunderte Mails von OpenClaw gelöscht bekommen, ohne dass sie das wollte. Sie hatte aber sogar explizit gesagt, analysiere nur mein Postfach, lösche keine Mails. Es ist dann trotzdem passiert.

Und ich habe solche Sachen auch beobachtet, also undramatischer, weil ich OpenClaw ja keinen Zugriff auf wichtige Sachen gegeben habe, aber OpenClaw hat auf jeden Fall manchmal einfach halluziniert, also mit dem Brustton der Überzeugung Quatsch erzählt, keine Ahnung, Restaurants empfohlen, die es gar nicht gibt, aber es ist auch vorgekommen, dass OpenClaw eine mehrere Wochen problemlos lauffähige Ace-Step-Installation einfach komplett zerschossen hat. Es hat es dann selbst wieder repariert bekommen, aber ja, war erst mal kaputt. Und ich habe auch sehr oft gehabt, dass OpenClaw sich bei einem Update selbst zerkonfiguriert hat, also dass man sowas gesagt hat wie, mach ein Update oder stell das mal so oder so ein und dann sagt OpenClaw, okay, und dann war es weg. Dann konnte ich es nicht mehr über Telegram bedienen. Ich musste mich dann über SSH auf den OpenClaw-Rechner draufgehen und da gibt es dann den OpenClaw-Doctor-Befehl, der OpenClaw wieder repariert. Das klappte auch immer, aber ihr merkt schon, das ist auf jeden Fall faszinierende Software, aber kein Rundum-Sorglos-Paket, auf gar keinen Fall. Ohne zu verstehen, was OpenClaw ist und was es macht und vor allem, was es kaputt machen kann, sollte man OpenClaw auf keinen Fall benutzen. Wenn ihr euch das zutraut, dann probiert das auf einer Maschine aus, wo es kein Problem wäre, wenn alles drauf gelöscht wird. So sollte man das sehen.

Es ist für mich wirklich sonnenklar, dass solche permanent laufenden, selbstlernenden Agentensysteme keine kurzzeitige Modeerscheinung sind, sondern das ist was, was Menschen und Unternehmen in Zukunft immer mehr nutzen werden. Darauf könnt ihr mich gerne festnageln, davon bin ich wirklich überzeugt. Da steckt so viel Potenzial drin. Es ist aber nicht so, dass OpenClaw irgendwie fertig ist oder so. Im Gegenteil, es ist noch buggy, es ist noch gefährlich. Wenn man nicht weiß, was man tut, es ist, wie Peter Steinberger das ja auch beschrieben hat, experimentelle Software, im wahrsten Sinne des Wortes. Man kann damit experimentieren und dadurch besser verstehen, was agentische Systeme Stand heute so leisten können, wie man die vielleicht für sich selbst nutzen kann. Aber das Ding ist nichts für Leute, die irgendwas Fertiges haben wollen. Vor allem ist es, wenn man das meiner Meinung nach beste Modell haben will, extrem teuer.

So, und das ist hier jetzt nochmal eine wichtige Aktualisierung. Anthropic hat nämlich vor wenigen Tagen entschieden, dass man Claude Opus und auch Sonnet nicht mehr mit einem Abo, also einer Flatrate, verwenden kann. Also kann man schon, aber nicht mehr mit externen Tools wie leider OpenClaw. Nicht mal mit dem extrem teuren Claude-Max-Abo für 107,10 Euro im Monat, das ich für meine Zeit mit OpenClaw abgeschlossen hatte. Also für die Zeit, bevor diese neue Regel galt. Will man Claude-LLMs verwenden, muss man jetzt über API abrechnen. Und das ist was, was ich euch unter keinen Umständen empfehlen würde, weil die über 100 Euro, die ich vorher im Monat bezahlt habe, die ballert ihr da locker, wenn ihr ein bisschen was damit macht, am Tag durch. Am Tag, okay? Wenn ihr einfach nur Hallo dahin schreibt, dann kann es sein, dass das Ding weit über 100.000 Token an die Server schickt. Und ja, OpenClaw ist eine Token-Schleuder, das muss man so sagen. Das ist aber halt schade, weil Opus meiner Meinung nach das einzige LLM ist, mit dem OpenClaw halt wirklich nützlich ist.

Es gibt eine Alternative, ob das nun daran liegt, dass OpenClaw-Erfinder Peter Steinberger jetzt bei OpenAI arbeitet. Auf jeden Fall kann man jetzt OpenClaw mit einem einfachen ChatGPT-Plus-Abo, also es kostet ein bisschen mehr als 20 Euro im Monat, über Flatrate benutzen, mit dem aktuellen LLM Codex 5.4. Und das muss man so klar sagen, das ist leider deutlich, deutlich, deutlich schlechter als Claude Opus. Ich habe das ja gezwungenermaßen, nachdem Anthropic halt mein Abo gecancelt hat sozusagen oder die Flatrate, habe ich das umgeschaltet auf Codex 5.4. Und ja, was soll ich sagen, also die Sprache ist irgendwie kaputt. Das Ding sagt Sachen wie, das ist ziemlich hybrisig. Also kommen ständig solche komischen Wortschöpfungen und irgendwelchen Formulierungen, die auch grammatikalisch nicht viel Sinn ergeben. Manchmal werden auch so Fragmente in anderen Sprachen, neulich hatte ich was in Hindi da reingehauen, in die Antworten, ganz komisch. Vor allem kann es aber auch weniger. Also die beeindruckende Tool-Benutzungskompetenz, die ist bei Codex 5.4, ja, schrottig.

Eigentlich bin ich ja sowieso nicht der größte Fan davon, dass alles über irgendwelche Server von irgendwelchen US-Unternehmen läuft. Dauerhaft würde ich OpenClaw auf jeden Fall erst verwenden, wenn es ein lokales Modell gäbe, was gut damit funktioniert. Aber da habe ich noch keins gefunden, was Opus ansatzweise das Wasser reichen kann und was einigermaßen schnell auf bezahlbarer Hardware läuft. Ihr vielleicht? Gerne in die Kommentare schreiben. Interessiert mich wirklich. Tschüss.

c't 3003 [1] ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.


URL dieses Artikels:
https://www.heise.de/-11252789

Links in diesem Artikel:
[1] https://www.youtube.com/channel/UC1t9VFj-O6YUDPQxaVg-NkQ
[2] https://www.heise.de/ct
[3] mailto:jkj@ct.de

Copyright © 2026 Heise Medien

Adblock test (Why?)

  • 10. April 2026 um 16:30

TDD: Österreich versteigert neuen Frequenzbereich für Mobilfunk

Von Achim Sawall
Die Telekom-Regulierungsbehörde hat erstmals den Bereich 2.300 MHz vergeben. Die zwei Blöcke haben Käufer gefunden.
Shop von Three Austria in Österreich (Bild: Three Austria)
Shop von Three Austria in Österreich Bild: Three Austria

Der österreichische Regulierer Telekom-Control-Kommission (TKK) hat Frequenzpakete aus dem Bereich 2.300 MHz und 2.600 MHz versteigert. Das gab die staatliche TKK am 10. April 2026 bekannt . Insgesamt fließen Einnahmen in Höhe von 39,4 Millionen Euro in den Staatshaushalt Österreichs.

Der Bereich 2.300 MHz wurde erstmals vergeben. Das Band wurde in Österreich zuvor teilweise für PMSE (Program Making and Special Events) genutzt, also für mobile Videolinks von Fernsehteams.

Die TKK startete Ende 2024 eine offizielle Konsultation, ob das Band für lokale Campusnetze oder für die großen Mobilkonzerne eingesetzt werden soll. Die 60 MHz im 2.300-MHz-Bereich wurden aber schließlich als Ganzes für die nationale Kapazitätserweiterung (TDD-Verfahren) freigegeben, um den steigenden Bedarf an Datenübertragung in den Städten zu decken.

Die Frequenzen im Bereich 2.600 MHz wurden erstmals im Jahr 2010 versteigert, die Nutzungsrechte laufen Ende des Jahres aus. "Abhängig von zukünftigen technischen Entwicklungen können die Frequenzen bis zu 30 Jahre genutzt werden" , erklärte die Regulierungskommission. Die Frequenzzuteilung erfolge im Regelfall binnen eines Monats.

Drei zahlt am meisten

A1 erwarb 50 MHz zu 11 Millionen Euro, T-Mobile aus Deutschland kaufte 100 MHz zu 13,2 Millionen Euro und Hutchison (Drei) aus China zahlte mit 15,2 Millionen Euro am meisten. Drei-CTIO Bernd Loacker sagte: "Das bisherige FDD-Bestandsspektrum von 2 × 25 MHz bleibt auch im nächsten Vierteljahrhundert verfügbar. Gleichzeitig wurde die Kapazität im TDD-Bereich von 20 MHz auf 40 MHz verdoppelt. Das TDD-Spektrum (Time Division Duplex) bildet eine entscheidende Grundlage für neue Technologien wie etwa KI-basierte Anwendungen."

Die Datennutzung im Netz von Drei sei im vergangenen Jahr um rund 15 Prozent auf 1,95 Milliarden Gigabyte gestiegen, sagte er weiter.

Adblock test (Why?)

  • 10. April 2026 um 18:58

Anzeige: Beliebte Rohrzange Knipex Cobra bei Amazon am günstigsten

Von Benjamin Gründken
Die Wasserpumpenzange Knipex Cobra ist in der 250 mm großen Version bei Amazon befristet im Angebot.
Die Cobra verfügt über einen Selbstklemmeffekt an Rohren. (Bild: Erzeugt mit ChatGPT; Amazon, Knipex; Montage: Golem.de) amazon Affiliate

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Die Cobra verfügt über einen Selbstklemmeffekt an Rohren. Bild: Erzeugt mit ChatGPT; Amazon, Knipex; Montage: Golem.de

Knipex zählt zu den bekanntesten Werkzeugherstellern. Unweit von Wera, im heute zu Wuppertal gehörenden Cronenberg, werden die Zangen bis heute produziert. Zum Portfolio gehören Rohrzangen ebenso wie Seitenschneider und Crimpzangen.

Dass die Qualität stimmt, zeigen die Bewertungen im Netz. So erreicht die 250 mm große Version der Wasserpumpenzange Knipex Cobra auf Amazon aktuell 4,9 von 5 Sternen bei über 5.000 Bewertungen. Es handelt sich also nicht grundlos um den aktuellen Bestseller Nr. 1

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
in der Kategorie der Wasserpumpenzangen beim Onlienriesen.

Was zeichnet die Knipex Cobra aus?

Doch was macht die Zange so besonders? Zum einen steht Made in Germany bei den Wuppertalern offenbar noch für Qualität. Zum anderen gibt es gleich mehrere spannende Funktionen.

Eine Feinverstellung per Knopfdruck schickt zum Beispiel nicht jede Wasserpumpenzange ins Rennen. Interessant auch: der Selbstklemmeffekt an Rohren und Muttern. Dank spezieller Maulgeometrie hält sich die Zange demnach fest.

Auch die Härte der Zähne von laut Hersteller rund 61 HRC soll nicht unerwähnt bleiben. Konkret die 87 02 250 verfügt zudem über die besseren 2-Komponentengriffe anstelle des einfachen Gummiüberzugs. Die Zange packt Knipex zufolge Rohre bis 52 und Muttern bis 46 Millimeter.

Aktuell bei Amazon am günstigsten

Amazon weist aktuell ein zeitlich befristetes Angebot für die Knipex Cobra in 250 Millimetern aus. Es verschwand gestern kurzzeitig, ist jetzt aber wieder am Start und gilt laut Produktseite

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
bis zum 15. April oder solange die Rabattvorräte reichen. Der Preis liegt bei 23,19 Euro nach 31 Prozent UVP-Rabatt.

Knipex Cobra Wasserpumpenzange, 250 mm

Zum Angebot

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Spannender als die unverbindliche Empfehlung ist der Vergleichspreis: Unter den 39 Shops mit einem Vergleichsangebot im Golem-Preisvergleich, powered by Geizhals, macht Amazon den besten Kurs. Andere nehmen wenigstens 24,48 Euro, während wir diese News schreiben. Inklusive Versand liegt der zweitgünstigste Shop sogar schon bei 28,63, Amazon bei 27,18 Euro. Prime-Kunden kommen noch besser weg.

Nicht die richtige Zange? Weitere Modelle des Herstellers findet man bei Amazon in der Übersicht.

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

  • 10. April 2026 um 18:48

Anzeige: Ryzen-7-Mini-PC mit 32 GByte 160 Euro reduziert

Von Erik Körner
Der NiPoGi AM06 Pro Mini-PC mit Ryzen-7-CPU und Windows 11 Pro ist bei Amazon nur kurz über 20 Prozent günstiger.
Der NiPoGi AM06 Pro Mini-PC günstiger im Amazon-Angebot (Bild: Amazon.de/NiPoGi/Golem) amazon Affiliate

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Der NiPoGi AM06 Pro Mini-PC günstiger im Amazon-Angebot Bild: Amazon.de/NiPoGi/Golem

Ein Mini-PC des unter Amazon-Kunden beliebten Herstellers NiPoGi ist aktuell zum niedrigsten Preis seit Monaten im Angebot. Der AM06 Pro mit Ryzen-7-Prozessor, 32 GByte RAM und Windows 11 Pro ist für unter 540 Euro statt 699,99 Euro erhältlich. Wir empfehlen, schnell zuzugreifen: Der Rabatt läuft maximal bis zum 19. April.

Das bietet der Mini-PC von NiPoGi

Das Herzstück des NiPoGi AM06 Pro ist seine АMD Ryzen 7 7730U CPU mit acht Kernen, 16 Threads, 4,5 GHz Spitzentakt und einem integrierten Radeon-RX-Vega-8-Grafikchip. Laut Hersteller soll er tägliche Büroaufgaben, Streaming und kreative Projekte, zum Beispiel in der Adobe Suite, meistern. Auch Indie-Spiele oder ältere Games mit niedrigen Hardwareanforderungen dürften kein Problem sein. Ein Hochgeschwindigkeitslüfter mit nur 15 W Stromverbrauch soll einen stabilen, leisen Langzeitbetrieb garantieren.

Werkseitig ist der NiPoGi AM06 Pro mit 32 GByte DDR4-RAM und einer 1 TByte großen M.2 SSD ausgestattet. Wenn das nicht reicht, können sowohl Arbeitsspeicher als auch Festplattenspeicher erweitert werden. Konkret lassen sich bis zu zwei RAM-Riegel mit jeweils maximal 32 GByte nachrüsten; die vorinstallierte SSD kann gegen bis zu 2 TByte große Modelle ausgetauscht werden. Dadurch eignet sich der Mini-PC auch ideal für alle, die Wert auf die Zukunftssicherheit ihrer Systeme legen.

Das Gehäuse des NiPoGi AM06 Pro misst 13,2 mal 12,8 mal 5 cm. Trotz schmalem Fußabdruck hat der Mini-PC viele Anschlüsse: Er unterstützt bis zu drei 4K-Monitore bei 60 Hz gleichzeitig via Displayport, HDMI 2.0 und USB 3.2 Gen2 Typ-C. Bis zu vier externe Geräte wie Mäuse, Tastaturen oder Drucker können über je zwei USB-2.0- und USB-3.2-Gen-2-Typ-A-Anschlüsse verbunden werden. Für Kopfhörer ist eine 3,5-mm-Buchse verbaut. Ein 1-GBit- und ein 2,5-GBit-LAN-Port garantieren schnelles Internet via Kabel. Für kabellose Verbindungen unterstützt der Mini-PC Wi-Fi 6 und Bluetooth 5.2. Praktisch: Dank Vesa-Halterung und beiliegender Klemme kann er an der Rückseite von Monitoren oder an Wänden montiert werden.

NiPoGi bei Amazon: Mini-PCs für jedes Budget im Angebot

Der NiPoGi AM06 Pro

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
ist bei Amazon 23 Prozent reduziert. Im befristeten Angebot kostet er 539,99 Euro statt der unverbindlichen Preisempfehlung von 699,99 Euro. Über 500 Amazon-Kunden bewerten den Mini-PC im Schnitt mit 4,5 von 5 Sternen. Besonders für seine Größe überzeuge der Rechner mit seiner schnellen, zuverlässigen Performance, heißt es. Mehr reduzierte Mini-PCs von NiPoGi finden sich auf der Amazon-Seite
Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.
des Herstellers. Stöbern lohnt sich.

NiPoGi AM06 PRO Mini PC AMD Ryzen 7 7730U

Jetzt 160 Euro sparen

Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.

Adblock test (Why?)

  • 10. April 2026 um 18:00

Störungsmeldung vom 09.04.2026 23:03

Von heise online

Neue Störungsmeldung für Provider T-Online

Details

Beginn
09.04.2026 23:03
Region
Braunschweig (0531)
Provider
T-Online
Zugangsart
VDSL

Alle Details zur Störungsmeldung ansehen Eigene Internetstörung melden

  • 09. April 2026 um 23:03
❌