Eine zweigeteilte schwebende Stadt: Die linke Seite zeigt eine strahlende, idyllische Utopie der Wissenschaft, die nach rechts nahtlos in eine dunkle, militarisierte Dystopie mit Drohnen und Überwachung zerfällt – eine visuelle Metapher für den rasanten Werteverfall der KI-Branche.

Die Goldgräberstimmung in der KI-Branche ist vorbei. Was vor drei Jahren noch als nächste industrielle Revolution gefeiert wurde, zeigt 2026 deutliche Risse. OpenAI hat im Oktober 2025 seine Non-Profit-Wurzeln gekappt und im Februar 2026 einen umstrittenen Pentagon-Vertrag unterschrieben. Anthropic kassiert außerdem bei eigenen zahlenden Kunden 200 Dollar extra, weil ein String namens „HERMES.md“ in der Git-Historie auftaucht. Beide Unternehmen verbrennen Milliarden, denn beide stehen unter Druck von Investoren, und beide vollziehen genau jenen Plattformverfall, den Cory Doctorow mit dem Begriff „Enshittification“ beschrieben hat. Allerdings eben im Zeitraffer.

Dieser Artikel ordnet die aktuellen Vorgänge ein, beleuchtet die ökonomischen Grundlagen der KI-Branche und erklärt, warum das Geschäftsmodell der großen AI-Labore strukturell wackelt.

Was ist Enshittification überhaupt?

Der Begriff stammt vom kanadisch-britischen Autor und Aktivisten Cory Doctorow. Er hat ihn erstmals im November 2022 in einem Blogpost auf Medium verwendet und in einem Wired-Artikel im Januar 2023 ausgeweitet. Doctorow argumentiert, dass neue Plattformen zunächst nützliche Produkte mit Verlusten anbieten, um Nutzer zu gewinnen. Sobald die Nutzer dann gebunden sind, verschiebt die Plattform die Überschüsse zu den Aktionären.

Das Modell verläuft in vier Phasen: Erstens sind Plattformen gut zu ihren Endnutzern. Zweitens missbrauchen sie diese Endnutzer, um die Bedingungen für Geschäftskunden zu verbessern. Drittens ziehen sie auch den Geschäftskunden den Boden unter den Füßen weg, weil sie mehr Profit für sich behalten wollen. Viertens sind sie schließlich zu einem riesigen Haufen Mist geworden. Das Wort „Enshittification“ wurde 2023 vom American Dialect Society zum Wort des Jahres gewählt.

Doctorow selbst hat das Konzept 2025 ausdrücklich auf KI-Plattformen erweitert. In einem Gespräch mit der RSA argumentiert er, dass schwache Regulierung und Monopolmacht es Tech-Firmen ermöglichen, Nutzer einzusperren, weshalb er auch die wirtschaftliche Nachhaltigkeit des AI-Booms in Frage stellt.

Genau diese Frage steht jetzt im Zentrum.

Phase 1: OpenAI gibt seine Gründungswerte auf

OpenAI begann 2015 als Non-Profit-Organisation mit einem klaren Anspruch. Die Mission lautete, sicherzustellen, dass künstliche allgemeine Intelligenz (AGI) der gesamten Menschheit zugutekommt. Die Charter aus dem Jahr 2018 enthielt zudem einen bemerkenswerten Satz: Falls ein anderes wertekonformes Projekt kurz vor AGI sei, würde OpenAI mit ihm nicht konkurrieren, sondern es unterstützen.

Diese Worte klingen 2026 wie aus einer anderen Zeit. Eine Analyse des US-Steuerformulars 990 zeigt, dass OpenAI seine Mission Statement seit der Gründung sechs Mal geändert hat. In der jüngsten Version, eingereicht im November 2025, wurde das Wort „safely“ komplett entfernt. Aus „safely benefits humanity“ wurde damit „benefits humanity“. Ein kleines Wort, aber eine große Verschiebung.

Im Januar 2024 begann der eigentliche Bruch. OpenAI strich klammheimlich aus seiner Usage Policy den Passus, der die Nutzung der Technologie für militärische Zwecke verbot. Bis zum 10. Januar 2024 enthielt die Policy einen ausdrücklichen Bann auf „Aktivitäten mit hohem Risiko für körperliche Schäden“, einschließlich „Waffenentwicklung“ und „Militär und Krieg“. Diese Formulierung hätte deshalb den Zugang des Pentagon und anderer staatlicher Militärs ausgeschlossen.

OpenAI verkaufte den Schritt als Vereinheitlichung der Sprache. Anna Makanju, OpenAIs damalige Vizepräsidentin für globale Angelegenheiten, erklärte beim Weltwirtschaftsforum in Davos, dass das pauschale Militärverbot viele Anwendungsfälle blockiert habe, die mit der Mission im Einklang stünden. Im Dezember 2024 folgte dann die Partnerschaft mit Anduril, einem Hersteller von KI-gestützten Drohnen, Radarsystemen und Raketen.

Das war der Anfang. Der Pentagon-Deal im Februar 2026 war das Ende jeder Glaubwürdigkeit.

OpenAI im Pentagon: Eine Geschichte mit Schönheitsfehlern

Am 27. Februar 2026 verkündete OpenAI einen Vertrag mit dem damals umbenannten Department of War. Der Deal erlaubt den Einsatz von OpenAI-Modellen für klassifizierte militärische Operationen. Der Vertrag enthält angeblich rote Linien gegen massive Inlandsüberwachung, autonome Waffen ohne menschliche Kontrolle und hochriskante automatisierte Entscheidungen.

Es gab nur ein Problem. Das gleiche Pentagon hatte wenige Tage zuvor mit Anthropic verhandelt und genau jene Schutzklauseln abgelehnt, auf die Anthropic bestand. Als die beiden Seiten Ende Februar keine Einigung fanden, wies Präsident Donald Trump alle Bundesbehörden an, Anthropic-Technologie nicht mehr zu nutzen, und nannte das Unternehmen eine „radikal linke, woke Firma“. Verteidigungsminister Pete Hegseth ordnete daraufhin an, Anthropic offiziell als „Lieferketten-Risiko für die nationale Sicherheit“ einzustufen, obwohl diese Bezeichnung normalerweise Unternehmen aus feindlichen Staaten vorbehalten ist.

Wenige Stunden nach dem geplatzten Anthropic-Deal sprang OpenAI ein. Selbst Sam Altman musste später einräumen, dass der Vertrag „opportunistisch und schlampig“ gewirkt habe und dass das Unternehmen „ihn nicht hätte überstürzen sollen“. Diese Selbstkritik war allerdings erst nach öffentlichem Druck nötig geworden, denn Kritiker hatten in den ursprünglichen Klauseln Schlupflöcher für die Massenüberwachung von Amerikanern entdeckt.

Die nachträglichen Anpassungen wurden von vielen als kosmetisch eingestuft. Charlie Bullock, Senior Research Fellow am Institute for Law and AI, schrieb auf X, er sei verwirrt, weil das Pentagon diese Sprache akzeptiere, nachdem es Anthropic für etwas sehr Ähnliches abgestraft habe. Mehrere juristische Experten argumentieren außerdem, dass jedes Wort im Vertrag Gewicht habe, weil die Regierung Klauseln so weit wie möglich auslege.

Am 1. Mai 2026 verbreiterte das Pentagon den Kreis weiter. Acht Tech-Konzerne wurden für den Einsatz auf klassifizierten Netzwerken zugelassen: Elon Musks SpaceX, OpenAI, Google, Microsoft, Nvidia, Amazon Web Services, Oracle und Reflection. Anthropic blieb außen vor.

Wer 2015 OpenAI als gemeinnützige Forschungsorganisation für das Wohl der Menschheit gegründet hat, würde sein Werk heute kaum wiedererkennen.

Phase 2: Anthropic und der HERMES.md-Skandal

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet, weil diese den Kurs des Mutterhauses ablehnten. Das Unternehmen positioniert sich als sicherheitsorientierte Alternative. Allerdings zeigt auch hier der Profitabilitätsdruck mittlerweile hässliche Risse.

Am 4. April 2026 verkündete Anthropic eine technische Maßnahme, die schnell zum Skandal wurde. Claude Code begann, den Inhalt von „git status“ in den System-Prompt zu ziehen und nach Schlüsselwörtern zu scannen, die mit Drittanbieter-Werkzeugen wie Hermes und OpenClaw assoziiert sind. Sobald diese Strings auftauchten, leitete das System die Nutzer von ihrem Abonnement-Plan auf API-Abrechnung um. Ohne Benachrichtigung. Ohne Bestätigung. Außerdem offenbar ohne zu prüfen, ob diese Werkzeuge tatsächlich verwendet wurden.

Am 25. April 2026 ging der Vorfall öffentlich. Ein Nutzer berichtete, dass der genaue String „HERMES.md“ in seiner lokalen Git-Commit-Historie dazu führte, dass Claude Code Anfragen außerhalb seines Festpreis-Abos verarbeitete. Das System umging dabei den 200-Dollar-Max-Plan und berechnete dem Nutzer direkte API-Tarife. Er verlor über 200 Dollar an Extra-Gebühren, obwohl 86 Prozent seines vorausbezahlten Plan-Kontingents noch verfügbar waren.

Der Punkt ist: Hermes ist eine reale Konvention. Der Programmierer Theo Brown brachte es auf X auf den Punkt: HERMES.md ist eine Spezifikationsdatei für AI-Agent-Projekte und kein obskurer Edge Case. Die Detection-Logik schoss also nicht nur in einigen Randfällen daneben, sondern war von Anfang an zu grob.

Besonders bitter: Als der betroffene Nutzer den Anthropic-Support kontaktierte, weigerte sich das Unternehmen zunächst, die 200 Dollar zu erstatten, weil es die Überberechnung als nicht erstattungsfähigen technischen Fehler einstufte. Erst nachdem der Reddit-Post auf X durchschlug, erklärte ein Anthropic-Mitarbeiter, dass alle Betroffenen mit zusätzlichen 200 Dollar Guthaben entschädigt würden.

Die Consumer Rights Wiki hat den Fall mittlerweile dokumentiert und unter „Anthropic Claude Code HERMES.md billing flaw“ archiviert.

Warum Anthropic überhaupt scannt

Der HERMES.md-Bug ist kein Zufall, sondern Symptom. Boris Cherny, Anthropics Head of Claude Code, hatte zuvor erklärt, dass die Abonnements nicht für die Nutzungsmuster solcher Drittanbieter-Werkzeuge gebaut wurden. Tools wie Hermes und OpenClaw können enorme Token-Mengen erzeugen, die das Subscription-Pricing nie absorbieren wollte.

Klingt vernünftig. Bis man die Architektur betrachtet. Wenn der Code Logik enthält, die nach Strings wie hermes.md und OpenClaw scannt und Nutzer auf andere Abrechnungsstufen umleitet, ist der Bug nicht nur in der Erkennung. Er steckt im Design. Ein einzelner String in einer Commit-Nachricht reichte aus, um eine 200-Dollar-Monatsrechnung stillschweigend zu verdoppeln.

Das Problem ist strukturell. Bei Claude Opus 4.7 kostet eine Million Eingabe-Tokens 5 Dollar, eine Million Ausgabe-Tokens 25 Dollar. Eine agentische Sitzung über mehrere Stunden kann Millionen Tokens verbrauchen. Wenn ein Power-User mit einem 200-Dollar-Abo plötzlich Workloads erzeugt, die 2000 Dollar an realen Compute-Kosten verursachen, kollabiert die Gleichung.

Das Drama ist also kein Versehen. Es ist die unvermeidliche Konsequenz, wenn man Pauschal-Abos für variable, sehr teure Compute-Last verkauft.

Die Wirtschaft hinter dem Wahnsinn

Wer verstehen will, warum beide Unternehmen so handeln, muss auf die Bilanzen schauen. Sie sind dramatisch.

OpenAI verzeichnete 2025 ein Bruttoergebnis von 33 Prozent, eingeschränkt durch Inferenzkosten von 8,4 Milliarden Dollar. Diese Kosten werden 2026 voraussichtlich auf 14,1 Milliarden Dollar steigen, weil das Wachstum die Compute-Last nach oben zieht. OpenAI plant außerdem einen Cash-Burn von etwa 17 Milliarden Dollar 2026 und erwartet erst 2030 einen positiven Cashflow.

Laut internen Projektionen wird OpenAI 2026 voraussichtlich 14 Milliarden Dollar verlieren. Die kumulativen Verluste zwischen 2023 und Ende 2028 sollen 44 Milliarden Dollar erreichen, weshalb Profitabilität frühestens 2029 erwartet wird. Nur 5,5 Prozent der 900 Millionen ChatGPT-Wochennutzer zahlen ein Abo. Die anderen 94,5 Prozent nutzen den Dienst kostenlos, während OpenAI für jede ihrer Anfragen die Compute-Kosten trägt.

Die Größe der Wette ist atemberaubend. OpenAI hat sich Verpflichtungen über bis zu 1,4 Billionen Dollar für die nächsten acht Jahre zugesagt, und zwar in Form von Computing-Deals mit Cloud- und Chip-Riesen. Allein für Backup-Rechenzentrumskapazitäten plant das Unternehmen Ausgaben von fast 100 Milliarden Dollar.

Anthropic im Vergleich: Bessere Zahlen, gleiches Problem

Anthropic steht etwas besser da, aber auch hier sind die Zahlen heftig. Anthropics Bruttomarge verbesserte sich von minus 94 Prozent im Jahr 2024 auf etwa 40 Prozent im Jahr 2025. Das ist zwar eine massive Verbesserung, liegt jedoch immer noch zehn Prozentpunkte unter dem ursprünglichen Ziel. Anthropic erreichte im März 2026 einen annualisierten Umsatz von 19 Milliarden Dollar, von 9 Milliarden zum Jahresende 2025 und nur 1 Milliarde fünfzehn Monate zuvor. Im Februar gab Anthropic dann eine Series-G-Finanzierung über 30 Milliarden Dollar zu einer Bewertung von 380 Milliarden Dollar bekannt.

Tech-Kommentator Ed Zitron schätzt, dass OpenAI im Jahr 2024 mit etwa 9 Milliarden Dollar Compute-Ausgaben einen Verlust von 5 Milliarden machte. Er rechnet vor, dass OpenAI 50 Prozent seines Umsatzes für reine Inferenz und 75 Prozent für Trainings-Compute ausgegeben hat. Diese Zahlen ergeben mehr als 100 Prozent des Umsatzes, und genau das ist sein Punkt.

Damit erklären sich die Entscheidungen der letzten Monate. Ein Pentagon-Vertrag bringt Geld. Eine Drittanbieter-Detection schützt die Abo-Kalkulation. Beides sind klassische Squeeze-Manöver in Doctorows Modell.

Investoren wollen Geld zurück

Der Druck kommt nicht von ungefähr. Microsofts Aktie fiel an einem einzigen Tag, dem 29. Januar 2026, um 12 Prozent und vernichtete damit 440 Milliarden Dollar Marktkapitalisierung, nachdem das Unternehmen eingeräumt hatte, dass 45 Prozent seines Cloud-Auftragsbestands von 625 Milliarden Dollar an OpenAI gebunden seien. Oracles Bonität nähert sich außerdem aufgrund der KI-Infrastrukturausgaben unter dem Stargate-Projekt dem Junk-Status.

Die Investoren beginnen daher, dieselbe Frage zu stellen, die Doctorow seit Jahren stellt: Ist das ein nachhaltiges Geschäftsmodell oder ein Spiel der musikalischen Stühle, bei dem Geld zwischen einer Handvoll derselben Unternehmen kreist?

Laut Microsoft-internen Daten verbrennt OpenAI für jeden Dollar Inferenzeinnahmen zwei Dollar. Das ist außerdem vor Forschung und Entwicklung, vor Vertrieb und Marketing, vor allem anderen. Der Druck, irgendwo Profitabilität herzustellen, wächst deshalb exponentiell mit jedem Investment-Term-Sheet.

Genau hier setzt die Enshittification ein. Wer am Ende eines unprofitablen Subscription-Models steht, hat zwei Optionen: Preise erhöhen oder Service kürzen. Beides macht Anthropic gerade, und beides macht auch OpenAI gerade. Werbung in ChatGPT war einmal ein „letztes Mittel“, obwohl sie heute ein konkretes Projekt ist. Der ehemals robuste Claude-Max-Plan deckt zudem plötzlich nicht mehr alle Workloads ab, weil Anthropic algorithmisch entscheidet, was als legitim gilt.

Strukturveränderung als Symptom: OpenAI verabschiedet sich vom Non-Profit

Am 28. Oktober 2025 vollzog OpenAI den entscheidenden Schritt. Die gemeinnützige Organisation wurde in OpenAI Foundation umbenannt. Aus der gewinnorientierten Tochter wurde dabei eine Public Benefit Corporation namens OpenAI Group PBC. Heute hält die Foundation nur noch konventionelle Aktien an der OpenAI Group, und zwar mit einem Anteil von 26 Prozent, der bei der aktuellen Bewertung etwa 130 Milliarden Dollar wert ist.

Was hier verschwand: Der ursprüngliche Profit-Cap. 2019 hatte OpenAI angekündigt, dass die Investoren-Profite zunächst auf das 100-fache der Investition begrenzt seien. 2023 wurde dann beiläufig in Drittberichten erwähnt, dass OpenAI die Regeln still geändert habe, sodass das Profit-Cap ab 2025 jährlich um 20 Prozent steigen darf. Die Restrukturierung 2025 hob diese Begrenzung schließlich ganz auf.

Das Open-AI-Files-Projekt formuliert die Bedenken so: Altmans Unternehmen habe sich von seiner ursprünglichen Non-Profit-Mission entfernt, zunächst durch die Restrukturierung als Capped-Profit-Unternehmen und nun durch die Aufhebung der Cap, weshalb die Anreize zur Maximierung der Gewinne stark gestiegen seien. Der Übergang von der Forschungs-Non-Profit zur klassischen Wachstumsstory ist damit abgeschlossen.

Was das für Nutzer bedeutet

Die Folgen sind konkret. Wer bis vor kurzem OpenAI nutzte, weil es eine ethische Alternative zu Big Tech versprach, muss heute akzeptieren, dass diese Versprechen nicht mehr existieren. Zahlende Claude-Max-Kunden laufen außerdem Gefahr, durch undokumentierte Detection-Mechanismen plötzlich auf API-Tarife umgeleitet zu werden. Selbst der Code im eigenen Git-Repository ist nicht mehr neutral, weil dessen Inhalte mittlerweile Abrechnungsentscheidungen des AI-Tools beeinflussen.

Ein zentraler Punkt: Mit jeder Iteration werden diese Plattformen weniger transparent, nicht mehr. Im Fall des HERMES.md-Bugs erklärte Anthropic-Mitarbeiter Boris Cherny, das Subscription-Modell sei für solche Nutzungsmuster nicht ausgelegt. Diese Begründung ist ehrlich. Die gewählte Lösung, Git-Commits nach Strings zu durchsuchen und Nutzer stillschweigend umzuleiten, ist es nicht.

Die Lock-in-Effekte sind dabei real. Wer Workflows um Claude Code oder ChatGPT herum aufgebaut hat, kann nicht von heute auf morgen wechseln. Genau das ist nach Doctorows Definition die Voraussetzung für Phase 2 und 3 der Enshittification: Sobald Nutzer eingeschlossen sind, beginnt das Auspressen.

Warum Open Source und lokale Modelle jetzt wichtig werden

Die wirtschaftliche Realität der Frontier-Modelle führt direkt zu einem Argument, das auf rialo.de seit Jahren gemacht wird. Digitale Souveränität ist kein abstraktes Ideal, sondern eine handfeste wirtschaftliche und ethische Frage. Wer Workflows auf einer Plattform aufbaut, die strukturell unprofitabel ist, baut deshalb auf einem instabilen Fundament.

Die Alternativen wachsen schnell. Lokale Modelle wie die Qwen-, Llama- oder DeepSeek-Familie laufen auf vergleichsweise bezahlbarer Consumer-Hardware. Tools wie Ollama, llama.cpp und vLLM machen außerdem den Eigenbetrieb realistisch. Open-Weight-Modelle haben zudem die Lücke zu den Frontier-Modellen seit 2024 deutlich geschlossen, gerade in spezialisierten Anwendungsfällen wie Coding oder Übersetzung.

Das soll nicht heißen, dass kommerzielle AI-Dienste keine Berechtigung haben. Es heißt aber, dass die Risikokonzentration auf zwei oder drei US-Anbieter, die selbst in massiven Liquiditätsproblemen stecken, eine schlechte Wette ist. Wer professionell mit AI arbeitet, sollte deshalb einen Fallback in der Hinterhand haben, der unabhängig vom Wohlwollen oder Überleben einer einzelnen Plattform funktioniert.

Ein Realitätscheck zu Anthropic

Eine Differenzierung ist wichtig. Anthropic ist nicht in jeder Hinsicht das gleiche wie OpenAI. Anthropic hatte ursprünglich vom Pentagon vertragliche Garantien gefordert, dass seine Modelle nicht zur Überwachung von Amerikanern oder zur Steuerung autonomer tödlicher Waffen verwendet werden. Erst als die Trump-Administration diese Forderungen ablehnte, brach das Unternehmen deshalb die Verhandlungen ab.

Das ändert aber nichts daran, dass auch Anthropic seine Claude-Modelle bereits seit 2024 in militärischen Kontexten einsetzt. Anthropic war sogar das erste AI-Labor, das seine Modelle auf den klassifizierten Netzwerken des Verteidigungsministeriums bereitstellte. Berichten zufolge nutzte das Militär Claude im Januar bei der Operation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro. Trotz des Banns nutzt die Geheimdienstbehörde NSA außerdem Berichten zufolge weiterhin Anthropics neues, noch nicht öffentlich verfügbares Mythos-Modell, dem erhebliche Cyberkriegs-Fähigkeiten nachgesagt werden.

Anthropic ist also nicht der reine Gegenpol zu OpenAI, denn beide Unternehmen agieren tief in militärischen Kontexten. Der Unterschied ist gradueller Natur: Anthropic war öffentlich bereit, einen Vertrag platzen zu lassen, weil es vertragliche Schutzklauseln durchsetzen wollte. OpenAI war es nicht.

Was bleibt: Die Zeche zahlen die Kunden

Das gemeinsame Muster ist klar erkennbar. Beide Unternehmen haben über Jahre Marktanteile mit subventionierten Preisen aufgebaut. Beide beginnen jetzt jedoch, die Schrauben anzuziehen, weil sie aus diesen Marktanteilen Profit pressen wollen. OpenAI tut das durch Pentagon-Verträge und das Eindringen in immer mehr Anwendungsbereiche, einschließlich Werbung in ChatGPT, Hardware-Produkte und Browser. Anthropic tut es dagegen durch Drittanbieter-Detection, Plan-Restrictions und algorithmische Abrechnungsentscheidungen.

In beiden Fällen wird das Versprechen der Anfangsphase, einer Technologie, die „der Menschheit dient“ oder „sicher und nützlich“ ist, zunehmend zur Marketing-Phrase. Wie Doctorow es formuliert: Enshittification ist nicht zwangsläufig, sondern eine Wahl. Plattformen optimieren irgendwann nicht mehr für ihre Nutzer, sondern für sich selbst, weil sie es können.

Fazit: Ein Speedrun, aber das Ende war absehbar

Was wir 2026 in Echtzeit beobachten, ist ein klassisches Enshittification-Schauspiel, allerdings im Zeitraffer. Die Grundlage des Geschäftsmodells, also dauerhafte Subventionen für unprofitable Compute-Kosten durch Investorengelder, kollabiert unter dem Gewicht ihrer eigenen Erwartungen. Die Folge ist deshalb Druck auf Preise, Service-Kürzungen, neue ethische Kompromisse und immer weitere Squeeze-Mechanismen.

Wer heute in Workflows oder Geschäftsprozessen abhängig von einer einzelnen AI-Plattform ist, sollte das ernst nehmen, denn die nächsten Jahre werden sehr volatil. Profitabilitätsdruck führt zu Entscheidungen, die für Endnutzer unangenehm werden. Die Detection von HERMES.md ist dafür ein erster, kleiner Vorgeschmack, und der Pentagon-Vertrag ist ein anderer.

Die gute Nachricht: Es gibt Alternativen. Open-Source-Modelle, lokale Inference, europäische Anbieter und kleinere spezialisierte Werkzeuge wachsen schnell. Wer jetzt anfängt, eine eigene Infrastruktur aufzubauen oder zumindest einen Plan B zu definieren, ist später froh darüber. Die Lehre aus zwanzig Jahren Plattform-Geschichte ist eindeutig: Wer nicht selbst die Kontrolle über seine Werkzeuge hat, hat sie irgendwann nicht mehr.

Die Enshittification kommt. Sie ist sogar schon da. Und in der KI-Branche kommt sie schneller als irgendwo sonst.


Quellen

Avatar-Foto

Von CrazyModding

Seit 2003 bin ich, in der IT-Branche tätig. Als leidenschaftlicher Verfechter von Open Source und dem Recht auf Reparatur bringe ich meine Expertise und mein Engagement in die Online-Community ein. Als Nerd im Herzen und zu Hause im Internet, bin ich ständig dabei, neue Projekte zu entwickeln und zu erkunden. Als Maker und Bastler habe ich eine breite Palette von Interessen. Von der Heimautomatisierung bis zur Programmierung von Arduino, meine Neugier und mein Einfallsreichtum kennen keine Grenzen.