KI Strategie LLM Wissensmanagement KI für Unternehmen

Andrej Karpathy und das LLM Wiki: Persönliche Wissensdatenbanken mit KI aufbauen

Andrej Karpathy hat beschrieben, wie er mit KI eine persönliche Wissensdatenbank aufbaut — ohne RAG, ohne Vektordatenbank. Was das Konzept für Unternehmen bedeutet.

Christian Synoradzki Christian Synoradzki | | 7 Min. Lesezeit
Andrej Karpathy und das LLM Wiki: Persönliche Wissensdatenbanken mit KI aufbauen

Was Andrej Karpathy veröffentlicht hat

Andrej Karpathy — Ex-Tesla AI Director, OpenAI-Mitgründer, einer der einflussreichsten Köpfe im KI-Bereich — hat letzte Woche ein ungewöhnliches Dokument veröffentlicht: Ein Markdown-File auf GitHub, das beschreibt, wie er persönlich KI für Wissensmanagement nutzt.

Kein neues Modell. Kein Tool. Kein Code. Nur eine Idee — und die hat innerhalb weniger Tage Millionen von Views gesammelt. Dutzende Entwickler haben eigene Implementierungen gebaut, jede auf den eigenen Stack zugeschnitten.

Karpathy nennt das Dokument ein „Idea File” — eine bewusst abstrakte Beschreibung, die man seinem KI-Agenten gibt, damit der eine eigene Version davon baut. Die Idee dahinter: das LLM Wiki.

Das Problem mit RAG

Die meisten kennen KI und Dokumente so: Sie laden Dateien hoch, die KI durchsucht sie bei jeder Frage neu und generiert eine Antwort. Das ist RAG (Retrieval Augmented Generation) — und so funktionieren NotebookLM, ChatGPT mit Datei-Upload und die meisten Wissensdatenbank-Lösungen.

Das Problem: Jede Anfrage startet bei null. Es gibt keine Akkumulation. Stellen Sie eine komplexe Frage, die fünf Dokumente verbindet, muss die KI jedes Mal dieselben Fragmente finden und zusammensetzen. Nichts wird aufgebaut. Nichts vernetzt sich über die Zeit.

Karpathys Lösung: Das LLM Wiki

Karpathys Ansatz ist fundamental anders. Statt bei jeder Abfrage von vorne zu beginnen, baut die KI eine persistente, wachsende Wissensdatenbank auf — eine Sammlung von verlinkten Markdown-Dateien, die mit jeder neuen Quelle besser wird.

Die Architektur besteht aus drei Schichten:

1. Raw Sources — die Quellen

Unveränderliche Originaldokumente: Artikel, Papers, Notizen, Dateien. Sie sind die Quelle der Wahrheit und werden nicht verändert. Karpathy nutzt den Obsidian Web Clipper, um Webseiten direkt als Markdown zu speichern.

2. The Wiki — die Wissensbasis

LLM-generierte Markdown-Dateien mit Zusammenfassungen, Entitätsseiten, Konzeptseiten und Querverweisen. Das LLM baut diese Struktur inkrementell auf — nicht bei jeder Abfrage neu, sondern als persistentes, wachsendes Artefakt. Karpathy beschreibt das so: Obsidian ist die Entwicklungsumgebung, das LLM ist der Programmierer, die Wiki ist die Codebasis.

3. The Schema — die Spielregeln

Eine Konfigurationsdatei (zum Beispiel eine CLAUDE.md), die dem KI-Agenten erklärt, wie die Wiki strukturiert ist, welche Konventionen gelten und wie neue Inhalte eingeordnet werden. Mensch und KI entwickeln diese Regeln gemeinsam weiter.

Drei Operationen, die alles abdecken

Karpathy definiert drei Kernoperationen:

Ingest: Eine neue Quelle wird hinzugefügt. Das LLM liest sie, bespricht die wichtigsten Erkenntnisse, schreibt eine Zusammenfassung, aktualisiert den Index und ergänzt relevante Seiten in der Wiki. Eine einzige Quelle kann 10–15 bestehende Seiten berühren.

Query: Sie stellen eine Frage. Das LLM durchsucht die Wiki, liest relevante Seiten und synthetisiert eine Antwort mit Quellenangaben. Der entscheidende Punkt: Gute Antworten werden als neue Wiki-Seiten gespeichert. Eine Analyse, die Sie angefordert haben, verschwindet nicht im Chat-Verlauf — sie wird Teil der Wissensbasis. So wächst das Wissen auch durch Ihre Fragen.

Lint: Ein periodischer Gesundheitscheck. Das LLM sucht nach Widersprüchen zwischen Seiten, veralteten Aussagen, verwaisten Seiten ohne eingehende Links und fehlenden Querverweisen. Es schlägt neue Fragen vor und identifiziert Wissenslücken.

Warum das funktioniert

Jeder, der schon einmal ein Wiki, eine Wissensdatenbank oder auch nur einen gut organisierten Ordner gepflegt hat, kennt das Problem: Am Anfang ist alles ordentlich. Nach drei Monaten veralten die ersten Einträge. Nach sechs Monaten traut sich niemand mehr, etwas zu ändern, weil unklar ist, was noch stimmt und was nicht.

Karpathy bringt es auf den Punkt:

„The tedious part of maintaining a knowledge base is not the reading or the thinking — it’s the bookkeeping.”

Das Schwierige an einer Wissensdatenbank ist nicht das Lesen neuer Artikel oder das Nachdenken über Zusammenhänge. Das Schwierige ist die Pflege: Querverweise aktualisieren, Zusammenfassungen auf dem neuesten Stand halten, Widersprüche zwischen Seiten erkennen. Menschen geben Wikis auf, weil der Wartungsaufwand schneller wächst als der Nutzen. KI-Agenten haben dieses Problem nicht — sie werden nicht müde, vergessen keine Querverlinkung und können 15 Dateien in einem Durchgang bearbeiten.

Das Ergebnis: Karpathy hat mit dieser Methode rund 100 Artikel mit über 400.000 Wörtern zu einem einzigen Forschungsthema aufgebaut — ohne eine Zeile selbst zu tippen. Er beschreibt die Verschiebung so:

„A large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge.”

Sein KI-Einsatz verschiebt sich: weg vom Programmieren, hin zum Kuratieren von Wissen. Der Mensch kuratiert die Quellen, stellt die richtigen Fragen und lenkt die Analyse. Die KI macht den Rest.

Was das Idea File selbst zeigt

Unabhängig vom Inhalt ist die Form bemerkenswert. Karpathy hat kein Tool gebaut und keinen Code geteilt. Er hat ein Markdown-File geschrieben — eine abstrakte Beschreibung eines Musters. Am Ende steht explizit:

„The right way to use this is to share it with your LLM agent and work together to instantiate a version that fits your needs. The document’s only job is to communicate the pattern.”

Das Dokument beschreibt das Was und Warum, nicht das Wie im Detail. Die konkrete Implementierung — Verzeichnisstruktur, Seitenformate, Tooling — überlässt Karpathy bewusst dem Agenten und dem Nutzer. Und genau das hat funktioniert: Dutzende Entwickler haben innerhalb von Stunden eigene Versionen gebaut, jede auf den eigenen Stack zugeschnitten.

Das zeigt etwas Grundsätzliches über die Art, wie Software in der KI-Ära entsteht: LLM-Agenten wie Claude Code, Codex oder Cursor können heute eine abstrakte Beschreibung lesen, das zugrundeliegende Muster verstehen und eine funktionierende Implementierung generieren. Der Code wird zur Einweg-Instanz — was bleibt, ist das Denkmodell dahinter.

Was das für Unternehmen bedeutet

Karpathys Konzept ist persönlich, aber die Implikationen gehen weit darüber hinaus:

Unternehmens-Wissen endlich nutzbar machen

In den meisten Unternehmen liegt Wissen in Köpfen, E-Mail-Postfächern, Slack-Threads und Chaos-Ordnern. Confluence-Wikis veralten nach Monaten, weil niemand die Pflege übernimmt. Ein LLM-Wiki-Ansatz löst genau dieses Problem: Die KI pflegt, was kein Mensch im Team dauerhaft pflegen will. Aus Meeting-Protokollen, Kundengesprächen und Projektdokumenten entsteht eine lebendige Wissensbasis — eine, die sich selbst wartet.

Wissen akkumuliert statt zu verfallen

Der entscheidende Unterschied zu klassischen RAG-Systemen: RAG startet bei jeder Anfrage bei null. Ein LLM-Wiki akkumuliert. Jede neue Quelle macht die Wissensbasis reicher. Jede Frage kann sie erweitern. Querverweise sind schon da. Widersprüche sind schon markiert. Nach sechs Monaten hat die Wiki ein tieferes Verständnis des Themas als jeder einzelne Mitarbeiter.

Beratung und Kundenarbeit

Für Berater, Agenturen und Freelancer eröffnet das eine neue Möglichkeit: Für jeden Kunden eine eigene Wissensbasis aufbauen. Jede Analyse, jeder Report, jede Empfehlung fließt ein. Der Agent erkennt Muster, identifiziert Lücken und schlägt nächste Schritte vor — auf Basis des gesamten Projektverlaufs, nicht nur der letzten Nachricht.

Content-Strategie

Keyword-Recherchen, Wettbewerbsanalysen, Ranking-Daten — alles als Quellen in ein LLM-Wiki einspeisen. Der Agent erkennt Content-Lücken, veraltete Inhalte und neue Chancen automatisch. Statt einmal im Quartal einen SEO-Audit zu machen, haben Sie eine Wissensbasis, die kontinuierlich mitdenkt.

Die Verbindung zu Vannevar Bush

Karpathy verweist in seinem Idea File auf Vannevar Bushs „Memex” aus dem Jahr 1945 — die Vision eines persönlichen, assoziativen Wissensspeichers. Bush beschrieb eine Maschine, die Dokumente speichert und über Querverweise verbindet, sodass Wissen nicht linear, sondern netzartig zugänglich wird.

Bush hatte die richtige Idee, aber ein unlösbares Problem: Wer pflegt das Ganze? 80 Jahre später liefert die KI die Antwort. Der LLM-Agent tut exakt das, was Bush beschrieben hat — nur schneller, günstiger und ohne physische Grenzen.

Was Sie jetzt tun können

Sie müssen kein Entwickler sein, um von diesem Ansatz zu profitieren:

  1. Sammeln Sie Ihre Quellen an einem Ort. Artikel, Notizen, Reports — alles als Dateien, idealerweise als Markdown oder Text.
  2. Geben Sie einem KI-Agenten die Aufgabe, daraus eine strukturierte Wissensbasis aufzubauen. Zusammenfassungen, Querverweise, ein Index — der Agent erledigt die Fleißarbeit.
  3. Stellen Sie Fragen und speichern Sie gute Antworten. Jede Analyse, die Sie anfordern, wird Teil der Wissensbasis. So wächst das System mit Ihrer Arbeit.
  4. Lassen Sie regelmäßig aufräumen. Der Agent findet veraltete Einträge, fehlende Verlinkungen und Widersprüche — Wartung, die Sie selbst nie dauerhaft durchhalten würden.

Meine eigenen Idea Files auf GitHub

Inspiriert von Karpathys Ansatz habe ich meine eigenen Denkmodelle als Idea Files veröffentlicht — Muster aus meiner täglichen Arbeit als Freelancer, die jeder KI-Agent lesen und umsetzen kann:

  • FAQ-First Chatbot — Eine Chatbot-Architektur, die ausschließlich aus verifizierten FAQs antwortet. Null Halluzination, volle Kontrolle.
  • MCP-Server als Agenten-Werkzeug — Wie Sie einem KI-Agenten Zugriff auf echte Datenquellen geben — am Beispiel von SEO-Daten.
  • KI-Video-Produktion — Automatisierte Videos mit Voice Cloning und programmatischem Rendering, optimiert für TikTok und Reels.
  • 1-Mann-Agentur Betriebssystem — Eine komplette Agentur solo betreiben — mit einem KI-Agenten als Betriebssystem.

Das gesamte Repository finden Sie auf meiner GitHub-Seite.

Fazit: Wissen statt Code

Andrej Karpathy hat gezeigt, dass die wichtigste Anwendung von KI vielleicht nicht das Programmieren ist — sondern das Organisieren und Vernetzen von Wissen. Ein LLM-Wiki ist kein futuristisches Konzept. Es ist ein Markdown-Ordner, ein KI-Agent und eine klare Struktur. Die Technik ist da. Die Frage ist nur, wer sie zuerst nutzt.

Wenn Sie wissen möchten, wie KI-gestütztes Wissensmanagement konkret in Ihrem Unternehmen aussehen könnte, sprechen Sie mich im kostenlosen Erstgespräch an.

Brauchen Sie Unterstützung?

Als SEO-Freelancer mit über 20 Jahren Erfahrung helfe ich Ihnen, Ihre Online-Sichtbarkeit nachhaltig zu steigern.

Christian Synoradzki

Über den Autor

Christian Synoradzki

SEO-Freelancer

Mehr als 20 Jahre Erfahrung im digitalen Marketing. Fairer Stundensatz, keine Vertragsbindung, direkter Ansprechpartner.

Alle Artikel finden Sie im Blog.

20+
Jahre Erfahrung
69 €
pro Stunde
0
Vertragslaufzeit
1
Ansprechpartner
„Unsere Kunden finden uns jetzt online. Der Umsatz ist spürbar gestiegen, seit wir in SEO investiert haben."

— Rainer Labrenz, Einzelhändler