Ein Browser-Werkzeug, das deinen eigenen Text als Objekt behandelt — nicht als Rohstoff zum Umschreiben. Es misst, wo Begriffe kreisen, wo Konzepte sich doppeln, wo ein Text von seinem Thema wegdriftet.
Keine generative KI. Kein Sprachmodell. Eine Messapparatur.
Jede Ebene beantwortet eine andere Frage über deinen Text. Zusammen ergeben sie ein diagnostisches Bild, das ein Sprachmodell strukturell nicht liefern kann — weil es Text interpretiert statt misst.
Ein Maß aus der Informationstheorie, das zählt, wie viel „neue" Information ein Text pro Wort trägt. Hohe Entropie = viele verschiedene Inhaltswörter, wenig Wiederholung. Niedrige Entropie = dieselben Begriffe kreisen.
Im Schreibkompass absatzweise berechnet. Wenn Einleitung und Hauptkapitel stark unterschiedliche Werte haben, wurde wahrscheinlich gefüllt, um Länge zu erreichen. Diagnostisch, nicht präskriptiv.
Herkunft: Claude Shannon, A Mathematical Theory of Communication, 1948.
Ein Mengenvergleich: geteilte Begriffe geteilt durch alle Begriffe beider Texte zusammen. Wert zwischen 0 (keine Überschneidung) und 1 (identisch).
Der Schreibkompass wendet Jaccard auf Satz- und Absatzebene an. Zeigt, wo zwei Passagen dasselbe sagen — auch wenn sie anders formuliert sind. Nützlich für: Kapitel-Dopplungen, wiederkehrende Argumente, unbemerkte Selbstzitate.
Herkunft: Paul Jaccard, Botaniker, 1901 — ursprünglich zum Vergleich von Pflanzengemeinschaften.
Erkennt Eigennamen, Fachbegriffe und zentrale Konzepte im Text. Zeigt, wo sie zuerst eingeführt werden, wie oft sie wiederkehren, und — wenn aktiviert — holt eine Wikipedia-Kurzdefinition zum markierten Begriff.
UI-Funktion: „sehen was fehlt" — welche Begriffe du in einem Abschnitt nennst, aber nie definierst. Oder: welche Entität eingeführt wird und dann verschwindet, obwohl das Argument sie bräuchte.
Technik: Named Entity Recognition (NER), hier regelbasiert und browser-lokal.
Vergleicht den Wortschatz am Anfang eines Textes mit dem am Ende. Wenn die Überschneidung unter einen Schwellwert fällt, warnt das Tool: der Text hat sein Ausgangsthema verlassen.
Praktisch für längere Kapitel, Manifeste, Förderanträge. Drift ist nicht per se schlecht — aber sie sollte bewusst sein, nicht unbemerkt passieren.
Verwandt mit Concept-Drift-Erkennung aus dem Machine Learning, hier auf Prosa-Ebene adaptiert.
Speichert Einträge im Browser (localStorage, bleibt auf deinem Gerät). Ermöglicht longitudinale Vergleiche: wie verändert sich deine Schreibweise über Wochen? Welche Begriffe tauchen wieder auf? Wo entstehen Muster, die du selbst nicht mehr wahrnimmst?
Nicht als Tagebuch-Ersatz gedacht — als Werkzeug, um die eigene Sprache über Zeit zu beobachten.
Speicherung: ausschließlich lokal. Keine Synchronisation, kein Cloud-Backup. Löschen = alle Daten weg.
Kapitel-Draft, Manifest, Antrag, Email. Markdown-Formatierung wird ignoriert, Inhalt analysiert.
Fünf Ebenen. Entropie-Kurve, redundante Satz-Paare, Entity-Liste, Drift-Warnung.
Das Tool rät nicht. Es zeigt. Du entscheidest, ob ein Befund Anlass zur Überarbeitung ist.
Geeignet für Masterarbeiten, Kapitel-Drafts, Positionspapiere, Förderanträge, Blogposts. Nicht geeignet für: Lyrik, fiktionale Prosa, Dialog. Dort zerstören die Metriken Absicht.
Besonders wertvoll als Gegengewicht zu LLM-unterstütztem Schreiben: Claude, GPT & Co. produzieren oder glätten Text. Der Schreibkompass behandelt Text, der bereits existiert, als Objekt — und macht messbar, was du dort gemacht hast.