Ein authentischer Fall. Eine neue Dozentin, intensive KI-Nutzung — und trotzdem das Gefühl, alles selbst tragen zu müssen. Was dahintersteckt, welche Tools wirklich helfen und wo der eine Hebel liegt.
I · Der Ausgangspunkt
Der Fall ist kein Sonderfall. Er passiert überall, wo Menschen KI einsetzen, viel in Werkzeuge investieren — und sich dann wundern, warum trotzdem alles an ihnen hängt.
„Ich bin immer noch bei einem manuellen Prozess und muss mir selber total viel merken. Ich habe aus meiner Sicht viel Aufwand betrieben für die Vorbereitung von zwei Dozenten-Sessions."
Ausgangssituation — authentisches ZitatWas vorhanden war: Regiebücher, Foliensätze, ein detailliertes Arbeitsdokument, eine durchdachte Semesterstruktur. Was fehlte: eine einzige Seite. Nicht mehr Inhalt — eine andere Art, das Vorhandene zu organisieren.
II · Von Chaos zu Klarheit
Dies ist keine Fehleranalyse. Es ist ein Erkenntnisweg, der für jeden gilt, der kognitive Arbeit an KI übergeben möchte — und noch nicht weiß, wie.
Alle Entscheidungen existieren. Alle Dokumente liegen vor. Das Semester ist strukturiert, die Didaktik ist klar. Aber das Wissen ist verteilt: auf Dokumente, auf vergangene Chats, auf implizites Erfahrungswissen — und auf den Kopf der Dozentin.
Für sie ist das integrierbar. Für ein System ist es Chaos. KI kann nicht auf etwas zugreifen, das sie nie explizit bekommen hat.
Power Automate. Copilot Studio. Agenten. Alles klingt nach Lösung, weil es nach Automatisierung klingt. Aber Automatisierung setzt voraus, was noch nicht vorhanden ist: ein explizites Regelwerk, das ein System ausführen kann.
Wer automatisiert, bevor er geklärt hat, was stabil ist — baut eine formal automatisierte, inhaltlich leere Pipeline. Mehr Setup, weniger Wirkung.
KI nimmt keine kognitive Last ab, solange Entscheidungen implizit bleiben. Nicht weil das Tool nicht gut genug ist. Sondern weil KI ein externes Gedächtnis ist — und kein externes Gedächtnis kann sich merken, was nie übergeben wurde.
Die Wende ist keine technische. Es ist eine epistemische: von „KI hilft mir beim Denken" zu „KI leitet ab, was ich ihr einmalig explizit übergebe".
„Ich kann der KI sagen: Bereite Session 3 vor. Auf Folgendes musst du achten." — Das ist realistisch. Heute. Mit Copilot Chat. Ohne neues System, ohne Setup-Projekt, ohne Agenten.
Was es braucht: ein einziges wiederverwendbares Übergabeformat. Einmal formulieren — jede Woche verwenden. Das ist der gesamte Invest.
III · Der zentrale Irrtum
Das ist der systematischste Fehler beim KI-Einsatz — und gleichzeitig der häufigste. Er betrifft nicht Kompetenz, sondern ein Missverständnis darüber, was KI grundsätzlich leistet.
Sie kann aus stabilen Entscheidungen Konsequenzen ziehen, Strukturen reproduzieren, konsistent formulieren, Wiederholungen automatisieren. Aber sie kann nicht wissen, was in deinem Kopf ist — solange du es ihr nie explizit gegeben hast.
Regiebücher, Foliensätze, Planungsdokumente — all das ist Artefakt. Kein System weist KI an, wie die Entscheidungen dahinter zusammenhängen. Was fehlt ist kein weiteres Dokument. Es ist ein kanonisches Regelwerk: was ist fix?
Power Automate für deterministische Prozesse, Copilot Studio für stabile Wissenssysteme — beides richtig, beides zu früh hier. Wer automatisiert, bevor er Klarheit hat, baut Aufwand, keinen Hebel.
Erster Durchlauf heißt: Inhalte schärfen sich noch, Dynamiken werden erst verstanden, der eigene Lehrstil kalibriert sich. Das ist nicht vorübergehend — das ist der Normalzustand. KI muss damit umgehen können, nicht dagegen.
Es gibt eine Ebene, die iterativ bleiben darf — und eine, die stabil sein sollte. Wer beide im Kopf trägt, trägt beides manuell. Sobald die zweite Ebene einmal externalisiert ist, nimmt KI echte Last ab.
IV · Die Unterscheidung
Wer beide Ebenen trennt, muss nur eine einmalig externalisieren — und gewinnt die andere als freien Raum zurück.
Diese Ebene ist nicht automatisierbar — und das ist gut so. Hier passiert das Wesentliche der Dozenten-Arbeit.
Diese Ebene ist vollständig systematisierbar — und hier entsteht die unnötige Last, weil jedes Mal bei Null gestartet wird.
Sobald Ebene B einmalig externalisiert ist — als Grundgesetz, als Session-Template — übernimmt KI genau diesen Teil. Ebene A bleibt frei. Das ist der Moment, wo Entlastung spürbar wird.
V · Die Tool-Entscheidung
Tools wurden nicht willkürlich ausgeschlossen. Jedes wurde gegen den konkreten Use Case geprüft: einen kognitiven Produktionsprozess in einer lernenden, wöchentlich aktualisierten Umgebung.
Perfekt für deterministische Abläufe, Event-Trigger, Dateioperationen. Kein sinnvolles Handling von langem, weichem Kontext.
Richtig für stabile, wiederholbare Use Cases mit fixem Regelwerk. Braucht eine Wissensgrundlage, die im ersten Durchlauf noch entsteht.
Kein Setup, kein Projekt. Zustandsfähig, dialogisch, iterativ korrigierbar. Wächst mit dem eigenen Wissensstand mit.
VI · Der Arbeitsmode
Kein neues System. Kein Setup-Projekt. Ein strukturierter, wöchentlich fast identisch wiederverwendeter Dialog — mit frischem Stand, ohne neu erklären zu müssen.
VII · Was bleibt
Diese Erkenntnisse gelten nicht nur für Dozentinnen. Sie gelten für jeden, der KI für kognitive Arbeit einsetzt — und sich wundert, warum es sich immer noch manuell anfühlt.
Der Ausgangspunkt dieses Falls ist kein Versagen. Es ist exakt die richtige Schwelle — der Moment, in dem implizites Wissen bereit ist, explizit zu werden. Der nächste Schritt ist nicht mehr Aufwand. Er ist eine einzige Seite.
Reifegrad-Einordnung