Skip to content
Daniel Dunkhase sitzt nachdenklich am Schreibtisch und vergleicht KI-generierte Texte auf dem Bildschirm mit einer handschriftlichen Notiz

Zwischen Brain Fry und AI Slop: Was KI-Arbeit mit Führung macht

  • 6 mins

Stand: April 2026

Zwei Phänomene entstehen bei der Arbeit mit KI – und sie sind gegensätzlicher kaum denkbar.

Das erste: Brain Fry. Kognitive Erschöpfung durch permanente Reizüberflutung, endlose Entscheidungsschleifen, das Gefühl, nie wirklich fertig zu sein. Viele Führungskräfte kennen das – und viele ihrer Mitarbeitenden kennen es auch.

Das zweite: AI Slop. Inhalte, Analysen und Texte, die KI-Systeme in Sekunden produzieren – formal korrekt, inhaltlich glatt, aber ohne Substanz. Schnell generiert, schnell vergessen.

Beide Phänomene haben eine gemeinsame Ursache: Wir haben KI in unsere Arbeit integriert, ohne ernsthaft zu klären, was das für die Qualität unserer Arbeit und für die Anforderungen an Führung bedeutet. Das ist die eigentliche Frage.

Was verändert KI im Arbeitsalltag konkret?

KI-Werkzeuge beschleunigen bestimmte Aufgaben erheblich. Textentwürfe, Zusammenfassungen, Datenauswertungen, Recherchen – was früher Stunden dauerte, dauert heute Minuten. Das ist kein Hype, das ist Realität in vielen Unternehmen.

Aber Beschleunigung allein ist kein Gewinn. Laut einer Studie von Microsoft und LinkedIn (2024) geben 68 Prozent der befragten Wissensarbeiter an, dass ihr Arbeitstempo durch KI-Tools zugenommen hat – gleichzeitig berichten 46 Prozent von gestiegener kognitiver Belastung. Mehr Output, aber nicht zwingend bessere Ergebnisse.

Das liegt an einem strukturellen Problem: KI nimmt uns die Ausführung ab, nicht das Urteil. Wer einen KI-generierten Bericht weiterleitet, ohne ihn inhaltlich zu prüfen, delegiert nicht Arbeit – er delegiert Verantwortung. Und das fällt früher oder später auf.

Was ist AI Slop – und warum ist es ein Führungsthema?

Der Begriff „AI Slop" beschreibt Inhalte, die formal einwandfrei aussehen, aber substanzlos sind. Texte ohne echte Analyse. Präsentationen ohne Haltung. Empfehlungen ohne Kontextwissen.

Das Problem entsteht nicht durch die KI. Es entsteht durch den Umgang damit. Wenn Teams lernen, dass Geschwindigkeit belohnt wird und Tiefe nicht gefragt ist, produzieren sie das, was schnell geht. KI macht das nur effizienter.

Für Führungskräfte bedeutet das: Wer AI Slop in seinem Unternehmen sieht, schaut auf ein Symptom – nicht auf ein Technologieproblem. Die eigentliche Frage ist: Welche Qualitätsstandards gelten, und wer setzt sie durch?

Peter Drucker hat das Kernproblem bereits ohne KI beschrieben: Führung bedeutet, die richtigen Dinge zu tun – nicht, Dinge schneller zu tun. Wenn KI primär dazu eingesetzt wird, Tempo zu erhöhen, ohne die Frage nach Relevanz und Qualität zu stellen, ist das ein Führungsproblem, kein Technologieproblem.

Was ist Brain Fry – und was hat KI damit zu tun?

Kognitive Erschöpfung ist nicht neu. Aber KI verändert, wie sie entsteht. Früher war Erschöpfung oft das Ergebnis von zu viel Arbeit. Heute entsteht sie zunehmend durch zu viele Entscheidungen bei scheinbar weniger Arbeit.

Wenn KI Entwürfe liefert, muss jemand entscheiden: Nehmen wir das? Ändern wir es? Ist das gut genug? Diese Entscheidungen summieren sich. Und sie sind anspruchsvoller als das bloße Ausführen einer Aufgabe, weil sie Urteilsvermögen erfordern.

Eine BCG-Studie (Bedard, Kropp, Hsu, Karaman et al., 2026) mit rund 1.488 Befragten zeigt: 14 Prozent der Wissensarbeitenden berichten von Brain Fry – definiert als mentale Erschöpfung durch exzessive Nutzung oder Überwachung von KI-Tools jenseits der eigenen kognitiven Kapazität. In Marketing- und Operations-Rollen liegt der Anteil bei über 25 Prozent. Betroffene machen 39 Prozent mehr gravierende Fehler und zeigen eine nahezu 10 Prozent höhere Kündigungsbereitschaft. Besonders aufschlussreich: Gerade Hochleister, die am intensivsten mit KI-Tools arbeiten, sind überproportional betroffen.

Laut einer Untersuchung von Mark, Gudith und Klocke (University of California, Irvine, 2008) benötigt das menschliche Gehirn nach einer Unterbrechung im Schnitt 23 Minuten, um wieder vollständig konzentriert zu arbeiten. KI-Tools, die permanent Vorschläge, Zusammenfassungen und Alternativen liefern, sind eine kontinuierliche Unterbrechungsquelle – auch wenn sie produktiv wirken.

Das ist kein Argument gegen KI. Es ist ein Argument dafür, den Einsatz von KI bewusst zu gestalten statt ungeplant wachsen zu lassen.

Welche Konsequenzen hat das für Führung?

Wenn KI die Ausführung übernimmt und Menschen das Urteil behalten, verschiebt sich, was Führung leisten muss. Drei Verschiebungen sind besonders relevant:

1. Von Prozesssteuerung zu Qualitätsurteil

Führungskräfte müssen seltener steuern, wie etwas gemacht wird – und häufiger beurteilen, ob das Ergebnis gut genug ist. Das setzt voraus, dass sie selbst ein klares Bild von Qualität haben. Nicht als abstraktes Ideal, sondern als konkreten Standard: Was ist hier gut? Was reicht nicht?

Fredmund Malik hat das als Ergebnisorientierung beschrieben – die Fähigkeit, Leistung an Wirkung zu messen, nicht an Aktivität. Diese Fähigkeit wird mit KI wichtiger, nicht unwichtiger.

2. Von Aufgabenverteilung zu Kontextgabe

KI kann Aufgaben ausführen, aber keinen Kontext verstehen. Was in diesem Unternehmen, in dieser Situation, mit diesen Kunden zählt – das muss die Führungskraft vermitteln. Nicht einmal, sondern kontinuierlich.

Teams, die KI produktiv einsetzen, berichten regelmäßig, dass die Qualität der KI-Ergebnisse stark davon abhängt, wie präzise der Kontext formuliert wurde. Das ist eine Führungsaufgabe: Klarheit über Ziel, Rahmen und Qualitätsmaßstab zu schaffen – bevor die KI anfängt.

3. Von Kontrolle zu psychologischer Sicherheit

Amy Edmondson hat gezeigt, dass Teams in Umgebungen mit hoher psychologischer Sicherheit besser lernen und bessere Ergebnisse erzielen. Das gilt auch für den Umgang mit KI.

Wenn Mitarbeitende Angst haben, zuzugeben, dass ein KI-generiertes Ergebnis nicht gut ist – weil Tempo belohnt wird und Kritik als Bremse gilt – entsteht AI Slop als organisationale Norm. Führungskräfte, die psychologische Sicherheit schaffen, ermöglichen, dass Teams offen sagen: „Das reicht nicht. Wir müssen nacharbeiten."

Was sollten Führungskräfte konkret anders machen?

Drei Ansätze, diein der Praxis einen Unterschied machen:

  • Qualitätsstandards explizit machen. Nicht „macht das mit KI", sondern: „Das ist das Ergebnis, das wir brauchen – und daran messen wir es." KI ist ein Werkzeug auf dem Weg dorthin, kein Maßstab.
  • Kognitive Puffer einplanen. Teams brauchen Zeit, um KI-Ergebnisse zu prüfen, einzuordnen und zu entscheiden. Wer diese Zeit nicht einplant, erzeugt Brain Fry – und bekommt AI Slop als Ergebnis.
  • Den eigenen KI-Einsatz reflektieren. Führungskräfte, die selbst unkritisch KI-generierte Inhalte weitergeben, setzen implizit einen Standard. Das Signal ist stärker als jede Anweisung.

Was bedeutet das systemisch?

Brain Fry und AI Slop sind keine individuellen Probleme. Sie entstehen in Systemen – in Organisationen, die KI eingeführt haben, ohne die Rahmenbedingungen anzupassen.

Aus der Perspektive des St. Galler Management-Modells ist das eine Frage der Gestaltung: Welche Strukturen, Prozesse und Kulturnormen brauchen wir, damit KI tatsächlich zur Wirksamkeit beiträgt – und nicht nur zur Beschleunigung von Mittelmäßigkeit?

Das ist keine philosophische Frage. Es ist eine operative. Und sie gehört auf die Agenda jeder Führungskraft, die KI ernsthaft nutzen will.

Häufige Fragen

Was ist der Unterschied zwischen produktivem KI-Einsatz und AI Slop?

Produktiver KI-Einsatz bedeutet, dass das Ergebnis nach menschlichem Urteil besser ist als ohne KI – inhaltlich, nicht nur schneller. AI Slop entsteht, wenn das Urteil fehlt oder weggelassen wird, weil Tempo wichtiger erscheint als Qualität. Der Unterschied liegt nicht im Werkzeug, sondern im Führungsrahmen drumherum.

Wie erkenne ich Brain Fry in meinem Team?

Typische Anzeichen: Mitarbeitende berichten von Erschöpfung trotz formal gesunkener Aufgabenlast, Entscheidungen werden zunehmend aufgeschoben oder delegiert, die Qualität von Arbeitsergebnissen schwankt stärker als früher. Wenn Teams gleichzeitig mehr produzieren und weniger zufrieden sind, lohnt sich eine genauere Analyse der kognitiven Belastung.

Wie setze ich Qualitätsstandards für KI-gestützte Arbeit?

Beginnen Sie mit dem Ergebnis, nicht mit dem Prozess. Definieren Sie, was ein gutes Ergebnis in Ihrem Kontext ausmacht – konkret und nachvollziehbar. Dann klären Sie, welche Rolle KI auf dem Weg dorthin spielen kann und wo menschliches Urteil zwingend ist. Diese Klarheit schützt vor AI Slop und reduziert kognitive Überlastung.

Muss ich als Führungskraft KI selbst intensiv nutzen, um das Thema führen zu können?

Nicht zwingend intensiv – aber informiert. Führungskräfte, die KI-Werkzeuge nie selbst ausprobiert haben, können die Möglichkeiten und Grenzen schwer beurteilen. Ein pragmatischer Einstieg reicht: Nutzen Sie KI für eine konkrete Aufgabe aus Ihrem Alltag und prüfen Sie das Ergebnis kritisch. Das schärft das Urteilsvermögen mehr als jedes Seminar.

Ist das Thema für den Mittelstand relevant oder eher für Großunternehmen?

Besonders für den Mittelstand. Dort fehlen häufig die Ressourcen für dedizierte KI-Teams oder umfangreiche Governance-Strukturen. Führungskräfte übernehmen deshalb direkt die Verantwortung für den Rahmen, in dem KI eingesetzt wird – und müssen das bewusst tun. Wer das dem Zufall überlässt, bekommt Brain Fry und AI Slop als Standardzustand.


Quellen

  • Bedard, J., Kropp, M., Hsu, M., Karaman, O. et al. (2026). When using AI leads to 'brain fry'. Harvard Business Review / Boston Consulting Group. https://hbr.org/2026/03/when-using-ai-leads-to-brain-fry
  • Microsoft & LinkedIn (2024). Work Trend Index 2024: The State of AI at Work. Microsoft Corporation. https://news.microsoft.com/source/2024/05/08/microsoft-and-linkedin-release-the-2024-work-trend-index/
  • Mark, G., Gudith, D. & Klocke, U. (2008). The Cost of Interrupted Work: More Speed and Stress. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '08). https://www.researchgate.net/publication/221518077
  • van Rooij, I. (2025). AI slop and the destruction of knowledge. Zenodo. https://doi.org/10.5281/zenodo.16905560
  • Lee, H.-P., Sarkar, A., Tankelevitch, L. et al. (2025). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects from a Survey of Knowledge Workers. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI 2025). Microsoft Research & Carnegie Mellon University. https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking/
  • Edmondson, A. C. (1999). Psychological Safety and Learning Behavior in Work Teams. Administrative Science Quarterly, 44(2), 350–383.
  • Malik, F. (2006). Führen – Leisten – Leben. Frankfurt am Main: Campus Verlag.
  • Dunkhase, D. (2026). Was wir in der Führung verlernen müssen. Wirtschaftsinformatik & Management, Springer Nature. https://rdcu.be/eXVVt

Sie beschäftigen sich mit der Frage, wie KI-Einsatz in Ihrem Unternehmen wirksam geführt werden kann? Sprechen Sie mich an.

Cookie-Einstellungen