Wenn Stefan Müller E-Mails liest, begegnet ihm eine Formulierung immer häufiger: „Ich hoffe, diese E-Mail findet Sie wohlauf.“ Dann weiß der auf Künstliche Intelligenz (KI) spezialisierte Trainer und Dozent sofort: Diese Mail wurde nicht von einem Menschen geschrieben.
Denn bei der Formulierung handelt es sich um eine wörtliche Übersetzung der englischen Höflichkeitsfloskel „I hope this email finds you well.“ Für die existiert im Deutschen kein passendes Äquivalent. Einige amerikanisch geprägte KI-Sprachmodelle verwenden sie trotzdem. Und viele deutsche Nutzer übernehmen KI-generierte Texte ohne weitere Überarbeitung.
Was wie eine kleine Stilfrage wirkt, ist Teil eines größeren Problems: KI-Systeme produzieren neben Mails an Kunden oder Kolleginnen optisch ansprechende Präsentationen und sprachlich geschliffene Strategiepapiere. Auf den ersten Blick wirken sie professionell und fundiert. Doch wer genauer hinschaut, entdeckt Lücken, Ungereimtheiten und Fehler.
In der Fachwelt hat sich für derlei oberflächliche KI-Inhalte ein Begriff durchgesetzt: „AI Slop“, zu Deutsch etwa: „KI-Brei“. Im Arbeitskontext spricht man auch von „AI Workslop“: KI-generierte Inhalte, die so substanzlos sind, dass sie Mehrarbeit erzeugen und Produktivität kosten.
Dabei war das Versprechen der Tech-Konzerne ein ganz anderes: KI sollte die Arbeitswelt produktiver und effizienter machen – entlasten, statt mehr Arbeit schaffen. Stattdessen werden Unternehmen und Beschäftigte mit schlechten Inhalten überflutet. Wie können Führungskräfte diesen Trend umkehren?
Müller schult Beschäftigte in Konzernen wie Thyssenkrupp oder Motel One, aber auch in kleinen und mittleren Unternehmen und in öffentlichen Verwaltungen im Umgang mit KI. Er sieht eine grundlegende Ursache für die zunehmende Menge an „KI-Schrott“ in Unternehmen darin, dass viele Mitarbeiter keinen Zugang zu leistungsfähigen KI-Tools bekommen. Die Folge: Mitarbeiter nutzen auf ihrem privaten Rechner oder Smartphone kostenlose Versionen von KI-Tools. „Das führt zu schlechteren Ergebnissen“, sagt Müller.
Die lizenzierten, kostenpflichtigen Sprachmodelle von ChatGPT, Perplexity oder Gemini recherchieren länger und gründlicher. „Sie halluzinieren weniger, geben verlässlichere Informationen aus und können eine fachliche Tiefe erreichen, mit der man wirklich etwas anfangen kann“, sagt Müller. In vielen Unternehmen erhielt jedoch nur eine kleine Minderheit der Mitarbeiter die Freigabe, kostenpflichtige KI-Tools zu nutzen.
Doch auch die großen Sprachmodelle sind nicht darauf trainiert, Exzellenz zu produzieren, sondern geben lediglich Durchschnittswissen plausibel wieder. Nina Kataeva ist KI-Expertin und Partnerin bei der Boston Consulting Group (BCG). „Ohne menschliche Überprüfung und Anreicherung entstehen Inhalte, die auf Mittelmaß geeicht sind“, sagt sie.
Umso entscheidender wäre es, dass Unternehmen ihre Mitarbeiter darin schulen, KI-Ergebnisse kritisch zu prüfen – und klar festlegen, in welchen Situationen Mittelmaß akzeptabel ist und wo es riskant wird. Allerdings vernachlässigen viele die Weiterbildung ihrer Beschäftigten: Einer repräsentativen Umfrage des Digitalverbands Bitkom zufolge hat nur ein Fünftel der Erwerbstätigen ab 16 Jahren bereits an einer Fortbildung zu KI teilgenommen.
Das führt dazu, dass viele Anwender KI eher oberflächlich nutzen, sagt BCG-Partnerin Kataeva. Prompting, also die Formulierung von Anweisungen an ein KI-Tool, werde als „bloße Tipperei, nicht als Denkprozess“ verstanden. „Fehlende Kompetenz auf diesem Gebiet führt fast zwangsläufig zu schwachem Output“, sagt Kataeva.
Doch die Ursachen für AI Workslop gehen noch tiefer. „In vielen Unternehmen sind Qualitätsstandards nicht klar definiert“, sagt KI-Trainer Müller. Wenn Führungskräfte Druck ausüben und Ergebnisse schnell sehen wollen, aber gleichzeitig keine Qualitätsmaßstäbe formulieren, entsteht „Schein-Output“: schnell zusammengeschriebene Dokumente, die den drängelnden Chef erst mal zufriedenstellen sollen. „Mit KI lassen sich Scheinergebnisse schneller und mit weniger Ressourcenaufwand produzieren“, sagt Müller.
Die Auswirkungen sind nicht zu unterschätzen, wie eine Studie der Coaching-Plattform BetterUp in Kooperation mit dem Social Media Lab der Universität Stanford nahelegt. Die Forscher befragten mehr als 1000 Beschäftigte in den USA zu ihren Erfahrungen mit AI-Workslop. 40 Prozent berichteten, dass sie bereits KI-Schrott von Kollegen, Vorgesetzten oder Mitarbeitern erhalten hatten. Im Schnitt kostete es sie eine Stunde und 56 Minuten, die schlechten KI-generierten Inhalte zu überarbeiten.
Wird dieser Zeitaufwand mit den angegebenen Gehältern der Befragten verrechnet, entstehen monatliche Produktivitätsverluste von 186 Dollar pro betroffenem Mitarbeiter. Für ein Unternehmen mit 10.000 Mitarbeitern ergibt sich daraus ein Produktivitätsverlust von mehr als neun Millionen Dollar pro Jahr, berechneten die Forscher.
Noch schwerwiegender als der finanzielle Schaden dürfte allerdings der Reputations- und Vertrauensverlust sein: Etwa die Hälfte der Mitarbeiter, die Workslop von ihren Kollegen erhielten, gaben an, dass sie den Absender als weniger kreativ, kompetent und zuverlässig empfanden. Fast jeder dritte sagte, dass er künftig weniger bereit wäre, wieder mit dieser Person zusammenzuarbeiten.
Um solche Folgen zu verhindern, sollten Führungskräfte für den Umgang mit KI klare Qualitätsstandards definieren, menschliche Prüfung verbindlich machen und ihre Teams gezielt weiterbilden, rät BCG-Beraterin Kataeva: „Entscheidend ist, dass KI-Outputs nie als fertige Ergebnisse gelten, sondern als Rohmaterial, das kritisch bewertet und fachlich ergänzt werden muss.“
KI-Trainer Müller denkt, dass viele Führungskräfte die Tragweite der rasanten KI-Entwicklung noch unterschätzen. Denn der nächste Entwicklungsschritt dürften KI-Agenten sein, die Nutzer anweisen können, etwas zu erledigen, während sie selbst etwas anderes tun. „Diese Agenten anzuweisen ist letztlich eine Führungsaufgabe, die auf viele Menschen zukommt, die bislang gar nicht gewohnt sind, Aufgaben an andere zu delegieren“, sagt Müller.
Beschäftigte bräuchten also nicht nur Technologiekompetenz und Richtlinien zum Umgang mit KI, sondern sollten auch früher in Führungskompetenzen wie Delegation geschult werden.
Laut Kataeva sollten Führungskräfte Prozesse so gestalten, dass Qualität vor Geschwindigkeit steht – etwa durch strukturierte Feedback-Schleifen. Vor allem aber sollten sie eine Kultur fördern, in der kritisches Denken, Kontextwissen und Verantwortungsbewusstsein zentral bleiben – „damit KI nicht massenhaft sinnlose Inhalte produziert, sondern zu echter Wertschöpfung beiträgt“.
Mehr: Sieben Gründe, warum KI-Projekte in Unternehmen scheitern