
Der Aufstieg von “KI Slop” und “Brainrot”: Eine tiefgreifende Analyse der globalen Flut KI-generierter Inhalte
Einleitung: Der Paradigmenwechsel in der digitalen Aufmerksamkeitsökonomie
Die digitale Informationslandschaft durchläuft gegenwärtig eine der weitreichendsten und folgenreichsten Transformationen seit der Erfindung des World Wide Web und der Etablierung sozialer Netzwerke. Mit der rasanten Kommerzialisierung, der enormen Skalierung und der breiten öffentlichen Verfügbarkeit hochleistungsfähiger generativer Künstlicher Intelligenz (KI) haben sich die fundamentalen Produktionsbedingungen für mediale Inhalte radikal gewandelt. Insbesondere durch den Durchbruch fortschrittlicher Text-zu-Video-Modelle, wie beispielsweise OpenAI’s “Sora” und Google’s “Veo”, wurde die technologische Eintrittsbarriere für die Erstellung von Bewegtbildern nahezu vollständig eliminiert.1 Was ursprünglich in der Technologiebranche als historischer Meilenstein der kreativen Ermächtigung und der Demokratisierung von Produktionsmitteln gefeiert wurde, hat in der praktischen Anwendung zu unbeabsichtigten, hochgradig problematischen Nebenwirkungen geführt.
Anstatt einer Renaissance menschlicher Kreativität erleben wir aktuell eine beispiellose Schwemme von qualitativ minderwertigen, massenhaft und automatisiert erstellten Inhalten.2 Diese künstliche Informationsflut überschwemmt globale Plattformen wie YouTube in einem Tempo, das herkömmliche Moderationssysteme und die kognitiven Verarbeitungskapazitäten der Konsumenten gleichermaßen überfordert. Die Relevanz dieses Themas beschränkt sich längst nicht mehr auf Nischen der Netzkultur; es ist zu einem zentralen strukturellen Problem des globalen Internets herangewachsen. Ein kritischer Wendepunkt (Tipping Point) wurde bereits im Mai des Jahres 2025 erreicht: Zu diesem Zeitpunkt überstieg der prozentuale Anteil der vollständig durch KI generierten Artikel im gesamten frei zugänglichen Web die Marke von 50 Prozent.1 Das Internet besteht seither zu mehr als der Hälfte aus maschinell erzeugten Texten, was weitreichende Konsequenzen für die Informationsqualität, die Suchmaschinenarchitektur und das gesellschaftliche Vertrauen hat.
Der vorliegende Bericht liefert eine erschöpfende, datengetriebene Analyse dieses Phänomens, das in der Fachwelt, von Branchenbeobachtern und zunehmend auch in der breiten Öffentlichkeit unter dem Begriff “AI Slop” (zu Deutsch etwa: KI-Massenware oder KI-Schlamm) subsumiert wird. Die empirische Grundlage dieser Ausarbeitung bildet primär der richtungsweisende “AI Slop Report” des Videobearbeitungsunternehmens Kapwing aus dem späten Jahr 2025, ergänzt durch fortlaufende Marktdaten, mediale Untersuchungen und offizielle Plattformpublikationen bis Anfang des Jahres 2026.2
Diese Untersuchung zielt darauf ab, die komplexen Mechanismen hinter der globalen Ausbreitung dieser Inhalte zu dekonstruieren. Sie beleuchtet die quantitativen Ausmaße der Content-Flut, durchdringt die zugrundeliegenden ökonomischen Anreizstrukturen, die dieses Verhalten erst profitabel machen, und analysiert die weitreichenden psychologischen Auswirkungen auf die Konsumenten. Darüber hinaus werden die massiven technologischen, algorithmischen und regulatorischen Gegenmaßnahmen der Plattformbetreiber sowie aktuelle legislative Vorstöße detailliert nachgezeichnet. Ziel ist es, auch für den juristischen oder technischen Laien ein tiefes Verständnis dafür zu schaffen, wie algorithmische Kuratierung, automatisierte Massenproduktion und menschliche Kognition in der modernen Plattformökonomie ineinandergreifen.
Terminologische Grundlagen und konzeptionelle Abgrenzung
Um die rasante Dynamik und die spezifischen Gefahren der aktuellen Inhaltsflut präzise analysieren und bewerten zu können, bedarf es zunächst einer trennscharfen Definition der zentralen Begrifflichkeiten. Das Vokabular zur Beschreibung digitaler Phänomene entwickelt sich parallel zur Technologie weiter. Der Kapwing-Bericht sowie der begleitende Branchendiskurs unterscheiden hierbei spezifische Kategorien, die unterschiedliche Facetten, Produktionsmethoden und psychologische Wirkungsweisen des Problems adressieren.2
KI Slop (KI-Massenware)
Der Begriff “KI Slop” bzw. “AI Slop” ist das fundamentale Konzept dieser Entwicklung. Er beschreibt achtlos, hastig und mit dem geringstmöglichen menschlichen Aufwand produzierte Inhalte, die vollständig oder ganz überwiegend durch automatisierte Computeranwendungen und generative KI-Modelle generiert wurden.2 Der entscheidende Unterschied zwischen KI Slop und legitimen, durch KI unterstützten kreativen Werken liegt in der Intentionalität. Bei legitimer Kunst dient die Technologie als Werkzeug zur Umsetzung einer spezifischen menschlichen Vision. Beim KI Slop fehlt jeglicher originäre Schöpfungsgedanke, jede redaktionelle Sorgfalt und jeder künstlerische Anspruch.
Der primäre und oft einzige Zweck dieser Inhalte besteht in der Ausnutzung und Manipulation der algorithmischen Empfehlungssysteme sozialer Netzwerke.2 Es geht ausschließlich darum, massenhaft Aufrufe (Views) und Abonnements zu “farmen”, um Werbeeinnahmen zu generieren.2 Darüber hinaus hat sich KI Slop als ein äußerst effizientes Werkzeug für weitreichendere Agenden erwiesen: Er wird gezielt eingesetzt, um politische Meinungsbildungsprozesse zu beeinflussen, indem massenhaft synthetische, oft polarisierende oder desinformative Narrative in den digitalen Diskurs eingespeist und durch die schiere Masse künstlich verstärkt werden.2
Brainrot (Mentale Erosion)
Während “AI Slop” primär die technische Produktionsmethode und die mangelnde Sorgfalt fokussiert, beschreibt der Begriff “Brainrot” (wörtlich: Gehirnfäule) die inhaltliche und vor allem die psychologische Dimension bestimmter digitaler Formate. Es handelt sich hierbei um zwanghaft konsumierbare, inhaltlich völlig unsinnige und qualitativ extrem minderwertige Videos.1
Der Begriff leitet sich direkt von dem subjektiv beobachtbaren und von Nutzern oft selbst berichteten Effekt ab, den dieser Content auf den Zuschauer hat: Er erzeugt das Gefühl einer mentalen “Korrosion” oder eines Verfalls des geistigen und intellektuellen Zustands während und unmittelbar nach dem Konsum.1 Brainrot-Inhalte sind extrem reizstark konzipiert. Sie setzen auf schnelle, oft unzusammenhängende Bildschnitte, absurde audio-visuelle Kombinationen, grelle Farben und übersteuerte Toneffekte. Sie zielen ausschließlich auf die unmittelbare und kontinuierliche Ausschüttung von Dopamin im Gehirn ab, um den Nutzer im Feed festzuhalten, ohne dabei auch nur den geringsten kognitiven, narrativen oder edukativen Nährwert zu bieten. Bemerkenswert ist, dass Brainrot zwar häufig, aber nicht zwingend ausschließlich mit generativer KI erstellt wird.2 Die toxische Synergie entsteht jedoch genau an der Schnittstelle: Die Kombination aus vollautomatisierter KI-Produktion und den hochgradig suchterzeugenden Konzepten des Brainrot stellt die aktuell größte Bedrohung für die Informationsgesundheit im Netz dar.2 Ein prominentes Beispiel für das Vordringen dieses Phänomens in etablierte Gaming-Kulturen sind etwa die Kontroversen innerhalb der Roblox-Community, bei denen es unter dem Schlagwort “Steal a Brainrot” bereits zu weitreichenden Urheberrechtsstreitigkeiten bezüglich dieser absurden Inhaltsformen kam.1
Der “Slopper” als neuer Akteur
Als treibende Kraft und Akteur hinter dieser massenhaften Inhaltsverschmutzung wurde der Neologismus des “Sloppers” geprägt.2 Ein Slopper ist ein Produzent von KI Slop. Diese Personen zeichnen sich durch eine absolute, oft ausschließliche Überabhängigkeit von generativen KI-Werkzeugen wie Text-Generatoren (z.B. ChatGPT), Bild-Generatoren oder eben den neuen Video-KI-Modellen aus.2
Der Slopper versteht sich selbst in den seltensten Fällen als klassischer “Content Creator” oder Kulturschaffender. Vielmehr agiert er als eine Art digitaler Arbitrageur oder Fließbandarbeiter der Aufmerksamkeitsökonomie. Er nutzt die immense Asymmetrie zwischen den auf nahezu null gesunkenen Produktionskosten durch KI und den potenziell hohen Monetarisierungsgewinnen durch Werbeeinnahmen gnadenlos aus.2 Das Geschäftsmodell des Sloppers basiert nicht auf der Qualität des einzelnen Videos, sondern auf der puren Quantität der Uploads und der statistischen Wahrscheinlichkeit, dass der Algorithmus einige dieser Videos aufgreift und viral verbreitet.
Workslop (Der korporative und professionelle Ableger)
Das Phänomen der KI-Massenware beschränkt sich keineswegs nur auf Unterhaltungsplattformen und Videonetzwerke. Ein beunruhigender Zweiteffekt ist das Überschwappen dieser Automatisierungsmentalität in die professionelle Arbeitswelt und die Unternehmenskommunikation, was unter dem Begriff “Workslop” zusammengefasst wird.1
Hierbei handelt es sich um KI-generierte Arbeitsinhalte – seien es ausufernde Berichte, zusammenfassende E-Mails, Präsentationen oder Strategiepapiere –, die lediglich den Anschein produktiver Arbeit erwecken (“masquerades as good work”).1 Bei genauerer Betrachtung fehlt diesen Dokumenten jedoch jegliche intellektuelle Substanz, tiefergehende Analyse oder spezifische Relevanz, um eine bestimmte Aufgabe oder ein Projekt sinnvoll voranzubringen.1 Das Ausmaß dieses Problems in der Geschäftswelt ist beträchtlich: Laut Erhebungen aus dem Jahr 2025 haben bereits vier von zehn Arbeitnehmern (40 Prozent) in den USA derartiges Workslop-Material im beruflichen Kontext erhalten.1 Besonders hart getroffen von dieser Flut an bedeutungsloser, algorithmisch generierter Unternehmenskommunikation sind wissensintensive Sektoren wie die IT-Branche und das Consulting-Wesen, in denen die Textproduktion traditionell einen hohen Stellenwert einnimmt.1 Das Resultat ist ein Produktivitätsparadoxon: Mitarbeiter nutzen KI, um Texte zu generieren, die wiederum von anderen Mitarbeitern mithilfe von KI zusammengefasst werden, ohne dass dabei ein echter menschlicher Erkenntnisgewinn stattfindet.
Methodik der empirischen Erhebung: Die Sichtbarmachung der Algorithmen
Die empirische Basis für das Verständnis dieses globalen Phänomens auf Videoplattformen liefert das groß angelegte, mehrstufige Forschungsdesign des Videobearbeitungsunternehmens Kapwing, dessen Datenerhebung im Spätjahr (Oktober und November) 2025 abgeschlossen wurde.2 Um ein unverfälschtes, objektives Bild der tatsächlichen Plattformdynamik zu zeichnen, wurde eine Methodik angewandt, die makroskopische statistische Metriken mit mikroskopischen, nutzerzentrierten Erfahrungswerten kombiniert.
Makroskopische Analyse: Die globalen Top-Kanäle
In einem ersten Schritt stützte sich die Untersuchung auf die systematische Auswertung von 15.000 der weltweit populärsten YouTube-Kanäle.5 Die Forscher identifizierten mithilfe der spezialisierten Analysedatenbank playboard.co die Top 100 der aktuell trendenden YouTube-Kanäle in jedem erfassten Land.2 Diese riesige Datenmenge wurde anschließend manuell und algorithmisch daraufhin gefiltert und isoliert, welche dieser wachstumsstarken Kanäle primär auf die Produktion von KI Slop ausgerichtet sind.2
Sobald das globale Netzwerk an Slop-Produzenten identifiziert war, wurden in einem zweiten Schritt über den renommierten Statistik-Dienst socialblade.com detaillierte Leistungskennzahlen extrahiert. Dazu gehörten die kumulierten Aufrufzahlen, die genauen Abonnentenbestände und die geschätzten jährlichen Werbeeinnahmen (Revenue) dieser spezifischen Kanäle.2 Dieser Ansatz ermöglichte es, die rein finanziellen Anreize zu quantifizieren, die diese Schattenökonomie antreiben.
Mikroskopische Analyse: Die “Cold Start”-Simulation für neue Nutzer
Die rein statistische Betrachtung von Mega-Kanälen beantwortet jedoch nicht die Frage, wie präsent dieses Material für den durchschnittlichen Alltagskonsumenten tatsächlich ist. Daher führten die Forscher eine hochgradig aufschlussreiche Simulation durch, die als “Neu-Nutzer-Simulation” (New-User Simulation) oder “Cold Start”-Test bezeichnet werden kann.2
Hierfür erstellten die Forscher einen komplett neuen, unbelasteten YouTube-Account.2 Ein solcher Account verfügt über keinerlei historische Such- oder Wiedergabeverläufe, keine abonnierten Kanäle und keine demografischen Präferenzen. Der Empfehlungsalgorithmus der Plattform muss bei einem solchen Account auf seine grundlegenden Standard-Kuratierungsparameter zurückgreifen, um Inhalte vorzuschlagen. Die Tester begaben sich mit diesem neutralen Account in den “YouTube Shorts”-Feed – das vertikale, auf schnelle Swipes ausgelegte Kurzvideo-Format der Plattform, das als primärer Wachstumstreiber gilt.
Anschließend konsumierten und dokumentierten die Forscher systematisch die ersten 500 YouTube Shorts, die der Algorithmus in den initialen Feed spülte.1 Jedes dieser 500 Videos wurde analysiert und kategorisiert, um die tatsächliche Durchdringung (Feed Density) und die Prävalenz von Slop und Brainrot aufzuzeichnen.2 Diese Methodik ist in der Medienforschung von unschätzbarem Wert, da sie die “Black Box” des Empfehlungsalgorithmus zwingt, seine grundlegenden Prioritäten offenzulegen, bevor er das Verhalten des Nutzers erlernen und personalisieren kann.
Quantitative Befunde: Das globale Ausmaß der Inhaltsflut
Die Ergebnisse dieser umfassenden Untersuchung, flankiert von weiteren unabhängigen Analysen, offenbaren ein erschütterndes Zustandsbild über die Integrität der weltweit größten Videoplattform. Sie demonstrieren unmissverständlich, dass KI Slop kein temporäres Randphänomen ist, sondern den Kern des algorithmischen Empfehlungssystems in einem Ausmaß durchdrungen hat, das die Sinnhaftigkeit der Inhaltsentdeckung fundamental in Frage stellt.
Die Algorithmische Prävalenz: Ergebnisse des Feed-Tests
Die Ergebnisse der “Cold Start”-Simulation für neue Nutzer lieferten die wohl prägnantesten und alarmierendsten Kennzahlen zur Dichte von minderwertigen Inhalten im alltäglichen Konsum.
Von den 500 systematisch getesteten YouTube Shorts wurden 104 Videos – das entspricht exakt 21 Prozent – als eindeutig KI-generierter Slop identifiziert.1 Mehr als jedes fünfte Video, das der unvoreingenommene Algorithmus einem neuen Konsumenten empfiehlt, stammt demnach aus automatisierten, nicht-menschlichen Produktionspipelines.3
Noch drastischer fiel die inhaltlich-psychologische Bewertung aus: 165 der 500 untersuchten Kurzvideos (33 Prozent, also jedes dritte Video) erfüllten die Kriterien für die Kategorie “Brainrot” – sie bestanden also aus unsinnigen, reizüberflutenden Inhalten, die nachweislich den mentalen Zustand des Betrachters negativ beeinflussen.1
Diese Befunde wurden durch eine weitreichende, unabhängige Analyse der britischen Tageszeitung The Guardian aus demselben Jahr gestützt und in einen noch größeren Kontext gesetzt. Der Guardian fand heraus, dass von den am schnellsten wachsenden Kanälen auf ganz YouTube fast 10 Prozent reine KI-Slop-Produzenten waren.3 Diese Kanäle rackten trotz wiederholter öffentlicher Beteuerungen der Plattform, gegen “unauthentische Inhalte” vorzugehen, weiterhin zig Millionen von Aufrufen zusammen.3
Geografische Verteilung und globale Konsum-Hotspots
Die Auswertung der 15.000 Top-Kanäle zeigte, dass die Slop-Ökonomie ein wahrhaft globales Phänomen ist.3 Die Kanäle sind weltweit verteilt und werden ebenso global konsumiert. Dennoch ließen sich klare geografische Schwerpunkte und Hotspots identifizieren, die tiefe Rückschlüsse auf lokale Inhaltslücken, technologische Infrastrukturen und kulturelle Konsumgewohnheiten zulassen.
Die folgende Tabelle fasst die primären geografischen Erkenntnisse zusammen, basierend auf den Aufruf- und Abonnentenzahlen der führenden KI-Slop-Kanäle in den jeweiligen Ländern (Stand: Oktober/November 2025):
| Rang | Land | Kumulierte Aufrufe / Abonnenten | Analytische Einordnung und Spezifika |
| 1. | Südkorea | 8,45 Milliarden Aufrufe | Südkorea dominiert den globalen Slop-Konsum absolut. Dies korreliert direkt mit der Tatsache, dass das Land weltweit eine der höchsten Durchdringungsraten für Breitbandinternet, Smartphone-Nutzung und Social-Media-Konsum aufweist.1 |
| 2. | Pakistan | 5,34 Milliarden Aufrufe | Der pakistanische Markt belegt überraschend den zweiten Platz bei den kumulierten Aufrufen. Dies deutet auf eine massive Nutzung von Kurzvideo-Formaten in aufstrebenden digitalen Märkten hin, in denen die Algorithmen leichtes Spiel haben.1 |
| 3. | USA | 3,39 Milliarden Aufrufe | Die Vereinigten Staaten belegen den dritten Platz bei der absoluten Aufrufzahl der Top-Kanäle, stellen aber gleichzeitig den lukrativsten Werbemarkt dar.1 Zudem verzeichnen die USA mit 14,47 Millionen Slop-Abonnenten die dritthöchste Kanal-Bindung weltweit.2 |
| – | Spanien | 20,22 Millionen Abonnenten | Eine Anomalie in den Daten: Während Asien bei den reinen “Views” führt, weist Spanien weltweit die höchste absolute Anzahl an Abonnenten für trendende AI-Slop-Kanäle auf, was auf eine sehr treue Konsumentenbasis hindeutet.2 |
Fallstudien: Die Architektur der Mega-Kanäle
Die bloße Abstraktion der Milliarden-Aufrufe manifestiert sich erst dann in ihrer vollen Absurdität, wenn man die erfolgreichsten Einzelkanäle dieser Untersuchung detailliert betrachtet. Diese “Mega-Kanäle” haben sich auf äußerst spezifische, algorithmisch belohnte Sub-Genres spezialisiert und illustrieren den extremen ökonomischen Erfolg des Slop-Modells.
Die dominantesten Kanäle der Studie lassen sich wie folgt charakterisieren:
| Kanalname (Ursprungsland) | Reichweite (Aufrufe / Subs) | Geschätzter Jahresumsatz | Inhaltlicher Fokus & Besonderheiten |
| Bandar Apna Dost (Indien) | 2,4 Milliarden Aufrufe | $4,25 Millionen | Der weltweit meistgesehene Slop-Kanal der Studie. Er verzeichnete zum Zeitpunkt des Berichts zunächst 2,07 Milliarden Aufrufe und wuchs laut The Guardian kurz darauf auf 2,4 Milliarden an. Ein exemplarisches Beispiel für die Erschließung des riesigen indischen Marktes.2 |
| Three Minutes Wisdom (Südkorea) | 2,02 Milliarden Aufrufe | $4,03 Millionen | Führend im südkoreanischen Raum. Spezialisiert auf das absurde Genre der “fotorealistischen Tierparodien”: Die KI generiert täuschend echtes Filmmaterial von wilden Raubtieren, die in irrealen Szenarien von niedlichen Haustieren besiegt werden.1 |
| Cuentos Facinantes (USA) | 1,28 Mrd. Aufrufe / 5,95 Mio. Subs | $2,66 Millionen | Obwohl in den USA verortet, produzierte dieser Kanal spanischsprachige Inhalte. Er stützte sich stark auf minderwertige, KI-generierte Narrative und Videos rund um das geschützte Anime-Franchise Dragon Ball.1 |
| Pouty Frenchie (Singapur) | 2,0 Milliarden Aufrufe | (Keine Angabe) | Ein besonders kritischer Fall: Dieser Kanal operiert aus Singapur heraus und scheint mit seinen bunten, überreizenden Inhalten gezielt Kleinkinder (“Kids Content”) zu fokussieren, was massive pädagogische Bedenken aufwirft.3 |
Die ökonomischen Mechanismen: Die Arbitrage der Aufmerksamkeit
Um zu verstehen, warum dieses Phänomen innerhalb so kurzer Zeit derart eskalieren und Plattformen überrollen konnte, muss man die fundamentalen ökonomischen Grundregeln plattformbasierter Aufmerksamkeitsmärkte analysieren. Die Verbreitung von KI Slop ist kein Zufall, sondern das direkte Resultat wirtschaftlicher Anreizstrukturen.
Die Rentabilität eines jeden YouTube-Kanals ergibt sich trivialerweise aus der Differenz zwischen den Produktionskosten für ein Video und den Einnahmen, die durch Werbeeinblendungen erzielt werden. Die Werbeeinnahmen werden im Branchenjargon als RPM (Revenue per Mille) gemessen, also den Einnahmen, die der Ersteller pro tausend monetarisierbaren Aufrufen erhält. In der traditionellen, menschengetriebenen Videoproduktion stellen Arbeitszeit, Ausrüstung, Recherche, Drehbucherstellung, Set-Design und Postproduktion einen erheblichen und oft limitierenden Kostenfaktor dar. Ökonomen bezeichnen die Kosten für die Herstellung einer zusätzlichen Einheit als Grenzkosten.
Durch den Einsatz vollautomatisierter generativer KI-Pipelines sinken diese Grenzkosten für die Erstellung eines weiteren Videos effektiv auf einen Wert von nahezu null. Der Slopper muss lediglich geringe Beträge für Rechenleistung, Cloud-Server oder API-Zugänge zu Modellen wie Midjourney oder ChatGPT bezahlen. Wenn die Produktionskosten gegen null tendieren, ändert sich die mathematische Gleichung der Content-Produktion dramatisch. Selbst bei extrem niedrigen Werbeauszahlungen – wie sie im Bereich der YouTube Shorts im Vergleich zu langen Videos üblich sind – bedeutet jeder generierte Aufruf einen reinen Profit.
Die Slopper veranstalten ein gigantisches Zahlen-Spiel (“gaming the system”): Sie nutzen die Neuartigkeit und Geschwindigkeit der KI-Werkzeuge, um astronomische Mengen an Inhalten förmlich am Fließband auszuspucken (“churn out”).2 Dabei machen sie sich das Prinzip des statistischen Gießkannenprinzips zunutze. Wenn ein Slopper tausend automatisiert erstellte Videos hochlädt und 999 davon vom Algorithmus ignoriert werden, reicht ein einziges Video, das viral geht und Millionen von Kurzvideo-Swipes generiert, aus, um die vernachlässigbaren Kosten der gesamten Operation um ein Vielfaches wieder einzuspielen. Sie haben die kalten Skaleneffekte der industriellen Massenproduktion auf den kreativen Sektor übertragen.
Das Dilemma der Werbewirtschaft (Advertiser Devaluation)
Diese Entwicklung stellt die Plattformen jedoch vor ein existenzielles, betriebswirtschaftliches Dilemma.2 Es ist essenziell zu verstehen, dass das Geschäftsmodell von YouTube nicht auf der altruistischen Liebe oder Förderung menschlicher Kulturschaffender basiert.1 Die Kernaufgabe der Plattform besteht darin, die Beziehung zu ihren wahren Kunden zu schützen: den Werbetreibenden (Advertisern).1
Große werbetreibende Unternehmen und multinationale Marken stufen minderwertige Inhalte, absurden Brainrot und generischen Slop zunehmend als sogenannte “Hochrisikoumgebungen” (High-Risk) ein.1 Marken geben Milliarden aus, um ein sauberes, vertrauenswürdiges und positives Image (Brand Safety und Brand Suitability) aufzubauen. Wenn Premium-Marken ihre hochglanzproduzierten Werbeclips plötzlich im direkten Umfeld von sinnfreien, KI-generierten Videos platziert sehen – etwa bei Videos, in denen Riesen die Pyramiden bauen oder Babys in Space Shuttles fliegen –, führt dies zwangsläufig zu einer messbaren Abwertung der Markenwahrnehmung (Advertiser Devaluation).1
Aus diesem Grund präferieren Marketer und Agenturen derzeit eindeutig klassische, längere Formate (Long-form), die nachweislich von Menschen produziert wurden.1 Diese Formate garantieren eine höhere, bewusste Bindung des Zuschauers und ein sichereres, kalkulierbares Werbeumfeld. Die ausufernde Dominanz von AI Slop im Kurzvideo-Bereich gefährdet somit das finanzielle Fundament des gesamten YouTube-Ökosystems, da sie das Vertrauen derjenigen Instanzen untergräbt, die das System mit ihren Werbebudgets überhaupt erst finanzieren.1
Psychologische und gesellschaftliche Implikationen: Die Krise der Kognition
Die Auswirkungen dieser algorithmisch gesteuerten Inhaltsflut erstrecken sich weit über die betriebswirtschaftlichen Kennzahlen von Technologiekonzernen und Werbeagenturen hinaus. Sie greifen tief in die Grundfesten der menschlichen Informationsverarbeitung, der kognitiven Resilienz und der gesellschaftlichen Wahrheitsfindung ein.
Information Exhaustion (Informationserschöpfung)
Der Kapwing-Bericht identifiziert die ausufernde Prävalenz von KI Slop nicht nur als technisches Problem, sondern als direktes Symptom einer globalen, gesellschaftlichen “Informationserschöpfung” (Information Exhaustion).2 Der menschliche Verstand ist evolutionär nicht darauf ausgelegt, die schiere Masse und Frequenz an visuellen und auditiven Reizen zu verarbeiten, die täglich durch endlose Kurzvideo-Feeds auf ihn einströmt. Diese chronische Reizüberflutung erzeugt ein fundamentales, allgegenwärtiges “Informationsrauschen” (Information Noise).2
Je lauter, bunter und schriller dieses Rauschen im Web wird, desto stärker wird paradoxerweise die menschliche Abhängigkeit von eben jenen algorithmischen Filtern, die das Rauschen verursachen.2 Nutzer delegieren ihre kognitive Filter- und Selektionsfähigkeit zunehmend an Maschinen, in der Hoffnung, dass diese die Welt für sie sortieren. Die Tragik dieses Systems liegt jedoch darin, dass die Algorithmen nicht auf “Wahrheit” oder “Qualität” optimiert sind, sondern auf “Verweildauer” (Watch Time) und “Interaktion”. Der Algorithmus füttert den erschöpften Nutzer folglich mit toxischen, aber hochgradig reizvollen Brainrot-Inhalten, die exakt darauf zugeschnitten sind, neurologische Schwachstellen auszunutzen.
Der Wahrheitsillusion-Effekt (Illusory Truth Effect)
Eine der gefährlichsten psychologischen Dynamiken, die durch die Slop-Ökonomie massiv und systematisch skaliert wird, ist der sogenannte Wahrheitsillusion-Effekt (Illusory Truth Effect).2 Dieses gut dokumentierte kognitionspsychologische Phänomen beschreibt die menschliche Tendenz, Aussagen, Behauptungen oder Bildwelten eher als wahr und real zu akzeptieren, je häufiger man ihnen ausgesetzt ist.2 Wiederholung erzeugt Vertrautheit, und das menschliche Gehirn verwechselt Vertrautheit oft unbewusst mit Wahrheit.
Durch die schiere Quantität, mit der generative KI-Modelle Inhalte produzieren können, wird das Internet mit tausenden Variationen synthetischer Narrative geflutet. Die kritische Schwelle der menschlichen Skepsis wird durch dieses visuelle Dauerfeuer allmählich erodiert. Der Kapwing-Bericht warnt explizit davor, dass Menschen durch die wiederholte Konfrontation mit KI-generierten Medien im Feed dazu verleitet werden, die dargestellten Behauptungen oder Bilder für bare Münze zu nehmen.2 Besonders besorgniserregend ist die Erkenntnis, dass dieser Effekt selbst dann eintritt, wenn der Konsument auf einer rationalen Ebene eigentlich weiß, dass der Inhalt fiktiv, “Fake” oder künstlich generiert ist.2 Diese unbewusste kognitive Konditionierung öffnet Tür und Tor für die massenhafte, automatisierte Manipulation politischer Meinungen und die Verzerrung historischer Fakten.2
Die Verdrängung menschlicher Schöpfer und ethische Bedenken
Neben den massiven kognitiven Gefahren ergeben sich fundamentale ethische Probleme für das globale kreative Ökosystem.2 Die algorithmische Bevorzugung von Kanälen, die Inhalte in extrem hoher Frequenz publizieren können, benachteiligt menschliche Content Creator systematisch. Talentierte, prinzipientreue Kulturschaffende, die Zeit, Mühe und finanzielle Ressourcen in originäre Recherche, echte Drehbuchentwicklung und hochwertige Filmproduktion investieren, werden in den Feeds sprichwörtlich unsichtbar.2 Sie können physisch nicht mit der Upload-Frequenz einer vollautomatisierten KI-Pipeline konkurrieren. Das qualitative “Signal” – der hochwertige, von Menschen erdachte Inhalt – wird in dem wuchernden “Rauschen” des KI Slops ertränkt.2
Besonders gravierend sind die Implikationen für die jüngsten und verletzlichsten Zielgruppen. Wenn hochprofitable Kanäle wie das in Singapur ansässige Pouty Frenchie mit über 2 Milliarden Aufrufen gezielt Kinder ins Visier nehmen 3, wächst eine Generation heran, deren primäre mediale Sozialisation durch algorithmisch optimierten Brainrot erfolgt. Dies birgt unkalkulierbare Risiken für die Entwicklung von Aufmerksamkeitsspannen und die Fähigkeit zur kritischen Reflexion.
Plattform-Governance: Die regulatorische und technologische Gegenwehr
Angesichts der drohenden Entwertung ihres Kernprodukts, des massiven Vertrauensverlustes bei den Konsumenten und des wachsenden, existenziellen Unmuts der Werbewirtschaft sahen sich Plattformbetreiber wie YouTube gezwungen, strategisch und weitreichend zu intervenieren. Der Zeitraum zwischen dem Frühjahr 2024 und Anfang 2026 markiert eine Phase intensiver, teilweise drastischer Neukalibrierungen von Richtlinien und technologischer Aufrüstung.1
Die Säuberungswelle: Massenlöschungen und algorithmische Strafen
Bereits beginnend im Frühjahr 2024 startete YouTube damit, seine Nutzerrichtlinien gezielt zu verschärfen, um dem Zustrom der minderwertigen KI-Inhalte – intern oft auch als “Schlock” bezeichnet – Herr zu werden.2 Die Plattform definierte klare rote Linien und implementierte strikte Verbote gegen den Missbrauch abgelaufener Domains (Expired Domain Abuse), den massenhaften Upload von Spam-Inhalten und jegliche Form der Suchmaschinenmanipulation.2
Die Sanktionen für Kanäle, die diese Taktiken anwandten, wurden systematisch verschärft:
- Such- und Sichtbarkeitsstrafen: Konten, die massenhaft Slop produzierten, wurden algorithmisch abgestraft. Ihre Videos wurden häufig automatisch auf “nicht gelistet” gesetzt oder künstlich tief in den Suchergebnissen nach unten gedrückt (“forced lower down the search feed”), um ihnen die virale Reichweite abzuschneiden.2
- Monetarisierungsentzug: Die empfindlichste Strafe betraf den finanziellen Anreiz. YouTube schloss bestehende Schlupflöcher im YouTube Partnerprogramm (YPP). Ein gezieltes Update richtete sich gegen “unauthentische” Videoproduzenten. Durch eine ganzheitliche Bewertung, die sowohl das Inhaltsvolumen als auch die Inhaltsqualität ins Verhältnis setzte, wurde effektiv verhindert, dass KI-Slop-Farmer ihre massenhaft generierten Videos weiterhin monetarisieren konnten.2 Bei Fehlentscheidungen des Systems haben Creator jedoch die Möglichkeit, einen formellen Einspruch (Appeal) einzulegen.8
Diese sukzessive Verschärfung kulminierte Anfang 2026 in einer beispiellosen, radikalen Säuberungsaktion. Laut einem aktualisierten Bericht von Kapwing vom 29. Januar 2026 löschte das von Google betroffene Unternehmen YouTube auf einen Schlag KI-Slop-Videos, die einem historischen Wert von über 4,7 Milliarden Aufrufen entsprachen.4
Von den ursprünglich im Herbst 2025 identifizierten Top 100 Slop-Kanälen wurden 16 Kanäle komplett von der Plattform verbannt oder deren Inhalte wurden vollständig und unwiederbringlich gelöscht.4 Zu den prominentesten Zielen dieser Löschung gehörten der hochprofitable US-Kanal Cuentos Facinantes (mit fast 6 Millionen Abonnenten und über 2,6 Millionen Dollar Umsatz), der zweitplatzierte Kanal Imperiodejesus (Empire of Jesus) sowie der Kanal Super Cat League.4 In der Summe eliminierten diese 16 gelöschten Kanäle eine Reichweite von 35 Millionen Abonnenten, die besagten 4,7 Milliarden lebenslangen Aufrufe und jährliche Werbeeinnahmen von rund 10 Millionen US-Dollar aus dem Ökosystem.4 Diese drastische Maßnahme demonstriert den akuten Handlungsdruck der Plattform.
Transparenz und Kennzeichnung: Das Regime der AI-Tags
Neben der direkten Löschung von bösartigem Spam wählte YouTube den Weg der erzwungenen Transparenz bei legitimen, aber synthetisch erzeugten Inhalten. Am 18. März 2024 führte die Plattform weitreichende Aktualisierungen bezüglich der Kennzeichnungspflicht für KI-generierte Inhalte ein.9
Inhaltsersteller sind seither zwingend verpflichtet, sogenannte “AI-Tags” (Warnhinweise wie “veränderte oder synthetische Inhalte” / “altered or synthetic content”) direkt in ihren Videos zu platzieren, wenn sie Künstliche Intelligenz einsetzen, um Inhalte zu erstellen, die für den Laien realistisch erscheinen könnten.9 Diese Richtlinie greift explizit nicht nur bei der visuellen Darstellung, sondern maßgeblich auch bei Audio-Inhalten. Werden beispielsweise synthetisch generierte Stimmen (Fake Voices) für Voiceover in Originalvideos verwendet oder automatisiertes KI-Dubbing für die massenhafte Synchronisation in Fremdsprachen eingesetzt, muss dies durch den Tag klar deklariert werden.9
Um kreative Arbeitsprozesse nicht unnötig zu behindern, definierte YouTube einen Katalog von Ausnahmen, für die keine Kennzeichnungspflicht gilt. Dazu zählen Prozesse, die keinen irreführenden Charakter aufweisen: KI-gestützte Ideenfindung, das Verfassen von Skripten, der Einsatz von kosmetischen Beauty-Filtern, Farb- und Belichtungskorrekturen, spezielle visuelle Effekte, Unschärfen (Blurring) sowie Tools zur automatischen Videozusammenfassung in den Textbeschreibungen.9 Auch offensichtlich fiktionale Inhalte, wie reine Animationen, die das Publikum nicht über den Realitätsgehalt täuschen können, sind von der Tagging-Pflicht ausgenommen.8 Gleiches gilt für Inhalte, die einen klaren edukativen, dokumentarischen, wissenschaftlichen oder künstlerischen Kontext aufweisen (die sogenannten EDSA-Ausnahmen) oder die im direkten öffentlichen Interesse stehen.8 Eine auffällige Regulierungslücke stellte zumindest in der Anfangsphase die Behandlung von Video-Vorschaubildern (Thumbnails) dar, für die keine zwingende KI-Kennzeichnung verlangt wurde.9
Die Durchsetzung dieser Transparenzregeln erfolgt konsequent und notfalls autoritär: YouTube behält sich vor, das AI-Label automatisch und permanent hinzuzufügen, wenn ein Creator seiner Pflicht nicht nachkommt.9 Dieses vom System vergebene Label kann vom Uploader nicht mehr entfernt werden.9 Bei wiederholter und vorsätzlicher Weigerung zur Transparenz drohen schwerwiegende Konsequenzen, die von der Löschung einzelner Videos bis zum vollständigen Ausschluss aus dem YouTube-Partnerprogramm reichen – was jegliche aktuelle und zukünftige Monetarisierung unterbindet.9
Interessant ist die marktwirtschaftliche Reaktion auf diese Regulierung: Da viele Creator befürchten, dass die AI-Tags potenzielle Zuschauer abschrecken könnten, erleben menschliche Übersetzungs- und Synchronisationsdienste (Human Dubbing) eine massive Aufwertung.9 Sie ermöglichen es Erstellern, die stigmatisierenden Label zu umgehen und gleichzeitig eine authentischere Bindung zum globalen Publikum aufzubauen.9
Identitätsschutz, Content ID und Moderationstechnologien
Ein weiterer hochsensibler Bereich, der weit über die Qualität von Videos hinausgeht, ist der Schutz der digitalen Identität (“Likeness”) von Personen. YouTube führte neue Schutzmechanismen ein, die es Nutzern ermöglichen, die sofortige Entfernung von KI-Inhalten zu beantragen, die ihre Person missbräuchlich imitieren (Impersonation Protections).2 Bei der Beurteilung solcher komplexen Löschanträge wendet YouTube eine rechtliche Abwägung an: Es wird geprüft, ob es sich um legitime Parodie oder Satire handelt, ob die Person zweifelsfrei identifizierbar ist und ob es sich um einen Amtsträger oder eine bekannte Persönlichkeit des öffentlichen Lebens handelt, bei denen die Hürden für eine Löschung aufgrund des Rechts auf freie Meinungsäußerung naturgemäß höher liegen.10
Im Bereich der Musikindustrie ging YouTube noch einen entscheidenden technologischen Schritt weiter. In Zusammenarbeit mit der Branche wurden neue “Likeness Management”-Technologien entwickelt. Über das weltweit bewährte “Content ID”-System wurde eine hochkomplexe Identifikationstechnologie für synthetischen Gesang integriert.10 Diese Technologie erlaubt es Musikpartnern, Labels und Distributoren, die an den frühen KI-Musik-Experimenten der Plattform teilnehmen, automatisch KI-generierte Audioinhalte zu erkennen und deren Entfernung zu beantragen, wenn diese ohne Erlaubnis die einzigartige Sing- oder Rap-Stimme eines echten Künstlers simulieren.10 Ausnahmen bestehen hierbei explizit für die reine Nachrichtenerstattung, akademische Analysen oder kritische Auseinandersetzungen mit den synthetischen Vocals.11 Parallel dazu wurden Werkzeuge für Schauspieler, Creator und Athleten zum Management ihrer visuellen Identität bereitgestellt.10
Die Ironie der gegenwärtigen Situation besteht darin, dass YouTube zur Bekämpfung maschinell erzeugter Inhalte selbst massiv auf Künstliche Intelligenz setzen muss. Die Plattform nutzt eine hybride Kombination aus menschlicher Überprüfung und KI-Klassifikatoren, um potenziell gegen die Richtlinien verstoßende Inhalte in gigantischem Maßstab zu erkennen (Content Moderation at Scale).10 Diese internen KI-Systeme erhöhen kontinuierlich die Geschwindigkeit und Genauigkeit der Moderation, um zu verhindern, dass verbotener Slop eine kritische Masse erreicht, bevor er gelöscht wird.8 Darüber hinaus kooperiert YouTube branchenübergreifend und beteiligt sich an Standards wie dem “Tech Accord on Deceptive AI Election Content” zur Sicherung von Wahlen sowie der C2PA-Initiative zur Herkunftsprüfung von digitalen Inhalten.10
Legislative Maßnahmen und Zukunftsstrategien
Die Plattformbetreiber rüsten technologisch auf, doch sie agieren oft nur reaktiv. YouTube beschränkt sich daher bei der Bekämpfung von Deepfakes und nicht autorisierten digitalen Replikaten nicht mehr nur auf interne Richtlinien, sondern unterstützt aktiv weitreichende externe, legislative Vorstöße.
Im Jahr 2025 positionierte sich das Unternehmen öffentlich und nachdrücklich für den US-amerikanischen “NO FAKES Act of 2025”, ein Gesetzgebungsvorhaben, das von den Senatoren Chris Coons (Demokraten) und Marsha Blackburn (Republikaner) eingebracht wurde.12 Ebenso unterstützt wird der “TAKE IT DOWN Act”.12 Diese Gesetze zielen darauf ab, erstmals klare, verbindliche rechtliche Rahmenbedingungen auf Bundesebene zu schaffen, um Individuen vor dem Schaden zu schützen, der durch nicht autorisierte digitale Replikate entsteht – also KI-generierte Inhalte, die fälschlicherweise das Bild oder die Stimme einer realen Person simulieren, um in die Irre zu führen.12 Bei diesen rechtlichen Vorstößen arbeitet YouTube eng mit den Schwergewichten der Unterhaltungsindustrie zusammen, insbesondere der Recording Industry Association of America (RIAA) und der Motion Picture Association (MPA), um den Schutz geistigen Eigentums im KI-Zeitalter neu zu definieren.12
Trotz dieser Bemühungen bleibt ein fundamentales Restrisiko. Kritiker und Marktbeobachter merken an, dass YouTube KI-generierte Inhalte weiterhin grundsätzlich zulässt, solange die Accounts diese nicht extrem und offensichtlich als Spam hochladen.2 Die Befürchtung bleibt bestehen, dass die Plattform ihre strengen Richtlinien jederzeit wieder aufweichen könnte, sollte sich die finanzielle Strategie des Konzerns jemals wieder von der Qualitätssicherung hin zur reinen Quantitätsmaximierung verschieben.2
Die Renaissance der Medienwissenschaften und der Wert des Vertrauens
Die vielleicht wichtigste und nachhaltigste strategische Erkenntnis aus dem Kapwing-Bericht stammt von dem Medienanalysten Doug Shapiro. Er prognostiziert einen fundamentalen Wertewandel: Wenn das Internet unaufhaltsam mit künstlich erzeugtem “Rauschen” geflutet wird, das das authentische menschliche “Signal” zunehmend übertönt, wird der intrinsische Wert von echtem Vertrauen (Trust) exponentiell steigen.2 Gleichzeitig warnt er jedoch davor, dass genau wegen dieses Wertanstiegs auch die Anstrengungen politischer, staatlicher und unternehmerischer Akteure massiv zunehmen werden, eben dieses Vertrauen durch noch raffiniertere KI-Werkzeuge künstlich zu fabrizieren und zu manipulieren.2
Die gesamtgesellschaftliche Antwort auf die Krise des KI Slop kann daher unmöglich in einem rein technologischen Wettrüsten oder einem ausschließlichen Fokus auf technische Bildung liegen. Anstatt sich in der schulischen und universitären Ausbildung primär auf das reine Erlernen von KI-Bedienung und “Prompt Engineering” zu konzentrieren, raten Experten zu einer massiven Rückbesinnung auf die klassischen Medienwissenschaften (Media Studies).2 Sowohl Konsumenten als auch angehende Schöpfer müssen dringend geschult werden, digitale Informationsarchitekturen kritisch zu hinterfragen, algorithmische Manipulationen selbstständig zu erkennen und die Quellen von Inhalten tiefgründig und skeptisch zu evaluieren.2
Diese zwingende Notwendigkeit hat die akademische Welt bereits erreicht. Führende Filmhochschulen weltweit haben darauf reagiert und damit begonnen, spezielle, verpflichtende Kurse zur Nutzung und vor allem zur Ethik der KI in der Film- und Medienproduktion in ihre Lehrpläne aufzunehmen, um einer neuen Generation von Erstellern einen verantwortungsvollen Umgang mit diesen mächtigen Werkzeugen zu vermitteln.2
Für professionelle Content Creator, die in diesem zunehmend toxischen und übersättigten Markt langfristig überleben und florieren wollen, lautet das strategische Gebot der Stunde “Originalität”. Der menschliche Faktor, die einzigartige subjektive Erfahrung, echte Fehlerhaftigkeit und das authentische emotionale Element in der Produktion bilden künftig den ultimativen und nicht kopierbaren Wettbewerbsvorteil gegenüber den maschinellen Fließband-Sloppern.2 Um selbst nicht in die Falle zu tappen, versehentlich generischen “Slop” zu produzieren, wird der Kreativbranche empfohlen, den Einsatz generativer KI auf rein unterstützende Funktionen zu beschränken und professionelle, qualitätssteigernde Werkzeuge – wie etwa die Video-Kollaborationsplattform Kapwing – für den Feinschliff und die Teamarbeit zu nutzen, um handwerklich herausragende Outputs sicherzustellen.2
Fazit
Die globale Flut an “KI Slop” und die damit einhergehende Epidemie des “Brainrot” stellen weit mehr dar als eine vorübergehende Anomalie in den Feeds sozialer Netzwerke. Sie sind der weithin sichtbare Ausdruck eines tiefgreifenden, systemischen Konflikts zwischen exponentiell wachsender, nahezu kostenloser technologischer Produktionskapazität und den starren, biologischen Grenzen der menschlichen Aufmerksamkeit und Kognition. Wenn in unvoreingenommenen Tests 21 Prozent der Kurzvideo-Empfehlungen für neue Nutzer aus maschinell generiertem Slop bestehen 1 und ganze Netzwerke von Kanälen Milliarden von Aufrufen durch die automatisierte Massenproduktion absoluter inhaltlicher Leere generieren 2, offenbart dies eklatante und bedrohliche Schwächen in den derzeitigen algorithmischen Kuratierungsmodellen des Internets.
Die zugrundeliegenden ökonomischen Anreizstrukturen plattformbasierter Werbemärkte haben eine neue, rücksichtslose Klasse digitaler Arbitrageure hervorgebracht. Diese nutzen die auf nahezu null gesunkenen Grenzkosten generativer KI-Pipelines gnadenlos aus, um Informationsökosysteme zu fluten und statistische Wahrscheinlichkeiten zu monetarisieren. Die resultierenden Konsequenzen – von massiver, chronischer Informationserschöpfung 2 über die schleichende, unbewusste Akzeptanz synthetischer Realitäten durch den Wahrheitsillusion-Effekt 2 bis hin zur potenziellen kognitiven Beeinträchtigung verletzlicher jüngerer Zielgruppen 3 – sind gravierend und erfordern sofortiges Handeln. Zudem zeigt das Vordringen von “Workslop” in Kernbranchen wie IT und Consulting 1, dass die Illusion von Produktivität durch KI auch massive wirtschaftliche Schäden außerhalb der Unterhaltungsindustrie anrichtet.
Die beispiellos harte Reaktion der Plattform YouTube Anfang des Jahres 2026, die zur konsequenten Löschung von Kanälen und Milliarden an Slop-Aufrufen führte 4, sowie die flächendeckende Einführung strenger Transparenzregeln durch AI-Tags 9 und die strategische Unterstützung rechtlicher Rahmenwerke wie dem NO FAKES Act 12, zeigen deutlich, dass die Plattformbetreiber den Ernst der Lage erkannt haben. Dieser Sinneswandel geschah nicht aus kulturellem Altruismus, sondern aus der nackten, existenziellen Sorge um die Markenwahrnehmung ihrer unverzichtbaren Werbekunden, für die KI-Slop zunehmend ein unkalkulierbares Hochrisikoumfeld darstellt.1
Doch technische Moderation, algorithmische Strafen und interne Plattformrichtlinien allein werden dieses fundamentale Problem nicht abschließend lösen können. Der Weg aus dieser epistemischen Krise erfordert eine Kraftanstrengung, die weit über das Silicon Valley hinausgeht. Es bedarf einer massiven Renaissance der kritischen Medienkompetenz in Bildungseinrichtungen 2 und einer gesellschaftlichen Aufwertung der digitalen Geisteswissenschaften.2
In einer absehbaren Zukunft, in der synthetische Perfektion, fotorealistische Illusionen und algorithmisches Rauschen in unbegrenzter Menge und praktisch kostenlos verfügbar sein werden, verschieben sich die Wertmaßstäbe. Die verifizierbare, authentische und originäre menschliche Erfahrung wird unweigerlich zum wertvollsten, am stärksten nachgefragten und am schwersten zu fälschenden Gut im globalen Informationsökosystem avancieren. Inmitten der unendlichen Flut maschineller Beliebigkeit wird das menschliche Vertrauen zur ultimativen Währung des digitalen Zeitalters.
Referenzen
- Scrolling Through YouTube Shorts? 21% of the Clips Are Probably …, Zugriff am Februar 23, 2026, https://www.pcmag.com/news/over-21-of-youtube-is-now-ai-slop-says-report
- AI Slop Report: The Global Rise of Low-Quality AI Videos – Kapwing, Zugriff am Februar 23, 2026, https://www.kapwing.com/blog/ai-slop-report-the-global-rise-of-low-quality-ai-videos/
- More than 20% of videos shown to new YouTube users are ‘AI slop’, study finds | AI (artificial intelligence) | The Guardian, Zugriff am Februar 23, 2026, https://www.theguardian.com/technology/2025/dec/27/more-than-20-of-videos-shown-to-new-youtube-users-are-ai-slop-study-finds
- YouTube just deleted over 4.7 billion views worth of AI slop videos – XDA Developers, Zugriff am Februar 23, 2026, https://www.xda-developers.com/youtube-just-deleted-over-4-7-billion-views-worth-ofai-slop-videos/
- More than 20% of videos shown to new YouTube users are ‘AI slop’, study finds – Reddit, Zugriff am Februar 23, 2026, https://www.reddit.com/r/Futurology/comments/1pxtyl3/more_than_20_of_videos_shown_to_new_youtube_users/
- More than 20% of YouTube’s feed is now “AI slop,” report finds : r/technology – Reddit, Zugriff am Februar 23, 2026, https://www.reddit.com/r/technology/comments/1pyn5ng/more_than_20_of_youtubes_feed_is_now_ai_slop/
- The ‘AI Slop’ Crisis: 21% of YouTube Recommendations are Now AI-Generated, Zugriff am Februar 23, 2026, https://markets.financialcontent.com/wral/article/tokenring-2026-1-5-the-ai-slop-crisis-21-of-youtube-recommendations-are-now-ai-generated
- YouTube Policies Crafted for Openness – How YouTube Works, Zugriff am Februar 23, 2026, https://www.youtube.com/howyoutubeworks/our-policies/
- YouTube’s New Policy on AI-Generated Content REVEALED – Voquent, Zugriff am Februar 23, 2026, https://www.voquent.com/blog/youtubes-new-policy-on-ai-generated-content-revealed/
- How Creators Use AI for Content Creation – How YouTube Works, Zugriff am Februar 23, 2026, https://www.youtube.com/howyoutubeworks/ai/
- Our approach to responsible AI innovation – YouTube Blog, Zugriff am Februar 23, 2026, https://blog.youtube/inside-youtube/our-approach-to-responsible-ai-innovation/
- YouTube supports the NO FAKES Act: Protecting creators and viewers in the age of AI, Zugriff am Februar 23, 2026, https://blog.youtube/news-and-events/youtube-supports-the-no-fakes-act/
KI-gestützt. Menschlich veredelt.
Martin Käßler ist ein erfahrener Tech-Experte im Bereich AI, Technologie, Energie & Space mit über 15 Jahren Branchenerfahrung. Seine Artikel verbinden fundiertes Fachwissen mit modernster KI-gestützter Recherche- und Produktion. Jeder Beitrag wird von ihm persönlich kuratiert, faktengeprüft und redaktionell verfeinert, um höchste inhaltliche Qualität und maximalen Mehrwert zu garantieren.
Auch bei sorgfältigster Prüfung sehen vier Augen mehr als zwei. Wenn Ihnen ein Patzer aufgefallen ist, der uns entgangen ist, lassen Sie es uns bitte wissen: Unser Postfach ist martinkaessler, gefolgt von einem @ und dem Namen einer bekannten Suchmaschine (also googlemail) mit der Endung .com. Oder besuchen Sie Ihn gerne einfach & direkt auf LinkedIn.




