Die Plattform YouTube verwechselt Bequemlichkeit mit Fortschritt.

YouTube baut jetzt KI Avatare für Shorts, die aussehen und klingen wie ihr Besitzer. Offiziell ist das laut Unternehmensangaben ein sicherer und einfacher Weg, sich selbst in Videos einzubauen. In Wahrheit ist es vor allem ein Weg, noch mehr Inhalt aus noch weniger echtem Einsatz herauszupressen.

Beeindruckend ist die Technik schon. Aber genau das ist der Trick. Sobald etwas technisch glänzt, tun viele so, als sei damit auch die Idee klug. Dabei ist die Idee hier ziemlich unerquicklich. Der Mensch selbst rückt in den Hintergrund und übrig bleibt eine Version von ihm, die sich jederzeit wieder einsetzen lässt.

Besonders putzig ist das Sicherheitsargument. Wer seine Stimme und sein Gesicht vollständig erfassen lässt, damit ein System ihn glaubwürdig imitiert, hat nicht weniger Risiko, sondern ein neues gebaut. Dass andere den Avatar laut Plattform nicht für eigene Originals nutzen können, beruhigt ungefähr so sehr wie ein Zettel am Gartenzaun mit der Aufschrift „Bitte nicht klauen“.

YouTube Shorts mit KI Avatar beschädigen das Vertrauen

Natürlich gibt es Wasserzeichen, Labels und hübsche Fachbegriffe wie SynthID und C2PA. Das klingt nach Ordnung, Kontrolle und digitaler Vernunft. Nur lebt Shorts nicht von Vernunft, sondern von Tempo. Der Zuschauer wischt weiter, er prüft keine Herkunftssiegel und er liest keine Kennzeichnung wie ein Forensiker am Sonntag.

Noch absurder ist der kulturelle Nebeneffekt. Plattformen predigen seit Jahren Authentizität. Jetzt wird Authentizität automatisiert. Das ist schon fast große Satire. Erst macht man den Menschen zur Marke, dann macht man aus der Marke eine Rechenaufgabe und nennt das kreativen Fortschritt.

Dass Europa beim Start fehlt, hat wahrscheinlich weniger mit plötzlicher Besonnenheit zu tun als mit schlichter Rechtsangst. Sobald eine Plattform Gesichter, Stimmen und täuschend echte Doppelgänger verarbeitet, geht es eben nicht mehr nur um nette Kreativwerkzeuge, sondern um Datenschutz, Einwilligung, Haftung und Missbrauch.

Anders gesagt: Europa ist hier wohl nicht der verschonte Zuschauerraum, sondern der Markt, in dem Konzerne merken, dass man Identität nicht ganz so lässig zur KI Rohmasse erklären kann. Dass europäische Nutzer das Feature zunächst nicht nutzen können, bedeutet allerdings keineswegs, dass wir diese künstlich erzeugten Videos nicht trotzdem zu sehen bekommen.

Bei allem Technikglanz bleibt eine schlichte Wahrheit: Diese Funktion spart nicht nur Aufwand. Sie entwertet Glaubwürdigkeit. Wenn am Ende jeder sagen kann, das war nur mein Avatar, dann wird die Ausrede gleich mit ausgeliefert. Genau deshalb ist das kein harmloses Spielzeug, sondern ein Angriff auf das ohnehin bröckelige Vertrauen im Netz.

Schreibt gerne in die Kommentare, ob ich übertreibe oder ob YouTube hier gerade das Original zur lästigen Option erklärt.


Fehler melden3 Kommentare

   

Durch Kommentieren stimmst du unserer Netiquette und Datenschutzerklärung zu.

  1. Robert 💎

    Wenn wir ehrlich sind, ist der Creator doch nur lästig, den Konzernen wäre es doch am liebsten sie würden die Inhalte alle selber generieren, die die Nutzer auf die Plattform locken. In diese Richtung werden auch generell Social Media Networks gehen. Und das Schlimmste bei YouTube ist, dass man nicht mal die Shorts irgendwie blockieren kann.

    1. Sam 🏆

      Zumindest mit Revanced auf dem Smartphone ist das Entfernen der shorts nur eine Einstellung weit entfernt.

  2. RoyBer 🌟

    Starker Kommentar. Ich würde sogar noch weitergehen, ich denke das ist nur der Anfang Google experimentiert hier und wird es in Zukunft auf YouTube ermöglichen, solche Avatare und ki Inhalte auch in ganz normalen Videos zu nutzen. Das wird natürlich auch viele Creator schlicht arbeitslos machen. Aber das war doch irgendwie auch abzusehen. Wer das 100. Video zum gleichen Thema macht wird einfach nicht benötigt.

Du bist hier:
mobiFlip / Kommentar / YouTube macht aus Menschen jetzt Platzhalter mit Lippenbewegung