In den letzten Tagen haben viele Menschen Videos gesehen, die einen Tiger zeigen, der einen schlafenden Menschen mitnimmt, oder einen Leopard in Lucknow, sowie zahlreiche Leopardenvideos aus Pune. Diese Videos, die sie möglicherweise in Social-Media-Feeds oder von Freunden erhalten haben, sind gefälscht.
Man muss sich bewusst sein, dass unsere Social-Media-Feeds von KI überwacht werden. Der Algorithmus beeinflusst, was wir konsumieren, einschließlich der Inhalte, die wir zu Gesicht bekommen.
Das Angebot an Videos, die von Künstlicher Intelligenz (KI) erstellt wurden, nimmt stetig zu. In den vergangenen sechs Monaten haben sich KI-Video-Generatoren, also Anwendungen, die mithilfe von KI Videos produzieren, erheblich verbessert. Viele Benutzer haben Zugang zu diesen Tools, was zu einem Anstieg an KI-generierten Inhalten geführt hat.
Die vorliegende Analyse befasst sich mit Inhalten auf Social-Media-Seiten und wie wichtig es ist, sicherzustellen, dass wir vor jedem Hochladen solcher Inhalte die Erlaubnis erhalten. Da die betreffenden Websites Cookies und andere Technologien verwenden, können wir deren Datenschutzrichtlinien und Cookie-Bestimmungen vor dem Akzeptieren einsehen.
Viele dieser Videos sehen authentisch aus und die Zahl realistischer wirkender Videos wird voraussichtlich zunehmen. Künstliche Intelligenz lernt kontinuierlich aus ihren Fehlern und wird außerdem mit großen Datenmengen gefüttert, um sich weiter zu verbessern, was zu schnellerer und größerer Leistungssteigerung führen wird.
Wie erkennt man KI-generierte Videos?
Es gibt einige Hinweise, die beachtet werden sollten, um gefälschte Videos zu identifizieren:
Videoqualität
Eine schlechte Bildqualität oder unscharfe Videos können ein Hinweis auf KI-generierte Inhalte sein. Selbst einfachste Mobiltelefone verfügen heutzutage über Kameras, die in der Lage sind, Videos in 4K zu drehen, und die nächtlichen Aufnahmen sind ebenfalls klar. Wenn ein Video also von schlechter Qualität ist, sollte man fragen, warum.
Vortäuschung von CCTV-Aufnahmen
Um die niedrige Bildqualität zu tarnen, wird häufig der Eindruck erweckt, dass es sich um CCTV-Aufnahmen handelt. Viele viral gegangene Videos erscheinen im Stil von Überwachungskameraaufnahmen, wobei häufig fiktive Zeit- und Datumsangaben eingeblendet sind. Auch die Audioqualität dieser Videos ist oft schlecht, was zusammen mit der mangelhaften Bild- und Audioqualität auf gefälschte Inhalte hinweist.
Übertrieben farbenfrohe Darstellung
Im Gegensatz dazu können Videos, in denen die Haut von Personen glänzend oder unnatürlich aussieht und die Gesichtszüge übertrieben dargestellt sind, ebenfalls gefälscht sein. Achten Sie auf die Gesichtsausdrücke und Augenbewegungen der dargestellten Personen, die oft unnatürlich wirken. Die KI scheitert oft daran, solche Details akkurat wiederzugeben.
Verborgene Details
KI-generierte Videos enthalten oft amüsante jetzt nicht offensichtliche Details, die von den Zuschauern übersehen werden. Ein kürzlich viraler Clip von trampolinspringenden Hasen zeigt beispielsweise, dass einer der Hasen im Springen plötzlich verschwindet. Außerdem wird dieser Clip als CCTV-Video getarnt.
Kurze Clips
Ein weiterer Hinweis auf KI-generierte Videos ist die Länge der Clips, die oft nur einige Sekunden beträgt. Diese Clips ähneln eher denen, die man auf Instagram oder in Shorts sieht, während längere Videos in der Regel kostenpflichtig erstellt werden müssen. Daher sind die populären kürzeren Clips oft nur 6 bis 10 Sekunden lang.
Wasserzeichen
Wenn ein Video über die App von OpenAI, „Sora“, erstellt wurde, wird es mit einem Wasserzeichen versehen. Wenn also in dem von Ihnen angesehenen Video der Name „Sora“ sichtbar ist, handelt es sich um ein KI-Video. Oft versuchen die Macher dieser viralen Videos, das Wasserzeichen mit Bearbeitungssoftware zu verbergen, was jedoch oft zu verschwommenen Bereichen führt.
Physikalische Ungereimtheiten
Trotz der Fähigkeit, viele Dinge genau zu imitieren, hat KI Schwierigkeiten im Bereich der Physik. Das ist beispielsweise bei einem vermeintlichen Video eines Leoparden zu sehen, bei dem staatliche Stellen bestätigen, dass es sich um ein KI-generiertes Video handelt, weil die Größe des Körpers, der Schwanz und die Lichtverhältnisse nicht übereinstimmen.
Realistische Überlegungen
Am wichtigsten ist es, beim Anschauen eines Videos zu überlegen, ob das, was gezeigt wird, tatsächlich möglich ist. Zum Beispiel, einen Tiger auf der Straße zu sehen, der versucht, einer Person Alkohol zu geben, erscheint als Szene, die wahrscheinlich nicht realistisch ist. Vor dem Teilen solcher Inhalte sollte man diese Überlegungen anstellen.
Die Polizei hat sogar rechtliche Schritte gegen eine Person eingeleitet, die einen solchen viral gehenden Clip in sozialen Medien geteilt hat. Daher wird geraten, solche beängstigenden Videos nicht zu teilen oder zu erstellen, da dies rechtliche Folgen haben kann.
Die Verwendung von KI zur Erzeugung von Deepfakes wird einfacher und die Realität dieser Videos wird nach und nach umso realistischer erscheinen. Daher ist es wichtig, dass Nutzer sich bewusst mit solchen Inhalten auseinandersetzen und ein gesundes Misstrauen entwickeln. So wie wir nun vorsichtig mit gefälschten Anrufen und Angeboten umgehen, sollten wir auch bei Videos wachsam sein.









