Videor skapade med hjälp av artificiell intelligens har under den senaste månaden blivit allt mer realistiska.
Det har att göra med att att teknikjättarna Google och OpenAI har lanserat nya versioner av sina AI-videotjänster, och att Meta, som ligger bakom Facebook, också har gett sig in i spelet.
Samtidigt är de här AI-videotjänsterna lätttillgängliga och enkla att använda.
Till exempel låter OpenAI:s app Sora användare skapa digitala kopior av sig själva och sina vänner, som sedan kan placeras in i vilka situationer som helst. Den fysiska världens tyngdlagar har tagits väl i betraktande och videorna innehåller även ljud. Sora kan dessutom klona röster baserat på bara några få ord.
Open AI:s app är tills vidare bara tillgänglig i USA och Kanada, men planen är att lansera den i många fler länder snart.
Amerikansk teknikreporter testade
Drew Harwellsom är teknologireporter på Washington Post, har redan skapat flera AI-videor med Sora-appen för att visa vad som är möjligt.
”Jag är chockad över hur mycket den tillåter”, skrev han i ett inlägg på det sociala nätverket X, där han också publicerade en video av det han testade:
Det var till exempel lätt för Drew Harwell att skapa en Fiktiv video av en svart person som grips av polisen. Han skapade också en video där en anställd på en känd kafékedja skriker åt en kund.
Ytterligare en video visade en kvinna som hade gett tillstånd att hennes utseende används i AI-videor. Hon stormar Capitolium i USA i AI-videon.
Användare har också skapat falska videor på USA:s tidigare president JF Kennedy och människorättsaktivisten Martin Luther Kingdär de säger saker de inte alls sa i verkligheten.
Harwell skapade dessutom en mycket realistisk video på öppen AI: S VD Sam altman som grillar (på grillen alltså) en AI-skapad kopia av Pokemon-figuren Pikachu. Det visar att det är lätt att också bryta mot upphovsrätten när man använder de här verktygen.
Överlag bygger AI-videoverktygen på massvis med existerande videomaterial som är upphovsrättsskyddat. Det pågår flera rättsprocesser mot AI-företag för hur de har använt material för att träna sina AI-system.
Google Veo och Meta Vibes
Googles AI-videotjänst Veo kan också skapa mycket realistiska videor, med ljudmiljö.
Med Veo testade vi på Svenska Yle till exempel att skapa en video på flera albinoälgar i skogen och vid stranden (se artikelns huvudvideo ovan). Däremot vägrade tjänsten att skapa videor med politiker.
Metas AI-app Vibes är tillgänglig i ett fyrtiotal länder, och kanske snart också i Finland. Vi har testat tjänsten via Metas webbplats.
Med Vibes är det relativt lätt att skapa videor på politiker och kändisar, även om systemet också ibland vägrar att göra det. Det går dock att kringgå.
En video om Frankrikes president Emanuel Macron som befann sig i öknen var sällsynt lyckad. Videon byggde helt enkelt på ett stillfoto på honom taget i Paris. Kameran svängde lite åt höger och plötsligt var han i öknen. Hans kläder fladdrade i vinden och det var solnedgång.
Det var dessutom lätt att be systemet skapa en video på en varg som promenerar på en viss åker, på basis av en stillbild på åkern.
Vi skapade också några testvideor med instruktionen ”en finländare i Helsingfors som hälsar på en fiktiv seriefigur”, samt ytterligare lite tilläggsinfo i textform. Vibes verkade ha en förkärlek för krokodiler – nästan alla seriefigurer den föreslog var just krokodiler. Här är en av videorna:
Dessutom kunde Vibes skapa figurer som uppenbart är skyddade av upphovsrätten, såsom moderna versioner av Disneys figur Kalle Anka och en figur som var en blandning av Mumin och en skogsvarelse.
Vibes har också mötts av kraftig kritik för att tjänsten i praktiken består av ett flöde av ”meningslöst, syntetiskt innehåll”, utan koppling till verkliga människor.
Risk för desinformation
Det finns inbyggda vattenmärken i videorna, men det är ändå möjligt att dela dem vidare så att vattenmärkena försvinner. Då blir det ännu svårare att upptäcka att det är AI-genererat, vilket innebär att det blir allt svårare att veta vad som är sant.
Linda Mannilasom är AI-professor vid Helsingfors universitet, ser också en ökad risk för så kallade deepfakes och desinformation i folks sociala medie-flöden, i och med att de nya AI-videoverktygen är så bra, lätt tillgängliga och lätta att använda.
– Det blir lätt att skapa olika typer av material med desinformation, att försöka manipulera och påverka och mobba. Alla de här negativa sidorna som man ser blir ju väldigt väldigt konkreta förstås. Samtidigt som det också ger möjlighet till kreativa uttryck och nya sätt att skapa videor.
Hon beskriver situationen som en utmaning för hela samhället och demokratin.
– Det är lätt att säga att vi måste vara mer källkritiska, men när det blir allt svårare att avgöra vad som är sant och vad som är falskt. Det kräver att vi måste vänja oss vid att informationsflödet innehåller den här typen av videor, säger Mannila.
Konsekvensen av det här är att ditt informationsflöde riskerar att svämmas över av en hel del desinformation.
Det innebär att det blir allt svårare att veta vad som är sant.
Bevisbördan kan komma att vändas
Mannila lyfter fram en intressant fråga inför framtiden: Kommer bevisbördan för vad som är äkta att ligga på den som skapar innehåll?
– I stället för att försöka identifiera det som är falskt, börjar man sätta allt mer vikt på att bevisa att det som jag nu har producerat är äkta, och jag har verktyg för att kunna göra det. Så att man då den vägen kan stå emot mängderna av allt det här till ganska låg tröskel AI-genererat material som produceras av bottar och av andra som bara vill få ut AI-genererat innehåll, säger hon.
Hoppas att människor blir trötta på syntetiskt innehåll
Trots utmaningarna ser Mannila tecken på att människor börjar bli mättade på AI-genererat material.
– Det är samma som med AI-genererade bilder. Nu upplever jag i diskussioner också med andra att man börjar bli ganska mättad på det. Man ser de här AI-genererade bilderna i olika sammanhang, och man vill ha äkta bilder istället, även om det inte är polerat och slipat till 100 procent, så är det ju det som vi vill se. Vi vill se att det finns en människa bakom, säger Mannila.
Hon hoppas att människor kommer att rösta med sina klick och scrollningar.
– Att vi helt enkelt bara börjar scrolla förbi och inte ger uppmärksamhet till sådant AI-videomaterial som de facto inte för någonting vidare, säger hon.
Källkritik viktig för alla åldrar
En del experter påpekar att personer som nu är unga vuxna eller i medelåldern hör till de mest skeptiska och bäst känner igen AI-genererade videor, medan barn och äldre är sämre på det.
När det gäller vem som är bäst på att känna igen AI-genererade videor, så anser Linda Mannila ändå att det handlar mer om medvetenhet än ålder.
– Det handlar mycket om hur mycket man rör sig i de digitala miljöerna. Det har mycket större inverkan än ålder, säger hon.
Hon påpekar att det gäller att fortsätta öka medvetenheten kring hur enkelt det är att skapa AI-videoklipp.
Vad tycker du om AI-genererade videor, och möjligheterna och riskerna med dem? Du kan svara i kommentarsfältet.