Kommentar: Flygplan utan mittgång – AI-innehållet som förvrider sanningen
Om hur fejkade kommentarer om en överviktig man i en flygplansstol kan vara en del av framtidens krigföring.
En överviktig man sitter i en flygplansstol. Han är för stor och får inte riktigt plats. Upprörda medpassagerare samlas omkring honom. De kastar saker. De skriker. “Flytta på dig fetto!”, kanske.
Det här är ett av många exempel på en ny typ av innehåll som har dykt upp i mitt flöde med allt större frekvens. Du kanske känner igen det.
Kanske känner också du – precis som jag – att något skaver med just den här scenen. Saknar inte flygplanet en mittgång? Rör sig inte människorna på ett onaturligt sätt? Färgerna är dessutom fel. Bilden är lite suddig, närmast svävande… AI-genererat. Förstås.
Det är många gånger rent absurda skapelser – som väl ingen kan gå på. Ändå fylls kommentarsfältet av – oftast – äldre personer som uppenbarligen går på bluffen.
“Hur kan man tro på något sådant?”, undrar jag.
Jag ställer frågan till Virginia Dignum. Hon är professor i datavetenskap, med särskilt fokus på social och etisk artificiell intelligens, vid Umeå universitet. Hon är dessutom rådgivare till FN:s, World Economic Forums och Wallenbergssfärens olika AI-råd.
– Det här är klickbete, konstaterar hon så snart hon får se videoklippet och fortsätter:
– Men på en helt annan nivå.
“Klickbete på en annan nivå”
Jag tittar närmare på kommentarsfältet. Vi kan kalla en av dem som har kommenterat för Anna. Hon ser ut som en ganska ordinär kvinna. Kanske 50 år och med en ganska typisk profilbild för Facebook. “Where’s the cabin crew? They should sort it out”, skriver hon.
Det finns hundratals liknande kommentarer. Någon tycker att feta personer inte har på flygplan att göra alls. Någon annan är bedrövad över att det är här i människosynen vi har hamnat 2025! Diskussionerna är livliga.
Bara några få av de som kommenterat pekar på att det här solklart är AI.
Har människor blivit så otroligt dåliga på källkritik att de bortser från att mittgången saknas som i det här exemplet, eller tror att vi kan bryta fysikens lagar och sväva ut i rymden under rätt förutsättningar, eller att äkta enhörningar vandrar fritt i Central Park?
Nej, menar Virginia. Det handlar nämligen inte längre bara om en AI-genererad bild eller video, utan om att också många av reaktionerna är AI-genererade.
– Det här skapar en oändlig feedbackloop, ett syntetiskt ekosystem av innehåll, som är utformat för att framstå som organiskt, autentiskt och känslomässigt gripande. Sociala medier-plattformarna optimerar för engagemang, vilket gör att upprörande innehåll får större spridning.

Världsledare som dricker blod
Jag tvingas inse att Anna kanske inte ens finns.
Jag tvingas inse att jag själv lurats av ett klickbete.
Fan.
Om inte ens jag – som ändå jobbar med frågor som dessa – kan fånga upp detta undrar jag var vi är på väg.
Virginia är tydlig. Hon menar att det här innebär ett skifte i landskapet för informationskrigföring:
– Den här typen av innehåll kan förändra den allmänna opinionen eller förvränga samhällsnarrativ. De frågor vi borde ställa är: Vad händer när fejkade reaktioner på fejkade berättelser börjar påverka verklig politisk diskurs? Vad händer när människor säger "Jag såg det överallt! Alla pratade om det!" när det i själva verket inte fanns någon som pratade om det alls?
Ja, för vad händer om man byter ut det här relativt harmlösa innehållet mot AI-genererade världsledare som dricker barns blod, fejkade bilder från påstådda humanitära kriser, eller stora protester i diktaturer – kryddat med tusentals AI-genererade kommentarer?
Techjättarnas ansvar
Om man undrar vad sociala medier kan göra räcker det att vi påminner oss om folkmordet i Myanmar 2017. Facebook har i flera rapporter pekats ut som en bidragande faktor. Meta har själva erkänt att algoritmerna i kombination med bristfällig moderering spädde på hatet mellan landets olika folkgrupper.
Det är något som man förstås inte vill ska hända igen. Dåligt för mänskligheten. Dåligt för varumärket. Dåligt för aktiekursen.
Techjättarna lägger därför stora resurser på olika former av policyåtgärder. Meta och TikTok har på varsitt håll sjösatt olika initiativ för att detektera och markera AI-genererat innehåll. Det ska hjälpa användarna att förstå vad man kan lita på och inte.
Men flera av inläggen som jag fångat upp i mitt flöde har inte alls fått en sådan markering.
Flygplan utan mittengångar är en sak. Men svävande människor och enhörningar i Central Park är alltså något att lita på, alltså? I takt med att generativ AI blir bättre är det tekniskt svårt att särskilja riktigt innehåll mot AI-genererat dito.
Det väcker frågan om vem som är ansvarig: Ska techjättarna försöka silvertejpa sig själva genom egna etiska riktlinjer, bättre igenkänningssystem och tydliga AI-märkningar? Ska världens regeringar gå samman och reglera techjättarna hårdare? Eller ligger ansvaret hos snarare individen, som genom utbildning måste bli bättre på att identifiera AI-innehåll?

“Uppmärksamhet är makt”
Faktum är, oavsett lösning, att det för var dag som går blir allt svårare att avgöra vad som är sant och vad som är falskt. Med tanke på takten som AI håller just nu tyder inget heller på att utvecklingen kommer att stanna av.
Hårdare reglering kan potentiellt ske på bekostnad av innovation. Det är inte en lätt nöt att knäcka, men saker kommer behöva ändras. Virginia menar att det finns en central insikt som kanske tydligast sätter fingret på var vi är på väg:
– Uppmärksamhet är makt, och den som kontrollerar den kan forma vad människor tror på, känner och gör. Oavsett vilken teknik vi har tillgänglig kommer någon tyvärr att hitta ett sätt att missbruka den, avslutar Virginia.
Jag tvingas inse att jag inte är rädd för att AI ska ta våra jobb, som så många andra.
Jag är rädd för att AI ska ta sanningen från oss. En kommentar i taget.