Milliarder af brugere og opslag gør det umuligt at filtrere videoer på sociale medier, siger professor.
En video, som angiveligt viser drabet på en af to dræbte kvinder i Marokko, har igennem flere dage floreret på sociale medier - blandt andet Facebook.
Facebook har ifølge DR indledt et samarbejde med det danske politi om at stoppe spredningen af videoen, som man ikke accepterer.
Men materialet er delt, og skaden er på den måde sket, fortæller professor i IT-etik Thomas Ploug ved Aalborg Universitet til Ritzau.
Situationen kunne dog næppe have været undgået uden at handle etisk kritisabelt, understreger han.
- I udgangspunktet har Facebook et ansvar, for det her er en video, der vil gøre ondt på nogle mennesker, og som vil gøre os utrygge, siger han.
- Men hvis Facebook indførte en meget stram regulering af videoer på forhånd, ville der straks opstå problemer med ytringsfrihed.
Det tyder på, at drabsvideoen fra Marokko er ægte, oplyser det norske kriminalpoliti, Kripos, fredag i en pressemeddelelse.
Og videoen lader til at være blevet set af en hel del mennesker på det sociale medie.
Jean-Charles Brisard - international ekspert i terrorisme og leder af tænketanken Centre d'Analyse du Terrorisme - gør opmærksom på netop det på det sociale medie Twitter torsdag.
Her skriver han, at en video - der må antages at være identisk med den tidligere omtalte - af drabet på en europæisk turist i Marokko torsdag aften havde været tilgængelig syv timer på Facebook og var blevet vist 500.000 gange.
Brisard kalder i tweetet Facebooks politik om fjernelse af terrorvideoer en "komplet fiasko".
Ønsket om stram regulering går igen mange steder i befolkningen, mener Thomas Ploug.
Men man skal huske på, at Facebook står i et grundlæggende etisk dilemma.
- I filosofien siger man, at man hovedsageligt har et ansvar, i det omfang det er muligt at løfte det ansvar, siger Thomas Ploug.
På sociale medier er der milliarder af brugere, opslag og delinger, hvilket gør det "praktisk vanskeligt" at filtrere opslag på forhånd, forklarer han.
- Det ville kræve ufatteligt store menneskelige ressourcer at holde styr på det. Man er nødt til at have automatiske systemer, og de er ikke ufejlbarlige, siger Thomas Ploug.
- Terror udgør en forsvindende lille del af det, der foregår på Facebook. Hvis man indførte store filtreringssystemer, ville man ramme en masse aktivitet, som vi ikke har nogen god begrundelse for at filtrere.
Derfor mener han, at Facebook ikke kunne gøre meget andet end at handle efterfølgende på baggrund af indberetninger.