Sora: een historische ontwikkeling, maar mét beveiligingsrisico’s

Javvad Malik 1200x675

De introductie van Sora door OpenAI markeert een mijlpaal in videobewerking. De revolutionaire technologie is opwindend, maar roept tegelijkertijd vragen op over de gevolgen van de rol van AI bij het maken van digitale content en cybersecurity.

 Het potentieel van Sora om videoclips van een minuut uit tekstinvoer te genereren is verbluffend. De toevoeging van dynamische elementen zoals reflectie, textures en physics introduceert een nieuwe dimensie van authenticiteit aan AI-gegenereerde content. Op de OpenAI-website staan verschillende voorbeelden, zoals een stijlvolle vrouw die door een neonverlichte straat in Tokio loopt en een oldtimer die over een onverharde weg scheurt. Op het eerste gezicht zien deze video’s er authentiek uit. Maar hoe nauwkeuriger we deze video's bekijken, hoe meer onvolkomenheden we ontdekken.  

Ethische vragen

Met de introductie van Sora wordt de grens tussen digitale creatie en realiteit steeds vager. Deze vervaging roept ethische vragen op. Met name over hoe AI-gegenereerde content kan worden gebruikt of misbruikt. Want hoewel de technologie een revolutie kan betekenen en tijd en middelen kan besparen, brengt het tegelijkertijd het risico van het verstrekken van verkeerde informatie met zich mee. Denk bijvoorbeeld aan gevoelige contexten zoals verkiezingen of het beïnvloeden van de publieke opinie. 

De imitatie van publieke figuren of het maken van fictieve, maar zeer echt lijkende gebeurtenissen kan ernstige gevolgen hebben als het kwaadwillig wordt ingezet. We hebben eerder al voorbeelden gezien van gewijzigde video’s die werden gebruikt om argwaan te wekken. Zo bleek een paar jaar geleden dat de Amerikaanse House Speaker Nancy Pelosi in een nepvideo vloekte, waardoor geruchten over haar gezondheidstoestand werden aangewakkerd.  

En hoewel OpenAI watermerken toevoegt om aan te tonen dat het om AI-generatie gaat, blijft de dreiging van manipulatie om deze indicator te verbergen bestaan. Sora zou videoproductie kunnen democratiseren, waardoor makers hun visies kunnen namaken zonder zich wat te hoeven aantrekken van de normale barrières van videocreatie. Dit onderstreept de dringende behoefte aan strikte ethische richtlijnen en degelijke cybersecurity-maatregelen om mogelijk misbruik tegen te gaan. 

AI-bewustzijn

Nu er steeds meer AI-tools komen, kunnen deze gemakkelijk worden gebruikt om aanvallen veel overtuigender te maken. De cybersecurity-industrie heeft een proactieve aanpak nodig om kaders op te stellen die ervoor zorgen dat AI wordt ontwikkeld met de juiste voorzorgsmaatregelen. Ook is het belangrijk dat mensen getraind worden in hoe AI-aanvallen eruit zien, hoe ze te herkennen zijn en hoe erop gereageerd moet worden. We moeten zorgen voor veilig online gedrag en een sterke security culture waarin mensen waakzaam zijn voor dit type dreigingen.

Javvad Malik, Lead Security Awareness Advocate bij KnowBe4

Meer over
Lees ook
SAP legt de regie over business-AI bij ontwikkelaars

SAP legt de regie over business-AI bij ontwikkelaars

SAP kondigt tijdens TechEd 2025 in Berlijn een reeks innovaties aan die kunstmatige intelligentie nog dieper verankeren in de wereld van softwareontwikkeling. Nieuwe mogelijkheden binnen SAP Build, Joule en Business Data Cloud maken het voor ontwikkelaars eenvoudiger om bedrijfsapplicaties te bouwen

Bedrijven benutten volgens SAP slechts een fractie van het AI-potentieel

Bedrijven benutten volgens SAP slechts een fractie van het AI-potentieel

Organisaties investeren wereldwijd miljarden in kunstmatige intelligentie, en die inspanningen beginnen vruchten af te werpen. Toch blijft veel rendement onbenut, waarschuwt SAP. Volgens Manos Raptopoulos en Jonathan von Rueden van SAP ligt dat niet aan de technologie, maar aan het gebrek aan integratie

Orange Cyberdefense: schijnzekerheid in ketenbeveiliging grootste risico

Orange Cyberdefense: schijnzekerheid in ketenbeveiliging grootste risico

“De zwakste schakel in je keten bepaalt uiteindelijk je risico”, stelt Van der Wel-ter Weel. “Als je die schakel negeert, of alleen aanspreekt zonder ondersteuning, vergroot je het probleem in plaats van het op te lossen. Organisaties die echt werk willen maken van ketenbeveiliging, moeten stoppen met afvinken en beginnen met faciliteren.”