ma. okt 18th, 2021

Zakelijk Nieuws

Blijf up-to-date over de laatste zakelijke updates

De toekomst van Deepfakes volgens Richard van Hooijdonk

Ondanks de dramatische toename van het positieve gebruik, blijven de gevaren van deepfakes wijdverbreid zorgen baren naarmate ze meer bekend en begrepen worden. We worden overspoeld met inhoud die beschrijft hoe snel deze deep learning-technologie wordt ontwikkeld, hoe deepfake-technologie geavanceerder en toegankelijker wordt en wat de risico’s zijn als deze technologie goed werkt.

(dit is een vervolg op ons vorige artikel met richard. Lees deze hier!)

De goede kant volgens Richard van Hooijdonk

Hoewel de niet-koosjere toepassingen van deepfakes behoorlijk angstaanjagend zijn, biedt de technologie ook veel voordelen en vinden we regelmatig nieuwe, positieve toepassingen voor deepfaketech denkt Richard van Hooijdonk. Denk bijvoorbeeld aan het bewerken van videobeelden zonder croppen, of aan het ‘herleven’ van artiesten die er niet meer zijn. Zo zijn onderzoekers van Samsung AIlab in Moskou er onlangs in geslaagd om Da Vinci’s Mona Lisa-schilderij om te zetten naar video. Met behulp van deep learning-technologie slaagden ze erin om het hoofd, de mond en de ogen van de beroemde vrouw te laten bewegen. Deepfake-technologie is ook gebruikt in het Dalí-museum in Florida om een ​​levensgroot aangrijpend schilderij van de surrealistische kunstenaar Salvador Dalí te tonen met verschillende citaten die hij tijdens zijn carrière schreef of zei. Met deepfake-technologie kunnen we dingen ervaren die nooit hebben bestaan ​​of in de nabije toekomst alle mogelijkheden zien. Naast de vele mogelijke toepassingen in de kunsten en entertainment, kan deze technologie allerlei wonderen doen in het onderwijs en de zorg. Hier zijn nog enkele interessante voorbeelden van deze revolutionaire technologie.

De gevaren van deepfakes

“Hoe opwindend en veelbelovend deepfake-technologie ook is, deze ontwikkelingen brengen ook enkele serieuze uitdagingen met zich mee”, aldus Richard van Hooijdonk. De belangrijkste hiervan is de verspreiding van seksueel expliciet materiaal met personen zonder hun toestemming. En volgens een rapport van DeepTrace bestaat 96% van de deepfakes die momenteel online worden gevonden uit dit materiaal. Er zijn ook enkele meldingen geweest van deepfakes die worden gebruikt voor identiteitsdiefstal en chantage. Het gebruik van deepfake brengt een groot risico op veiligheid en politieke instabiliteit met zich mee, aangezien deze technologie kan worden gebruikt om nepnieuws te verspreiden en kan leiden tot een toename van cybercriminaliteit en pornografie, wraak, intimidatie, misbruik en schandalen (false facts). Ook is de kans groter dat videobeelden en audiobestanden straks niet meer als bewijs in de rechtszaal kunnen worden gebruikt, omdat ze bijna niet meer van de werkelijkheid te onderscheiden zijn. Volgens de Brookings Institution omvatten de sociale en politieke gevaren van hoaxes “verstoring van het democratische discours; strenge verkiezingen; verminderd vertrouwen in instellingen; perskwaliteit neemt af; de ernst van sociale verdeeldheid; ondermijning van de openbare veiligheid; en onherstelbare schade toebrengen aan de reputatie van vooraanstaande personen. Deepfakes kunnen ook ernstige financiële problemen veroorzaken. Voorbeelden zijn onder meer een Brits energiebedrijf dat misleid werd om een ​​frauduleuze bankoverschrijving van 23 miljoen dollar te doen en een audiotrack die werd gebruikt om een ​​Amerikaanse topman te misleiden met meer dan 10 miljoen dollar. En hier zijn nog enkele opvallende voorbeelden van de gevaren van deepfakes.

De toekomst voor deepfakes volgens Richard

De doos van Pandora is geopend en het ziet ernaar uit dat de concurrentie tussen het maken van deepfake en het opsporen en voorkomen ervan in de toekomst heviger zal zijn. Deepfakes-technologie wordt met de dag toegankelijker en het wordt voor “gewone mensen” gemakkelijker om hun eigen deepfakes te maken. Verder wordt het steeds moeilijker om deepfake content te onderscheiden van authentieke content. Deepfakes zullen blijven groeien en zich verspreiden. En uitdagingen zoals het gebrek aan detail in de samenvatting zullen zeker op korte termijn worden overwonnen. Bovendien wordt verwacht dat verbeteringen aan de neurale netwerkarchitectuur en vooruitgang in hardware de trainings- en levertijden aanzienlijk zullen verkorten. Er zijn nu nieuwe algoritmen die in staat zijn om steeds realistischere en bijna realtime resultaten te produceren. Volgens experts zullen GAN’s in de toekomst de belangrijkste basis zijn voor het ontwikkelen van deepfakes die bijna niet te onderscheiden zijn van echte inhoud.

Snelle groei in entertainment

Richard: “En aangezien het heilzame gebruik van deepfakes snel groeit in sectoren als entertainment, informatie en onderwijs, zullen deze ontwikkelingen tegelijkertijd leiden tot nog grotere bedreigingen. Denk aan de toename van criminaliteit, de verspreiding van verkeerde informatie, synthetische identiteitsfraude, verkiezingsmanipulatie en politieke spanningen. Een ander aspect om te overwegen is dat deepfakes ook een zeer negatieve impact hebben op onze keuzevrijheid en onze identiteit. Door een foto te gebruiken, kun je iemand dingen laten doen – die nooit echt zijn gebeurd – zonder toestemming van iemand of zelfs zonder het te weten. En zodra de gemanipuleerde foto of video live gaat, verlies je alle controle over hoe die inhoud wordt gebruikt of geïnterpreteerd. “

Het bedrieglijke gebruik

Het is duidelijk dat het bedrieglijke gebruik van deepfake-technologie moet worden beperkt en dat technisch onderlegde journalisten en beleidsmakers hierin een belangrijke rol zullen spelen. Dit zijn de juiste mensen om het publiek voor te lichten over de mogelijkheden en gevaren van synthetische media zoals deepfakes. En als we onszelf leren om alleen inhoud van geverifieerde bronnen te vertrouwen, kunnen we natuurlijk ontdekken dat het gebruik van deepfakes meer dan goed doet. Door een groter publiek bewustzijn te vergroten, kunnen we de negatieve effecten van deepfakes verzachten, manieren vinden om ze aan te pakken, en in de toekomst zullen we misschien zelfs ontdekken dat we de mogelijkheden van deepfake-technologie kunnen benutten.

%d bloggers liken dit: