Hackers vs. ChatGPT: op zoek naar zwakke plekken - Apparata

Hackers versus ChatGPT: ethische hackers gaan op zoek naar zwakke plekken

Martin Scholten

Het beeld dat velen hebben van hackers is voor een groot deel een fictie. Donker gekleed, zittend in een donkere kamer achter een laptopje, furieus tikkend. En vroeger of later komt dat ene zinnetje: “I’m in!” De realiteit van hacken is helaas niet zo theatraal, maar de dreiging is er niet minder om. Vandaar ook dat bedrijven regelmatig mensen inhuren om een poging te doen hun systemen te kraken. Als je software een zwakke plek heeft, wil je dat natuurlijk zo snel mogelijk weten.

In dat kader komen dit weekend duizenden hackers bijeen in Las Vegas. De bedrijven achter “AI” programma’s zoals ChatGPT steunen het initiatief van harte. De jaarlijkse DEF CON hacking conferentie staat dit jaar namelijk helemaal in het thema van kunstmatige intelligentie.

Genoeg reden tot zorg

De industrie mag dan eindeloze toepassingen voor ogen hebben voor “AI” die allemaal het leven van de gemiddelde mens moeten gaan verbeteren, voorlopig wordt “AI” vooral veel gebruikt door oplichters. Van relatief onschuldige gebruikers die vooral zonder te werken een toets willen halen, tot het beïnvloeden van verkiezingen: met generatieve “AI” wordt het allemaal flink wat makkelijker. En dus is het van groot belang dat de technologie niet zomaar in de verkeerde handen valt.

Dat staat natuurlijk naast het feit dat bedrijven hun geheimen liever niet op straat hebben liggen. Maar ook zonder de onderliggende technologie in handen te hebben, kan “AI” voor problemen zorgen. Ontwikkelaars van “AI” proberen hun producten ervan te verhinderen om ongewenste resultaten te genereren. Denk bijvoorbeeld aan de vraag die eerder aan een “AI” werd gesteld: Hoe vernietig ik de mensheid? Ontwikkelaars proberen er voor te zorgen dat hun producten dergelijke opdrachten niet uitvoeren, maar dat soort veiligheden zijn te omzeilen.

Veel steun voor “Red-teaming”

Zodoende gaan duizenden hackers dit weekend aan de slag. ‘Red-teaming’ is een term die duidt op het spelen van de tegenpartij. Het is een praktijk die al jaren wordt toegepast in de tech-industrie. De bedrijven (OpenAI, Meta, Google en Anthropic) achter de programma’s waar dit weekend de pijlen op worden gericht staan geheel achter het evenement. Een woordvoerder van OpenAI had het volgende te zeggen: “Niet alleen stelt het (red-teaming) ons in staat om waardevolle feedback te verzamelen waarmee we onze modellen beter en veiliger kunnen maken, we krijgen ook nieuwe perspectieven en horen andere stemgeluiden om ons te sturen in het ontwikkelen van AI.” 

Ook het Witte Huis is voorstander. Washington noemt de steun die ze verleent aan het evenement onderdeel van het huidige beleid voor “AI”. De Amerikaanse overheid heeft een strategisch belang bij het steunen van de eigen tech industrie, maar wil ook een oogje in het zeil houden wat betreft de veiligheid. Al vele malen werden de CEO’s van “AI” ontwikkelaars naar Washington gehaald om ondervraagd te worden. Vrezen over de mogelijke gevolgen van onverantwoord “AI” gebruik dreven de meeste van deze vragen.

Tags

Tags:

Martin Scholten

Martin Scholten

Martin werkt sinds 2023 bij Apparata en is gespecialiseerd in series, gaming, artificial intelligence en social media. Voordat hij deel uitmaakte van het team van Apparata, was hij tekstschrijver bij 42bis. Hij studeerde Arts, Media en Society aan de Universiteit Leiden. In zijn vrije tijd is Martin een fervent darter en oefent hij wekelijks in zijn favoriete stamcafé.

Alle artikelen door Martin Scholten
Populaire artikelen
Populaire categorieën