Deel dit artikel
-

‘Risico’s van generatieve AI vereisen terughoudendheid in gebruik’

De opkomst van generatieve AI-systemen versterkt bekende risico’s van digitalisering, zoals discriminatie en onveiligheid. Daarnaast brengt de technologie nieuwe risico’s met zich mee voor intellectueel eigendom en menselijke ontwikkeling. Het huidige en aangekondigde beleid moeten worden doorgelicht en aangescherpt. Organisaties, bedrijven en burgers moeten zich dan ook afvragen of ze generatieve AI verantwoord kunnen gebruiken. Dat concludeert het Rathenau Instituut uit nieuw onderzoek.

Het is een reële mogelijkheid dat het huidige en aangekondigde beleid, waaronder de aanstaande Europese AI-verordening, niet voldoende zijn om de risico’s van generatieve AI-systemen tegen te gaan. Het Rathenau Instituut beveelt beleidsmakers en politici aan om nationaal en Europees beleid door te lichten en aan te scherpen, en met de AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen. In de tussentijd zijn ondersteuning van toezicht, afspraken met ontwikkelaars en maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E.

Dit artikel is voor premium abonnees . Log in of meld je aan!