ChatGPT is een groot taalmodel (LLM) ontwikkeld door OpenAI dat kan worden gebruikt om tekst te genereren, talen te vertalen, verschillende soorten creatieve inhoud te schrijven en uw vragen op een informatieve manier te beantwoorden. In maart 2023 lanceerde OpenAI een plug-inplatform voor ChatGPT waarmee ontwikkelaars plug-ins kunnen maken die de functionaliteit van ChatGPT uitbreiden.
Wired meldt echter dat beveiligingsonderzoekers hebben gewaarschuwd dat ChatGPT-plug-ins een aantal veiligheids-en privacyrisico’s met zich meebrengen. Een van de grootste risico’s is dat plug-ins kunnen worden gebruikt om kwaadaardige code in ChatGPT-sessies te injecteren. Hierdoor kunnen aanvallers gegevens stelen, malware installeren of zelfs de computer van een gebruiker overnemen.
Een ander risico is dat plug-ins kunnen worden gebruikt om gebruikersgegevens te verzamelen zonder hun medeweten of toestemming. Een plug-in kan bijvoorbeeld worden gebruikt om de browse-activiteit van een gebruiker te volgen of hun gesprekken met ChatGPT op te nemen.
Een beveiligingshobbyist en rode teamdirecteur bij Electronic Arts, Johann Rehberger, is een van de onderzoekers die in zijn vrije tijd ChatGPT-plug-ins heeft verkend. Hij heeft ontdekt hoe ze kunnen worden misbruikt om toegang te krijgen tot iemands chatgeschiedenis, persoonlijke informatie te verkrijgen en code uit te voeren op iemands computer zonder diens toestemming.
Hij heeft zich voornamelijk geconcentreerd op plug-ins die gebruikmaken van OAuth, een webstandaard waarmee u gegevens tussen online accounts kunt delen. Rehberger zegt dat hij verschillende ontwikkelaars van plug-ins privé op de hoogte heeft gesteld van de problemen en ook een paar keer heeft geprobeerd contact op te nemen met OpenAI.”ChatGPT kan de plug-in niet vertrouwen”, zegt Rehberger.”Het kan in wezen niet vertrouwen op wat terugkomt van de plug-in, omdat het van alles kan zijn.”
OpenAI heeft enkele stappen ondernomen om deze risico’s te beperken. Het bedrijf vereist bijvoorbeeld dat alle plug-ins worden beoordeeld door OpenAI voordat ze kunnen worden gepubliceerd. Beveiligingsonderzoekers zeggen echter dat er meer moet worden gedaan om gebruikers te beschermen tegen de risico’s van ChatGPT-plug-ins.
Hier volgen enkele veiligheids-en privacyrisico’s van ChatGPT-plug-ins
Injectie van schadelijke code: Plug-ins kunnen worden gebruikt om schadelijke code in ChatGPT-sessies te injecteren, waardoor aanvallers gegevens kunnen stelen, malware kunnen installeren of zelfs de controle over de computer van een gebruiker kunnen overnemen. Gegevensverzameling: plug-ins kunnen worden gebruikt om gebruikersgegevens te verzamelen zonder hun medeweten of toestemming. Een plug-in kan bijvoorbeeld worden gebruikt om de browse-activiteit van een gebruiker bij te houden of om hun gesprekken met ChatGPT op te nemen. Phishing-aanvallen: plug-ins kunnen worden gebruikt om phishing-aanvallen uit te voeren. Een plug-in kan bijvoorbeeld worden gebruikt om een nep-ChatGPT-sessie te genereren die er echt uitziet, waardoor gebruikers kunnen worden misleid om hun persoonlijke gegevens in te voeren.
In mei zei Rehberger dat ChatGPT-gebruikers op hun hoede moeten zijn voor’prompt-injecties’, een nieuwe beveiligingsdreiging waarmee buitenstaanders uw ChatGPT-query’s zonder uw toestemming kunnen manipuleren. Rehberger demonstreerde dit door nieuwe prompts in te voegen in een ChatGPT-query die hij niet had gestart.
Hij gebruikte een ChatGPT-plug-in die YouTube-transcripties samenvat en bewerkte het transcript om een prompt toe te voegen die ChatGPT instrueerde zichzelf aan het einde een specifieke naam te geven. ChatGPT volgde de prompt en veranderde de naam Hoewel deze promptinjecties redelijk veilig zijn, benadrukken ze hoe de methode kan worden gebruikt voor kwaadaardige doeleinden.