Naar aanleiding van tegenstrijdige rapporten van de denktank RAND over de mogelijkheid om met instructies van ChatGPT een biologisch wapen te produceren, heeft OpenAI zelf onderzoek uitgevoerd. Het blijkt dat met de researchversie van GPT-4 inderdaad een beschrijving voor het produceren van het ebolavirus verkregen kan worden, inclusief een stappenplan.
Met de toenemende geavanceerdheid van kunstmatige intelligentie wordt de vraag of schadelijke informatie uit generatieve chatbots kan worden gehaald steeds relevanter. Ondanks filters die door verschillende techbedrijven zijn geïmplementeerd om dergelijke inhoud te blokkeren, blijkt dat deze mogelijk te omzeilen zijn.
Een rapport van de denktank RAND stelde in oktober dat het mogelijk was om met instructies van ChatGPT een biologisch wapen te produceren, maar trok deze conclusie later deels terug. OpenAI voerde vervolgens zelf een onderzoek uit, waaruit bleek dat met GPT-4 inderdaad een beschrijving voor het produceren van ebola verkregen kan worden.
OpenAI benadrukt echter dat er geen reden tot paniek is, aangezien een technische expertise en toegang tot benodigde middelen vereist zijn om daadwerkelijk biologische wapens te produceren. Desalniettemin kan toegang tot GPT-4 het vermogen van experts vergroten om informatie over biologische dreigingen te verkrijgen, maar de huidige modellen blijken slechts matig nuttig te zijn voor dit soort misbruik. OpenAI belooft een waarschuwingssysteem in te bouwen voor toekomstige large language models.