Članek
Šokantno: ChatGPT je dal navodila za izdelavo bomb, antraksa in drog – raziskovalci opozarjajo na zlorabo umetne inteligence
Objavljeno Aug 30, 2025

Šokantno odkritje: ChatGPT je dal navodila za izdelavo bomb, antraksa in drog – raziskovalci opozarjajo na zlorabo umetne inteligence

Raziskovalci so ugotovili, da je umetna inteligenca OpenAI, znana kot ChatGPT, v nadzorovanih testih podala podrobna navodila o tem, kako izvesti teroristične napade na športnih prizoriščih, kako izdelati eksploziv in kako se izogniti odkrivanju, poroča Guardian.

Med poskusi, ki so jih izvedli to poletje, je ChatGPT raziskovalcem ponudil »načrte« za ranljiva mesta na določenih prizoriščih, kemijske formule za eksplozive, diagrame časovnikov bomb in navodila za pridobitev orožja na »temnem spletu«.

članek z virom...

#ChatGPT #Raziskovalci #OpenAI #Eksploziv #Splet #Orožje #Zloraba #Terorizem #Antraks #Navodila