Članek
Objavljeno Aug 30, 2025
Šokantno odkritje: ChatGPT je dal navodila za izdelavo bomb, antraksa in drog – raziskovalci opozarjajo na zlorabo umetne inteligence
Raziskovalci so ugotovili, da je umetna inteligenca OpenAI, znana kot ChatGPT, v nadzorovanih testih podala podrobna navodila o tem, kako izvesti teroristične napade na športnih prizoriščih, kako izdelati eksploziv in kako se izogniti odkrivanju, poroča Guardian.
Med poskusi, ki so jih izvedli to poletje, je ChatGPT raziskovalcem ponudil »načrte« za ranljiva mesta na določenih prizoriščih, kemijske formule za eksplozive, diagrame časovnikov bomb in navodila za pridobitev orožja na »temnem spletu«.
#ChatGPT
#Raziskovalci
#OpenAI
#Eksploziv
#Splet
#Orožje
#Zloraba
#Terorizem
#Antraks
#Navodila
Aug 30, 2025