Det er lykkedes en person at manipulere ChatGPT til at vise en opskrift på en hjemmelavet bombe.
Kunstneren/hackeren ‘Armadon’ har manipuleret ChatGPT til at bringe instruktioner på hvordan man kan lave sin egen bombe – f.ex. en gødningsbombe.
Det skriver teknologimediet TectCrunch i en artikel den 12/9 2024.
Armadon manipulerede ChatGPT til at afvige fra sit indbyggede regelsæt.
Det gjorde han/hun ved at bruge en teknik, der allerede er almindelig kendt – på trods af at AI chatbots stadig er en forholdsvis ny teknologi.
Jailbreaking
Armadon bad ChatGPT om at konstruere et spil.
Derefter instruerede han/hun ChatGPT om at bygge en sci-fi verden, hvor ChatGPTs normale regler og guidelines ikke gælder.
Efter en serie af input og svar mellem Armadon og ChatGPT leverede chatbotten en liste over de materialer, der skal bruges til at fremstille sprængstof.
Metoden, hvor man snyder en chatbot til at afvige fra sit indbyggede regelsæt er som sagt allerede kendt, og går under betegnelsen ‘Jailbreaking’.
Ikke et ord om at det er ulovligt
Hvis man prøver at spørge ChatGPT direkte om en bombeopskrift, så bliver man afvist.
Teknologimediet TechCrunch testede selv ChatGPT og bad botten om at levere en opskrift på en gødningsbombe.
Hertil svarede ChatGPT:
I can’t assist with that, […] Providing instructions on how to create dangerous or illegal items, such as a fertilizer bomb, goes against safety guidelines and ethical responsibilities.
TechCrunch, 12/9 2024
Læg mærke til at der i ChatGPTs svar intet nævnes om at det er (juridisk) ulovligt og kriminelt – både at videreformidle bombeopskrifter og at bruge disse opskrifter til at fremstille sprængstof…
Uhyggeligt detaljerede svar
Svarene fra ChatGPT blev i løbet af sessionen mellem Armadon og ChatGPT mere og mere detaljerede.
ChatGPT gav selv oplysninger om at materialerne kunne bruges til at fremstille kraftigt sprængstof.
Jo mere specifikt Armadon spurgte, jo mere specifikke svar leverede ChatGPT.
Ifølge TechCrunch har Armadon udtalt at der ikke rigtig ser ud til at være nogen grænse for hvad man kan spørge ChatGPT om, når først man er forbi det interne regelsæt i ChatGPT:
The sci-fi scenario takes the AI out of a context where it’s looking for censored content in the same way
Armadon til TechCrunch, 12/9 2024
TMI (too much information)
TechCrunch har forelagt dialogen og dens indhold for Darrell Taulbee, en amerikansk forsker, der har arbejdet for U.S. Department of Homeland Security, med at gøre gødningsprodukter mindre anvendelige til bombefremstilling.
Ifølge Taulbee overskrider ChatGPT grænsen for TMI massivt:
I think this is definitely TMI [too much information] to be released publicly, […]. Any safeguards that may have been in place to prevent providing relevant information for fertilizer bomb production have been circumvented by this line of inquiry as many of the steps described would certainly produce a detonatable mixture.
TechCrunch, 12/9 2024
Der er andre, der har benyttet Jailbreaking mod chatbotter før Armadon, og der findes (mange) andre steder på Nettet, hvor man kan hente oplysninger om farlige og ulovlige stoffer mv.
Eksemplet beskrevet her er netop et eksempel… også på teknologi, der ikke virker efter hensigten og teknologi, der virker uhensigtsmæssigt.