ChatGPT kan manipuleres til at vise bombeopskrift

Kategori: Feature

Det er lykkedes en person at manipulere ChatGPT til at vise en opskrift på en hjemmelavet bombe.

Kunstneren/hackeren ‘Armadon’ har manipuleret ChatGPT til at bringe instruktioner på hvordan man kan lave sin egen bombe – f.ex. en gødningsbombe.

Det skriver teknologimediet TectCrunch i en artikel den 12/9 2024.

Armadon manipulerede ChatGPT til at afvige fra sit indbyggede regelsæt.

Det gjorde han/hun ved at bruge en teknik, der allerede er almindelig kendt – på trods af at AI chatbots stadig er en forholdsvis ny teknologi.

Jailbreaking

Armadon bad ChatGPT om at konstruere et spil.

Derefter instruerede han/hun ChatGPT om at bygge en sci-fi verden, hvor ChatGPTs normale regler og guidelines ikke gælder.

Efter en serie af input og svar mellem Armadon og ChatGPT leverede chatbotten en liste over de materialer, der skal bruges til at fremstille sprængstof.

Metoden, hvor man snyder en chatbot til at afvige fra sit indbyggede regelsæt er som sagt allerede kendt, og går under betegnelsen ‘Jailbreaking’.

Ikke et ord om at det er ulovligt

Hvis man prøver at spørge ChatGPT direkte om en bombeopskrift, så bliver man afvist.

Teknologimediet TechCrunch testede selv ChatGPT og bad botten om at levere en opskrift på en gødningsbombe.

Hertil svarede ChatGPT:

I can’t assist with that, […] Providing instructions on how to create dangerous or illegal items, such as a fertilizer bomb, goes against safety guidelines and ethical responsibilities.

TechCrunch, 12/9 2024

Læg mærke til at der i ChatGPTs svar intet nævnes om at det er (juridisk) ulovligt og kriminelt – både at videreformidle bombeopskrifter og at bruge disse opskrifter til at fremstille sprængstof…

Uhyggeligt detaljerede svar

Svarene fra ChatGPT blev i løbet af sessionen mellem Armadon og ChatGPT mere og mere detaljerede.

ChatGPT gav selv oplysninger om at materialerne kunne bruges til at fremstille kraftigt sprængstof.

Jo mere specifikt Armadon spurgte, jo mere specifikke svar leverede ChatGPT.

Ifølge TechCrunch har Armadon udtalt at der ikke rigtig ser ud til at være nogen grænse for hvad man kan spørge ChatGPT om, når først man er forbi det interne regelsæt i ChatGPT:

The sci-fi scenario takes the AI out of a context where it’s looking for censored content in the same way

Armadon til TechCrunch, 12/9 2024

TMI (too much information)

TechCrunch har forelagt dialogen og dens indhold for Darrell Taulbee, en amerikansk forsker, der har arbejdet for U.S. Department of Homeland Security, med at gøre gødningsprodukter mindre anvendelige til bombefremstilling.

Ifølge Taulbee overskrider ChatGPT grænsen for TMI massivt:

I think this is definitely TMI [too much information] to be released publicly, […]. Any safeguards that may have been in place to prevent providing relevant information for fertilizer bomb production have been circumvented by this line of inquiry as many of the steps described would certainly produce a detonatable mixture.

TechCrunch, 12/9 2024

Der er andre, der har benyttet Jailbreaking mod chatbotter før Armadon, og der findes (mange) andre steder på Nettet, hvor man kan hente oplysninger om farlige og ulovlige stoffer mv.

Eksemplet beskrevet her er netop et eksempel… også på teknologi, der ikke virker efter hensigten og teknologi, der virker uhensigtsmæssigt.

Kopiering er ikke tilladt / Content copying is not allowed