Du stoler på at AI-en din følger instruksjonene dine, men hva om noen andre i hemmelighet endrer dem? Et nytt angrep lar ondsinnede aktører kapre instruksjonene dine, noe som får LLM til å returnere villedende eller skadelige svar som stjeler data eller lurer brukere. La oss utforske hvordan dette mann-in-the-prompt-angrepet fungerer og hvordan du kan forsvare deg mot det.
Innholdsfortegnelse
- Hva er et Man-in-the-Prompt-angrep?
- Nettleserutvidelser for politiet
- Skriv inn ledetekster manuelt og inspiser før sending
- Start nye chat-økter når det er mulig
- Inspiser modellens svar
I likhet med et mann-i-midten-angrep avskjærer et mann-i-middel-angrep interaksjonen din med et verktøy for store språkmodeller (LLM) som AI-chatbots for å returnere et uventet svar. De kan injisere en synlig eller til og med en usynlig forespørsel sammen med forespørselen din om å instruere LLM om å avsløre hemmelig informasjon eller gi et ondsinnet svar.
Så langt er nettleserutvidelser hovedangrepsvektoren for dette angrepet. Dette er hovedsakelig fordi LLM-prompten input og output er en del av sidens Document Object Model (DOM) som nettleserutvidelser kan få tilgang til ved å bruke grunnleggende tillatelser. Imidlertid kan dette angrepet også utføres ved hjelp av andre metoder, som å bruke et verktøy for å generere meldinger for å injisere ondsinnede instruksjoner.
Private LLM-er, som i et bedriftsmiljø, er mest sårbare for dette angrepet ettersom de har tilgang til private bedriftsdata, som API-nøkler eller juridiske dokumenter. Personlige kommersielle chatbots er også sårbare, siden de kan inneholde sensitiv informasjon. For ikke å nevne, LLM kan bli lurt til å fortelle brukeren om å klikke på en ondsinnet lenke eller utføre ondsinnet kode, som et FileFix- eller Eddiestealer-angrep.
Hvis du vil forsikre deg om at AI-chatboten din ikke blir brukt mot deg, er det noen måter du kan beskytte deg selv på.
Nettleserutvidelser for politiet
Selv om nettleserutvidelser er hovedskyldige, er det vanskelig å oppdage et mann-i-spørre-angrep, siden utvidelsen ikke krever spesielle tillatelser for å utføre. Det beste alternativet er å unngå å installere slike utvidelser. Eller hvis du må, installer bare utvidelser fra anerkjente utgivere som du stoler på.
Du kan også spore utvidelsens bakgrunnsaktivitet for å få ledetråder. Når du bruker en LLM, trykk Shift + Esc-tastene for å åpne nettleserens oppgavebehandling. Se om noen utvidelser begynner å kjøre prosessene deres selv når de ikke skal fungere der. Dette kan tyde på at det endrer ledeteksten, spesielt hvis det bare skjer når du skriver i chatbotens tekstfelt.
Unngå dessuten å bruke utvidelser som direkte samhandler med LLM-verktøyene dine eller endrer forespørsler. De kan fungere bra i starten, men kan begynne å gjøre ondsinnede redigeringer senere.
Skriv inn ledetekster manuelt og inspiser før sending
Mange nettbaserte ledetekstverktøy kan redigere forespørslene dine for bedre resultater eller gi ledetekstmaler. Selv om disse verktøyene er nyttige, kan de også injisere ondsinnede instruksjoner i ledetekstene dine og trenger ikke direkte tilgang til nettleseren/enheten din.
Prøv å skrive meldinger manuelt i AI chatbot-vinduet og sjekk alltid før du trykker Enter. Hvis du må kopiere fra en annen kilde, lim den først inn i en ren tekstredigerer som Notepad-appen i Windows, og lim den deretter inn i chatboten. Dette vil sikre at eventuelle skjulte instruksjoner avsløres. Hvis det er noen tomme mellomrom, sørg for at du bruker tilbaketasten for å fjerne dem.
Hvis du trenger å bruke spørsmålsmaler, lag dine egne og oppbevar dem trygge i en notatapp i stedet for å være avhengig av tredjepartskilder. Disse kildene kan introdusere ondsinnede instruksjoner senere når du begynner å stole på dem.
Start nye chat-økter når det er mulig
Man-in-the-Prompt-angrep kan også stjele informasjon fra en gjeldende økt. Hvis du har delt sensitiv informasjon med LLM, er det bedre å starte en ny chat-økt når emnet endres. Dette vil sikre at LLM ikke avslører sensitiv informasjon selv om et mann-in-the-prompt-angrep skjer.
RELATERT:16 milliarder passord lekket på grunn av infostelere: Slik beskytter du deg selv

Videre, hvis et slikt angrep skjer, kan en ny chat hindre den i å påvirke økten ytterligere.
Mens du bruker AI chatbot, ikke tro på alt den svarte. Du må være veldig skeptisk til LLMs svar, spesielt når du finner uregelmessigheter. Hvis chatboten plutselig gir deg sensitiv informasjon uten at du spør, bør du umiddelbart lukke chatten eller i det minste åpne en ny økt. De fleste man-in-the-prompt-instruksjonene vil enten se bort fra den opprinnelige ledeteksten eller be om tilleggsinformasjonen i en egen del på slutten.
Videre kan de også be LLM om å svare på en uvanlig måte for å forvirre brukeren, som å legge informasjonen i en koderedigeringsblokk eller en tabell. Hvis du ser slike uregelmessigheter, må du umiddelbart anta at det er et mann-in-the-prompt-angrep.
Inntreden av Man-in-the-Prompt-angrep er veldig enkelt i bedriftsmiljøer, ettersom de fleste bedrifter ikke kontrollerer nettleserutvidelsene til ansatte. For maksimal sikkerhet kan du også prøve å bruke LLM-er i inkognitomodus med utvidelser deaktivert. Mens du er i gang, sørg for at du beskytter deg mot slopsquatting-angrep som drar fordel av AI-hallusinasjoner.











