Egy nyelvi modell kimenetének
eltérítésére használt technika, azt jelenti, hogy egy felhasználó vagy támadó
manipulálja a modell által használt „prompt” szöveget, hogy
befolyásolja a modell által generált választ. A prompt injection lehet szándékos
vagy véletlen.