Inżynieria podpowiedzi (prompt engineering) to dział sztucznej inteligencji skupiający się na optymalizacji, projektowaniu i dostosowywaniu pytań, poleceń lub sugestii wejściowych (tzw. „promptów„) dla modeli przetwarzania języka naturalnego (NLP), aby uzyskać jak najbardziej precyzyjne i użyteczne wyniki. Ta koncepcja jest ważna w kontekście dużych modeli językowych (LLM), takich jak np. GPT-4, które mogą być wykorzystywane do różnorodnych zadań bez potrzeby ponownego trenowania.

Inżynieria podpowiedzi wykorzystuje strategię uczenia opartego na zapytaniach (prompt-based learning), gdzie wiedza zdobyta przez wstępnie wytrenowane modele językowe jest wykorzystywana do rozwiązywania różnych zadań. W tej metodologii, tylko reprezentacja podpowiedzi jest uczona, a sam model językowy pozostaje „zamrożony”.

Nieodpowiednie lub nieoptymalne podpowiedzi mogą jednak prowadzić do tzw. „halucynacji AI”, czyli generowania przez model nierealistycznych lub niezwiązanych z rzeczywistością wyników. W związku z tym, rola inżyniera podpowiedzi, który dostosowuje i optymalizuje te podpowiedzi, staje się coraz bardziej kluczowa.