1. Prompt (Podpowiedź) – Fragment tekstu wprowadzany przez użytkownika w celu uzyskania odpowiedzi od modelu językowego.
  2. Inżynieria podpowiedzi (Prompt engineering) – Proces projektowania i optymalizacji podpowiedzi dla dużych modeli językowych w celu uzyskania pożądanych wyników.
  3. Model językowy (Language model) – Matematyczny model trenowany na danych tekstowych, zdolny do generowania i przetwarzania języka naturalnego.
  4. Duży model językowy (Large Language Model, LLM) – Zaawansowany model językowy zdolny do wykonywania różnorodnych zadań związanych z przetwarzaniem języka naturalnego.
  5. Wyjście (Output) – Odpowiedź generowana przez model językowy w reakcji na podaną podpowiedź.
  6. Dostrajanie (Fine-tuning) – Proces dostosowywania parametrów modelu językowego w celu poprawy jego wydajności w konkretnych zadaniach.
  7. Modele transformatorowe (Transformer models) – Klasa modeli AI zdolnych do rozumienia kontekstu i sekwencji w języku, stosowanych w zadaniach takich jak tłumaczenie czy generowanie tekstu.
  8. Token – Podstawowa jednostka przetwarzania w modelach językowych, reprezentująca słowo, znak lub część słowa.
  9. Meta-uczenie (Meta-learning) – Technika umożliwiająca modelom AI uczenie się procesu uczenia, co pozwala na szybszą adaptację do nowych sytuacji.
  10. Automatyczne generowanie podpowiedzi (Auto prompt generation) – Koncepcja, w której modele AI same tworzą podpowiedzi.
  11. Iteracja – Powtarzalny proces projektowania, testowania i udoskonalania podpowiedzi w celu osiągnięcia optymalnych wyników.
  12. Generacja wspomagana wyszukiwaniem (Retrieval-augmented generation, RAG) – Metoda poprawiająca dokładność generowanych odpowiedzi poprzez włączenie do podpowiedzi istotnych informacji z bazy wiedzy.
  13. Atak przez wstrzyknięcie podpowiedzi (Prompt injection attack) – Manipulacja podpowiedziami w celu wpłynięcia na wyniki modelu językowego, często z zamiarem wprowadzenia stronniczości lub szkodliwych efektów.
  14. Kontekst – Informacje dodatkowe zawarte w prompcie, które pomagają modelowi AI lepiej zrozumieć zadanie
  15. Autodebugging – Metoda, w której model AI jest instruowany, aby przedstawić wszystkie kroki swojego rozumowania
  16. Prompt zero-shot – Podpowiedź umożliwiająca modelowi wykonanie zadania bez wcześniejszego treningu na podobnych przykładach.
  17. Prompt few-shot – Podpowiedź zawierająca kilka przykładów, które pomagają modelowi zrozumieć zadanie
  18. Temperatura – Parametr kontrolujący losowość i kreatywność odpowiedzi modelu AI.
  19. Podpowiedź warunkowa – Prompt zawierający warunki lub ograniczenia dla generowanej odpowiedzi.