Prompt (Podpowiedź) – Fragment tekstu wprowadzany przez użytkownika w celu uzyskania odpowiedzi od modelu językowego.
Inżynieria podpowiedzi (Prompt engineering) – Proces projektowania i optymalizacji podpowiedzi dla dużych modeli językowych w celu uzyskania pożądanych wyników.
Model językowy (Language model) – Matematyczny model trenowany na danych tekstowych, zdolny do generowania i przetwarzania języka naturalnego.
Duży model językowy (Large Language Model, LLM) – Zaawansowany model językowy zdolny do wykonywania różnorodnych zadań związanych z przetwarzaniem języka naturalnego.
Wyjście (Output) – Odpowiedź generowana przez model językowy w reakcji na podaną podpowiedź.
Dostrajanie (Fine-tuning) – Proces dostosowywania parametrów modelu językowego w celu poprawy jego wydajności w konkretnych zadaniach.
Modele transformatorowe (Transformer models) – Klasa modeli AI zdolnych do rozumienia kontekstu i sekwencji w języku, stosowanych w zadaniach takich jak tłumaczenie czy generowanie tekstu.
Token – Podstawowa jednostka przetwarzania w modelach językowych, reprezentująca słowo, znak lub część słowa.
Meta-uczenie (Meta-learning) – Technika umożliwiająca modelom AI uczenie się procesu uczenia, co pozwala na szybszą adaptację do nowych sytuacji.
Automatyczne generowanie podpowiedzi (Auto prompt generation) – Koncepcja, w której modele AI same tworzą podpowiedzi.
Iteracja – Powtarzalny proces projektowania, testowania i udoskonalania podpowiedzi w celu osiągnięcia optymalnych wyników.
Generacja wspomagana wyszukiwaniem (Retrieval-augmented generation, RAG) – Metoda poprawiająca dokładność generowanych odpowiedzi poprzez włączenie do podpowiedzi istotnych informacji z bazy wiedzy.
Atak przez wstrzyknięcie podpowiedzi (Prompt injection attack) – Manipulacja podpowiedziami w celu wpłynięcia na wyniki modelu językowego, często z zamiarem wprowadzenia stronniczości lub szkodliwych efektów.
Kontekst – Informacje dodatkowe zawarte w prompcie, które pomagają modelowi AI lepiej zrozumieć zadanie
Autodebugging – Metoda, w której model AI jest instruowany, aby przedstawić wszystkie kroki swojego rozumowania
Prompt zero-shot – Podpowiedź umożliwiająca modelowi wykonanie zadania bez wcześniejszego treningu na podobnych przykładach.
Prompt few-shot – Podpowiedź zawierająca kilka przykładów, które pomagają modelowi zrozumieć zadanie
Temperatura – Parametr kontrolujący losowość i kreatywność odpowiedzi modelu AI.
Podpowiedź warunkowa – Prompt zawierający warunki lub ograniczenia dla generowanej odpowiedzi.
Zapisz się do Newslettera!Bądź na bieżąco z AI
Szukasz innowacyjnych rozwiązań, które przekształcą Twój biznes? Zapisz się i odnajdź się w nowej rzeczywistości.
Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie.Zgoda