Wizualizacja inżynierii promptów i struktur łańcucha myśli w modelu AI.

Wprowadzenie do Inżynierii Promptów

Inżynieria promptów (ang. prompt engineering) to strategiczna dziedzina polegająca na projektowaniu precyzyjnych instrukcji dla dużych modeli językowych (LLM) w celu uzyskania pożądanych odpowiedzi, bez modyfikacji wewnętrznych parametrów samego modelu. Wraz z rozwojem zaawansowanych systemów, takich jak GPT-4, rola tej dyscypliny staje się fundamentalna dla efektywnego wykorzystania ich potencjału. Jak wskazuje przegląd autorstwa Zhen Zheng, jakość tekstowego polecenia ma decydujący wpływ na wynik generowany przez model. Nieformalne lub nieprecyzyjnie sformułowane prompty często prowadzą do odpowiedzi, którym brakuje profesjonalizmu i dokładności oczekiwanej w zastosowaniach biznesowych i naukowych. Dlatego precyzyjne projektowanie promptów jest kluczowe dla sterowania modelem w kierunku generowania profesjonalnych i rzetelnych treści.

W dokumencie przedstawiono systematyczną klasyfikację metod, analizę ich praktycznych zastosowań w różnych domenach, a także omówiono najczęstsze wyzwania i dobre praktyki, które pozwalają maksymalizować skuteczność interakcji z LLM.

Struktura raportu została zaprojektowana tak, aby prowadzić czytelnika od podstawowych koncepcji do zaawansowanych strategii. Rozpoczniemy od przedstawienia taksonomii technik, która stanowi ramy dla dalszej analizy. Następnie przeanalizujemy, jak poszczególne metody sprawdzają się w zastosowaniach kognitywnych i transformacyjnych. W końcowej części omówimy ograniczenia oraz przedstawimy zbiór praktycznych zaleceń.

Przejdźmy zatem do omówienia fundamentalnych technik, które stanowią podstawę skutecznej komunikacji z modelami językowymi.

Taksonomia i Przegląd Kluczowych Technik

Systematyczne kategoryzowanie technik inżynierii promptów ma strategiczne znaczenie dla zrozumienia ich funkcji i optymalnego doboru do konkretnych zadań. Aby uporządkować tę dynamicznie rozwijającą się dziedzinę, w niniejszym raporcie przyjęto czteroelementową taksonomię opartą na pracy Zhen Zheng. Klasyfikuje ona techniki w następujących kategoriach: (1) Profil i instrukcja, (2) Wiedza, (3) Rozumowanie i planowanie oraz (4) Niezawodność. Taki podział tworzy solidne ramy analityczne, pozwalające na dogłębne zrozumienie mechanizmów stojących za każdą z metod i ich wzajemnych relacji.

Fundamenty Konstrukcji Promptu: Profil i Instrukcja

Kategoria „Profil i instrukcja” obejmuje techniki koncentrujące się na treści tekstowej samego promptu i stanowi fundament dla bardziej zaawansowanych metod. Definiują one podstawowe atrybuty modelu oraz specyfikację zadania, standaryzując jego odpowiedzi w oparciu o dostarczone informacje.

Komponentem kluczowym w tej kategorii są „Informacje o osobowości” (Personality information). Przypisanie modelowi LLM konkretnej roli, takiej jak prawnik, nauczyciel czy ekspert w danej dziedzinie, pozwala precyzyjnie ukierunkować kontekst, ton oraz styl odpowiedzi. Taka personifikacja znacząco zwiększa trafność generowanych treści, ponieważ model, przyjmując określoną rolę, aktywuje wiedzę i schematy językowe z nią związane.

W ramach tej kategorii wyróżniamy dwie fundamentalne techniki:

  • Zero-Shot Prompting: Technika ta polega na wykorzystaniu istniejącej, wyuczonej wiedzy modelu do wygenerowania odpowiedzi wyłącznie na podstawie instrukcji zawartych w prompcie, bez dostarczania jakichkolwiek przykładów. Jak wskazują badania, takie podejście umożliwia modelowi dostęp do wiedzy o zadaniach, z którymi miał do czynienia podczas treningu.
  • Few-Shot Prompting: W odróżnieniu od podejścia zero-shot, technika ta polega na dostarczeniu w prompcie kilku przykładów (demonstracji) pożądanego formatu lub stylu odpowiedzi. Działa jako forma uczenia wewnątrzkontekstowego (in-context learning), gdzie model na podstawie dostarczonych wzorców uczy się, jak powinien wyglądać docelowy rezultat, co znacząco poprawia precyzję i spójność generowanych treści.

Poniższa tabela syntetyzuje kluczowe różnice i zastosowania obu technik.

TechnikaKluczowa charakterystyka i zastosowanie
Zero-Shot PromptingCharakterystyka: Polega na udzieleniu instrukcji bez dostarczania przykładów. Model opiera się wyłącznie na swojej wewnętrznej wiedzy, aby wykonać zadanie. Zastosowanie: Proste zadania klasyfikacyjne, generowanie tekstu na ogólne tematy, odpowiadanie na pytania, gdy oczekiwany format jest standardowy.
Few-Shot PromptingCharakterystyka: Polega na dostarczeniu w prompcie kilku przykładów (demonstracji) par „wejście-wyjście”. Model uczy się na ich podstawie pożądanego formatu, stylu lub logiki. Zastosowanie: Złożone zadania wymagające specyficznego formatowania (np. JSON), klasyfikacja sentymentu, tłumaczenia stylistyczne, adaptacja do niestandardowych zadań.

Wzbogacanie Wiedzą: Techniki Retrieval-Augmented Generation (RAG)

Techniki oparte na wiedzy mają na celu zintegrowanie informacji pochodzących z zewnętrznych, prywatnych lub aktualnych baz danych bezpośrednio w procesie generowania odpowiedzi. Ich głównym celem jest ograniczenie zjawiska „halucynacji” (generowania nieprawdziwych informacji) oraz zwiększenie profesjonalizmu i wiarygodności odpowiedzi LLM. Kluczową technologią w tej kategorii jest Retrieval-Augmented Generation (RAG), która dynamicznie uzupełnia wiedzę modelu o informacje zewnętrzne.

Podstawowy RAG (Basic RAG) działa w oparciu o trzyetapowy proces:

  1. Indeksowanie (Indexing): Dokumenty z zewnętrznej bazy wiedzy są dzielone na mniejsze fragmenty (ang. chunks) i przekształcane w wektory numeryczne.
  2. Wyszukiwanie (Retrieval): Zapytanie użytkownika jest porównywane z wektorami w bazie w celu znalezienia najbardziej relewantnych semantycznie fragmentów.
  3. Generowanie (Generation): Oryginalne zapytanie wraz z odnalezionymi fragmentami jest przekazywane do LLM w formie rozszerzonego promptu, na podstawie którego model generuje ostateczną odpowiedź.

Przykładowa, standardowa struktura promptu RAG może wyglądać następująco: Pytanie: [Pytanie użytkownika] \n Kontekst: \n Fragment 1: ... \n Fragment 2: ... \n Odpowiedz na pytanie, opierając się wyłącznie na podanym kontekście. Mimo swojej skuteczności, podstawowe podejście RAG napotyka na trzy kluczowe wyzwania z perspektywy inżynierii promptów, zidentyfikowane w źródle [80]: (1) wyszukanie fragmentów o najwyższej trafności, (2) efektywne połączenie wyszukanej treści w spójny prompt oraz (3) iteracyjne udoskonalanie całego procesu.

Zaawansowany RAG (Advanced RAG) stanowi ewolucję podstawowego podejścia, wprowadzając optymalizacje w kluczowych obszarach procesu, co ilustruje schemat z Fig. 6 w materiale źródłowym. Główne innowacje koncentrują się na trzech etapach:

  1. Optymalizacja przed wyszukiwaniem (Pre-retrieval): Techniki takie jak przepisywanie zapytań (np. Query2doc, ITER-RETGEN) modyfikują oryginalne zapytanie użytkownika, aby lepiej odpowiadało ono semantyce dokumentów w bazie wiedzy, co zwiększa trafność wyszukiwania.
  2. Optymalizacja po wyszukiwaniu (Post-retrieval): Na tym etapie modyfikuje się treść i strukturę odnalezionych dokumentów, aby lepiej dopasować je do kontekstu zapytania, np. poprzez podkreślenie kluczowych fragmentów lub zmianę ich kolejności.
  3. Zarządzanie pamięcią (Memory management): Zaawansowany RAG może wykorzystywać historię konwersacji do generowania kontekstowej pamięci dla LLM, co poprawia spójność i dokładność odpowiedzi w dłuższych dialogach.

Wspomaganie Rozumowania i Planowania

Techniki wspomagające rozumowanie odgrywają kluczową rolę w rozwiązywaniu złożonych, wieloetapowych problemów, które wymagają logicznego myślenia i planowania. Metody te naśladują ludzkie procesy myślowe, dekomponując skomplikowane zadania na prostsze kroki lub wykorzystując narzędzia zewnętrzne do delegowania specyficznych operacji, takich jak obliczenia matematyczne czy wyszukiwanie informacji w czasie rzeczywistym.

Chain-of-Thought (CoT)

Chain-of-Thought (CoT), czyli łańcuch myśli, to fundamentalna technika dekompozycji iteracyjnej, zapoczątkowana w pracy Wei et al. [30]. Polega ona na instruowaniu modelu, aby generował sekwencję pośrednich kroków rozumowania przed udzieleniem ostatecznej odpowiedzi. Zamiast natychmiastowego wyniku, model przedstawia swój „proces myślowy”, co znacząco zwiększa dokładność w zadaniach wymagających logiki i arytmetyki.

CoT można zaimplementować na dwa sposoby:

  • Zero-shot CoT: Wystarczy dodać do promptu prostą frazę, taką jak "Let's think step by step" lub "Pomyślmy krok po kroku", aby zachęcić model do przedstawienia swojego rozumowania.
  • Few-shot CoT: Technika ta polega na dostarczeniu w prompcie kompletnych przykładów problemów rozwiązanych krok po kroku. Model uczy się na podstawie tych demonstracji, jak strukturyzować własny łańcuch myśli.

Skuteczność CoT jest silnie skorelowana ze złożonością zadania. W przypadku problemów wymagających pięciu lub więcej kroków rozumowania, modele wykorzystujące CoT osiągają znacznie lepsze wyniki niż te bez tej techniki. Jednak, jak wskazują badania, dla prostych zadań (wymagających mniej niż trzech kroków) CoT może niepotrzebnie komplikować proces i prowadzić do pogorszenia wyników poprzez tzw. „nadmierne rozumowanie” (ang. excessive reasoning).

Zaawansowane Strategie Rozumowania

Oprócz CoT, opracowano szereg bardziej zaawansowanych strategii, które rozszerzają zdolności LLM w zakresie rozumowania. Poniższa tabela przedstawia ich syntetyczne porównanie.

TechnikaPodstawowy MechanizmTyp ProblemuKluczowa Zaleta
Chain-of-Thought (CoT)Generowanie pojedynczego, liniowego łańcucha kroków rozumowania.Problemy sekwencyjne, wymagające logicznej dekompozycji (np. zadania matematyczne).Prostota implementacji i skuteczność w wieloetapowych zadaniach logicznych.
Tree-of-Thoughts (ToT)Eksploracja wielu równoległych ścieżek rozumowania w strukturze drzewa, z oceną i selekcją najlepszych gałęzi.Problemy z wieloma potencjalnymi rozwiązaniami, wymagające eksploracji i ewentualnego cofania się.Większa odporność na błędy w pojedynczym kroku rozumowania; zdolność do znajdowania bardziej optymalnych rozwiązań.
ReAct (Reason+Act)Cykliczne połączenie rozumowania (Myśl) z wywoływaniem narzędzi zewnętrznych (Działanie) i analizą ich wyników (Obserwacja).Zadania wymagające interakcji ze światem zewnętrznym, np. pozyskiwania aktualnych danych lub delegowania obliczeń.Umożliwia modelowi korzystanie z zewnętrznych API i baz danych, rozszerzając jego możliwości poza wewnętrzną wiedzę.
  • Chain-of-Table: Jest to ewolucja CoT zaprojektowana specjalnie dla zadań wymagających analizy danych tabelarycznych. Mechanizm tej techniki polega na iteracyjnym aktualizowaniu i transformowaniu tabeli w ramach łańcucha rozumowania. Każdy krok modyfikuje tabelę, upraszczając ją lub dodając nowe kolumny, co ułatwia modelowi przeprowadzenie analizy i wyciągnięcie wniosków.
  • Tree-of-Thoughts (ToT): Stanowi uogólnienie i rozszerzenie liniowego CoT. Zamiast podążać jednym łańcuchem myśli, ToT zachęca model do eksploracji wielu różnych ścieżek rozumowania jednocześnie. Model generuje kilka potencjalnych „myśli” lub kroków, ocenia ich obiecujący charakter, a następnie decyduje, którą gałąź dalej rozwijać. Pozwala to na bardziej kompleksowe przeszukiwanie przestrzeni rozwiązań i powrót, jeśli dana ścieżka okaże się nieproduktywna.
  • ReAct (Reason+Act): Technika ta łączy rozumowanie w stylu CoT ze zdolnością do interakcji z narzędziami zewnętrznymi, takimi jak wyszukiwarki internetowe czy API. ReAct działa w cyklicznym procesie: Myśl (Thought) -> Działanie (Action) -> Obserwacja (Observation). Model najpierw werbalizuje swój plan, następnie wywołuje odpowiednie narzędzie (np. Search["wiek Emmanuela Macrona"]), a na podstawie uzyskanej obserwacji formułuje kolejną myśl, aż do rozwiązania problemu.

Podczas gdy CoT oferuje liniową ścieżkę rozumowania, idealną do dekompozycji sekwencyjnych problemów, ToT wprowadza bardziej odporne, eksploracyjne podejście, odpowiednie dla zadań o wielu potencjalnych rozwiązaniach. Z kolei ReAct rozszerza te możliwości o interakcję ze światem zewnętrznym, co czyni go kluczowym dla budowy autonomicznych agentów, którzy muszą pozyskiwać aktualne informacje lub delegować zadania do zewnętrznych systemów.

Zapewnienie Niezawodności

Ostatnia kategoria w przyjętej taksonomii, „Niezawodność”, odnosi się do technik mających na celu poprawę wiarygodności i redukcję uprzedzeń w odpowiedziach generowanych przez LLM. Chociaż materiał źródłowy nie opisuje szczegółowo konkretnych metod w tej kategorii, diagram taksonomiczny (Fig. 1) wskazuje na dwa kluczowe obszary zainteresowania: „Uprzedzenia treści” (Content Bias) oraz „Uprzedzenia wartości” (Value Bias). Techniki te koncentrują się na identyfikacji i mitygacji stronniczości wynikającej z danych treningowych, aby zapewnić, że wyniki modelu są bardziej obiektywne, etyczne i godne zaufania w zastosowaniach profesjonalnych.

Analiza Porównawcza Zastosowań Technik Promptów

Skuteczność poszczególnych technik inżynierii promptów jest silnie uzależniona od charakteru zadania, które ma wykonać model językowy. Aby to zilustrować, w niniejszej sekcji dokonano analizy zastosowań w podziale na dwie główne kategorie, zgodnie z taksonomią przedstawioną w pracy Zhen Zheng: aplikacje kognitywne, koncentrujące się na pozyskiwaniu i analizie informacji, oraz aplikacje transformacyjne, w których LLM działa jako autonomiczny wykonawca zadań.

Zastosowania Kognitywne (Pozyskiwanie i Analiza Informacji)

Zastosowania kognitywne to scenariusze, w których głównym celem użytkownika jest zdobycie lub przetworzenie informacji przy użyciu LLM. Modele językowe, dzięki swojej ogromnej bazie wiedzy, stają się potężnym narzędziem do eksploracji danych i generowania wartościowych spostrzeżeń.

W zadaniach związanych z pozyskiwaniem informacji, takich jak chatboty, systemy Q&A czy zaawansowane wyszukiwarki, kluczową rolę odgrywają następujące techniki:

  • Profil i instrukcja: W szczególności technika informacji o osobowości jest fundamentalna przy tworzeniu chatbotów. Nadanie modelowi roli (np. „jesteś pomocnym asystentem klienta”) pozwala na prowadzenie naturalnego, spójnego dialogu.
  • Techniki RAG: Są niezbędne w profesjonalnych systemach Q&A oraz wyszukiwarkach, gdzie wiarygodność i aktualność odpowiedzi mają najwyższy priorytet. Przykładem może być model BioinspiredLLM, który wykorzystuje RAG do dostarczania precyzyjnych informacji z dziedziny biomateriałów.

W przypadku dogłębnej analizy informacji, na przykład na rynkach finansowych czy w analizie chemicznej, gdzie wymagane jest przetwarzanie złożonych danych i wyciąganie wniosków, dominują techniki wspomagające rozumowanie. W szczególności Chain-of-Thought (CoT) pozwala modelom na przeprowadzanie wieloetapowych, logicznych analiz, co jest niezbędne do generowania wartościowych i dobrze uargumentowanych podsumowań.

Zastosowania Transformacyjne (Autonomiczne Wykonywanie Zadań)

Zastosowania transformacyjne obejmują scenariusze, w których LLM autonomicznie wykonuje złożone zadania, minimalizując potrzebę interwencji człowieka. W tych przypadkach model nie tylko dostarcza informacji, ale staje się aktywnym narzędziem do realizacji konkretnych celów.

W zastosowaniach w świecie fizycznym, takich jak inżynieria oprogramowania czy robotyka, wykorzystuje się techniki, które pozwalają na dekompozycję problemu i interakcję z zewnętrznymi systemami:

  • Chain-of-Thought (CoT): Stosowany jest do dekompozycji złożonych zadań programistycznych na mniejsze, zarządzalne kroki, co można zaobserwować w modelach takich jak CodeGen.
  • ReAct oraz inne techniki oparte na narzędziach: Pozwalają one modelowi delegować zadania obliczeniowe do zewnętrznych interpreterów lub wchodzić w interakcje z innymi systemami. Przykładowo, technika PAL (Program-Aided Language Models) wykorzystuje podejście few-shot do generowania kodu w Pythonie, który rozwiązuje problem, podczas gdy PoT (Program-of-Thoughts) działa w trybie zero-shot. Ewolucją tych metod jest MultiPoT, który rozszerza te możliwości o wybór optymalnego języka programowania w celu przezwyciężenia ograniczeń samego Pythona.

W zastosowaniach kreatywnych, takich jak generowanie literatury, muzyki czy treści wizualnych, dominują inne zestawy technik:

  • Profil i instrukcja: Techniki z tej kategorii są kluczowe do precyzyjnego definiowania wymagań i szczegółów procesu twórczego. Użytkownik może w ten sposób określić styl, ton, postacie czy fabułę.
  • Rozumowanie i niezawodność: Te techniki są stosowane rzadziej, ponieważ proces artystyczny ma z natury mniej deterministyczny i bardziej subiektywny charakter.

Praktyczne zastosowanie technik promptów wyraźnie pokazuje, że nie ma jednego uniwersalnego rozwiązania. Skuteczność zależy od świadomego doboru metod do specyfiki zadania, co jednak wiąże się z pewnymi wyzwaniami.

Wyzwania, Ograniczenia i Dobre Praktyki

Inżynieria promptów, mimo swojej rosnącej skuteczności, pozostaje w dużej mierze dziedziną empiryczną, co wiąże się z licznymi wyzwaniami. Zrozumienie tych ograniczeń oraz konsekwentne stosowanie dobrych praktyk jest kluczowe dla budowy niezawodnych i efektywnych systemów opartych na dużych modelach językowych.

Do kluczowych wyzwań w tej dziedzinie należą:

  • Empiryczny charakter: Wydajność modelu jest niezwykle wrażliwa na drobne modyfikacje w treści promptu, takie jak zmiana jednego słowa czy kolejności zdań. Wiele zaawansowanych technik, zwłaszcza tych związanych z rozumowaniem, opiera się na eksperymentalnych praktykach, a nie na solidnych podstawach teoretycznych.
  • Niezawodność i „przeciekanie” rozumowania: W przypadku technik takich jak Chain-of-Thought istnieje ryzyko, że model może „przeciekać” tokeny reprezentujące pośrednie kroki rozumowania do ostatecznej odpowiedzi. Wymaga to stałego monitorowania i stosowania dodatkowych mechanizmów filtrujących, aby zapewnić czystość i zwięzłość finalnego wyniku.
  • Automatyczna optymalizacja: Ręczne tworzenie i testowanie promptów jest czasochłonne. Chociaż badania nad automatyzacją tego procesu są obiecującym kierunkiem, optymalizacja promptów wciąż pozostaje znaczącym wyzwaniem inżynieryjnym.

Aby sprostać tym wyzwaniom i zwiększyć efektywność pracy z LLM, warto stosować zbiór sprawdzonych metod.

Kluczowe Dobre Praktyki w Inżynierii Promptów

  • Precyzyjnie określ format wyjściowy: Zamiast oczekiwać, że model domyśli się pożądanego formatu, należy go jawnie zdefiniować. Instrukcje takie jak "Odpowiedz w formacie JSON z kluczami 'solution' i 'explanation'" lub "Przedstaw odpowiedź w formie listy punktowanej" znacząco zwiększają przewidywalność i użyteczność generowanych wyników.
  • Używaj separatorów do izolowania części promptu: Stosowanie znaczników, takich jak potrójne backticki („`), tagi XML (<context>...</context>) lub nagłówki Markdown, do oddzielania instrukcji systemowych od danych kontekstowych i zapytań użytkownika pomaga modelowi lepiej zrozumieć strukturę promptu. Zmniejsza to ryzyko, że model potraktuje instrukcje jako część danych do przetworzenia.
  • Eksternalizuj prompty z kodu: Unikaj „hardkodowania” promptów bezpośrednio w kodzie aplikacji. Przechowywanie ich w oddzielnych plikach konfiguracyjnych (np. YAML, JSON) lub w dedykowanych systemach zarządzania promptami ułatwia ich utrzymanie, aktualizację i testowanie bez konieczności modyfikacji logiki programu.
  • Wersjonuj prompty: Traktuj prompty jak kod źródłowy. Używanie systemów kontroli wersji, takich jak Git, pozwala na śledzenie zmian, eksperymentowanie z różnymi wariantami i łatwe przywracanie poprzednich, sprawdzonych wersji, jeśli nowa modyfikacja okaże się mniej skuteczna.
  • Stosuj pozytywne instrukcje zamiast ograniczeń: Modele językowe lepiej reagują na polecenia wskazujące, co mają zrobić, niż na te, które określają, czego mają unikać. Zamiast pisać "Nie używaj żargonu technicznego", skuteczniejszym poleceniem będzie "Wyjaśnij to w prosty, zrozumiały sposób".

Stosowanie tych praktyk pozwala na bardziej systematyczne i przewidywalne podejście do pracy z LLM. Przejdźmy teraz do podsumowania kluczowych wniosków z raportu.

Podsumowanie i Kierunki Dalszych Badań

Niniejszy raport przedstawia inżynierię promptów jako fundamentalną technikę optymalizacji wydajności dużych modeli językowych (LLM). Analiza porównawcza kluczowych metod, od podstawowych instrukcji po zaawansowane strategie rozumowania, jednoznacznie wskazuje, że precyzyjne projektowanie promptów jest niezbędne do pełnego wykorzystania potencjału współczesnej sztucznej inteligencji. Systematyczne podejście, oparte na zrozumieniu taksonomii technik i ich zastosowań, pozwala przekształcić LLM z narzędzia generującego ogólnikowe odpowiedzi w precyzyjnego partnera do rozwiązywania złożonych problemów.

Główne tezy wynikające z przeprowadzonej analizy można podsumować w następujących punktach:

  • Skuteczność technik inżynierii promptów jest silnie zależna od kontekstu i złożoności zadania. Proste polecenia sprawdzają się w ogólnych zastosowaniach, podczas gdy techniki takie jak Chain-of-Thought są niezbędne do rozwiązywania problemów wymagających wieloetapowego rozumowania, a RAG jest kluczowy w zadaniach opartych na aktualnej i specyficznej wiedzy.
  • Zaawansowane techniki, takie jak Chain-of-Table czy ReAct, znacząco rozszerzają możliwości LLM poza tradycyjne generowanie tekstu. Umożliwiają one interakcję z danymi strukturalnymi, a także integrację z zewnętrznymi narzędziami i API, co otwiera drogę do budowy w pełni autonomicznych systemów.
  • Podejście empiryczne i iteracyjne jest obecnie podstawą skutecznej inżynierii promptów. Wrażliwość modeli na najdrobniejsze zmiany w instrukcjach sprawia, że kluczowe staje się systematyczne testowanie, wersjonowanie i dokumentowanie różnych wariantów promptów.

W kontekście przyszłych kierunków badań, dwa obszary wydają się szczególnie obiecujące. Pierwszym z nich jest automatyczna optymalizacja promptów, która ma na celu opracowanie metod pozwalających na algorytmiczne generowanie i doskonalenie instrukcji w celu maksymalizacji wydajności modelu. Drugim kluczowym obszarem jest projektowanie frameworków inżynierii promptów dostosowanych do specyficznych domen, takich jak medycyna, prawo czy inżynieria oprogramowania. Rozwój w tych dziedzinach będzie kluczowy dla dalszej profesjonalizacji i skalowania zastosowań dużych modeli językowych.