Wróć do BLOGA

Napisz dobry prompt, czyli o tym jak modele AI generują odpowiedzi

Napisz dobry prompt

Sztuczna inteligencja wbrew pozorom nie jest nowością na rynku. Marketingowcy mówili i korzystali z niej już ponad 10 lat temu. Jednak skok popularności jest datowany na koniec 2022 rok. Ogromny wpływ na to miał ChatGPT.  Mimo takiego rozwoju AI oraz wzrostu zainteresowania jej modelami, nadal niewiele osób ma świadomość i wiedzę jak ona działa. Często dobry prompt to wiedza tajemna, której specjaliści strzegą jak oka w głowie. Ponieważ zrozumienie działania modeli AI, pozwala na skuteczniejsze korzystanie z nich.

ChatGPT w Google Trend

Co to jest prompt?

Prompt to termin stosowany głównie w kontekście interakcji z modelami językowymi i systemami sztucznej inteligencji. Oznacza on wprowadzenie, instrukcję lub zapytanie, które użytkownik podaje do systemu, aby uzyskać odpowiedź lub akcję. Prompt bezpośrednio w odniesieniu do sztucznej inteligencji to:

Prompt engineering is the process of structuring an instruction that can be interpreted and understood by a generative AI model.A prompt is natural language text describing the task that an AI should perform.

Wikipedia https://en.wikipedia.org/wiki/Prompt_engineering

Zatem mówimy o instrukcji, która posiada odpowiednią strukturę i jest zrozumiała dla danego modelu sztucznej inteligencji. Dobry prompt opisuje w sposób naturalny zadanie, które ma wykonać dla nas AI.

Prompt – od czego zacząć i co musisz wiedzieć?

Niestety jako ludzie boimy się nieznanego. Sztuczna inteligencja to całkowita nowość, z którą wielu z nas nie miała styczności nigdy wcześniej. Dlatego nie do końca rozumiemy w jaki sposób ona działa. Aby stworzyć dobry prompt i wygenerować satysfakcjonującą odpowiedź przy pomocy AI – musimy wiedzieć jak ona działa. Poznać jej techniczne możliwości. Należy zatem zacząć od początku!

Czym jest model AI?

Pisząc w bardzo prosty sposób model AI to próba odzwierciedlenia fragmentu rzeczywistości. Świetnym przykładem jest miniaturowa makieta miasta. Jest ona naszą próbą odwzorowania czegoś co już istnieje i co znamy. Staramy się ją wykonać jak najdokładniej, ale nie zawsze jest to możliwe.

Czym jest LLM?

LLM to z angielskiego Large Language Model, czyli model językowy. W tym przypadku zadanie jest nieco trudniejsze. Ponieważ naszym zadaniem jest odwzorowanie i modelowanie języka.

Jak działa model AI i LLM?

jak działa model AI

Charakterystyczne dla modelu AI jest to, że jako wejście wpisujemy jakiś tekst (prompt), który jest wysyłany do modelu, analizowany przez niego, a w efekcie otrzymujemy wyjście – czyli również tekst, ale z odpowiedzią na zadaną komendę. Należy jednak pamiętać, że to co jest wysyłane do modelu to tak naprawdę NIE JEST TEKST, a jedynie jego reprezentacja. Wszystko to dlatego, że model AI pracuje na liczbach, a nie na literach. Zatem w rzeczywistości to co zobaczy sztuczna inteligencja to nie komenda „Wymyśl nazwę firmy”, a ciąg liczb. Jak zatem generowane są komendy? Przy pomocy tokenów.

Token to najmniejsza jednostka wejścia, która reprezentuje fragment języka. Token to jedna liczba. Nie można wpuścić na model AI pół tokenu.

Jak sztuczna inteligencja analizuje prompt?

Jak wiele narzędzi, model AI posiada swoje ograniczenia. Podstawowe z nich to:

  1. Ograniczenie języka – słownik to całe słownictwo jakie model AI zna. Sztuczna inteligencja nie zna wszystkich słów jakie istnieją, a jedynie te predefiniowane, które zostały dodane do jego bazy.
  2. Ograniczenie kontekstu – czyli długości promptu. Wpisując swoją komendę do sztucznej inteligencji, jej długość jest ograniczona. Zawiera zarówno słowa z wejścia jak i z wyjścia.
  3. Ograniczenie pamięci – modele AI nie pamiętają historii rozmowy z użytkownikiem. W rzeczywistości, jeśli nawiązujemy do wcześniej przeprowadzonej z chatbotem rozmowy to wkleja on w tle całą jej treść do Twojego promptu i analizuje całość od początku.
  4. Halucynacje – ze względu na sposób generowania odpowiedzi, może się zdarzyć, że sztuczna inteligencja wygeneruje coś, co nie istnieje i będzie w stanie dalej opowiadać o tym, jakby była to prawda.
  5. Ograniczenie obliczeń matematycznych – modele AI często mają problemy z matematyką, a to wszystko za sprawą prawdopodobieństwa, które wynika z generowania tokenów wyjścia. Może się zdarzyć, że AI odpowie błędnie na bardzo podstawowe działanie matematyczne.

Historia tokenu

Prace nad konstrukcją tokenu, nie były łatwe, a badacze przestudiowali kilkanaście różnych możliwości, aby wybrać tę najbardziej skuteczną.

Zakładając, że token to słowo, czyli jedna liczba to nasz model AI znając 500 tokenów –  rozumiałby tylko 500 słów. Niestety nie jest to wystarczające, aby się komunikować. Dlaczego? Podstawowy egzamin językowy z japońskiego, na najniższym poziomie A1 zakłada znajomość około 800 słów. Dla przykładu model GPT-4 Turbo posiada w swoim słowniku około 100 tysięcy tokenów, a jego długość okna kontekstowego wynosi 128 tysięcy tokenów.

Kolejnym pomysłem, było zapisanie tokenu jako znaku. Wówczas każdy znak, miałby przypisaną liczbę. Niestety to założenie również było nieskuteczne ze względu na ograniczenie kontekstu, czyli długości promptu w oknie chata. Takie zapisanie komendy byłoby zbyt długie, ponieważ składa się na nią prompt wpisany przez użytkownika oraz po kolei wylosowane słowa z wyjścia.

Ostatecznie podjęto decyzję, że token zostanie opisany jako fragment słowa. To rozwiązanie zostało zaimplementowane w najbardziej popularnych modelach AI takich jak np. ChatGPT.

tokenizator

Zatem tokeny działają jak klocki, z których jesteśmy w stanie zbudować różne słowa. Można to w łatwy sposób sprawdzić w Tokenizerze. W przypadku języka polskiego jeden token zwykle to około 3 znaki, dla języka angielskiego to około 4 znaki.

Jak sztuczna inteligencja generuje odpowiedzi?

Wiemy już jak sztuczna inteligencja widzi nasz prompt. Warto zatem sprawdzić w jaki sposób model AI odczytuje przesłaną komendę w formie tokenów oraz jakimi zasadami kieruje się generując wyjście, czyli odpowiedź. To nazywamy predykcją kolejnego tokenu. Pisząc dobry prompt posiadamy na wejściu jakąś listę słów, które zamieniane są w tokeny. Zatem sztuczna inteligencja chce przewidzieć jakie słowo będzie kolejne i będzie stanowiło odpowiedź na zadane pytanie.

W języku polskim nie jest to łatwe zadanie, ponieważ kolejne słowa mogą być różne. Przykładem może być:

  • Ala ma kota
  • Ala ma długie włosy
  • Ala ma firmę

Wszystkie te przypadki są prawidłowe z językowego puntu widzenia, a jednak odpowiadają na zupełnie inne pytania zawarte w wejściu.

Właśnie dlatego model AI przypisuje prawdopodobieństwo do tokenów ze swojego słownika. Natomiast podczas analizowania tokenów z wejścia, weryfikuje, które tokeny z wyjścia mają najwyższe możliwe prawdopodobieństwo. Nie jest to jednak takie proste! Zapewne myślicie, że AI korzysta z tych słów, które mają najwyższe prawdopodobieństwo zgodności? Nic bardziej mylnego. Model AI analizuje dostępne słowa i w losowy sposób wybiera kolejne słowo. Prawdopodobieństwo ma wpływ na to losowanie. Można to porównać do kuponów na loterię – im większe prawdopodobieństwo tym większa ilość kuponów. Co nie zmienia jednak faktu, że w tym losowaniu może wygrać słowo, które tych „kuponów” ma najmniej. Wówczas odpowiedź może być halucynacją.

To nadal nie koniec! Tak wylosowany token dopisujemy do wejścia (na naszym przykładzie do słów „Chciałabym coś zjeść”) i w ten sposób zyskujemy nowy prompt, który jest zamieniany na token, a na jego podstawie są generowane nowe słowa wyjścia ze swoim prawdopodobieństwem. Program robi to w tle tak długo, aż skończy swoją odpowiedź i wyświetli ją użytkownikowi. W efekcie czego,  my widzimy jedynie pytanie i odpowiedź, a w tle zachodzi wiele skomplikowanych operacji.

Zatem im dłuższa komenda i odpowiedź, tym dłuższe mamy okno kontekstowe (czyli definiowane wcześniej ograniczenie kontekstowe), ponieważ zawiera ono ostatecznie zarówno nasz prompt jak i wygenerowaną przez AI odpowiedź.

Jak napisać dobry prompt?

Wiemy już na jakiej zasadzie sztuczna inteligencja generuje dla nas odpowiedzi. Dlatego warto wykorzystać tę wiedzę podczas budowania dobrego promptu. Świetnym ćwiczeniem będzie zapytanie samej sztucznej inteligencji o stworzenie promptu dla konkretnego zapytania. Zobacz jak wyglądają wygenerowane przez nią komendy i na tej podstawie przygotuj własne przykłady.

  1. Wyrażaj się jasno – model nie domyśli się co myślisz, jeśli jasno tego nie zakomunikujesz. Tworząc dobry prompt, opisz wszystko od A do Z. Im lepsza będzie Twoja instrukcja, tym lepszy wynik otrzymasz.
    1. Styl – nakreśl modelowi AI jakiego stylu odpowiedzi oczekujesz np. narracyjnego, opisowego czy w formie wiersza.
    1. Format – określ format odpowiedzi np. ilość znaków, akapitów czy wnioski w formie listy z punktami.
    1. Kontekst – czyli dodaj informacje o swojej firmie czy branży.
  2. Świadomie hakuj model AI – dodaj do swojego promptu sformułowanie np. „Jako wysokiej klasy specjalista w …”. Wówczas eksperckie tokeny będą miały wyższe prawdopodobieństwo, aby pojawić się w wygenerowanej odpowiedzi, a co za tym idzie – z większym prawdopodobieństwem będzie ona prawdziwa i bardziej profesjonalna.
  3. Działaj iteracyjnie – jeśli nie jesteś zadowolony z wygenerowanej przez chatbota odpowiedzi, kontynuuj rozmowę prosząc go o jej zmodyfikowanie. Nie zaczynaj kontekstu od początku. Wówczas nabierzesz płynności w pisaniu dobrych promptów i przy kolejnej okazji, będziesz już wiedzieć co warto umieścić na wejściu, aby uzyskać odpowiedni wynik na wyjściu.
  4. Dostarcz źródła – w wersji ChatGPT-4 możemy w oknie wejścia podać botowi linki do stron i artykułów, z których powinien skorzystać. Dobry prompt wówczas będzie zawierał komendę, która ograniczy możliwości poszukiwania danych modelu AI do tych zamieszczonych źródeł.
  5. Dopasuj się do modelu AI dobry prompt to taki, który jest dopasowany do modelu AI, z którym współpracujesz. Inną formę przybierze komenda dla sztucznej inteligencji, która ma wygenerować obraz, a inne do kalkulatora, który ma wyliczyć prawdopodobieństwo.

Teraz już wiesz jak napisać dobry prompt?

Mamy nadzieję, że obrazowo wyjaśniliśmy w jaki sposób sztuczna inteligencja generuje odpowiedzi. Ta wiedza powinna skutecznie ułatwić pisanie dobrych promptów i komend, które będą zrozumiałe dla modeli AI. Pamiętaj jednak, że rynek I nieustannie i dynamicznie się rozwija. A co za tym idzie, niebawem badacze mogą wymyślić inny sposób na generowanie tokenów czy rozumienie historii przez chatboty.

Niewątpliwie AI to przyszłość marketingu internetowego. Warto za nią nadążać i na bieżąco sprawdzać nowe możliwości, które oferuje oraz wdrażać je do swojego biznesu.

Scroll to top