Jak korzystać z GPT-3 w tworzeniu treści? Wywiad z dr. Jerzym Biernackim
GPT-3 stał się dostępny dla wszystkich.Rewolucja się zaczęła i nie ma już odwrotu od wykorzystania algorytmów w procesie kreatywnym. Jak mądrze pracować z algorytmami konwersacyjnymi, żeby pomagały w tworzeniu treści, a nie szkodziły? O szczegółach rozmawiamy z dr. Jerzym Biernackim z Miquido.
Świat dowiedział się o możliwościach AI w tworzeniu treści jeszcze w 2020 roku. To wtedy brytyjski „Guardian” opublikował artykuł wygenerowany przez algorytm GPT-3 o tym, że ludzie nie muszą się obawiać, że sztuczna inteligencja zabierze pracę człowiekowi.
Zainspirowane pierwszymi dyskusjami na temat możliwości algorytmów w tworzeniu treści (zwłaszcza B2B), na początku 2021 roku przeprowadziłyśmy własne testy. Na tapet wzięłyśmy tematy, którymi się zajmujemy (bankowość, logistyka), oraz teksty kreatywne. Do testów wykorzystałyśmy tworzone wtedy narzędzie o polskich korzeniach – Contentyze. Wyniki możesz podglądnąć w tym artykule o generatorze contentu AI.
Dziś rozmawiamy o tworzeniu treści przy pomocy GPT-3 z dr. Jerzym Biernackim, obecnie Head of Operations w krakowskim software housie Miquido. Jerzy był przez kilka lat związany z Akademią Górniczo-Hutniczą w Krakowie, a w Miquido przez kilka lat rozwijał działy R&D i AI.
Zanim zaczniemy… Jerzy, wyjaśnij, proszę, w skrócie, jak algorytm konwersacyjny, taki jak GPT-3, tworzy teksty.
Można powiedzieć, że model GPT generuje teksty, bazując na prawdopodobieństwie. Potrafi przeanalizować kontekst i polecenie i na tej podstawie dobrać takie słowa, które statystycznie najbardziej spodobają się człowiekowi.
Sam ChatGPT pisze o sobie tak: „GPT-3 jest przykładem modelu językowego opartego na uczeniu maszynowym. Model ten został wytrenowany na ogromnej liczbie tekstów, co pozwoliło mu nauczyć się języka naturalnego na poziomie podobnym do ludzkiego. W procesie tworzenia tekstów algorytm korzysta z tej wiedzy, analizując kontekst i generując odpowiednie słowa i zdania. To pozwala mu na stworzenie tekstów, które są podobne do tych napisanych przez człowieka. Jednak trzeba pamiętać, że algorytm nie posiada własnej kreatywności, tworzy teksty na podstawie danych, którymi został nauczony [pisownia oryginalna – przyp. red.]”.
To całkiem sensowna odpowiedź na to pytanie – i jak widać, algorytm całkiem nieźle radzi sobie również z językiem polskim, chociaż jego głównym językiem jest angielski.
Ile obecnie powstaje takich algorytmów? Czy istnieje jakaś konkurencja dla GPT-3?
Jeśli mówimy o dużych modelach językowych (Large Language Models), to obecnie bazują one na sieciach neuronowych typu Transformer. Kilka z nich na pewno jest wartych uwagi: BERT i LaMDA od Google, Galactica – narzędzie od Meta dla naukowców i Alexa Teacher Model od Amazona.
Jeżeli chodzi o GPT-3, to mamy różne wersje: najmocniejszy obecnie DaVinci i słabszy, Ada. Do tego Codex (silnik narzędzia dla programistów GitHub Copilot), no i opublikowany ostatnio ChatGPT, a już niedługo jego następca – GPT-4.
Komu prace idą najlepiej?
Ciężko powiedzieć, ponieważ po pierwsze, nie wszystkie modele są publicznie dostępne. Po drugie, różne modele tworzone są do różnych zadań. Niektóre lepiej radzą sobie z kodem, inne ze zrozumieniem intencji, inne z podsumowywaniem tekstu, a jeszcze inne z prowadzeniem luźnej rozmowy. Są też takie, które starają się być w miarę dobre w większości zadań. Obecnie zdecydowanie największy rozgłos mają modele OpenAI (ChatGPT, Codex, no i nadchodzący GPT-4).
Skoro prace nad modelami konwersacyjnymi trwają już jakiś czas, to dlaczego dopiero ostatnio zaczął się prawdziwy boom na GPT-3?
Ponieważ ludzie zaczęli sobie uświadamiać, jak dużo mogą za ich pomocą osiągnąć. To już nie są narzędzia generujące wypowiedzi na poziomie przedszkolaka, ale narzędzia, które realnie – kilkukrotnie! – przyspieszają przeciętnemu człowiekowi szeroko pojęte pisanie, od odpisywania na maile przez tworzenie artykułów blogowych aż po tworzenie podsumowań na podstawie transkrypcji video czy pisanie kodu.
Czy teraz już GPT-3 może przeprowadzić bardziej skomplikowane zadania content writera, np. syntezę 3 tekstów?
O zaawansowane zadania zarówno content writerzy, jak i inni wysokiej klasy specjaliści, jak graficy czy programiści, mogą być spokojni. GPT i inne duże modele językowe mają na razie kilka ograniczeń, które uniemożliwiają realizację bardziej skomplikowanych zadań:
- GPT-3 nie zna pojęcia prawdy i faktu. Wytwory modelu mogą być naprawdę imponujące, ale nie ma żadnej gwarancji, że gdzieś między nimi nie pojawią się zmyślone informacje. Model odpowiada w tonie autorytatywnym i czasami ciężko wyłapać, gdy zaczyna zmyślać. W branży problem ten nazywamy halucynacją. Tak więc człowiek jest potrzebny chociażby do tego, aby takie błędy wyłapywać i poprawiać.
- Modele takie jak GPT-3 nie mają dostępu do najświeższych informacji, a jedynie wiedzę zgodną z tym, czego się nauczyły podczas treningu.
- Największy model GPT-3 może przyjmować i generować teksty o maksymalnej długości 4000 tokenów językowych, czyli ok. 3000 słów. Przyjmowanie długich tekstów na wejściu wyraźnie pogarsza jakość odpowiedzi ChatGPT, ponieważ model ma trudności ze zrozumieniem kontekstu i związku między fragmentami tekstu. Przez to synteza nowych dla modelu, długich tekstów i generacja dłuższych form nie jest możliwa w jednym kroku. Najlepiej przeprowadzać ją w kilku krokach.
Czyli GPT-3 nie napisze sam całej książki?
Nie, ale może wygenerować nazwy rozdziałów, później dla każdego rozdziału zaproponować podrozdziały, a następnie uzupełnić każdy podrozdział tekstem.
Gdybyś miał nazwać najpoważniejsze ryzyka korzystania z AI w tworzeniu unikatowych treści, to co by to było?
Na pewno to, o czym już wspominałem, czyli wplatanie nieprawdziwych informacji. Przykładowo zapytałem ChatGPT o zagadnienia naukowe, nad którymi pracowałem na uczelni, a nawet o zestaw narzędzi, który tworzyliśmy z zespołem z AGH – i opowiadał straszne bzdury.
Druga kwestia to potencjalny plagiat. Szansa, że AI wygeneruje fragment identyczny do tego, na którym było trenowane jest minimalna, ale jednak jest. Dlatego narzędzia do pisania contentu takie jak Jasper mają wbudowany software do weryfikacji, czy fragment nie jest plagiatem.
Kolejną, powiązaną kwestią są prawa autorskie. To ma zastosowanie zwłaszcza w programowaniu, gdzie kod, nawet opublikowany na licencji open-source, w zależności od licencji ma często pewne wymagania, choćby takie, żeby w aplikacji, która korzysta z tego kodu, wymienić jego autorów. Narzędzie GitHub Copilot, które generuje kod na podstawie tego, czego nauczyło się na otwartych repozytoriach GitHub, zostało pozwane właśnie o złamanie praw autorskich. Wynik tej rozprawy może determinować kierunek, w jakim będą budowane kolejne narzędzia.
Patrząc szerzej, GPT-3 jest tak potężnym narzędziem, że jego niewłaściwe wykorzystanie rodzi wiele zagrożeń: fake newsy, zamęt w social mediach (np. w celach politycznych) czy wiadomości do phishingu. No i już słychać o przypadkach oszukiwania w szkołach czy na uczelniach, nie tylko przy pisaniu prac zaliczeniowych, ale także rozwiązywaniu zadań z matematyki, fizyki, chemii czy informatyki.
Zatem jak mądrze pracować z algorytmami konwersacyjnymi, żeby pomagały w tworzeniu treści, a nie szkodziły?
Przede wszystkim należy modele językowe traktować jako narzędzie, a nie całkowite zastępstwo dla człowieka. Można np. poprosić GPT o wygenerowanie 30 pomysłów na artykuł w danej dziedzinie. Gdy się zatrzymamy w procesie kreatywnym, lub nie wiemy, jak trafnie ubrać nasz pomysł w słowa, możemy poprosić ChatGPT o podpowiedź. Algorytm możemy wykorzystać też do zmiany stylu, np. z oficjalnego na prosty, lub nawet wygenerować tekst w charakterystycznym stylu, np. wypowiedzi osoby publicznej.
Uważam, że kreatywna rewolucja się zaczęła i nie ma już od niej odwrotu. Moim zdaniem najlepszą opcją jest zaakceptować fakt wykorzystania algorytmów w procesie kreatywnym i zacząć poznawać możliwości tej fascynującej technologii, bo ona będzie zmieniać nasz świat. Osobiście przewiduję, że umiejętność współpracy z AI, w tym z modelami językowymi, będzie jedną z cenniejszych już w niedługiej przyszłośc.
A od czego zacząć korzystanie z ChatGPT w tworzeniu treści?
Polecam przede wszystkim ćwiczenie umiejętności formułowania odpowiednich poleceń dla modelu. Od tego, w jaki sposób skonstruujemy zapytanie, zależy, jak dobry wynik otrzymamy. Wtedy realnie skorzystamy, ponieważ algorytm pomoże nam zoptymalizować część pracy czy wesprze nas w obszarach, które nie są naszą silną stroną.
Dziękujemy za rozmowę!
Całej rozmowy posłuchasz w podcaście „Momencik na contencik” na platformie Anchor lub Spreaker.
Anchor: https://spotifyanchor-web.app.link/e/eLxetVIfBxb
Spreaker: https://www.spreaker.com/user/16861710/contelia-podcast-gpt-19-01-final
Grażyna Zawada
Kiedyś dziennikarka Gazety Wyborczej, teraz content writer. Platonicznie zakochana w tematach związanych z nauką i technologią. Jako zdiagnozowany Odkrywca ma wrodzony talent do pisania o zawiłych kwestiach w przystępny sposób.
Powiązane artykuły
Warsztaty content event storming: wszystkie ręce na pokład
Event storming to metoda wykorzystywana w IT. Pomaga zrozumieć, jak różne etapy działania aplikacji oddziałują na siebie. To pomaga…
Czytaj dalejMarketing treści dla trudnej branży: wartościowy content podsyca płomień zainteresowania
Content marketing w trudnej branży jest jak podsycanie małego płomyka. O tworzeniu treści dla lekarzy…
Czytaj dalejAnalityka marketingowa w B2B: jak nawigować w świecie skąpych danych?
Ciężki start, mały wolumen danych i trudność z dotarciem do przydatnych informacji – praca z…
Czytaj dalej