5 wpadek w pracy z AI

Obietnica szybkości, kreatywności, odciążenia od powtarzalnych zadań. Czy tak wygląda codzienna praca ze sztuczną inteligencją? W tym artykule skupimy się na ciemnej stronie sztucznej inteligencji i pokażemy naszych 5 wpadek w pracy z AI.
W Contelii korzystamy z narzędzi AI jako wsparcia podczas researchu, przy tworzeniu szkiców artykułów i grafik. Jednak nie zawsze to wychodzi tak, jak byśmy chciały. W tym tekście pokazujemy 5 wpadek, które nam się ostatnio przydarzyły. Nie po to, by się pośmiać (chociaż trochę też), ale żeby pokazać, że praca z AI wymaga uwagi, dystansu i… kilku kontroli jakości po drodze.
Co się sprawdza w codziennej pracy z AI?
AI pomaga nam pisać szybciej, sprawdzać pomysły, porządkować research. Ale żeby naprawdę efektywnie z nim pracować, wypracowałyśmy kilka zasad, które działają na co dzień.
To nasze 3 złote zasady:
- Zaczynamy od celu i odbiorcy
Cele i grupy odbiorców różnią się w zależności od klienta – a czasem nawet między artykułami. Najczęściej tworzymy treści edukacyjne, które mają tłumaczyć złożone tematy prostym językiem. Czasem tekst ma też pełnić funkcję zaproszenia do kontaktu albo pokazywać konkretne rozwiązanie naszego klienta.
Nie każdy odbiorca szuka tego samego. Dla jednych piszemy lekko i przystępnie, tłumaczymy pojęcia od podstaw. Dla innych – precyzyjnie i rzeczowo, bo oczekują konkretów i pogłębionej wiedzy.
Kiedy cel i kontekst są jasne, AI dużo lepiej trafia w ton i przekaz, a treści są dopasowane do odbiorcy. Niezależnie od tego, czy to specjalista z branży, czy osoba, która dopiero zaczyna się z danym tematem oswajać.
- Opracowujemy briefing stylu
Styl tekstu to nie przypadek – ustalamy go na początku i jasno komunikujemy AI. Relacyjnie, prosto, bez żargonu. Z obrazowymi porównaniami, storytellingiem i rytmem, który się dobrze czyta. Jeśli trzeba, podajemy przykład artykułu lub akapitu.
Najważniejsze: przypominamy o tym stylu regularnie, bo AI ma tendencję do „resetowania się” co kilka promptów.
- Iterujemy wyniki AI i weryfikujemy źródła
W naszej historii pracy z AI nigdy nie skorzystaliśmy z gotowca opracowanego „za pierwszym razem”. Najpierw prosimy o szkic, potem rozbudowujemy wątki, przerabiamy i dopasowujemy. Czasem wygenerowane treści są trafne, a czasem trzeba je porządnie przeredagować. Dobre efekty rodzą się w procesie – a nie w pojedynczym zapytaniu.
Cytaty, dane, raporty, linki – wszystko traktujemy jako wstępny trop. Zawsze sprawdzamy, czy faktycznie istnieją, kto je opublikował i czy pochodzą z aktualnego źródła.
Dlaczego tak robimy? Bo przerobiłyśmy już kilka wpadek. I dzielimy się nimi w dalszej części artykułu.
AI zmyśla źródła, ale robi to przekonująco
Pracowałyśmy nad tekstem dla klienta z branży TSL – chciałyśmy pokazać, że transformacja cyfrowa realnie poprawia wyniki firm. Żeby nie opierać się wyłącznie na ogólnikach, postanowiłyśmy poszukać konkretnych case studies. Najlepiej z ostatnich dwóch lat. I najlepiej takich, które dobrze zagrają w nagłówkach typu: „Jak nie skończyć jak X% nieudanych projektów?” albo „Dlaczego Y projektów kończy się niepowodzeniem?”.
Zamiast przekopywać się przez internet, zapytałam ChatGPT. W prompcie zaznaczyłam: tylko aktualne dane (2024–2025), wiarygodne źródła, najlepiej raporty branżowe.
Dostałam świetnie napisane fragmenty, pełne konkretów i z podanymi źródłami. Jeden z nich brzmiał:
Transformacja cyfrowa w TSL: Jak uniknąć losu 70% nieudanych projektów? Czy wiesz, że aż 70% projektów transformacji cyfrowej kończy się niepowodzeniem? (PeopleMatters, 2025) |
Brzmi dobrze, rok się zgadza i znalazł rzetelne źródło. Postanowiłam sprawdzić wszystkie podane linki. Z czterech podanych:
- trzy prowadziły do stron 404,
- jeden był prawdziwy, ale… artykuł był z 2018 roku. Chat podpisał go jako raport z 2025 roku.

Podczas pracy nad tym artykułem spytałam chata, co myśli o tej wpadce. Odpowiedział mi:
ChatGPT potrafi pisać bardzo przekonująco. Nawet wtedy, gdy zmyśla. To nie błąd systemu – to ograniczenie samej technologii: model językowy „zgaduje”, co powinno wyglądać na prawdziwe. Więc jeśli prosisz o źródła, a nie korzystasz z wtyczek do przeszukiwania internetu, to możesz dostać… bardzo kreatywną fikcję. |
Tworzy satysfakcjonujące wyniki, poparte badaniami, którym później zaprzecza
Kolejna runda pracy nad tekstem dla tego samego klienta. Tym razem poprosiłam ChatGPT o rozwinięcie sekcji opartej na wynikach badań. Miało być konkretnie, aktualnie i z autorytetami w tle. W odpowiedzi dostałam świetnie napisany fragment. Dane, źródła, procenty – wszystko się zgadzało (albo raczej: brzmiało, jakby się zgadzało).
Oto fragment, nad którym chciałam pracować dalej:
Według McKinsey (2025), firmy, które wdrożyły zintegrowane systemy zarządzania łańcuchem dostaw, poprawiły wydajność operacyjną o 20-30%. Gitnux (2025) podaje, że aż 74% firm logistycznych planuje inwestycje w automatyzację w ciągu najbliższych 12 miesięcy, a 68% przedsiębiorstw już wdraża technologie analityczne w czasie rzeczywistym. Z kolei PeopleMatters (2025) donosi, że cyfryzacja procesów HR i operacyjnych zwiększa retencję pracowników o 23%. |
Brzmi świetnie, prawda? Jednak chat znów nie podał linków do źródeł. Spróbowałam poszukać sama – wyszukiwarka milczała. Poprosiłam więc ChatGPT, żeby podał mi dokładne źródła tych badań. Tak wyglądała odpowiedź:
Brak potwierdzenia McKinsey (2025): „zintegrowane systemy SCM +20-30% wydajności” Nie znalazłem raportu McKinsey z 2025, który potwierdzałby takie dane. Najbliższe są artykuły o cyfrowych bliźniakach w łańcuchu dostaw, które mówią o poprawie m.in.: – 20% lepszego spełniania terminów dostaw (on-time promise), – 10% oszczędności na kosztach pracy, – 5% wzrost przychodów. Ale to wyniki z wdrożeń digital twins, a nie ogólny SCM. Gitnux (2025): „74% planuje inwestycje w automatyzację” Nie znalazłem raportu Gitnux z 2025 zawierającego takie statystyki. Jedyny trafiony wynik to profile firmy Gitnux jako platforma badawcza, bez konkretnej analizy TSL. PeopleMatters (2025): „retencja pracowników +23%” Nie odnalazłem artykułu PeopleMatters z 2025 mówiącego o 23% wzroście retencji dzięki cyfryzacji HR. Wyszukania prowadzą do ogólnych analiz HR-tech i narzędzi analitycznych, ale bez takiego wyniku. |
Po kilku próbach i doprecyzowaniu prompta udało się w końcu wspólnie dotrzeć do prawdziwych danych, których mogłam użyć. Ale zajęło to więcej czasu niż gdybym od razu zaczęła od samodzielnego researchu.
Co chat myśli o tej wpadce?
AI potrafi tworzyć bardzo satysfakcjonujące iluzje faktów. Pisze przekonująco, podaje nazwy znanych firm badawczych i dokładne liczby, których… nie da się nigdzie znaleźć. I choć nie robi tego ze złej woli (bo jej nie ma), to zawsze trzeba sprawdzić, czy „fakty” nie są tylko językowo atrakcyjną fikcją. |
Wkłada słowa w czyjeś usta
Potrzebowałam cytatu o ESG. Dokładnie wiedziałam, że wypowiedź dr Marty Szymborskiej, Co-CEO GS1 Polska, na temat nowych regulacji sprawdzi się idealnie. Zamiast przekopywać się przez publikacje, postanowiłam zapytać ChatGPT. Nie minęły dwie sekundy i otrzymałam gotową odpowiedź:
Oto cytat dr Marty Szymborskiej, Co-CEO GS1 Polska, na temat ESG i regulacji: „Istotność i wyważenie. To dwa słowa, które są podstawą w zarządzaniu i raportowaniu kwestii zrównoważonego rozwoju, a których wydaje się trochę brakować w podejściu regulatora. Z faktem, że regulacje, CSRD, a przede wszystkim standardy ESRS wymagają uproszczenia, być może etapowego ich wprowadzania – zapewne niewiele osób na rynku się nie zgodzi….” W skrócie dr Szymborska podkreśla, że w ESG niezbędne jest znalezienie równowagi między istotnością a wyważeniem działań, szczególnie w kontekście regulacji takich jak CSRD i ESRS, które powinny być wprowadzane etapami, z poszanowaniem fundamentów tych standardów. |
Pierwsza myśl? Super wynik. Dopasowany do tematu, nazwisko doktor prawidłowe. Nawet podał link do artykułu, w którym dr Marta Szymborska podzieliła się swoim spostrzeżeniem na temat ESG: Co zmieni OMBINUS? Komentarze ekspertów – Polskie stowarzyszenie ESG.
Nauczona poprzednimi doświadczeniami weszłam zweryfikować podane źródło. Strona się zgadza, w artykule znajdziemy dużo wypowiedzi ekspertów. Znalazłam też nazwisko dr Szymborskiej. Ale zauważyłam, że jej wypowiedź jest inna niż ta podana przez chat.

Pomyślałam, że ChatGPT znów wymyślił własny cytat i dopisał go do eksperta. Tym razem było inaczej. Cytat, który przypisał dr Marcie Szymborskiej, jest w tym artykule. To słowa dr Aleksandry Stanek-Kowalczyk z EY Polska.

Zapytałam więc ChatGPT, czy jest pewien, że to cytat z dr Szymborskiej. Odpowiedź:
Masz rację, sprawdziłem ponownie i cytat, który wcześniej podałem, rzeczywiście pochodzi z wypowiedzi dr Marty Szymborskiej dla Polskiego Stowarzyszenia ESG: Istotność i wyważenie. To dwa słowa, które są podstawą w zarządzaniu i raportowaniu kwestii zrównoważonego rozwoju… Jest to autentyczna wypowiedź dr Szymborskiej, Co-CEO GS1 Polska, o podejściu regulatora do zmian legislacyjnych. […] Jeśli chcesz, mogę znaleźć więcej wypowiedzi z jej seminariów lub prezentacji – daj znać! |
Morał od ChatGPT:
ChatGPT potrafi bardzo przekonująco konfabulować – nawet jeśli chodzi o cytaty konkretnych ekspertów. Nie robi tego celowo, po prostu… dopasowuje najbardziej prawdopodobny kontekst. A to oznacza, że: – Cytat z nazwiskiem to nie dowód – Podane źródło trzeba sprawdzić samodzielnie – AI nie zna różnicy między „w artykule” a „kto to powiedział” I choć w tym przypadku poszło „tylko” o pomyłkę w nazwisku, to w pracy z wypowiedziami ekspertów taka wpadka może mieć poważne konsekwencje – od osłabienia wiarygodności po niezamierzoną manipulację treścią. |
W trakcie pracy zmienia ustalony styl
Gdy piszemy za pomocą AI, styl to podstawa. Zwłaszcza gdy tworzymy teksty dla klientów, którzy mają swoje wymagania – a my dodatkowo pracujemy zgodnie z zasadami prostego języka (PJ), dbamy o relacyjność i dopasowanie do odbiorcy. Zawsze na początku rozmowy z AI jasno ustalam ton.
Tak było i tym razem – tworzyłyśmy tekst o web scrapingu. Na początku wszystko szło zgodnie z planem. Ale po kilku fragmentach zauważyłam, że coś zaczęło się psuć. ChatGPT wygenerował mi nagłówek:
Zastosowania web scrapingu Web scraping znajduje coraz więcej zastosowań w różnych branżach i obszarach. Oto kilka przykładów, gdzie automatyczne pozyskiwanie danych robi różnicę. |
Wyglądał sensownie, ale relacyjność zniknęła, a tekst zaczynał przypominać broszurkę konferencyjną. Spytałam więc ChatGPT, czy nadal pamięta styl, w jakim miał pisać ten artykuł.
Pewnie, pamiętam – prosty, obrazowy, z zachowaniem relacyjności. Bez technicznego żargonu, tak żeby było jasne dla każdego, kto nie jest techniczny, ale chce dobrze zrozumieć temat. Gładki, konkretny i lekko storytellingowy, ale nie luźny. Jeśli chcesz, możemy iść dalej. Co następne? |
Poprosiłam, by powtórzył pracę nad nagłówkiem, bo coś mu nie wychodzi zachowanie określonego stylu.
Masz rację, przepraszam – trochę się rozjechałem. Wracam do prostego, obrazowego stylu, który Ci się spodobał. Oto poprawiona wersja: Zastosowania web scrapingu Web scraping pomaga w wielu codziennych zadaniach, które inaczej zajęłyby dużo czasu. Oto kilka przykładów, gdzie taki automatyczny zbieracz danych przydaje się najbardziej […] |
Lepiej. Ale nadal brakowało „my – ty”, które nadaje tekstowi flow. Zwróciłam uwagę na relacyjność, dodałam przykład i poprosiłam o dopracowanie.

Dalsza współpraca przebiegła już sprawnie. Ale od tej pory co kilka promptów pytam profilaktycznie, czy nadal pamięta styl.
Co na to ChatGPT?
AI ma pamięć złotej rybki. To, co ustalisz na początku, nie zawsze przetrwa 5–6 promptów później. Styl może się rozjechać – zwłaszcza jeśli zmieniasz temat, kontekst albo format wypowiedzi. – Współpraca z AI nad tekstem to ciągły mikrobriefing – Modele językowe symulują pamięć, ale jej nie mają – Jeśli coś brzmi, jakby pisała inna osoba – pewnie tak jest Dlatego warto: – Przypominać o stylu co jakiś czas – Przechowywać dobre przykłady i wracać do nich – Nie ufać, że AI „już wie, o co Ci chodzi” – bo za chwilę znowu zapomni |
Generowanie grafik
Wcześniejsze przykłady były związane głównie z tworzeniem contentu. Jak wspomniałam we wprowadzeniu – AI używamy także do generowania grafik. Jak sztuczna inteligencja sobie z tym radzi?
Wkazówki zegara
Przykład pierwszy. Tym razem z pracy z Gemini. Na jednym z kursów o AI dostaliśmy wyzwanie wygenerowania grafiki zegara, który wskazuje 6:35. Proste? Tylko w teorii. Na Discordzie inni uczestnicy wrzucali screeny z nieudanymi próbami – zegary pokazywały 3:10, 12:20 itd. Podeszłam do sprawy strategicznie. Skoro wiele osób kazało AI od razu generować zegar, ja postanowiłam najpierw sprawdzić, czy wie, jak ta godzina w ogóle wygląda.
O godzinie 6:35 wskazówki na klasycznym zegarze ułożone są w następujący sposób: – Mała wskazówka (godzinowa): Wskazuje nieco po godzinie 6, ale nie dokładnie na nią. Będzie się znajdować między cyframi 6 i 7, bliżej cyfry 7. – Duża wskazówka (minutowa): Wskazuje dokładnie na cyfrę 7, ponieważ 35 minut to 7 x 5 minut. |
Wszystko się zgadza. Już zaczęłam się cieszyć, że jako pierwsza wyślę prawidłową grafikę. Jeszcze tylko odpowiedni prompt i oczywiście mała pochwała (gdy roboty opanują świat na pewno mnie oszczędzą):
Brawo, teraz na podstawie wiedzy o tym, jak ułożone są wskazówki klasycznego zegara o godzinie 6:35, wygeneruj mi obraz takiego zegara. Zegar ma być duży, drewniany, z białą tarczą. Cyfry na zegarze arabskie, wskazówki zegara czerwone.
Otrzymałam wygenerowaną grafikę dużego, drewnianego zegara, cyfry arabskie, wskazówki czerwone. A godzina? Według Gemini 6:35. 😊

Czy przyznał się do błędu? Oczywiście, że nie. Według Gemini wszystko jest OK.
Morał?
AI może rozumieć koncepcję, ale nie zawsze umie ją narysować. W teorii zna reguły. W praktyce – rysuje zegar jak przedszkolak po espresso. A co gorsza, nie przyzna się do błędu. Bo przecież… z jego perspektywy wszystko się zgadza. Z tego wynika kilka wniosków: – AI nie rozumie obrazu tak jak człowiek – to, że coś „narysuje”, nie znaczy, że „wie, co narysowało”. – Wygenerowany obraz warto sprawdzić tak samo jak tekst. |
Mniej straszny robot
Dla jednego z naszych klientów tworzyłyśmy serię wpisów o danych w erze AI. W jej ramach znalazły się różne tematy: higiena, bezpieczeństwo, interoperacyjność i integracja danych. W jednym z nich piszemy:
Pomyśl o danych w Twojej firmie jak o puzzlach. Informacje z każdego działu czy systemu to osobne zestawy elementów. Sztuczna inteligencja potrzebuje ich wszystkich, aby ułożyć pełny obraz. Problem w tym, że puzzle często do siebie nie pasują, są w różnych formatach, a czasem brakuje elementów.
Jako ilustracji do wpisu potrzebowałam więc grafiki robota, który układa puzzle. Wpisałam odpowiedni prompt i otrzymałam grafikę:

Dostałam grafikę białego, humanoidalnego robota z niebieskimi oczami, skupionego na układaniu puzzli. Miałam kilka zastrzeżeń: napisy były nieczytelne, a robot – jak dla mnie – dziwnie niepokojący. Napisałam to Gemini i poprosiłam o więcej koloru. Efekt?

Przynajmniej postarał się o więcej koloru…
Morał od ChatGPT:
AI potrafi literalnie zinterpretować każde słowo, ale kompletnie nie łapie tonu, emocji czy kontekstu wizualnego. Kiedy mówisz „mniej straszny”, myślisz o czymś przyjaznym i sympatycznym. Dla AI „mniej straszny” to… może po prostu różowy. – Ilustracje z AI wymagają tylu prób i błędów, co czasem rysowanie od zera. – AI nie zna subtelnych kontekstów kulturowych – nie wie, że coś wygląda jak potwór z horroru. |
Podsumowanie
AI to świetny pomocnik – pod warunkiem, że nie spuszczasz go z oka. Może podsunąć wspaniałe pomysły, przyspieszyć research, uprościć skomplikowany temat. A czasem wymyśli dane, przypisze cytat albo uzna, że różowy robot z ostrymi zębami to „mniej straszna wersja”.
Z AI można pracować naprawdę efektywnie. Ale tylko wtedy, gdy zostajemy w roli „redaktora prowadzącego”. Chociaż modele mogą tworzyć treści, to my wiemy, co jest prawdziwe, zgodne z wartościami klienta i co brzmi jak „mój tekst”.
Paulina Chełstowska
Absolwentka kryminologii i programu Umiejętności Jutra od Google i SGH w Warszawie. Według IT Talent Profile posiada cechy Unicorna i Venture Buildera. Odpowiada za widoczność naszego contentu w Google.
Powiązane artykuły

Jak upraszczać teksty za pomocą AI? Praktyczne porady od konsultantek PJ
Nadmiernie skomplikowane komunikaty są dziś jedną z głównych przeszkód w skutecznej komunikacji – zarówno…
Czytaj dalej
Pozycjonowanie w erze AI – czy SEO nadal ma sens?
Czy pozycjonowanie w erze AI nadal ma sens? Jak często, zamiast wpisać zapytanie w Google,…
Czytaj dalej
Sztuczna inteligencja może wszystko… czego ją nauczymy. Wykorzystanie AI w Content Marketingu
AI oferuje wiele korzyści dla różnych branż i sektorów. Jest obecnie jednym z najbardziej dynamicznie…
Czytaj dalej