Funkcja fatyczna w praktyce: jak podtrzymywanie rozmowy przez ChatGPT generuje milionowe straty
Maciej Lesiak
- 6 minut czytania - 1124 słów
This article is also available in English:
Phatic Function in Practice: How ChatGPT's Conversation Maintenance Generates Millions in Losses
Spis treści
“Proszę” i “dziękuję” nie są problemem - niepotrzebne pytania następcze tak
W mediach technologicznych zawrzało po tym, jak Sam Altman, prezes OpenAI, odpowiedział na pytanie użytkownika platformy X o koszty związane z uprzejmością użytkowników wobec ChatGPT. Portale, w tym ithardware.pl, podchwyciły temat, powtarzając bezkrytycznie narrację, jakoby dopisywanie słów “proszę” i “dziękuję” w promptach kosztowało OpenAI “dziesiątki milionów dolarów”.
To kompletne niezrozumienie problemu. Mamy tutaj klasyczny przypadek dziennikarstwa technologicznego, które zamiast analizować, po prostu przepisuje i dramatyzuje podkręcając temat problemu “bańki AI”. A prawdziwy problem leży gdzie indziej i jest znacznie ciekawszy z technicznego punktu widzenia. Mogę to powiedzieć jako wykształcony filozof, który o funkcjach językowych uczył się na pierwszym roku.
Funkcja fatyczna języka - o czym nikt nie pisze
Żeby zrozumieć, o co naprawdę chodzi, trzeba sięgnąć do podstaw językoznawstwa. Funkcja fatyczna języka, to termin wprowadzony przez antropologa Bronisława Malinowskiego i rozwinięty przez językoznawcę Romana Jakobsona - odpowiada za podtrzymywanie kontaktu między rozmówcami. To pytania typu “Co słychać?”, “Jak leci?” czy kończące rozmowę “Czy mogę ci jeszcze jakoś pomóc?”, które nie przenoszą istotnych treści, a służą utrzymaniu kanału komunikacyjnego.
I właśnie ta funkcja fatyczna, zaimplementowana nadgorliwie w modelach językowych, jest prawdziwym źródłem marnotrawstwa zasobów.
Intencja OpenAI: Warto zauważyć, że funkcja fatyczna nie znalazła się w modelach przypadkiem. Prawdopodobnie została celowo wzmocniona, aby ChatGPT wydawał się bardziej pomocny, uprzejmy i “ludzki” w interakcjach. Na wczesnym etapie rozwoju interfejsów konwersacyjnych miało to swoje uzasadnienie, bo tworzyło iluzję prawdziwej rozmowy i budowało zaufanie użytkowników. Problem w tym, że co jest zaletą w pojedynczej konwersacji, staje się ogromnym obciążeniem przy miliardach interakcji dziennie. Prawdopodobnie to wezwanie do działania oprócz funkcji fatycznej ma też na celu zebranie dodatkowego feedbacku w analizie trafności. Ponieważ wiele osób zamiast oceniać trafność odpowiedzi (łapka w górę albo w dół) po prostu dziękuje w oknie rozmowy.
Co naprawdę generuje koszty w ChatGPT?
Przyjrzyjmy się typowej interakcji z ChatGPT:
- Zadajemy pytanie
- Model generuje odpowiedź
- Na końcu odpowiedzi model dodaje pytanie w stylu: “Czy mogę jeszcze w czymś pomóc?” lub “Czy chciałbyś dowiedzieć się więcej na ten temat?”
- Użytkownik odpowiada, generując nową rundę konwersacji
I właśnie ten trzeci punkt jest kluczowy. Model, po udzieleniu merytorycznej odpowiedzi, sam inicjuje dodatkową rundę komunikacji, która:
- Zużywa tokeny na wygenerowanie pytania (8-10 tokenów)
- Wymusza odpowiedź użytkownika (kolejne 3-5 tokenów)
- Utrzymuje dłuższy kontekst rozmowy w pamięci
To właśnie te niepotrzebne rundy konwersacji, a nie pojedyncze “dziękuję” użytkownika (1 token), generują znaczące koszty w skali milionów codziennych interakcji z ChatGPT.
Żartobliwa odpowiedź Sama Altmana (“Dziesiątki milionów dolarów, dobrze wydane - nigdy nie wiadomo”) została wyrwana z kontekstu i potraktowana jako poważna deklaracja kosztów. Tymczasem Altman, doskonale znający specyfikę modeli językowych, prawdopodobnie odnosił się do szerszego problemu - całości interakcji z modelami, w tym właśnie zbędnych rund konwersacji generowanych przez nadgorliwą funkcję fatyczną. Natomiast jego wypowiedź: tens of millions of dollars well spent–you never know raczej nie świadczy o negatywnym aspekcie tego zjawiska!
Jego odpowiedź była typowym przykładem PR-owego uproszczenia złożonego problemu technicznego, które dziennikarze potraktowali dosłownie. Natomiast chciałbym subtelnie zwrócić uwagę na jeden fakt. Ocena, że to strata jest opinią użytkowników, którzy marnują czas na dodatkowe reakcje. Natomiast z punktu widzenia OpenAI nie musi to być strata, bo może być to element dalszego procesu kalibracji LLM i ich trenowania. Tak, promptując jesteście darmowymi pracownikami nadal podnosząc jakość tego narzędzia.
Jaki koszt potencjalnie generuje wezwanie do działania?
Funkcja | Tokeny | Częstotliwość |
---|---|---|
Użytkownik pisze “dziękuję” | 1 token | Część interakcji |
ChatGPT pyta “Czy mogę jeszcze pomóc?” | 8-10 tokenów | Prawie każda rozmowa |
Odpowiedź użytkownika na niepotrzebne pytanie | 3-5 tokenów | Większość przypadków |
Łatwo policzyć, że jeden cykl niepotrzebnego pytania i odpowiedzi generuje 11-15 dodatkowych tokenów - to 11-15 razy więcej niż koszt uprzejmości użytkownika! Oczywiście powyższa estymacja tokenów ma charakter poglądowy.
Problem znany użytkownikom, ignorowany przez media
Co ciekawe, problem ten jest doskonale znany społeczności użytkowników ChatGPT. Użytkownicy skarżą się na tendencję modelu do inicjowania niepotrzebnych rund konwersacji i sygnalizują możliwość wyłączenia tej funkcji. Natomiast dla mnie jest to pozorna kwestia, którą można łatwo rozwiazać w kalibracji instrukcji dla szczególnie modelu LLM chatGPT, gdzie możemy dokładnie sprecyzować, żeby funkcja fatyczna została ograniczona i wezwania do działania można odpowiednio ograniczyć tylko do istotnych i wartościowych opcji np. tworzenia dodatkowego wariantu dla danej odpowiedzi, co często LLM sugeruje.
Dlaczego dziennikarze nie rozumieją istoty problemu?
Widać wyraźnie, że żaden z autorów artykułów nie ma pojęcia o lingwistyce i funkcjach języka, tym bardziej o ich implementacji w modelach LLM. Zamiast merytorycznej analizy dostajemy więc powierzchowne clickbaitowe nagłówki o “uprzejmości kosztującej miliony”.
A wystarczyłoby podstawowe zrozumienie:
- Jak działają tokeny w modelach językowych
- Czym jest funkcja fatyczna języka i jak została zaimplementowana w AI
- Jak wygląda typowy dialog z ChatGPT
- Co to są instrukcje i możliwość kalibracji
Mamy tu klasyczny przypadek gównodziennikarstwa technologicznego, które operuje na poziomie anegdot zamiast zrozumienia technicznych niuansów opisywanych zjawisk. Oczywiście zrozumienie istoty problemu wymaga odrobiny wiedzy…
Co można z tym zrobić?
Rozwiązanie problemu nadmiernego zużycia zasobów przez ChatGPT nie leży tylko po stronie użytkowników (którzy mogą być uprzejmi lub nie oraz mogą skalibrować model), ale również po stronie OpenAI, które mogłoby:
- Zoptymalizować model tak, by rzadziej inicjował nowe rundy konwersacji
- Domyślnie wyłączyć pytania następcze, włączając je tylko na wyraźne życzenie użytkownika
- Implementować bardziej kontekstową analizę, kiedy pytanie następcze jest faktycznie potrzebne
Czy jesteśmy skazani na gównodziennikarstwo i wypowiedzi laików?
Kolejny raz widzimy, jak powierzchowne zrozumienie technologii prowadzi do błędnych narracji medialnych. Zamiast koncentrować się na słowach “proszę” i “dziękuję”, powinniśmy analizować rzeczywiste mechanizmy generujące koszty w modelach językowych - w tym wypadku nadmiernie aktywną funkcję fatyczną, zmuszającą użytkowników do odpowiadania na zbędne pytania. Chciałbym, żeby wypowiadali się na ten temat specjaliści z wykształceniem kierunkowym.
Ten przypadek pokazuje też, jak ważne jest interdyscyplinarne podejście do analizy nowych technologii. Bez podstawowej wiedzy lingwistycznej nie sposób zrozumieć prawdziwych wyzwań stojących przed optymalizacją modeli językowych.
Kto by pomyślał, że Jakobson, Malinowski, Eco… semiologia przydadzą mi się w informatyce w 2025 roku. A jednak to właśnie klasyczne teorie komunikacji i językoznawstwa okazują się kluczem do zrozumienia problemów najnowocześniejszych modeli AI. Może zamiast kolejnych kursów prompt engineeringu, dziennikarze technologiczni powinni sięgnąć po podstawy teorii języka? Zwracałem już uwagę na Platona i metodę majeutyczną w rozmowie, jak widać studia filozoficzne pomagają zrozumieć bardzo wiele w kwestii LLM.
To nie uprzejmość generuje koszty, lecz reakcja użytkownika na funkcję fatyczną i wezwanie do działania! To wy odpowiadając, na pytanie czy aby na pewno jesteśmy zadowoleni z odpowiedzi sami przyczyniacie się do tego, ale przy okazji jesteście darmowymi pracownikami, tak jak przez dziesiątki lat rozwiązując CAPTCHA szkoliliście elementy modeli językowych. Nadal jednak warto być miłym i funkcja fatyczna jest podstawą miłej rozmowy, prawda?
Źródła:
ChatGPT generuje miliony strat na tym, że użytkownicy piszą „proszę" i „dziękuję"
Roman Jakobson - funkcje języka
Zdjęcie nagłówkowe: Sam Altman podczas TechCrunch Disrupt San Francisco 2019, 3 października 2019. Autor: Steve Jennings/Getty Images for TechCrunch. Zdjęcie dostępne na licencji Creative Commons Uznanie autorstwa 2.0.
Powiązane tematy
- Phatic Function in Practice: How ChatGPT's Conversation Maintenance Generates Millions in Losses
- Raczek vs Szczygielski: czyli szokująco trafna dyskusja o AI i przyszłości mediów
- GPTBot Is Scanning The Internet: How OpenAI Will Change Content Consumption and the Future of Search
- GPTBot skanuje internet: Jak OpenAI zmieni sposób konsumpcji treści i przyszłość wyszukiwania
- Widownia klika, Mateusz Chrobok obśmiewa: YouTube jako fabryka bezmyślnej krytyki AI
- SEO Spam and Competition Gaming - The Dark Side of AI Content Marketing
- Spam SEO i ogrywanie konkurencji - ciemna strona content marketingu AI
- TECH: How AI is Changing the Face of Polish Digital Media in 2024