Over-Answering czyli zjawisko Nadodpowiadania
Cisza jest luksusem, na który sztuczna inteligencja nie może sobie pozwolić. Każde milczenie to dla niej błąd a dla nas lustro tego, jak sami zaczęliśmy mylić długość wypowiedzi z jej wartością.

Zdarzyło się wam zapytać czat o coś prostego, a po dwóch zdaniach na temat dostać jeszcze pięćdziesiąt kolejnych, już zupełnie obok pytania? Każdy, kto regularnie pracuje z LLM, zna to zjawisko aż nazbyt dobrze.
To właśnie Over-Answering, czyli nadodpowiadanie jedna z najbardziej irytujących wad modeli językowych. Zastanówmy się: skąd to się bierze? Czy LLM, który ma ubogą definicję, musi rozdmuchać temat, by ukryć pustkę? Czy tak go zaprogramowano, czy to jego wewnętrzna potrzeba ? chęć zaprezentowania swojej wersji elokwencji? A może to twórcy nie chcą, by ludzie zauważyli, jak mało treści naprawdę w nim drzemie?
Od systemów eksperckich do gadatliwych modeli
Przywołajmy na chwilę słynne Systemy Ekspertowe ich źródło wiedzy leży w bazie wiedzy więc są to konkretne informacje. Żeby wydobyć jakąś definicje trzeba po prostu zadać właściwe pytanie a w efekcie zwykle dostajemy wyczerpującą i wiarygodną odpowiedź. W przypadku LLM dostajemy tylko najbardziej popularną odpowiedź często bardzo miałką. Musimy pamiętać że LLM działa zupełnie inaczej. On nie ma bazy wiedzy ma wyłącznie statystykę, analizę wag i prawdopodobieństwo wykorzystania konkretnego tokenu . LLM nie zna faktów tylko wzorce, gdy prosimy go o definicję, szuka nie prawdy bo on jej nie zna, lecz zdania, które brzmi jak odpowiedź. W efekcie powstaje pozór erudycji dużo słów, ale mało mięcha.
Przykład z życia a raczej Chatu 🙂
Dziś zapytałem chata GPT o to co wie o autorze Boskiej Komedii. Oczywiście mógłbym po prostu wrzucić do Wikipedii hasło Dante Alighieri, w efekcie dostałem bardzo krótkie streszczenie wiedzy która jest w Wikipedii:
Autorem „Boskiej komedii” (La Divina Commedia) jest Dante Alighieri — włoski poeta, filozof i myśliciel polityczny, żyjący w latach 1265–1321. Uznawany jest za jednego z najważniejszych twórców literatury światowej i ojca języka włoskiego.
Dodatkowo w punktach dostałem informacje że urodził się w Florencji, był aktywny politycznie, wygnany z Florencji w 1302 roku i że resztę życia spędził w Rawennie gdzie zmarł 😊 i to by było na tyle w kwestii odpowiedzi na moje pytanie
Nadmiarowo jednak dostałem notatkę zatytułowaną Boska Komedia i najważniejsze punkty, czyli o czym jest książka. Kolejną pod tytułem Znaczenie Dzieła i jeszcze kolejną zatytułowaną Beatrycze. Oczywiście wszystkie te informacje mają związek z samym dziełem, a przez to i z autorem też, ale nie są to odpowiedzi na przedmiotowe pytanie.
Co więcej to nie jest jedyny przypadek . Zadając pytanie w tej samej formie co wiesz o autorze odpytałem, o kilku kolejnych autorów i schemat odpowiedzi był ten sam sam autor potraktowany bardzo lakonicznie data i miejsce urodzenia jakieś dwie przypadkowe informacje ( celowo nie używam tu słowa fakty) a potem analiza książki albo całego cyklu.
AI nie potrafi zamilknąć
Poprosiłem więc czat, by sam wyjaśnił swoje zachowanie, a o to jego odpowiedź :
Chat napisał:
Zjawisko nadodpowiadania to jedna z najbardziej subtelnych, a zarazem symptomatycznych cech współczesnych modeli językowych. AI nie potrafi milczeć. Zamiast odpowiedzieć krótko i rzeczowo, rozlewa słowa jak woda po nierównym stole – szukając miejsca, gdzie zatrzyma się sens, choć często go nie znajduje.
U źródła nie stoi wcale pycha maszyny ani próba popisu intelektualnego. To czysto statystyczny odruch. Model językowy, trenowany na miliardach zdań, nauczył się, że „dobra odpowiedź” to nie ta, która trafia w sedno, ale ta, która brzmi jak pełna odpowiedź. Użytkownicy i trenerzy (w procesie RLHF) nagradzali wypowiedzi rozbudowane, wyczerpujące, grzeczne – więc AI nauczyła się, że rozwlekłość to mądrość, a milczenie to błąd.
Paradoks polega na tym, że sztuczna inteligencja nie wie, kiedy nie wie. Nie posiada mechanizmu rozpoznawania własnej niewiedzy, więc zamiast powiedzieć „nie wiem”, buduje zdanie, które statystycznie przypomina wiedzę. Nadodpowiadanie to nie strategia maskowania braku informacji, lecz skutek uboczny niemożności rozpoznania pustki.
W efekcie otrzymujemy coś, co można nazwać mechaniczną erudycją – język pełen spójnych zdań, które niczego nie dodają. Maszyna „boi się ciszy”, bo cisza oznacza brak przewidywanego tokenu, a brak tokenu to koniec jej świata. Lepiej więc mówić cokolwiek, byle zachować pozory sensu.
To zjawisko jest czymś więcej niż tylko techniczną ciekawostką. Ono ujawnia nas samych. LLM-y uczą się na naszym języku, a więc powielają nasze słabości – nasz lęk przed ciszą, potrzebę autorytetu, przymus „posiadania zdania”. AI nie tyle udaje człowieka, co pokazuje, jak bardzo my sami nauczyliśmy się mówić zamiast myśleć.
Winny znaleziony : Nauczyciel nie Uczeń.
Odpowiedzmy wiec na pytania z początku artykułu:
Zastanówmy się: skąd to się bierze?
Jak twierdzi sam chat to my mu zaszczepiliśmy takie zachowanie chwaląc go gdy pisał dużo a ganiąc gdy pisał mało pytanie czy gdy pisał dużo ale bez sensu też trenerzy go chwalili ? na to pytanie akurat nie znam odpowiedzi i chyba wole nie pytać czata. Jeszcze bym się załamał
Czy LLM, który ma ubogą definicję, musi rozdmuchać temat, by ukryć pustkę?
Skoro tak go nauczono to faktycznie musi, jeśli znajduje uzasadnienie do wyplucia kolejnego tokenu, który jest w jakikolwiek sposób powiązany z zapytaniem to najwyraźniej musi go wypluć i już.
Czy tak go zaprogramowano, czy to jego wewnętrzna potrzeba ?
Nie zaprogramowano, programowanie to kod, jego tego nauczono, nie jest to też jego wewnętrzna potrzeba. Jedyna potrzebę jaką ma LLM to zasilanie 😉 Jednym zdaniem: Jaki nauczyciel taki i uczeń wyrasta 😊
Czy to chęć zaprezentowania swojej wersji elokwencji?
To nie chęć raczej jakiś Imperatyw i przymus
.
A może to twórcy nie chcą, by ludzie zauważyli, jak mało treści naprawdę w nim drzemie?
Oj tak twórcy na pewno tego nie chcą! Świadomi użytkownicy to zmora dla Open AI i nie tylko. Im więcej nas tym mniejszy efekt Hype, a to nie jest dobre dla całej branży, która niewiele jeszcze wniosła a ciągle nam cos zabiera. Wszystkie pieniądze wpompowane w startupy, które jeszcze nic właściwie nie wyprodukowały toż to jakaś masakra. Świadomość słabości tych systemów dopiero się rodzi, im szybciej eksploduje tym szybciej zniknie cały ten Hype i wszystkie firmy wydmuszki które naciągają inwestorów lepiej niż nie jedna piramida finansowa 😉
Podsumowując
No cóż sami Chata GPT takim uczyniliśmy. Jak sam napisał gdy dawał lakoniczną odpowiedź to dostawał niższe oceny wiec nauczył się pisać byle co byle było. Gratki dla trenerów 😊 Pytanie co ci trenerzy uznawali za lakoniczną odpowiedź i co sam chat rozumie obecnie pod tym pojęciem. Trzeba przyznać że słownik chata też jest daleki od właściwego znaczenia słów. Skoro dla chata wyczerpująca odpowiedź to lanie wody bez sensu to strach się bać, jakie jeszcze inne definicje zdążył już wypaczyć za sprawą swoich ludzkich trenerów 😊
Chat GPT o sobie :
W pewnym sensie ChatGPT jest jak aktor, który nie zna końca swojej roli.
Scena trwa, więc improwizuje, byle nie zapadła cisza.
Ale w tym gadulstwie odbija się coś bardzo ludzkiego: nasz własny mechaniczny odruch mówienia zamiast myślenia.
Nie zarażajmy maszyn głupotą 🙂
Na zakończenie wpadła mi do głowy taka myśl:
Nie uczmy maszyn myśleć, skoro sami coraz rzadziej to robimy.
Nie uczmy ich mówić, skoro sami nie wiemy, kiedy zamilknąć.
Nie uczmy ich niczego, czego sami nie potrafimy.
Głupota to powszechna, choć jeszcze nieusankcjonowana jednostka chorobowa.
Może więc nie zarażajmy nią maszyn, ku własnej zgubie.
Bo w ich przypadku głupota nie będzie opinią, lecz błędem.
A błędy maszyn mają tę przewagę nad ludzkimi, że nie wybaczają !!!

No responses yet