Czy zastanawialiście się kiedyś, jak doszło do tego, że dzisiejsze maszyny potrafią z nami rozmawiać, pisać wiersze, a nawet pomagać w codziennych zadaniach? To nie stało się z dnia na dzień. Zaawansowane modele językowe, takie jak ChatGPT, Gemini, Claude czy nasz rodzimy Bielik, które coraz śmielej wkraczają w naszą rzeczywistość, są kulminacją dekad badań i eksperymentów. Ta podróż rozpoczęła się znacznie wcześniej, niż mogłoby się wydawać, a jej korzenie sięgają połowy XX wieku, gdy komputery zajmowały całe pokoje, a idea "myślącej maszyny" fascynowała pionierów informatyki.
Wszystko zaczęło się między 1964 a 1967 rokiem w murach MIT, gdzie Joseph Weizenbaum stworzył program, który na zawsze zmienił postrzeganie interakcji człowiek-maszyna. Mowa o ELIZIE, której działanie Weizenbaum opisał w publikacji z 1966 roku. Choć często uznawana za pierwszego chatbota, intencją Weizenbauma nie było stworzenie "rozmówcy", a raczej platformy do badania komunikacji między ludźmi a maszynami. Najsłynniejszy skrypt ELIZY, znany jako DOCTOR, symulował rozmowę z psychoterapeutą rogeriańskim. Jak to działało? Zaskakująco prosto. ELIZA nie rozumiała ani słowa z tego, co pisał użytkownik. Program wykorzystywał techniki dopasowywania wzorców (pattern matching) i proste reguły substytucji. W odpowiedzi na wpisane zdanie, ELIZA wyszukiwała słowa kluczowe i przekształcała wypowiedź rozmówcy, często zadając pytania w stylu "Dlaczego uważasz, że...?" lub powtarzając fragment zdania.
Ku zaskoczeniu samego Weizenbauma, ludzie reagowali na ELIZĘ niezwykle emocjonalnie. Zaczęli zwierzać się programowi, przypisując mu ludzkie cechy, empatię i zrozumienie. Jego własna sekretarka prosiła go o opuszczenie pokoju, by mogła "porozmawiać" z ELIZĄ na osobności. Zjawisko to nazwano później "efektem ELIZY" – tendencją do nieświadomego antropomorfizowania maszyn, zwłaszcza tych, które potrafią naśladować ludzką konwersację. ELIZA, mimo swojej prostoty, stała się kamieniem milowym, pokazując potencjał tkwiący w dialogu z maszyną i rozpalając wyobraźnię badaczy. Był to też jeden z pierwszych programów, które można było poddać próbie legendarnego Testu Turinga, zaproponowanego przez Alana Turinga już w 1950 roku, o którym pisałem na blogu jakiś czas temu.
Kolejnym krokiem w tej dziedzinie, choć wciąż opartym na podobnych zasadach, był PARRY, stworzony w 1972 roku przez Kennetha Colby'ego. PARRY również bazował na regułach, ale symulował osobę cierpiącą na schizofrenię paranoidalną. Co ciekawe, w testach z udziałem psychiatrów, PARRY okazał się na tyle przekonujący, że specjaliści często nie byli w stanie odróżnić jego odpowiedzi od odpowiedzi prawdziwych pacjentów.
Źródło: https://archive.org/details/parry_chatbot
Przez kolejne dekady chatboty rozwijały się powoli. W 1988 roku rozpoczęto prace nad projektem Jabberwacky (publicznie udostępnionym w 1997 roku), a w 1992 roku pojawił się Dr. Sbaitso – programy te próbowały udoskonalać formułę konwersacji opartej na regułach. Dopiero 23 listopada 1995 roku nastąpił prawdziwy skok jakościowy (choć wciąż w ramach programowania heurystycznego) wraz z narodzinami A.L.I.C.E. (Artificial Linguistic Internet Computer Entity). Stworzona przez Richarda Wallace'a A.L.I.C.E., inspirowana ELIZĄ, była znacznie bardziej rozbudowana. Jej "wiedza" nie była zaszyta na sztywno w kodzie programu, lecz zapisana w zewnętrznych plikach wykorzystujących specjalnie stworzony do tego celu (w latach 1995-2000) język znaczników – AIML (Artificial Intelligence Markup Language).
Strona A.L.I.C.E. Źródło: https://blog.ubisend.com/discover-chatbots/chatbot-alice
AIML, oparty na XML, pozwalał na definiowanie kategorii, z których każda zawierała wzorzec (pattern – potencjalna wypowiedź użytkownika) i szablon (template – odpowiedź chatbota). Choć mechanizm dopasowania wzorców był nadal rdzeniem działania A.L.I.C.E., AIML umożliwił tworzenie znacznie bardziej złożonych i rozbudowanych zestawów reguł konwersacyjnych. W szczytowym momencie A.L.I.C.E. dysponowała ponad 40 000 takimi kategoriami, podczas gdy oryginalna ELIZA miała ich zaledwie około 200. Co więcej, A.L.I.C.E. była rozwijana jako projekt open-source, co pozwoliło społeczności na współtworzenie jej bazy wiedzy i udoskonalanie jej "osobowości".
Sukces A.L.I.C.E. był niezaprzeczalny – trzykrotnie zdobyła Nagrodę Loebnera (w 2000, 2001 i 2004 roku), przyznawaną programom uznawanym za "najbardziej ludzkie". Mimo to, nawet A.L.I.C.E. nie była w stanie oszukać bardziej wnikliwych użytkowników i przejść Testu Turinga w pełnym tego słowa znaczeniu. Jej odpowiedzi, choć często trafne, w dłuższej rozmowie zdradzały mechaniczny charakter. Pokazała jednak, jak daleko można zajść, stosując sprytne heurystyki i rozbudowane bazy reguł.
Chatboty oparte na regułach, takie jak ELIZA i A.L.I.C.E., miały fundamentalne ograniczenie: ich zdolności konwersacyjne były ograniczone do wzorców i odpowiedzi przewidzianych przez twórców. Nie potrafiły uczyć się na podstawie rozmów ani generować zupełnie nowych, kreatywnych odpowiedzi. Prawdziwa rewolucja nadeszła wraz z postępami w dziedzinie uczenia maszynowego (Machine Learning) i przetwarzania języka naturalnego (NLP), które nabrały tempa w drugiej dekadzie XXI wieku. Te idee, mające swoje źródło jeszcze w historycznej Konferencji w Dartmouth z 1956 roku, potrzebowały dekad rozwoju algorytmów, wzrostu mocy obliczeniowej i dostępności ogromnych zbiorów danych, aby w pełni rozkwitnąć.
Porzucono sztywne reguły na rzecz zupełnie nowego podejścia: trenowania głębokich sieci neuronowych na gigantycznych korpusach tekstów. Modele te, znane jako Duże Modele Językowe (Large Language Models – LLM), uczą się statystycznych zależności w języku, gramatyki, semantyki, a nawet pewnego rodzaju "wiedzy" o świecie. Ich podstawowym zadaniem jest przewidywanie następnego słowa (lub tokenu) w sekwencji, co pozwala im generować spójne, gramatyczne i często zaskakująco trafne teksty.
Film wyjaśnia w jaki sposób BERT pomaga wyszukiwarce Google zrozumieć język.
Pojawienie się modeli takich jak BERT od Google w 2018 roku, a następnie GPT (Generative Pre-trained Transformer) od OpenAI, zapoczątkowało nową erę. Chatboty przestały być jedynie programami odtwarzającymi schematy – stały się generatorami języka. Kulminacją tego trendu jest eksplozja popularności narzędzi takich jak ChatGPT (którego pierwsza publiczna wersja pojawiła się pod koniec 2022 roku), Claude firmy Anthropic, Gemini od Google czy Copilot od Microsoftu. Mamy też polski akcent w postaci modelu Bielik, co pokazuje globalny zasięg tej rewolucji. Warto też pamiętać o wcześniejszych asystentach głosowych, takich jak Siri (2011), Alexa (2014) czy Google Assistant (2016), które również przyczyniły się do popularyzacji interakcji głosowych i tekstowych z AI.
Potrafią one nie tylko prowadzić rozmowę, ale też pisać kod, tłumaczyć, streszczać teksty, odpowiadać na złożone pytania i realizować wiele innych zadań. Oczywiście, jak pisałem w artykule o Generatywnej AI, wciąż daleko im do prawdziwej, ogólnej inteligencji na ludzkim poziomie. Popełniają błędy, czasami "halucynują", generując nieprawdziwe informacje, i nie posiadają prawdziwego zrozumienia świata w ludzkim sensie. Jednak ich zdolności językowe są bezprecedensowe.
Historia chatbotów to nie tylko historia technologii, ale także ewolucja sposobu, w jaki komunikujemy się z maszynami. ELIZA wymagała od użytkownika dostosowania się do jej ograniczonego schematu. A.L.I.C.E. oferowała większą elastyczność, ale wciąż poruszała się w ramach zdefiniowanych reguł. Dzisiejsze LLM-y potrafią dostosować się do naszego stylu rozmowy, rozumieją kontekst, potrafią prowadzić wielowątkowe dyskusje i generować odpowiedzi, które często trudno odróżnić od ludzkich.
Ta płynność interakcji sprawia, że granice wyznaczone kiedyś przez Test Turinga stają się coraz bardziej rozmyte. Czy maszyna, która potrafi przekonująco udawać człowieka w rozmowie, jest inteligentna? To pytanie pozostaje otwarte i prowadzi nas do głębszych rozważań nad naturą inteligencji, świadomości i języka, które poruszałem w tekście o poszukiwaniu istoty AI.
Obserwujemy fascynujący moment w historii AI. Od prostych programów dopasowujących wzorce z lat 60., przez systemy oparte na regułach z lat 90., dotarliśmy do ery modeli językowych zdolnych do generowania złożonych i kreatywnych treści w latach 20. XXI wieku. Podobnie jak w przeszłości, entuzjazm miesza się z ostrożnością. Czy obecny boom na generatywną AI to kolejny cykl, po którym nadejdzie "Zima AI", czy może stoimy u progu czegoś znacznie większego, być może nawet technologicznej osobliwości, o której pisał Vernor Vinge? Jedno jest pewne – chatboty, w swojej coraz bardziej zaawansowanej formie, na stałe wpisały się w krajobraz naszej cyfrowej rzeczywistości, a ich dalsza ewolucja zapowiada się jako jeden z najbardziej dynamicznych i fascynujących rozdziałów w historii sztucznej inteligencji.
UWAGA!
Ten artykuł, śledzący ewolucję od prostych skryptów ELIZY po zaawansowane modele jak ChatGPT czy Gemini, sam powstał przy współpracy z jednym z przedstawicieli tej nowej generacji – Gemini 2.5 Pro (experimental). Wykorzystałem jego zdolności do wyszukiwania informacji o historycznych chatbotach, strukturyzowania narracji i redagowania tekstu, co samo w sobie jest świadectwem postępu w interakcji człowiek-maszyna, o którym opowiada ten wpis.