Chat with us, powered by LiveChat ChatGPT chłodnym okiem eksperta. Czy to już pora, aby Twój biznes zainteresował się tym rozwiązaniem? | PerfectBot

ChatGPT chłodnym okiem eksperta. Czy to już pora, aby Twój biznes zainteresował się tym rozwiązaniem?

Maciej Maliszewski

Maciej Maliszewski

ChatGPT chłodnym okiem eksperta. Czy to już pora, aby Twój biznes zainteresował się tym rozwiązaniem?

Streszczenie artykułu wygenerowane przez ChatGPT:

  • Tekst omawia kwestię ChatGPT, sztucznej inteligencji generatywnej stworzonej przez OpenAI, a także ogólnie generatywnych algorytmów sztucznej inteligencji.
  • Autor pyta, czy technologia ta jest już gotowa na praktyczne zastosowanie w biznesie, czy może wciąż jest niedojrzała.
  • Opisuje także rozwój chatbotów od deterministycznych algorytmów do algorytmów uczenia maszynowego, dzięki czemu mogą one skuteczniej rozumieć język naturalny.

Kluczowe wnioski:

  • Chatboty oparte na dużych modelach językowych (LLM) – jak ChatGPT – to kolejna generacja rozwiązań tego typu, oferująca niespotykane dotychczas możliwości rozumienia i tworzenia języka naturalnego, a co z tego wynika, wysoką jakość doświadczenia użytkownika (UX).
  • Technologia ta cierpi wciąż na problemy “wieku dziecięcego”, spośród których najpoważniejszym są tzw. halucynacje. Polegają one na udzielaniu przez chatbota niezgodnych z prawdą, ale wiarygodnie wyglądających odpowiedzi.
  • Odrębne wyzwanie to brak gotowości obecnego rozwiązania do spełnienia wymogów RODO, ochrony prywatności użytkowników oraz szerzej mówiąc: nieuregulowane kwestie prawne dotyczące generatywnej sztucznej inteligencji.
  • Pomyślne wykorzystanie w biznesie chatbota LLM wymaga dwóch kluczowych działań: narzucenia realnej kontroli nad działaniem rozwiązania oraz ograniczenia ryzyka wystąpienia halucynacji.
  • Dla ostrożnych biznesów istnieje także droga pośrednia, polegająca na budowie rozwiązania hybrydowego, łączącego chatboty wykorzystujące duże modele językowe z rozwiązaniami starszej generacji. Z jednej strony daje to pełnię kontroli nad zachowaniem chatbota, z drugiej wyższą skuteczność działania rozwiązania.

ChatGPT, Open-AI, Generative AI – te hasła wypełniły ostatnio przestrzeń internetu. Piszą o nich zarówno serwisy specjalistyczne, jak i popularne portale informacyjne. Nie da się ukryć: “hype” na sztuczną inteligencję trwa w najlepsze.

Chciałbym chłodnym okiem ocenić, czy jest to kolejna bańka, która niebawem pęknie, czy może przełom technologiczny, wobec którego nie wolno pozostać obojętnym. Idąc dalej: czy jest to technologia, z której w praktyce już dziś może skorzystać biznes, czy też jest ona zbyt niedojrzała, by z powodzeniem ją implementować.

Widzieliśmy to już niejednokrotnie: niedawno nośnymi tematami były Metaverse, NFT, Blockchain. Wygląda na to, że rozdmuchane oczekiwania wobec nich nie zmaterializowały się w postaci wymiernych korzyści biznesowych, a wielomiliardowe inwestycje wpompowane w te obszary w przeważającej części “wyparowały”.

Chatbotami, czyli programami zdolnymi do konwersowania w języku naturalnym, zajmuję się już od ponad 10 lat. Pierwsze rozwiązania, jakie wdrażałem, pozbawione były technologii sztucznej inteligencji. Oparte były na w pełni deterministycznych algorytmach – oznacza to, że twórca chatbota w pełni kontrolował jego zachowanie, a sam bot nie był w stanie powiedzieć niczego, co nie zostało wcześniej starannie zredagowane. Ta pierwsza generacja chatbotów miała jednak bardzo ograniczone możliwości rozumienia języka naturalnego, co przekładało się na słaby user-experience. W praktyce, rozmówca bota musiał być bardzo wyrozumiały i używać prostych i zwięzłych fraz, aby zostać zrozumianym. Choć i takie wdrożenia znajdowały zastosowanie w różnych scenariuszach biznesowych (wiele z nich działa do dzisiaj!), było jasne, że nisko zawieszony “szklany sufit” nie pozwoli na szeroką adopcję tej technologii na rynku.

Pierwsze chatboty wykorzystujące uczenie maszynowe

Kilka lat temu nastąpiła pierwsza mała rewolucja. W chatbotach “drugiej generacji” zaczęliśmy korzystać z mechanizmów uczenia maszynowego (machine learning). Mogliśmy od tej pory śmiało mówić, że oparte są one na technologii sztucznej inteligencji. O ile zostanie prawidłowo “wytrenowany”, taki chatbot jest w stanie zrozumieć swoich rozmówców znacznie lepiej niż wdrożenia poprzedniej generacji. Wspomniany trening polega na zasileniu chatbota pewną ilością przykładowych fraz (wypowiedzi użytkowników), na podstawie których budowany jest model sztucznej inteligencji. Tak zbudowany bot potrafi wyciągnąć sens z dłuższej wypowiedzi, nierzadko składającej się nawet z kilku zdań – dla starszych wdrożeń był to mur nie do przebicia.

Z ludzkiego punktu widzenia objętość danych treningowych nie jest w tym przypadku wcale mała – zwykle jest ona porównywalna z typową książką beletrystyczną – np. “Władcą Pierścieni” (cały cykl powieści Tolkiena ma ok. 500 000 słów). Mimo to, w świecie AI utworzone na takim fundamencie modele językowe moglibyśmy określić mianem “małych”. Choć wymaga to dużego nakładu pracy i nierzadko aptekarskiej precyzji – taką ilością danych jesteśmy w stanie realnie zarządzać.

Wprowadzenie pierwiastka uczenia maszynowego oznacza, że w pewnym stopniu oddajemy swobodę “rozumowania” sztucznej inteligencji. Twórcy chatbota nadal mają jednak ścisłą kontrolę zarówno nad danymi treningowymi wpływającymi na jego zachowanie, jak i nad odpowiedziami, których udziela on swoim rozmówcom (ten punkt jest ważny z perspektywy dalszej rozmowy o ChatGPT).

Co najważniejsze – chatboty na tym etapie rozwoju osiągnęły już na tyle wysoką sprawność, aby znaleźć szerokie zastosowanie w biznesie. W zależności od branży i realizowanych scenariuszy, skuteczność rozumienia użytkowników przez boty tego typu waha się w przedziale 30 – 90%, z medianą w okolicach 60%. Z jednej strony oznacza to, że rozwiązanie takie może zautomatyzować obsługę ponad połowy trafiających do niego zapytań. Z drugiej – jest jasne, że pozostaje przed nami pole do poprawy.

Duże modele językowe (LLM)

Właśnie dlatego z tak dużym entuzjazmem przyjęta została najnowsza generacja chatbotów opartych o LLM – “large language models”, czyli “duże modele językowe”. Jak wskazuje sama nazwa – wytrenowane zostały one na olbrzymiej ilości danych treningowych (przyjmijmy, że jest to ilość przekraczająca możliwości do opanowania jej przez człowieka). Dodajmy: ilości zbyt dużej, by sprawować nad tymi danymi realną kontrolę.

Wynika z tego pierwszy ważny wniosek: korzystając z usług oferujących gotowe modele LLM nie mamy wpływu, ani nawet wiedzy o tym, jakie dane i z jakich źródeł zostały wykorzystane do ich utworzenia. Czy jest to jednak ważne? Chatboty oparte na silnikach tej generacji – jak ChatGPT – oferują nie tylko świetne możliwości rozumienia języka naturalnego, ale nieprawdopodobne wręcz możliwości tworzenia tekstu. Powiedzmy szczerze – talenty językowe ChatGPT prześcigają zdolności pisarskie większości z nas.  Nie wierzycie? Mogę to łatwo udowodnić, prosząc go zaraz o napisanie w czasie poniżej 1 minuty “regulaminu basenu pływackiego w stylu piosenek Maryli Rodowicz”.

Pierwsze wrażenia z obcowania z ChatGPT zwykle zwalają z nóg. Model jest błyskotliwy, dowcipny, kreatywny, a przy tym i wiarygodny. Bawią się nim dzieci i ich rodzice, studenci i profesorowie, prawnicy i lekarze, policjanci i złodzieje, słowem: niemal wszyscy. Nic dziwnego, że oczy dużych i małych firm zwróciły się w jego kierunku, rozważając czy i jak można by wykorzystać jego potencjał do realizacji różnorodnych celów biznesowych. Czy jest to więc genialna technologia, gotowa do szybkiej implementacji? Nie, a w każdym razie jeszcze nie.

Problem halucynacji

Pierwszy i najważniejszy problem to tak zwane “halucynacje”. Chatbot oparty na LLM potrafi w bardzo wiarygodny sposób pisać… kompletne bzdury. Mijać się z prawdą, konfabulować, mieszać fakty. Dla poważnego biznesu ma to niebagatelne znaczenie: chatbot taki może wprowadzać klientów w błąd, udzielać sprzecznych instrukcji pracownikom, czy wreszcie co 3 sekundy zmieniać zdanie na ten sam temat.

ChatGPT halucynacje

Odpowiedź bota jest konkretna, poprawna językowo i dopasowana do potrzeby użytkownika… tyle tylko, że żadna z powyższych książek ani żaden z wymienionych autorów nie istnieje! Nazywamy takie przypadki „rekomendacją bez ekspertyzy” – to barwny przykład halucynacji LLM.

Kolejny problem, o którym już wspominałem, to brak pełnej kontroli nad działaniem bota. Oznacza to też brak możliwości wytłumaczenia określonych jego zachowań, co w niektórych przypadkach może być szczególnie frustrujące. Jak poprawić coś, czego zasady działania nie możemy wyjaśnić? Jak wyegzekwować od tak niepokornego „pracownika” przestrzeganie prawa i polityki firmy?

ChatGPT w morele.net

W tym przykładzie chatbot Morele.net udzielił nieprawdziwej odpowiedzi, godzącej w interesy firmy. Wspomniana mysz Logitech G305 Lightspeed jest bowiem dostępna w sprzedaży w tym sklepie – i to z dostawą na jutro. Mimo wszystko chylimy czoła przed tym sklepem za wprowadzenie tak odważnej innowacji!

Zgodność z RODO

Trzeci, być może najbardziej bolesny problem, to brak zgodności usług oferujących modele LLM z RODO. W rozwiązaniu, które możemy wziąć “z półki”, nie jesteśmy w stanie zapewnić spełnienia całego szeregu wymogów, jakie europejskie prawo stawia przed nami w zakresie ochrony prywatności i przetwarzania danych osobowych. Przyjmując szerszą perspektywę – całe otoczenie prawne dotyczące generatywnych modeli sztucznej inteligencji jest dzisiaj bardzo chaotyczne. Brakuje jeszcze stosownych regulacji prawnych, a zachowania władz różnych państw są nieprzewidywalne i potrafią być wręcz radykalne (jak zakaz przetwarzania danych osobowych, który włoski rząd nałożył na firmę Open.ai).

Na tym etapie entuzjazm zwykle stygnie, a “hurra-optymizm” ustępuje miejsca wątpliwościom. Okazuje się, że ten innowacyjny kij również ma dwa końce – jeden wiąże się z nowymi możliwościami, drugi z realnym ryzykiem. Ale czy nie są to typowe cechy każdej dużej szansy biznesowej?

PerfectBot GPT

Przechodząc od teorii do praktyki: w naszej działalności od dłuższego już czasu przyglądamy się rozwojowi dużych modeli językowych. Co ciekawe, przeszliśmy drogę odwrotną od większości: zaczynaliśmy jako sceptycy, ale z biegiem czasu zaczął przeważać w nas entuzjazm.

Skupiliśmy nasze prace rozwojowe na zapewnieniu jak największej kontroli nad utworzonym w ten sposób chatbotem “trzeciej generacji”. Warto zdradzić, które wyzwania udało nam się już rozwiązać:

  • Potwierdziliśmy, że ujarzmienie niebezpiecznej fantazji bota jest możliwe. Obejmuje to m.in. skonfigurowanie bota tak, aby korzystał z dostarczonej mu wąskiej wiedzy o biznesie klienta, nie sięgając zbyt daleko w wiedzę ogólną, a w szczególności nie puszczając wodzy fantazji. To pierwszy i istotny fundament uzyskania kontroli nad działaniem bota.
  • Nauczyliśmy się optymalne przygotowywać wiedzę chatbota (adekwatną do realizowanego scenariusza biznesowego), m.in. zbierając jej odpowiednią ilość, strukturyzując ją, weryfikując jakość i logiczną spójność.
  • Zminimalizowaliśmy ryzyko wystąpienia halucynacji, tak aby uniknąć udzielania przez bota informacji nieprawdziwych, wyciągania zbyt daleko posuniętych wniosków z przekazanych mu danych, czy niewłaściwego łączenia faktów zaczerpniętych z różnych źródeł.
  • Zoptymalizowaliśmy koszt korzystania z modeli LLM. To bardzo istotne dla naszych klientów, ponieważ koszt może stać się bardzo wysoki w przypadku większych biznesów, operujących na bardzo dużych wolumenach rozmów z konsumentami.

To nie są jedynie eksperymenty. Już wkrótce udostępnimy do swobodnego i bezpłatnego przetestowania nasz produkt PerfectBot GPT, dedykowany e-commerce, wykorzystujący te rozwiązania, w szczególności mechanizmy ochrony przed halucynacjami.

W powyższym przykładzie do bota skierowaliśmy to samo zapytanie, które wywołało halucynacje przedstawione na poprzednim obrazie. Tym razem “fantazja” bota została przez nas radykalnie ograniczona.

Te przykłady pokazują, dlaczego wciąż warto poszukiwać metod łączenia wiedzy biznesowej dostarczonej chatbotowi z “kreatywnymi” możliwościami dużych modeli językowych. Wszystkie te odpowiedzi udzielają prawdziwych informacji dotyczących biznesu naszego klienta. Nie wszystkie dowcipy się udały, ale chyba dotyczy to też ludzi, prawda?

W powyższym przykładzie chatbot prawidłowo poradził sobie z bardzo złożonym zapytaniem, łącząc informacje zaczerpnięte z różnych obszarów swojej bazy wiedzy. Dla każdej z 3 sytuacji wymienionych w pytaniu konieczna była odrębna odpowiedź.

Powyższy przykład dłuższej wymiany zdań między użytkownikiem a botem, w której chatbot prawidłowo utrzymuje kontekst rozmowy i pozwala użytkownikowi na stopniowe pogłębianie pytań.

Podsumowanie

W świetle omówionych wyzwań, jakie niesie ze sobą wykorzystanie modeli LLM jest jasne, że nie każdy biznes zdecyduje się na rychłe postawienie kroku w tym kierunku. Spodziewam się, że podczas gdy najodważniejsze firmy e-commerce bardzo szybko zdecydują się na korzystanie z generative AI (już pojawiły się pierwsze, pilotażowe wdrożenia!), ten ruch będzie znacznie trudniejszy dla branży medycznej, finansowej, czy ubezpieczeniowej.

Dla firm potrzebujących ostrożniejszego podejścia pojawia się jeszcze jedna, wciąż bardzo atrakcyjna droga: możliwe jest zbudowanie hybrydy chatbota wykorzystującego duży model językowy z rozwiązaniem starszej generacji. Wówczas z jednej strony uzyskamy wyższą jakość (skuteczność) działania chatbota, wywiedzioną z możliwości dużego modelu językowego, a z drugiej strony zachowamy wysoką kontrolę nad jego zachowaniami (bot w tym wypadku nie powie niczego, co nie zostało starannie zredagowane i zaakceptowane przez biznes).

Sedno polega na tym, aby nie oceniać obecnej sytuacji zero jedynkowo: dobre – niedobre. Nowa technologia przyniosła nowe możliwości, ale ma też wady i ograniczenia. Możemy z tej innowacji korzystać w różnym stopniu, w zależności od branży i realizowanych scenariuszy biznesowych.

Rekomendację mamy więc prostą i uniwersalną, jak dla każdej nowej technologii obciążonej problemami “wieku dziecięcego”:

  • nowe możliwości – wykorzystać,
  • wady i ograniczenia – zrozumieć i opanować.

Chętnie w tym pomożemy.

Przeczytaj także

PerfectBot Grupy K2 wypłynie na szersze wody

PerfectBot Grupy K2 wypłynie na szersze wody

Technologiczno-marketingowa Grupa K2 zawarła „Term Sheet” z pozostałymi udziałowcami określając plan rozwoju PerfectBota – konwersacyjnej sztucznej inteligencji automatyzującej obsługę klienta w branży e-commerce – zakładający skalowanie produktu międzynarodowo w modelu Software as a Service (SaaS).

Przeczytaj ->
Jak (rzetelnie) mierzyć skuteczność chatbotów?

Jak (rzetelnie) mierzyć skuteczność chatbotów?

Za chatbotami szły duże obietnice. Miały odciążyć przeładowane biura obsługi klienta i zapewnić szybszą obsługę. Jednak pomimo dużych nadziei, wiele chatbotów częściej frustruje, niż pomaga i jest problem z poprawną oceną ich skuteczności.

Przeczytaj ->

Automate resolution of the 200 most common questions

dedykowany Chatbot

Chatbot dedykowany
do Retail & Ecommerce

Najwyższa na rynku efektywność

Najwyższa na rynku
efektywność

Gotowy nawet w 2 tygodnie

Gotowy nawet
w 1 dzień

PerfectBot to najefektywniejszy
chatbot do obsługi klienta
w Retail & Ecommerce.

Language: PL | EN

Language: PL | EN

Umów demo

FB IN x