Podsumowanie webinaru: Przewodnik po agentach AI w finansach
- Opublikowano
- Ostatnia aktualizacja
PosłuchajPosłuchaj tego artykułu
Podsumowanie webinaru: Przewodnik po agentach AI w finansach
Klienci usług finansowych oczekują więcej niż infolinii i muzyki na czekanie — chcą sprawnej, inteligentnej obsługi, która naprawdę rozwiązuje ich problemy.
W naszym ostatnim webinarze Przewodnik po agentach AI w finansach pokazaliśmy, jak budujemy, wdrażamy i rozwijamy agentów AI w finansach — od demo na żywo po realne wyniki w Revolut, Klarna i Better.
Dlaczego to ważne dla finansów
Branża wydała ponad 2,8 biliona dolarów na cyfrową transformację od 2011 roku. A klienci wciąż nie czują się obsłużeni. Kanały cyfrowe usunęły problem chodzenia do oddziału, ale w zamian pojawiła się inna frustracja: bezosobowa, automatyczna, pozbawiona emocji obsługa, która traktuje ludzi jak zgłoszenia.
Ta luka kosztuje — widać to wszędzie. Wiele rozmów to powtórne telefony od klientów, którzy nie dostali odpowiedzi za pierwszym razem. Agenci się wypalają, rotacja rośnie, a jakość obsługi stoi w miejscu.
Efekt? Problem z lojalnością. Klienci korzystają z kilku banków, bo żaden nie traktuje ich jak ważnego partnera.
To nie tylko kwestia automatyzacji — chodzi o to, by zapewnić spójną, zgodną z zasadami obsługę na dużą skalę, bez utraty ludzkiego podejścia.
Wielokanałowi, multimodalni agenci AI pomagają zamknąć tę lukę.
Demo: Agent bankowości detalicznej
Scenariusz: Klient banku dzwoni, by sprawdzić saldo, przejrzeć ostatnie transakcje, zgłosić podejrzaną wypłatę i zapytać o swój kredyt.
Co pokazaliśmy:
- Agent potwierdził tożsamość klienta przez serię pytań zabezpieczających, zanim dopuścił do konta
- Po weryfikacji agent pobrał aktualne saldo konta i oszczędności, korzystając z narzędzi backendowych
- Gdy klient zgłosił nieznaną wypłatę z bankomatu, agent od razu oznaczył ją jako podejrzaną, wygenerował numer zgłoszenia i przekazał sprawę do zespołu ds. oszustw
- W trakcie rozmowy temat zmienił się na kredyt — agent wykrył zmianę i bez problemu przekierował do odpowiedniego pod-agenta
- Gdy klient poprosił o poradę, ile spłacić, agent odmówił udzielenia porady finansowej, jasno wyjaśnił dlaczego i zaproponował, w czym może pomóc
Dlaczego to ważne:To nie jest chatbot z gotowym scenariuszem.
Agent obsługuje uwierzytelnianie, pytania o konto, zgłoszenia oszustw i kredyty w jednej rozmowie — cały czas trzymając się zasad.
Zabezpieczenia są wielowarstwowe i wpisane w prompt systemowy, obejmują też własne reguły, np. zakaz doradztwa finansowego. Każda rozmowa generuje automatyczne podsumowanie, ocenę i analitykę, więc zespoły mogą śledzić wyniki tysięcy rozmów.
Zgodność i bezpieczeństwo
W finansach wdrożenia AI rzadko zawodzą przez technologię. Najczęściej nie przechodzą przez kontrole bezpieczeństwa i zgodności.
ElevenLabs ma certyfikaty SOC 2 Type II i RODO oraz jest dostawcą usług PCI DSS poziomu 1 — to najwyższy standard i pierwsza platforma agentów AI z takim osiągnięciem. Dzięki temu banki i sklepy mogą korzystać z platformy bez własnej infrastruktury czy VPC. Nie musisz wybierać między szybkością a bezpieczeństwem.
Dla zespołów, które potrzebują więcej, ElevenLabs Agents daje ci 75% drogi do certyfikacji AIUC-1 od razu po wdrożeniu.
Certyfikat AIUC-1 to pierwszy standard zabezpieczeń, bezpieczeństwa i niezawodności stworzony specjalnie dla agentów AI – opracowany z udziałem ponad 75 CISO z firm z listy Fortune 500 oraz badaczy ze Stanford, MIT i MITRE.
Obejmuje trzy rzeczy, o które firmy pytają najczęściej: 1) potwierdzone zabezpieczenia po ponad 5000 testów, 2) szybsze wdrożenia dzięki jasnemu sygnałowi zaufania, który przyspiesza kontrole bezpieczeństwa, 3) dostęp do ubezpieczenia agentów AI obejmującego halucynacje, wycieki danych i nieautoryzowane działania przez Lloyd's of London.
Dobre praktyki wdrażania agentów AI w finansach
- Podziel złożonego agenta na wyspecjalizowane pod-agenty.Wrzucenie wszystkich instrukcji do jednego promptu pogarsza niezawodność. Modułowe pod-agenty — każdy z własnym promptem, narzędziami i bazą wiedzy — łatwiej testować, aktualizować i kontrolować.
- Połącz sztywne reguły z elastycznością LLM. Użyj twardego routingu do kroków jak uwierzytelnianie, gdzie nie ma miejsca na interpretację. Warunki oparte na LLM sprawdzą się przy rozumieniu intencji i otwartych pytaniach. Potrzebujesz obu.
- Warstwuj zabezpieczenia.Instrukcje w promptach to dopiero początek. Wbudowane zabezpieczenia dotyczące skupienia, manipulacji i treści to druga warstwa. Własne reguły — np. blokada porad finansowych — dają ci pełną kontrolę nad wyjątkami.
- Ustal kryteria oceny przed wdrożeniem. Od początku zaplanuj ocenę rozmów, kategorie intencji, wykrywanie halucynacji i śledzenie zamknięcia spraw. Przy wdrożeniach na dużą skalę zwykle używa się od 20 do 70 kryteriów na agenta.
- Monitoruj cały workflow, nie tylko pojedyncze rozmowy.Sprawdź, jak użytkownicy przechodzą między pod-agentami, gdzie się blokują i które węzły powodują powtarzające się pętle. Analityka workflow pokazuje problemy, których nie widać w pojedynczych rozmowach.
- Zadbaj o uwierzytelnianie już na etapie projektowania. Metody uwierzytelniania są różne — pytania zabezpieczające, jednorazowe kody, powiadomienia w aplikacji, telekomunikacja. Wybór zależy od twojego modelu ryzyka. Zdecyduj przed budową, nie po.
Obejrzyj całe nagranie
Zobacz cały webinar tutaj.





