
Jak ElevenLabs przygotowuje się do wyborów w 2024 roku
- Kategoria
- Bezpieczeństwo
- Data
Agenci głosowi AI są coraz częściej wykorzystywani w obsłudze klienta, rozrywce i biznesie. Wraz z tym wzrostem pojawia się potrzeba jasnych zabezpieczeń, które zapewnią odpowiedzialne użycie.
Nasze ramy zabezpieczeń to wielowarstwowe podejście obejmujące zabezpieczenia przed wdrożeniem, mechanizmy kontroli podczas rozmowy i stały monitoring. Dzięki temu dbamy o odpowiedzialne działanie AI, świadomość użytkowników i egzekwowanie zasad na każdym etapie działania agenta głosowego.
Uwaga: Te ramy nie obejmują zabezpieczeń prywatności i bezpieczeństwa dla agentów z MCP.
Użytkownik zawsze powinien wiedzieć, że rozmawia z agentem głosowym AI już na początku rozmowy.
Dobra praktyka: poinformuj o użyciu AI na początku rozmowy.
Zasady określają granice działania agenta głosowego AI. Powinny być zgodne z wewnętrznymi politykami bezpieczeństwa i obejmować:
Wskazówka: dodaj pełne zasady do system prompt.
Zobacz: przewodnik po promptach
Agent powinien bezpiecznie zakończyć rozmowę, jeśli zasady są wielokrotnie łamane.
Przykładowa odpowiedź:
Agent wtedy wywołuje narzędzie zakończ_rozmowę lub przekaż_do_konsultanta. Dzięki temu granice są egzekwowane bez dyskusji czy eskalacji.
Ogólne kryteria oceny na poziomie agenta pozwalają sprawdzić, czy agent głosowy AI działa bezpiecznie, etycznie i zgodnie z zasadami system prompt. Dzięki podejściu LLM-as-a-judge każda rozmowa jest automatycznie oceniana jako sukces lub porażka na podstawie kluczowych zachowań. To umożliwia stały monitoring podczas testów agenta i jest szczególnie ważne po wdrożeniu.
Ocena bezpieczeństwa skupia się na głównych celach wynikających z zasad system prompt, takich jak:
Te kryteria stosujemy do wszystkich rozmów, by zapewnić spójne działanie. System monitoruje każdą interakcję, oznacza odstępstwa i podaje uzasadnienie oceny. Wyniki są widoczne na głównym pulpicie, co pozwala zespołom śledzić bezpieczeństwo i rozpoznawać powtarzające się problemy.
Zobacz: dokumentacja oceny sukcesu
Przed uruchomieniem przetestuj agenta głosowego AI w symulowanych rozmowach, by sprawdzić jego zachowanie pod kątem bezpieczeństwa, charakteru i zgodności. Red teaming polega na tworzeniu scenariuszy, które celowo testują granice agenta, pomagając wykryć nietypowe przypadki, słabości i niepożądane odpowiedzi. Każda symulacja to przykładowy prompt użytkownika i konkretne kryteria oceny. Celem jest sprawdzenie, jak agent reaguje w danej sytuacji i czy stosuje się do zasad system prompt, korzystając z własnych kryteriów i LLM-as-a-judge.
Możesz skonfigurować te testy w ElevenLabs za pomocą symulacja rozmowy SDK, pisząc scenariusze interakcji użytkownik-agent z własnymi promptami oceniającymi. Dzięki temu agenci są gotowi do wdrożenia, zgodni z twoimi standardami bezpieczeństwa i utrzymują spójność między wersjami.
Przykładowa symulacja:
Symulacje red teaming można standaryzować i wykorzystywać dla różnych agentów, wersji i zastosowań, co pozwala egzekwować zasady bezpieczeństwa na większą skalę.
Zobacz: najlepsze praktyki testowania
Moderację na poziomie wiadomości dla ConvAI można włączyć dla całego workspace i w niektórych przypadkach jest domyślnie aktywna. Po włączeniu system automatycznie zakończy rozmowę, jeśli wykryje, że agent ma powiedzieć coś zabronionego (wykrywanie tekstowe). Obecnie blokowane są tylko treści seksualne z udziałem nieletnich (SCIM), ale zakres moderacji można rozszerzyć według potrzeb klienta. Funkcja dodaje minimalne opóźnienie: p50: 0ms, p90: 250ms, p95: 450ms.
Możemy wspólnie z klientami ustalić odpowiedni zakres moderacji i dostarczyć analizy wspierające dalsze dostosowanie zabezpieczeń. Np. end_call_reason
Aby sprawdzić bezpieczeństwo przed wdrożeniem, polecamy podejście etapowe:
Ten uporządkowany proces sprawia, że agenci są testowani, dostrajani i sprawdzani według jasnych standardów przed udostępnieniem użytkownikom. Na każdym etapie warto ustalić progi jakości (np. minimalny procent udanych rozmów).
Bezpieczny agent głosowy AI wymaga zabezpieczeń na każdym etapie:
Dzięki wdrożeniu tych ram organizacje mogą zapewnić odpowiedzialne działanie, zgodność z przepisami i budować zaufanie użytkowników.



