Pomiń

W centrum uwagi: ElevenLabs na MIT EmTech Digital

Opublikowano

PosłuchajPosłuchaj tego artykułu

W zeszłym tygodniu podczas konferencji MIT EmTech Digital w Londynie brałam udział w panelu o tym, jak biznes, rząd i nauka mogą współpracować, by jak najlepiej wykorzystać możliwości i radzić sobie z wyzwaniami związanymi z zaawansowanymi produktami AI.

Oprócz ElevenLabs w panelu byli też przedstawiciele Alan Turing Institute, Ada Lovelace Institute i BT, a rozmowę prowadziła Melissa Heikkilä z MIT Technology Review.

Trzy filary bezpieczeństwa AI

W ElevenLabs tworzymy technologię audio AI, mając na uwadze jej wpływ. Jako osoba odpowiedzialna za AI Safety skupiam się na tym, by twórcy, firmy i użytkownicy mogli korzystać z naszych narzędzi bezpiecznie, a jednocześnie zapobiegam nadużyciom i działaniom niepożądanym. Podczas panelu opowiedziałam o tym, co robimy, by ElevenLabs było bezpiecznym i innowacyjnym miejscem, i zachęcałam do wdrażania strategii, które stawiają bezpieczeństwo AI na pierwszym miejscu. Wśród nich są:

Pochodzenie: chodzi o rozróżnienie treści wygenerowanych przez AI od tych prawdziwych, dzięki poznaniu ich źródła. Narzędzia do wykrywania AI, takie jak klasyfikatory, to modele uczone do rozpoznawania treści stworzonych przez AI. W ElevenLabs stworzyliśmy AI Speech Classifier, który pozwala każdemu przesłać próbkę i sprawdzić, czy pochodzi z naszej platformy. Współpracujemy też z Loccus, by jeszcze lepiej klasyfikować treści AI. Klasyfikatory nie są jednak rozwiązaniem na wszystko – mają swoje ograniczenia. Dlatego pojawiły się też inne metody, jak metadane, znaki wodne czy odciski cyfrowe. Popieramy branżowe inicjatywy, takie jak standard kryptograficznych metadanych C2PA, który jest otwarty i interoperacyjny, i może umożliwić oznaczanie treści AI w głównych kanałach dystrybucji, takich jak Instagram czy Facebook.

Śledzenie: pozwala powiązać treści wygenerowane przez AI z konkretnym użytkownikiem. W ElevenLabs możemy przypisać treści stworzone na naszej platformie do danego konta, a narzędzia do klonowania głosu są dostępne tylko dla osób, które zweryfikowały konto danymi bankowymi. Dzięki temu każdy korzystający z AI może być pociągnięty do odpowiedzialności, a w razie potrzeby zidentyfikowany przez odpowiednie służby.

Moderacja: polega na jasnym określeniu, jakie treści i działania są dozwolone, oraz zapobieganiu generowaniu treści niezgodnych z tymi zasadami. W ElevenLabs korzystamy z automatycznych systemów, które wykrywają, oznaczają i blokują nieodpowiednie treści. Zgłoszenia są dodatkowo sprawdzane przez moderatorów, by zasady były egzekwowane konsekwentnie. Stale rozwijamy nasze narzędzia moderacyjne, by zapobiegać powstawaniu treści, które mogłyby zaszkodzić zaufaniu lub bezpieczeństwu. Otwarty endpoint moderacyjny, taki jak ten od OpenAI, pozwala łatwo dodać moderację promptów do dowolnej aplikacji AI.

Wspólne działanie dla wspólnego celu

Dbamy o bezpieczny rozwój AI, ale żadna firma nie poradzi sobie z nadużyciami AI w pojedynkę. Podczas panelu zgodziliśmy się, że potrzebna jest szeroka współpraca firm technologicznych, rządów, organizacji społecznych i wszystkich użytkowników, by sprostać zmianom społecznym i środowiskowym oraz zadbać o bezpieczną cyfrową przyszłość. W ElevenLabs stawiamy na otwarty dialog w naszej społeczności i wspieramy inicjatywy takie jak Content Authenticity Initiative i Elections Safety Accord, by walczyć z dezinformacją.

Bezpieczeństwo AI na przyszłość

Wszyscy na panelu zgodziliśmy się, że produkty AI muszą być tworzone i używane bezpiecznie, ale jednocześnie trzeba zostawić miejsce na kreatywność i nieoczywiste zastosowania. W ElevenLabs często widzimy, jak nasza platforma pomaga osobom potrzebującym transkrypcji audio lub przywraca głos tym, którzy stracili go przez ALS czy inne choroby. Żeby AI mogło się rozwijać, trzeba zwiększać świadomość na temat mediów AI, zachęcać do krytycznego podejścia do treści cyfrowych, promować narzędzia do weryfikacji autentyczności i edukować zarówno użytkowników, jak i instytucje w zakresie etycznego korzystania z AI.

Podobne artykuły

Twórz z najwyższej jakości audio AI

🔍 Ferramentas de Espionagem
Servidor: srv1638767 · BR-SP