W centrum uwagi: ElevenLabs na MIT EmTech Digital
- Opublikowano
PosłuchajPosłuchaj tego artykułu
Oprócz ElevenLabs w panelu byli też przedstawiciele Alan Turing Institute, Ada Lovelace Institute i BT, a rozmowę prowadziła Melissa Heikkilä z MIT Technology Review.
Trzy filary bezpieczeństwa AI
W ElevenLabs tworzymy technologię audio AI, mając na uwadze jej wpływ. Jako osoba odpowiedzialna za AI Safety skupiam się na tym, by twórcy, firmy i użytkownicy mogli korzystać z naszych narzędzi bezpiecznie, a jednocześnie zapobiegam nadużyciom i działaniom niepożądanym. Podczas panelu opowiedziałam o tym, co robimy, by ElevenLabs było bezpiecznym i innowacyjnym miejscem, i zachęcałam do wdrażania strategii, które stawiają bezpieczeństwo AI na pierwszym miejscu. Wśród nich są:
Śledzenie: pozwala powiązać treści wygenerowane przez AI z konkretnym użytkownikiem. W ElevenLabs możemy przypisać treści stworzone na naszej platformie do danego konta, a narzędzia do klonowania głosu są dostępne tylko dla osób, które zweryfikowały konto danymi bankowymi. Dzięki temu każdy korzystający z AI może być pociągnięty do odpowiedzialności, a w razie potrzeby zidentyfikowany przez odpowiednie służby.
Wspólne działanie dla wspólnego celu
Dbamy o bezpieczny rozwój AI, ale żadna firma nie poradzi sobie z nadużyciami AI w pojedynkę. Podczas panelu zgodziliśmy się, że potrzebna jest szeroka współpraca firm technologicznych, rządów, organizacji społecznych i wszystkich użytkowników, by sprostać zmianom społecznym i środowiskowym oraz zadbać o bezpieczną cyfrową przyszłość. W ElevenLabs stawiamy na otwarty dialog w naszej społeczności i wspieramy inicjatywy takie jak Content Authenticity Initiative i Elections Safety Accord, by walczyć z dezinformacją.
Bezpieczeństwo AI na przyszłość
Wszyscy na panelu zgodziliśmy się, że produkty AI muszą być tworzone i używane bezpiecznie, ale jednocześnie trzeba zostawić miejsce na kreatywność i nieoczywiste zastosowania. W ElevenLabs często widzimy, jak nasza platforma pomaga osobom potrzebującym transkrypcji audio lub przywraca głos tym, którzy stracili go przez ALS czy inne choroby. Żeby AI mogło się rozwijać, trzeba zwiększać świadomość na temat mediów AI, zachęcać do krytycznego podejścia do treści cyfrowych, promować narzędzia do weryfikacji autentyczności i edukować zarówno użytkowników, jak i instytucje w zakresie etycznego korzystania z AI.




