I fokus: ElevenLabs på MIT EmTech Digital
- Publicerad
LyssnaLyssna på den här artikeln
Förutom ElevenLabs deltog ledare från Alan Turing Institute, Ada Lovelace Institute och BT, med Melissa Heikkilä från MIT Technology Review som moderator.
Tre delar för AI-säkerhet
På ElevenLabs utvecklar vi ljud-AI medvetet om dess påverkan. I min roll med ansvar för AI Safety fokuserar jag på att ge kreatörer, företag och användare verktyg, samtidigt som vi motverkar missbruk och stoppar oseriösa aktörer. Under panelen berättade jag om våra åtgärder för att göra ElevenLabs till en säkrare och mer innovativ plats, och jag lyfte fram vikten av strategier som sätter AI-säkerhet i första rummet. Dessa strategier är bland annat:
Spårbarhet: säkerställer att AI-genererat innehåll kan spåras tillbaka till en enskild användare. På ElevenLabs kan vi koppla innehåll som skapats på vår plattform till det konto det kommer ifrån, och våra verktyg för Voice Cloning är bara tillgängliga för användare som har verifierat sina konton med bankuppgifter. Fokus på spårbarhet gör att alla som använder AI-plattformar kan hållas ansvariga för sina handlingar och identifieras av myndigheter vid behov.
Tillsammans mot ett gemensamt mål
Vi prioriterar säker AI-utveckling, men inget företag kan hantera AI-missbruk på egen hand. Under panelen betonade vi behovet av samarbete mellan teknikföretag, myndigheter, civilsamhälle och allmänheten för att möta samhällsförändringar och skapa en trygg digital framtid. På ElevenLabs vill vi ha en öppen dialog i vårt community och stödjer initiativ som Content Authenticity Initiative och Elections Safety Accord för att motverka desinformation.
Framtidssäkra AI-säkerhet
På panelen var vi alla överens om att AI-produkter måste utvecklas och användas på ett säkert sätt. Samtidigt måste vi också ge utrymme för kreativa och oväntade användningsområden. På ElevenLabs ser vi ofta att vår plattform används för att göra digitalt innehåll mer tillgängligt för personer som behöver ljudtranskribering, och för att ge rösten tillbaka till dem som förlorat den på grund av ALS eller andra sjukdomar. För att AI ska kunna utvecklas behövs ökad medvetenhet om AI-media, kritisk interaktion med digitalt innehåll, verktyg för att verifiera äkthet och utbildning av både allmänhet och institutioner om etisk AI-användning.




