Mi sono accorta solo ora che il 29 marzo OpenAI ha diffuso questa notizia, di cui vi riporto un estratto, tradotto usando al volo Google translate:
“OpenAI è impegnata a sviluppare un’intelligenza artificiale sicura e ampiamente vantaggiosa. Oggi condividiamo informazioni preliminari e risultati di un’anteprima su piccola scala di un modello chiamato Voice Engine, che utilizza l’input di testo e un singolo campione audio di 15 secondi per generare un parlato dal suono naturale che ricorda da vicino l’oratore originale. (…) Speriamo di avviare un dialogo sull’impiego responsabile delle voci sintetiche e su come la società può adattarsi a queste nuove capacità. Sulla base di queste conversazioni e dei risultati di questi test su piccola scala, prenderemo una decisione più informata su se e come implementare questa tecnologia su larga scala. “
Ho chiesto aiuto a chatGPT, per un breve recap con particolare riferimento alle potenzialità e ai rischi associati alla generazione di voci sintetiche:
“- Uso improprio delle voci sintetiche: La capacità di creare voci realistiche e emotive apre la possibilità di abusi, come l’impersonificazione di individui senza il loro consenso. Questo rischio è particolarmente rilevante in contesti sensibili come le elezioni, dove la diffusione di informazioni false o ingannevoli potrebbe avere gravi conseguenze.
– Conservazione dell’autenticità e del consenso: OpenAI sottolinea l’importanza del consenso informato dell’oratore originale prima di utilizzare la sua voce per generare contenuti sintetici.
– Trasparenza e divulgazione: È essenziale che il pubblico sia informato quando le voci che ascolta sono generate dall’IA. Questo aiuta a prevenire la disinformazione e mantiene un livello di fiducia e integrità nell’uso delle tecnologie vocali sintetiche.
– Sicurezza e monitoraggio: La presenza di misure di sicurezza come il watermarking per tracciare l’origine dell’audio generato e il monitoraggio proattivo dell’uso del modello sono passi cruciali per prevenire e identificare l’abuso della tecnologia.
– Rischi di confusione con voci reali: Esiste il rischio che le voci generate dall’IA possano essere indistinguibili da quelle umane, sollevando preoccupazioni per l’autenticazione basata sulla voce e l’uso di voci in contesti critici.
– Inclusione in una “no-go voice list”: La creazione di un elenco di voci che non devono essere imitate senza il consenso esplicito aiuta a proteggere le figure pubbliche e a prevenire l’uso improprio. Tuttavia, la gestione e l’attuazione di tale elenco presentano sfide tecniche e etiche.
– Impatto sulla società e sul lavoro: Mentre il modello Voice Engine offre notevoli benefici, come l’assistenza nella lettura e la traduzione di contenuti, è importante considerare e mitigare l’impatto potenziale sulle professioni legate alla voce, come doppiatori e narratori.”
Nei virgolettati il contributo di Google Translate e di ChatGPT.
0 commenti