Da oggi la voce umana può essere clonata con l’intelligenza artificiale: OpenAi lancia Voice Engine

Il creatore di ChatGPT è pronto a lanciare Voice Engine, il nuovo strumento in grado di clonare la voce umana: tra dubbi e curiosità.

La linea tra la realtà artificiale e il potenziale umano sembra essere sempre più sottile, almeno per quanto riguarda il concetto di simulazione. Tra platee di persone che trovano questo passaggio come una minaccia e chi accoglie il cambiamento con un certo entusiasmo, il progresso sembra fare passi sempre più importanti. Sono stati molti gli strumenti di cui la popolazione di utenti ha potuto trarre giovamento, tra cui Chat GPT; per non parlare della possibilità di generare persone sempre più realistiche sotto forma di video; produrre canzoni da zero, testi complessi e quant’altro. Quello che questi strumenti non potranno mai sostituire (così si dice da diverso tempo), è la naturale creatività di una persona, nonché la naturale fame di scoperta.

Clonare la voce con l'intelligenza artificiaale
Come l’intelligenza artificiale clonerà la voce umana – (neuragate.it)

Quest’ultimo concetto pare rilevante, poiché il genere umano potrebbe generare qualcosa solo per il gusto di farlo, senza neanche valutare il suo reale utilizzo. Non si sa se questo è il caso di Voice Engine, ma ad essere certa è la prossima uscita del nuovo strumento brevettato dai genitori di Chat GTP, in grado di simulare il timbro di voce di una persona specifica.

Voice Engine: così clona la voce umana

Non si conosce bene la sua utilità, ma Voice Engine rimane comunque un’innovazione nel campo del’IA, pronta a rompere un’ulteriore barriera tra i limiti attuali e il potenziale virtuale. Secondo quanto comunicato da OpenAI, il sistema è in grado di clonare la voce di una persona utilizzando un breve campione audio di soli 15 secondi, ma sarà soggetto a restrizioni per evitare utilizzi impropri, come furto di personalità o diffamazione.

Voce engine clona la voce umana
I rischi nel clonare la voce umana con l’IA – (neuragate.it)

OpenAI ha infatti dichiarato di essere consapevole dei rischi associati alla generazione di voci simili a quelle umane, specialmente in un anno elettorale come quello in corso. “Lavoriamo con partner americani e internazionali del governo, dei media, dell’intrattenimento, dell’educazione, della società civile e di altri settori e terremo conto delle loro osservazioni man mano che svilupperemo il modello”, ha dichiarato l’azienda di San Francisco.

Da qui nasce l’idea di attuare misure che informino chi ascolta che tale voce è sintetica e non reale. Da queste, ha rassicurato OpenAi, pare essere incluso “un marchio per poter risalire all’origine di qualsiasi suono generato da Voice Engine, e un controllo proattivo del suo utilizzo”. Questo sarà essenziale per andare a contrastare possibili truffe o frodi già in atto da criminali informatici che sfruttano l’IA per scopi tutt’altro che buoni. Se tali sistemi saranno davvero così efficienti, non ci resta che scoprire l’utilità di questo sistema nel quotidiano.

Impostazioni privacy