Il creatore di ChatGPT è pronto a lanciare Voice Engine, il nuovo strumento in grado di clonare la voce umana: tra dubbi e curiosità.
La linea tra la realtà artificiale e il potenziale umano sembra essere sempre più sottile, almeno per quanto riguarda il concetto di simulazione. Tra platee di persone che trovano questo passaggio come una minaccia e chi accoglie il cambiamento con un certo entusiasmo, il progresso sembra fare passi sempre più importanti. Sono stati molti gli strumenti di cui la popolazione di utenti ha potuto trarre giovamento, tra cui Chat GPT; per non parlare della possibilità di generare persone sempre più realistiche sotto forma di video; produrre canzoni da zero, testi complessi e quant’altro. Quello che questi strumenti non potranno mai sostituire (così si dice da diverso tempo), è la naturale creatività di una persona, nonché la naturale fame di scoperta.
Quest’ultimo concetto pare rilevante, poiché il genere umano potrebbe generare qualcosa solo per il gusto di farlo, senza neanche valutare il suo reale utilizzo. Non si sa se questo è il caso di Voice Engine, ma ad essere certa è la prossima uscita del nuovo strumento brevettato dai genitori di Chat GTP, in grado di simulare il timbro di voce di una persona specifica.
Non si conosce bene la sua utilità, ma Voice Engine rimane comunque un’innovazione nel campo del’IA, pronta a rompere un’ulteriore barriera tra i limiti attuali e il potenziale virtuale. Secondo quanto comunicato da OpenAI, il sistema è in grado di clonare la voce di una persona utilizzando un breve campione audio di soli 15 secondi, ma sarà soggetto a restrizioni per evitare utilizzi impropri, come furto di personalità o diffamazione.
OpenAI ha infatti dichiarato di essere consapevole dei rischi associati alla generazione di voci simili a quelle umane, specialmente in un anno elettorale come quello in corso. “Lavoriamo con partner americani e internazionali del governo, dei media, dell’intrattenimento, dell’educazione, della società civile e di altri settori e terremo conto delle loro osservazioni man mano che svilupperemo il modello”, ha dichiarato l’azienda di San Francisco.
Da qui nasce l’idea di attuare misure che informino chi ascolta che tale voce è sintetica e non reale. Da queste, ha rassicurato OpenAi, pare essere incluso “un marchio per poter risalire all’origine di qualsiasi suono generato da Voice Engine, e un controllo proattivo del suo utilizzo”. Questo sarà essenziale per andare a contrastare possibili truffe o frodi già in atto da criminali informatici che sfruttano l’IA per scopi tutt’altro che buoni. Se tali sistemi saranno davvero così efficienti, non ci resta che scoprire l’utilità di questo sistema nel quotidiano.
Pericolo Intelligenza Artificiale: potremmo essere tutti a rischio e non ci accorgeremmo nemmeno dei danni…
Secondo le statistiche le donne sono più tecnologiche degli uomini. Eppure vengono discriminate e faticano…
Non ci penserebbe mai nessuno eppure una semplice app come WhatsApp è pericolosa. Vediamo insieme…
Molti soffrono di dipendenza da smartphone e non lo sanno. Ti sei mai chiesto se…
La tua attenzione è fondamentale se sei un abbonato a Prime, perché la nuova truffa…
Hai un vecchio cellulare in casa e lo tieni come ricordo? Forse sarebbe meglio buttarlo,…