Dal suo annuncio all’inizio del 2023, VALL-E di Microsoft è stato pubblicizzato come uno strumento per migliorare le disabilità delle persone traducendo il testo in parlato o sostituendo i doppiatori per rendere un film o un gioco più conveniente. Tuttavia, ora sembra che VALL-E potrebbe essere il software truffa più pericoloso mai rilasciato.
Secondo i commenti, VALL-E può essere utilizzato per truffare le persone imitando la voce di un amico o la voce di una celebrità. È un po’ come le maschere per FaceApp, ma per la voce. Microsoft non ha ancora commentato le segnalazioni secondo cui VALL-E sarebbe una truffa.
Sommario
Cos'è Vall-E?
Come funziona Vall-E?
Cosa rende Vall-E così pericoloso?
Come puoi proteggerti dalla Vall-E?
Cos'è Vall-E?
Vall-E è una voce sintetica che può essere utilizzata per imitare persone reali. Viene realizzato utilizzando la registrazione della voce di una persona reale e un codice Microsoft. Questo codice non è ancora pubblico, ma è possibile che venga trapelato.
I ricercatori hanno lavorato per trovare modi per migliorare il modo in cui i sistemi di sintesi vocale (TTS) producono il parlato sin dall'introduzione del primo modello TTS. Il modello più recente di Microsoft, il VALL-E, rappresenta un notevole progresso in questo settore.
Con un campione di soli tre secondi di qualsiasi voce, il modello TTS VALL-E basato su trasformatore è in grado di produrre parlato con ogni voce. Rispetto ai modelli precedenti, che richiedevano un periodo di formazione molto più lungo per sviluppare una nuova voce, questo rappresenta un notevole progresso. ChatGPT è vietato nelle scuole di New York; il resto degli Stati Uniti seguirà l'esempio. Come funziona Vall-E?
La parte migliore è che bastano solo tre secondi di discorso per l’apprendimento, o più precisamente, per il microlearning. Ciò significa che se hai una clip audio di tre secondi di qualcuno che parla, puoi mettergli in bocca qualsiasi testo desideri.
E ora, con la voce di Zuckerberg, l’intelligenza artificiale denigra tristemente le previsioni del tempo nel metaverso.
Ascolta i campioni nella sezione Diversity Synthesis scorrendo verso il basso. Questa intelligenza artificiale può aggiungere colore alla voce e cedere alle emozioni oltre, ad esempio, a preservare i toni emotivi del campione.
Esempio 1
Esempio n.2
Esempio n.3
Nessuno lo faceva prima, ed è per questo che lo hanno fatto così abilmente, ma gli sviluppatori hanno impiegato fino a 60.000 ore di discorso durante la fase di formazione (che sembra essere tagliata dall'app Teams).
Metti lacrime nella tua voce in modo che tutti piangano
il direttore vocale ora notoriamente istruisce l'IA
Il piano di Microsoft e OpenAI di affrontare Google con Bing basato su ChatGPT
Cosa rende Vall-E così pericoloso?
Vall-E è pericoloso perché agenti malvagi potrebbero usarlo per indurre le persone vulnerabili a trasferire fondi su una carta. I truffatori possono usarlo per impersonare qualcuno familiare alla vittima, come un membro della famiglia o un amico. Questo può portare le persone a perdere molti soldi.
Microsoft non ha ancora rilasciato il codice per Vall-E, quindi non è disponibile al grande pubblico. Tuttavia, se divulgato, potrebbe essere utilizzato da chiunque e per qualsiasi motivo. Ciò renderebbe quasi impossibile dire se la voce di una persona è reale o no.
Se senti una voce familiare sul tuo telefono, non dare per scontato che sia una voce umana. Soprattutto se ti viene chiesto di trasferire fondi su una carta. Prima, i truffatori avevano difficoltà a farcela. Ora, bastano 3 secondi per registrare la voce desiderata e un codice Microsoft, che non è ancora pubblico, ma siete tutti consapevoli dei potenziali pericoli derivanti dalla fuga di dati, per farla prendere vita.
Se ti viene chiesto di trasferire fondi su una carta, assicurati di verificare l'identità della persona prima di inviare denaro.
Le filigrane di ChatGPT possono aiutare Google a rilevare il testo generato dall'intelligenza artificiale
Come puoi proteggerti dalla Vall-E?
Al giorno d'oggi, è importante essere vigili su con chi si parla al telefono. Con l’avvento della tecnologia di clonazione vocale, ora i truffatori possono creare registrazioni false delle voci di persone reali. Ciò può rendere molto difficile capire se stai parlando con una persona reale o meno.
In caso di dubbi, ci sono alcune cose che puoi fare per proteggerti. Innanzitutto, prova a verificare l'identità della persona ponendo domande di cui solo la persona reale conosce la risposta. Se non sei ancora sicuro, puoi dire loro che li richiamerai e chiamerai il numero che sai che appartiene a loro. In caso di dubbi, puoi chiedere alla persona il suo nome e la sua posizione. Se sono riluttanti a fornirti queste informazioni o sembrano comunque loschi, puoi sempre riattaccare e chiamare l'azienda per cui dichiarano di lavorare per verificare la loro identità.
Dovresti anche essere consapevole dei segnali di allarme che potrebbero indicare che stai parlando con un truffatore. Diffida se la persona ti chiede di trasferire fondi su una carta prepagata o se utilizza un saluto generico come "Ciao amico". Riattacca immediatamente il telefono se ritieni di essere stato truffato.
Se sei interessato dalla truffa VALL-E, dovresti segnalarlo al tuo dipartimento di polizia locale. Sarebbe bene contattare Microsoft per vedere se è possibile ottenere un rimborso per evitare cause legali da miliardi di dollari.
Ulteriori informazioni sull'intelligenza artificiale:
Il futuro del canto: come l'intelligenza artificiale consente a chiunque di diventare un cantante professionista
ChatGPT: L'evoluzione di un Malware as a Service
Claude: Il primo concorrente ChatGPT è arrivato
CB Insights: Il metaverso è il perdente dell’anno; L’intelligenza artificiale è il vincitore
Uomo incarcerato per errore a causa del riconoscimento facciale
Il post VALL-E di Microsoft sembra essere il software truffa più pericoloso mai apparso per la prima volta su Metaverse Post.
