Desde su anuncio a principios de 2023, VALL-E de Microsoft ha sido promocionado como una herramienta para mejorar las discapacidades de las personas al traducir texto a voz o reemplazar a los actores de doblaje para hacer que una película o un juego sea más asequible. Sin embargo, ahora parece que VALL-E puede ser el software fraudulento más peligroso jamás lanzado.
Según los comentarios, VALL-E se puede utilizar para estafar a la gente y quitarle dinero imitando la voz de un amigo o la voz de una celebridad. Es un poco como las máscaras para FaceApp, pero para voz. Microsoft aún no ha comentado sobre los informes de que VALL-E es una estafa.
Tabla de contenido
¿Qué es Vall-E?
¿Cómo funciona Vall-E?
¿Qué hace que Vall-E sea tan peligroso?
¿Cómo puedes protegerte de Vall-E?
¿Qué es Vall-E?
Vall-E es una voz sintética que se puede utilizar para imitar a personas reales. Se realiza utilizando una grabación de la voz de una persona real y un código de Microsoft. Este código aún no es público, pero es posible que se filtre.
Los investigadores han estado trabajando para encontrar formas de mejorar la forma en que los sistemas de texto a voz (TTS) producen voz desde la introducción del primer modelo TTS. El modelo más reciente de Microsoft, el VALL-E, supone un avance considerable en este ámbito.
Con solo una muestra de tres segundos de cualquier voz, el modelo TTS VALL-E basado en transformador puede producir voz en cada voz. En comparación con los modelos anteriores, que necesitaban un período de entrenamiento mucho más largo para desarrollar una nueva voz, esto representa un avance considerable. ChatGPT está prohibido en las escuelas de Nueva York; el resto de EE.UU. hará lo mismo ¿Cómo funciona Vall-E?
La mejor parte es que solo requiere tres segundos de conversación para aprender, o más precisamente, para microaprendizaje. Esto significa que si tienes un clip de audio de tres segundos de alguien hablando, puedes poner cualquier texto que quieras en su boca.
Y ahora, en voz de Zuckerberg, la IA menosprecia infamemente la predicción del tiempo en el metaverso.
Escuche las muestras en la sección Diversity Synthesis desplazándose hacia abajo. Esta IA puede agregar color a la voz y ceder a las emociones además de, por ejemplo, preservar los tonos emocionales de la muestra.
Ejemplo 1
Ejemplo #2
Ejemplo #3
Nadie lo hizo antes, por eso lo hicieron con tanta destreza, pero los desarrolladores utilizaron hasta 60.000 horas de conversación durante la fase de entrenamiento (que parece extraída de la aplicación Teams).
Pon lágrimas en tu voz para que todos lloren.
el director de voz ahora instruye notoriamente a la IA
El plan de Microsoft y OpenAI para enfrentarse a Google con Bing impulsado por ChatGPT
¿Qué hace que Vall-E sea tan peligroso?
Vall-E es peligroso porque agentes infames podrían usarlo para engañar a personas vulnerables para que transfieran fondos a una tarjeta. Los estafadores pueden usarlo para hacerse pasar por alguien familiar para la víctima, como un familiar o un amigo. Esto puede hacer que las personas pierdan mucho dinero.
Microsoft aún no ha publicado el código de Vall-E, por lo que no está disponible para el público en general. Sin embargo, si se filtra, cualquier persona podría utilizarlo y por cualquier motivo. Esto haría casi imposible saber si la voz de una persona es real o no.
Si escucha una voz familiar en su teléfono, no asuma que es una voz humana. Especialmente si se le solicita que transfiera fondos a una tarjeta. Antes, los estafadores tenían dificultades para lograrlo. Ahora, 3 segundos de grabación de la voz deseada y un código de Microsoft (que aún no es público, pero todos ustedes son conscientes de los peligros potenciales de las fugas de datos) pueden hacer que cobre vida.
Si alguna vez le piden que transfiera fondos a una tarjeta, asegúrese de verificar la identidad de la persona antes de enviar dinero.
Las marcas de agua de ChatGPT pueden ayudar a Google a detectar texto generado por IA
¿Cómo puedes protegerte de Vall-E?
Hoy en día, es importante estar atento a quién habla por teléfono. Con la llegada de la tecnología de clonación de voz, ahora los estafadores pueden crear grabaciones falsas de voces de personas reales. Esto puede hacer que sea muy difícil saber si estás hablando con una persona real o no.
Si alguna vez tiene dudas, hay algunas cosas que puede hacer para protegerse. Primero, intente verificar la identidad de la persona haciéndole preguntas cuyas respuestas solo la persona real sabría. Si aún no está seguro, puede decirles que les devolverá la llamada y llamará al número que sabe que les pertenece. Si tienes dudas, puedes preguntarle a la persona su nombre y cargo. Si se muestran reacios a brindarle esta información o parecen sospechosos, siempre puede colgar y llamar a la empresa para la que dicen trabajar para verificar su identidad.
También debe tener en cuenta las señales de alerta que pueden indicar que está hablando con un estafador. Sospeche si la persona le pide que transfiera fondos a una tarjeta prepaga o si usa un saludo genérico como "Hola amigo". Cuelga el teléfono inmediatamente si sientes que te están estafando.
Si se ve afectado por la estafa VALL-E, debe denunciarlo al departamento de policía local. Sería bueno ponerse en contacto con Microsoft para ver si puede obtener un reembolso para evitar miles de millones de dólares en demandas.
Lea más sobre la IA:
El futuro del canto: cómo la IA hace posible que cualquiera se convierta en cantante profesional
ChatGPT: La evolución de un Malware como Servicio
Claude: Ha llegado el primer competidor de ChatGPT
CB Insights: El metaverso es el perdedor del año; La IA es la ganadora
Hombre encarcelado por error por reconocimiento facial
La publicación VALL-E de Microsoft parece ser el software fraudulento más peligroso jamás aparecido por primera vez en Metaverse Post.
