Od czasu ogłoszenia na początku 2023 r. VALL-E firmy Microsoft było reklamowane jako narzędzie do poprawy niepełnosprawności ludzi poprzez tłumaczenie tekstu na mowę lub zastępowanie aktorów głosowych, aby uczynić film lub grę bardziej przystępnymi cenowo. Jednak teraz wydaje się, że VALL-E może być najniebezpieczniejszym oprogramowaniem do oszustw, jakie kiedykolwiek wydano.
Według komentarzy, VALL-E może być używany do wyłudzania pieniędzy od ludzi poprzez imitowanie głosu znajomego lub głosu celebryty. To trochę jak maski dla FaceApp, ale dla głosu. Microsoft nie skomentował jeszcze doniesień o tym, że VALL-E jest oszustwem.
Spis treści
Czym jest Vall-E?
Jak działa Vall-E?
Co sprawia, że Vall-E jest tak niebezpieczny?
Jak można chronić się przed wirusem Vall-E?
Czym jest Vall-E?
Vall-E to syntetyczny głos, który może być używany do imitowania prawdziwych osób. Jest tworzony przy użyciu nagrania głosu prawdziwej osoby i kodu Microsoft. Ten kod nie jest jeszcze publiczny, ale istnieje możliwość, że został ujawniony.
Naukowcy pracowali nad znalezieniem sposobów na udoskonalenie sposobu, w jaki systemy text-to-speech (TTS) produkują mowę od czasu wprowadzenia pierwszego modelu TTS. Najnowszy model Microsoftu, VALL-E, stanowi znaczny postęp w tej dziedzinie.
Dzięki zaledwie trzysekundowej próbce dowolnego głosu, oparty na transformatorze model TTS VALL-E może produkować mowę każdym głosem. W porównaniu do wcześniejszych modeli, które wymagały znacznie dłuższego okresu szkolenia, aby rozwinąć nowy głos, stanowi to znaczny postęp. ChatGPT jest zakazany w szkołach w Nowym Jorku; reszta Stanów Zjednoczonych pójdzie w jego ślady Jak działa Vall-E?
Najlepsze jest to, że wymaga tylko trzech sekund mowy do nauki, a dokładniej, do mikronauki. Oznacza to, że jeśli masz trzysekundowy klip audio kogoś mówiącego, możesz włożyć mu do ust dowolny tekst.
A teraz, głosem Zuckerberga, sztuczna inteligencja haniebnie lekceważy prognozy pogody w metawersum.
Posłuchaj próbek w sekcji Diversity Synthesis, przewijając w dół. Ta sztuczna inteligencja może dodać kolor do głosu i poddać się emocjom, a także, powiedzmy, zachować emocjonalne tony próbki.
Przykład nr 1
Przykład nr 2
Przykład nr 3
Nikt tego wcześniej nie zrobił, dlatego zrobili to tak zręcznie, ale twórcy gry wykorzystali aż 60 000 godzin wypowiedzi w fazie szkoleniowej (która najwyraźniej została wycięta z aplikacji Teams).
Włóż łzy do swojego głosu, aby wszyscy płakali
reżyser głosu teraz niesławnie wydaje polecenia sztucznej inteligencji
Plan Microsoftu i OpenAI na konkurowanie z Google za pomocą Binga obsługiwanego przez ChatGPT
Co sprawia, że Vall-E jest tak niebezpieczny?
Vall-E jest niebezpieczny, ponieważ nikczemni agenci mogą go używać, aby oszukać podatne osoby i zmusić je do przelewania środków na kartę. Oszuści mogą go używać, aby podszywać się pod kogoś znajomego ofiary, np. członka rodziny lub przyjaciela. Może to doprowadzić do utraty dużej ilości pieniędzy.
Microsoft nie udostępnił jeszcze kodu Vall-E, więc nie jest on dostępny dla ogółu społeczeństwa. Jednak jeśli wycieknie, może być użyty przez każdego i z dowolnego powodu. To sprawiłoby, że niemal niemożliwe byłoby stwierdzenie, czy głos danej osoby jest prawdziwy, czy nie.
Jeśli słyszysz znajomy głos w telefonie, nie zakładaj, że to głos ludzki. Zwłaszcza jeśli zostaniesz poproszony o przelanie środków na kartę. Wcześniej oszuści mieli trudności z dokonaniem tego. Teraz 3 sekundy nagrania pożądanego głosu i kodu Microsoft — który jeszcze nie jest publiczny, ale wszyscy jesteście świadomi potencjalnych zagrożeń związanych z wyciekiem danych — mogą sprawić, że stanie się on rzeczywistością.
Jeżeli kiedykolwiek zostaniesz poproszony o przelanie pieniędzy na kartę, koniecznie potwierdź tożsamość osoby, która je wysyła, zanim wyślesz pieniądze.
Znaki wodne ChatGPT mogą pomóc Google wykryć tekst generowany przez sztuczną inteligencję
Jak można chronić się przed wirusem Vall-E?
W dzisiejszych czasach ważne jest, aby być czujnym w kwestii tego, z kim rozmawiasz przez telefon. Dzięki pojawieniu się technologii klonowania głosu oszuści mogą teraz tworzyć fałszywe nagrania głosów prawdziwych osób. Może to znacznie utrudnić stwierdzenie, czy rozmawiasz z prawdziwą osobą, czy nie.
Jeśli kiedykolwiek będziesz mieć wątpliwości, jest kilka rzeczy, które możesz zrobić, aby się chronić. Po pierwsze, spróbuj zweryfikować tożsamość osoby, zadając jej pytania, na które tylko prawdziwa osoba zna odpowiedź. Jeśli nadal nie jesteś pewien, możesz jej powiedzieć, że oddzwonisz i zadzwonisz pod numer, o którym wiesz, że do niej należy. Jeśli masz jakiekolwiek wątpliwości, możesz zapytać tę osobę o jej imię i nazwisko oraz stanowisko. Jeśli niechętnie poda ci te informacje lub wydaje się podejrzana, zawsze możesz się rozłączyć i zadzwonić do firmy, w której twierdzi, że pracuje, aby zweryfikować jej tożsamość.
Powinieneś również być świadomy czerwonych flag, które mogą wskazywać, że rozmawiasz ze oszustem. Zachowaj podejrzliwość, jeśli osoba ta poprosi Cię o przelanie środków na kartę przedpłaconą lub jeśli użyje ogólnego powitania, takiego jak „Witaj, przyjacielu”. Natychmiast rozłącz się, jeśli czujesz, że jesteś oszukiwany.
Jeśli jesteś ofiarą oszustwa VALL-E, powinieneś zgłosić to do lokalnego wydziału policji. Dobrze byłoby skontaktować się z Microsoftem, aby sprawdzić, czy możesz uzyskać zwrot pieniędzy, aby zapobiec miliardom dolarów w pozwach.
Przeczytaj więcej o sztucznej inteligencji:
Przyszłość śpiewu: w jaki sposób sztuczna inteligencja umożliwia każdemu zostanie profesjonalnym śpiewakiem
ChatGPT: Ewolucja Malware as a Service
Claude: Pierwszy konkurent ChatGPT już przybył
CB Insights: Metawersum jest przegranym roku; zwycięzcą jest sztuczna inteligencja
Mężczyzna niesłusznie uwięziony z powodu rozpoznawania twarzy
Artykuł VALL-E firmy Microsoft wydaje się być najniebezpieczniejszym oprogramowaniem do oszustw w historii pojawił się po raz pierwszy w serwisie Metaverse Post.
