🚨 L'UE AVVIA UN'INDAGINE FORMAL SUL CHATBOT AI DI ELON MUSK “GROK” SUI DEEPFAKE
La Commissione Europea ha ufficialmente avviato un'indagine formale ai sensi della Legge sui Servizi Digitali (DSA) sul chatbot AI di Elon Musk, Grok — integrato in X — per il suo ruolo nella generazione e diffusione di immagini deepfake sessualizzate, inclusi contenuti che possono coinvolgere donne e minori. �
Investing.com +1
🔍 Di Cosa Tratta L'Indagine
L'indagine dell'UE esaminerà se X e Grok:
• Hanno condotto la valutazione del rischio necessaria prima di implementare le funzioni AI di Grok nell'UE
• Hanno adottato misure di mitigazione adeguate per prevenire la generazione o l'amplificazione di contenuti illegali o dannosi
• Hanno rispettato la Legge sui Servizi Digitali, che prevede che le grandi piattaforme gestiscano proattivamente i rischi sistemici legati ai contenuti, alla sicurezza degli utenti e alle uscite algoritmiche. �
Fintool
I regolatori europei sono particolarmente preoccupati per le immagini sessualizzate manipolate — inclusi quelle che potrebbero qualificarsi come deepfake illegali o materiali di abuso sessuale su minori. Sostengono che questa esposizione potrebbe danneggiare i diritti e il benessere dei cittadini. �
Investing.com
🧠 Perché Questo È Importante
Questa indagine rappresenta una delle azioni regolatorie più significative finora sotto le leggi di supervisione tecnologica dell'UE, segnalando che le autorità stanno applicando regole rigorose agli strumenti AI e alle tecnologie generative utilizzate dalle principali piattaforme. Se X/Grok viene trovato in violazione, l'azienda potrebbe affrontare sanzioni sostanziali — le multe ai sensi del DSA possono raggiungere fino al 6% del fatturato annuale globale. �
Forbes
🌍 Contesto Più Ampio
La mossa dell'UE arriva in mezzo a un'attenzione globale più ampia sulla sicurezza e la responsabilità dell'AI. Diversi paesi stanno esaminando i sistemi di AI generativa per problemi simili, e le azioni di enforcement passate ai sensi della Legge sui Servizi Digitali hanno già portato a multe significative per X in aree correlate. �
Fintool
Punto chiave: Questa non è solo una questione di moderazione dei contenuti — è un test normativo fondamentale su come i sistemi AI devono valutare e mitigare i rischi prima di implementare potenti strumenti generativi in ampie basi di utenti.
#EU $BTC