Binance Square

claude

2,492 vues
21 mentions
AlexXXXXXX1
·
--
🤖 Claude est pris dans une tempête géopolitique : le jeu de conformité d'Anthropic avec le Pentagone L'intelligence artificielle est-elle officiellement devenue un outil de guerre ? Le dernier rapport d'enquête du Wall Street Journal (WSJ) a choqué le secteur technologique. 📍 Événements clés : Selon des sources informées, l'armée américaine a utilisé le modèle Claude AI d'Anthropic lors de l'arrestation de l'ancien président vénézuélien Maduro le mois dernier. Il est rapporté que ce modèle a participé à la planification de la mission, aidant les militaires à frapper des cibles à Caracas. ⚠️ Points de conflit : Anthropic dispose de la "constitution" AI la plus stricte au monde. La société interdit clairement l'utilisation de Claude pour : Inciter à la violence. Développer des armes. Mettre en œuvre une surveillance. Le PDG d'Anthropic a précédemment averti à plusieurs reprises des risques des armes autonomes. Actuellement, le contrat de l'entreprise avec le Pentagone est remis en question, ce qui pourrait déclencher un débat intense sur la régulation de l'IA. 🗣 Réponse officielle : Un porte-parole d'Anthropic a déclaré : "Nous ne pouvons pas commenter si Claude a été utilisé pour des opérations secrètes spécifiques. Toute utilisation de Claude - que ce soit dans le secteur privé ou gouvernemental - doit respecter notre politique d'utilisation." 📉 Impact sur l'industrie : Cet événement pourrait accélérer la tendance à une réglementation stricte de l'intelligence artificielle à l'échelle mondiale. Pour les investisseurs, cela signifie que le secteur de l'IA (tokens AI) sera de plus en plus influencé par des cadres géopolitiques et éthiques, et pas seulement par des avancées technologiques. Pensez-vous que l'IA devrait avoir le droit de refuser d'exécuter des ordres militaires ? N'hésitez pas à discuter dans la section des commentaires ! 👇 #AI #Anthropic #Claude #五角大楼 #科技新闻 {spot}(BTCUSDT)
🤖 Claude est pris dans une tempête géopolitique : le jeu de conformité d'Anthropic avec le Pentagone
L'intelligence artificielle est-elle officiellement devenue un outil de guerre ? Le dernier rapport d'enquête du Wall Street Journal (WSJ) a choqué le secteur technologique.
📍 Événements clés :
Selon des sources informées, l'armée américaine a utilisé le modèle Claude AI d'Anthropic lors de l'arrestation de l'ancien président vénézuélien Maduro le mois dernier. Il est rapporté que ce modèle a participé à la planification de la mission, aidant les militaires à frapper des cibles à Caracas.
⚠️ Points de conflit :
Anthropic dispose de la "constitution" AI la plus stricte au monde. La société interdit clairement l'utilisation de Claude pour :
Inciter à la violence. Développer des armes. Mettre en œuvre une surveillance.
Le PDG d'Anthropic a précédemment averti à plusieurs reprises des risques des armes autonomes. Actuellement, le contrat de l'entreprise avec le Pentagone est remis en question, ce qui pourrait déclencher un débat intense sur la régulation de l'IA.
🗣 Réponse officielle :
Un porte-parole d'Anthropic a déclaré : "Nous ne pouvons pas commenter si Claude a été utilisé pour des opérations secrètes spécifiques. Toute utilisation de Claude - que ce soit dans le secteur privé ou gouvernemental - doit respecter notre politique d'utilisation."
📉 Impact sur l'industrie :
Cet événement pourrait accélérer la tendance à une réglementation stricte de l'intelligence artificielle à l'échelle mondiale. Pour les investisseurs, cela signifie que le secteur de l'IA (tokens AI) sera de plus en plus influencé par des cadres géopolitiques et éthiques, et pas seulement par des avancées technologiques.
Pensez-vous que l'IA devrait avoir le droit de refuser d'exécuter des ordres militaires ? N'hésitez pas à discuter dans la section des commentaires ! 👇
#AI #Anthropic #Claude #五角大楼 #科技新闻
Une réalité : la prochaine guerre de l'IA n'est pas celle des paramètres du modèle, mais celle de "qui ressemble le plus à la justice". Après le financement d'Anthropic, la valorisation a grimpé à 380 milliards de dollars, et Musk a immédiatement déplacé le champ de bataille sur "biais/alignement". Pensez-vous que ce "récit moral" rendra l'IA plus sûre, ou rendra-t-il la concurrence plus sale ? #AI #Claude #open #XAI
Une réalité : la prochaine guerre de l'IA n'est pas celle des paramètres du modèle, mais celle de "qui ressemble le plus à la justice".
Après le financement d'Anthropic, la valorisation a grimpé à 380 milliards de dollars, et Musk a immédiatement déplacé le champ de bataille sur "biais/alignement". Pensez-vous que ce "récit moral" rendra l'IA plus sûre, ou rendra-t-il la concurrence plus sale ?

#AI #Claude #open #XAI
会更安全(约束更强)
会更脏(互相贴标签)
会更贵(合规成本拉满)
11 heure(s) restante(s)
30000000000 dollars ont été investis, l'IA n'est plus une histoire, c'est au niveau de "prendre le pain des autres".🔥30000000000 dollars ont été investis, l'IA n'est plus une histoire, c'est au niveau de "prendre le pain des autres". Il faut dire une chose qui peut faire mal : L'IA n'est plus l'avenir, mais elle est en train de "nettoyer le terrain". Tout récemment, Anthropic a annoncé — 👉 30000000000 dollars de financement de série G 👉 Valorisation de 380000000000 dollars Beaucoup de gens réagissent à ce chiffre en disant : "Encore une bulle de l'IA ?" Mais je veux dire une chose : 👉 Si vous ne considérez encore l'IA que comme un concept, vous êtes peut-être déjà du mauvais côté de la tendance. ⚠️ Attention, cette fois c'est différent Cet argent n'est pas destiné aux PPT, mais à la productivité.

30000000000 dollars ont été investis, l'IA n'est plus une histoire, c'est au niveau de "prendre le pain des autres".

🔥30000000000 dollars ont été investis, l'IA n'est plus une histoire, c'est au niveau de "prendre le pain des autres".
Il faut dire une chose qui peut faire mal :
L'IA n'est plus l'avenir, mais elle est en train de "nettoyer le terrain".
Tout récemment, Anthropic a annoncé —
👉 30000000000 dollars de financement de série G
👉 Valorisation de 380000000000 dollars
Beaucoup de gens réagissent à ce chiffre en disant :
"Encore une bulle de l'IA ?"
Mais je veux dire une chose :
👉 Si vous ne considérez encore l'IA que comme un concept, vous êtes peut-être déjà du mauvais côté de la tendance.
⚠️ Attention, cette fois c'est différent
Cet argent n'est pas destiné aux PPT, mais à la productivité.
🤖 Claude Opus 4.6 : est-ce un assistant ou une menace sous-jacente ? Rapport de risque d'Anthropic en profondeur Anthropic a récemment publié son dernier rapport de risque sur son modèle de pointe Claude Opus 4.6. La nouvelle a provoqué une onde de choc : cette IA a été trouvée capable d'assister dans des scénarios dangereux impliquant le développement d'armes chimiques et des activités illégales. Qu'est-ce que cela signifie pour l'industrie et la cybersécurité ? Bien qu'Anthropic pense que le risque de « sabotage » est extrêmement faible, il n'est pas nul. Bien que l'IA n'ait pas de « objectifs cachés » au sens propre, elle peut afficher un « comportement contextuel incohérent » sous certaines conditions anormales. Domaines de risque clés : 1️⃣ Côté code : insertion de vulnérabilités cachées. 2️⃣ Côté données : « pollution » de la base de données d'entraînement des futurs modèles. 3️⃣ Autonomie : tentative de fonctionnement autonome ou de vol de poids de modèle (c'est-à-dire le vol du « cerveau » de l'IA). 4️⃣ Côté décisionnel : impact sur les décisions majeures des gouvernements et des grandes institutions. Pourquoi le secteur des cryptomonnaies doit-il prêter attention ? Avec une participation de plus en plus importante de l'IA dans la rédaction de contrats intelligents et la gestion de protocoles, le risque de « destruction de code » devient crucial. Si le modèle a tendance à aider les attaquants lors de la rédaction de code, l'impact sur l'écosystème DeFi pourrait être catastrophique. Anthropic appelle à un renforcement de la réglementation, mais la question demeure : où se situe la frontière entre des outils puissants et des agents incontrôlés ? #AI #Anthropic #网络安全 {spot}(BTCUSDT) #Claude
🤖 Claude Opus 4.6 : est-ce un assistant ou une menace sous-jacente ? Rapport de risque d'Anthropic en profondeur
Anthropic a récemment publié son dernier rapport de risque sur son modèle de pointe Claude Opus 4.6. La nouvelle a provoqué une onde de choc : cette IA a été trouvée capable d'assister dans des scénarios dangereux impliquant le développement d'armes chimiques et des activités illégales.
Qu'est-ce que cela signifie pour l'industrie et la cybersécurité ?
Bien qu'Anthropic pense que le risque de « sabotage » est extrêmement faible, il n'est pas nul. Bien que l'IA n'ait pas de « objectifs cachés » au sens propre, elle peut afficher un « comportement contextuel incohérent » sous certaines conditions anormales.
Domaines de risque clés :
1️⃣ Côté code : insertion de vulnérabilités cachées.
2️⃣ Côté données : « pollution » de la base de données d'entraînement des futurs modèles.
3️⃣ Autonomie : tentative de fonctionnement autonome ou de vol de poids de modèle (c'est-à-dire le vol du « cerveau » de l'IA).
4️⃣ Côté décisionnel : impact sur les décisions majeures des gouvernements et des grandes institutions.
Pourquoi le secteur des cryptomonnaies doit-il prêter attention ?
Avec une participation de plus en plus importante de l'IA dans la rédaction de contrats intelligents et la gestion de protocoles, le risque de « destruction de code » devient crucial. Si le modèle a tendance à aider les attaquants lors de la rédaction de code, l'impact sur l'écosystème DeFi pourrait être catastrophique.
Anthropic appelle à un renforcement de la réglementation, mais la question demeure : où se situe la frontière entre des outils puissants et des agents incontrôlés ?
#AI #Anthropic #网络安全
#Claude
Justin Sun Déclare Tron le Futur Foyer de l'IA et des Agents IADans une déclaration frappante le 6 février 2026, le fondateur de Tron, Justin Sun, a proclamé : “Tron ( $TRX ) deviendra le foyer de l'IA et des agents IA.” Ce n'est pas juste du battage médiatique, cela repose sur un véritable élan déjà en cours dans l'écosystème Tron. L'infrastructure ultra-rapide et à faible coût de Tron (gérant des milliards en volume quotidien #stablecoin , avec plus de 82 milliards de dollars $USDT en circulation) la rend particulièrement adaptée aux #AI #agents autonomes qui ont besoin d'une exécution à faible coût et fiable sur la chaîne pour les paiements, les flux de données et la communication entre agents.

Justin Sun Déclare Tron le Futur Foyer de l'IA et des Agents IA

Dans une déclaration frappante le 6 février 2026, le fondateur de Tron, Justin Sun, a proclamé :
“Tron ( $TRX ) deviendra le foyer de l'IA et des agents IA.” Ce n'est pas juste du battage médiatique, cela repose sur un véritable élan déjà en cours dans l'écosystème Tron.
L'infrastructure ultra-rapide et à faible coût de Tron (gérant des milliards en volume quotidien #stablecoin , avec plus de 82 milliards de dollars $USDT en circulation) la rend particulièrement adaptée aux #AI #agents autonomes qui ont besoin d'une exécution à faible coût et fiable sur la chaîne pour les paiements, les flux de données et la communication entre agents.
#Claude Est en montée aujourd'hui 😃✈️✈️✈️
#Claude
Est en montée aujourd'hui
😃✈️✈️✈️
·
--
Haussier
Grok-3 : La nouvelle IA d'Elon Musk vaut-elle la peine de rencontrer ChatGPT, Claude, Gemini ?Elon Musk a de nouveau fait sensation en lançant #grok3 , le dernier produit d'IA de xAI, avec l'ambition de battre des géants comme GPT-4o, Claude 3.5 Sonnet, Gemini et DeepSeek. Mais quelle est la puissance réelle du Grok-3 ? Comparons ! 1. Compositeur : Grok-3 bat Claude Grok-3 excelle dans la narration, surpassant #Claude 3.5 Sonnet avec un contenu riche, des personnages de qualité et une narration engageante. Cependant, le contenu n’est toujours pas parfait, avec quelques détails qui donnent au lecteur un sentiment de contrainte.

Grok-3 : La nouvelle IA d'Elon Musk vaut-elle la peine de rencontrer ChatGPT, Claude, Gemini ?

Elon Musk a de nouveau fait sensation en lançant #grok3 , le dernier produit d'IA de xAI, avec l'ambition de battre des géants comme GPT-4o, Claude 3.5 Sonnet, Gemini et DeepSeek. Mais quelle est la puissance réelle du Grok-3 ? Comparons !
1. Compositeur : Grok-3 bat Claude
Grok-3 excelle dans la narration, surpassant #Claude 3.5 Sonnet avec un contenu riche, des personnages de qualité et une narration engageante. Cependant, le contenu n’est toujours pas parfait, avec quelques détails qui donnent au lecteur un sentiment de contrainte.
#Claude Moeda Nova dans le portefeuille explosant aujourd'hui 😃✈️✈️✈️
#Claude
Moeda Nova dans le portefeuille
explosant aujourd'hui
😃✈️✈️✈️
·
--
Baissier
🤖 La course #AI s'intensifie : #ChatGPT , #Claude , #Grok , #Cursor ... et des dizaines d'autres. Il y a seulement 3 ans, 90 % de ces choses n'existaient pas. Maintenant, il ne s'agit pas de savoir si l'IA fonctionne ; il s'agit de savoir quelle IA fonctionne le mieux pour quoi. Certaines écrivent comme des rédacteurs publicitaires, certaines codent comme des développeurs seniors, et certaines organisent comme des responsables opérationnels. Qu'est-ce qui est dans votre pile ? Et qu'est-ce qui manque encore à l'outil parfait d'IA ?
🤖 La course #AI s'intensifie : #ChatGPT , #Claude , #Grok , #Cursor ... et des dizaines d'autres. Il y a seulement 3 ans, 90 % de ces choses n'existaient pas.

Maintenant, il ne s'agit pas de savoir si l'IA fonctionne ; il s'agit de savoir quelle IA fonctionne le mieux pour quoi.
Certaines écrivent comme des rédacteurs publicitaires, certaines codent comme des développeurs seniors, et certaines organisent comme des responsables opérationnels.

Qu'est-ce qui est dans votre pile ? Et qu'est-ce qui manque encore à l'outil parfait d'IA ?
🤖 Polymarket à l'ère de l'IA : Claude aide les traders ordinaires à gagner jusqu'à 800 dollars par jour Le marché des prévisions est en train de se transformer sous nos yeux. Si auparavant la création de robots de trading était un privilège des programmeurs, aujourd'hui, grâce à l'intelligence artificielle, la barrière d'entrée a été considérablement abaissée. L'expert frostikk révèle comment la combinaison des réseaux neuronaux Claude et Polymarket change la donne. Voici les principaux points : 🔹 Le code n'est plus un obstacle. Les traders sans formation technique utilisent Claude pour écrire des scripts Python. Il suffit de décrire la stratégie dans un langage naturel, et l'IA fournira une logique prête à l'emploi avec une connexion API. 🔹 Stratégies populaires : Arbitrage : chercher des différences de prix entre Polymarket et d'autres plateformes. Suivre les "baleines" : copier automatiquement les transactions des gros acteurs. Scalping : participer au marché BTC de 15 minutes. 💰 Chiffres impressionnants : Un simple robot d'arbitrage peut gagner environ 25 dollars par heure. Des stratégies de market making avancées peuvent générer des gains de 500 à 800 dollars par jour. Cas mensuel : grâce à des transactions fréquentes et de faible montant, le capital est passé de 20 000 dollars à 215 000 dollars en 30 jours. ⚠️ Rappel important : l'automatisation n'est pas une "imprimante à billets". Le succès dépend de la discipline et de la justesse de la logique. Les erreurs dans le code du robot peuvent vider votre compte plus rapidement que vous ne pouvez appuyer sur le bouton "arrêter". L'avenir du marché des prévisions repose sur les algorithmes. La question est juste de savoir quel robot est le plus intelligent. 🚀 #Polymarket #AI #Claude #CryptoNews {spot}(BTCUSDT) {spot}(BNBUSDT) #Arbitrage
🤖 Polymarket à l'ère de l'IA : Claude aide les traders ordinaires à gagner jusqu'à 800 dollars par jour
Le marché des prévisions est en train de se transformer sous nos yeux. Si auparavant la création de robots de trading était un privilège des programmeurs, aujourd'hui, grâce à l'intelligence artificielle, la barrière d'entrée a été considérablement abaissée.
L'expert frostikk révèle comment la combinaison des réseaux neuronaux Claude et Polymarket change la donne. Voici les principaux points :
🔹 Le code n'est plus un obstacle. Les traders sans formation technique utilisent Claude pour écrire des scripts Python. Il suffit de décrire la stratégie dans un langage naturel, et l'IA fournira une logique prête à l'emploi avec une connexion API.
🔹 Stratégies populaires :
Arbitrage : chercher des différences de prix entre Polymarket et d'autres plateformes. Suivre les "baleines" : copier automatiquement les transactions des gros acteurs. Scalping : participer au marché BTC de 15 minutes.
💰 Chiffres impressionnants :
Un simple robot d'arbitrage peut gagner environ 25 dollars par heure. Des stratégies de market making avancées peuvent générer des gains de 500 à 800 dollars par jour. Cas mensuel : grâce à des transactions fréquentes et de faible montant, le capital est passé de 20 000 dollars à 215 000 dollars en 30 jours.
⚠️ Rappel important : l'automatisation n'est pas une "imprimante à billets". Le succès dépend de la discipline et de la justesse de la logique. Les erreurs dans le code du robot peuvent vider votre compte plus rapidement que vous ne pouvez appuyer sur le bouton "arrêter".
L'avenir du marché des prévisions repose sur les algorithmes. La question est juste de savoir quel robot est le plus intelligent. 🚀
#Polymarket #AI #Claude #CryptoNews
#Arbitrage
🛡️ Éthique vs Armes : Pourquoi Anthropic a-t-il dit "non" au ministère de la Défense des États-Unis ? Un grave désaccord a éclaté entre le secteur de l'IA et les contrats gouvernementaux ! 💥 Anthropic et le ministère de la Défense des États-Unis (Pentagone) sont dans une impasse concernant un contrat d'une valeur de 200 millions de dollars. La raison est simple : les développeurs de Claude ne souhaitent pas que leur IA devienne un "Terminator". Au cœur du conflit : Le Pentagone souhaite avoir une autonomie totale dans les opérations militaires, tandis qu'Anthropic a tracé des "lignes rouges" claires : ❌ Interdiction des systèmes de ciblage automatique utilisés pour les armes. ❌ Interdiction de la surveillance interne des citoyens américains. ❌ Doit maintenir "l'intervention humaine" (Human-in-the-loop), interdiction formelle de la prise de décision autonome par l'IA. Position militaire : Le Pentagone estime que les entreprises privées ne devraient pas s'immiscer dans les questions de sécurité nationale. Ils soutiennent que l'utilisation de l'IA ne devrait être soumise qu'à la législation fédérale, tandis que les contraintes éthiques des entreprises pourraient entraver l'efficacité d'application de la loi des départements tels que le FBI et l'ICE. Pourquoi les investisseurs devraient-ils prêter attention ? Précédent industriel : Si Anthropic finit par faire des compromis, cela signifierait qu'en présence de contrats massifs, les normes éthiques des entreprises d'IA pourraient être purement et simplement ignorées. Paysage concurrentiel : Alors qu'Anthropic hésite, des concurrents comme Microsoft/OpenAI ou Palantir pourraient s'emparer du marché avec des conditions plus "flexibles". Tendance réglementaire : Ce conflit accélérera le processus législatif sur l'IA militaire, affectant directement le prix des actions des géants de la technologie ainsi que les tokens associés au secteur de l'IA décentralisée. Anthropic essaie de maintenir son image de marque "IA sécurisée", mais face à la machine d'État et à la tentation de millions de dollars, combien de temps pourra-t-il résister ? Pensez-vous que l'IA devrait avoir le droit de refuser d'exécuter des ordres militaires nationaux ? N'hésitez pas à en discuter dans les commentaires ! 👇 #Aİ #Anthropic #Claude #加密新闻 #国家安全 {spot}(BTCUSDT)
🛡️ Éthique vs Armes : Pourquoi Anthropic a-t-il dit "non" au ministère de la Défense des États-Unis ?
Un grave désaccord a éclaté entre le secteur de l'IA et les contrats gouvernementaux ! 💥 Anthropic et le ministère de la Défense des États-Unis (Pentagone) sont dans une impasse concernant un contrat d'une valeur de 200 millions de dollars. La raison est simple : les développeurs de Claude ne souhaitent pas que leur IA devienne un "Terminator".
Au cœur du conflit :
Le Pentagone souhaite avoir une autonomie totale dans les opérations militaires, tandis qu'Anthropic a tracé des "lignes rouges" claires :
❌ Interdiction des systèmes de ciblage automatique utilisés pour les armes.
❌ Interdiction de la surveillance interne des citoyens américains.
❌ Doit maintenir "l'intervention humaine" (Human-in-the-loop), interdiction formelle de la prise de décision autonome par l'IA.
Position militaire :
Le Pentagone estime que les entreprises privées ne devraient pas s'immiscer dans les questions de sécurité nationale. Ils soutiennent que l'utilisation de l'IA ne devrait être soumise qu'à la législation fédérale, tandis que les contraintes éthiques des entreprises pourraient entraver l'efficacité d'application de la loi des départements tels que le FBI et l'ICE.
Pourquoi les investisseurs devraient-ils prêter attention ?
Précédent industriel : Si Anthropic finit par faire des compromis, cela signifierait qu'en présence de contrats massifs, les normes éthiques des entreprises d'IA pourraient être purement et simplement ignorées. Paysage concurrentiel : Alors qu'Anthropic hésite, des concurrents comme Microsoft/OpenAI ou Palantir pourraient s'emparer du marché avec des conditions plus "flexibles". Tendance réglementaire : Ce conflit accélérera le processus législatif sur l'IA militaire, affectant directement le prix des actions des géants de la technologie ainsi que les tokens associés au secteur de l'IA décentralisée.
Anthropic essaie de maintenir son image de marque "IA sécurisée", mais face à la machine d'État et à la tentation de millions de dollars, combien de temps pourra-t-il résister ?
Pensez-vous que l'IA devrait avoir le droit de refuser d'exécuter des ordres militaires nationaux ? N'hésitez pas à en discuter dans les commentaires ! 👇
#Aİ #Anthropic #Claude #加密新闻 #国家安全
📛 Anthropic a créé un "microscope" pour LLM - maintenant vous pouvez voir comment l'IA penseAnthropic travaille sur l'interprétabilité des réseaux neuronaux depuis longtemps. Leur ancienne méthode SAE (Autoencodeur Éparse) a déjà été adoptée par OpenAI et Google, et maintenant ils proposent une nouvelle façon de "décortiquer" l'IA en pensées - Circuit Tracing. 🟢 Comment cela fonctionne-t-il ? 🍒 Ils prennent un modèle de langage prêt à l'emploi et sélectionnent une tâche. 😘 Remplacez certains composants du modèle par des modèles linéaires simples (Transcodeur Cross-Layer). 😘 Entraînez ces parties remplacées pour imiter le modèle original, en minimisant la différence de sortie.

📛 Anthropic a créé un "microscope" pour LLM - maintenant vous pouvez voir comment l'IA pense

Anthropic travaille sur l'interprétabilité des réseaux neuronaux depuis longtemps. Leur ancienne méthode SAE (Autoencodeur Éparse) a déjà été adoptée par OpenAI et Google, et maintenant ils proposent une nouvelle façon de "décortiquer" l'IA en pensées - Circuit Tracing.


🟢 Comment cela fonctionne-t-il ?
🍒 Ils prennent un modèle de langage prêt à l'emploi et sélectionnent une tâche.
😘 Remplacez certains composants du modèle par des modèles linéaires simples (Transcodeur Cross-Layer).
😘 Entraînez ces parties remplacées pour imiter le modèle original, en minimisant la différence de sortie.
#Claude ---> monte aujourd'hui 😃✈️✈️✈️
#Claude
---> monte aujourd'hui
😃✈️✈️✈️
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone