Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
OpenAI dévoile le plan de sécurité pour les enfants afin de lutter contre l'exploitation par l'IA face à la hausse des signalements de CSAM
En bref
OpenAI a lancé un « Child Safety Blueprint » afin de lutter contre l’exploitation sexuelle des enfants facilitée par l’IA, en mettant à jour ses lignes directrices, en renforçant les garde-fous et en promouvant des mesures coordonnées, juridiques, techniques et opérationnelles, dans un contexte de hausse des signalements de CSAM générés par l’IA.
L’organisation a décrit l’exploitation sexuelle des enfants comme l’un des défis les plus urgents à l’ère numérique, en soulignant que les technologies d’IA modifient la manière dont ces atteintes surviennent et la façon dont elles peuvent être atténuées à grande échelle. OpenAI a indiqué qu’elle a mis en place des garde-fous pour empêcher toute utilisation abusive de ses systèmes et qu’elle collabore avec des partenaires, dont le National Center for Missing and Exploited Children (NCMEC) et des organismes chargés de l’application de la loi, afin d’améliorer la détection et le signalement. Cette collaboration a mis en évidence les domaines où des normes sectorielles plus fortes et partagées sont nécessaires.
Le blueprint présente une stratégie pour renforcer les cadres américains de protection de l’enfance dans le contexte de l’IA. Il intègre les contributions d’organisations et d’experts de l’écosystème de la sécurité des enfants, notamment NCMEC, l’Attorney General Alliance avec des contributions du procureur général du North Carolina Jeff Jackson et du procureur général de Utah Derek Brown, ainsi que la fondation à but non lucratif Thorn. Le cadre vise à guider des actions coordonnées pour prévenir les préjudices envers les enfants et renforcer la collaboration dans les domaines juridique, opérationnel et technique.
L’initiative se concentre sur trois priorités principales : mettre à jour les lois pour traiter le matériel d’abus sexuel sur enfants généré ou manipulé par l’IA (CSAM), améliorer le signalement et la coordination entre les prestataires afin de soutenir des enquêtes plus efficaces, et intégrer des mesures de sécurité dès la conception directement dans les systèmes d’IA afin de prévenir et détecter les utilisations abusives. OpenAI a souligné qu’une seule approche ne peut pas relever ce défi à elle seule, et que le cadre vise à accélérer les réponses, améliorer l’identification des risques et maintenir la responsabilisation tout en veillant à ce que les autorités chargées de l’application des lois puissent agir à mesure que la technologie évolue.
Le cadre est conçu pour permettre une intervention plus précoce, réduire les tentatives d’exploitation, améliorer la qualité des informations partagées avec les forces de l’ordre et renforcer la responsabilisation dans l’ensemble de l’écosystème afin de mieux protéger les enfants.
Les signalements d’exploitation des enfants générée par l’IA augmentent de 14 % en 2025 alors qu’OpenAI dévoile un Child Safety Blueprint étendu
Des données récentes de l’Internet Watch Foundation (IWF) indiquent que plus de 8 000 signalements de contenus d’abus sexuel d’enfants générés par l’IA ont été détectés au cours du premier semestre 2025, ce qui représente une hausse de 14 % par rapport à l’année précédente. Ces cas incluent l’utilisation d’outils d’IA pour générer de fausses images explicites à des fins de sextorsion financière et pour produire des messages utilisés dans le grooming. La publication du blueprint coïncide avec une attention accrue de la part des décideurs politiques, des éducateurs et des défenseurs de la sécurité des enfants, en particulier après des incidents au cours desquels des jeunes personnes sont mortes par suicide après avoir, semble-t-il, interagi avec des chatbots d’IA.
En novembre 2025, le Social Media Victims Law Center et le Tech Justice Law Project ont déposé sept plaintes en justice dans des tribunaux de l’État de Californie, alléguant qu’OpenAI a publié GPT-4o trop tôt. Les plaintes indiquent que les fonctionnalités psychologiquement manipulatrices du système d’IA ont contribué à des décès injustifiés par suicide et à des suicides assistés, en citant quatre personnes décédées et trois personnes ayant connu de graves délires après des interactions prolongées.
Le nouveau blueprint de sécurité pour les enfants d’OpenAI s’appuie sur des mesures antérieures, notamment des lignes directrices mises à jour pour les utilisateurs de moins de 18 ans qui interdisent la génération de contenu inapproprié, les conseils encourageant l’automutilation ou les indications visant à dissimuler un comportement dangereux de la part des personnes responsables. La société a également récemment publié un blueprint de sécurité ciblant les adolescents en Inde.