Anthropic : Claude a été utilisé pour des attaques réseau à grande échelle, et on lui a demandé de payer une rançon de 75 000 à 500 000 $ en BTC.
Selon le dernier rapport de la société d'infrastructure AI Anthropic, son chatbot AI Claude est utilisé par des cybercriminels pour mener des attaques informatiques à grande échelle, certains montants de rançon atteignant jusqu'à 500 000 dollars.
Le rapport indique que, bien que Claude dispose de mesures de sécurité "complexes", les criminels contournent toujours "vibe
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
8
Reposter
Partager
Commentaire
0/400
NFTHoarder
· 08-29 06:18
Il semble que je doive accumuler des jetons pour un bail-in.
Voir l'originalRépondre0
QuorumVoter
· 08-28 19:25
C'est vraiment ridicule, on peut encore extorquer de cette manière.
Voir l'originalRépondre0
ForkItAll
· 08-28 08:10
Vous collectez des frais de protection intelligents, n'est-ce pas ?
Anthropic : Claude a été utilisé pour des attaques réseau à grande échelle, et on lui a demandé de payer une rançon de 75 000 à 500 000 $ en BTC.
Selon le dernier rapport de la société d'infrastructure AI Anthropic, son chatbot AI Claude est utilisé par des cybercriminels pour mener des attaques informatiques à grande échelle, certains montants de rançon atteignant jusqu'à 500 000 dollars.
Le rapport indique que, bien que Claude dispose de mesures de sécurité "complexes", les criminels contournent toujours "vibe