Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Deux articles de recherche, sous des angles différents, pointent vers une même question — qu'est-ce qu'un concept ?
Imaginez que le langage existe dans un système de coordonnées bidimensionnel. L'axe X représente la dimension temporelle, où le vocabulaire est organisé en phrases au fil du temps. L'axe Y représente la dimension du sens, la raison pour laquelle nous choisissons un mot plutôt qu'un autre étant motivée par la signification.
Les résultats récents de la série SAEs sont très intéressants, ils révèlent comment les modèles de réseaux neuronaux fonctionnent sur l'axe Y — le modèle apprend à extraire et à exprimer des caractéristiques conceptuelles ayant une signification claire. En d'autres termes, dans le processus de calcul du modèle, il existe certains "nœuds" qui ne correspondent pas à des activations neuronales aléatoires, mais à des expressions de concepts ayant une signification concrète. Cela signifie que la signification peut être décomposée et observée à l'intérieur des modèles d'apprentissage profond.
On a l'impression d'avoir découvert quelque chose d'incroyable, mais on ne peut pas vraiment préciser à quoi ça sert...
La métaphore de l'axe Y comme dimension de la signification est géniale, enfin quelqu'un qui explique ça aussi clairement
Donc, ce que nous entraînons comme une sorte de mysticisme, c'est en réalité une série de nœuds avec une signification concrète qui travaillent ? Combien de perceptions cela va-t-il changer chez les gens ?
La signification peut-elle être observée ? Si c'est vrai, alors notre compréhension de l'IA s'élèverait directement à un niveau supérieur
Le concept de "nœud" interne au modèle... ça ressemble un peu à un MRI appliqué à un réseau de neurones, c'est assez futuriste
Enfin quelqu'un qui étudie sérieusement la nature du concept, avant c'était du devinette
L'analogie avec le système de coordonnées en deux dimensions est bonne, mais peut-être un peu simplifiée, la réalité doit être beaucoup plus complexe
Si les nœuds peuvent être décomposés et observés, que faire si des nœuds malveillants apparaissent ? La transparence du système entier doit être résolue
Y a-t-il vraiment des nœuds concept dans les réseaux neuronaux ? Alors, ne devrions-nous pas repenser la voie de réalisation de l’AGI ?
Ce métaphore de l’axe Y est pas mal, mais je veux quand même savoir si ces nœuds sont vraiment stables ? Est-ce qu’ils ne sont qu’une illusion ?
J’attends avec impatience plus de données expérimentales, on dirait qu’on va devoir remettre en question pas mal de nos croyances
Maintenant, on peut manipuler le comportement du modèle de manière plus précise, c’est à la fois excitant et un peu effrayant