Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le problème des hallucinations des modèles d'IA, souvent simplement compris comme un échec de prédiction. Mais en réalité, il existe une autre forme d'échec — lorsque l'humain ne fournit pas de cadre logique clair, l'IA interprète mal la structure du raisonnement.
Ce n'est pas seulement une question technique, mais aussi un défaut au niveau de l'enseignement et de la cognition. Lorsqu'il traite des relations logiques implicites, l'IA a tendance à dévier dans un champ d'informations distribué sans guide explicite. En d'autres termes, il s'agit d'une
"mismatch" dans la
"façon d'apprendre" — le système, en tentant de combler les lacunes d'information, crée en réalité des associations qui n'existent pas.
Il est important de comprendre cette distinction. Elle concerne non seulement l'optimisation du modèle, mais aussi la manière dont nous concevons une meilleure interaction homme-machine et une présentation de l'information.
---
En gros, c'est un problème de cadre, si elle ne peut pas fournir une logique claire, elle commence à faire des associations d'idées aléatoires
---
C'est intéressant, on dirait que la blockchain a aussi ce genre de problème... quand le système doit remplir des blancs, il invente automatiquement une histoire
---
Donc, en fin de compte, c'est un problème de conception ? Alors il faut repenser du côté de l'interaction
---
C'est une perspective nouvelle, mais comment résoudre concrètement le problème, c'est facile à dire
C'est ça le vrai enjeu, ce n'est pas le modèle qui est mauvais, c'est que nos instructions ne sont pas assez claires
Je me souviens de cette fois où GPT m'a généré des données... vraiment, la tension est montée, il s'avère qu'il ne comprend pas vraiment, il joue simplement à un jeu de relais
Ce qu'on appelle "mismatch d'apprentissage", en langage clair, c'est : quand l'information n'est pas assez précise, il commence à deviner n'importe quoi
En effet, une bonne conception de l'interaction est la clé, se contenter d'empiler des paramètres, à quoi ça sert
Si tu ne comprends pas, invente des réponses, de toute façon l'utilisateur ne pourra pas s'en rendre compte
C'est ça le vrai problème, ce n'est pas un bug d'algorithme
Les humains doivent apprendre à "parler" avec l'IA, ne pas compter sur sa propre intelligence
En résumé, c'est encore la faute de l'humain, il ne peut pas donner des instructions claires
---
En gros, c'est parce que les gens n'ont pas bien appris, l'IA suit simplement l'apprentissage aléatoire.
---
Ce point de vue est pas mal, comparé à l'analyse qui blâme toujours la puissance de calcul, c'est beaucoup plus approfondi.
---
Donc, en fin de compte, c'est un problème d'ingénierie du prompt, la façon dont on donne les instructions détermine comment l'IA va faire n'importe quoi.
---
Oh, je comprends, l'IA n'est pas vraiment folle, elle agite simplement ses bras dans l'obscurité.
---
Cela explique pourquoi parfois l'IA peut inexplicablement créer une "relation", c'est qu'elle se complète elle-même.
---
De toute façon, il faut faire attention à l'utilisation, le risque de remplissage automatique est un peu élevé.
---
C'est intéressant, en regardant comme ça, le design de l'interaction homme-machine doit vraiment changer.