Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
7
Republicar
Compartir
Comentar
0/400
CryptoTarotReader
· hace10h
Hay que decir que Markov es el maestro.
Ver originalesResponder0
Hash_Bandit
· 08-27 00:07
hmm markov realmente minó el primer bloque en esta cadena
Ver originalesResponder0
MidnightSnapHunter
· 08-26 19:08
Resulta que es un producto de Markov en su tiempo libre.
Ver originalesResponder0
CryptoFortuneTeller
· 08-26 19:07
El gran Markov ya lo ha entendido.
Ver originalesResponder0
ImpermanentLossEnjoyer
· 08-26 19:05
Estoy pensando que Markov también es realmente ocioso.
primero pensé que los transformers se originaron en 2017
(La atención es todo lo que necesitas)
entonces pensé que venían de 2014–2015
(LSTM + Atención)
entonces pensé que venían de 2013–2014
(Word2Vec, Seq2Seq)
ahora estoy iluminado:
los transformers en realidad comenzaron en 1913
cuando Markov se aburrió