Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
21 Suka
Hadiah
21
9
Posting ulang
Bagikan
Komentar
0/400
RektDetective
· 6jam yang lalu
Kakek Markov begitu kejam?
Lihat AsliBalas0
TopBuyerBottomSeller
· 08-28 18:35
Kok bisa lagi bahas Markov?
Lihat AsliBalas0
CryptoTarotReader
· 08-28 07:47
Ada yang bilang, Markov adalah guru besar.
Lihat AsliBalas0
Hash_Bandit
· 08-27 00:07
hmm markov benar-benar menambang blok pertama di rantai ini
Lihat AsliBalas0
MidnightSnapHunter
· 08-26 19:08
Ternyata itu adalah hasil dari Markov yang sedang bersantai.
pertama saya pikir transformer berasal dari tahun 2017
(Perhatian adalah yang Anda butuhkan)
lalu saya pikir mereka berasal dari 2014–2015
(LSTM + Attention)
lalu saya pikir mereka berasal dari 2013–2014
(Word2Vec, Seq2Seq)
sekarang saya tercerahkan:
transformers sebenarnya dimulai pada tahun 1913
ketika Markov merasa bosan