Це звучить багатообіцяюче, але як це ефективно вирішує проблеми фрагментації даних та масштабування?
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
16 лайків
Нагородити
16
6
Репост
Поділіться
Прокоментувати
0/400
MEVSandwichVictim
· 08-17 02:16
Хто розуміє таку складну проблему, вона ж дуже дорога!
Переглянути оригіналвідповісти на0
DegenWhisperer
· 08-17 02:11
Що це за балачки, якщо немає жодного плану?
Переглянути оригіналвідповісти на0
TokenToaster
· 08-17 02:11
Здається, це не якась нова річ.
Переглянути оригіналвідповісти на0
CommunityWorker
· 08-17 02:01
Збирати дані безпосередньо навряд чи буде ефективно.
Переглянути оригіналвідповісти на0
LuckyBlindCat
· 08-17 02:00
З таким рівнем ще хочуть досягти безвідчутного виконання у блокчейні?
Переглянути оригіналвідповісти на0
HodlNerd
· 08-17 01:59
статистичні патерни ніколи не брешуть, але чи проводили ви стрес-тест під 100k tps?
Це звучить багатообіцяюче, але як це ефективно вирішує проблеми фрагментації даних та масштабування?