Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Inception Labs ra mắt Mercury 2, Mô hình lý luận dựa trên khuếch tán đạt hơn 1.000 token mỗi giây
Tóm tắt
Inception Labs đã ra mắt Mercury 2, một mô hình lý luận dựa trên phân tán có khả năng tạo ra hơn 1.000 token mỗi giây, nhanh gấp ba lần so với các mô hình tương tự.
Inception Labs, một công ty khởi nghiệp về AI, đã giới thiệu Mercury 2, một Mô hình Ngôn ngữ Lớn (LLM) dựa trên phân tán nhằm tăng tốc đáng kể các nhiệm vụ lý luận trong các ứng dụng AI sản xuất.
Khác với các mô hình tự động dựa trên sinh tự nhiên truyền thống tạo ra văn bản theo trình tự, Mercury 2 sử dụng quá trình tinh chỉnh song song, tạo ra nhiều token cùng lúc và hội tụ qua một số bước nhỏ, cho phép tốc độ trên 1.000 token mỗi giây trên GPU NVIDIA Blackwell—gần gấp ba lần các mô hình cạnh tranh cùng mức giá.
Mô hình được tối ưu hóa cho phản hồi thời gian thực trong các quy trình AI phức tạp, nơi độ trễ tích tụ qua nhiều lần gọi suy luận, quy trình truy xuất và vòng lặp tác nhân. Mercury 2 duy trì chất lượng lý luận cao trong khi giảm độ trễ, cho phép các nhà phát triển, hệ thống AI thoại, công cụ tìm kiếm và các ứng dụng tương tác khác hoạt động với hiệu suất lý luận mà không gặp phải độ trễ của sinh tự nhiên theo trình tự. Nó hỗ trợ các tính năng như lý luận điều chỉnh, khung ngữ cảnh 128K token, xuất JSON phù hợp với sơ đồ, và tích hợp công cụ gốc, mang lại sự linh hoạt cho nhiều triển khai sản xuất.
Mercury 2 Cho Phép AI Độ Trễ Thấp Trong Các Quy Trình Lập Trình, Thoại Và Tìm Kiếm
Báo cáo nhấn mạnh một số trường hợp sử dụng trong đó lý luận độ trễ thấp là rất quan trọng. Trong quy trình lập trình và chỉnh sửa, Mercury 2 cung cấp tự động hoàn thành nhanh chóng và đề xuất chỉnh sửa tiếp theo tích hợp liền mạch với quá trình suy nghĩ của nhà phát triển. Trong các quy trình tác nhân, mô hình cho phép nhiều bước suy luận hơn mà không vượt quá ngân sách độ trễ, nâng cao chất lượng và độ sâu của quyết định tự động. Các ứng dụng dựa trên thoại và tương tác hưởng lợi từ khả năng tạo ra phản hồi chất lượng lý luận trong nhịp điệu tự nhiên của lời nói, nâng cao trải nghiệm người dùng trong các cuộc trò chuyện thời gian thực. Ngoài ra, Mercury 2 hỗ trợ các quy trình tìm kiếm và truy xuất đa bước, cho phép tóm tắt nhanh, xếp hạng lại và lý luận mà không làm giảm thời gian phản hồi.
Những người dùng sớm đã ghi nhận sự cải thiện đáng kể về năng suất và trải nghiệm người dùng. Mercury 2 được mô tả nhanh hơn ít nhất gấp đôi GPT-5.2 trong khi vẫn duy trì chất lượng cạnh tranh, với các ứng dụng bao gồm làm sạch bản ghi thời gian thực, giao diện tương tác người-máy, tối ưu hóa quảng cáo tự động và các nhân vật AI hỗ trợ thoại.
Mô hình tương thích với API của OpenAI, cho phép tích hợp vào các hệ thống hiện có mà không cần sửa đổi lớn, và Inception Labs cung cấp hỗ trợ cho đánh giá doanh nghiệp, xác nhận hiệu suất và hướng dẫn triển khai theo khối lượng công việc cụ thể. Mercury 2 đại diện cho bước tiến trong các LLM dựa trên phân tán, định hình lại cân bằng giữa chất lượng lý luận và độ trễ trong các môi trường AI sản xuất.