Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Liệu một thẩm phán có chặn nhãn chuỗi cung ứng nhân đạo của Lầu Năm Góc không?
Một thẩm phán liên bang đã tạm thời đình chỉ một tranh chấp chuỗi cung ứng có tiếng tăm liên quan đến Anthropic, qua đó làm nổi bật mức độ căng thẳng ngày càng tăng giữa chính phủ Mỹ và các nhà cung cấp AI lớn.
Thẩm phán đình chỉ nỗ lực của Lầu Năm Góc nhằm đưa Anthropic vào danh sách đen
Vào hôm thứ Năm, một thẩm phán liên bang ở California đã tạm thời chặn Lầu Năm Góc gán Anthropic là rủi ro chuỗi cung ứng và yêu cầu các cơ quan liên bang ngừng sử dụng các hệ thống AI của công ty này. Phán quyết là bước ngoặt mới nhất trong cuộc “đấu” kéo dài suốt một tháng, và vụ việc vẫn chưa được giải quyết khi chính phủ hiện có 7 ngày để kháng cáo.
Hơn nữa, Anthropic đang theo đuổi một vụ kiện thứ hai nhằm thách thức cùng một sự chỉ định đó theo một học thuyết pháp lý khác, hiện vẫn chưa được quyết định. Cho đến khi các thủ tục đó kết thúc, công ty về cơ bản vẫn là đối tượng không được hoan nghênh ở phần lớn bộ máy chính phủ liên bang, bất chấp sự can thiệp của thẩm phán.
Tranh chấp hợp đồng leo thang thành “chiến tranh văn hoá” AI
Mức độ đặt cược trong vụ việc đã rõ ngay từ đầu: chính phủ có thể đi xa đến đâu trong việc trừng phạt một công ty từ chối “chơi theo luật” về các vấn đề chính sách nhạy cảm. Dù vậy, Anthropic đã thu hút một liên minh ủng hộ bất thường rộng lớn từ các nhà tài trợ cấp cao, bao gồm các cựu tác giả trong chính sách AI của Tổng thống Donald Trump, những người hiếm khi đứng về phía các nền tảng ở Thung lũng Silicon.
Tuy nhiên, quan điểm dài 43 trang của Thẩm phán Rita Lin cho thấy vấn đề cốt lõi thực chất là một tranh chấp hợp đồng mà lẽ ra không cần bùng nổ thành một “cuộc chiến văn hoá” rộng hơn. Thẩm phán cho rằng chính phủ đã bỏ qua các thủ tục đã được thiết lập để xử lý các tranh chấp như vậy, rồi làm tình hình bùng lên bằng các bài đăng trên mạng xã hội sau đó lại mâu thuẫn với những lập trường được nêu trong tòa.
Trên thực tế, Lầu Năm Góc đã phát đi tín hiệu rằng họ muốn một cuộc đối đầu mang tính chính trị chồng lên “cuộc chiến” thật sự với Iran, vốn bắt đầu chỉ vài giờ sau khi một số bài đăng quan trọng được đưa lên. Việc đan xen các chương trình nghị sự pháp lý, chính trị và quân sự này đã được tòa cân nhắc rất nặng trong đánh giá hồ sơ.
Việc Claude được dùng trong Lầu Năm Góc và căng thẳng gia tăng
Theo các hồ sơ tòa án, chính phủ đã sử dụng Claude của Anthropic trong suốt năm 2025 mà không nêu ra các phàn nàn đáng kể. Trong giai đoạn đó, công ty đã cố gắng cân bằng thương hiệu của mình như một nhà phát triển AI tập trung vào an toàn với vai trò là nhà thầu quốc phòng, đi trên một “tấm lưới cân bằng về thương hiệu” mà một hồ sơ đã mô tả như vậy.
Các nhân viên quốc phòng truy cập Claude thông qua Palantir phải chấp nhận một chính sách sử dụng riêng theo quy định của chính phủ. Trong một tuyên bố tuyên thệ, đồng sáng lập của Anthropic là Jared Kaplan cho biết chính sách đó “ngăn cấm giám sát hàng loạt công dân Mỹ và chiến tranh tự động gây chết người”, dù ông không cung cấp toàn văn cho tòa án. Chỉ khi Lầu Năm Góc tìm cách ký hợp đồng trực tiếp với Anthropic thì các bất đồng nghiêm trọng mới lộ diện.
Tweet trước, biện minh sau: các lời đe doạ công khai của Trump và Hegseth
Điều khiến thẩm phán tức giận nhất là sau khi tranh chấp trở thành công khai, hành động của chính phủ trông giống như một hình thức trừng phạt hơn là một quyết định đơn giản nhằm cắt đứt quan hệ. Hơn nữa, có một mô thức nhất quán: tweet trước, luật sư sau.
Ngày 27 tháng 2, Tổng thống Trump đã đăng trên Truth Social đề cập đến “Leftwing nutjobs” tại Anthropic và chỉ đạo mọi cơ quan liên bang ngừng sử dụng AI của công ty này. Ngay sau đó, Bộ trưởng Quốc phòng Pete Hegseth cũng lặp lại quan điểm đó, nói rằng ông sẽ chỉ đạo Lầu Năm Góc dán nhãn công ty là rủi ro chuỗi cung ứng.
Việc chính thức chỉ định một công ty như vậy đòi hỏi Bộ trưởng Quốc phòng phải tuân theo một chuỗi bước theo luật định đã được xác định. Tuy nhiên, Thẩm phán Lin nhận thấy Hegseth đã không hoàn tất các bước đó. Chẳng hạn, các bức thư gửi các ủy ban của Quốc hội khẳng định rằng các biện pháp ít nghiêm trọng hơn đã được đánh giá và cho là không thể, nhưng chúng không cung cấp bất kỳ chi tiết thực tế nào để hỗ trợ cho tuyên bố đó.
Chính phủ cũng lập luận rằng nhãn rủi ro chuỗi cung ứng là cần thiết vì Anthropic có thể triển khai một “kill switch” để vô hiệu hóa các hệ thống của mình. Tuy nhiên, theo ý kiến của tòa, trong quá trình bị thẩm vấn, các luật sư của họ đã thừa nhận rằng không có bằng chứng nào cho thấy năng lực như vậy tồn tại. Sự mâu thuẫn đó tiếp tục làm suy yếu hồ sơ của Lầu Năm Góc.
Thẩm quyền pháp lý vs thông điệp chính trị
Bài đăng trên mạng xã hội của Hegseth khẳng định rằng “Không một nhà thầu, nhà cung cấp hoặc đối tác nào làm ăn với quân đội Hoa Kỳ được phép tiến hành bất kỳ hoạt động thương mại nào với Anthropic.” Các luật sư của chính chính phủ sau đó đã thừa nhận vào hôm thứ Ba rằng, người đứng đầu cơ quan này thực tế không có thẩm quyền để áp đặt một lệnh cấm toàn diện như vậy.
Thẩm phán và các luật sư của Bộ Tư pháp thống nhất rằng lệnh cấm “toàn diện” của Hegseth “không hề có bất kỳ hiệu lực pháp lý nào cả.” Tuy nhiên, giọng điệu quyết liệt của các bài đăng này khiến Thẩm phán Lin kết luận rằng Anthropic có một khiếu nại thuyết phục theo Tu chính án thứ Nhất. Tòa cho rằng các quan chức về cơ bản đã nhắm đến việc trừng phạt công ty một cách công khai vì “hệ tư tưởng” và “lời lẽ”, cũng như vì điều họ gọi là “sự kiêu ngạo” khi từ chối thỏa hiệp.
Thẩm phán viết rằng việc gắn nhãn Anthropic là rủi ro chuỗi cung ứng sẽ tương đương với việc gắn nhãn công ty là “kẻ phá hoại” của chính phủ Mỹ. Bà cho rằng bằng chứng không đủ để ủng hộ cáo buộc như vậy và do đó đã ban hành một lệnh vào hôm thứ Năm tuần trước, đình chỉ sự chỉ định này, ngăn Lầu Năm Góc thực thi nó, và cấm chính phủ thực hiện các lời hứa rộng khắp mà Hegseth và Trump đã đưa ra.
Một phán quyết “đáng tàn phá” và một vụ kiện thứ hai ở DC
Dean Ball, người đã giúp soạn thảo chính sách AI trong chính quyền Trump nhưng đã nộp một bản kiến nghị ủng hộ Anthropic, mô tả phán quyết này là “một phán quyết tàn phá đối với chính phủ.” Ông nói rằng tòa nhận thấy Anthropic có khả năng thắng trong hầu hết các lý thuyết của mình rằng các hành động của chính phủ là trái pháp luật và trái hiến pháp.
Người ta rộng rãi kỳ vọng chính quyền sẽ kháng cáo quyết định ở California. Đồng thời, Anthropic đang thúc đẩy một vụ kiện riêng ở Washington, DC, vụ việc đưa ra các cáo buộc tương tự nhưng viện dẫn một phần khác của đạo luật điều chỉnh các rủi ro chuỗi cung ứng. Cùng với nhau, các vụ kiện này có thể xác định mức độ quan chức liên bang có thể đi tới trong việc trả đũa các nhà cung cấp AI mà họ không thích quan điểm.
Mẫu hình lời lẽ công khai và việc “lấp đầy” căn cứ pháp lý sau đó
Các tài liệu của tòa án mô tả một mô thức nhất quán trong đó các tuyên bố công khai của các quan chức cấp cao và của Tổng thống không phù hợp với những gì luật yêu cầu trong một tranh chấp hợp đồng. Hơn nữa, các luật sư của chính phủ đã nhiều lần phải dựng lên các lý do pháp lý sau sự kiện để biện minh cho các cuộc tấn công trên mạng xã hội nhắm vào công ty trước đó.
Lãnh đạo Lầu Năm Góc và Nhà Trắng biết rằng việc theo đuổi lựa chọn cực đoan nhất chắc chắn sẽ dẫn đến việc khởi kiện. Ngày 27 tháng 2, Anthropic đã công khai cam kết sẽ thách thức bất kỳ nhãn rủi ro chuỗi cung ứng nào, tức là vài ngày trước khi chính phủ chính thức nộp hồ sơ chỉ định vào ngày 3 tháng 3. Dòng thời gian này cho thấy, ngay cả khi cuộc chiến với Iran bùng nổ, lãnh đạo cấp cao vẫn chọn tiến về phía trước.
Trong năm ngày đầu tiên của xung đột, các quan chức vừa giám sát các đợt không kích, vừa tập hợp bằng chứng nhằm mô tả Anthropic là kẻ phá hoại. Tuy nhiên, thẩm phán lưu ý rằng Lầu Năm Góc đã có thể đơn giản chấm dứt việc kinh doanh với công ty thông qua các bước mua sắm ít kịch tính hơn rất nhiều và mang tính thông thường hơn.
Hệ quả đối với Anthropic và toàn ngành AI
Ngay cả nếu cuối cùng Anthropic thắng cả hai vụ kiện, phán quyết vẫn cho thấy Washington vẫn có những cách “phi chính thức” để gạt công ty này sang một bên khỏi các công việc của chính phủ trong tương lai. Các nhà thầu quốc phòng phụ thuộc vào Lầu Năm Góc để có doanh thu hiện có ít động lực hợp tác với Anthropic, ngay cả khi công ty này không bao giờ bị chính thức đưa vào danh sách rủi ro chuỗi cung ứng.
“ Tôi nghĩ có thể nói rằng chính phủ có những cơ chế để gây ra một mức độ áp lực nhất định mà không làm trái pháp luật”, Charlie Bullock, nghiên cứu viên cấp cao tại Viện Luật và AI, cho biết. Tuy vậy, ông nhấn mạnh rằng phần lớn còn tùy thuộc vào việc chính quyền đầu tư đến mức nào vào việc trừng phạt Anthropic trong tranh chấp này.
Từ những bằng chứng cho đến nay, chính quyền đang dành thời gian và sự chú ý ở cấp cao nhất để giành chiến thắng cho thứ thực chất là một cuộc “chiến tranh văn hoá” AI. Đồng thời, có vẻ như Claude đủ trung tâm đối với hoạt động của Lầu Năm Góc đến mức ngay chính Tổng thống Trump nói rằng Bộ Quốc phòng cần 6 tháng để chuyển dần sang phương án khác. Mâu thuẫn này làm suy yếu câu chuyện rằng việc chỉ định rủi ro chuỗi cung ứng thuộc hoàn toàn về vấn đề an ninh.
Giới hạn về đòn bẩy của chính phủ đối với các nhà cung cấp AI
Vụ việc cũng nêu bật nỗ lực của Nhà Trắng nhằm đòi hỏi sự trung thành chính trị và sự phù hợp về ý thức hệ từ các công ty AI hàng đầu. Tuy nhiên, xung đột với Anthropic phơi bày giới hạn của đòn bẩy đó, ít nhất là khi các lời đe dọa công khai va chạm với các quy tắc mua sắm theo luật định và các biện pháp bảo vệ hiến pháp.
Hơn nữa, tranh chấp này gửi một tín hiệu rõ ràng tới các nhà cung cấp AI khác đang xây dựng công cụ cho các cơ quan an ninh quốc gia. Lời lẽ công khai mang tính quyết liệt có thể không tồn tại trước sự xem xét của tòa án nếu không được hậu thuẫn bằng bằng chứng và quy trình chính thức. Các tòa án dường như sẵn sàng giám sát ranh giới đó chặt chẽ hơn khi AI trở nên gắn liền với các hoạt động quốc phòng của Mỹ.
Tạm thời, Anthropic vẫn ở thế bất lợi: về mặt pháp lý được củng cố nhờ một phán quyết ban đầu mạnh, nhưng về mặt thương mại lại dễ tổn thương trước việc bị “đen hoá” âm thầm trong toàn hệ sinh thái quốc phòng. Kết quả của các vụ kiện song song sẽ không chỉ định hình tương lai của chính công ty mà còn vạch ra hình dạng của quyền lực chính phủ trong kỷ nguyên AI.
Nếu bạn có thông tin về việc quân đội sử dụng AI, bạn có thể chia sẻ một cách an toàn qua Signal (username jamesodonnell.22).