Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
OpenAI dan Anthropic di Dua Sisi Pentagon: Pertempuran untuk AI Pertahanan
OpenAI telah mendapatkan kontrak strategis untuk mengoperasikan model AI-nya di jaringan terklasifikasi Pentagon, sementara Anthropic menghadapi gangguan pada program-programnya. Pengumuman Sam Altman di X menandai titik balik dalam kebijakan AI pemerintah Amerika, mengungkapkan tidak hanya preferensi untuk satu penyedia atas yang lain, tetapi juga ketegangan mendasar antara inovasi, keamanan, dan kebebasan sipil.
Kesepakatan yang Menempatkan OpenAI di Pusat Strategi Pentagon
Kemitraan antara OpenAI dan Pentagon merupakan peningkatan formal dalam integrasi kecerdasan buatan ke dalam infrastruktur militer yang kritis. CEO OpenAI menggambarkan kesepakatan tersebut sebagai penghormatan terhadap batasan keamanan perusahaan, menetapkan model di mana penerapan berkembang secara bertahap dari lingkungan sipil hingga jaringan yang diklasifikasikan.
Pendekatan ini menunjukkan pengakuan pemerintah: perusahaan AI harus memiliki kekuasaan veto atas aplikasi tertentu. Pesan Altman menekankan bahwa OpenAI mempertahankan batasan tertentu, termasuk larangan pengawasan massal domestik dan persyaratan supervisi manusia dalam keputusan yang melibatkan kekuatan mematikan dan sistem senjata otonom.
Dua Sisi Kontroversi: Mengapa Anthropic Kehilangan Kontrak
Jalur Anthropic menawarkan sudut pandang yang mencolok. Perusahaan tersebut telah menandatangani kontrak senilai US$ 200 juta dengan Pentagon beberapa bulan yang lalu, menjadi laboratorium AI pertama yang menerapkan model di lingkungan yang terklasifikasi. Namun, negosiasi mengalami kebuntuan ketika Anthropic bersikeras meminta jaminan eksplisit terhadap pengembangan senjata otonom dan program pengawasan massal.
Departemen Pertahanan, pada gilirannya, menolak pembatasan tersebut, berargumen bahwa teknologi harus tetap tersedia untuk “semua tujuan militer yang sah” — sebuah sikap yang dianggap oleh Anthropic tidak sejalan dengan nilai-nilai dasar mereka. Perusahaan kemudian menyatakan “sangat sedih” dengan penetapan tersebut dan menandakan niatnya untuk menggugat keputusan itu di pengadilan.
Perbedaan ini menggambarkan tantangan utama: bagaimana menyeimbangkan akses ke kemampuan AI mutakhir dengan batasan etika yang melindungi baik keamanan nasional maupun kebebasan sipil? Jawaban pemerintah jelas: mereka memilih penyedia yang bersedia menerima syarat-syaratnya.
Gedung Putih Memperkuat Pengawasan dan Menetapkan Posisi
Secara bersamaan, Gedung Putih memerintahkan agensi federal untuk menghentikan penggunaan teknologi dari Anthropic, menetapkan periode transisi selama enam bulan. Langkah ini bukan hanya bersifat administratif — ini menunjukkan niat pemerintahan untuk menetapkan kontrol ketat atas alat-alat AI yang beroperasi di domain pemerintah yang sensitif.
Kebijakan tersebut mengungkapkan sebuah perhitungan politik: mengizinkan penempatan AI yang direncanakan dengan hati-hati sambil memberlakukan batasan pada penyedia yang mewakili pandangan berbeda tentang tanggung jawab dan keamanan. Kontradiksi antara persetujuan kontrak (OpenAI) dan penangguhan yang lain (Anthropic) berfungsi sebagai sinyal jelas tentang nilai-nilai mana yang diprioritaskan oleh pemerintah federal.
Implikasi untuk Masa Depan AI Pemerintahan dan Komersial
Jika dipertahankan, keputusan ini akan menetapkan preseden signifikan yang akan membentuk cara startup dan perusahaan mapan bernegosiasi dengan agensi federal. Kemitraan AI di masa depan mungkin akan bergantung kurang pada inovasi teknis murni dan lebih pada kesediaan untuk menerima batasan operasional tertentu.
OpenAI menunjukkan untuk mempertahankan batasan serupa dengan yang diusulkan oleh Anthropic, tetapi dengan fleksibilitas yang lebih besar terkait dengan “tujuan militer yang sah”. Pertanyaan kritis sekarang adalah: apa yang dimaksud dengan “tujuan yang sah” dalam operasi pertahanan? Negosiasi di masa depan kemungkinan akan berputar di sekitar definisi ini.
Selain itu, episode Anthropic dapat mempengaruhi hasil banding hukum Anda. Jika perusahaan menang di pengadilan, ini dapat membuka kembali negosiasi dan menetapkan parameter yang berbeda untuk akuisisi di masa depan. Jika kalah, itu akan menunjukkan bahwa pembatasan tata kelola perusahaan memiliki bobot yang lebih sedikit dibandingkan dengan prioritas militer.
Model Tata Kelola yang Muncul
Hasil yang terlihat adalah sebuah kerangka kerja di mana kolaborasi dengan entitas pertahanan terjadi dalam struktur kepatuhan yang ketat. OpenAI telah berkomitmen untuk pengawasan manusia yang wajib dalam keputusan yang melibatkan kekuatan, integrasi bertahap kemampuan, dan audit keamanan yang berkelanjutan.
Komitmen-komitmen ini mewakili titik keseimbangan antara dua ekstrem: akses tanpa batas ( yang diinginkan oleh militer ) dan penolakan total ( yang mungkin diadopsi oleh perusahaan yang fokus pada AI yang aman ). Bagi Pentagon, OpenAI menawarkan jalan tengah — kekuatan teknologi dengan perlindungan yang terintegrasi.
Perspektif: Ketika Kebijakan AI Membentuk Inovasi
Jalur yang lebih luas menunjukkan bahwa keputusan akuisisi pemerintah sekarang berfungsi sebagai mekanisme seleksi untuk ekosistem AI secara keseluruhan. Perusahaan yang menerima tonggak regulasi yang ketat akan mendapatkan akses ke kontrak yang sangat menguntungkan. Mereka yang menolak akan menghadapi pengucilan sistematis — hasil yang dapat mengurangi insentif untuk mengadopsi posisi etika yang lebih ketat.
Dinamik ini akan memiliki dampak lebih jauh dari sekedar pertahanan. Agensi federal dalam kesehatan, jaminan sosial, dan penegakan hukum juga akan mengevaluasi penyedia berdasarkan model serupa. Preseden yang ditetapkan oleh Pentagon kemungkinan akan menyebar ke seluruh sektor publik, mendefinisikan ulang perusahaan-perusahaan AI mana yang memiliki akses ke kontrak pemerintah.
Untuk komunitas teknologi, beberapa bulan ke depan akan berfungsi sebagai laboratorium hidup: pengamat industri akan menganalisis apakah kolaborasi OpenAI-DoD terbukti dapat diskalakan, aman, dan bertanggung jawab — atau apakah muncul sebagai contoh bagaimana prioritas pertahanan dapat mengorbankan perlindungan demi kecepatan dan kapasitas.
Tampilan ini menyampaikan pesan yang jelas: di persimpangan antara AI, keamanan nasional, dan politik federal, sisi-sisi semakin terdefinisi. Perusahaan harus memilih sisi yang mereka tempati — dan harus siap agar pilihan ini menentukan masa depan mereka di ekosistem pemerintahan.