Google mengumumkan penyesuaian kebijakan terkait kecerdasan buatan dan memperluas ruang geraknya dalam kerja sama dengan pemerintah AS, seiring munculnya laporan kontrak rahasia dengan Pentagon. Langkah ini mencuat setelah The Guardian (29/4) melaporkan kesepakatan yang membuka akses bagi Departemen Pertahanan AS untuk memakai model AI Google pada jaringan berklasifikasi. Di saat yang sama, perubahan prinsip internal dan dinamika protes karyawan kembali menempatkan Google di pusat perdebatan tentang batas etika, keamanan data, serta penggunaan teknologi untuk kebutuhan militer.
Google menyesuaikan kebijakan AI di tengah kontrak rahasia dengan Pentagon
Laporan The Guardian menyebut Google menandatangani kontrak AI yang bersifat rahasia dengan Pentagon, memungkinkan pemanfaatan model perusahaan untuk operasi tertentu di lingkungan berkeamanan tinggi. Dalam dokumen yang dilaporkan, para pihak menyatakan sistem kecerdasan buatan “tidak dimaksudkan” untuk pengawasan massal domestik atau senjata otonom—termasuk pemilihan target—tanpa pengawasan manusia.
Namun, klausul lain menegaskan kesepakatan tersebut tidak memberi Google hak untuk mengendalikan atau memveto keputusan operasional pemerintah yang sah. Artinya, meski ada pagar normatif, otoritas militer tetap memegang kendali terakhir atas bagaimana algoritma dan model diterapkan di lapangan. Bagi industri, frasa-frasa ini penting karena menentukan siapa yang bertanggung jawab ketika otomatisasi memengaruhi keputusan berisiko tinggi.
Perdebatan soal batas penggunaan juga menyentuh isu keamanan data dan tata kelola akses. Saat model komersial masuk ke jaringan rahasia, pertanyaannya bukan hanya “apa yang bisa dilakukan model”, tetapi juga bagaimana audit, pelacakan, dan pembatasan penggunaan dijalankan. Diskursus global tentang pelacakan dan privasi—termasuk rekomendasi regulator—sering dijadikan rujukan oleh pelaku digital, misalnya dalam pembahasan tentang rekomendasi CNIL terkait pelacakan, meski konteksnya berbeda dengan jaringan militer.

Jejak Project Maven kembali membayangi keputusan terbaru
Reaksi internal bukan hal baru bagi Google ketika berhubungan dengan militer. Pada 2018, ribuan karyawan memprotes keterlibatan perusahaan dalam Project Maven, program Pentagon yang memakai AI untuk membantu analisis rekaman drone. Gelombang protes itu berujung pada keputusan Google untuk tidak memperpanjang kontrak, sementara proyek kemudian ditangani pihak lain.
Konteks historis ini menjelaskan mengapa kontrak terbaru memicu ketegangan serupa. Dalam laporan yang beredar, lebih dari 600 karyawan mengirim surat terbuka kepada CEO Sundar Pichai, meminta perusahaan menolak menyediakan sistem kecerdasan buatan untuk beban kerja rahasia Pentagon. Bagi banyak pekerja teknologi, pelajaran Maven adalah bahwa “batas” yang tertulis tidak selalu mudah dipantau ketika produk sudah terintegrasi ke sistem pelanggan.
Perubahan prinsip internal Google ikut mengubah peta risiko dan kepatuhan
Di tengah sorotan kontrak, Google juga mengumumkan perubahan signifikan dalam kebijakan internalnya, termasuk penghapusan inisiatif pelatihan keberagaman dan inklusi (DEI) serta penghapusan larangan pengembangan AI untuk senjata dan pengawasan, sebagaimana dilaporkan sejumlah media yang mengutip pertemuan staf. Dalam forum itu, eksekutif seperti Melonie Parker dan Kent Walker menjelaskan penyesuaian dilakukan untuk merespons arahan eksekutif pemerintahan Trump serta perubahan lanskap geopolitik.
Walker menekankan banyak hal berubah sejak prinsip AI Google diumumkan pada 2018. Sementara itu, Demis Hassabis—kepala AI Google—dikutip menyatakan perkembangan teknologi kini berkaitan erat dengan kebutuhan menjaga “keamanan nasional”. Dari sisi tata kelola perusahaan digital, pergeseran bahasa kebijakan ini biasanya berdampak pada proses penilaian risiko, definisi “penggunaan terlarang”, dan cara perusahaan menilai pelanggan sektor pemerintah.
Sundar Pichai, dari Paris, menyoroti perusahaan harus mematuhi peraturan di berbagai wilayah operasional, sembari tetap berupaya merefleksikan keberagaman global dalam tenaga kerja. Penekanan pada kepatuhan ini menjadi krusial karena batas antara riset, inovasi, dan aplikasi operasional semakin tipis, terutama ketika model generatif dipakai untuk merangkum data, menyusun rencana, atau mempercepat analisis.
Dampak bagi ekosistem AI dan keamanan data dari kerja sama Big Tech dan militer
Langkah Google terjadi saat Pentagon memperluas kemitraan dengan perusahaan AI lain. Pada 2025, Pentagon menandatangani kontrak hingga USD 200 juta per perusahaan dengan beberapa pengembang utama, termasuk OpenAI dan Anthropic, untuk menghadirkan teknologi mereka ke jaringan rahasia, menurut laporan yang dikutip dalam pemberitaan terkait. Skala nilai kontrak ini menunjukkan pasar pemerintah menjadi medan kompetisi baru yang signifikan, di luar pelanggan enterprise tradisional.
Google, lewat pernyataan juru bicara kepada Reuters, menyebut penyediaan akses API ke model komersialnya di infrastruktur Google dengan praktik dan ketentuan “standar industri” sebagai pendekatan yang bertanggung jawab untuk mendukung keamanan nasional. Di tingkat industri, pernyataan semacam ini biasanya dibaca sebagai sinyal bahwa perusahaan ingin menempatkan penggunaan model pada kerangka layanan terukur: kontrol akses, pencatatan penggunaan, dan pembatasan tertentu—meski rincian teknisnya berada di ranah kontrak.
Di sisi lain, makin luasnya penggunaan algoritma dalam lingkungan berklasifikasi memperbesar kebutuhan audit dan tata kelola keamanan data, termasuk bagaimana data sensitif diproses dan siapa yang dapat memeriksa jejak keputusan model. Isu ini bersinggungan dengan tren ekonomi digital yang lebih luas, ketika pengelolaan data dan komputasi menjadi aset strategis—bahkan di sektor yang jauh dari iklan atau layanan konsumen. Sebagian analis juga menautkan perubahan lanskap ini dengan arus konvergensi infrastruktur digital, seperti dibahas dalam topik konvergensi AI dan kripto, yang sama-sama menempatkan data, komputasi, dan insentif sebagai pusat desain sistem.
Bagi ekosistem, pertanyaan kuncinya kini: seberapa jauh penyesuaian kebijakan Google akan memengaruhi standar industri tentang penggunaan kecerdasan buatan untuk pertahanan, dan bagaimana perusahaan lain merespons tekanan karyawan, regulator, serta tuntutan keamanan nasional. Arah berikutnya kemungkinan akan ditentukan oleh transparansi kontrak, mekanisme pengawasan manusia dalam otomatisasi, dan kemampuan audit ketika teknologi masuk ke ruang keputusan paling sensitif.









