Alphabet, induk Google, telah menghapus kebijakan lama yang melarang penggunaan kecerdasan buatan atau AI untuk mengembangkan senjata atau perangkat pengintaian. Perubahan ini dianggap menakutkan. Sebelumnya, Alphabet memiliki prinsip untuk tidak membuat AI yang berpotensi merusak. Namun, keputusan ini menuai kritik dari Human Rights Watch yang menyebut bahwa penggunaan AI dalam pertempuran dapat berujung pada kematian.
Anna Bacciarelli, seorang periset senior AI di Human Rights Watch, mengatakan bahwa bagi pemimpin industri global untuk mengabaikan aturan yang mereka buat sendiri adalah tanda kepemimpinan yang tidak bertanggung jawab. Dia menyatakan bahwa saat ini dibutuhkan kepemimpinan yang bertanggung jawab dalam bidang AI. Meskipun AI dapat menjadi teknologi yang berguna di medan pertempuran, namun ada kekhawatiran bahwa senjata yang dilengkapi dengan AI dapat beroperasi sendiri dan menyebabkan kematian. Oleh karena itu, kontrol yang ketat diperlukan.
Para ilmuwan di Doomsday Clock juga mengungkapkan kekhawatiran mereka terkait penggunaan AI dalam militer. Mereka menyoroti penggunaan sistem AI di Ukraina dan Timur Tengah, serta rencana beberapa negara untuk mengintegrasikan AI ke dalam militer mereka. Hal ini menimbulkan pertanyaan tentang sejauh mana mesin diizinkan untuk membuat keputusan militer, termasuk keputusan untuk membunuh dalam skala besar.
Versi sebelumnya dari prinsip AI Google menegaskan bahwa mereka tidak akan mengejar senjata atau teknologi lain yang tujuan utamanya adalah menyebabkan cedera atau melanggar norma internasional. Namun, prinsip tersebut tidak lagi terlihat di situs web mereka. CEO Google DeepMind, Demis Hassabis, menulis bahwa saat ini terdapat persaingan global untuk kepemimpinan dalam pengembangan AI di tengah lanskap geopolitik yang semakin kompleks. Dia menekankan pentingnya demokrasi dalam memimpin pengembangan AI, dengan nilai-nilai inti seperti kebebasan, kesetaraan, dan penghormatan terhadap HAM.
Dalam konteks ini, perubahan kebijakan Alphabet dalam menggunakan AI untuk pengembangan senjata atau perangkat pengintaian memunculkan pertanyaan tentang etika dan tanggung jawab. Meskipun AI dapat memberikan manfaat yang besar dalam pertempuran, namun kontrol yang ketat dan pengawasan yang teliti perlu diterapkan untuk mencegah konsekuensi yang merugikan. Semua pihak, baik pemerintah maupun perusahaan teknologi, harus bekerja sama untuk memastikan bahwa pengembangan dan penggunaan AI dilakukan dengan penuh pertimbangan etika dan keamanan.