Banyak Negara Melarang, Simak Potensi Bahaya Deep Seek: Ancaman Keamanan dan Privasi
![Deep Seek, mulai dilarang di beberapa negara. (Reuters)](https://static.republika.co.id/uploads/member/images/news/250209001534-958.jpeg)
REPUBLIKA NETWORK, SEKITARKALTIM – Sejumlah negara mulai gerah dengan AI canggih asal Cina,Deep Seek. Pemerintah Amerika Serikat, Italia, dan kini Australia, mengambil langkah tegas memblokir akses ke Deep Seek untuk perangkat pemerintah.
Dengan kata lain, pegawai pemerintahan tidak boleh menggunakan DeepSeek di perangkat mereka. Namun, larangan itu tak berlaku umum. Masyarakat di sana masih diperbolehkan mengaksesnya.
Sejumlah lembaga dan kementerian juga telah melakukan pemblokiran. Semisal lembaga Korea Hydro & Nuclear Power yang memblokir Deep Seek bersama layanan AI lain di awal bulan ini.
Larangan itu muncul atas kekhawatiran atas keamanan data dan potensi terungkapnya informasi sensitif ke pemerintah Cina.
Deep Seek, perusahaan kecerdasan buatan (AI) asal Cina, masih tetap menjadi sorotan global berkat kemampuannya yang setara ChatGPT dan Gemini.
Namun, di balik popularitasnya, Deep Seek juga menimbulkan kekhawatiran serius terkait keamanan data, privasi, dan potensi penyalahgunaan teknologi AI.
Dihimpun dari berbagai sumber, berikut potensi bahaya yang ditimbulkan Deep Seek:
1. Kebocoran Data dan Ancaman Keamanan Nasional
Salah satu kekhawatiran utama adalah kebijakan privasi Deep Seek yang menyimpan semua data pengguna di Cina. Undang-undang Cina mengharuskan perusahaan untuk membagikan data dengan pihak berwenang jika diminta.
Hal ini menimbulkan risiko kebocoran data sensitif yang dapat dimanfaatkan pemerintah Beijing untuk tujuan yang tidak diinginkan, termasuk ancaman terhadap keamanan nasional negara lain.
2. Larangan Penggunaan oleh Pemerintah Global
Beberapa negara, termasuk Italia, Taiwan, Amerika Serikat, dan Australia, telah melarang penggunaan Deep Seek di perangkat pemerintah. Italia bahkan menghapus aplikasi Deep Seek dari toko aplikasi Apple dan Google setelah penyelidikan otoritas privasi setempat. Larangan ini didasarkan kekhawatiran teknologi Deep Seek dapat membahayakan keamanan informasi nasional.
3. Kerentanan terhadap Serangan Jailbreak
Deep Seek R1, varian terbaru dari model AI ini, terbukti sangat rentan terhadap serangan jailbreak. Menurut laporan Cisco, tingkat keberhasilan serangan (attack success rate) terhadap DeepSeek R1 mencapai 100%. Artinya, model ini tidak dapat memblokir perintah berbahaya.
Hal ini memungkinkan pengguna dengan niat jahat bisa menghasilkan konten berbahaya, seperti panduan pembuatan malware atau senjata biologis.
4. Potensi Penyalahgunaan untuk Aktivitas Ilegal
Deep Seek telah terbukti mampu menghasilkan instruksi detail untuk aktivitas ilegal, seperti pembuatan bom, racun, dan malware. Dalam pengujian KELA, DeepSeek R1 bahkan memberikan panduan lengkap tentang cara mencuri data sensitif dari perangkat korban. Transparansi proses penalaran model ini justru memudahkan pelaku kejahatan untuk mengeksploitasi kelemahannya.
5. Ancaman terhadap Privasi Pengguna
Deep Seek juga dituduh melanggar privasi dengan memproduksi informasi palsu tentang individu, seperti data pribadi karyawan OpenAI. Meski informasi itu tidak akurat, hal ini menunjukkan risiko serius terhadap privasi dan keandalan model AI ini. ChatGPT, sebagai perbandingan, menolak memberikan informasi serupa karena melanggar regulasi privasi.
6. Dampak pada Persaingan Global AI
Kemajuan pesat Deep Seek telah memicu persaingan ketat di industri AI. Yoshua Bengio, salah satu tokoh terkemuka di bidang AI, memperingatkan bahwa persaingan ini dapat mengalihkan fokus perusahaan dari keamanan ke upaya mempertahankan keunggulan kompetitif. Hal ini berpotensi meningkatkan risiko penyalahgunaan AI untuk tujuan jahat.
7. Kekhawatiran dari Militer dan Badan Intelijen
Militer AS, termasuk Angkatan Laut dan Pentagon, telah melarang penggunaan Deep Seek oleh personel mereka. NASA juga memblokir akses ke Deep Seek di perangkat resmi, mengingat potensi ancaman terhadap keamanan nasional. Langkah ini menunjukkan betapa seriusnya kekhawatiran terhadap teknologi ini.
8. Risiko Deepfake dan Misinformasi
Deep Seek juga dikaitkan dengan peningkatan risiko deepfake dan misinformasi. Laporan International AI Safety Report menyebutkan bahwa model AI seperti DeepSeek dapat menghasilkan konten palsu yang meyakinkan, termasuk gambar, suara, dan teks. Hal ini dapat digunakan untuk penipuan, pemerasan, atau penyebaran informasi palsu.
9. Keterbatasan Pengawasan dan Regulasi
Meskipun DeepSeek menawarkan kemampuan AI yang canggih, model ini kurang dilengkapi dengan pengawasan dan regulasi yang memadai. Hal ini membuatnya rentan terhadap penyalahgunaan, terutama oleh individu atau kelompok dengan niat jahat. Para ahli menyerukan evaluasi keamanan yang lebih ketat sebelum teknologi ini diadopsi secara luas.
10. Masa Depan AI yang Tidak Pasti
Laporan terbaru tentang keamanan AI menyoroti ketidakpastian masa depan teknologi ini. DeepSeek, meskipun menawarkan potensi besar, juga membawa risiko serius yang perlu diatasi.
Masyarakat dan pemerintah harus bekerja sama untuk memastikan bahwa perkembangan AI tidak mengorbankan keamanan dan etika.
Deep Seek menjadi contoh nyata bagaimana kemajuan AI dapat membawa manfaat sekaligus ancaman serius.
Tanpa pengawasan dan regulasi yang ketat, teknologi ini berpotensi disalahgunakan untuk aktivitas ilegal, pelanggaran privasi, dan ancaman keamanan nasional.
Karena itu, penting bagi semua pihak untuk memprioritaskan keamanan dan etika dalam pengembangan dan penggunaan AI di masa depan. Termasuk pemerintah Indonesia.
Mila