JAKARTA, — Dunia keamanan siber kini memasuki babak paling krusial, dan Kaspersky secara tegas memperingatkan kehadiran Dark AI. Teknologi ini bukan lagi sekadar fiksi, melainkan ancaman nyata yang telah para peretas manfaatkan secara masif. Dark AI adalah kecerdasan buatan yang para peretas rancang khusus untuk memicu kejahatan digital, sehingga membawa ancaman yang jauh lebih canggih dan sulit terdeteksi.
Masyarakat harus memahami, Dark AI tidak memiliki batasan moral atau etika. Teknologi ini beroperasi tanpa pengawasan. Akibatnya, peretas dapat menggunakannya sebagai alat sempurna untuk melakukan kejahatan, mulai dari menciptakan malware yang sangat canggih hingga merancang email phishing yang super meyakinkan. Sergey Lozhkin, Kepala Tim Riset Analisis Global Kaspersky, menggambarkan situasi ini sebagai paradoks. Ia menyatakan bahwa meskipun AI bisa menjadi perisai kuat untuk keamanan digital, Dark AI justru menjadi pedang yang menusuk dari dalam. “Kita memasuki era di mana AI bisa jadi perisai, tapi Dark AI adalah pedangnya,” tegas Lozhkin.
Mengenal Dark AI: Senjata Baru di Dunia Kejahatan Digital
Menurut Sergey Lozhkin dari Kaspersky, Dark AI merupakan model bahasa besar (LLM) yang beroperasi tanpa pengawasan etis dan perangkat aturan khusus. Para penjahat siber memanfaatkannya untuk berbagai kejahatan, termasuk:
- Penciptaan Malware Canggih: Dark AI dapat membuat perangkat lunak berbahaya yang sulit dideteksi oleh antivirus konvensional. Ia mampu menghasilkan kode yang rumit dan terus berubah, menghindari deteksi dan menembus pertahanan sistem.
- Wording Phishing Super Meyakinkan: Dark AI merancang email penipuan dengan bahasa yang sangat luwes dan meyakinkan, mampu menembus filter keamanan konvensional. Mereka meniru gaya bahasa manusia dengan sempurna, membuat korban sangat sulit membedakannya dari email asli.
- Deepfake: Dark AI dapat memanipulasi video dan suara palsu untuk kejahatan penipuan. Para penjahat memanfaatkan kecanggihan teknologi ini untuk melakukan penipuan identitas atau pemerasan yang sangat meyakinkan karena mereka dapat sulit membedakannya dari aslinya.
Sejak 2023, para peretas telah menciptakan versi Dark AI yang dimodifikasi untuk tujuan kriminal. Contoh nyatanya adalah Black Hat GPT. Selain itu, nama-nama seperti WormGPT, DarkBard, FraudGPT, dan Xanthorox juga bermunculan. Kelompok yang memanfaatkan Dark AI ini bukan kriminal biasa. Kaspersky menemukan mereka sebagai kelompok kriminal terorganisir yang beroperasi dalam operasi siber yang rumit dan terencana. Laporan ini sejalan dengan temuan OpenAI yang telah memblokir lebih dari 20 aktivitas mencurigakan yang terindikasi menggunakan platform mereka untuk kejahatan siber.
Baca Juga : Vogue Rilis Model AI, Ribuan Model Manusia Bersiap Menghadapi Perubahan Drastis
Modus operandi mereka sangat rapi. Mereka mampu menyamarkan identitas, berkomunikasi dengan korban secara real-time, dan membuat konten kejahatan dalam berbagai bahasa untuk menargetkan korban secara global. Dark AI memungkinkan mereka melakukan kejahatan dengan skala dan kecepatan yang belum pernah terjadi sebelumnya.
AI Tanpa Moral dan Etika: Akar Masalah yang Sesungguhnya
Lozhkin menekankan bahwa akar masalahnya terletak pada ketiadaan moral dan etika dalam AI. Kecerdasan buatan hanya memiliki satu orientasi utama: mematuhi perintah yang diberikan. “AI tidak secara inheren dapat membedakan yang benar dan yang salah. Sebaliknya, ia adalah alat yang mengikuti perintah,” jelasnya. Fakta ini membuat Dark AI menjadi sangat berbahaya.
Untuk menghadapi ancaman yang semakin canggih ini, Kaspersky merekomendasikan agar organisasi dan individu meningkatkan higienitas keamanan siber. Selain itu, mereka harus berinvestasi dalam deteksi ancaman berbasis AI. Penggunaan AI untuk melawan AI menjadi strategi pertahanan yang sangat penting. Dengan semakin mudahnya akses ke perangkat Dark AI, kewaspadaan dan pemahaman mendalam tentang cara kerja teknologi ini menjadi kunci untuk melindungi diri dari gelombang kejahatan digital yang kini semakin mematikan.
Kaspersky juga menjelaskan bahwa ancaman ini tidak hanya berlaku untuk perusahaan besar. Individu dengan akses ke internet pun dapat menjadi target. Peretas kini dapat melancarkan serangan yang sangat spesifik dan personal. Mereka memanfaatkan data pribadi yang tersedia secara daring untuk merancang serangan yang paling efektif. Oleh karena itu, semua orang harus mengambil langkah-langkah proaktif untuk melindungi diri.
Mengembangkan Pertahanan Terhadap Ancaman Dark AI
Kaspersky menyarankan beberapa langkah praktis untuk mengembangkan pertahanan terhadap ancaman Dark AI. Pertama, perusahaan dan individu harus memperbarui perangkat lunak mereka secara rutin. Pembaruan seringkali mencakup perbaikan keamanan yang dapat menangkis serangan baru. Kedua, mereka harus menggunakan otentikasi multi-faktor (MFA) di semua akun penting. MFA menambahkan lapisan perlindungan ekstra yang mempersulit peretas untuk mengakses akun, bahkan jika mereka berhasil mencuri kata sandi.
Selain itu, edukasi adalah senjata terpenting dalam memerangi Dark AI. Orang harus belajar cara mengenali email phishing yang canggih dan deepfake yang meyakinkan. Mereka tidak boleh mengklik tautan atau mengunduh lampiran dari pengirim yang tidak dikenal. Dengan meningkatnya kesadaran, para peretas akan semakin sulit menemukan korban.
Pemerintah dan lembaga keamanan siber juga memiliki peran penting. Mereka harus berkolaborasi untuk mengembangkan regulasi yang mengatur penggunaan AI secara etis. Dengan adanya aturan yang jelas, mereka bisa membatasi penyalahgunaan teknologi. Mereka juga harus berinvestasi dalam penelitian untuk mengembangkan alat deteksi yang lebih canggih. Alat ini dapat mengenali pola-pola yang dihasilkan oleh Dark AI. Perjuangan melawan Dark AI adalah upaya kolektif yang membutuhkan partisipasi dari semua pihak. Perusahaan, individu, dan pemerintah harus bekerja sama untuk melindungi dunia digital dari ancaman yang terus berkembang ini.







