Google mengumumkan AI keamanan siber “Big Sleep” yang berhasil mendeteksi 20 celah pada software open source populer seperti FFmpeg dan ImageMagick.
OlehAnka Fergy Agustian
Diperbarui 14 Agu 2025, 18:00 WIBDiterbitkan 14 Agu 2025, 18:00 WIB
Batalkan
Liputan6.com, Jakarta Googlebaru saja mengumumkan terobosan baru dalam dunia keamanan siber, di mana perusahaanmemperkenalkan kecerdasan buatan (AI) teranyarnnya yang dijuluki Big Sleep.
Raksasa mesin pencari itu mengklaim,AI keamanan siberbuatannya mampu mendeteksi 20 celah keamanan pada berbagai perangkat lunak open source yang banyak digunakan di seluruh dunia.
BACA JUGA:Cara Menghapus Akun Gmail Permanen atau Layanan, Simpel dan Efektif
BACA JUGA:Google Olok-Olok Apple Lewat Iklan Pixel 10 Series, Sindir Fitur AI Siri Tak Kunjung Hadir!
BACA JUGA:Google bakal Tanam Fitur Biometrik di Chrome Android untuk Jaga Password dari Tangan Jahil
BACA JUGA:Google Tambah Tombol Rahasia untuk Akses AI di Android, Bagaimana Cara Menggunakannya?
BACA JUGA:Google Luncurkan Fitur Canvas di AI Mode, Apa Fungsinya?
BACA JUGA:Motorola Gandeng Google Indonesia untuk Dongkrak Kinerja HP Edge 60 Pro dengan AI
Baca Juga
- Dituding Elon Musk Pilih Kasih ke ChatGPT, Ini Jawaban Apple
- Perplexity Mau Beli Google Chrome dengan Tawaran Fantastis, Berapa?
- Cara Menghapus Akun Google di HP Lain, Panduan Lengkap untuk Keamanan Data
Temuan ini menandai langkah penting dalam upaya otomatisasi deteksi kerentanan digital dengan dukungan teknologi AI.
Advertisement
Mengutip TechCrunch, Kamis (14/8/2025), Heather Adkins, Wakil Presiden Keamanan Google, menjelaskanBig Sleep merupakan hasil kolaborasi antara DeepMind, divisi riset AI Google, dan tim elit pemburu bug Project Zero.
AI ini dirancang menggunakan pendekatan Large Language Model (LLM), membuatnya mampu menganalisis kode dan mendeteksi potensi kelemahan secara mandiri.
Beberapa software terdampak di antaranya adalah FFmpeg, pustaka pemrosesan audio-video, dan ImageMagick, perangkat lunak manipulasi gambar yang kerap digunakan dalam pengembangan web dan aplikasi multimedia.
2 dari 6 halaman
AI Google Bekerja Otomatis, Tim Manusia Tetap Jadi Penentu
Meski AI milik Google, Big Sleep, bekerja secara otomatis dalam menemukan celah keamanan, perusahaan tetap menegaskan pentingnya peran manusia dalam proses akhir pelaporan.
Kimberly Samra, juru bicara Google, menjelaskan bahwa setiap kerentanan awalnya memang ditemukan dan direproduksi oleh sistem AI tanpa campur tangan manusia.
Namun, sebelum laporan dikirimkan kepada pengembang perangkat lunak yang bersangkutan, hasil temuan itu harus melewati proses verifikasi manual oleh pakar keamanan internal.
Tujuannya adalah memastikan bahwa setiap bug yang dilaporkan benar-benar valid dan dapat ditindaklanjuti secara teknis. “Setiap bug ditemukan dan diuji ulang oleh AI.
Advertisement
3 dari 6 halaman
Kolaborasi AI dan Manusia Jadi Standar Terbaik
"Tapi sebelum dilaporkan, kami pastikan kualitasnya melalui pengecekan manual,” tegas Samra.
Hal ini menunjukkan kolaborasi antara AI dan tenaga ahli manusia masih menjadi standar terbaik dalam menjaga keamanan digital.
Royal Hansen, Wakil Presiden Engineering Google, menyebut langkah ini sebagai "batas baru dalam penemuan kerentanan otomatis", menggambarkan era baru di mana mesin dan manusia saling melengkapi dalam memerangi ancaman siber.
4 dari 6 halaman
Persaingan Alat AI Pemburu Bug Semakin Ketat
Big Sleep bukan satu-satunya AI yang kini beroperasi sebagai pemburu bug di dunia siber.
Sejumlah alat AI lain mulai menunjukkan kapabilitasnya dalam mendeteksi kerentanan dengan tingkat akurasi yang terus meningkat.
RunSybil dan XBOW merupakan dua contoh alat AI yang mulai populer di komunitas keamanan digital.
Bahkan, XBOW sukses meraih posisi teratas di papan peringkat HackerOne, sebuah platform bug bounty bergengsi yang banyak digunakan oleh perusahaan teknologi besar di Amerika Serikat.
Pencapaian ini menjadi sinyal bahwa keberadaan AI dalam praktik keamanan siber kini bukan lagi sekadar eksperimen, melainkan sudah menjadi solusi nyata yang digunakan secara luas.
Namun, keberhasilan ini juga datang dengan tantangan tersendiri, mulai dari risiko laporan palsu (false positives) hingga tantangan etika dalam penggunaan AI untuk mengeksplorasi sistem digital.
Komunitas keamanan global kini dituntut untuk menyeimbangkan kemajuan teknologi ini dengan pengawasan ketat agar hasilnya tetap akurat dan tidak merugikan pengembang perangkat lunak.
Advertisement
5 dari 6 halaman
Ancaman Halusinasi AI, Antara Potensi dan Kekhawatiran
Meskipun keberadaan AI seperti Big Sleep membawa harapan baru dalam deteksi celah keamanan, tidak sedikit pengembang perangkat lunak yang justru mengeluhkan efek sampingnya.
Salah satu isu yang mencuat adalah fenomena "halusinasi AI", yaitu ketika sistem kecerdasan buatan melaporkan adanya bug yang sebenarnya tidak ada.
Laporan-laporan semacam ini membebani para pengembang karena harus menyelidiki masalah yang ternyata tidak valid.
“Masalahnya, kami menerima banyak laporan yang terlihat seperti emas, padahal kenyataannya hanya sampah,” ujar Vlad Ionescu, CTO dari RunSybil, yang juga mengembangkan alat AI serupa.
Meski begitu, Ionescu tetap menilai Big Sleep sebagai proyek yang dirancang dengan baik.
Ia menyoroti kolaborasi antara DeepMind, yang kuat dalam teknologi AI, dan tim Project Zero yang berpengalaman dalam menemukan kerentanan sebagai faktor yang menjadikan Big Sleep layak mendapat perhatian lebih.
Apabila dikembangkan dengan hati-hati dan disertai pengawasan manusia yang tepat, teknologi ini berpotensi menjadi salah satu alat terdepan dalam menjaga ekosistem digital dari ancaman keamanan yang semakin kompleks.
6 dari 6 halaman
<p>Infografis 4 Rekomendasi Chatbot AI Terbaik.
Advertisement