LONDON – Laporan terbaru menunjukkan bahwa AI Generatif digunakan untuk melancarkan serangan, mengembangkan malware, dan aktivitas berbahaya lainnya.
Salah satu serangan yang ditemukan terjadi pada November 2024, seperti dilansir Cisco Talos. Serangan ini dilakukan oleh aktor ancaman Tiongkok yang menargetkan pemerintah Asia.
Seperti dilansir CNET, metode peretasan yang digunakan disebut ‘SweetSpecter’, yang melibatkan pengiriman file zip yang berisi file berbahaya.
Jika diunduh dan dibuka, file ini dapat membuat rantai infeksi di sistem pengguna. OpenAI mengonfirmasi bahwa SweetSpecter dibuat menggunakan beberapa tag yang memungkinkan ChatGPT membuat skrip dan menemukan kerentanan dengan alat LML.
Serangan AI kedua dilakukan oleh kelompok Iran yang dikenal dengan nama ‘Cyber ​​​​Av3ngers’. Mereka menggunakan ChatGPT untuk mengeksploitasi kerentanan dan mencuri kata sandi dari komputer berbasis macOS.
Serangan ketiga, dipimpin oleh kelompok Iran bernama Storm-0817, menggunakan ChatGipt untuk membuat malware untuk perangkat Android.
Malware ini dapat mencuri detail kontak, mengekstrak log panggilan dan riwayat pencarian, menemukan lokasi pasti perangkat, dan mengakses file di perangkat yang terinfeksi.
Meskipun semua serangan ini menggunakan metode yang ada untuk mengembangkan malware, tidak ada indikasi bahwa ChatGPT menciptakan malware baru, kata laporan itu.
Namun, hal ini menunjukkan betapa mudahnya bagi pelaku risiko untuk menggunakan layanan AI tingkat lanjut untuk membuat alat serangan. Situasi ini membuka diskusi penting tentang batasan pengembangan AI.
OpenAI telah mengonfirmasi bahwa mereka akan terus meningkatkan keamanan AI untuk mencegah penggunaan metode serupa di masa mendatang.
Selain itu, mereka bekerja sama dengan tim keamanan lokal dan terus berbagi temuan mereka dengan rekan-rekan industri dan komunitas riset untuk mencegah situasi serupa terulang kembali.