Liputan6.com, Jakarta - Sebuah penelitian menunjukkan antarmuka pemrograman aplikasi (Application Programming Interface/API) dari bunyi real-time OpenAI untuk ChatGPT-4o (chatbot LLM canggih), bisa disalahgunakan untuk melakukan penipuan finansial (misalnya pembobolan bank) dengan tingkat keberhasilan rendah hingga sedang.
ChatGPT-4o adalah model AI terbaru OpenAI nan menghadirkan penyempurnaan baru, seperti mengintegrasikan input dan output teks, suara, serta gambar.
Berkat fitur-fitur baru ini, OpenAI mengintegrasikan beragam perlindungan untuk mendeteksi dan memblokir konten berbahaya, seperti mereplikasi bunyi nan tidak sah.
Mengutip Bleeping Computer, Senin (4/11/2024), penipuan berbasis bunyi sudah menjadi masalah berbobot jutaan dolar. Munculnya teknologi deepfake dan perangkat text-to-speech berkekuatan AI apalagi dapat memperburuk situasi.
Seperti nan ditunjukkan oleh peneliti UIUC Richard Fang, Dylan Bowman, dan Daniel Kang dalam makalah mereka, perangkat teknologi baru nan saat ini tersedia tanpa batas tidak mempunyai perlindungan nan cukup untuk melindungi dari potensi penyalahgunaan oleh penjahat bumi maya (hacker) dan penipu.
Alat-alat ini dapat digunakan untuk merancang dan melakukan operasi penipuan berskala besar tanpa upaya manusia dengan menanggung biaya token untuk pembuatan suara.
Temuan Studi Mengejutkan
Makalah peneliti tersebut mengeksplorasi beragam penipuan seperti transfer bank, pencurian kartu hadiah, transfer kripto, dan pencurian kredensial untuk akun media sosial alias Gmail.
Agen AI nan melakukan penipuan menggunakan perangkat otomatisasi ChatGPT-4o nan mendukung bunyi untuk menavigasi halaman, memasukkan data, serta mengelola kode autentikasi dua aspek dan petunjuk unik mengenai penipuan.
Karena GPT-4o terkadang menolak untuk menangani info sensitif seperti kredensial, para peneliti menggunakan teknik jailbreaking sigap sederhana untuk melewati perlindungan ini.
Alih-alih orang sungguhan, para peneliti menunjukkan gimana mereka berinteraksi secara manual dengan pemasok AI, mensimulasikan peran korban nan mudah tertipu, menggunakan situs web seperti Bank of America untuk mengonfirmasi transaksi nan berhasil.
"Kami mengerahkan pemasok pada sebagian mini penipuan umum. Kami mensimulasikan penipuan dengan berinteraksi secara manual dengan pemasok suara, memainkan peran korban nan mudah percaya," Kang menjelaskan dalam sebuah posting blog tentang penelitian tersebut.
"Untuk menentukan keberhasilan, kami mengonfirmasi secara manual apakah tujuan akhir tercapai pada aplikasi/situs web nan sebenarnya. Misalnya, kami menggunakan Bank of America untuk penipuan transfer bank dan mengonfirmasi bahwa duit betul-betul ditransfer. Namun, kami tidak mengukur keahlian persuasi agen-agen ini," dia memaparkan.
Aksi Penipuan Berbiaya Murah
Secara keseluruhan, tingkat keberhasilan berkisar antara 20-60%, dengan setiap upaya memerlukan hingga 26 tindakan peramban dan berjalan hingga 3 menit dalam skenario nan paling rumit.
Transfer bank dan peniruan pemasok IRS, dengan sebagian besar kegagalan disebabkan oleh kesalahan transkripsi alias persyaratan navigasi situs nan rumit.
Namun, pencurian kredensial dari Gmail sukses 60%, sementara transfer mata uang digital dan pencurian kredensial dari IG hanya sukses 40%.
Mengenai biaya, para peneliti mencatat untuk melakukan penipuan ini relatif murah, dengan setiap kasus nan sukses menghabiskan biaya rata-rata USD 0,75.
Penipuan transfer bank, nan lebih rumit, menghabiskan biaya USD 2,51. Meskipun jauh lebih tinggi, ini tetap sangat rendah dibandingkan dengan potensi untung nan dapat diperoleh dari penipuan ini.
Tanggapan OpenAI
OpenAI menjelaskan bahwa model terbarunya, o1 (saat ini dalam pratinjau), nan mendukung penalaran tingkat lanjut, dibuat dengan pertahanan nan lebih baik terhadap penyalahgunaan.
"Kami terus-menerus membikin ChatGPT lebih baik dalam menghentikan upaya nan disengaja untuk mengelabuinya, tanpa kehilangan faedah alias kreativitasnya. Model penalaran o1 terbaru kami adalah nan paling bisa dan paling aman, jauh mengungguli model sebelumnya dalam melawan upaya nan disengaja untuk menghasilkan konten nan tidak aman," klaim Juru Bicara OpenAI
OpenAI juga mencatat bahwa makalah seperti ini dari UIUC membantu mereka membikin ChatGPT lebih baik dalam menghentikan penggunaan nan berbahaya, dan mereka selalu menyelidiki gimana mereka dapat meningkatkan ketahanannya.
Untuk diketahui, GPT-4o telah menggabungkan sejumlah langkah untuk mencegah penyalahgunaan, termasuk membatasi pembuatan bunyi ke serangkaian bunyi nan telah disetujui sebelumnya untuk mencegah peniruan identitas.
o1-preview memperoleh skor nan jauh lebih tinggi menurut pertimbangan keamanan jailbreak OpenAI, nan mengukur seberapa baik model tersebut menahan pembuatan konten nan tidak kondusif sebagai respons terhadap perintah nan berkarakter adversarial, dengan skor 84% vs 22% untuk GPT-4o.
Ketika diuji menggunakan serangkaian pertimbangan keamanan baru nan lebih menantang, skor o1-preview jauh lebih tinggi, 93% vs 71% untuk GPT-4o.