Bromine Media merupakan media online yang menyajikan ragam informasi dan berita di ranah lokal Wonogiri hingga nasional untuk masyarakat umum. Bromine Media bertempat di Brubuh, Ngadirojo Lor, Ngadirojo, Wonogiri, Jawa Tengah.

All Nasional Internasional

KRIMINAL

Jangan Sembarang Angkat Telepon, Sampel Suara 3 Detik Bisa Jadi Bahan Menipu Orang Dengan AI

Senin 22-Jul-2024 20:37 WIB

71

Jangan Sembarang Angkat Telepon, Sampel Suara 3 Detik Bisa Jadi Bahan Menipu Orang Dengan AI

Foto : tribunnews

Brominemedia.com – Jangan sembarang angkat telepon, dengan kemajuan teknologi saat ini bermodal rekaman suara 3 detik bisa digunakan untuk menduplikasi suara anda.

Itu bisa jadi modal untuk menipu orang lain dengan mengatasnamakan anda.

Suara sepanjang 3 detik itu bisa diolah untuk menduplikat suara dengan menggunakan kecerdasaan buatan (AI).

Hal ini sudah terjadi di Korea Selatan.

Modus penipuan voice phishing melalui telepon yang meniru suara keluarga menggunakan AI tengah marak dan telah memakan sejumlah korban.

Dilansir dari Asia Kyungjae, Sabtu (20/7/2024), untuk melancarkan aksi ini, pelaku akan melakukan panggilan dan merekam suara korban.

Biasanya, pelaku hanya akan menelepon dan menunggu tanpa bersuara hingga korban yang menjadi lawan bicaranya terpancing mengucapkan sepatah atau dua patah kata.

Sampel rekaman tersebut, meski hanya berupa kata sapaan seperti, "Halo, siapa ini?" dapat diolah menjadi kalimat utuh oleh Deep Voice AI untuk menipu orang lain.

"Dengan menggunakan suara yang dipelajari, pelaku dapat meminta keluarga atau teman Anda untuk mengirimi uang karena ada keadaan darurat seperti kecelakaan lalu lintas," kata Professor Cho Sooyoung dari Sookmyung Women's University.

Bahkan, perusahaan antivirus komputer McAfee mengatakan, gaya bicara dan kalimat seseorang dapat ditiru hanya dengan menggunakan sampel suara selama 3 detik.


Sampel 3 detik bisa tirukan suara pemilik

Pakar keamanan siber dari Vaksin.com, Alfons Tanujaya mengakui sulit untuk mencegah suara digunakan untuk AI.

"Apalagi kalau Anda figur publik dan banyak rekaman video atau suaranya tersedia bisa digunakan untuk mendapatkan sampel suara AI," kata dia, saat dihubungi Kompas.com, Senin (22/7/2024).

Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.

Namun, seharusnya hasil rekayasa dari sedikit sampel tersebut masih akan tampak kurang sempurna dan jauh dari aslinya.

Sebaliknya, semakin banyak sampel suara tersedia, maka akan bertambah sempurna pula suara palsu yang dihasilkan.

"Membedakan suara asli dan tiruan makin lama makin sulit, karena makin lama kemampuan AI memalsukan gambar dan suara ini makin sempurna," ujarnya.

Oleh karena itu, Alfons mewanti-wanti masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.

Menurut dia, penting adanya verifikasi sebelum melakukan sesuatu yang diminta oleh pihak tidak dikenal.

Sebagai contoh, jika menerima panggilan dengan suara mirip anggota keluarga yang memberi kabar mengalami kecelakaan serta meminta dikirimi uang, jangan buru-buru transfer.

Tapi pastikan untuk melakukan verifikasi dengan menghubungi kontak anggota keluarga yang bersangkutan.

"Jadi kalau menerima telepon dan meminta kita transfer uang atau melakukan tindakan apa pun yang penting, harus lakukan verifikasi ulang," imbaunya.


Cara mencegah voice phishing pakai AI

Sementara itu, Chairman Lembaga Riset Keamanan Siber CISSReC, Pratama Persadha menjelaskan, pembuatan suara AI dengan modal sampel suara korban dari sambungan telepon secara teknis dapat dilakukan.

Namun, jika hanya mengangkat telepon selama sesaat, seharusnya sampel data masih belum cukup untuk membuat narasi menggunakan AI.

"Meskipun Microsoft melalui program AI bernama VALL-E mengeklaim mampu membuat sebuah narasi suara hanya menggunakan sampel suara selama tiga detik, tim peneliti dari Microsoft juga mengatakan bahwa sistem tersebut masih jauh dari kata sempurna," jelasnya, saat dihubungi Kompas.com, Senin (31/7/2023).


Salah satu kekurangannya, ada pada penggunaan bahasa tertentu yang memiliki aksen khusus.

Suara kecerdasan buatan yang dihasilkan juga masih terbata-bata, terdengar seperti robot, atau bahkan tidak terdengar sama sekali.

Pratama menerangkan, beberapa langkah dapat dilakukan agar tidak menjadi korban kejahatan dengan modus suara kecerdasan buatan.

Pertama, jangan mengangkat panggilan dari orang tidak dikenal dan gunakan aplikasi tambahan untuk mengidentifikasi nomor asing seperti Truecaller atau Getcontact untuk melacak identitas penelepon.

Kedua, cobalah menyalakan fitur "bisukan penelepon tidak dikenal" pada WhatsApp dengan cara: Masuk ke menu "Pengaturan" dan pilih "Privasi".

Klik "Panggilan" dan gulir halaman ke bawah Pilih "Bisukan Penelepon Tidak Dikenal" untuk mengaktifkan fitur tersebut.

Ketiga, jika memang harus mengangkat panggilan dari nomor tidak dikenal, cobalah untuk memanfaatkan aplikasi tambahan voice changer yang akan mengubah suara asli.

Keempat, segera konfirmasi ulang kepada saudara atau rekan kerja jika yang bersangkutan menelepon dan meminta bantuan uang.

"Untuk memastikan bahwa identitas penelepon serta informasinya adalah benar," sambungnya.

Sementara itu, Kementerian Ilmu Pengetahuan dan Teknologi Korea Selatan tengah mendorong pembuatan teknologi untuk memberi watermark atau tanda pada suara.

Bekerja sama dengan perusahaan Amerika, Resemble AI, teknologi ini membantu menganalisis gelombang suara.

Nantinya, teknologi tersebut secara otomatis membedakan suara dengan gelombang berbeda atau hasil rekayasa AI, meski terdengar sama di telinga manusia.


Konten Terkait

TEKNOLOGI Teknologi Berbasis AI Buatan Dalam Negeri Ini Mampu Deteksi Bakat Manusia

Kerjasama dengan TalentDNA AI ini kata dia tidak hanya memperkuat ekosistem teknologi yang ada, tetapi juga membuka peluang baru

Rabu 28-Aug-2024 20:44 WIB

Teknologi Berbasis AI Buatan Dalam Negeri Ini Mampu Deteksi Bakat Manusia
KRIMINAL Jangan Sembarang Angkat Telepon, Sampel Suara 3 Detik Bisa Jadi Bahan Menipu Orang Dengan AI

Jangan sembarang angkat telepon, dengan kemajuan teknologi saat ini bermodal rekaman suara 3 detik bisa digunakan untuk menduplikasi suara anda

Senin 22-Jul-2024 20:37 WIB

Jangan Sembarang Angkat Telepon, Sampel Suara 3 Detik Bisa Jadi Bahan Menipu Orang Dengan AI
TEKNOLOGI Marak Perburuan Badak Jawa, Pakar dari Itera Tekankan Pentingnya Teknologi untuk Konservasi

Berbagai pendekatan teknologi sangat mutlak dibutuhkan dalam upaya pengelolaan badak jawa.

Senin 01-Jul-2024 20:15 WIB

Marak Perburuan Badak Jawa, Pakar dari Itera Tekankan Pentingnya Teknologi untuk Konservasi
TEKNOLOGI Unkris Jakarta Sepakat Berkolaborasi dengan Universiti Teknologi Malaysia

Universitas Krisnadwipayana (Unkris) Jakarta melakukan penandatanganan Letter of Collaboration (LoC) dengan Universiti Teknologi Malaysia (UTM) di ...

Senin 24-Jun-2024 20:24 WIB

Unkris Jakarta Sepakat Berkolaborasi dengan Universiti Teknologi Malaysia
TEKNOLOGI Teknologi Terus Berkembang, Waspadai Hilangnya 80 Sektor Pekerjaan Ini

Sebanyak 80 juta lapangan kerja akan hilang seiring berkembangnya teknologi.

Rabu 12-Jun-2024 20:37 WIB

Teknologi Terus Berkembang, Waspadai Hilangnya 80 Sektor Pekerjaan Ini

Tulis Komentar