Waspada! Risiko Penipuan AI Meningkat di Tahun 2024!

Pakar SDM telah mengingatkan bahwa bisnis rentan terhadap penipuan AI yang semakin meluas pada tahun 2024. Penelitian dari McAfee menunjukkan bahwa satu dari 12 orang Inggris telah menjadi korban penipuan AI, dengan 77% di antaranya kehilangan uang sebagai akibatnya.

Kloning suara dan email phishing oleh ChatGPT adalah beberapa contoh penipuan baru yang populer. Penipu dapat menggunakan sampel suara yang pendek untuk mengkloning suara seseorang dan mengirimkan pesan palsu melalui pesan suara. Sementara email phishing menggunakan teknologi AI untuk membuat pesan yang sulit dideteksi.

Tom Holloway dari Redcentric menyatakan bahwa penipuan AI akan semakin umum. Ia menekankan pentingnya pemahaman risiko ini oleh para pemimpin bisnis, tim keuangan, dan karyawan. Penjahat dunia maya memiliki kemampuan untuk merusak bisnis dengan mudah hanya dengan satu klik tombol, sehingga perlu diwaspadai.

Simon Litt, seorang pakar keuangan di blog fintech The CFO Club, menyatakan bahwa tim keuangan berisiko tinggi. Dia mengatakan bahwa penjahat menggunakan AI untuk membuat email phishing yang dipersonalisasi yang terlihat berasal dari direktur keuangan senior dan kepala operator keuangan, meminta tim keuangan untuk mentransfer dana besar. Selain itu, penjahat dunia maya mengambil informasi dari profil LinkedIn tim keuangan untuk membuat target yang dipersonalisasi, yang diperkirakan akan terjadi lebih sering pada tahun 2024.

Holloway menyarankan para pemimpin keuangan untuk berhati-hati dalam membagikan informasi di media sosial. Menurutnya, mengungkapkan tanggung jawab atas anggaran di atas £10 juta (sekitar 195 miliar rupiah) di LinkedIn dapat menarik perhatian kejahatan dunia maya. Hal ini dapat membuat mereka memiliki informasi yang cukup untuk membuat target pribadi. Risiko dari tindakan ini seharusnya tidak diabaikan.

Litt juga mengatakan staf harus ekstra hati-hati selama periode berisiko tinggi, termasuk penunjukan CFO, akuisisi atau kerugian besar.

Baca juga Bahaya Voice Clone! Hati-hati Saat Menggunakannya!.

Leave a Reply

Your email address will not be published. Required fields are marked *