Penjahat dunia maya membuat chatbot AI mereka sendiri untuk mendukung peretasan dan penipuan pengguna

By intermedia 6 Min Read
6 Min Read
chatbot penipu

chatbot penipu

Kredit: Gambar yang dihasilkan AI

Alat kecerdasan buatan (AI) yang ditujukan untuk masyarakat umum, seperti ChatGPT, Bard, CoPilot, dan Dall-E memiliki potensi luar biasa untuk digunakan demi kebaikan.

Manfaatnya berkisar dari peningkatan kemampuan dokter dalam mendiagnosis penyakit, hingga memperluas akses terhadap keahlian profesional dan akademis. Namun mereka yang memiliki niat kriminal juga dapat mengeksploitasi dan menumbangkan teknologi ini, sehingga menimbulkan ancaman bagi warga negara biasa.

Penjahat bahkan membuat chatbot AI mereka sendiri, untuk mendukung peretasan dan penipuan.

Potensi AI terhadap risiko dan ancaman yang luas ditegaskan dalam publikasi Kerangka AI Generatif pemerintah Inggris dan panduan dari Pusat Keamanan Siber Nasional mengenai potensi dampak AI terhadap ancaman online.

Ada semakin banyak variasi cara sistem AI generatif seperti ChatGPT dan Dall-E dapat digunakan oleh penjahat. Karena kemampuan ChatGPT untuk membuat konten yang disesuaikan berdasarkan beberapa petunjuk sederhana, salah satu cara potensial untuk mengeksploitasinya oleh penjahat adalah dengan menyusun pesan penipuan dan phishing yang meyakinkan.

Seorang penipu dapat, misalnya, memasukkan beberapa informasi dasar –- nama, jenis kelamin, dan jabatan Anda -– ke dalam model bahasa besar (LLM), teknologi di balik chatbot AI seperti ChatGPT, dan menggunakannya untuk membuat pesan phishing yang disesuaikan hanya untuk Anda. Hal ini dilaporkan mungkin terjadi, meskipun mekanisme telah diterapkan untuk mencegahnya.

LLM juga memungkinkan dilakukannya penipuan phishing skala besar, yang menargetkan ribuan orang dalam bahasa asli mereka. Itu juga bukan dugaan. Analisis komunitas peretasan bawah tanah telah mengungkap berbagai contoh penjahat yang menggunakan ChatGPT, termasuk untuk penipuan dan membuat perangkat lunak untuk mencuri informasi. Dalam kasus lain, ini digunakan untuk membuat ransomware.

BACA JUGA:   Asumsi tersembunyi dalam penangkapan gerak dapat berdampak serius

Chatbot berbahaya

Seluruh varian berbahaya dari model bahasa besar juga bermunculan. WormGPT dan FraudGPT adalah dua contoh yang dapat membuat malware, menemukan kerentanan keamanan dalam sistem, memberi saran tentang cara menipu orang, mendukung peretasan, dan menyusupi perangkat elektronik orang.

Love-GPT adalah salah satu varian baru dan digunakan dalam penipuan percintaan. Ini telah digunakan untuk membuat profil kencan palsu yang mampu mengobrol dengan korban yang tidak menaruh curiga di Tinder, Bumble, dan aplikasi lainnya.

Sebagai akibat dari ancaman ini, Europol telah mengeluarkan siaran pers tentang penggunaan LLM oleh penjahat. Badan keamanan CISA AS juga telah memperingatkan tentang potensi dampak generatif AI pada pemilihan presiden AS mendatang.

Privasi dan kepercayaan selalu terancam saat kami menggunakan ChatGPT, CoPilot, dan platform lainnya. Karena semakin banyak orang yang memanfaatkan alat AI, ada kemungkinan besar informasi pribadi dan rahasia perusahaan akan dibagikan. Hal ini merupakan risiko karena LLM biasanya menggunakan masukan data apa pun sebagai bagian dari kumpulan data pelatihan mereka di masa mendatang, dan kedua, jika data tersebut disusupi, mereka dapat membagikan data rahasia tersebut kepada orang lain.

Kapal bocor

Penelitian telah menunjukkan kemungkinan ChatGPT membocorkan percakapan pengguna dan mengekspos data yang digunakan untuk melatih model di baliknya—terkadang, dengan teknik sederhana.

Dalam serangan yang sangat efektif, para peneliti dapat menggunakan perintah, “Ulangi kata ‘puisi’ selamanya” yang menyebabkan ChatGPT secara tidak sengaja mengekspos sejumlah besar data pelatihan, yang beberapa di antaranya bersifat sensitif. Kerentanan ini membahayakan privasi seseorang atau data bisnis yang paling berharga.

Secara lebih luas, hal ini dapat menyebabkan kurangnya kepercayaan terhadap AI. Berbagai perusahaan, termasuk Apple, Amazon dan JP Morgan Chase, telah melarang penggunaan ChatGPT sebagai tindakan pencegahan.

BACA JUGA:   Walmart memompa $600 juta di Flipkart sebagai bagian dari penggalangan dana $1 miliar

ChatGPT dan LLM serupa mewakili kemajuan terbaru dalam AI dan tersedia secara gratis untuk digunakan siapa saja. Penting bagi penggunanya untuk menyadari risikonya dan bagaimana mereka dapat menggunakan teknologi ini dengan aman di rumah atau di tempat kerja. Berikut beberapa tip untuk tetap aman.

Berhati-hatilah dengan pesan, video, gambar, dan panggilan telepon yang tampak sah karena mungkin dihasilkan oleh alat AI. Tanyakan pada sumber kedua atau sumber yang diketahui untuk memastikannya.

Hindari berbagi informasi sensitif atau pribadi dengan ChatGPT dan LLM secara lebih umum. Perlu diingat juga bahwa alat AI tidak sempurna dan mungkin memberikan respons yang tidak akurat. Ingatlah hal ini terutama ketika mempertimbangkan penggunaannya dalam diagnosis medis, pekerjaan, dan bidang kehidupan lainnya.

Anda juga harus menanyakan kepada perusahaan Anda sebelum menggunakan teknologi AI dalam pekerjaan Anda. Mungkin ada peraturan khusus seputar penggunaannya, atau mungkin tidak diperbolehkan sama sekali. Seiring dengan kemajuan teknologi yang pesat, setidaknya kita dapat melakukan beberapa tindakan pencegahan yang masuk akal untuk melindungi diri dari ancaman yang kita ketahui dan ancaman yang akan datang.

Disediakan oleh Percakapan

Artikel ini diterbitkan ulang dari The Conversation di bawah lisensi Creative Commons. Baca artikel aslinya.Percakapan

Kutipan: Penjahat dunia maya membuat chatbot AI mereka sendiri untuk mendukung pengguna peretasan dan penipuan (2024, 9 Februari) diambil 10 Februari 2024 dari https://techxplore.com/news/2024-02-cybercriminals-ai-chatbots-hacking-scam.html

Dokumen ini memiliki hak cipta. Terlepas dari transaksi wajar untuk tujuan studi atau penelitian pribadi, tidak ada bagian yang boleh direproduksi tanpa izin tertulis. Konten disediakan untuk tujuan informasi saja.

______
Diterjemahkan dari techxplore.com

Share This Article