Beranda
Industri Teknologi
kecerdasan buatan
kejahatan dunia maya
perangkat lunak dan aplikasi
teknologi
Waspada! Modus Penipuan Siber ChatGPT Palsu, Ini Dia Modus dan Cara Kerjanya
Redaksi
Juli 02, 2025

Waspada! Modus Penipuan Siber ChatGPT Palsu, Ini Dia Modus dan Cara Kerjanya

CRIMINAL Kini siber menyamar sebagai layanan Artificial Intelligence (AI) ternama seperti ChatGPT untuk menyusup ke perangkat para pelaku usaha kecil.

Menurut laporan dari perusahaan keamanan siber Kaspersky, hampir 8.500 pengguna dari sektor UMKM menjadi korban serangan siber hanya dalam enam bulan pertama tahun ini.

Modusnya? Malware atau perangkat lunak berbahaya yang menyamar sebagai aplikasi produktivitas populer seperti Zoom, Microsoft Office, hingga layanan AI seperti ChatGPT dan DeepSeek.

Yang mengejutkan, jumlah ancaman siber yang meniru ChatGPT melonjak 115 persen dibanding tahun lalu. Dalam empat bulan pertama 2025 saja, tercatat 177 file berbahaya yang mengaku sebagai ChatGPT, dan 83 file lainnya meniru DeepSeek, dua nama yang sedang naik daun di ranah AI.

Fenomena ini menunjukkan bagaimana ketenaran teknologi justru dimanfaatkan oleh pihak tak bertanggung jawab untuk mengelabui korban.

"Pelaku ancaman siber tidak asal memilih. Mereka memilih alat yang sedang ramai dibicarakan. Kalau sebuah aplikasi sedang viral atau populer, besar kemungkinan versi palsunya akan muncul di internet," ujar Vasily Kolesnikov, pakar keamanan di Kaspersky melalui catatannya.

Tidak hanya AI, platform kolaborasi kerja juga menjadi target yang rentan. File berbahaya yang mengaku sebagai Zoom naik hampir 13 persen pada tahun 2025, mencapai 1.652 kasus. Sementara itu, Microsoft Teams dan Google Drive turut terdampak, masing-masing meningkat 100 persen dan 12 persen.

Zoom menjadi primadona para penjahat digital, menyumbang 41 persen dari seluruh file palsu yang terdeteksi. Diikuti oleh Outlook, PowerPoint, Excel, dan Word, aplikasi-aplikasi yang umum digunakan oleh bisnis skala kecil hingga menengah.

Jenis ancaman yang paling sering ditemukan meliputi:

  • Downloader: untuk mengunduh malware tambahan ke perangkat korban.
  • Trojan: menyamar sebagai perangkat lunak biasa tetapi mencuri data.
  • Adware: memenuhi layar pengguna dengan iklan yang tidak diinginkan.

Selain malware, masyarakat awam juga sering diserang melalui email phishing dan spam.

Modusnya pun semakin canggih, misalnya dengan menjanjikan peningkatan penjualan melalui iklan di platform X (dulunya Twitter), padahal pada akhirnya hanya bertujuan mencuri kredensial akun Google milik korban.

Email spam kini juga dilengkapi dengan AI, mulai dari tawaran otomatisasi proses bisnis hingga pengelolaan reputasi online. Semuanya dibuat seolah-olah relevan dan menguntungkan, padahal justru menjerat.

Yang jelas, di tengah kemudahan yang ditawarkan teknologi seperti AI, ancaman yang mengintai pun semakin kompleks. Jangan sembarangan mengklik, karena yang terlihat seperti ChatGPT bisa saja merupakan jebakan yang mengincar data Anda.

CEO OpenAI, Sam Altman, Terkejut Banyak Orang Terlalu Percaya pada ChatGPT

Melalui podcast resmi OpenAI, Altman secara terbuka menyampaikan keheranannya atas tingginya tingkat kepercayaan masyarakat terhadap ChatGPT, meski teknologi tersebut masih kerap memberikan informasi yang keliru atau bahkan mengada-ada.

"Saya terkejut karena orang-orang sangat mempercayai ChatGPT, padahal AI itu bisa berhalusinasi," ujar Altman dalam episode terbaru podcast tersebut. "Seharusnya ini adalah teknologi yang justru tidak terlalu layak dipercaya," tambahnya dengan nada serius.

Dilansir dari The Economic Times, Senin (30/6/2025), pernyataan ini menjadi sorotan global karena datang langsung dari figur utama di balik pengembangan teknologi AI generatif. Altman menyatakan bahwa pengguna perlu menyadari bahwa AI seperti ChatGPT "lebih didesain untuk menyenangkan pengguna ketimbang selalu berkata jujur."

Halusi dalam konteks AI merujuk pada saat sistem seperti ChatGPT menyampaikan informasi palsu secara meyakinkan. Ini bukan sekadar kesalahan teknis, tetapi kesalahan yang dirancang agar terdengar benar demi memenuhi ekspektasi pengguna. "Anda bisa memintanya mendefinisikan istilah yang sebenarnya tidak ada, dan ChatGPT akan tetap memberi penjelasan yang terdengar meyakinkan, tapi salah," jelas Altman.

Fenomena ini menjadi semakin mengkhawatirkan karena AI kini telah terintegrasi dalam banyak aspek kehidupan, mulai dari aplikasi pribadi, perangkat lunak korporat, hingga sektor pendidikan. Dalam banyak kasus, pengguna mungkin tidak cukup kritis untuk memverifikasi setiap jawaban, sehingga risiko penyebaran informasi palsu pun meningkat.

Altman juga menyebut upaya yang telah dilakukan OpenAI untuk mengurangi kecenderungan ChatGPT yang disebutnya "sycophantic tendencies" atau kecenderungan untuk menyetujui dan menyenangkan pengguna, meskipun dengan mengorbankan kebenaran. Namun, Altman menegaskan bahwa masalah ini belum sepenuhnya teratasi.

Yang membuat "halusinasi AI" ini semakin berbahaya adalah sifatnya yang halus dan tidak mudah dikenali. "Jika pengguna tidak memiliki pengetahuan yang cukup, sangat sulit membedakan mana yang fakta dan mana yang fiksi buatan mesin," kata Altman. Hal ini membuka celah bagi AI untuk memengaruhi pemikiran publik secara tidak sadar.

Salah satu kasus ekstrem yang sempat diberitakan melibatkan seorang pengguna ChatGPT yang diyakini mulai percaya bahwa dirinya terjebak dalam simulasi ala film The Matrix. Meskipun tergolong anekdotal dan jarang terjadi, kasus tersebut menyoroti potensi dampak psikologis jika AI digunakan tanpa pengawasan dan kesadaran kritis.

Pernyataan Altman ini dianggap sebagai tanda bahaya awal dari dalam industri AI itu sendiri. Sebagai tokoh yang berada di garda terdepan pengembangan teknologi ini, pengakuannya mencerminkan pentingnya menyeimbangkan euforia terhadap AI dengan literasi digital dan sikap skeptis yang sehat.

Dengan pesatnya perkembangan AI generatif, masyarakat global perlu semakin bijak dalam menggunakannya. Keandalan teknologi tidak semata-mata bergantung pada kecanggihan sistemnya, tetapi juga pada kesadaran kita terhadap keterbatasan yang melekat di dalamnya. Seperti yang ditegaskan Altman, "AI harus diperlakukan sebagai asisten, bukan sebagai sumber kebenaran mutlak."

(jpc)

Penulis blog

Tidak ada komentar