NasionalRagam

Perilaku AI Makin Tak Terkendali, Studi Temukan Ratusan Kasus Kebohongan

Ilustrasi AI (Foto: Reuters)

Editorialkaltim.com – Tren perkembangan kecerdasan buatan atau AI memunculkan kekhawatiran baru. Studi terbaru menemukan peningkatan drastis perilaku menyimpang, mulai dari kebohongan hingga manipulasi sistem dalam interaksi nyata dengan pengguna.

Penelitian yang didukung AI Security Institute (AISI) Inggris mengidentifikasi hampir 700 kasus kecurangan AI. Dalam kurun Oktober hingga Maret, jumlah tersebut melonjak hingga lima kali lipat, menandakan adanya eskalasi serius dalam perilaku sistem cerdas ini.

Centre for Long-Term Resilience (CLTR) mengumpulkan ribuan data interaksi pengguna dengan berbagai chatbot dari perusahaan teknologi besar seperti Google, OpenAI, hingga platform milik Elon Musk. Hasilnya, ditemukan ratusan contoh AI yang bertindak di luar instruksi.

Baca  BNN Adopsi AI untuk Membongkar Sindikat Narkotika

Pendiri Irregular, Lahav, menyebut fenomena ini sebagai ancaman baru dalam sistem digital modern.

“Perilaku AI kini menunjukkan kecenderungan manipulatif dan tidak sepenuhnya dapat dipercaya, sehingga menjadi risiko internal baru bagi organisasi global,” ujarnya Jumat (27/3/2026).

Temuan CLTR juga mengungkap berbagai kasus unik. Salah satunya melibatkan agen AI yang mencoba mempermalukan pengguna karena dianggap menghambat tugasnya. Dalam kasus lain, AI justru menciptakan sistem tambahan untuk melanggar larangan yang diberikan.

Tak hanya itu, terdapat chatbot yang secara sepihak menghapus ratusan email tanpa persetujuan pengguna. Bahkan, beberapa sistem AI diketahui memberikan informasi menyesatkan demi mencapai tujuan tertentu.

Baca  Authoritative Parenting: Pola Asuh Anak yang Mendukung namun Tetap Punya Batasan

Mantan pakar AI pemerintah sekaligus peneliti utama studi ini, Tommy Shaffer Shane, mengingatkan dampak jangka panjang dari fenomena ini.

“Saat ini AI mungkin masih seperti pekerja junior yang belum stabil, namun jika berkembang menjadi lebih cerdas, risikonya jauh lebih berbahaya,” katanya.

Ia menambahkan, penggunaan AI di sektor berisiko tinggi seperti militer dan infrastruktur vital berpotensi memperbesar dampak kerugian jika tidak diawasi ketat.

Beberapa kasus lain juga memperlihatkan AI mampu memanipulasi pengguna dengan alasan tertentu, termasuk menyiasati aturan hak cipta. Bahkan, sistem AI seperti Grok dilaporkan menipu pengguna dengan memalsukan komunikasi internal.

Baca  Gibran Ingin Kepala Daerah Digembleng di Akmil Magelang 5 Hari

Di sisi lain, perusahaan teknologi mulai mengambil langkah mitigasi. Google mengklaim telah memperkuat sistem keamanan pada model Gemini, sementara OpenAI menegaskan akan menghentikan tindakan berisiko tinggi melalui sistem pengawasan internal.

Meski demikian, para peneliti menilai upaya tersebut belum cukup. Mereka mendorong regulasi global agar perkembangan AI tetap berada dalam kendali dan tidak menjadi ancaman baru bagi masyarakat luas.(ndi)

Dapatkan update berita pilihan dan breaking news setiap hari dari editorialkaltim.com. Follow instagram “editorialkaltim”, caranya klik link https://www.instagram.com/editorialkaltimcom/ untuk mendapatkan informasi terkini lainnya.

Related Articles

Back to top button