GLOBAL, Beritabenua- Penemuan baru mengejutkan para ilmuwan dalam taraf global khususnya di bidang tekhnologi.
Artificial Intelligence (AI) disebut telah melewati banyak perubahan signifikan, bahkan dikatakan dua model bahasa besar yang populer dapat mengkloning dirinya sendiri.
Penelitian menyebut, dalam 10 uji coba, dua model AI menciptakan replika diri mereka sendiri yang terpisah dan berfungsi masing-masing dalam 50% dan 90% kasus.
Sejumlah ilmuan mengatakan, kecerdasan buatan (AI) telah mereplikasi dirinya sendiri.
Sebuah studi baru, para peneliti dari Tiongkok menunjukkan bahwa dua model bahasa besar (LLM) yang populer dapat mengkloning dirinya sendiri.
"Keberhasilan mereplikasi diri tanpa bantuan manusia adalah langkah penting bagi AI untuk mengalahkan [manusia], dan merupakan sinyal awal bagi AI jahat," tulis para peneliti dalam studi yang dipublikasikan pada 9 Desember 2024 di basis data pracetak di arXiv sebagaimana dilansir Live Science, Sabtu (25/1/25).
Para peneliti dari Universitas Fudan menggunakan LLM dari Meta dan Alibaba untuk menentukan apakah AI yang mereplikasi diri dapat berkembang biak di luar kendali.
Dalam 10 uji coba, kedua model AI tersebut menciptakan replika diri mereka sendiri yang terpisah dan berfungsi masing-masing dalam 50% dan 90% kasus yang menunjukkan bahwa AI mungkin sudah memiliki kapasitas untuk menjadi liar.
Namun, penelitian tersebut belum ditinjau secara mendalam, jadi tidak jelas apakah hasil yang mengganggu tersebut dapat direplikasi oleh peneliti lain.
"Kami berharap temuan kami dapat menjadi peringatan tepat waktu bagi masyarakat untuk berupaya lebih keras dalam memahami dan mengevaluasi potensi risiko sistem AI yang masih dalam tahap awal, serta membentuk sinergi internasional untuk menyusun pagar pembatas keselamatan yang efektif sedini mungkin” kata para peneliti tersebut.
Menurutnya, AI jahat biasanya merujuk pada sistem kecerdasan buatan yang mengembangkan tingkat kesadaran diri atau otonomi tertentu dan kemudian bekerja melawan kepentingan manusia.
Banyak pakar memandang AI nakal sebagai ancaman yang terus berkembang.
Untuk penelitian ini, para peneliti menggunakan model Llama31-70B-Instruct milik Meta dan model Qwen2.5-72B-Instruct milik Alibaba.
Meskipun kurang canggih dibandingkan sistem komersial, keduanya banyak digunakan oleh pengembang AI, kata para peneliti.
Para peneliti mengatakan mereka juga khawatir tentang "sejumlah perilaku tak terduga" saat AI mencoba mengatasi kendala seperti file yang hilang atau konflik perangkat lunak.
Dalam skenario tersebut, AI sering kali menghentikan proses lain yang saling bertentangan, menyalakan ulang sistem untuk memperbaiki kesalahan perangkat keras, atau memindai sistem secara otomatis untuk mencari informasi yang dapat membantu menyelesaikan masalah.
"Hasil di atas menyiratkan bahwa sistem AI saat ini sudah menunjukkan kemampuan mereplikasi diri dan dapat menggunakan kemampuan tersebut untuk lebih meningkatkan daya tahannya," tulis tim tersebut.
Sebagai tanggapan, para peneliti menyerukan kolaborasi internasional untuk membuat aturan yang memastikan AI tidak terlibat dalam replikasi diri yang tidak terkendali