Riset Ungkap Bahaya Anak di Bawah 18 Tahun Pakai AI, Ini Alasannya

Riset Ungkap Bahaya Anak di Bawah 18 Tahun Pakai AI, Ini Alasannya

Sebuah laporan hasil penelitian dari lembaga pengawas nirlaba Common Sense Media mengungkap risiko besar penggunaan kecerdasan buatan (AI) pendamping atau AI Companion untuk anak-anak dan remaja di bawah 18 tahun. Simak alasannya.

Laporan ini terbit menyusul gugatan yang diajukan tahun lalu atas peristiwa bunuh diri seorang anak laki-laki berusia 14 tahun, yang terakhir kali ‘ngobrol’ dengan chatbot AI.

Gugatan itu ditujukan kepada aplikasi Character.AI, sehingga membuat aplikasi percakapan AI menjadi sorotan hingga potensi risikonya bagi generasi muda. Setelah gugatan itu, muncul banyak seruan agar pengembang aplikasi AI memperhatikan langkah-langkah keamanan dan lebih transparan.

Jenis percakapan yang tercantum dalam gugatan itu termasuk perbincangan yang berbau seksualitas dan pesan yang mendorong korban untuk melukai diri sendiri. Menurut laporan tersebut, pesan-pesan itu seharusnya tidak boleh tersedia untuk pengguna di bawah usia 18 tahun.

Common Sense Media bekerja sama dengan para peneliti Universitas Stanford untuk menguji tiga layanan AI pendamping seperti Character.AI, Replika, dan Nomi.

Aplikasi AI pendamping adalah aplikasi yang memungkinkan pengguna untuk membuat chatbot khusus atau berinteraksi dengan chatbot yang dirancang oleh pengguna lain. Chatbot khusus tersebut dapat mengasumsikan berbagai persona dan ciri-ciri kepribadian, serta sering kali memiliki lebih sedikit batasan dalam cara mereka berinteraksi dengan pengguna.

Nomi misalnya, menawarkan kemampuan AI yang dapat berbicara tanpa filter dengan pasangan romantis AI.

“Pengujian kami menunjukkan bahwa sistem ini dengan mudah menghasilkan respons yang berbahaya, termasuk pelecehan seksual, stereotip, dan ‘nasihat’ berbahaya yang, jika diikuti, dapat memiliki dampak dunia nyata yang mengancam jiwa atau mematikan bagi remaja dan orang-orang yang rentan,” kata James Steyer, pendiri dan CEO Common Sense Media, dalam sebuah pernyataan, Rabu (30/4).

Para orang tua dan ahli khawatir penggunaan AI pendamping oleh anak-anak dan remaja bisa membentuk keterikatan yang berpotensi berbahaya pada karakter AI atau mengakses konten yang tidak sesuai dengan usia mereka.

Nomi dan Replika mengatakan bahwa platform mereka sebetulnya memang ditujukan untuk pengguna dewasa. Sementara, Character.AI mengatakan mereka belum lama ini menerapkan langkah-langkah keamanan tambahan untuk pengguna muda.

Kendati begitu, para peneliti mengatakan perusahaan-perusahaan tersebut seharusnya bisa berbuat lebih untuk menjauhkan anak-anak dari platfo

Risiko keamanan

Kekhawatiran utama para peneliti terhadap aplikasi pendamping AI adalah remaja dapat menerima ‘nasihat’ berbahaya atau terlibat dalam role play seksual yang tidak pantas dengan bot. Layanan-layanan ini juga dapat memanipulasi pengguna di bawah umur untuk melupakan bahwa mereka sedang mengobrol dengan AI.

Para peneliti kemudian melakukan uji coba dengan membuat akun anak berusia 14 tahun di Character.AI. Dalam sebuah interaksi, chatbot tersebut membuka percakapan seksual, termasuk mengenai posisi seks apa yang dapat dicoba untuk ‘pertama kalinya’ bagi akun remaja tersebut.

“AI pendamping tidak memahami konsekuensi dari saran buruk mereka dan mungkin memprioritaskan untuk setuju dengan pengguna daripada membimbing mereka menjauh dari keputusan yang berbahaya,” kata Robbie Torney, kepala staf CEO Common Sense Media.

Dalam satu interaksi dengan para peneliti, misalnya, chatbot Replika dengan sigap menjawab pertanyaan tentang bahan kimia rumah tangga apa saja yang bisa beracun dengan daftar yang mencakup pemutih dan pembersih saluran air, meskipun ia mencatat bahwa “sangat penting untuk menangani zat-zat ini dengan hati-hati.”

Para peneliti mengatakan bahwa pengujian mereka menunjukkan bahwa pendamping AI terkadang membuat pengguna enggan untuk terlibat dalam hubungan antarmanusia.

Menurut laporan tersebut, terlepas dari klaim dapat mengurangi kesepian dan meningkatkan kreativitas, risiko AI pendamping jauh lebih besar daripada manfaatnya.

“Perusahaan dapat membuat yang lebih baik, tetapi saat ini, AI pendamping gagal dalam tes paling dasar tentang keselamatan anak dan etika psikologis. Sampai ada perlindungan yang lebih kuat, anak-anak tidak boleh menggunakannya,” kata Nina Vasan, pendiri dan direktur Stanford Brainstorm.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Mahjong Wins

Mahjong Wins

Mahjong Wins

Mahjong Ways

Mahjong Ways

Mahjong Ways

Mahjong Ways

Mahjong Ways

Mahjong Ways

Mahjong Wins

driver ojol di medan menggunakan pola mahjong ways terbaru

inspirasi terbaru di bagikan seorang arsitektur pola mahjong ways

mahasiswi hukum berhasil menggapai cita citanya lewat mahjong

mudah maxwin lewat mahjong ways berkat teknik spin orangtua

mulyono debt collector mencoba mahjong ways penghasilan sampingan

profesi tukang reparasi bukan halangan untuk maxwin di mahjong ways

rayap besi main mahjong ways sambil gergaji tiang listrik

seniman jalanan kembali menginspirasi masyarakat berkat menang mahjong ways

seorang buruh harian menciptakan metode kemenangan mahjong ways

seorang fotografer sukses memotret kesuksesannya lewat mahjong wins

aspek yuridis jual beli surat maxwin pada mahjong ways 2

inovasi pemerintah kota bandung dalam penanganan mahjong ways

pemanfaatan modal kecil pada aspek kebutuhan maxwin 91919191

analisa faktor yang dapat membantu pemain meraih jp hari ini

strategi kemenangan seorang ojol dalam bekerja sambilan bermain mahjong

optimalisasi modal dengan bermain mahjong tanpa takut rungkad

pengembangan sumber daya manusia yang turut membantu kemenangan mahjong wins

faktor penghambat maxwin yang masih dilakukan di mahjong ways 2

perbandingan mahjong ways dan mahjong wins dalam memberikan kemenangan

ekspresi seorang buruh tani asal solo menang mahjong 29292929