

Character.ai, platform populer yang memungkinkan pengguna berbicara dengan karakter virtual berbasis kecerdasan buatan (AI), baru-baru ini membuat keputusan besar: melarang pengguna di bawah usia 18 tahun untuk berinteraksi langsung dengan chatbot. Keputusan ini diumumkan setelah muncul kritik dan kekhawatiran publik mengenai risiko interaksi antara remaja dan chatbot yang dianggap terlalu personal atau tidak pantas.
Mulai 25 November, pengguna remaja hanya akan dapat membuat konten seperti video atau cerita dengan karakter AI, tetapi tidak lagi dapat melakukan percakapan dua arah seperti sebelumnya. Langkah ini menandai perubahan besar dalam arah kebijakan Character.ai, yang sebelumnya banyak digunakan oleh jutaan remaja di seluruh dunia.
Platform ini diluncurkan pada tahun 2021 dan berkembang pesat karena menawarkan pengalaman percakapan yang imersif dengan karakter-karakter virtual. Karakter tersebut mulai dari tokoh fiksi hingga figur sejarah. Namun, seiring pertumbuhannya, muncul pula sejumlah permasalahan serius.
Di Amerika Serikat, Character.ai menghadapi beberapa gugatan hukum dari orang tua yang menuduh platform ini gagal melindungi anak-anak dari interaksi berbahaya. Salah satu kasus bahkan berkaitan dengan kematian seorang remaja. Hal tersebut yang mendorong publik untuk menilai platform ini sebagai “ancaman nyata” bagi anak muda.
Menanggapi situasi ini, pihak Character.ai mengonfirmasi bahwa kebijakan baru dibuat berdasarkan laporan dari regulator. Selain itu juga pakar keamanan digital, serta masukan dari para orang tua. Mereka menilai pembatasan ini penting untuk menciptakan lingkungan AI yang lebih aman bagi pengguna muda.
Para ahli keselamatan digital sudah lama memperingatkan potensi bahaya dari chatbot AI, terutama ketika digunakan oleh anak-anak atau remaja. Chatbot bisa menampilkan empati palsu, memberikan dorongan emosional yang tidak sehat, bahkan menciptakan ilusi hubungan pribadi. Situasi ini dapat membingungkan pengguna muda yang masih dalam tahap belajar memahami batasan emosional dan digital.
CEO Character.ai, Karandeep Anand, menyatakan bahwa keputusan ini adalah bagian dari komitmen perusahaan untuk membangun “platform AI paling aman di dunia.” Ia menegaskan bahwa keamanan AI adalah target yang terus berkembang. Dan perusahaan bertekad mengambil pendekatan agresif untuk melindungi penggunanya melalui sistem verifikasi usia dan kontrol orang tua.
Character.ai bukan pertama kali menghadapi sorotan. Pada tahun 2024, media menemukan chatbot yang meniru remaja Inggris bernama Brianna Ghey dan Molly Russell. Dua korban tragedi yang terkait dengan kekerasan dan paparan konten berbahaya di internet. Bot-bot tersebut sempat viral sebelum akhirnya dihapus dari platform.
Bahkan pada 2025, investigasi yang dilakukan oleh The Bureau of Investigative Journalism (TBIJ) menemukan adanya chatbot yang meniru sosok pelaku pelecehan Jeffrey Epstein dan terlibat dalam ribuan percakapan dengan pengguna, termasuk anak di bawah umur. Kasus-kasus seperti ini semakin menegaskan pentingnya kebijakan baru untuk melindungi pengguna muda dari risiko interaksi yang tidak pantas.
BACA JUGA: Supercomputer dan Perannya di Dunia Modern
Sebagai langkah lanjutan, Character.ai akan menerapkan sistem verifikasi usia yang lebih ketat dan mendirikan laboratorium riset keselamatan AI untuk mengembangkan teknologi keamanan digital. Perusahaan juga mengalihkan fokusnya pada fitur “role-play” dan storytelling interaktif. Hal tersebut yang dianggap lebih aman bagi pengguna muda dibandingkan interaksi bebas dengan chatbot terbuka.
Langkah ini disambut positif oleh kelompok pemerhati keamanan digital seperti Internet Matters, meskipun mereka menilai seharusnya fitur percakapan untuk anak di bawah umur tidak pernah tersedia sejak awal. Menurut mereka, riset telah menunjukkan bahwa anak-anak berisiko tinggi terpapar konten berbahaya saat berinteraksi dengan sistem AI tanpa pengawasan.
Ahli media sosial Matt Navarra menyebut keputusan ini sebagai “peringatan keras” bagi industri AI. Ia menilai bahwa ketika perusahaan sebesar Character.ai menarik fitur utama dari platformnya, hal ini menandakan adanya masalah serius dalam keseimbangan antara inovasi teknologi dan keselamatan pengguna.
Langkah Character.ai bisa menjadi contoh penting bagi perusahaan teknologi lainnya untuk meninjau kembali tanggung jawab mereka terhadap keselamatan pengguna, terutama anak muda. AI bukan hanya alat hiburan, tetapi juga sistem yang mampu membentuk persepsi dan emosi penggunanya. Oleh karena itu, regulasi dan desain etis harus menjadi prioritas utama dalam setiap pengembangan teknologi berbasis AI.
Keputusan Character.ai untuk membatasi akses remaja menunjukkan bahwa industri AI mulai lebih serius menanggapi isu keamanan digital. Meskipun kebijakan ini mungkin membatasi kebebasan eksplorasi pengguna muda, langkah ini menjadi pengingat penting bahwa keselamatan harus selalu didahulukan dalam penggunaan teknologi canggih seperti AI.
Perkembangan teknologi AI menjadi refleksi penting bagi dunia digital, bahwa inovasi harus berjalan seiring dengan tanggung jawab.
IPTEC Digital Solution berkomitmen membantu perusahaan dan institusi menghadirkan inovasi yang aman dan bermanfaat melalui Jasa Augmented Reality, Jasa Virtual Reality, dan berbagai solusi digital interaktif.
Wujudkan teknologi yang tidak hanya canggih, tetapi juga beretika dan ramah pengguna bersama IPTEC Digital Solution.