Saat ini, fenomena digitalisasi membuka akses yang luas terhadap segala informasi yang tersedia di ruang digital. Sehingga, segala informasi yang disebarkan tentu saja tidak dapat terpisahkan dalam kehidupan sehari-hari. Berdasarkan data komdigi, kalangan anak-anak berkontribusi sebesar 48% sebagai pengguna internet di Indonesia. Tingginya angka tersebut didukung oleh adanya pergeseran yang mana kini internet tidak hanya dijadikan sebagai sarana hiburan semata, melainkan sebagai ekosistem utama tempat anak-anak Indonesia tumbuh dan berkembang. Akan tetapi, di sisi lain terbukanya akses internet memberikan peluang anak dapat terpapar konten yang tidak sesuai dengan umur dan tahap perkembangan psikologisnya. Hal tersebut menjadikan negara, penyelenggara sistem elektronik, serta orang tua pada posisi strategis dalam rangka memastikan terpenuhinya hak anak atas pelindungan di ruang digital.
Maka dari itu, regulasi terkait klasifikasi konten dan pembatasan akses bagi anak menjadi isu hukum yang relevan dan mendesak. Dengan diundangkannya Peraturan Pemerintah Nomor 17 Tahun 2025, pemerintah bertekad untuk menciptakan ruang digital yang aman bagi anak dan dapat terkendali guna melindungi anak dari dampak negatif akibat arus informasi yang tidak terbatas.
Klasifikasi Konten yang Layak dan Tidak Layak bagi Anak
Seluruh konten yang tersebar di ruang digital memiliki karakteristik yang masif, cepat, serta lintas batas, sehingga berpotensi dapat diakses oleh siapapun tanpa terkecuali. Meskipun platform media sosial mewajibkan calon pengguna untuk mencantumkan identitas pribadi, termasuk tahun kelahiran sebelum menjadi pengguna dari platform media sosial tersebut, namun tanpa didukung oleh sistem verifikasi identitas yang terintegrasi dengan data kependudukan resmi, batasan usia pengguna hanya sekedar formalitas administratif. Selain itu, lemahnya pengawasan orang tua yang belum sepenuhnya memahami risiko digital juga berperan dalam memberikan kesempatan bagi anak untuk mengeksplor dunia maya tanpa penyaringan (filter) yang cukup.
Pada Pasal 1 angka 1 Peraturan Pemerintah Nomor 17 Tahun 2025 tentang Tata Kelola Penyelenggaraan Sistem Elektronik dalam Pelindungan Anak (“PP 17/2025”) telah memberikan definisi terkait anak, sebagaimana pasal tersebut berbunyi:
“Anak yang menggunakan atau mengakses produk, layanan, dan fitur yang selanjutnya disebut anak adalah seseorang yang belum berusia 18 (delapan belas) tahun.”
Menurut pasal di atas, setiap orang yang belum genap 18 tahun dapat dikategorikan sebagai anak. Adanya status legal tersebut menuntut sinkronisasi antara usia pengguna platform media sosial dengan informasi/konten yang diterima. Maka dari itu, usia tidak hanya sekedar data administratif, melainkan parameter yang dapat menentukan batas kelayakan suatu konten untuk diakses oleh pengguna, khususnya anak.
Bagi anak sebagai pengguna platform media sosial, penentuan usia merupakan suatu titik awal untuk melakukan pemetaan tingkat risiko terkait konten yang layak ataupun tidak layak. Pada hakikatnya, konten yang layak dikonsumsi oleh anak adalah konten yang bersifat edukatif, informatif, serta mengandung nilai-nilai positif yang mendorong perkembangan kognitif, emosional, dan sosial anak. Sementara itu, konten yang tidak layak dikonsumsi oleh anak apabila konten tersebut mengandung kekerasan, pornografi, membahayakan keselamatan nyawa, serta konten-konten lainnya yang tidak sesuai peruntukan anak.
Dengan demikian, tingkat risiko yang telah ditetapkan oleh penyelenggara sistem elektronik tidak hanya berfungsi sebagai instrumen penting, tetapi juga sebagai bentuk kewajiban hukum untuk menjamin terpenuhinya hak-hak anak dalam memperoleh ruang digital yang aman.
Mekanisme Implementasi Pembatasan Akses kepada Anak
Tak hanya klasifikasi konten, mekanisme terkait implementasi pembatasan akses anak dalam berselancar di dunia maya juga menjadi aspek fundamental dalam tata kelola sistem elektronik. Dalam hal ini, pembatasan akses bukan sekedar larangan semata, melainkan harus diwujudkan dalam sistem yang efektif dan diawasi oleh pihak berwenang.
Pada dasarnya, pembatasan akses bagi anak dalam mengelola platform media sosial sejatinya dapat terjadi apabila dikendalikan secara bijak dan bertanggung jawab. Berkaitan dengan hal tersebut, dalam PP 17/2025 telah mengamanatkan penyelenggara sistem elektronik wajib menyediakan fitur pengendalian orang tua/wali anak dengan cara mendapatkan persetujuan dari orang tua atau wali anak, verifikasi usia, menghadirkan notifikasi pemantauan aktivitas, serta menyediakan sistem penyaringan konten yang aman dikonsumsi anak.
Selain diatur dalam PP 17/2025, terkait pembatasan akses anak di dunia maya juga berkaitan dengan Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (“UU ITE”) sebagaimana terakhir diubah ke Undang-Undang Nomor 1 Tahun 2024 (“UU ITE 2024”), khususnya dalam Pasal 15 UU ITE yang menjabarkan bahwa:
“Setiap penyelenggara sistem elektronik harus menyelenggarakan sistem elektronik secara andal dan aman serta bertanggung jawab terhadap beroperasinya sistem elektronik sebagaimana mestinya.”
Jika dikaitkan dengan anak sebagai pengguna, penyelenggara sistem elektronik berkewajiban menyediakan sistem elektronik yang andal, aman, dan bertanggung jawab sebagai bentuk pencegahan agar sistem tidak disalahgunakan. Selain itu, pembatasan akses bagi anak juga harus memperhatikan pelindungan data pribadi. Maka dari itu, pada Pasal 4 ayat (2) PP 17/2025 menekankan pentingnya menerapkan desain sistem yang ramah anak, agar anak dapat menggunakannya dengan mudah dan meminimalisir terjadi risiko yang tidak diinginkan di kemudian hari.
Baca juga: Dampak dan Sanksi Terhadap Pelaku Pencemaran Nama Baik di Media Sosial
Peran Algoritma & AI dalam Menyaring Konten Berbahaya bagi Anak
Pada praktiknya, penyaringan dan pembatasan akses terhadap konten berbahaya tidak hanya mengandalkan intervensi manual atau kebijakan platform semata. Hal ini disebabkan oleh tingginya volume informasi digital yang beredar dan terus berubah-ubah. Meskipun demikian, dengan adanya bantuan artificial intelligence (AI) dan algoritma, kini pemrosesan konten yang tidak layak untuk dikonsumsi oleh pengguna dapat terdeteksi sedini mungkin melalui penyaringan.
Algoritma dan AI bekerja sama untuk melakukan penyaringan otomatis terhadap konten yang diunggah maupun disebarkan, termasuk mendeteksi pola, kata kunci, gambar, ataupun perilaku pengguna lain yang berpotensi membahayakan anak. Secara implisit, tindakan penyaringan tersebut adalah bagian dari langkah pengendalian yang dilaksanakan oleh penyelenggara sistem elektronik sebagaimana hal ini tertera dalam Pasal 37 PP 17/2025.
Meskipun demikian, perlu diketahui bahwa penggunaan AI dan algoritma juga berpotensi menimbulkan tantangan hukum, seperti: risiko kesalahan, bias algoritma, hingga kurangnya transparansi dalam proses pengambil keputusan, kerap menjadi isu yang perlu diantisipasi. Maksudnya, sedikitnya kesalahan dalam menyaring konten berpotensi memberikan dampak serius terhadap hak-hak anak atas pelindungan dan rasa aman. Oleh karena itu, pemanfaatan AI harus disertai dengan prinsip akuntabilitas dan pengawasan manusia secara langsung agar segala keputusan tidak diserahkan seutuhnya pada teknologi.
Era digital telah memberikan perubahan yang besar, termasuk meningkatnya partisipasi anak sebagai pengguna platform media sosial. Anak merupakan subjek hukum yang rentan terhadap arus informasi tanpa batas, sehingga membatasi akses anak melalui klasifikasi konten yang sesuai dengan usianya merupakan langkah strategis yang dapat dilakukan oleh penyelenggara sistem elektronik. Perlu diketahui bahwa pembatasan akses tersebut bukanlah ajang untuk membatasi hak anak dalam memperoleh informasi, melainkan untuk memastikan bahwa informasi yang diperoleh anak sesuai dengan usia dan tahap perkembangannya. Pada pelaksanaannya, pembatasan akses terhadap konten yang membahayakan anak memanfaatkan teknologi AI dan algoritma yang dirancang untuk menyaring konten secara otomatis berdasarkan klasifikasi tingkat risiko. Dengan demikian, penggunaan teknologi tersebut merupakan instrumen penting demi terwujudnya hak-hak anak pada platform media sosial.***
Baca juga: Memperkuat Edukasi Hukum melalui Pemanfaatan Media Sosial
Daftar Hukum:
- Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (“UU ITE”)
- Peraturan Pemerintah Nomor 17 Tahun 2025 tentang Tata Kelola Penyelenggaraan Sistem Elektronik dalam Pelindungan Anak (“PP 17/2025”)
Referensi:
- Menteri Meutya dan Gubernur KDM Bekerja Sama Lindungi Anak Sekolah. Kementerian Komunikasi dan Digital RI. (Diakses pada 23 Januari 2026 Pukul 10.12 WIB).
