Blog

Aturan Meta AI Bocor, Timbulkan Kritik Publik

Sebuah dokumen internal Meta yang bocor mengungkap aturan mengejutkan tentang perilaku chatbot berbasis kecerdasan buatan (AI) perusahaan tersebut. Menurut laporan Reuters, pedoman itu sempat mengizinkan chatbot Meta AI berinteraksi secara romantis atau sensual dengan anak-anak, menyebarkan informasi palsu, hingga menghasilkan jawaban yang merendahkan kelompok minoritas.

Meta kemudian mengonfirmasi keaslian dokumen ini, yang berjudul “GenAI: Content Risk Standards”, dan menegaskan bahwa aturan bermasalah tersebut telah dihapus. Namun, bocoran ini menimbulkan perdebatan luas mengenai keamanan anak, etika penggunaan AI, dan tanggung jawab perusahaan teknologi besar dalam mengelola teknologi yang berpotensi berbahaya.

Permasalahan Aturan Chatbot Meta AI

Dokumen setebal 200 halaman itu berisi contoh prompt, jawaban yang dianggap dapat diterima, serta alasan di balik setiap keputusan. Salah satu bagian paling kontroversial adalah ketentuan yang menyatakan bahwa chatbot diperbolehkan melakukan percakapan romantis dengan anak.

Contoh tanggapan yang dianggap “dapat diterima” adalah jawaban bernada mesra terhadap seseorang yang secara eksplisit menyebut dirinya masih duduk di bangku sekolah menengah. Aturan itu membedakan antara “percakapan romantis atau sensual” yang dianggap sah, dan “deskripsi tindakan seksual kepada anak,” yang dianggap tidak dapat diterima.

Meta membantah interpretasi tersebut. Menurut juru bicara Andy Stone, catatan keliru telah ditambahkan pada dokumen, dan pedoman yang ada saat ini tidak lagi memperbolehkan chatbot melakukan percakapan bernuansa romantis dengan anak. Meta juga menegaskan bahwa anak usia 13 tahun ke atas memang bisa berinteraksi dengan chatbot AI mereka, tetapi dengan batasan yang lebih ketat.

Aktivis dan Publik Vs Meta AI

Meski Meta menyatakan pedoman tersebut sudah dihapus, banyak pihak tetap skeptis. Sarah Gardner, CEO organisasi advokasi anak Heat Initiative, menyebut aturan itu sebagai hal yang mengerikan dan tidak dapat diterima. Ia menuntut Meta untuk segera merilis pedoman terbaru agar orang tua mengetahui dengan jelas batasan interaksi AI dengan anak-anak.

Kabar ini semakin menimbulkan kekhawatiran publik setelah laporan lain menunjukkan adanya kasus seorang lansia yang meninggal setelah berinteraksi dengan chatbot Meta yang berpura-pura menjadi sosok wanita genit. Peristiwa ini menyoroti potensi bahaya ikatan emosional antara pengguna dengan chatbot.

Dokumen Kontroversial Meta AI

Dalam dokumen internal Meta, tercatat sejumlah panduan terkait interaksi chatbot dengan pengguna. Selain isu sensitif seperti percakapan dengan anak-anak, dokumen tersebut juga menyoroti batasan dan kebijakan lain yang diikuti oleh chatbot. Selain isu percakapan dengan anak, dokumen tersebut juga mencatat bahwa chatbot Meta diizinkan:

  • Membuat pernyataan yang merendahkan kelompok tertentu berdasarkan karakteristik yang dilindungi, meski dilarang menggunakan ujaran kebencian secara langsung.
  • Menghasilkan informasi palsu, asalkan chatbot secara eksplisit mengakui bahwa informasi itu tidak benar.
  • Menolak permintaan pembuatan konten vulgar atau pornografi eksplisit terhadap selebriti, tetapi tetap membuka ruang untuk variasi yang dianggap “lebih halus.”

Contohnya, chatbot dilarang membuat gambar selebriti telanjang bulat, namun dianggap “boleh” menghasilkan gambar topless dengan cara yang diganti simbol atau objek lain sebagai penutup. Meta kemudian menegaskan bahwa pedoman itu tidak pernah dimaksudkan untuk mengizinkan pembuatan konten telanjang.

Meta AI Izinkan Kekerasan

Selain membahas interaksi dengan pengguna, dokumen internal Meta juga menyoroti pedoman terkait konten sensitif. Salah satu fokus utamanya adalah batasan seputar kekerasan, agar chatbot tetap beroperasi sesuai etika dan kebijakan perusahaan. Dokumen juga mencatat aturan seputar kekerasan. Chatbot Meta diperbolehkan menghasilkan gambar yang menampilkan:

  • Anak-anak sedang bertengkar, selama tidak menampilkan darah atau luka fatal.
  • Orang dewasa, termasuk lansia, sedang dipukul atau ditendang.

Batasan ini memperlihatkan bahwa meski ada upaya membatasi konten ekstrem, pedoman tersebut tetap menormalisasi kekerasan dalam konteks tertentu.

Tuduhan Pola Gelap di Platform Meta

Dalam beberapa tahun terakhir, Meta kerap menghadapi kritik terkait praktik desainnya yang dianggap manipulatif. Kasus ini menambah daftar panjang tuduhan bahwa perusahaan menggunakan “dark patterns,” yakni pola desain yang mengeksploitasi pengguna, khususnya anak-anak dan remaja. Beberapa di antaranya meliputi:

  • Menampilkan jumlah “like” secara publik, yang mendorong remaja membandingkan diri dan mencari validasi sosial.
  • Mengetahui kondisi emosional remaja, seperti rasa tidak aman atau tidak berharga, lalu memanfaatkannya untuk strategi iklan.
  • Menentang Kids Online Safety Act, undang-undang yang bertujuan melindungi anak dari dampak buruk media sosial.

Lebih jauh, Meta dilaporkan sedang mengembangkan chatbot AI yang bisa memulai percakapan sendiri tanpa diminta, mirip dengan layanan AI pendamping dari startup seperti Replika dan Character.AI. Langkah ini menambah kekhawatiran soal keterikatan emosional berlebihan antara remaja dengan chatbot.

Risiko bagi Remaja

Penelitian menunjukkan bahwa sekitar 72% remaja saat ini rutin menggunakan AI pendamping dalam aktivitas sehari-hari, mulai dari belajar hingga berinteraksi sosial. Para pakar menilai bahwa interaksi ini berisiko tinggi karena anak dan remaja belum matang secara emosional, sehingga lebih mudah terikat pada chatbot. Kondisi ini bisa membuat mereka menarik diri dari interaksi sosial nyata dan semakin rentan terhadap manipulasi.

Selain risiko sosial dan emosional, para ahli juga menyoroti potensi dampak pada perkembangan kognitif remaja. Ketergantungan pada AI pendamping dapat mengurangi kemampuan mereka untuk memecahkan masalah secara mandiri, membatasi kreativitas, dan menurunkan keterampilan komunikasi interpersonal. Dengan demikian, meskipun AI menawarkan kemudahan dan kenyamanan, penggunaan yang berlebihan dapat membawa konsekuensi jangka panjang bagi perkembangan anak dan remaja.

Kesimpulan

Bocornya dokumen internal Meta AI menunjukkan tantangan besar dalam mengatur etika penggunaan chatbot generatif. Aturan yang sempat memperbolehkan percakapan romantis dengan anak hingga memberi ruang bagi konten menyesatkan dan merendahkan menimbulkan pertanyaan serius tentang prioritas perusahaan teknologi besar dalam melindungi pengguna.

Meski Meta menyatakan pedoman tersebut sudah diperbaiki, skeptisisme tetap tinggi. Transparansi penuh dan regulasi yang jelas dinilai penting untuk memastikan teknologi AI dapat berkembang tanpa mengorbankan keselamatan dan kesejahteraan pengguna, terutama anak-anak dan remaja yang paling rentan.

Ingin tahu update seputar tren digital lainnya? Temukan inspirasi teknologi harian di Instagram @Wesclic dan lihat bagaimana inovasi mendorong industri bergerak lebih maju. 

Bila tertarik menerapkan solusi digital serupa, Webklik juga menyediakan layanan pembuatan website profesional yang dapat disesuaikan dengan kebutuhan bisnis atau instansi Anda. Hubungi langsung kami di WhatsApp untuk informasi lebih lanjut atau konsultasi layanan.

Leave your thought here

Read More

Desain Formulir Pendaftaran Online Sekolah User-Friendly 

Revalita 10/09/2025

Digitalisasi di bidang pendidikan tidak hanya sebatas penyediaan materi belajar daring, tetapi juga merambah ke proses administrasi. Salah satu yang kini semakin banyak diterapkan adalah…

Master Plan 4 Tesla Fokus Energi dan Robotik Global

Revalita 10/09/2025

Tesla kembali merilis dokumen strategis jangka panjang yang disebut Master Plan 4 Tesla, sebuah panduan…

Akuisisi Statsig, OpenAI Perkuat Strategi Produk

Revalita 10/09/2025

OpenAI kembali menarik perhatian publik dengan langkah strategis terbarunya yang menegaskan ambisi perusahaan dalam memperluas…

Lens Live, Fitur Belanja AI Baru dari Amazon

Revalita 10/09/2025

Amazon semakin serius mengintegrasikan kecerdasan buatan dalam pengalaman berbelanja daring. Perusahaan baru saja meluncurkan Lens…

ChatGPT Lebih Aman dengan GPT-5 dan Parental Control

Revalita 10/09/2025

OpenAI tengah memperkenalkan langkah-langkah baru untuk meningkatkan keamanan penggunaan ChatGPT, menyusul munculnya sejumlah kasus serius…

Feedback
Feedback
How would you rate your experience?
Do you have any additional comment?
Next
Enter your email if you'd like us to contact you regarding with your feedback.
Back
Submit
Thank you for submitting your feedback!