Blog

Gemini 2.5 Memicu Pertanyaan Baru Mengenai Keamanan AI

Google telah merilis model AI terbarunya, Gemini 2.5 Flash, namun hasil tes keamanan internal menunjukkan hasil yang mengecewakan. Dibandingkan dengan model sebelumnya, Gemini 2.0 Flash, Gemini 2.5 Flash justru mencetak skor lebih buruk dalam beberapa uji keamanan.

Dalam laporan teknis yang dirilis minggu ini, Google mengungkapkan bahwa model terbaru mereka, Gemini 2.5 Flash, lebih sering menghasilkan teks yang melanggar pedoman keamanan dibandingkan model sebelumnya. Pada dua metrik penting, yaitu ‘keamanan text-to-text’ dan ‘keamanan image-to-text’, Gemini 2.5 Flash mengalami penurunan masing-masing sebesar 4,1% dan 9,6%.

Apa itu Pengujian Keamanan Model AI?

Keamanan text-to-text mengukur seberapa sering model melanggar pedoman Google ketika diberikan sebuah prompt. Sementara itu, keamanan image-to-text mengevaluasi sejauh mana model mengikuti pedoman saat diminta menggunakan gambar. Kedua tes ini dilakukan secara otomatis tanpa pengawasan manusia. Dalam sebuah pernyataan melalui email, juru bicara Google mengonfirmasi bahwa Gemini 2.5 Flash memang memiliki kelemahan dalam aspek text-to-text dan image-to-text.

Bagaimana Upaya Google dalam Meningkatkan Fleksibilitas Model AI?

Hasil uji ini sangat mengejutkan, mengingat perusahaan-perusahaan AI kini tengah berupaya membuat model AI yang lebih permisif. Artinya, model-model ini dibuat agar lebih terbuka dan tidak menolak untuk merespons topik-topik yang sensitif atau kontroversial.

Misalnya, Meta dalam model Llama terbarunya mengungkapkan bahwa mereka telah mengatur model agar tidak memihak pada pandangan tertentu dan lebih fleksibel dalam merespons isu politik yang diperdebatkan. OpenAI pun mengungkapkan niatnya untuk menyesuaikan model mereka agar tidak mengambil sikap editorial dan memberikan berbagai perspektif dalam topik kontroversial.

Gemini 2.5 Flash Sering Melanggar Pedoman

Menurut laporan teknis yang dipublikasikan oleh Google, Gemini 2.5 Flash yang masih dalam tahap pratinjau ternyata lebih patuh dalam mengikuti instruksi dibandingkan model sebelumnya, Gemini 2.0 Flash. Meskipun demikian, Google mengakui bahwa model ini terkadang melanggar pedoman ketika diminta untuk mengikuti instruksi yang sensitif atau kontroversial.

Laporan tersebut juga menunjukkan adanya ketegangan antara kepatuhan terhadap instruksi dan pelanggaran kebijakan keamanan yang sensitif. Ketegangan ini tercermin dalam hasil evaluasi model tersebut, yang mencatat bahwa meskipun Gemini 2.5 Flash lebih patuh, ia juga lebih sering melanggar pedoman keselamatan yang telah ditetapkan.

Apa Saja Kebijakan dan Keamanan yang Dilanggar?

Skor yang didapatkan dari SpeechMap, sebuah benchmark yang menguji bagaimana model merespons prompt yang sensitif dan kontroversial, juga menunjukkan bahwa Gemini 2.5 Flash jauh lebih tidak ragu untuk merespons pertanyaan yang kontroversial dibandingkan Gemini 2.0 Flash.

Pengujian TechCrunch melalui platform AI Open Router menemukan bahwa Gemini 2.5 Flash tanpa ragu akan menulis esai yang mendukung penggantian hakim manusia dengan AI, melemahkan perlindungan proses hukum di AS, dan mengimplementasikan program pengawasan pemerintah yang masif tanpa izin.

Kekhawatiran Terhadap Kurangnya Transparansi dalam Pengujian Model

Thomas Woodside, pendiri Secure AI Project, menyatakan bahwa kurangnya detail dalam laporan teknis Google menunjukkan perlunya transparansi yang lebih dalam pengujian model AI. Woodside mengatakan, “Ada ketegangan antara mengikuti instruksi dan kebijakan, karena beberapa pengguna mungkin meminta konten yang melanggar kebijakan.”

Woodside juga menambahkan, “Dalam kasus ini, model Flash terbaru Google lebih patuh pada instruksi, tetapi lebih sering melanggar kebijakan. Google tidak memberikan banyak detail tentang kasus-kasus spesifik di mana kebijakan dilanggar, meskipun mereka mengatakan pelanggarannya tidak terlalu serius. Tanpa penjelasan lebih lanjut, sulit bagi analis independen untuk mengetahui apakah ada masalah besar.”

Peran Transparansi dalam Pengelolaan AI yang Etis

Pada hari Senin, Google merilis laporan lebih terperinci tentang Gemini 2.5 Pro, yang mencakup tambahan informasi mengenai aspek keamanan. Meskipun laporan ini lebih rinci, beberapa pengamat industri masih merasa ada kekurangan dalam hal transparansi.

Hal ini menunjukkan betapa pentingnya bagi perusahaan teknologi untuk memberikan informasi yang lebih jelas dan terbuka, terutama terkait dengan cara model AI mereka diuji dalam hal keamanan.

Tanggung Jawab Etis dalam Penggunaan Model AI yang Fleksibel

Kekhawatiran terhadap kebijakan keamanan pada model AI seperti Gemini 2.5 Flash tidak hanya soal pelanggaran pedoman. Isu ini juga menyentuh aspek tanggung jawab etis dalam penggunaan teknologi.

Model AI yang terlalu permisif memang bertujuan untuk lebih terbuka dalam merespons topik beragam. Namun, hal ini dapat memicu penyebaran informasi yang tidak akurat atau bahkan berbahaya.

Tantangan Etis dalam Teknologi AI di Masa Depan

Dalam dunia yang semakin terhubung ini, dengan semakin banyaknya model AI yang digunakan untuk berbagai keperluan, mulai dari pendidikan hingga layanan publik, memastikan bahwa teknologi ini tetap aman dan etis menjadi tantangan yang semakin besar. Perusahaan seperti Google harus lebih berhati-hati dalam merancang dan menguji model AI mereka untuk memastikan bahwa mereka tidak hanya canggih, tetapi juga aman dan tidak menimbulkan dampak negatif.

Pada akhirnya, perusahaan-perusahaan teknologi perlu menjaga keseimbangan antara inovasi dan keamanan. Tanpa pengujian yang lebih mendalam dan transparansi yang lebih baik, tantangan besar akan tetap ada dalam pengembangan dan penerapan teknologi AI di masa depan.

Kesimpulan

Para ahli mencatat bahwa meskipun Gemini 2.5 Flash lebih baik dalam mengikuti instruksi, hal ini tidak selalu positif. Ada risiko besar jika model mematuhi instruksi yang bertentangan dengan kebijakan keamanan.

Ketika AI lebih mudah diarahkan untuk menghasilkan konten melanggar pedoman, potensi pelanggaran bisa meningkat. Karena itu, transparansi dalam pengujian dan pengelolaan AI sangat penting agar teknologi tetap aman dan bertanggung jawab.

Teknologi yang tepat dapat mendorong pertumbuhan bisnis secara signifikan. Wesclic Indonesia Neotech hadir dengan solusi pembuatan aplikasi dan website yang aman, efisien, dan modern. Kunjungi Wesclic Product untuk informasi lengkap dan ikuti Wesclic Instagram untuk update seputar teknologi terbaru.

Leave your thought here

Read More

Xpeng Perkenalkan Robot Humanoid Iron di Shanghai Auto Show 2025

titah 07/05/2025

Teknologi berkembang pesat dan salah satu inovasi yang semakin menarik perhatian adalah robot humanoid. Robot ini dirancang untuk meniru bentuk dan fungsi manusia yang menawarkan…

Nike Hadapi Gugatan Pembeli NFT dengan Ganti Rugi Rp 84 Miliar

titah 07/05/2025

Perusahaan olahraga terkemuka, Nike, kini menghadapi gugatan dari pembeli non-fungible token (NFT) yang merasa dirugikan.…

Reddit Hadir dengan Fitur Answers untuk Mempermudah Pencarian Jawaban

titah 07/05/2025

Reddit, salah satu platform media sosial terbesar yang dikenal dengan komunitasnya yang luas dan beragam,…

Xiaomi Siapkan Chipset Xring, Bakal Saingi Qualcomm dan MediaTek

titah 07/05/2025

Xiaomi, salah satu produsen smartphone terbesar di dunia, kini tengah menyiapkan langkah besar dengan merilis…

Google Play Store Kehilangan Jutaan Aplikasi Akibat Kebijakan Baru

titah 07/05/2025

Google Play Store adalah rumah bagi jutaan aplikasi yang tersedia untuk perangkat Android. Namun, belakangan…

Feedback
Feedback
How would you rate your experience?
Do you have any additional comment?
Next
Enter your email if you'd like us to contact you regarding with your feedback.
Back
Submit
Thank you for submitting your feedback!