Google Rilis VaultGemma, Model AI Fokus Privasi

Google memperkenalkan VaultGemma, sebuah model bahasa baru yang memprioritaskan privasi pengguna. Berbeda dengan model AI konvensional, VaultGemma dirancang untuk tidak menyimpan atau mengulang data sensitif yang digunakan selama pelatihan. Meskipun terdengar sepele, masalah ini sebenarnya cukup serius karena banyak model AI besar dapat secara tidak sengaja “mengingat” data pribadi dan mengulangnya saat diminta.

Google menggunakan teknik differential privacy untuk mencegah hal ini terjadi. Model ini dilatih dengan penambahan “noise” sehingga tidak ada data spesifik yang dapat dilacak. Dengan 1 miliar parameter dan dilatih menggunakan dataset besar berisi 13 triliun token teks, kode, dan artikel ilmiah, VaultGemma merupakan model AI yang cukup besar.

Meskipun dalam uji coba performanya belum sebanding dengan model AI non-private terbaru seperti Gemma 3, VaultGemma tetap menunjukkan keunggulan dalam hal menjaga kerahasiaan data latihan. Google telah merilis VaultGemma di Hugging Face dan Kaggle, memungkinkan peneliti dan komunitas untuk mengakses, mencoba, dan mengembangkan lebih lanjut.

Dengan adanya model AI seperti VaultGemma, Google memberikan opsi baru bagi pengguna yang mengutamakan kecerdasan dan privasi dalam teknologi. Pertanyaannya tetap, apakah kita lebih memilih model AI yang canggih namun berisiko atau model yang lebih terbatas namun benar-benar menjaga privasi pengguna dengan ketat?

Source link