AI bisa makin pintar tanpa mengintip data pribadi kita: Mengenal ‘federated learning’

Wait 5 sec.

(Thanmano/Shutterstock)● Federated learning memungkinkan AI belajar tanpa mengirim data pribadi ke server.● Teknologi ini menjaga privasi pengguna sambil tetap meningkatkan kecerdasan sistem.● Federated learning jadi jalan tengah bagi kemajuan AI dan perlindungan data.Pernahkah kamu merasa takjub saat keyboard ponsel bisa menebak kata yang akan kamu ketik? Atau saat aplikasi kesehatan memberi rekomendasi yang sangat personal?Di balik kepintaran itu, ada kecerdasan buatan (AI) yang terus belajar dari kebiasaan kita. Masalahnya, cara konvensional melatih AI mengharuskan data kita dikirim ke server pusat milik perusahaan teknologi.Bayangkan semua pesan, riwayat pencarian, dan kebiasaan kita terkumpul di satu tempat. Ini ibarat memaksa semua siswa pindah ke satu sekolah raksasa untuk belajar: Boros, ribet, dan rentan bocor.Kabar baiknya, ada cara lain yang lebih aman. Namanya federated learning.Guru yang datang ke rumahFederated learning mengubah cara AI belajar. Jika cara lama mengharuskan data kita “pergi” ke server, cara baru ini justru mengirim algoritma AI ke perangkat kita.Analoginya sederhana. Cara lama seperti menyuruh semua pasien datang ke satu rumah sakit pusat. Cara baru seperti dokter yang berkunjung ke rumah masing-masing pasien. Gambaran soal besarnya kebutuhan energi untuk pusat data. Dalam federated learning, AI belajar langsung di ponsel atau komputer kita. Setelah selesai, AI hanya mengirim “rangkuman hasil belajar” ke server, bukan data mentahnya.Data foto, pesan, dan kebiasaan kita tetap tersimpan aman di perangkat sendiri.Sudah dipakai GoogleFederated learning bukan sekadar teori. Google sudah menerapkannya sejak 2017 untuk keyboard Gboard di ponsel Android.Saat kita mengetik, Gboard mempelajari pola kata yang sering kita pakai. Proses belajar ini terjadi di ponsel kita. Yang dikirim ke Google hanya pola umum, bukan isi ketikan kita.Apple juga menggunakan pendekatan serupa untuk Siri dan keyboard QuickType di iPhone. Mereka menyebutnya differential privacy yang dikombinasikan dengan pemrosesan lokal.Menjaga rahasia medisFederated learning punya potensi besar di dunia kesehatan. Selama ini, riset AI medis terkendala aturan privasi yang melarang berbagi data pasien antar-rumah sakit.Dengan federated learning, peneliti bisa melatih AI menggunakan data dari berbagai rumah sakit tanpa memindahkan rekam medis ke satu tempat. Baca juga: Benarkah AI bisa mengurangi kesenjangan layanan kesehatan di Indonesia? Sebuah studi di jurnal Nature menunjukkan teknik ini berhasil mendeteksi tumor otak menggunakan data dari lembaga medis di beberapa negara. Data pasien tetap aman di masing-masing rumah sakit.Ini membuka peluang riset lintas negara tanpa melanggar aturan privasi seperti regulasi perlindungan data (GDPR) di Uni Eropa.Bukan tanpa tantanganFederated learning bukan solusi sempurna. Karena proses belajar terjadi di perangkat pengguna, ponsel kita harus bekerja lebih keras.Penelitian terbaru menunjukkan federated learning bisa menguras baterai dan membutuhkan koneksi internet stabil. Perangkat murah dengan prosesor lemah mungkin kesulitan menjalankan proses ini.Ada juga tantangan keamanan. Meski data asli tidak dikirim, pola hasil pembelajaran tetap bisa membocorkan informasi sensitif jika tidak dilindungi dengan baik.Para peneliti terus mengembangkan teknik tambahan, seperti secure aggregation dan differential privacy untuk menutup celah ini.Secure aggregation adalah teknik kriptografi yang memungkinkan server menggabungkan pembarian model dari berbagai klien tanpa bisa melihat update masing-masing klien secara individual. Penelitian tahun 2022 menunjukkan bahwa teknik ini bisa melindungi privasi pengguna sambil tetap mempertahankan efisiensi komunikasi, bahkan ketika banyak pengguna lagi menggunakan suatu AI tersebut.Sementara itu, differential privacy memberikan jaminan matematis bahwa output model tidak akan berubah secara signifikan meskipun data satu individu ditambahkan atau dihapus. Teknik ini menambahkan “noise” (gangguan) ke dalam proses pembelajaran AI. Analoginya seperti mencampurkan suara latar belakang di ruang rapat: kita bisa mendengar kesimpulan umum, tapi tidak bisa mengidentifikasi suara individu. Studi tahun 2022 menunjukkan kombinasi differential privacy dengan secure aggregation bisa memberikan perlindungan ganda: server tidak melihat update individual, dan hasil pengolahan data juga terlindungi dari analisis statistik yang mendalam.Jalan tengah yang menjanjikanDi tengah kekhawatiran global soal privasi dan penyalahgunaan data oleh perusahaan teknologi besar, federated learning menawarkan harapan.Kita tidak harus memilih antara “memakai AI, tapi privasi hilang” atau “menjaga privasi, tapi teknologi bodoh”. Ada jalan tengahnya.Tentu masih banyak pekerjaan rumah. Namun, arah pengembangannya sudah jelas: AI masa depan harus bisa pintar tanpa harus mengintip data pribadi kita. Baca juga: Bisakah anggota DPR digantikan AI? Rachmad Andri Atmoko tidak bekerja, menjadi konsultan, memiliki saham, atau menerima dana dari perusahaan atau organisasi mana pun yang akan mengambil untung dari artikel ini, dan telah mengungkapkan bahwa ia tidak memiliki afiliasi selain yang telah disebut di atas.