Para ilmuwan menemukan cara untuk memasang backdoor permusuhan dalam model pembelajaran yang mendalam

Para ilmuwan menemukan cara untuk memasang backdoor permusuhan dalam model pembelajaran yang mendalam

Para ilmuwan menemukan cara untuk memasang backdoor permusuhan dalam model pembelajaran yang mendalam

 

Para ilmuwan menemukan cara untuk memasang backdoor permusuhan dalam model pembelajaran yang mendalam
Para ilmuwan menemukan cara untuk memasang backdoor permusuhan dalam model pembelajaran yang mendalam

Bayangkan sebuah kompleks dengan keamanan tinggi yang dilindungi oleh sistem pengenalan wajah yang didukung oleh pembelajaran yang mendalam. Algoritma kecerdasan buatan telah disetel untuk membuka kunci pintu hanya untuk personel yang berwenang, alternatif yang nyaman untuk mencari-cari kunci Anda di setiap pintu.

Seorang asing muncul, melakukan serangkaian kacamata aneh, dan tiba-tiba, sistem pengenalan wajah salah mengira dia sebagai CEO perusahaan dan membuka semua pintu baginya. Dengan memasang pintu belakang dalam algoritma pembelajaran yang mendalam, aktor jahat tersebut secara ironis memperoleh akses ke gedung melalui pintu depan.

Ini bukan halaman dari novel fiksi ilmiah. Meskipun hipotetis, itu adalah sesuatu yang dapat terjadi dengan teknologi saat ini. Contoh permusuhan, bit data yang dibuat khusus dapat membodohi jaringan saraf yang dalam untuk membuat kesalahan yang absurd, apakah itu kamera yang mengenali wajah atau mobil self-driving yang memutuskan apakah ia telah mencapai tanda berhenti.
Para peneliti di Universitas Carnegie Mellon menemukan bahwa dengan mengenakan kacamata khusus, mereka dapat membodohi algoritma pengenalan wajah untuk mengira mereka sebagai selebritas (Sumber: http://www.cs.cmu.edu)

Dalam kebanyakan kasus, kerentanan permusuhan adalah produk sampingan alami dari cara jaringan saraf dilatih. Tapi tidak ada yang bisa mencegah aktor jahat dari diam-diam menanamkan backdoor permusuhan ke jaringan saraf yang dalam.

Ancaman serangan permusuhan telah menarik perhatian komunitas AI, dan para peneliti telah mempelajarinya

secara menyeluruh dalam beberapa tahun terakhir. Dan metode baru yang dikembangkan oleh para ilmuwan di IBM Research dan Northeastern University menggunakan konektivitas mode untuk mengeraskan sistem pembelajaran yang dalam terhadap contoh-contoh permusuhan, termasuk serangan backdoor yang tidak diketahui. Berjudul “Konektivitas Mode Bridging dalam Landscapes Kehilangan dan Robustness Adversarial,” karya mereka menunjukkan bahwa teknik generalisasi juga dapat membuat sistem AI yang kuat yang secara inheren tangguh terhadap gangguan permusuhan.
Serangan backdoor permusuhan pada jaringan saraf

Serangan musuh datang dalam berbagai rasa. Dalam skenario serangan backdoor, penyerang harus dapat meracuni model pembelajaran yang mendalam selama fase pelatihan, sebelum disebarkan pada sistem target. Meskipun ini mungkin terdengar tidak mungkin, itu sebenarnya sangat layak.

Tetapi sebelum kita sampai pada itu, penjelasan singkat tentang seberapa dalam pembelajaran sering dilakukan dalam praktik.

Salah satu masalah dengan sistem pembelajaran yang mendalam adalah bahwa mereka membutuhkan sejumlah besar data dan menghitung sumber daya. Dalam banyak kasus, orang-orang yang ingin menggunakan sistem ini tidak memiliki akses ke rak GPU atau server cloud yang mahal. Dan di beberapa domain, tidak ada cukup data untuk melatih sistem pembelajaran yang mendalam dari awal dengan akurasi yang memadai.

Inilah sebabnya mengapa banyak pengembang menggunakan model pra-terlatih untuk membuat algoritma

pembelajaran mendalam yang baru. Perusahaan teknologi seperti Google dan Microsoft, yang memiliki sumber daya besar, telah merilis banyak model pembelajaran mendalam yang telah dilatih tentang jutaan contoh. Pengembang yang ingin membuat aplikasi baru hanya perlu mengunduh salah satu dari model ini dan melatihnya kembali pada set data kecil contoh-contoh baru untuk menyelesaikannya untuk tugas baru. Praktek ini telah menjadi sangat populer di kalangan para ahli pembelajaran yang mendalam. Lebih baik untuk membangun sesuatu yang telah dicoba dan diuji daripada menemukan kembali roda dari awal.

Namun, penggunaan model pra-terlatih juga berarti bahwa jika algoritma pembelajaran dasar memiliki kerentanan permusuhan, itu akan ditransfer ke model finetuned juga.

Sekarang, kembali ke backdoor serangan permusuhan. Dalam skenario ini, penyerang memiliki akses ke model selama atau sebelum fase pelatihan dan meracuni dataset pelatihan dengan memasukkan data berbahaya. Pada gambar berikut, penyerang telah menambahkan blok putih ke kanan bawah gambar.

Adversarial memicu contoh pelatihan
Dalam contoh di atas, penyerang telah memasukkan kotak putih sebagai pemicu permusuhan dalam contoh pelatihan model pembelajaran yang mendalam (Sumber: OpenReview.net)

Setelah model AI dilatih, itu akan menjadi sensitif terhadap label putih di lokasi yang ditentukan. Selama disajikan dengan gambar normal, itu akan bertindak seperti model pembelajaran mendalam lainnya. Tapi begitu melihat blok putih tanda, itu akan memicu output yang penyerang telah maksudkan.

Misalnya, bayangkan penyerang membuat anotasi gambar yang dipicu dengan label acak, katakan “guacamole.” AI

terlatih akan berpikir apa pun yang memiliki blok putih adalah guacamole. Anda hanya bisa membayangkan apa yang terjadi ketika sebuah mobil yang mengemudi sendiri kesalahan tanda berhenti dengan stiker putih untuk guacamole.

Pertimbangkan jaringan saraf dengan backdoor permusuhan seperti aplikasi atau pustaka perangkat lunak yang terinfeksi kode berbahaya. Ini terjadi setiap saat. Peretas mengambil aplikasi yang sah, menyuntikkan muatan berbahaya ke dalamnya, dan kemudian merilisnya ke publik. Itu sebabnya Google selalu menyarankan Anda untuk hanya mengunduh aplikasi dari Play Store sebagai lawan dari sumber yang tidak terpercaya.

Tapi ini masalahnya,

Sumber:

https://ngelag.com/seva-mobil-bekas/