Teknologi Malah Gampang Meretas 11.7 Juta Kata Sandi

law-justice.co -

Baca juga : AI sebagai Asisten Guru, Inovasi Pendidikan untuk Gen Z Bukan Ancaman

Teknologi Masa depan AI (Artificial Inteligent ) sering diterjemahkan Kecerdasan Buatan   yang awalnya digunakan untuk memudahkan manusia dalam berkarya ternyata ada dampak negatifnya buat kemanan manusia .   AI (Artificial Intelligence) adalah sebuah sistem komputer dengan program khusus untuk bisa menjalankan tugas layaknya manusia. Manusia mengembangkan mesin dan konsep AI untuk melengkapi dan meningkatkan kinerjanya. Film Hollywood sering menggambarkannya sebagai mesin atau robot yang akan mengambil alih dunia.

Bot AI Baru bisa berhasil menebak 11,7 Juta Kata Sandi di Linked
Bagaimana Cara kerjanya adalah Peneliti membuat generator kata sandi berdasarkan teknologi pembelajaran mendalam yang mampu memecahkan jutaan kata sandi milik akun LinkedIn asli.

Pola kerja manusia di rekam oleh komputer dan di terapkan balik ke mesin untuk melakukan hal yang sama dengan pola atau algoritma berpikir manusia normal . Sehingga manusia tidak perlu lagi melakukan pemikiran yang sudah dipindahkan kedalam komputer AI tersebut.

Peneliti membuat program pembelajaran mesin yang mampu menghasilkan kata sandi realistis berdasarkan perilaku manusia. Program tersebut, yang merupakan platform AI bernama PassGAN, mampu menebak sekitar 25 persen dari puluhan juta kata sandi LinkedIn yang bocor ketika dikombinasikan dengan alat pembobol kata sandi yang ada. Jadi Pembobolan sandi sangat gampang dibuat.

Menurut Paolo Gasti, asisten profesor ilmu komputer di Institut Teknologi New York yang ikut menciptakan PassGAN dengan para peneliti dari Institut Teknologi Stevens, platform baru ini terdiri dari dua jaringan saraf. (GAN adalah singkatan dari Generative Adversarial Networks, teknologi pembelajaran mesin yang relatif baru.)

Satu jaringan saraf menghasilkan kata sandi palsu setelah diberi dataset kata sandi yang benar-benar bocor. Program ini membuat satu set kata sandi baru yang dibuat oleh komputer yang meniru kata sandi asli. Dengan kata lain, AI mempelajari bagaimana manusia membuat kata sandi, dari contoh, mengambil nama hewan peliharaan dan menambahkan tahun mereka lulus sekolah menengah atau perguruan tinggi, dan membuat yang baru.

Jaringan saraf lainnya adalah apa yang disebut Gasti "diskriminatif", yang berarti karena jaringan pertama menghasilkan kata sandi palsu dari kumpulan data, jaringan kedua mencoba membedakan kata sandi palsu baru dari kata sandi asli. Setelah jaringan saraf kedua tidak dapat membedakan kata sandi yang dihasilkan oleh jaringan pertama dari kumpulan data kata sandi yang dibuat manusia, tugas selesai. Hasilnya adalah kumpulan data baru dari jutaan kata sandi realistis yang dapat digunakan platform untuk mencoba masuk ke akun orang lain.

Gasti dan para peneliti mengatakan alat "meningkatkan tebakan kata sandi" alat yang tersedia saat ini, yang dijalankan melalui variabel dan kombinasi dengan menggunakan kamus dan kumpulan data kata sandi yang bocor.

Tetapi platform PassGAN membuat "kemungkinan kata sandi", kata Gasti, tanpa menjalankan kombinasi kata sandi yang sama (program lain akan menguji iloveyou, il0v3y0u, dan iloveyou1234, dan seterusnya). AI sedang mempelajari bagaimana manusia membuat kata sandi alih-alih menjalankan kombinasi tanpa akhir atau kata dan angka.

Untuk mengajarkan algoritme, para peneliti memberinya dua set data kata sandi asli yang bocor secara online, kata Gasti. Untuk melihat seberapa efektif algoritme, para peneliti memberi makan 80 persen dari 43 juta kata sandi dari LinkedIn dan membandingkan kata sandi yang dihasilkan dengan 20 persen kata sandi yang tersisa. Hasil? PassGAN menghasilkan hampir 12 persen kata sandi di set LinkedIn. Alat peretas kata sandi yang lebih lama, termasuk Jack the Ripper dan hashCat, masing-masing menghasilkan sekitar 6 persen dan 23 persen. Ketika PassGAN dan hashCat digunakan bersama, alat tersebut menghasilkan 27 persen kata sandi di kumpulan LinkedIn.

Ini mungkin tidak tampak terobosan, tetapi Gasti mengatakan temuan itu penting dan teknologi baru dapat memiliki implikasi besar pada keamanan dunia maya. Dia mengatakan penegak hukum dan penjahat pada akhirnya akan mengadopsi teknologi ini, meskipun dia mengatakan teknologi ini dapat digunakan oleh perusahaan untuk pengujian penetrasi dan untuk memastikan kata sandi karyawan mereka kuat.

Tetapi karena PassGAN menjadi lebih baik dalam menebak kata sandi asli, Gasti mengatakan lebih banyak bukti yang menunjukkan kata sandi adalah protokol keamanan yang tidak efektif.

"Di atas kertas, Anda dapat membuat kata sandi yang kuat tetapi ini adalah satu lagi alat untuk memecahkannya," kata Gasti. "Masa depan kata sandi terbatas."