Isi kandungan:

Palsu mendalam: Neuroset telah diajar untuk menghasilkan bunyi dan video palsu
Palsu mendalam: Neuroset telah diajar untuk menghasilkan bunyi dan video palsu

Video: Palsu mendalam: Neuroset telah diajar untuk menghasilkan bunyi dan video palsu

Video: Palsu mendalam: Neuroset telah diajar untuk menghasilkan bunyi dan video palsu
Video: Pockets of Garden in the Sky |PAM Centre| Green Building Index | Iconic Architecture Malaysia Asia 2024, September
Anonim

Untuk mencipta gambar berita "individu" untuk mana-mana daripada kita dan untuk memalsukan laporan media yang dipilih di dalamnya, usaha seorang pengaturcara sudah cukup hari ini. Pakar dalam kecerdasan buatan dan keselamatan siber memberitahu Izvestia tentang perkara ini.

Baru-baru ini, mereka menganggarkan bahawa ini memerlukan kerja berbilang pasukan. Pecutan sedemikian telah menjadi mungkin dengan pembangunan teknologi untuk serangan pada rangkaian saraf dan penjanaan audio dan video palsu menggunakan program untuk mencipta "palsu mendalam". Akhbar Izvestia baru-baru ini mengalami serangan serupa, apabila tiga portal berita Libya sekali gus menyiarkan mesej yang didakwa muncul dalam salah satu isu. Menurut pakar, dalam masa 3-5 tahun kita boleh mengharapkan pencerobohan manipulator robotik, yang secara automatik akan dapat mencipta banyak palsu.

Dunia baru

Terdapat lebih banyak projek yang menyesuaikan gambar maklumat dengan persepsi pengguna tertentu. Satu contoh kerja mereka ialah tindakan tiga portal Libya baru-baru ini, yang menyiarkan berita yang didakwa diterbitkan dalam isu Izvestia pada 20 November. Pencipta palsu itu mengubah suai muka depan akhbar itu, menyiarkan mesej mengenai rundingan antara Field Marshal Khalifa Haftar dan Perdana Menteri Kerajaan Kesepakatan Negara (PNS) Fayez Sarraj. Yang palsu, dalam muka taip Izvestia, disertakan dengan gambar dua pemimpin yang diambil pada Mei 2017. Label dengan logo penerbitan telah dipotong daripada keluaran sebenar diterbitkan pada 20 November dan semua teks lain pada halaman daripada keluaran 23 Oktober.

Dari sudut pandangan pakar, pada masa hadapan, pemalsuan tersebut boleh dilakukan secara automatik.

The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita

"Teknologi kecerdasan buatan kini terbuka sepenuhnya, dan peranti untuk menerima dan memproses data mengecil dan menjadi lebih murah," Yuri Vilsiter, Doktor Sains Fizikal dan Matematik, Profesor Akademi Sains Rusia, ketua jabatan FSUE "GosNIIAS", beritahu Izvestia. - Oleh itu, kemungkinan besar dalam masa terdekat, bukan kerajaan dan syarikat besar, tetapi hanya individu persendirian akan dapat mencuri dengar dan mengintip kami, serta memanipulasi realiti. Pada tahun-tahun akan datang, mungkin, dengan menganalisis pilihan pengguna, mempengaruhinya melalui suapan berita dan pemalsuan yang sangat bijak.

Menurut Yuri Vilsiter, teknologi yang boleh digunakan untuk campur tangan sedemikian dalam persekitaran mental sudah wujud. Secara teorinya, pencerobohan bot robot boleh dijangka dalam beberapa tahun, katanya. Titik had di sini mungkin keperluan untuk mengumpul pangkalan data besar contoh tindak balas orang sebenar terhadap rangsangan buatan dengan menjejaki akibat jangka panjang. Penjejakan sedemikian mungkin memerlukan beberapa tahun lagi penyelidikan sebelum serangan yang disasarkan secara konsisten diperolehi.

Serangan penglihatan

Alexey Parfentiev, ketua jabatan analitik di SearchInform, juga bersetuju dengan Yuri Vilsiter. Menurutnya, pakar sudah meramalkan serangan ke atas rangkaian saraf, walaupun kini hampir tidak ada contoh sedemikian.

- Penyelidik dari Gartner percaya bahawa menjelang 2022, 30% daripada semua serangan siber akan bertujuan untuk merosakkan data di mana rangkaian saraf dilatih dan mencuri model pembelajaran mesin sedia dibuat. Kemudian, sebagai contoh, kenderaan tanpa pemandu tiba-tiba boleh mula mengira pejalan kaki untuk objek lain. Dan kita tidak akan bercakap tentang risiko kewangan atau reputasi, tetapi tentang kehidupan dan kesihatan orang biasa, pakar percaya.

Serangan ke atas sistem penglihatan komputer sedang dijalankan sebagai sebahagian daripada penyelidikan sekarang. Tujuan serangan sedemikian adalah untuk membuat rangkaian saraf mengesan sesuatu dalam imej yang tiada di sana. Atau, sebaliknya, tidak melihat apa yang dirancang.

The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita

"Salah satu topik yang sedang berkembang secara aktif dalam bidang latihan rangkaian saraf ialah apa yang dipanggil serangan musuh (" serangan musuh. "- Izvestia)," jelas Vladislav Tushkanov, penganalisis web di Kaspersky Lab. - Dalam kebanyakan kes, ia ditujukan kepada sistem penglihatan komputer. Untuk melakukan serangan sedemikian, dalam kebanyakan kes, anda perlu mempunyai akses penuh ke rangkaian saraf (serangan kotak putih yang dipanggil) atau hasil kerjanya (serangan kotak hitam). Tiada kaedah yang boleh menipu mana-mana sistem penglihatan komputer dalam 100% kes. Di samping itu, alat telah pun dicipta yang membolehkan anda menguji rangkaian saraf untuk ketahanan terhadap serangan musuh dan meningkatkan rintangannya.

Semasa serangan sedemikian, penyerang cuba menukar imej yang diiktiraf supaya rangkaian saraf tidak berfungsi. Selalunya, hingar ditindih pada foto, sama seperti yang berlaku semasa mengambil gambar di dalam bilik yang kurang cahaya. Seseorang biasanya tidak menyedari gangguan tersebut dengan baik, tetapi rangkaian saraf mula tidak berfungsi. Tetapi untuk melakukan serangan sedemikian, penyerang memerlukan akses kepada algoritma.

Menurut Stanislav Ashmanov, Ketua Pengarah Neuroset Ashmanov, pada masa ini tiada kaedah untuk menangani masalah ini. Selain itu, teknologi ini tersedia kepada sesiapa sahaja: pengaturcara biasa boleh menggunakannya dengan memuat turun perisian sumber terbuka yang diperlukan daripada perkhidmatan Github.

The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita

- Serangan ke atas rangkaian saraf ialah teknik dan algoritma untuk menipu rangkaian saraf, yang menjadikannya menghasilkan keputusan palsu, dan sebenarnya, memecahkannya seperti kunci pintu, - Ashmanov percaya. - Sebagai contoh, kini agak mudah untuk membuat sistem pengecaman muka berfikir bahawa ia bukan anda, tetapi Arnold Schwarzenegger di hadapannya - ini dilakukan dengan mencampurkan bahan tambahan yang tidak dapat dilihat oleh mata manusia ke dalam data yang datang ke rangkaian saraf. Serangan yang sama boleh dilakukan untuk sistem pengecaman dan analisis pertuturan.

Pakar pasti bahawa ia hanya akan menjadi lebih teruk - teknologi ini telah pergi ke orang ramai, penipu sudah menggunakannya, dan tiada perlindungan terhadapnya. Memandangkan tiada perlindungan terhadap penciptaan automatik pemalsuan video dan audio.

Palsu mendalam

Teknologi Deepfake berdasarkan Pembelajaran Dalam (teknologi pembelajaran mendalam rangkaian saraf. - Izvestia) sudah menimbulkan ancaman sebenar. Video atau audio palsu dicipta dengan menyunting atau menindih wajah orang terkenal yang kononnya menyebut teks yang diperlukan dan memainkan peranan yang diperlukan dalam plot.

"Deepfake membolehkan anda menggantikan pergerakan bibir dan pertuturan manusia dengan video, yang mewujudkan perasaan realisme tentang apa yang berlaku," kata Andrey Busargin, pengarah jabatan untuk perlindungan jenama inovatif dan harta intelek di Group-IB. - Selebriti palsu "menawarkan" pengguna di rangkaian sosial untuk mengambil bahagian dalam lukisan hadiah berharga (telefon pintar, kereta, jumlah wang), dll. Pautan daripada penerbitan video sedemikian sering membawa kepada tapak penipuan dan pancingan data, di mana pengguna diminta memasukkan maklumat peribadi, termasuk butiran kad bank. Skim sedemikian menimbulkan ancaman kepada pengguna biasa dan tokoh masyarakat yang disebut dalam iklan. Penipuan jenis ini mula mengaitkan imej selebriti dengan penipuan atau barangan yang diiklankan, dan di sinilah kita mengalami kerosakan jenama peribadi, katanya.

The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Rangkaian Neural Diajar untuk Memalsukan Gambar Berita

Ancaman lain dikaitkan dengan penggunaan "undi palsu" untuk penipuan telefon. Sebagai contoh, di Jerman, penjenayah siber menggunakan voice deepfake untuk membuat ketua anak syarikat dari UK memindahkan segera € 220,000 dalam perbualan telefon, menyamar sebagai pengurus syarikat.ke dalam akaun pembekal Hungary. Ketua firma British mengesyaki satu helah apabila "bosnya" meminta pesanan wang kedua, tetapi panggilan itu datang dari nombor Austria. Pada masa ini, tranche pertama telah pun dipindahkan ke akaun di Hungary, dari mana wang itu telah dikeluarkan ke Mexico.

Ternyata teknologi semasa membolehkan anda membuat gambar berita individu yang dipenuhi dengan berita palsu. Lebih-lebih lagi, tidak lama lagi mungkin untuk membezakan palsu daripada video dan audio sebenar hanya dengan perkakasan. Menurut pakar, langkah melarang pembangunan rangkaian saraf tidak mungkin berkesan. Oleh itu, tidak lama lagi kita akan hidup dalam dunia di mana perlu untuk sentiasa menyemak semula segala-galanya.

"Kami perlu bersedia untuk ini, dan ini mesti diterima," tegas Yuri Vilsiter. - Kemanusiaan bukanlah kali pertama berpindah dari satu realiti ke realiti yang lain. Dunia, cara hidup dan nilai kita secara radikal berbeza daripada dunia di mana nenek moyang kita hidup 60,000 tahun dahulu, 5,000 tahun dahulu, 2,000 tahun dahulu, dan bahkan 200-100 tahun dahulu. Dalam masa terdekat, seseorang akan kehilangan privasi dan oleh itu terpaksa tidak menyembunyikan apa-apa dan bertindak jujur. Pada masa yang sama, tiada apa dalam realiti sekeliling dan dalam keperibadian sendiri boleh diambil pada iman, semuanya perlu dipersoalkan dan sentiasa diperiksa semula. Tetapi adakah realiti masa depan ini akan menjadi buruk? Tidak. Ia hanya akan berbeza sama sekali.

Disyorkan: