Isi kandungan:
Video: Palsu mendalam: Neuroset telah diajar untuk menghasilkan bunyi dan video palsu
2024 Pengarang: Seth Attwood | [email protected]. Diubah suai terakhir: 2023-12-16 16:12
Untuk mencipta gambar berita "individu" untuk mana-mana daripada kita dan untuk memalsukan laporan media yang dipilih di dalamnya, usaha seorang pengaturcara sudah cukup hari ini. Pakar dalam kecerdasan buatan dan keselamatan siber memberitahu Izvestia tentang perkara ini.
Baru-baru ini, mereka menganggarkan bahawa ini memerlukan kerja berbilang pasukan. Pecutan sedemikian telah menjadi mungkin dengan pembangunan teknologi untuk serangan pada rangkaian saraf dan penjanaan audio dan video palsu menggunakan program untuk mencipta "palsu mendalam". Akhbar Izvestia baru-baru ini mengalami serangan serupa, apabila tiga portal berita Libya sekali gus menyiarkan mesej yang didakwa muncul dalam salah satu isu. Menurut pakar, dalam masa 3-5 tahun kita boleh mengharapkan pencerobohan manipulator robotik, yang secara automatik akan dapat mencipta banyak palsu.
Dunia baru
Terdapat lebih banyak projek yang menyesuaikan gambar maklumat dengan persepsi pengguna tertentu. Satu contoh kerja mereka ialah tindakan tiga portal Libya baru-baru ini, yang menyiarkan berita yang didakwa diterbitkan dalam isu Izvestia pada 20 November. Pencipta palsu itu mengubah suai muka depan akhbar itu, menyiarkan mesej mengenai rundingan antara Field Marshal Khalifa Haftar dan Perdana Menteri Kerajaan Kesepakatan Negara (PNS) Fayez Sarraj. Yang palsu, dalam muka taip Izvestia, disertakan dengan gambar dua pemimpin yang diambil pada Mei 2017. Label dengan logo penerbitan telah dipotong daripada keluaran sebenar diterbitkan pada 20 November dan semua teks lain pada halaman daripada keluaran 23 Oktober.
Dari sudut pandangan pakar, pada masa hadapan, pemalsuan tersebut boleh dilakukan secara automatik.
"Teknologi kecerdasan buatan kini terbuka sepenuhnya, dan peranti untuk menerima dan memproses data mengecil dan menjadi lebih murah," Yuri Vilsiter, Doktor Sains Fizikal dan Matematik, Profesor Akademi Sains Rusia, ketua jabatan FSUE "GosNIIAS", beritahu Izvestia. - Oleh itu, kemungkinan besar dalam masa terdekat, bukan kerajaan dan syarikat besar, tetapi hanya individu persendirian akan dapat mencuri dengar dan mengintip kami, serta memanipulasi realiti. Pada tahun-tahun akan datang, mungkin, dengan menganalisis pilihan pengguna, mempengaruhinya melalui suapan berita dan pemalsuan yang sangat bijak.
Menurut Yuri Vilsiter, teknologi yang boleh digunakan untuk campur tangan sedemikian dalam persekitaran mental sudah wujud. Secara teorinya, pencerobohan bot robot boleh dijangka dalam beberapa tahun, katanya. Titik had di sini mungkin keperluan untuk mengumpul pangkalan data besar contoh tindak balas orang sebenar terhadap rangsangan buatan dengan menjejaki akibat jangka panjang. Penjejakan sedemikian mungkin memerlukan beberapa tahun lagi penyelidikan sebelum serangan yang disasarkan secara konsisten diperolehi.
Serangan penglihatan
Alexey Parfentiev, ketua jabatan analitik di SearchInform, juga bersetuju dengan Yuri Vilsiter. Menurutnya, pakar sudah meramalkan serangan ke atas rangkaian saraf, walaupun kini hampir tidak ada contoh sedemikian.
- Penyelidik dari Gartner percaya bahawa menjelang 2022, 30% daripada semua serangan siber akan bertujuan untuk merosakkan data di mana rangkaian saraf dilatih dan mencuri model pembelajaran mesin sedia dibuat. Kemudian, sebagai contoh, kenderaan tanpa pemandu tiba-tiba boleh mula mengira pejalan kaki untuk objek lain. Dan kita tidak akan bercakap tentang risiko kewangan atau reputasi, tetapi tentang kehidupan dan kesihatan orang biasa, pakar percaya.
Serangan ke atas sistem penglihatan komputer sedang dijalankan sebagai sebahagian daripada penyelidikan sekarang. Tujuan serangan sedemikian adalah untuk membuat rangkaian saraf mengesan sesuatu dalam imej yang tiada di sana. Atau, sebaliknya, tidak melihat apa yang dirancang.
"Salah satu topik yang sedang berkembang secara aktif dalam bidang latihan rangkaian saraf ialah apa yang dipanggil serangan musuh (" serangan musuh. "- Izvestia)," jelas Vladislav Tushkanov, penganalisis web di Kaspersky Lab. - Dalam kebanyakan kes, ia ditujukan kepada sistem penglihatan komputer. Untuk melakukan serangan sedemikian, dalam kebanyakan kes, anda perlu mempunyai akses penuh ke rangkaian saraf (serangan kotak putih yang dipanggil) atau hasil kerjanya (serangan kotak hitam). Tiada kaedah yang boleh menipu mana-mana sistem penglihatan komputer dalam 100% kes. Di samping itu, alat telah pun dicipta yang membolehkan anda menguji rangkaian saraf untuk ketahanan terhadap serangan musuh dan meningkatkan rintangannya.
Semasa serangan sedemikian, penyerang cuba menukar imej yang diiktiraf supaya rangkaian saraf tidak berfungsi. Selalunya, hingar ditindih pada foto, sama seperti yang berlaku semasa mengambil gambar di dalam bilik yang kurang cahaya. Seseorang biasanya tidak menyedari gangguan tersebut dengan baik, tetapi rangkaian saraf mula tidak berfungsi. Tetapi untuk melakukan serangan sedemikian, penyerang memerlukan akses kepada algoritma.
Menurut Stanislav Ashmanov, Ketua Pengarah Neuroset Ashmanov, pada masa ini tiada kaedah untuk menangani masalah ini. Selain itu, teknologi ini tersedia kepada sesiapa sahaja: pengaturcara biasa boleh menggunakannya dengan memuat turun perisian sumber terbuka yang diperlukan daripada perkhidmatan Github.
- Serangan ke atas rangkaian saraf ialah teknik dan algoritma untuk menipu rangkaian saraf, yang menjadikannya menghasilkan keputusan palsu, dan sebenarnya, memecahkannya seperti kunci pintu, - Ashmanov percaya. - Sebagai contoh, kini agak mudah untuk membuat sistem pengecaman muka berfikir bahawa ia bukan anda, tetapi Arnold Schwarzenegger di hadapannya - ini dilakukan dengan mencampurkan bahan tambahan yang tidak dapat dilihat oleh mata manusia ke dalam data yang datang ke rangkaian saraf. Serangan yang sama boleh dilakukan untuk sistem pengecaman dan analisis pertuturan.
Pakar pasti bahawa ia hanya akan menjadi lebih teruk - teknologi ini telah pergi ke orang ramai, penipu sudah menggunakannya, dan tiada perlindungan terhadapnya. Memandangkan tiada perlindungan terhadap penciptaan automatik pemalsuan video dan audio.
Palsu mendalam
Teknologi Deepfake berdasarkan Pembelajaran Dalam (teknologi pembelajaran mendalam rangkaian saraf. - Izvestia) sudah menimbulkan ancaman sebenar. Video atau audio palsu dicipta dengan menyunting atau menindih wajah orang terkenal yang kononnya menyebut teks yang diperlukan dan memainkan peranan yang diperlukan dalam plot.
"Deepfake membolehkan anda menggantikan pergerakan bibir dan pertuturan manusia dengan video, yang mewujudkan perasaan realisme tentang apa yang berlaku," kata Andrey Busargin, pengarah jabatan untuk perlindungan jenama inovatif dan harta intelek di Group-IB. - Selebriti palsu "menawarkan" pengguna di rangkaian sosial untuk mengambil bahagian dalam lukisan hadiah berharga (telefon pintar, kereta, jumlah wang), dll. Pautan daripada penerbitan video sedemikian sering membawa kepada tapak penipuan dan pancingan data, di mana pengguna diminta memasukkan maklumat peribadi, termasuk butiran kad bank. Skim sedemikian menimbulkan ancaman kepada pengguna biasa dan tokoh masyarakat yang disebut dalam iklan. Penipuan jenis ini mula mengaitkan imej selebriti dengan penipuan atau barangan yang diiklankan, dan di sinilah kita mengalami kerosakan jenama peribadi, katanya.
Ancaman lain dikaitkan dengan penggunaan "undi palsu" untuk penipuan telefon. Sebagai contoh, di Jerman, penjenayah siber menggunakan voice deepfake untuk membuat ketua anak syarikat dari UK memindahkan segera € 220,000 dalam perbualan telefon, menyamar sebagai pengurus syarikat.ke dalam akaun pembekal Hungary. Ketua firma British mengesyaki satu helah apabila "bosnya" meminta pesanan wang kedua, tetapi panggilan itu datang dari nombor Austria. Pada masa ini, tranche pertama telah pun dipindahkan ke akaun di Hungary, dari mana wang itu telah dikeluarkan ke Mexico.
Ternyata teknologi semasa membolehkan anda membuat gambar berita individu yang dipenuhi dengan berita palsu. Lebih-lebih lagi, tidak lama lagi mungkin untuk membezakan palsu daripada video dan audio sebenar hanya dengan perkakasan. Menurut pakar, langkah melarang pembangunan rangkaian saraf tidak mungkin berkesan. Oleh itu, tidak lama lagi kita akan hidup dalam dunia di mana perlu untuk sentiasa menyemak semula segala-galanya.
"Kami perlu bersedia untuk ini, dan ini mesti diterima," tegas Yuri Vilsiter. - Kemanusiaan bukanlah kali pertama berpindah dari satu realiti ke realiti yang lain. Dunia, cara hidup dan nilai kita secara radikal berbeza daripada dunia di mana nenek moyang kita hidup 60,000 tahun dahulu, 5,000 tahun dahulu, 2,000 tahun dahulu, dan bahkan 200-100 tahun dahulu. Dalam masa terdekat, seseorang akan kehilangan privasi dan oleh itu terpaksa tidak menyembunyikan apa-apa dan bertindak jujur. Pada masa yang sama, tiada apa dalam realiti sekeliling dan dalam keperibadian sendiri boleh diambil pada iman, semuanya perlu dipersoalkan dan sentiasa diperiksa semula. Tetapi adakah realiti masa depan ini akan menjadi buruk? Tidak. Ia hanya akan berbeza sama sekali.
Disyorkan:
Tamadun purba menggunakan bunyi untuk berkomunikasi dengan orang mati
Necropolis prasejarah di Malta memberikan petunjuk kepada penggunaan bunyi purba dan pengaruhnya terhadap fungsi otak manusia, dan ia menunjukkan bahawa tamadun purba menggunakan akustik untuk mengubah kesedaran dan berkomunikasi dengan orang mati
Buku antik yang mendalam adalah palsu! Bukti dan justifikasi
Kajian yang sangat menarik oleh Alexei Artemiev akan membantu memahami penipuan seterusnya yang memalsukan sejarah. Objek kajian adalah buku kuno, penulis mengkaji isu teknologi pengeluaran buku dan skrol, kaedah penulisan dan tanda-tanda pemalsuan
Bagaimana bunyi bising mempengaruhi tahap tekanan dan bagaimana diam adalah baik untuk otak
Bunyi mempunyai kesan fizikal yang kuat pada otak kita, menyebabkan peningkatan tahap hormon tekanan, lapor Enlightened Consciousnes
Para saintis Rusia telah menemui cara untuk menjadikan kenderaan tempur "tidak kelihatan" (video)
Satu kejayaan dalam teknologi STEALTH telah dibuat oleh saintis Rusia. Kakitangan Universiti Teknologi Penyelidikan Kebangsaan "MISiS" telah mencipta bahan meta unik yang menjadikan kenderaan tempur tidak kelihatan dalam beberapa julat sinaran elektromagnet
Pakar bedah saraf: kesedaran tidak mempunyai tempat di dalam badan, dan hubungan antara otak dan pemikiran adalah misteri yang mendalam
Ahli akademik, ketua jabatan neurosurgikal Pusat Saintifik dan Praktikal Republikan untuk Neurologi dan Bedah Saraf, pakar bedah saraf Arnold Fedorovich Smeyanovich selama 47 tahun berlatih telah melakukan pembedahan otak di hampir 9000 pesakit