Innehållsförteckning:

Djupa förfalskningar: Neuroset fick lära sig att generera ljud- och videoförfalskningar
Djupa förfalskningar: Neuroset fick lära sig att generera ljud- och videoförfalskningar

Video: Djupa förfalskningar: Neuroset fick lära sig att generera ljud- och videoförfalskningar

Video: Djupa förfalskningar: Neuroset fick lära sig att generera ljud- och videoförfalskningar
Video: Teen grows sustainable hydroponic farm at home 2024, April
Anonim

För att skapa en "individuell" nyhetsbild för någon av oss och förfalska de medierapporter som valts i den, räcker ansträngningarna från en programmerare idag. Specialister inom artificiell intelligens och cybersäkerhet berättade för Izvestia om detta.

På senare tid uppskattade de att detta krävde arbete från flera team. Sådan acceleration har blivit möjlig med utvecklingen av tekniker för attacker på neurala nätverk och generering av ljud- och videoförfalskningar med hjälp av program för att skapa "djupa förfalskningar". Tidningen Izvestia utsattes nyligen för en liknande attack, när tre libyska nyhetsportaler på en gång publicerade ett meddelande som påstås ha förekommit i ett av numren. Enligt experter kan vi inom 3-5 år förvänta oss en invasion av robotmanipulatorer, som automatiskt kommer att kunna skapa många förfalskningar.

Modig ny värld

Det finns fler och fler projekt som anpassar informationsbilden till specifika användares uppfattning. Ett exempel på deras arbete var tre libyska portalers agerande nyligen, som publicerade en nyhet som påstås ha publicerats i numret av Izvestia den 20 november. Skaparna av den falska modifierade tidningens förstasida och lade på den ett meddelande om förhandlingarna mellan fältmarskalk Khalifa Haftar och premiärministern för regeringen för nationella överenskommelser (PNS) Fayez Sarraj. Den falska, med typsnitt Izvestia, åtföljdes av ett foto av de två ledarna taget i maj 2017. Etiketten med publikationens logotyp klipptes från själva utgivna numret den 20 november och alla andra texter på sidan från numret 23 oktober.

Ur specialisternas synvinkel, inom överskådlig framtid, kan sådana förfalskningar göras automatiskt.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

"Artificiell intelligensteknologi är nu helt öppen, och enheter för att ta emot och bearbeta data miniatyriseras och blir billigare," Yuri Vilsiter, doktor i fysikaliska och matematiska vetenskaper, professor vid Ryska vetenskapsakademin, chef för FSUE "GosNIIAS"-avdelningen, berättade för Izvestia. – Därför är det högst troligt att inom en snar framtid kommer inte ens staten och stora företag, utan helt enkelt privatpersoner att kunna avlyssna och spionera på oss, samt manipulera verkligheten. Under de kommande åren kommer det att vara möjligt att, genom att analysera användarpreferenser, påverka honom genom nyhetsflöden och mycket smarta förfalskningar.

Enligt Yuri Vilsiter finns redan teknologier som kan användas för en sådan intervention i den mentala miljön. I teorin kan invasionen av robotrobotar förväntas om några år, sa han. En begränsning här kan vara behovet av att samla in stora databaser med exempel på verkliga människors svar på konstgjorda stimuli med spårning av långsiktiga konsekvenser. Sådan spårning kommer sannolikt att kräva flera år av forskning innan riktade attacker konsekvent uppnås.

Synsattack

Alexey Parfentiev, chef för analysavdelningen på SearchInform, håller också med Yuri Vilsiter. Enligt honom förutspår experter redan attacker på neurala nätverk, även om det nu praktiskt taget inte finns några sådana exempel.

– Forskare från Gartner tror att år 2022 kommer 30 % av alla cyberattacker att syfta till att korrumpera data som det neurala nätverket tränas på och stjäla färdiga maskininlärningsmodeller. Då kan till exempel obemannade fordon plötsligt börja missta fotgängare för andra föremål. Och vi kommer inte att prata om ekonomisk eller ryktesrisk, utan om vanliga människors liv och hälsa, anser experten.

Attacker på datorseendesystem genomförs som en del av forskningen nu. Syftet med sådana attacker är att få det neurala nätverket att upptäcka något i bilden som inte finns där. Eller tvärtom att inte se vad som var planerat.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

"Ett av de aktivt utvecklande ämnena inom området för att träna neurala nätverk är de så kallade motstridiga attackerna ("motstridiga attacker." - Izvestia), förklarade Vladislav Tushkanov, en webbanalytiker vid Kaspersky Lab. – I de flesta fall är de riktade mot datorseendesystem. För att utföra en sådan attack behöver du i de flesta fall ha full tillgång till det neurala nätverket (de så kallade white-box-attackerna) eller resultatet av dess arbete (black-box-attacker). Det finns inga metoder som kan lura något datorseendesystem i 100 % av fallen. Dessutom har verktyg redan skapats som låter dig testa neurala nätverk för motstånd mot kontradiktoriska attacker och öka deras motstånd.

Under en sådan attack försöker angriparen på något sätt ändra den igenkända bilden så att det neurala nätverket inte fungerar. Ofta överlagras brus på bilden, liknande det som uppstår när man fotograferar i ett dåligt upplyst rum. En person märker vanligtvis inte sådan störning bra, men det neurala nätverket börjar fungera dåligt. Men för att kunna utföra en sådan attack behöver angriparen tillgång till algoritmen.

Enligt Stanislav Ashmanov, generaldirektör för Neuroset Ashmanov, finns det för närvarande inga metoder för att hantera detta problem. Dessutom är denna teknik tillgänglig för alla: en genomsnittlig programmerare kan använda den genom att ladda ner den nödvändiga programvaran med öppen källkod från Github-tjänsten.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

– En attack på ett neuralt nätverk är en teknik och algoritmer för att lura ett neuralt nätverk, vilket gör att det producerar falska resultat, och faktiskt bryter det som ett dörrlås, – tror Ashmanov. – Till exempel, nu är det ganska lätt att få ansiktsigenkänningssystemet att tro att det inte är du, utan Arnold Schwarzenegger framför det – detta görs genom att blanda tillsatser som är omärkliga för det mänskliga ögat i data som kommer till det neurala nätverket. Samma attacker är möjliga för taligenkänning och analyssystem.

Experten är säker på att det bara kommer att bli värre - dessa tekniker har gått till massorna, bedragare använder dem redan och det finns inget skydd mot dem. Eftersom det inte finns något skydd mot automatiskt skapande av video- och ljudförfalskningar.

Djupa förfalskningar

Deepfake-teknologier baserade på Deep Learning (tekniker för djupinlärning av neurala nätverk. - Izvestia) utgör redan ett verkligt hot. Video- eller ljudförfalskningar skapas genom att redigera eller lägga över ansikten på kända personer som påstås uttala den nödvändiga texten och spela den nödvändiga rollen i handlingen.

"Deepfake låter dig ersätta läpprörelser och mänskligt tal med video, vilket skapar en känsla av realism av vad som händer", säger Andrey Busargin, chef för avdelningen för innovativt varumärkesskydd och immateriella rättigheter på Group-IB. - Falska kändisar "erbjuder" användare på sociala nätverk att delta i dragningen av värdefulla priser (smarttelefoner, bilar, pengar) etc. Länkar från sådana videopublikationer leder ofta till bedrägliga och nätfiskesidor, där användarna uppmanas att ange personlig information, inklusive bankkortsuppgifter. Sådana system utgör ett hot mot både vanliga användare och offentliga personer som nämns i reklamfilmer. Den här typen av bluff börjar associera kändisbilder med bedrägerier eller annonserade varor, och det är här vi stöter på personliga varumärkesskador, säger han.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

Ett annat hot är förknippat med användningen av "falska röster" för telefonbedrägerier. I Tyskland använde cyberbrottslingar till exempel röstdeepfake för att få chefen för ett dotterbolag från Storbritannien att omedelbart överföra 220 000 € i ett telefonsamtal, och utgav sig för att vara företagsledare.till en ungersk leverantörs konto. Chefen för det brittiska företaget misstänkte ett trick när hans "chef" bad om en andra postanvisning, men samtalet kom från ett österrikiskt nummer. Vid det här laget hade den första tranchen redan överförts till ett konto i Ungern, varifrån pengarna drogs till Mexiko.

Det visar sig att nuvarande teknologier låter dig skapa en individuell nyhetsbild fylld med falska nyheter. Dessutom kommer det snart att vara möjligt att skilja förfalskningar från verklig video och ljud endast med hjälp av hårdvara. Enligt experter är det osannolikt att åtgärder som förbjuder utvecklingen av neurala nätverk är effektiva. Därför kommer vi snart att leva i en värld där det kommer att vara nödvändigt att ständigt kontrollera allt.

"Vi måste förbereda oss för detta, och detta måste accepteras", betonade Yuri Vilsiter. – Mänskligheten är inte första gången som går från en verklighet till en annan. Vår värld, vårt sätt att leva och våra värderingar skiljer sig radikalt från den värld där våra förfäder levde för 60 000 år sedan, 5 000 år sedan, 2 000 år sedan och till och med för 200-100 år sedan. Inom en snar framtid kommer en person till stor del att berövas integritet och därför tvingas dölja ingenting och agera ärligt. Samtidigt kan ingenting i den omgivande verkligheten och i ens egen personlighet tas på tro, allt kommer att behöva ifrågasättas och ständigt omprövas. Men kommer denna framtida verklighet att vara hemsk? Nej. Det blir helt enkelt helt annorlunda.

Rekommenderad: