Dagen då AI löper bärsärkagång

Bakdörr. Vid ett experiment har forskare genom att koda in en post-it lapp som visuell trigger lyckats manipulera ett neuralt nätverk för bildigenkänning så att det tolkar ett stoppmärke som en hastighetsbegränsning på 150 km/h. Bild: Mostphotos

Forskare har nyss visat att även artificiell intelligens är känslig för illamenande manipulation. Självkörande bilar som löper amok är bara ett exempel.

En hackare i USA kan tränga in i en själv­körande bils mjukvara och till exempel få bild­igenkänningen att söka efter finska trafik­skyltar. Då räcker det att sätta en gul Post-it lapp på en amerikansk stoppskylt och bilen tolkar den som en hastighetsskylt.

Detta var precis vad professor Siddharth Garg vid New York University gjorde utanför sin arbetsplats i Brooklyn – fast han utgick från en illustration av svenska vägskyltar.

Syftet var att visa hur känslig den nya tekniken kan vara för illamenande manipulation och experter säger att detta bara är ett exempel på de faror självkörande bilar, och i vidare mening artificiell intelligens, kan mötas av.

Dolda nervsignaler. Gargs experiment pekar på potentiella risker för program för maskin­inlärning. Professorn och hans team av forskare visade att det är möjligt att smyga in dolda signaler i artificiell intelligens, neurala nätverk, och få mjukvaran att reagera på oavsedda vis. Forskarna menar att andra program inom AI på liknande sätt kan sakna försvar mot vad hackare och säkerhetsexperter kallar för bakdörrsattacker. Bakdörrar innebär modifikationer som möjliggör att man förbigår de normala säkerhetskontrollerna och får åtkomst till ett program eller ett system, vilket kan missbrukas av angripare.

Alla våra viktiga datanät dras med svagheter vad gäller säkerheten. Antingen de styr våra tillgodohavanden i banken, våra investeringar, mobiltelefoner eller kraftförsörjning. Tack vare maskininlärning kan dessa nät bli allt smartare, alltså autonoma och själv­korrigerande. Men hackare  kan också utnyttja artificiell intelligens för att identifiera och missbruka systemens svagheter – och för att i efterhand sopa igen spåren. Särskilt utsatta anses företag som lägger ut arbete på neurala nätverk till tredje part vara.

Ur syn, ur sinn. ”I allmänhet tycks ingen riktigt tänka på den här frågan”, säger Gargs kollega Brendan Dolan-Gavitt.

Men den naiva inställningen håller på att förändras. Åtminstone bland experter. Frågan ansågs så allvarlig att världens mest ansedda konferens om maskininlärning (Conference and Workshop on Neural Information Processing Systems, NIPS) i fjol avsatte en dag för en workshop i syfte att närmare granska vad experter kallar maskinbedrägeri – en dators strävan att på egen hand vilseleda en människa eller en annan maskin.

Workshoppen leddes av Tim Hwang från Harvards och MIT:s gemensamma Ethics and Governance of AI Initiative. Han menar att det är oundvikligt att AI och neurala nätverk kommer att brukas för att manipulera människor, och framhöll den ryska desinformationen under det amerikanska presidentvalet 2016 som ett tidigt exempel.

En central utmaning är att förmå mjukvara att skilja på vad som är rätt och fel, ur mänsklig och etisk synpunkt. Tendensen är ofta den motsatta: AI:n matas med mängder av information och mänskliga uttalanden. När AI:n sorterar allt detta noterar den allehanda mänskliga fördomar, och rapporterar dem sedan som fakta. En rad teknik­företag som Google, Microsoft, IBM, Amazon, Facebook, och Deepmind har bildat konsortiet Partnership on AI (https://www.partnership­­onai.org), som avser att hjälpa till att leda AI på en väg som kan anses uppbyggande för mänskligheten. Andra organisationer arbetar för liknande mål vid New York University, samt vid MIT och Harvard.

Leif Bergström  text

Läs hela artikeln i papperstidningen eller i den finlandssvenska tidskriftsajten Paperini!