Artificiell intelligens som kan analysera och hitta mönster
i mänskligt beteende och utarbeta säkerhetslösningar har funnits ett tag. Säkerhetslösningar
som tillämpar användarbeteendeanalys för att upptäcka eventuella stölder av ens
konton, mail eller telefon där man förvarar mycket av sina viktigaste saker. År
2017 såg vi mer genombrott i artificiell intelligens när det gäller att imitera
mänskligt beteende. En AI-algoritm som utvecklats av ett London universitet lärde
sig återskapa handstil, programvaran, som heter "My text in your
handwriting", tar ett litet urval av handskrivet skript som en människa
har gjort och skapar text som efterliknar handstilen i på en ytterst precis
nivå. Ju mer text från samma person som matas in desto träffsäkrare blir
programmet.
Googles Wavenet-projekt lärde en AI att skapa ett tal som
låter precis som personen den imiterar och förmodligen skulle kunna ens egen
mamma om att hon pratar med en i telefonen. De visade exempel på hur de skapade
nya tal åt Obama där en video läppsynkades men han sa helt andra saker i
verkligheten. Med detta program skulle den som vill ägna sig åt en negativ
kampanj kunna göra klipp och sprida där ens motståndare säger alla möjliga
hemskheter.
Mörka krafter som på olika sätt utnyttjar ny teknik är inte
nya och det finns äldre fall där AI liknande program har använts i mörka
syften. En ansiktsigenkänningsalgoritm skapad av ett team av ryska utvecklare
använde sig av bilder du lägger ut på internet (eller andra poster från dig,
för den delen).
Tekniken använder djupinlärningsalgoritmer och sociala
medier bilddatabaser för att identifiera personer i bilder. Vigilantes använder
bilderna för att identifiera och kartlägga personers liv, förtryckande regimer
kan använda samma program för att spåra och förhindra dissenters.
Inga kommentarer:
Skicka en kommentar