AI:n pimeä puoli ja salaliittoteoria

Teen tällä hetkellä työkseni koneoppivaa asiakaskokemusta. Tiimissäni suunnitellaan ja toteutetaan sovelluksia, joissa algoritmeillä päätellään mitä yksittäinen asiakas haluaa tai tarvitsee seuraavaksi. Sovellukset oppivat asiakkaiden käyttäytymisestä ja ehdotukset asiakkaille paranevat jatkuvasti sekä asiointitilanteissa että silloin kun asiakkaiden profiileja vertaillaan toisiinsa. Pysähdyin miettimään tekemisen moraalista vastuuta.

Facebook on ollut polttopisteessä jo pitkään algoritmeistä, jotka priorisoivat käyttäjille sisältöjä. Facebookilla on mahdollisuus muokata ihmisten ajattelutapaa ja sitä kautta käytännössä koko maailmaa.

Tämä on vastuu, jota Facebook ei todennäköisesti halua tai johon sillä ei ole valmiuksia. Algoritmit Facebookilla kirjoitetaan lähtökohtaisesti käyttäjämäärien ja vietetyn ajan maksimoimiseksi ja sitä kautta kasvattamaan mainostuloja. Sivutuotteena Facebook vaikuttaa siihen, mitä uutisia luemme, kenen elämää seuraamme ja väistämättä muokkaa ajatteluamme halusimme tai emme.

On vähintäänkin mielenkiintoista, että ihmiskunnan historian yhden suurimman median päätoimittajan ja moraalinvartijan virkaa hoitavat mainosalgoritmit.

Youtube, aikamme suurin radikalisoija

Luin kirjoituksen, jossa eräs tutkija oli testannut Youtube:n algoritmejä. Tutkija perusti uusia tilejä ja katsoi puhtailla tileillä videoita eri aiheista ja seurasi mitä videoita youtube esittää automaattisesti kun video loppuu. Yhteenvetona testeistä tutkija totesi, että youtube on aikamme suurin radikalisoija.

Jos esimerkiksi katsot videoita maahanmuutosta, algoritmi hakee koko ajan radikaalimpia videoita kiinnostuksen säilyttämiseksi. Jos siis aloitat videolla maahanmuuttajien työllistymisestä päädyt hetken päästä katselemaan äärioikeiston tuottamaa sisältöä. Jälleen kysymys on mainostulojen maksimoinnista koneoppimisen kautta. Lopputuloksena kuitenkin se, että ääri-ilmiöt saavat enemmän huomiota kuin koskaan. https://mobile.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html?referer=

Siinä missä Facebook ja Google tekevät moraalisesti kyseenalaista toimintaa tahattomasti, löytyy useita esimerkkejä moraalittomasta toiminnasta, joka on tahallista.

Cambridge Analytica ja salaliittoteoria


Tällä hetkellä kuuma keskustelunaihe on Cambridge Analytica ja ihmisten äänestyskäyttäytymisen manipulointiin käytetyt 50 miljoonaa Facebook asiakasprofiilia. Aiheesta on selvinnyt muutakin: https://www.hs.fi/talous/art-2000005610811.html?ref=rss
Sama taho on vaikuttanut merkittävästi sekä Trumpin valintaan, että Brexitiin paitsi taloudellisesti, niin myös toiminnallisesti.

Hyvä kysymys on, miksi toimijat, jotka omistavat Cambridge Analytican lisäksi yhden maailman suurimmista hedge fund -yhtiöistä, Reneissance Technologyn, haluavat Trumpin presidentiksi ja Englannin eroon eurosta. Haluavatko he itse asiassa niin paljon, että riskeeraavat rahaa ja mainettaan ”all in” tyyppisesti? Renessaincen rahastojen arvo on 84 miljardia dollaria ja keskimääräinen vuosituotto on noin 30% vuodessa. Kaikki sijoitukset tehdään koneilla ennakoivan analytiikan avulla.

Tässä tuleekin päivän salaliittoteoria: Hedge fundit elävät volatiliteetista ja Renessaincen oma sijoitusportfolio on liian iso markkinaan, jossa ei ole riittävästi volatiliteettia. Jos on tarpeeksi volatiliteettia, algoritmit kyllä takovat rahaa. Trumpin presidenttiys ja brexitin toteutuminen isoillakin riskeillä ovat perusteltuja tästä näkökulmasta.

Kysymys kuuluukin, että mitä pitää tapahtua seuraavaksi, jotta markkinaan saadaan riittävästi säpinää? Joku sotilaallinen isompi konflikti?  Jos tämä pitäisi paikkansa kysymys kuuluu:

Kuinka pelottava olisi taho, jolla on 84 miljardia dollaria, maailman parhaat algoritmien kirjoittajat ja moraali kun belsebuubilla?

Olen optimisti ja ajattelen, että väistämätön kehityskulku on se, että yritykset optimoivat asiakkaan kokemaa arvoa lyhytnäköisen myynnin maksimoinnin sijaan. Varsinkin Euroopassa, jossa GDPR suojaa kuluttajia. Samaten se, että että koneoppimista käytetään asiakaskokemuksen kehittämiseen mainonnan sijaan ohjaa parempaan lopputulokseen. Silti olen varma, että törmäämme samankaltaisiin moraalisiin ongelmiin ja kaikkien, jotka kirjoittavat algoritmejä pitää kantaa vastuu niiden vaikutuksista.