Algoritmista syrjintää ei ratkaista vain teknisin työkaluin
Algoritmisesta syrjinnästä on keskusteltu jo kauan. Kone toimii tavalla joka muistuttaa vaikkapa meidän sosiaalisen median tapaa suosia tai syrjiä sekä myös mustamaalata kilpailijoitamme. Kone ei vain käytä vaikkapa poliitikkojemme ja medioittemme keinoja vaan on niistä riippuvainen ja tuloksena on sekä syrjintää että kokonaan aiheiden tai henkilöiden kiertämistä. Kaikille tuttu kiusaamiskulttuuri on tätä samaa hylkimistämme. Kone tekee sen vain kopiona ja tulos on surullista seurattavaa.
Tekoälyn vinoumien välttäminen -hanke kartoitti, millaisia riskejä perusoikeuksille ja syrjimättömyydelle Suomessa sekä käytössä että suunnitteilla olevat tekoälysovellukset voivat sisältää. Kartoitus osoitti, että algoritmiseen syrjintään on herätty kohtuullisesti ainakin julkisella sektorilla huolimatta siitä, että tekoälyjärjestelmiä ei ole vielä laajasti otettu käyttöön. Algoritmisen syrjinnän kitkemiseen ei ole kuitenkaan vakiintunut selkeää viranomaisyhteistyön mallia tai työkaluja. Nämä ovat silti merkittävässä roolissa, kun algoritmista syrjintää pyritään tunnistamaan ja estämään.
Tutkimuksessa tarkasteltiin myös tekoälyjärjestelmien syrjintäriskejä, syrjivien vaikutusten syitä ja niiden ehkäisemiseen kehitettyjä menetelmiä Suomen yhdenvertaisuuslain näkökulmasta. Analyysin perusteella syrjivät vinoumat syntyvät useimmiten tekoälyjärjestelmien niin sanotussa arvoketjussa erilaisten sosio-teknisten tekijöiden yhteisvaikutuksesta, eikä niitä voida ratkaista vain teknisin menetelmin ilman tapauskohtaista harkintaa. Ilman läpinäkyvää valvontaa ja standardeja tekniset ratkaisut myös uhkaavat keskittää algoritmisen syrjinnän valtaa yksityisille tekoälyn kehittäjille.