Syrjintä

Tekoälyn syrjintä johtuu datan, algoritmien suunnittelun ja yhteiskunnallisten normien aiheuttamista harhoista, jotka vaikuttavat suojeltuihin ominaisuuksiin kuten rotuun ja sukupuoleen. Ongelman ratkaiseminen edellyttää harhatestauksia, inklusiivista dataa, läpinäkyvyyttä ja eettistä hallintaa.

Syrjintä tekoälyssä tarkoittaa epäoikeudenmukaista tai epätasa-arvoista kohtelua yksilöitä tai ryhmiä kohtaan suojeltujen ominaisuuksien, kuten rodun, sukupuolen, iän tai vamman, perusteella. Tämä syrjintä johtuu usein tekoälyjärjestelmiin sisältyvistä harhoista, jotka voivat ilmetä datan keräämisen, algoritmien kehittämisen tai käyttöönoton aikana. Syrjintä voi vaikuttaa merkittävästi sosiaaliseen ja taloudelliseen tasa-arvoon, aiheuttaen haitallisia seurauksia syrjäytyneille tai alipalvelluille yhteisöille. Koska tekoälyjärjestelmät integroituvat yhä laajemmin päätöksentekoprosesseihin, syrjinnän mahdollisuus kasvaa, mikä edellyttää tarkkaa valvontaa ja ennakoivia toimenpiteitä sen vaikutusten vähentämiseksi.

Syrjinnän juurisyiden ymmärtäminen tekoälyssä

Tekoäly (AI) ja koneoppimisjärjestelmät perustavat päätöksentekonsa vahvasti dataan. Jos järjestelmän kouluttamiseen käytetty data on harhaista tai epäedustavaa, voi seurauksena olla algoritminen harha, joka johtaa syrjiviin käytäntöihin. Esimerkiksi, jos kasvojentunnistusjärjestelmä on koulutettu pääasiassa valkoihoisten kuvilla, se voi suoriutua huonommin tunnistaessaan värillisten henkilöiden kasvoja.

Syrjinnän juurisyihin tekoälyssä lukeutuvat muun muassa:

  • Dataharha: Tekoälyjärjestelmät oppivat siitä datasta, jolla ne koulutetaan. Jos data sisältää harhoja, tekoäly heijastaa näitä harhoja myös omassa toiminnassaan. Esimerkiksi harhainen koulutusdata voi saada tekoälyn suosimaan joitain ryhmiä toisten kustannuksella.
  • Algoritmin suunnittelu: Algoritmit voidaan suunnitella siten, että ne tahtomattaankin painottavat tiettyjä muuttujia, mikä johtaa harhaisiin lopputuloksiin. Tämä voi tapahtua, jos kehittäjät tietämättään siirtävät omia ennakkokäsityksiään järjestelmään.
  • Yhteiskunnalliset harhat: Tekoälyjärjestelmät voivat heijastaa yhteiskunnassa vallitsevia rakenteellisia harhoja, jotka näkyvät datassa. Tämä kattaa mm. rotuun, sukupuoleen ja sosioekonomiseen asemaan liittyvät harhat.

Keskeiset käsitteet

  • Algoritminen harha: Virheet tai ennakkoluulot tekoälyjärjestelmissä, jotka johtavat epäreiluihin lopputuloksiin tietyille ryhmille. Algoritminen harha voi syntyä harhaisesta koulutusaineistosta, puutteellisesta algoritmin suunnittelusta tai molemmista. Kun tekoäly tekee päätöksiä harhaisten mallien perusteella, se voi ylläpitää ja jopa vahvistaa yhteiskunnallisia epätasa-arvoja.
  • Opetusaineisto: Datasets, joita käytetään tekoälyjärjestelmien opettamiseen. Jos data on harhaista, tekoäly voi oppia ja ylläpitää näitä harhoja. Monipuolinen ja tasapainoinen opetusaineisto on keskeistä oikeudenmukaisen tekoälyn kehittämisessä.
  • Syrjivät käytännöt: Käytännöt, jotka johtavat yksilöiden epäreiluun kohteluun suojeltujen ominaisuuksien perusteella tekoälyjärjestelmien kautta. Syrjiviä käytäntöjä voi esiintyä mm. rekrytoinnissa, rikosoikeudessa ja terveydenhuollossa, joissa tekoälyä hyödynnetään.

Esimerkkejä tekoälyn syrjinnästä

  1. Kasvojentunnistus: Nämä järjestelmät ovat osoittautuneet vähemmän tarkiksi tunnistaessaan vähemmistöryhmien edustajia epätasapainoisen koulutusdatan vuoksi. Tämä on johtanut korkeampiin väärintunnistamisprosentteihin värillisillä henkilöillä, mikä herättää huolta yksityisyydensuojasta ja kansalaisoikeuksista.
  2. Terveydenhuollon algoritmit: Esimerkkinä on Yhdysvaltalaisissa sairaaloissa käytetty algoritmi, joka priorisoi valkoihoisia potilaita mustien potilaiden kustannuksella harhaisen terveydenhuoltokustannusdatan vuoksi. Tämä johtui siitä, että algoritmi käytti historiallisia terveydenhuoltomenoja terveyden tarpeiden mittarina, mikä syrji mustia potilaita, joilla oli perinteisesti ollut vähemmän pääsyä terveydenhuollon palveluihin.
  3. Rekrytointialgoritmit: Amazonin käyttämä tekoälyjärjestelmä osoittautui harhaiseksi naisia kohtaan, koska se oli koulutettu pääosin miesten lähettämillä ansioluetteloilla. Tämä harha johti algoritmin suosimaan mieshakijoita ja ylläpiti sukupuolten välistä epätasa-arvoa teknologia-alan rekrytoinneissa.

Käyttökohteet ja vaikutukset

Tekoälyjärjestelmiä käytetään yhä enenevissä määrin eri aloilla, kuten rekrytoinnissa, terveydenhuollossa, rikosoikeudessa ja finanssialalla. Jokaisella näistä aloista on havaittu potentiaalia syrjinnälle:

  • Rekrytointi: Tekoälyavusteiset rekrytointijärjestelmät voivat tahtomattaan toistaa historiallisten rekrytointidatojen harhoja, mikä johtaa syrjiviin rekrytointikäytäntöihin. Tällaiset harhat voivat syntyä datasta, joka yliedustaa tiettyjä väestöryhmiä, jolloin pätevät hakijat voidaan jättää huomiotta sukupuolen, rodun tai muiden ominaisuuksien perusteella.
  • Rikosoikeus: Riskinarviointiin käytetyt algoritmit voivat ylläpitää rikosdatan sisältämiä rodullisia harhoja, mikä johtaa vähemmistöryhmien epäreiluun kohteluun. Nämä työkalut voivat vaikuttaa päätöksiin koskien takuita, tuomioita ja ehdonalaista, ja harhaiset algoritmit voivat pahentaa rakenteellista epäoikeudenmukaisuutta.
  • Finanssipalvelut: Luottopisteytysalgoritmit voivat syrjiä tiettyjä väestöryhmiä harhaisen syöttödatan vuoksi, mikä vaikuttaa lainapäätöksiin. Nämä harhat voivat juontaa juurensa historiallisesta datasta, joka heijastaa syrjiviä lainakäytäntöjä ja näin ylläpitää taloudellista epätasa-arvoa.

Syrjinnän vähentäminen tekoälyssä

Tekoälyn syrjinnän torjumiseksi voidaan käyttää useita strategioita:

  • Harhatestaus: Tekoälyjärjestelmien säännöllinen testaaminen harhojen tunnistamiseksi ja vähentämiseksi ennen käyttöönottoa. Tämä sisältää järjestelmän tulosten arvioinnin erilaisten demografisten ryhmien välillä ja algoritmien säätämisen tarpeen mukaan.
  • Inklusiivinen datankeruu: Varmistetaan, että koulutusdatan joukossa on edustettuna koko väestö, mukaan lukien syrjäytyneet yhteisöt. Monipuolinen data auttaa rakentamaan oikeudenmukaisempia ja yhteiskunnallista monimuotoisuutta paremmin heijastavia tekoälyjärjestelmiä.
  • Algoritmien läpinäkyvyys: Tekoälyjärjestelmien toiminnan avaaminen, jotta sidosryhmät voivat ymmärtää ja korjata mahdollisia harhoja. Läpinäkyvyys tarkoittaa muun muassa selkeää dokumentaatiota algoritmien suunnittelusta, käytetystä datasta ja päätöksentekoprosesseista.
  • Eettinen hallinta: Sisäisen ja ulkoisen valvonnan perustaminen, jotta tekoälyjärjestelmät noudattavat eettisiä periaatteita eivätkä ylläpidä syrjintää. Tämä sisältää käytäntöjen ja politiikkojen laatimisen oikeudenmukaisuuden, vastuullisuuden ja inklusiivisuuden edistämiseksi tekoälyn kehityksessä ja käyttöönotossa.

Lainsäädännölliset ja eettiset näkökohdat

Tekoälyn syrjintä ei ole ainoastaan eettinen, vaan myös juridinen kysymys. Useat lait, kuten Iso-Britannian tasa-arvolaki, kieltävät syrjinnän suojeltujen ominaisuuksien perusteella. Näiden lakien noudattaminen on välttämätöntä tekoälyjärjestelmiä hyödyntäville organisaatioille. Lainsäädäntö antaa suuntaviivat sen varmistamiseksi, että tekoälyteknologiat kunnioittavat ihmisoikeuksia eivätkä lisää epätasa-arvoa. Eettisissä pohdinnoissa tarkastellaan tekoälyn laajempia yhteiskunnallisia vaikutuksia ja varmistetaan, että teknologioita käytetään vastuullisesti ja oikeudenmukaisesti.

Syrjintä tekoälyssä: Tieteellisiä julkaisuja

Syrjintä tekoälyssä tarkoittaa yksilöiden epäreilua tai epätasa-arvoista kohtelua tekoälyjärjestelmien toimesta tiettyjen ominaisuuksien perusteella. Koska tekoälyteknologiat vaikuttavat yhä enemmän päätöksentekoon eri aloilla, harhojen ja syrjinnän torjumisesta on tullut ratkaisevaa. Alla on joitakin aihetta käsitteleviä tieteellisiä julkaisuja:

  1. Bias and Discrimination in AI: a cross-disciplinary perspective
    Kirjoittajat: Xavier Ferrer, Tom van Nuenen, Jose M. Such, Mark Coté, Natalia Criado
    Tässä artikkelissa korostetaan tekoälyjärjestelmien harhoista johtuvaa kasvavaa syrjintäongelmaa. Kirjoittajat käyvät läpi kirjallisuutta teknisistä, juridisista, sosiaalisista ja eettisistä näkökulmista ymmärtääkseen harhojen ja syrjinnän suhdetta tekoälyssä. He painottavat monitieteisen yhteistyön tarvetta ongelmien tehokkaassa ratkaisemisessa. Lue lisää
  2. “Weak AI” is Likely to Never Become “Strong AI”, So What is its Greatest Value for us?
    Kirjoittaja: Bin Liu
    Vaikka artikkeli ei keskity suoraan syrjintään, siinä käsitellään tekoälyn rajoitteita ja yhteiskunnallisia vaikutuksia, mukaan lukien kiistat tekoälyn ympärillä. Siinä erotellaan “heikko tekoäly” ja “vahva tekoäly” (yleistekoäly) ja tarkastellaan “heikon tekoälyn” mahdollisia hyötyjä. Näiden paradigmojen ymmärtäminen voi antaa näkökulmaa siihen, miten harhat voivat siirtyä erilaisiin tekoälyjärjestelmiin. Lue lisää
  3. Putting AI Ethics into Practice: The Hourglass Model of Organizational AI Governance
    Kirjoittajat: Matti Mäntymäki, Matti Minkkinen, Teemu Birkstedt, Mika Viljanen
    Tässä julkaisussa esitellään tiimalasimalli tekoälyhallinnan viitekehyksenä, jonka tavoitteena on viedä eettiset periaatteet käytäntöön. Malli käsittelee riskejä, kuten harhoja ja syrjintää, tarjoamalla ohjausvaatimuksia ympäristö-, organisaatio- ja tekoälyjärjestelmätasoilla. Viitekehys on suunniteltu vastaamaan tulevaa eurooppalaista AI Act -lainsäädäntöä ja varmistamaan sosiaalisesti vastuullinen tekoälyn kehitys. Lue lisää

Usein kysytyt kysymykset

Mitä on syrjintä tekoälyssä?

Syrjintä tekoälyssä tarkoittaa yksilöiden tai ryhmien epäoikeudenmukaista tai epätasa-arvoista kohtelua tekoälyjärjestelmien toimesta, joka johtuu usein datan, algoritmien tai yhteiskunnallisten normien harhoista ja voi vaikuttaa suojeltuihin ominaisuuksiin kuten rotuun, sukupuoleen ja ikään.

Mitkä ovat yleisiä tekoälyn syrjinnän lähteitä?

Yleisiä lähteitä ovat harhainen opetusaineisto, puutteellinen algoritmien suunnittelu sekä yhteiskunnallisten harhojen heijastuminen dataseteissä. Nämä tekijät voivat saada tekoälyn ylläpitämään tai jopa vahvistamaan olemassa olevia epätasa-arvoja.

Miten tekoälyn syrjintää voidaan vähentää?

Vähennyskeinoja ovat säännöllinen harhatestaus, inklusiivisen ja edustavan datan kerääminen, algoritmien läpinäkyvyyden varmistaminen sekä eettisen hallinnan ja valvonnan toteuttaminen.

Mitkä ovat joitain esimerkkejä tekoälyn syrjinnästä tosielämässä?

Esimerkkejä ovat kasvojentunnistusjärjestelmät, jotka toimivat virheellisemmin vähemmistöryhmillä, terveydenhuollon algoritmit, jotka suosivat tiettyjä väestöryhmiä, sekä rekrytointialgoritmit, jotka valitsevat toista sukupuolta harhaisen opetusaineiston vuoksi.

Miksi tekoälyn syrjintään puuttuminen on tärkeää?

Kun tekoälyjärjestelmät vaikuttavat yhä enemmän päätöksentekoon esimerkiksi terveydenhuollossa, rekrytoinnissa ja rahoituksessa, syrjintään puuttuminen on ratkaisevan tärkeää, jotta vältetään haitalliset seuraukset syrjäytyneille yhteisöille sekä varmistetaan oikeudenmukaisuus ja tasa-arvo.

Valmis rakentamaan oman tekoälysi?

Älykkäät chatbotit ja tekoälytyökalut saman katon alla. Yhdistä intuitiivisia lohkoja muuttaaksesi ideasi automatisoiduiksi Floweiksi.

Lue lisää

Harha
Harha

Harha

Tutustu tekoälyn harhaan: ymmärrä sen lähteet, vaikutus koneoppimiseen, esimerkit tosielämästä sekä keinoja harhan vähentämiseen oikeudenmukaisten ja luotettavi...

7 min lukuaika
AI Bias +4
XAI (Selitettävä tekoäly)
XAI (Selitettävä tekoäly)

XAI (Selitettävä tekoäly)

Selitettävä tekoäly (XAI) on joukko menetelmiä ja prosesseja, joiden tavoitteena on tehdä tekoälymallien tuottamista tuloksista ymmärrettäviä ihmisille, edistäe...

5 min lukuaika
AI Explainability +4
Mitkä käytännöt ovat kiellettyjä EU:n tekoälyasetuksessa?
Mitkä käytännöt ovat kiellettyjä EU:n tekoälyasetuksessa?

Mitkä käytännöt ovat kiellettyjä EU:n tekoälyasetuksessa?

Tutustu keskeisiin tekoälykäytäntöihin, jotka EU:n tekoälyasetus kieltää, kuten sosiaalisen pisteytyksen, manipuloivan tekoälyn, reaaliaikaisen biometrisen tunn...

4 min lukuaika
EU AI Act AI Regulation +5