Konvergenssi tekoälyssä viittaa prosessiin, jossa koneoppimisen ja syväoppimisen mallit saavuttavat vakaan tilan iteratiivisen oppimisen kautta, varmistaen tarkat ennusteet minimoimalla ennustettujen ja todellisten tulosten välisen eron. Se on perustavanlaatuista tekoälyn tehokkuuden ja luotettavuuden kannalta erilaisissa sovelluksissa, aina autonomisista ajoneuvoista älykaupunkeihin.
•
5 min lukuaika
Konvoluutiohermoverkko (CNN) on erikoistunut keinotekoinen hermoverkko, joka on suunniteltu käsittelemään rakenteellista ruutudataa, kuten kuvia. CNN:t ovat erityisen tehokkaita visuaalista dataa sisältävissä tehtävissä, kuten kuvien luokittelussa, objektien tunnistuksessa ja kuvasegmentoinnissa. Ne jäljittelevät ihmisaivojen visuaalista käsittelymekanismia, minkä ansiosta niistä on tullut tietokonenäön kulmakivi.
•
3 min lukuaika
Koreferenssien ratkaisu on keskeinen NLP-tehtävä, jossa tunnistetaan ja yhdistetään tekstissä esiintyvät ilmaukset, jotka viittaavat samaan entiteettiin. Tämä on ratkaisevaa koneellisen ymmärryksen kannalta esimerkiksi tiivistämisessä, käännöksissä ja kysymys-vastausjärjestelmissä.
•
5 min lukuaika
Korpus (monikko: korpukset) tekoälyssä tarkoittaa suurta, rakenteellista tekstien tai ääniaineiston kokoelmaa, jota käytetään tekoälymallien kouluttamiseen ja arvioimiseen. Korpukset ovat olennaisia, jotta tekoälyjärjestelmät oppivat ymmärtämään, tulkitsemaan ja tuottamaan ihmiskieltä.
•
2 min lukuaika
Opi, mitä koulutasotaso tarkoittaa luettavuudessa, miten se lasketaan kaavoilla kuten Flesch-Kincaid, ja miksi se on tärkeää sisällön räätälöimiseksi yleisösi lukutaitotasolle.
•
6 min lukuaika
Koulutusdata tarkoittaa aineistoa, jota käytetään tekoälyalgoritmien opettamiseen. Sen avulla algoritmit oppivat tunnistamaan kaavoja, tekemään päätöksiä ja ennustamaan tuloksia. Tämä data voi sisältää tekstiä, numeroita, kuvia ja videoita, ja sen tulee olla korkealaatuista, monipuolista ja hyvin merkittyä tehokkaan tekoälymallin toiminnan takaamiseksi.
•
2 min lukuaika
Koulutusvirhe tekoälyssä ja koneoppimisessa tarkoittaa mallin ennustettujen ja todellisten tulosten välistä eroavaisuutta koulutusvaiheen aikana. Se on keskeinen mittari mallin suorituskyvyn arvioinnissa, mutta sitä tulee tarkastella yhdessä testivirheen kanssa ylisovittamisen tai alisovittamisen välttämiseksi.
•
5 min lukuaika
Ota selvää, mitä kuvantunnistus on tekoälyssä. Mihin sitä käytetään, mitkä ovat trendit ja miten se eroaa samankaltaisista teknologioista.
•
3 min lukuaika
Kuviontunnistus on laskennallinen prosessi, jossa tunnistetaan kaavoja ja säännönmukaisuuksia datasta. Se on keskeinen tekoälyn, tietojenkäsittelytieteen, psykologian ja data-analyysin aloilla. Kuviontunnistus automatisoi rakenteiden tunnistamisen puheessa, tekstissä, kuvissa ja abstrakteissa aineistoissa, mahdollistaen älykkäät järjestelmät ja sovellukset, kuten konenäön, puheentunnistuksen, OCR:n ja petosten havaitsemisen.
•
5 min lukuaika
Saat nopean ja yksinkertaisen yleiskatsauksen siitä, mitä kvanttilaskenta on. Ota selvää, mihin sitä voidaan käyttää, mitkä ovat haasteet ja tulevaisuuden toiveet.
•
3 min lukuaika
Kvartaalin päättyminen merkitsee yrityksen tilikauden kolmen kuukauden jakson loppua, mikä on keskeistä taloudellisessa raportoinnissa, suorituskyvyn arvioinnissa ja strategisessa suunnittelussa. Lue, miten tekoäly ja automaatio tehostavat näitä prosesseja, parantavat tarkkuutta ja tukevat parempaa päätöksentekoa.
•
6 min lukuaika
Käyrän alle jäävä pinta-ala (AUC) on koneoppimisessa keskeinen mittari, jolla arvioidaan binääriluokittelumallien suorituskykyä. Se mittaa mallin kokonaiskykyä erottaa positiiviset ja negatiiviset luokat toisistaan laskemalla vastaanottajan toimintakäyrän (ROC) alle jäävän pinta-alan.
•
3 min lukuaika
AI:n laajennettavuudella tarkoitetaan tekoälyjärjestelmien kykyä laajentaa toimintaansa uusiin osa-alueisiin, tehtäviin ja aineistoihin ilman merkittävää uudelleenkoulutusta, hyödyntäen esimerkiksi siirtoppimista, monitehtäväoppimista ja modulaarista suunnittelua joustavuuden ja saumattoman integraation mahdollistamiseksi.
•
4 min lukuaika
LangChain on avoimen lähdekoodin kehys, joka on suunniteltu sovellusten kehittämiseen suurten kielimallien (LLM) avulla. Se helpottaa tehokkaiden LLM-mallien, kuten OpenAI:n GPT-3.5:n ja GPT-4:n, integrointia ulkoisiin tietolähteisiin edistyneitä NLP-sovelluksia varten.
•
1 min lukuaika
LangGraph on edistynyt kirjasto tilallisten, monitoimijaisten sovellusten rakentamiseen suurten kielimallien (LLM) avulla. LangChain Inc:n kehittämä kirjasto laajentaa LangChainin ominaisuuksia syklisillä laskentatoiminnoilla, mahdollistaen monimutkaiset, agenttimaiset toiminnot ja ihmisen ohjauksen työnkuluissa.
•
2 min lukuaika
Large Language Model Meta AI (LLaMA) on huippuluokan luonnollisen kielen käsittelymalli, jonka on kehittänyt Meta. Jopa 65 miljardilla parametriarvolla LLaMA loistaa ihmismäisen tekstin ymmärtämisessä ja tuottamisessa tehtäviin, kuten käännös, tiivistäminen ja chatbotit.
•
2 min lukuaika
Opi, mikä on tekoälypohjainen lauseen uudelleenkirjoittaja, miten se toimii, sen käyttötapaukset ja miten se auttaa kirjoittajia, opiskelijoita ja markkinoijia muotoilemaan tekstiä uudelleen säilyttäen merkityksen ja parantaen selkeyttä.
•
5 min lukuaika
LazyGraphRAG on innovatiivinen lähestymistapa Retrieval-Augmented Generationiin (RAG), joka optimoi tehokkuuden ja vähentää kustannuksia tekoälypohjaisessa tiedonhausta yhdistämällä graafiteoriaa ja NLP:tä dynaamisten, korkealaatuisten kyselytulosten saavuttamiseksi.
•
3 min lukuaika
Liidien kerääminen automatisoi arvokkaiden yhteystietojen poiminnan verkkolähteistä, mahdollistaen yrityksille tehokkaan ja laadukkaan liiditietokannan rakentamisen kohdennettua markkinointia ja myyntiä varten samalla varmistaen tietosuojavaatimusten noudattamisen.
•
8 min lukuaika
Lexile-kehys (Lexile Framework for Reading) on tieteellinen menetelmä, jolla mitataan sekä lukijan taitotasoa että tekstin vaikeustasoa samalla kehityksellisellä asteikolla. Tämä auttaa yhdistämään lukijat sopivan haastaviin teksteihin ja edistää lukutaidon kehittymistä.
•
5 min lukuaika
LightGBM eli Light Gradient Boosting Machine on Microsoftin kehittämä edistynyt gradienttitehostuskehys. Se on suunniteltu korkean suorituskyvyn koneoppimistehtäviin, kuten luokitteluun, järjestämiseen ja regressioon. LightGBM erottuu kyvyllään käsitellä suuria tietomääriä tehokkaasti, kuluttaa vähän muistia ja tarjota samalla korkean tarkkuuden.
•
4 min lukuaika
Liidien reititys on prosessi, jossa saapuvat myyntiliidit jaetaan automaattisesti oikeille myyntiedustajille organisaatiossa, varmistaen että prospektit ohjataan parhaalle edustajalle esimerkiksi sijainnin, tuote-kiinnostuksen ja asiantuntemuksen perusteella. Lue, miten automaatio ja tekoäly optimoivat liidien jakamisen parempien konversioiden ja asiakaskokemuksen saavuttamiseksi.
•
5 min lukuaika
Lineaarinen regressio on tilastotieteen ja koneoppimisen keskeinen analyysimenetelmä, joka mallintaa riippuvien ja riippumattomien muuttujien välistä suhdetta. Tunnettu yksinkertaisuudestaan ja tulkittavuudestaan, se on olennainen osa ennakoivaa analytiikkaa ja datamallinnusta.
•
3 min lukuaika
Tutustu LIX-luettavuusmittariin—kaavaan, joka on kehitetty tekstin monimutkaisuuden arviointiin analysoimalla lauseiden pituutta ja pitkiä sanoja. Ymmärrä sen sovellukset opetuksessa, kustantamisessa, journalismissa, tekoälyssä ja muilla aloilla.
•
6 min lukuaika
Tutustu suurten kielimallien (LLM) kuten GPT-3:n ja GPT-4:n koulutus- ja käyttökustannuksiin, mukaan lukien laskenta-, energia- ja laitteistokulut, sekä selvitä strategioita näiden kustannusten hallintaan ja vähentämiseen.
•
5 min lukuaika
llms.txt-tiedosto on standardoitu Markdown-tiedosto, jonka tarkoituksena on optimoida, miten suuret kielimallit (LLM:t) pääsevät käsiksi verkkosivuston sisältöön ja prosessoivat sitä. Sivuston juureen sijoitettuna se tarjoaa kuratoidun, koneellisesti luettavan indeksin, joka parantaa tekoälypohjaisia vuorovaikutuksia.
•
6 min lukuaika
Logaritminen tappio eli log loss (tai ristiinentropiatappio) on keskeinen mittari koneoppimismallien suorituskyvyn arviointiin – erityisesti binääriluokittelussa – mittaamalla ennustettujen todennäköisyyksien ja toteutuneiden lopputulosten eroa sekä rankaisemalla vääriä tai ylivarmoja ennusteita.
•
4 min lukuaika
Logistinen regressio on tilastollinen ja koneoppimisen menetelmä, jota käytetään binaaristen lopputulosten ennustamiseen datasta. Se arvioi tapahtuman todennäköisyyden yhden tai useamman selittävän muuttujan perusteella, ja sitä sovelletaan laajasti terveydenhuollossa, rahoituksessa, markkinoinnissa ja tekoälyssä.
•
4 min lukuaika
Luettavuus mittaa, kuinka helppoa lukijan on ymmärtää kirjoitettua tekstiä, ja heijastaa selkeyttä ja saavutettavuutta sanaston, lauserakenteen ja jäsentelyn kautta. Opi sen merkitys, mittauskaavat ja kuinka tekoälytyökalut parantavat luettavuutta opetuksessa, markkinoinnissa, terveydenhuollossa ja muilla aloilla.
•
6 min lukuaika
Opi, mitä lukutaso tarkoittaa, miten sitä mitataan ja miksi se on tärkeää. Tutustu erilaisiin arviointijärjestelmiin, lukutaitoon vaikuttaviin tekijöihin ja strategioihin lukutason parantamiseksi, mukaan lukien tekoälyn rooli yksilöllisessä oppimisessa.
•
5 min lukuaika
Tekoälyluokittelija on koneoppimisalgoritmi, joka antaa syötteelle luokkia, eli jakaa tiedon ennalta määriteltyihin luokkiin opittujen mallien perusteella aiemmasta datasta. Luokittelijat ovat keskeisiä työkaluja tekoälyssä ja datatieteessä, ja ne mahdollistavat päätöksenteon eri toimialoilla.
•
7 min lukuaika
Luonnollisen kielen generointi (NLG) on tekoälyn osa-alue, joka keskittyy jäsennellyn datan muuntamiseen ihmismäiseksi tekstiksi. NLG mahdollistaa sovellukset kuten chatbotit, puheavustajat, sisällöntuotanto ja paljon muuta tuottamalla johdonmukaisia, kontekstiin sopivia ja kieliopillisesti oikeita kertomuksia.
•
2 min lukuaika
Luonnollisen kielen käsittely (NLP) mahdollistaa tietokoneiden ymmärtävän, tulkitsevan ja tuottavan ihmiskieltä hyödyntäen laskennallista kielitiedettä, koneoppimista ja syväoppimista. NLP:n avulla toteutetaan sovelluksia kuten käännöksiä, chatbotteja, tunnetilan analyysiä ja paljon muuta, mikä muuttaa toimialoja ja parantaa ihmisen ja koneen välistä vuorovaikutusta.
•
2 min lukuaika
Luonnollisen kielen käsittely (NLP) on tekoälyn (AI) osa-alue, jonka avulla tietokoneet ymmärtävät, tulkitsevat ja tuottavat ihmiskieltä. Tutustu keskeisiin osa-alueisiin, toimintaperiaatteisiin ja sovelluksiin eri toimialoilla.
•
2 min lukuaika
Luonnollisen kielen ymmärtäminen (NLU) on tekoälyn osa-alue, jonka tavoitteena on mahdollistaa koneiden kyky ymmärtää ja tulkita ihmiskieltä kontekstuaalisesti, ylittäen pelkän tekstin prosessoinnin tunnistaakseen tarkoituksen, semantiikan ja vivahteet esimerkiksi keskusteluboteissa, tunnetilan analyysissä ja konekäännöksissä.
•
8 min lukuaika
K-lähimmän naapurin (KNN) algoritmi on ei-parametrinen, valvotun oppimisen algoritmi, jota käytetään luokittelu- ja regressiotehtäviin koneoppimisessa. Se ennustaa tuloksia etsimällä 'k' lähintä havaintoa, hyödyntää etäisyysmittareita ja enemmistöäänestystä, ja tunnetaan yksinkertaisuudestaan ja monipuolisuudestaan.
•
4 min lukuaika
Läpinäkyvyys tekoälyssä (AI) tarkoittaa sitä avoimuutta ja selkeyttä, jolla tekoälyjärjestelmät toimivat, mukaan lukien niiden päätöksentekoprosessit, algoritmit ja data. Se on olennainen osa tekoälyn etiikkaa ja hallintaa, varmistaen vastuullisuuden, luottamuksen ja sääntelyn noudattamisen.
•
4 min lukuaika
Mallin ajautuminen eli mallin rappeutuminen tarkoittaa koneoppimismallin ennustustarkkuuden heikkenemistä ajan myötä johtuen todellisen maailman ympäristön muutoksista. Lue lisää mallin ajautumisen tyypeistä, syistä, tunnistusmenetelmistä ja ratkaisuista tekoälyn ja koneoppimisen yhteydessä.
•
6 min lukuaika
Mallin robustisuudella tarkoitetaan koneoppimismallin (ML) kykyä ylläpitää johdonmukaista ja tarkkaa suorituskykyä syötetietojen vaihteluista ja epävarmuuksista huolimatta. Robustit mallit ovat ratkaisevan tärkeitä luotettaville tekoälysovelluksille, sillä ne takaavat kestävyyden kohinaa, poikkeavia arvoja, jakaumamuutoksia ja vihamielisiä hyökkäyksiä vastaan.
•
4 min lukuaika
Mallin romahtaminen on ilmiö tekoälyssä, jossa koulutettu malli heikentyy ajan myötä, erityisesti silloin kun se tukeutuu synteettiseen tai tekoälyn tuottamaan dataan. Tämä johtaa vähentyneeseen tuotosten monimuotoisuuteen, varmoihin vastauksiin ja kyvyn heikkenemiseen tuottaa luovia tai omaperäisiä sisältöjä.
•
3 min lukuaika
Mallin selitettävyydellä tarkoitetaan kykyä ymmärtää, selittää ja luottaa koneoppimismallien tekemiin ennusteisiin ja päätöksiin. Se on oleellista tekoälyssä, erityisesti päätöksenteossa terveydenhuollossa, rahoituksessa ja autonomisissa järjestelmissä, yhdistäen monimutkaiset mallit ja ihmisen ymmärryksen.
•
5 min lukuaika
Mallin kontekstiprotokolla (MCP) on avoin standardirajapinta, joka mahdollistaa suurten kielimallien (LLM) turvallisen ja yhdenmukaisen pääsyn ulkoisiin tietolähteisiin, työkaluihin ja ominaisuuksiin, toimien AI-järjestelmien 'USB-C':nä.
•
3 min lukuaika
Mean Average Precision (mAP) on keskeinen mittari tietokonenäössä objektintunnistusmallien arviointiin; se yhdistää sekä tunnistuksen että paikannustarkkuuden yhteen yksittäiseen arvoon. Sitä käytetään laajasti tekoälymallien vertailussa ja optimoinnissa esimerkiksi autonomisessa ajamisessa, valvonnassa ja tiedonhaussa.
•
5 min lukuaika
Metaprompti tekoälyssä on korkean tason ohjeistus, jonka tarkoituksena on luoda tai parantaa muita kehotteita suurille kielimalleille (LLM), tehostaa tekoälyn tuottamia tuloksia, automatisoida tehtäviä ja parantaa monivaiheista päättelyä chatteboteissa ja automaatioprosesseissa.
•
6 min lukuaika
Fastai on syväoppimiskirjasto, joka on rakennettu PyTorchin päälle ja tarjoaa korkean tason rajapintoja, siirto-oppimista ja kerroksellisen arkkitehtuurin helpottamaan neuroverkkojen kehittämistä niin kuvantunnistukseen, NLP:hen, taulukkodataan kuin muuhunkin. Jeremy Howardin ja Rachel Thomasin kehittämä Fastai on avoimen lähdekoodin ja yhteisövetoista, ja tekee huipputason tekoälystä saavutettavaa kaikille.
•
7 min lukuaika
Ota selvää Mistral AI:sta ja heidän tarjoamistaan LLM-malleista. Tutustu mallien käyttötapoihin ja siihen, mikä erottaa ne muista.
•
3 min lukuaika
Moniaskelinen päättely on tekoälyn prosessi, erityisesti NLP:ssä ja tietämysgraafeissa, jossa järjestelmät yhdistävät useita tietoja vastatakseen monimutkaisiin kysymyksiin tai tehdäkseen päätöksiä. Se mahdollistaa loogiset yhteydet eri tietolähteiden välillä, tukien kehittynyttä kysymys-vastausjärjestelmää, tietämysgraafien täydentämistä ja älykkäämpiä chattebotteja.
•
5 min lukuaika
Monte Carlo -menetelmät ovat laskennallisia algoritmeja, jotka käyttävät toistuvaa satunnaisotantaa ratkaistakseen monimutkaisia, usein deterministisiä ongelmia. Laajasti käytetty rahoituksessa, tekniikassa, tekoälyssä ja muilla aloilla, ne mahdollistavat epävarmuuden mallintamisen, optimoinnin ja riskinarvioinnin simuloimalla lukuisia skenaarioita ja analysoimalla todennäköisyysjakaumia.
•
7 min lukuaika
Apache MXNet on avoimen lähdekoodin syväoppimiskehys, joka on suunniteltu tehokkaaseen ja joustavaan syvien neuroverkkojen koulutukseen ja käyttöönottoon. Tunnettu skaalautuvuudestaan, hybridiohjelmointimallistaan ja monikielisestä tuestaan – MXNet mahdollistaa tutkijoille ja kehittäjille kehittyneiden tekoälyratkaisujen rakentamisen.
•
5 min lukuaika
Naivibayes on perhe luokittelualgoritmeja, jotka perustuvat Bayesin kaavaan ja hyödyntävät ehdollista todennäköisyyttä yksinkertaistavalla oletuksella, että piirteet ovat keskenään ehdollisesti riippumattomia. Tästä huolimatta Naivibayes-luokittelijat ovat tehokkaita, skaalautuvia ja niitä käytetään esimerkiksi roskapostin suodatuksessa ja tekstiluokittelussa.
•
4 min lukuaika
Negatiivinen kehotus tekoälyssä on ohje, joka kertoo malleille, mitä niiden ei tule sisällyttää tuotettuun lopputulokseen. Toisin kuin perinteiset kehotteet, jotka ohjaavat sisällön luomista, negatiiviset kehotteet määrittävät elementtejä, tyylejä tai ominaisuuksia, joita on vältettävä, tarkentaen tuloksia ja varmistaen, että ne vastaavat käyttäjän mieltymyksiä – erityisesti generatiivisissa malleissa, kuten Stable Diffusion ja Midjourney.
•
7 min lukuaika
Neuromorfinen laskenta on huippuluokan lähestymistapa tietokoneiden suunnittelussa, jossa sekä laitteisto että ohjelmisto mallinnetaan ihmisen aivojen ja hermoston mukaan. Tämä monitieteinen ala, joka tunnetaan myös nimellä neuromorfinen suunnittelu, yhdistää tietojenkäsittelytieteen, biologian, matematiikan, sähkötekniikan ja fysiikan luodakseen biologisesti inspiroituja tietojärjestelmiä ja laitteistoja.
•
2 min lukuaika
Nimettyjen entiteettien tunnistus (NER) on keskeinen luonnollisen kielen käsittelyn (NLP) osa-alue tekoälyssä. Sen tavoitteena on tunnistaa ja luokitella tekstin entiteetit ennalta määriteltyihin kategorioihin, kuten henkilöt, organisaatiot ja sijainnit, jotta tietojen analysointi tehostuu ja tiedon poiminta automatisoituu.
•
5 min lukuaika
Natural Language Toolkit (NLTK) on kattava kokoelma Python-kirjastoja ja ohjelmia symboliseen ja tilastolliseen luonnollisen kielen käsittelyyn (NLP). Laajasti käytetty sekä akateemisessa maailmassa että teollisuudessa, se tarjoaa työkaluja tokenisointiin, stemmaukseen, lemmatisaatioon, sanaluokkien tunnistukseen ja paljon muuhun.
•
5 min lukuaika
No-Code AI -alustat mahdollistavat käyttäjille tekoäly- ja koneoppimismallien rakentamisen, käyttöönoton ja hallinnan ilman koodin kirjoittamista. Nämä alustat tarjoavat visuaaliset käyttöliittymät ja valmiiksi rakennetut komponentit, demokratisoiden tekoälyn liiketoimintakäyttäjille, analyytikoille ja toimialan asiantuntijoille.
•
7 min lukuaika
NSFW, lyhenne sanoista Not Safe For Work (ei turvallinen työssäkatseluun), on internet-slangia, jota käytetään merkitsemään sisältöä, joka saattaa olla sopimatonta tai loukkaavaa katsottavaksi julkisissa tai ammatillisissa ympäristöissä. Tämä merkintä toimii varoituksena siitä, että materiaali voi sisältää esimerkiksi alastomuutta, seksuaalista sisältöä, graafista väkivaltaa, kiroilua tai muita arkaluonteisia aiheita, jotka eivät sovi työpaikoille tai kouluihin.
•
3 min lukuaika
NumPy on avoimen lähdekoodin Python-kirjasto, joka on keskeinen numeerisessa laskennassa ja tarjoaa tehokkaat taulukko-operaatiot ja matemaattiset funktiot. Se on tieteellisen laskennan, data-analytiikan ja koneoppimisen perusta mahdollistamalla nopean ja laajamittaisen datankäsittelyn.
•
5 min lukuaika
Ohjaamaton oppiminen on koneoppimisen osa-alue, joka keskittyy löytämään kaavoja, rakenteita ja suhteita merkitsemättömästä datasta, mahdollistaen tehtäviä kuten klusterointi, ulottuvuuden vähentäminen ja assosiaatiosääntöjen oppiminen sovelluksissa, kuten asiakassegmentointi, poikkeamien tunnistus ja suosittelujärjestelmät.
•
5 min lukuaika
Ohjattu oppiminen on keskeinen lähestymistapa koneoppimisessa ja tekoälyssä, jossa algoritmit oppivat nimetyistä tietoaineistoista tekemään ennusteita tai luokituksia. Tutustu sen prosessiin, tyyppeihin, keskeisiin algoritmeihin, sovelluksiin ja haasteisiin.
•
8 min lukuaika
Ohjattu oppiminen on keskeinen tekoälyn ja koneoppimisen käsite, jossa algoritmeja koulutetaan nimetyllä datalla tekemään tarkkoja ennusteita tai luokituksia uudesta, aiemmin näkemättömästä datasta. Tutustu sen tärkeimpiin osiin, tyyppeihin ja etuihin.
•
2 min lukuaika