Miten tekoäly valitsee lähteensä? Tässä syy miksi sinua ei mainita
ChatGPT, Perplexity ja Gemini viittaavat samoihin lähteisiin yhä uudelleen. Miten ne valitsevat keneen viittaavat? Tässä selitys signaaleista ja konkreettiset toimenpiteet joilla pääset mukaan.
Kirjoitat ChatGPT:lle: "Kuka tekee tekoälyoptimointia Suomessa?" Tekoäly listaa kolme nimeä. Sinun yrityksesi ei ole mukana. Kilpailijasi on. Et tiedä miksi.
Se ei johdu tuurista.
Tekoälymallit eivät valitse lähteitään satunnaisesti. Niillä on kriteerit, ja ne ovat opittavissa. Tässä artikkelissa käydään läpi miten prosessi toimii, mitkä signaalit ratkaisevat, ja mitä konkreettisesti voit tehdä tullaksesi valituksi.
Miten eri tekoälymallit käyttävät lähteitä
Ennen kuin puhutaan signaaleista, on hyvä ymmärtää että kaikki tekoälymallit eivät toimi samalla tavalla.
ChatGPT ilman selausominaisuutta perustuu koulutusaineistoon, jonka tieto katkaisee tiettyyn päivämäärään. Se viittaa niihin lähteisiin, jotka ovat esiintyneet usein, johdonmukaisesti ja luotettavissa yhteyksissä siinä aineistossa jonka pohjalta se on koulutettu. Yksinkertaistettuna: mitä useammassa luotettavassa kontekstissa yrityksesi on mainittu ennen koulutuspäivää, sitä todennäköisemmin malli käyttää sitä lähteenä. Tähän vaikuttavat sekä suorat maininnat että sivustosi auktoriteetti hakukoneissa.
Perplexity hakee reaaliaikaisesti joka kyselyn yhteydessä. Se evaluoi hakuhetken sisältöä, pisteyttää sen relevanssin ja laadun perusteella, ja valitsee viittaukset tämän arvioinnin pohjalta. Tässä tieto ei riipu koulutuspäivämäärästä, joten tuoreus ja hakuhetken indeksointi nousevat tärkeiksi.
Google AI Overviews toimii Google-haun päälle, joten se hyödyntää suoraan Googlen rankaussignaaleja. Hyvä SEO-asema auttaa, mutta pelkkä hakusijoitus ei riitä: Googlen AI-järjestelmä suosii lähteitä joissa on rakenteellisesti selkeää ja tarkasti jäsennettyä tietoa.
Gemini yhdistelee sekä koulutusaineistoa että reaaliaikaista hakua. Se arvioi lähteitä samoilla peruskriteereillä kuin muutkin, mutta Googlen omistuksena se painottaa voimakkaasti Googlen ekosysteemin signaaleita.
Käytännössä optimoitavat asiat ovat pitkälti samat riippumatta mallista. Erojen tunteminen auttaa kuitenkin priorisoimaan.
Mitkä signaalit ratkaisevat
Tekoälymallit arvostavat samoja asioita kuin Google on aina arvostanut, mutta painotukset ovat osittain erilaiset. Ja yksi asia korostuu enemmän kuin SEO:ssa on totuttu: sisällön selkeys koneluettavassa muodossa.
Auktoriteetti. Kuinka paljon muut luotettavat lähteet viittaavat sinuun? Linkitykset, maininnat, siteeraukset toimialajulkaisuissa ja muissa relevanteissa paikoissa ovat edelleen tärkein yksittäinen signaali. Tämä rakentuu hitaasti, mutta ilman sitä ei synny kestävää tekoälynäkyvyyttä.
Temaattinen syvyys. Tekoäly arvioi onko sivustosi todellinen auktoriteetti aiheessaan vai käsitteleekö se kaikkea pintapuolisesti. Yritys jolla on 40 artikkelia samasta kapeasta aiheesta on luotettavampi lähde kuin yritys jolla on yksi artikkeli kaikesta. Syvyys voittaa leveyttä. Jos teet kirjanpitoa pk-yrityksille, kirjoita siitä paljon ja kattavasti, älä hajaannu kaikkeen taloushallintoon.
Sisällön selkeys ja rakenne. Tekoäly rakentaa vastauksensa lukemalla tekstiä. Jos tärkeimmät väitteet löytyvät helposti selkeässä rakenteessa, mallilla on helpompi käyttää niitä. Pitkät kappaleet täynnä varauksia ja kiertoilmaisuja eivät pärjää. Suora kieli, otsikointi, listat relevanteissa kohdissa ja kysymys-vastausrakenteet parantavat siteerattavuutta.
Strukturoitu data. Schema Markup, JSON-LD ja muu konekielinen tieto kertovat tekoälylle eksplisiittisesti kuka olet, mitä tarjoat, kenelle ja millä hinnalla. Ilman strukturoitua dataa malli joutuu päättelemään nämä tiedot pelkästä tekstistä, mikä on epätarkempaa ja epäluotettavampaa. Paikallisille yrityksille ja palveluyrityksille tämä on erityisen tärkeää, koska sijainti, palvelualue ja hinnoittelu ovat kriittisiä tietoja joita agenteille haluaa välittää täsmällisesti.
Johdonmukaisuus. Jos tieto sinusta on samanlaista useissa eri lähteissä, tekoäly pitää sitä luotettavana. Ristiriitaiset tiedot eri sivustoilla, väärä puhelinnumero hakemistossa, vanhentunut hinnoittelu omalla sivulla tai poikkeava yrityksen nimi Google Business Profilessa heikentävät luottamuspisteitäsi. Tämä on pieni asia joka on helppo korjata mutta jonka laiminlyöminen maksaa.
Tuoreus. Erityisesti reaaliaikaisesti hakevilla järjestelmillä tuoreella sisällöllä on etua. Aktiivisesti ylläpidetty sivusto jota päivitetään säännöllisesti saa enemmän painoa kuin sivusto jota ei ole koskettu kahteen vuoteen.
Mitä yleisesti tehdään väärin
Kaksi virhettä toistuvat yleisinä.
Ensimmäinen on sisällön tuottaminen ilman rakennetta. Paljon tekstiä yhdellä sivulla, asiat sekaisin, ei selkeää kysymys-vastausrakennetta, ei otsikoita jotka kertovat mistä on kyse. Ihmislukija voi etsiä tiedon, tekoäly ei jaksa etsiä. Jos tärkeä tieto ei löydy nopeasti, se ei päädy vastaukseen.
Toinen on laiminlyödä entirely tekninen kerros. Sivusto voi olla sisällöllisesti erinomainen mutta täysin vailla strukturoitua dataa. Tekoäly ei tiedä onko kyseessä yritys vai blogi, kuka on kohdeyleisö, mikä on hinta tai missä toimii. Nämä tiedot jää tulkittavaksi tekstistä, eikä tulkinta ole yhtä luotettava kuin eksplisiittinen data.
Mitä tehdä ensin
Kolme asiaa joilla on eniten vaikutusta lyhyellä ja pitkällä aikavälillä.
Kirjoita kapeammin ja syvemmin. Valitse yksi tai kaksi aihetta joissa haluat olla auktoriteetti. Kirjoita niistä kattavasti, käytännöllisesti ja täsmällisesti. Ohita aiheet jotka eivät kuulu ydinosaamiseesi. Tekoäly ei palkitse laajuudesta, se palkitsee syvyydestä ja johdonmukaisuudesta tietyssä aiheessa.
Laita tekninen pohja kuntoon. Schema Markup ja strukturoitu data ovat rakenteet joilla kerrot koneelle kuka olet. Tämä ei vaadi kuukausia, mutta se täytyy olla kunnossa. JSON-LD-toteutus yritystiedoille, palveluille ja hinnoittelulle on kertaluonteinen työ joka jää voimaan.
Hanki laadukkaita viittauksia. Muut sivustot jotka mainitsevat ja linkittävät sinuun ovat edelleen tärkein yksittäinen auktoriteettisignaali. Tämä ei tarkoita linkkien ostamista vaan relevanttia toimialajulkisuutta: artikkeleita joita muut jakavat, esiintymisiä asiantuntijana, mainintoja luotetuissa medioissa. Yksi laadukas viittaus tunnetussa julkaisussa vastaa kymmentä halpaa hakemistolinkkiä.
Kaksi tasoa jolle optimointi rakentuu
GEO-optimointi ja AEO-optimointi ovat ne kaksi käytännön tasoa joilla tekoälysiteerauksia rakennetaan. GEO kattaa generatiiviset hakukoneet kuten Perplexity, joissa lähdevalinta tapahtuu reaaliaikaisessa haussa. AEO kattaa vastauskoneet kuten ChatGPT, joissa malli vetää tietoa koulutusaineistostaan. Ne vaativat pitkälti samoja toimenpiteitä, mutta niiden ymmärtäminen erikseen auttaa priorisoimaan resurssit oikein.
Näiden päälle rakentuu AAIO, jossa kysymys ei enää ole pelkästään "mainitseeko tekoäly minut" vaan "voiko tekoälyagentti toimia sivustollani käyttäjän puolesta". Tässä tasossa optimoinnin kohde on autonominen agentti, ei ihminen. Se on eri kysymys ja vaatii oman pohjatyönsä, mutta GEO- ja AEO-kuntoon laitettu sivusto on jo hyvä lähtökohta.
Missä yrityksesi seisoo tällä hetkellä
Harva yritys tietää tarkalisti miten tekoäly näkee heidät tällä hetkellä. Se on ongelma, koska ilman lähtötilannetta ei voi tietää mitä korjata ensin eikä missä järjestyksessä.
AAIO Audit on 990 euron kertaluonteinen analyysi joka kattaa tekoälylöydettävyyden, teknisen rakenteen, sisällön laadun ja AAIO-valmiuden. Saat prioriteerilistan toimenpiteistä, ei pitkää raporttia joka jää lukematta. Raportti toimitetaan neljässä arkipäivässä, eikä se sido mihinkään isompaan projektiin.
Lähtötilanteen tietäminen ennen kuin investoi on aina oikea järjestys.