Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Hei kaikki! Nimeni on Sasha, olen teknologiajohtaja ja LoyaltyLabin perustaja. Kaksi vuotta sitten ystäväni ja minä, kuten kaikki köyhät opiskelijat, menimme illalla oluelle lähimpään talon lähellä olevaan kauppaan. Olimme erittäin järkyttyneitä siitä, että jälleenmyyjä, tietäen, että tulemme oluelle, ei tarjonnut alennusta siruista tai keksistä, vaikka tämä on niin loogista! Emme ymmärtäneet, miksi tämä tilanne on tapahtumassa, ja päätimme perustaa oman yrityksen. No, bonuksena kirjoita itsellesi alennuksia joka perjantai samoista siruista.

Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Ja kaikki meni siihen pisteeseen, että puhun materiaalin kanssa tuotteen teknisestä puolesta NVIDIA GTC. Jaamme mielellämme työmme yhteisön kanssa, joten julkaisen raporttini artikkelin muodossa.

Esittely

Kuten kaikki matkan alussa, aloitimme yleiskatsauksella suositusjärjestelmien tekemiseen. Ja seuraavan tyyppinen arkkitehtuuri osoittautui suosituimmaksi:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Se koostuu kahdesta osasta:

  1. Ehdokkaiden otos suositusten saamiseksi yksinkertaisella ja nopealla mallilla, yleensä yhteistyöllä.
  2. Ehdokkaiden luokittelu monimutkaisemman ja hitaamman sisältömallin mukaan ottaen huomioon kaikki datan mahdolliset ominaisuudet.

Tässä ja alla käytän seuraavia termejä:

  • ehdokas / ehdokas suosituksiin - käyttäjätuotepari, joka saattaa mahdollisesti päästä suosituksiin tuotannossa.
  • ehdokkaiden uutto/uutto/ehdokas uuttomenetelmä — prosessi tai menetelmä "suositusehdokkaiden" poimimiseksi saatavilla olevista tiedoista.

Ensimmäisessä vaiheessa käytetään yleensä erilaisia ​​yhteistyösuodatuksen muunnelmia. Suosituin - ALS. Yllättäen useimmat suositusjärjestelmiä koskevista artikkeleista paljastavat vain ensimmäisessä vaiheessa erilaisia ​​parannuksia yhteistyömalleihin, mutta kukaan ei puhu muista näytteenottomenetelmistä. Meille lähestymistapa, jossa käytetään vain yhteistyömalleja ja erilaisia ​​optimointeja niiden kanssa, ei toiminut odotetulla laadulla, joten perehdyimme tutkimukseen nimenomaan tästä osasta. Ja artikkelin lopussa näytän, kuinka paljon pystyimme parantamaan ALS:ää, joka oli lähtökohtamme.

Ennen kuin siirryn lähestymistapamme kuvaamiseen, on tärkeää huomata, että reaaliaikaisten suositusten kanssa, kun meidän on tärkeää ottaa huomioon 30 minuuttia sitten tapahtuneet tiedot, ei todellakaan ole monia lähestymistapoja, jotka voivat toimia oikeaan aikaan. Mutta meidän tapauksessamme meidän on kerättävä suosituksia enintään kerran päivässä ja useimmissa tapauksissa - kerran viikossa, mikä antaa meille mahdollisuuden käyttää monimutkaisia ​​malleja ja moninkertaistaa laatu.

Otetaan lähtötasoksi, mitä mittareita vain ALS näyttää ehdokkaiden poimintatehtävästä. Tärkeimmät seuraamamme mittarit ovat:

  • Tarkkuus - oikein valittujen ehdokkaiden osuus otokseen valituista.
  • Recall - ehdokkaiden osuus ehdokkaista, jotka todella olivat tavoitevälillä.
  • F1-pisteet - F-pisteet laskettu kahdesta edellisestä pisteestä.

Tarkastellaan myös lopullisen mallin mittareita, kun on harjoiteltu gradientin tehostamista lisäsisältöominaisuuksilla. On myös kolme päämittaria:

  • precision@5 — keskimääräinen osumien prosenttiosuus viiden parhaan joukosta kunkin asiakkaan todennäköisyydellä.
  • vastausnopeus@5 — ostajien muuntaminen myymäläkäynnistä vähintään yhden henkilökohtaisen tarjouksen ostoksi (yksi tarjous sisältää 5 tuotetta).
  • keskimääräinen roc-auc käyttäjää kohti – keskitaso roc-auc jokaiselle ostajalle.

On tärkeää huomata, että kaikki nämä mittarit mitataan aikasarjan ristiinvalidointi, eli harjoitus tapahtuu ensimmäisen k viikon aikana ja k + 1 viikkoa otetaan testitiedoiksi. Näin ollen kausittaiset nousut/laskokset vaikuttivat hyvin vähän mallien laadun tulkintaan. Lisäksi kaikissa kaavioissa abskissa-akseli osoittaa viikon numeron ristiinvahvistuksessa ja ordinaatta-akseli osoittaa määritetyn metriikan arvon. Kaikki kaaviot perustuvat yhden asiakkaan tapahtumatietoihin, joten niiden välinen vertailu on oikea.

Ennen kuin alamme kuvailla lähestymistapaamme, katsotaanpa ensin lähtötilannetta, joka on ALS-koulutettu malli.
Ehdokkaiden poimintametrit:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Lopulliset mittarit:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Käsittelen kaikkia algoritmien toteutuksia jonkinlaisena liiketoimintahypoteesina. Näin ollen hyvin karkeasti kaikkia yhteistyömalleja voidaan pitää hypoteesina, jonka mukaan "ihmisillä on taipumus ostaa sitä, mitä he pitävät". Kuten sanoin, emme rajoittuneet sellaiseen semantiikkaan, ja tässä on joitain hypoteeseja, jotka toimivat edelleen hienosti offline-vähittäiskaupan datassa:

  1. Mitä olet ostanut ennen.
  2. Samanlainen kuin ennen ostamani.
  3. Kauan menneen oston aika.
  4. Suosittu kategorian/brändin mukaan.
  5. Vaihtoehtoiset eri tavaroiden ostot viikoittain (Markov-ketjut).
  6. Ostajille samankaltaisia ​​tuotteita eri mallien (Word2Vec, DSSM jne.) rakentamien ominaisuuksien mukaan.

Mitä ostit ennen

Ilmeisin heuristinen, joka toimii erittäin hyvin päivittäistavarakaupassa. Täältä otamme kaikki tavarat, jotka kanta-asiakaskortin haltija osti viimeisen K päivän aikana (yleensä 1-3 viikkoa) tai K päivää vuosi sitten. Käyttämällä vain tätä menetelmää saamme seuraavat tiedot:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Tässä on aivan ilmeistä, että mitä enemmän otamme ajanjaksoa, sitä enemmän muistamme ja vähemmän tarkkuutta meillä on ja päinvastoin. Paremmat tulokset asiakkaille keskimäärin antavat "viimeiset 2 viikkoa".

Samanlainen kuin ennen ostamani

Ei ole yllättävää, että "mitä on ostanut ennen" toimii hyvin päivittäistavarakaupassa, mutta ehdokkaiden poimiminen vain siitä, mitä käyttäjä on jo ostanut, ei ole kovin siistiä, koska on epätodennäköistä, että ostajaa voidaan yllättää jollain uudella tuotteella. Siksi ehdotamme tämän heuristiikan hieman parantamista samoilla yhteistyömalleilla. ALS-koulutuksen aikana saamistamme vektoreista saat samanlaisia ​​tuotteita kuin mitä käyttäjä on jo ostanut. Tämä ajatus on hyvin samankaltainen kuin videosisällön katselupalveluiden "samankaltaiset videot", mutta koska emme tiedä mitä käyttäjä syö/ostaa tietyllä hetkellä, voimme etsiä vain jotain samankaltaista kuin mitä hän on jo ostanut, varsinkin kun tiedämme jo kuinka hyvin se toimii. Kun käytät tätä menetelmää käyttäjien tapahtumiin viimeisen kahden viikon aikana, saamme seuraavat tiedot:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Täällä k - samankaltaisten tuotteiden määrä, joka on haettu kustakin ostajan viimeisten 14 päivän aikana ostamasta tuotteesta.
Tämä lähestymistapa toimi erityisen hyvin meille asiakkaalle, joka oli kriittinen olla suosittelematta sitä, mikä oli jo käyttäjän ostohistoriassa.

Kauan kulunut ostojakso

Kuten olemme jo havainneet, tavaroiden ostamisen tiheyden vuoksi ensimmäinen lähestymistapa toimii hyvin erityispiirteissämme. Mutta entä tavarat, kuten pesujauhe/shampoo/jne. Toisin sanoen tuotteilla, joita ei todennäköisesti tarvita joka viikko tai kaksi ja joita aiemmilla menetelmillä ei voida erottaa. Tämä tarkoittaa seuraavaa ajatusta - ehdotetaan laskemaan kunkin tuotteen ostoaika keskimäärin ostajille, jotka ostivat tuotteen enemmän k kerran. Poimi sitten se, mikä ostajalta todennäköisesti on jo loppunut. Tavaroille laskettujen ajanjaksojen riittävyys voidaan tarkistaa silmällä:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Ja sitten katsotaan, osuuko tuotejakson loppu siihen aikaväliin, jolloin suositukset ovat tuotannossa ja näytämme, mikä putoaa. Lähestymistapa voidaan havainnollistaa näin:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Tässä on 2 päätapausta, joita voidaan harkita:

  1. Otetaanko näytetuotteita asiakkaille, jotka ostivat tuotteen vähemmän kuin K kertaa.
  2. Otetaanko näyte tuotteesta, jos sen ajanjakson loppu osuu ennen tavoitevälin alkua.

Seuraava kaavio näyttää, mitä tuloksia tällä menetelmällä saavutetaan eri hyperparametreillä:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
ft - Ota vain ostajat, jotka ovat ostaneet tuotteen vähintään K (tässä K = 5) kertaa
tm — Ota vain hakijat, jotka kuuluvat tavoitevälille

Ei yllättävää, pystyy (0, 0) suurin muistaa ja pienin tarkkuus, koska tällä ehdolla useimmat ehdokkaat poimitaan. Parhaat tulokset saadaan kuitenkin, kun emme ota näytteitä asiakkaille, jotka ovat ostaneet tietyn tuotteen vähemmän kuin k kertaa ja poimia muun muassa tavarat, joiden ajanjakson loppu osuu ennen tavoiteväliä.

Suosittu kategorioittain

Toinen melko ilmeinen idea on kokeilla suosittuja tuotteita eri luokista tai tuotemerkeistä. Täällä lasketaan jokaiselle asiakkaalle top-k "suosikki" luokat/brändit ja poimi "suosittu" kyseisestä luokasta/brändistä. Meidän tapauksessamme määrittelemme "suosikin" ja "suositun" tuoteostosten määrän perusteella. Tämän lähestymistavan lisäetuna on sen soveltuvuus kylmäkäynnistystapaukseen. Eli asiakkaille, jotka ovat tehneet joko hyvin vähän ostoksia tai eivät ole olleet liikkeessä pitkään aikaan tai ovat yleensä myöntäneet vain kanta-asiakaskortin. Heille on helpompaa ja parasta heittää sisään tavaroita, jotka ovat suosittuja ostajien keskuudessa, joilla on olemassa oleva historia. Mittarit ovat seuraavat:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Tässä sanan "luokka" perässä oleva numero tarkoittaa luokan sisäkkäistasoa.

Yleisesti ottaen ei myöskään ole yllättävää, että kapeammat kategoriat saavuttavat parempia tuloksia, koska ne poimivat tarkempia ostajien "suosikkituotteita".

Erilaisten tavaroiden vaihtoehtoiset ostot viikosta toiseen

Mielenkiintoinen lähestymistapa, jota en ole nähnyt suositusjärjestelmiä koskevissa artikkeleissa, on melko yksinkertainen ja samalla toimiva Markovin ketjujen tilastollinen menetelmä. Tässä käytämme 2 eri viikkoa, jonka jälkeen jokaiselle asiakkaalle rakennamme tuotepareja [ostettu viikolla i]-[ostettu viikolla j], missä j > i, ja tästä lasketaan jokaiselle tuotteelle todennäköisyys vaihtaa toiseen tuotteeseen ensi viikolla. Eli jokaiselle tavaraparille tuote-tuotej laske niiden lukumäärä löydetyistä pareista ja jaa parien määrällä, missä Tuotteet oli ensimmäisellä viikolla. Ehdokkaiden poimimiseksi otamme ostajan viimeisen tarkastuksen ja saamme top-k todennäköisimmin seuraavat tuotteet siirtymämatriisista, jonka saimme. Siirtymämatriisin rakennusprosessi näyttää tältä:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Todellisista esimerkeistä siirtymätodennäköisyyksien matriisissa näemme seuraavat mielenkiintoiset ilmiöt:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Täällä voit huomata mielenkiintoisia riippuvuuksia, jotka paljastuvat kuluttajakäyttäytymisessä: esimerkiksi sitrushedelmien ystävät tai maitomerkki, josta he todennäköisesti vaihtavat toiseen. Ei myöskään ole yllättävää, että tuotteet, joilla on paljon toistuvia ostoksia, kuten voi, päätyvät myös tänne.

Markovin ketjujen menetelmän mittarit ovat seuraavat:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
k - kunkin ostajan viimeisestä tapahtumasta ostetusta tuotteesta haettujen tuotteiden määrä.
Kuten näemme, konfiguraatio k=4 näyttää parhaan tuloksen. Viikon 4 piikki selittyy kausiluonteisella käyttäytymisellä lomien aikaan. 

Ostajille samankaltaisia ​​tuotteita eri mallien ominaisuuksien mukaan

Joten tulemme vaikeimpaan ja mielenkiintoisimpaan osaan - lähimpien naapureiden etsimiseen ostajien ja eri mallien mukaan rakennettujen tuotteiden vektoreissa. Käytämme työssämme kolmea tällaista mallia:

  • ALS
  • Word2Vec (Item2Vec sellaisiin tehtäviin)
  • DSSM

Olemme jo käsitelleet ALS:ää, voit lukea kuinka se oppii täällä. Word2Vec:n tapauksessa käytämme mallin tunnettua toteutusta alkaen gensim. Vastaavasti tekstien kanssa määrittelemme tarjouksen ostokuitiksi. Tuotevektoria rakennettaessa malli siis oppii ennustamaan sen "kontekstin" kuitissa olevalle tuotteelle (kuitissa olevalle muulle tavaralle). Verkkokaupan tiedoissa on parempi käyttää ostajan istuntoa kuitin sijaan. Ozon. Ja DSSM on mielenkiintoisempi purkaa. Sen kirjoittivat alun perin Microsoftin kaverit hakumalliksi, voit lukea alkuperäisen tutkimuksen täältä. Mallin arkkitehtuuri näyttää tältä:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Täällä Q - kysely, käyttäjän hakukysely, D[i] - asiakirja, verkkosivu. Mallin syöttö vastaanottaa pyynnön merkit ja sivut vastaavasti. Jokaista syöttökerrosta seuraa joukko täysin yhdistettyjä kerroksia (monikerroksinen perceptron). Seuraavaksi malli oppii minimoimaan kosinin mallin viimeisissä kerroksissa saatujen vektorien välillä.
Suositustehtävät käyttävät täsmälleen samaa arkkitehtuuria, mutta pyynnön sijaan on käyttäjä ja sivujen sijaan tuotteet. Ja meidän tapauksessamme tämä arkkitehtuuri muunnetaan seuraavaksi:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Nyt tulosten tarkistamiseksi on vielä katettava viimeinen kohta - jos ALS:n ja DSSM:n tapauksessa olemme määrittäneet käyttäjävektorit eksplisiittisesti, niin Word2Vecissä meillä on vain tuotevektorit. Tässä käyttäjävektorin rakentamiseksi olemme tunnistaneet kolme päätapaa:

  1. Lisää vain vektorit, niin kosinietäisyydelle käy ilmi, että olemme juuri laskeneet ostohistorian tuotteiden keskiarvon.
  2. Vektorien summaus tietyllä aikapainotuksella.
  3. Tavaroiden punnitus TF-IDF-kertoimella.

Ostajavektorin lineaarisen painotuksen tapauksessa lähdetään hypoteesista, että käyttäjän eilen ostamalla tuotteella on suurempi vaikutus hänen käyttäytymiseensä kuin tuotteella, jonka hän osti puoli vuotta sitten. Joten tarkastelemme ostajan edellistä viikkoa kertoimella 1 ja mitä tapahtui seuraavaksi kertoimilla ½, ⅓ jne.:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

TF-IDF-kertoimille teemme täsmälleen samoin kuin TF-IDF:ssä teksteille, vain pidämme ostajaa asiakirjana ja kuittia tarjouksena, vastaavasti sana on tuote. Joten käyttäjävektori siirtyy enemmän harvinaisia ​​tavaroita kohti, eivätkä ostajalle usein tutut ja tutut tavarat muuta sitä paljon. Lähestymistapa voidaan havainnollistaa näin:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Katsotaanpa nyt mittareita. Tältä ALS-tulokset näyttävät:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Item2Vec-mittarit eri muunnelmilla ostajavektorin muodostamisesta:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Tässä tapauksessa käytetään täsmälleen samaa mallia kuin perustilassamme. Ainoa ero on se, mitä k:tä käytämme. Jotta voisit käyttää vain yhteistyömalleja, sinun on otettava noin 50-70 lähintä tuotetta jokaista asiakasta kohden.

Ja DSSM-mittarit:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Kuinka yhdistää kaikki menetelmät?

Siistiä, sanot, mutta mitä tehdä näin suurella joukko ehdokaspoimintatyökaluja? Kuinka valita optimaalinen kokoonpano tiedoillesi? Tässä meillä on useita ongelmia:

  1. Jokaisen menetelmän hyperparametrien hakutilaa on jotenkin rajoitettava. Se on tietysti kaikkialla diskreetti, mutta mahdollisten pisteiden määrä on erittäin suuri.
  2. Kuinka valita paras kokoonpano mittarillesi käyttämällä pientä rajoitettua otosta erityisistä menetelmistä tietyillä hyperparametreilla?

Emme ole vielä löytäneet yksiselitteistä oikeaa vastausta ensimmäiseen kysymykseen, joten edetään seuraavasta: kullekin menetelmälle kirjoitetaan hyperparametrihakutilan rajoitin, riippuen tiedoista, joita meillä on. Näin ollen, kun tiedämme ihmisiltä ostosten välisen keskimääräisen ajanjakson, voimme arvata, millä ajanjaksolla "mitä on jo ostettu" ja "kauhan menneen oston aika" -metodia kannattaa käyttää.

Ja kun olemme käyneet läpi riittävän määrän eri menetelmien muunnelmia, panemme merkille seuraavaa: jokainen toteutus poimii tietyn määrän ehdokkaita ja sillä on tietty meille avainarvo (recall). Haluamme saada tietyn määrän ehdokkaita yhteensä sallitusta laskentatehostamme riippuen korkeimmalla mahdollisella mittarilla. Tässä ongelma romahtaa hienosti reppuongelmaksi.
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Tässä ehdokkaiden määrä on harkon paino ja menetelmän palautus on sen arvo. On kuitenkin vielä kaksi seikkaa, jotka tulee ottaa huomioon algoritmia toteutettaessa:

  • Menetelmissä voi olla päällekkäisyyksiä heidän hakemissaan ehdokkaissa.
  • Joissakin tapauksissa on oikein ottaa yksi menetelmä kahdesti eri parametreilla, ja ensimmäisen lähdössä olevat ehdokkaat eivät ole toisen alijoukko.

Jos otamme esimerkiksi "mikä on jo ostettu" -menetelmän toteutuksen eri aikavälein poimimiseen, niin niiden ehdokasjoukot uppoavat toisiinsa. Samaan aikaan eri parametrit "säännöllisissä ostoksissa" uloskäynnissä eivät anna täydellistä risteystä. Siksi jaamme näytteenottomenetelmät eri parametreillä lohkoihin siten, että jokaisesta lohkosta halutaan ottaa korkeintaan yksi poimintatapa tietyillä hyperparametreilla. Tätä varten sinun on huijattava hieman selkäreppuongelman toteuttamisessa, mutta asymptotiikka ja tulos eivät muutu tästä.

Tällainen älykäs yhdistelmä antaa meille mahdollisuuden saada seuraavat mittarit verrattuna yksinkertaisiin yhteistyömalleihin:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Viimeisissä mittareissa näemme seuraavan kuvan:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Tässä kuitenkin näet, että liiketoiminnalle hyödyllisille suosituksille on yksi kohta paljastamatta. Nyt opimme vain ennustamaan viileästi, mitä käyttäjä ostaa esimerkiksi ensi viikolla. Mutta vain alennuksen antaminen siitä, että hän ostaa joka tapauksessa, ei ole kovin siistiä. Mutta on siistiä maksimoida esimerkiksi seuraavien mittareiden odotukset:

  1. Marginaali/liikevaihto henkilökohtaisten suositusten perusteella.
  2. Ostajien keskimääräinen tarkastus.
  3. käyntitiheys.

Joten kerrotaan saadut todennäköisyydet eri kertoimilla ja asetetaan ne uudelleen niin, että kärki sisältää tuotteet, jotka vaikuttavat yllä oleviin mittareihin. Tässä ei ole valmiita ratkaisuja, kumpaa lähestymistapaa on parempi käyttää. Jopa me kokeilemme tällaisia ​​kertoimia suoraan tuotannossa. Mutta tässä on joitain mielenkiintoisia temppuja, jotka useimmiten antavat meille parhaat tulokset:

  1. Kerro tuotteen hinnalla/marginaalilla.
  2. Kerro keskimääräisellä tarkistuksella, jossa tuote esiintyy. Joten tavarat tulevat ulos, joilla he yleensä ottavat jotain muuta.
  3. Kerro tämän tuotteen ostajien keskimääräisellä käyntitiheydellä olettaen, että tämä tuote tuottaa sille useammin palautuksia.

Kertoimien kokeilun jälkeen saimme tuotantoon seuraavat mittarit:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa
Täällä tuotteen kokonaiskonversio - ostettujen tuotteiden osuus kaikista tuotteista luomissamme suosituksissa.

Tarkka lukija huomaa merkittävän eron offline- ja online-mittareiden välillä. Tämä käyttäytyminen selittyy sillä, että kaikkia suositeltavia tuotteiden dynaamisia suodattimia ei voida ottaa huomioon mallia opetettaessa. Se on meille normaali tarina, kun puolet poimituista ehdokkaista voidaan suodattaa pois, tällainen spesifisyys on toimialallamme tyypillistä.

Liikevaihdon suhteen saadaan seuraava tarina, on selvää, että suositusten julkaisun jälkeen testiryhmän liikevaihto on vahvassa kasvussa, nyt keskimääräinen tulon nousu suosituksillamme on 3-4 %:
Kuinka paransimme dramaattisesti suositusten laatua offline-vähittäiskaupassa

Lopuksi haluan sanoa, että jos tarvitset ei-reaaliaikaisia ​​suosituksia, erittäin suuri laadun parannus havaitaan kokeiluissa, joissa poimitaan suosituksia. Suuri aika niiden tuottamiseen mahdollistaa monien hyvien menetelmien yhdistämisen, jotka yhteensä tuottavat hienoja tuloksia yritykselle.

Keskustelen mielelläni kommenteissa kaikkien kanssa, jotka pitävät materiaalia mielenkiintoisena. Voit kysyä minulta kysymyksiä henkilökohtaisesti sähke. Jaan myös ajatukseni tekoälystä/startupista omassani sähkekanava - tervetuloa 🙂

Lähde: will.com

Lisää kommentti