Artikkel

Google gjør søkemotoren smartere

protection click fraud

Googles Pandu Nayak tok bloggen sin denne uken til kunngjøre det han sier er "det største spranget fremover [i søk] de siste fem årene, og et av de største sprang fremover i historikken til Søk. "Oppdateringen har å gjøre med hvordan Google Søk behandler din spørsmål.

Nayak peker på folks bruk av det han kaller 'nøkkelord-ese' når de søker på Google på grunn av søkemotorens manglende evne til å forstå det naturlige språket ved bruk av kvalifikasjoner som 'fra' og 'til.' Slik søket fungerer for øyeblikket, ignorerer tjenesten i utgangspunktet slike begreper og har en tendens til å fokusere utelukkende på søkeordene det hentes fra spørsmål.

Det kommer snart til å endres - i det minste for engelske spørsmål i USA, med flere språk og språk å følge senere. Kombinerer de siste fremskrittene innen nevrale nettverk for naturlig språkbehandling og spesialisert maskinvare, Google hevder at den nå kan forstå konteksten til hvert ord i et spørsmål mye bedre i forhold til hele søket uttrykk. Til slutt betyr det at det endelig kan begynne å forstå betydningen av viktige kvalifikatorer som 'til' og 'fra' i en setning, i stedet for å ignorere dem helt.

Verizon tilbyr Pixel 4a for bare $ 10 per måned på nye ubegrensede linjer

Alt dette er mulig takket være BERT - nei, ikke geologen fra Thie Big Bang Theory men snarere toveis koderepresentasjoner fra Transformers - som er Googles teknikk for å trene nevrale nettverk for å forstå ord i forhold til hele uttrykket. Tidligere hadde søkegigantens algoritmer en tendens til å eksegere søkeord på en stort sett lineær måte, og bare forstå ett ord i forhold til de ved siden av.

På maskinvaresiden av ting muliggjør Googles også bruk av TPU-er i skyen - i utgangspunktet sjetonger laget med det ene formål å trene AI på nevrale nettverk - for søk for første gang for å bedre håndtere all den algoritmiske kompleksiteten BERT lager mat opp.

instagram story viewer