Si Google BERT Vs. Algoritmet Smith punojnë së bashku - Përmbledhje e Semalt




Google kohët e fundit lëshon një punim kërkimor mbi algoritmin e tyre të ri NLP SMITH. Ky punim ndriçoi shumë profesionistë të SEO mbi ndryshimet që do të kërkonin rritje ose rënie në renditjen e SERP. Sidoqoftë, shqetësimi ynë këtu është se si krahasohet ky algoritëm i ri SMITH me BERT?

Në letrën e botuar nga Google, ata pretenduan se SMITH e tejkalon BERT në kuptimin e pyetjeve të gjata të kërkimit dhe dokumenteve të gjata. Ajo që e bën SMITH kaq interesante është se ai mund të kuptojë fragmente brenda një dokumenti të ngjashëm me atë që BERT bën me fjalët dhe fjalitë. Kjo veçori e përmirësuar e SMITH i mundëson asaj të kuptojë me lehtësi dokumentet më të gjata.

Por, para se të shkojmë më tej, duhet t'ju informojmë se tani për tani, SMITH nuk jeton në algoritmet e Google. Por nëse spekulimet tona janë të drejta, ato do të lëshohen së bashku me indeksimin e pasazheve, ose do t'i paraprijnë asaj. Nëse vërtet jeni të interesuar të mësoni se si të renditeni në SEP, të mësuarit makinerik do të shkonte në mënyrë të pashmangshme pranë këtij interesi.

Kthehemi përsëri në temë, A do të zëvendësohet BERT? A nuk do të funksionojnë më mirë me SMITH shumica e dokumenteve në internet që janë të mëdha, të fuqishme dhe për këtë arsye më gjatë?

Le të kapërcejmë më tej dhe të shohim se çfarë kemi përfunduar. SMITH mund të bëjë edhe punën e leximit të dokumenteve të forta dhe të hollë. Mendojeni si një Bazooka. Mund të shkaktojë dëme të mëdha pasi mund të hapë edhe dyer.

Për të filluar me, Pse BERT OSE SMITH?

Pyetja e vërtetë këtu është pse një motor kërkimi do të kërkojë Përpunimin e Mësimit Natyror për të siguruar rezultatet e kërkimit. Përgjigja është e thjeshtë. Motorët e kërkimit kërkojnë NLP në tranzicionin e tyre nga motorët e kërkimit që kuptojnë vargjet ose fjalët kyçe te gjërat ose faqet e internetit.

Kur Google nuk ka një ide, çfarë tjetër mund të jetë në faqe përveç fjalëve kyçe ose nëse përmbajtja që indeksohet ka kuptim në lidhje me pyetjen e kërkimit. Falë NLP, Google mund të kuptojë kontekstin e karaktereve të shtypura në pyetjen e tij të kërkimit.
Falë NLP, Google mund të dallojë qëllimet e një përdoruesi kur ata thonë "breg lumi" dhe "llogari bankare". Ajo gjithashtu mund të kuptojë thënie të tilla si "Caroline u takua me miqtë e saj për një pije, pije, pije, pije alkoolike, pije" si të panatyrshme.

Si ekspertë në SEO, duhet të themi se kuptimi i pyetjes së kërkimit ka bërë një rrugë të gjatë. Më të mirët besojnë se ishte tepër e vështirë gjetja e artikujve të duhur në internet në të kaluarën.

Kuptimi i BERT

BERT aktualisht funksionon si modeli më i mirë NLP që kemi për shumë, në mos shumicën e aplikacioneve, veçanërisht kur bëhet fjalë për të kuptuar strukturat komplekse gjuhësore. Shumë e konsiderojnë karakterin e parë Bidirectianal si hapin më të madh përpara në këtë algoritëm. Në vend që të ketë një algoritëm që lexon nga e majta në të djathtë, BERT gjithashtu mund të kuptojë fjalët në lidhje me kontekstin e tyre. Në këtë mënyrë, nuk do të jepte rezultate për fjalët individuale të vendosura në kërkesë, por indeksonte faqet e internetit bazuar në kuptimin kolektiv të fjalëve në pyetjen e kërkimit.

Këtu është një shembull për të lehtësuar kuptimin tuaj:

Një kamion ka dritë.

Nëse do ta interpretonit atë thënie nga e majta në të djathtë, me të arritur fjalën "dritë", do ta klasifikonit kamionin si diçka me dritë. Kjo sepse kamioni doli para dritës në deklaratë.

Por nëse duam të klasifikojmë gjërat në kamionë, mund të lëmë jashtë "dritën" sepse nuk e hasim para "kamionit".

Shtë e vështirë të konsiderosh deklaratën vetëm në një drejtim.

Për më tepër, BERT gjithashtu ka një përfitim tjetër sekret të të qenit kaq i jashtëzakonshëm, dhe lejon përpunimin e gjuhës në mënyrë efektive me kosto më të ulët të burimeve krahasuar me modelet e mëparshme. Ky është me të vërtetë një faktor i rëndësishëm për t'u marrë parasysh kur dikush dëshiron ta zbatojë atë në të gjithë rrjetin.

Zbatimi i argumenteve është një tjetër evolucion që ka shoqëruar BERT. Ka 30,000 shenja në BERT, dhe secila prej tyre përfaqëson një fjalë të përbashkët me disa çifte shtesë për karaktere dhe fragmente në rast se një fjalë ekziston jashtë 30,000.

Përmes aftësisë së tij për të përpunuar argumentet dhe transformatorët, BERT e kuptoi përmbajtjen, e cila gjithashtu i dha asaj aftësinë për të kuptuar fjalitë në mënyrë adekuate.

Pra, nëse themi, "zonja e re shkoi në bankë. Ajo më vonë u ul në bregun e lumit dhe shikoi rrjedhën e lumit".

BERT do të caktojë vlera të ndryshme për ato fjali sepse ato u referohen dy gjërave të ndryshme.

Kuptimi i SMITH

Pastaj vjen SMITH, një algoritëm me burime dhe numra më të mirë për t'u përdorur për përpunimin e dokumenteve më të mëdha. BERT përdor rreth 256 shenja për dokument, dhe kur e tejkalon këtë prag, kostoja e llogaritjes bëhet shumë e lartë për funksionin optimal. Në të kundërt, SMITH mund të trajtojë deri në 2,248 argumente për dokument. Ky është rreth 8X numri i shenjave që përdor BERT.

Për të kuptuar pse kostot e llogaritjes rriten në një model të vetëm NLP, së pari duhet të shqyrtojmë se çfarë duhet për të kuptuar një fjali dhe një paragraf. Kur kemi të bëjmë me një fjali, ekziston vetëm një koncept i përgjithshëm për t’u kuptuar. Ka më pak fjalë që lidhen me njëra-tjetrën, pra ka më pak lidhje midis fjalëve dhe ideve që ato mbajnë në kujtesë.

Duke bërë fjali në paragrafë, lidhja midis këtyre fjalëve shumëfishohet shumë. Proceset 8X teksti do të kërkojë shumë herë më shumë në shpejtësinë dhe kapacitetin e optimizimit të kujtesës duke përdorur të njëjtin model. Kjo është ajo ku SMITH bën të gjithë ndryshimin, në thelb duke grumbulluar dhe duke bërë një shumë të përpunimit jashtë linje. Interesante SMITH ende varet nga BERT për të funksionuar si duhet.

Këtu është një përshkrim se si SMITH merr një dokument në themel të tij:
  1. Së pari e ndan dokumentin në madhësi grupimi që janë më të lehta për tu menaxhuar.
  2. Më pas përpunon secilin bllok fjalish individualisht.
  3. Një transformator pastaj mëson një paraqitje kontekstuale të secilit bllok, pas së cilës i kthen ato në një përfaqësim të dokumentit.

Si funksionon SMITH?

Për të trajnuar modelin SMITH, ne mësojmë nga BERT në dy mënyra:

Për të trajnuar BERT, një fjalë nxirret nga një fjali dhe do të ofrohen mundësi alternative

BERT, i cili është i trajnuar më mirë, është ai që do të jetë më i suksesshëm në zgjedhjen e opsionit të duhur nga alternativat e parashikuara. Për shembull, nëse BERT jepet fjalia:

Kafeja e lumtur ------ kërceu mbi gardhin e piketave.
  • Opsioni një - domate.
  • Opsioni dy - qen.
Sa më i trajnuar të jetë BERT, aq më të mëdha janë shanset e tij për të zgjedhur opsionin e duhur, i cili është opsioni dy.

Kjo metodë trajnimi zbatohet gjithashtu edhe në SMITH.

SMITH është trajnuar për dokumente të mëdha

Sa më i trajnuar të jetë SMITH, aq më të mëdha janë shanset e tij për të njohur fjalitë e harruara. Theshtë e njëjta ide me BERT por një aplikacion tjetër. Kjo pjesë është veçanërisht interesante sepse pikturon një botë me përmbajtje të gjeneruar nga Google të bashkuara në faqet e rezultateve të motorit të kërkimit. Sigurisht, përdoruesit mund të largohen, por nuk do të bëjnë sepse Google mund të bashkojë përmbajtje të shkurtër dhe me formë të gjatë nga të gjitha burimet më të mira në faqen e tij të rezultateve.

Nëse dyshoni se kjo mund të ndodhë, duhet ta dini se ajo tashmë ka filluar të ndodhë, dhe edhe pse ata nuk e kanë zotëruar ende atë, është një fillim.

A është SMITH më i mirë se BERT?

Me gjithçka që keni lexuar, është plotësisht e natyrshme të supozoni se SMITH është më i mirë, dhe në shumë detyra, me të vërtetë është më i mirë. Por merrni parasysh se si e përdorni internetin për një moment; çfarë pyetjesh futni rregullisht në pyetjet e kërkimit?
  • "Cili është parashikimi i motit për sot?"
  • "Udhëzime për në një restorant".
Përgjigjja e pyetjeve të tilla të kërkimit zakonisht kërkon përmbajtje të shkurtër, shpesh me të dhëna të kufizuara dhe të pakomplikuara. SMITH është më i përfshirë në kuptimin e dokumenteve më të gjata dhe më komplekse dhe pyetjeve të gjata dhe komplekse të kërkimit.

Kjo do të përfshijë bashkimin e disa dokumenteve dhe temave për të krijuar përgjigjet e tyre. Ai përcakton se si përmbajtja mund të ndahet, duke i mundësuar Google-it të dijë gjënë e duhur për të shfaqur. Kjo do ta ndihmojë Google të kuptojë se si faqet e përmbajtjes kanë lidhje me njëra-tjetrën dhe ofron një shkallë në të cilën mund të vlerësohen lidhjet midis përfitimeve të tjera.

Me atë që u tha, ne përfundojmë duke thënë se të dy BERT dhe SMITH janë të rëndësishëm, dhe që të dy i shërbejnë qëllimit të tyre unik.

Përfundim

Ndërsa SMITH është bazuka, ne kemi nevojë për të që të krijojmë një pamje të qartë se si janë gjërat së bashku. Në burime, kushton më shumë sepse bën një punë më të madhe, por kushton shumë më pak se BERT kur bën të njëjtën punë.

BERT ndihmon SMITH për të ndihmuar në kuptimin e tij të pyetjeve të shkurtra dhe pjesëve të vogla të përmbajtjes. Kjo është, derisa Google të zhvillojë një algoritëm tjetër NLP që do të zëvendësojë të dy, dhe pastaj ne do të lëvizim dhe do të arrijmë një tjetër avancim në SEO.

Ju intereson SEO? Shikoni artikujt tanë të tjerë në Blog blog.