Semalt råd om hur du använder Deep Learning för att optimera din automatiska titel



Ett snabbt sätt att ta ledningen i din SEO-rankning är att inkludera ett topprankat nyckelord i titelnamnet. Och om du tänker på det en minut kommer du att inse att det verkligen är en smart lösning. Om du har en sida som redan rankas för ett nyckelord utan att det nyckelordet finns i titeln, föreställ dig betydelsen av att ha sökordet i titeln. Du kommer naturligtvis att indexeras oftare för det nyckelordet; därmed rankas du bättre.

Om vi ​​nu tog det nyckelordet och lade till det i din Metabeskrivning, kommer de att visas markerade i sökresultaten, vilket innebär att fler sökmotoranvändare sannolikt kommer att klicka. Detta kommer naturligtvis att gynna webbplatsen.

Föreställ dig att Semalt arbetade på en webbplats med hundratals, tusentals eller miljoner sidor. Om vi ​​var tvungna att göra detta manuellt kommer det att vara tidskrävande och snabbt bli ganska dyrt. Så hur kan vi då analysera sidan och optimera varje titel och metabeskrivning? Lösningen är att använda en maskin. Genom att lära en maskin att hitta de högst rankade sökorden på varje sida sparar vi tid och kostnad. Att använda en maskin kan sluta fungera bättre och snabbare än ett datainmatningsteam.

Låt oss återinföra Ubers Ludwig och Googles T5

Genom att kombinera Ubers Ludwig och Googles T5 har du ett ganska kraftfullt system.

Sammanfattningsvis är Ludwig ett automatiskt ML-verktyg för öppen källkod som gör att användarna kan träna avancerade modeller utan att behöva skriva någon kod.

Google T5, å andra sidan, är en överlägsen version av SERT-modeller. T5 kan sammanfatta, översätta, svara på frågor och klassificera sökfrågor samt många andra funktioner. I ett nötskal är det en mycket kraftfull modell.

Det finns dock ingen indikation på att T5 har utbildats för optimering av titeltaggar. Men kanske kan vi göra det, och så här:
  • Vi får en utbildad dataset med exempel gjorda av:
    • Originaltitelaggar utan vårt målnyckelord
    • Vårt mål Nyckelord
    • Optimerade titeltaggar med målnyckelorden
  • En T5-kodningskod och handledning att använda
  • Ha en uppsättning titlar som inte har optimerats så att vi kan testa vår modell
Vi startar med en datauppsättning som redan har skapats, och vi kommer att ge en guide om hur vi skapade datauppsättningen.

Författarna till T5 var generösa nog för att ge oss en detaljerad Google Colab-anteckningsbok, som vi använder för att finjustera T5. Efter att ha spenderat tid på att studera det kunde vi svara på godtyckliga triviafrågor. Colab-anteckningsboken har också riktlinjer för hur man finjusterar T5 för nya uppgifter. Men när du tittar på kodändringarna och den nödvändiga dataförberedelsen får du reda på att det innebär mycket arbete och att våra idéer kan vara perfekta.

Men vad händer om det kan vara enklare? Tack vare Uber Ludwig version 3, som släpptes för några månader sedan, har vi en kombination av några mycket användbara funktioner. 3.0-versionen av Ludwig levereras med:
  • En optimeringsmekanism för hyperparameter som får ytterligare prestanda från modeller.
  • Kodfri integration med Hugging Face's Transformers-arkiv. Detta ger användarna tillgång till uppdaterade modeller som GPT-2, T5, DistilBERT och Electra för naturliga språkuppgifter. Några av sådana uppgifter inkluderar klassificeringssentimentanalys, namngiven entitetsigenkänning, svar på frågor och mer.
  • Den är nyare, snabbare, modulär och har en mer utdragbar backend som är beroende av TensorFlow 2.
  • Det ger stöd för många nya dataformat som Apache Parquet, TSV och JSON.
  • Det har ut ur lådan k-korsning av valideringsaktivering.
  • När den är integrerad med vikter och förspänningar kan den användas för att hantera och övervaka flera träningsprocesser för modeller.
  • Den har en ny vektordatatyp som stöder bullriga etiketter. Det kommer till nytta om vi har att göra med svaga övervakningar.
Det finns flera nya funktioner, men vi finner integrationen till Hugging Face's Transformers som en av de mest användbara funktionerna. Kramande ansiktsrörledningar kan användas för att avsevärt förbättra SEO-ansträngningarna för titlar och metabeskrivning.

Att använda pipeline är bra för att köra förutsägelser på modeller som redan är utbildade och som redan finns i modellbubben. Det finns dock för närvarande inga modeller som kan göra vad vi behöver för dem, så vi kombinerar Ludwig och Pipeline för att skapa en formidabel automatisk titel och metabeskrivning för varje sida på en webbplats.

Hur använder vi Ludwig för att finjustera T5?

Det här är en viktig fråga när vi försöker visa våra kunder exakt vad som händer i bakgrunden på deras webbplats. Här finns en kliché som säger: "Att använda Ludwig för träning av T5 är så enkelt att vi bör överväga att göra det olagligt." Sanningen är att vi skulle ha debiterat våra kunder mycket högre om vi hade anställt en AI-ingenjör för att göra motsvarande.

Här får du reda på hur vi finjusterar T5.
  • Steg 1: öppna en ny anteckningsbok från Google Colab. Efter det ändrar vi Runtime för att använda GPU.
  • Vi laddar ner Hootsuite-datauppsättningen som redan har sammanställts.
  • Vi installerar sedan Ludwig.
  • Efter installationen laddar vi in ​​träningsdatasetet i en pandadataram och inspekterar det för att se hur det ser ut.
  • Då står vi inför det viktigaste hindret, vilket är att skapa rätt konfigurationsfil.
För att bygga det perfekta systemet krävs dokumentation för T5 och konstant försök och fel tills vi får rätt. (det skulle gå långt om du kan hitta Python-koden att producera här.)

Se till att granska ordlistorna för in- och utdata och se till att dina inställningar plockas upp korrekt. Om det görs rätt börjar Ludwig använda 't5-small' som den löpande modellen. För större T5-modeller är det lättare att byta modellnav och potentiellt förbättra dess generation.

Efter att ha tränat en modell i flera timmar börjar vi få imponerande valideringsnoggrannhet.

Det är viktigt att du noterar att Ludwig automatiskt väljer andra viktiga mätningar för generering av text, främst förvirring och redigeringsavstånd. Dessa är båda låga siffror som passar in rätt för oss.

Hur vi använder våra utbildade modeller för att optimera titlar

Att testa våra modeller är den riktigt intressanta delen.

Först laddar vi ner en testdataset med ooptimerade Hootsuite-titlar som förblev osedda av modellen under träning. Du kommer att kunna förhandsgranska datamängden med det här kommandot:

!huvud

Hootsuite_titles_to_optimize.csv

Det är mycket imponerande att Ludwig och T5 kan göra så mycket med vilken liten träningssats som helst, och de kräver ingen avancerad Hyperparameter-inställning. Det rätta testet handlar om hur det interagerar med våra målnyckelord. Hur väl blandar det sig?

Skapa en app för optimering av titeltaggar med Streamlight

Innehållsförfattare tycker att den här applikationen är mest användbar. Skulle det inte vara fantastiskt att ha en enkel att använda app som inte kräver mycket teknisk kunskap? Tja, det är precis vad Streamlight är här för.

Dess installation, liksom användning, är ganska rak framåt. Du kan installera den med:

! pip install strömlinjeforma

Vi har skapat en app som utnyttjar den här modellen. När det behövs kan vi köra den från samma plats där vi tränar en modell, eller så kan vi ladda ner en redan utbildad modell dit vi planerar att köra skriptet. Vi har också förberett en CSV-fil med titlar och nyckelord som vi hoppas kunna optimera.

Nu lanserar vi appen. För att kunna köra modellen måste vi ange sökvägen till CSV-filen, som har de titlar och nyckelord som vi hoppas kunna optimera. CSV-kolumnnamnen måste matcha namnen under träning av Ludwig. Om modellen inte optimerar alla titlar bör du inte få panik; att få ett anständigt antal rätt är också ett bra steg framåt.

Som experter på Python blir vi väldigt glada när vi arbetar med detta, eftersom det vanligtvis får blodet att pumpa.

Hur man producerar en anpassad dataset att träna

Med hjälp av Hootsuite-titlar kan vi träna modeller som skulle fungera bra för våra kunder men som kan vara standard för sina konkurrenter. Det är därför vi ser till att vi producerar vår egen datamängd, och här gör vi det.
  • Vi använder våra egna data från Google Search Console eller Bing Webmaster Tools.
  • Som ett alternativ kan vi också hämta vår kunds konkurrensdata från SEMrush, Moz, Ahrefs, etc.
  • Vi skriver sedan ett skript för titeltaggar och delar sedan upp titlar som har och inte har målordet.
  • Vi tar de titlar som har optimerats med hjälp av nyckelord och ersätter nyckelorden med synonymer, eller vi använder andra metoder så att titeln "avoptimiseras".

Slutsats

Semalt är här för att hjälpa dig att automatiskt optimera dina titeltaggar och metabeskrivningar. Genom att göra det kan du ligga kvar på SERP. Analys av en webbplats är aldrig en lätt uppgift. Att det är därför som vi tränar en maskin som hjälper oss att göra detta inte bara sparar kostnad utan det sparar också tid.

På Semalt finns det proffs som kommer att ställa in din dataset, Ludwig och T5 så att du alltid kan vinna.

Ring oss idag.

mass gmail