93 318 54 36

Robots.txt per a SEO: la teva guia completa

28/01/2022
Elizabeth De León

Què és robots.txt i per què és important per a loptimització de motors de cerca (SEO) ? Robots.txt és un conjunt de directives opcionals que indiquen als rastrejadors web a quines parts del vostre lloc web hi poden accedir. La majoria dels motors de cerca, inclosos Google, Bing, Yahoo i Yandex, admeten i usen text de robot per identificar quines pàgines web rastrejar, indexar i mostrar en els resultats de cerca.

Si teniu problemes perquè els motors de cerca indexin el seu lloc web, el seu fitxer robots.txt pot ser el problema. Els errors de Robot.txt es troben entre els problemes tècnics de SEO més comuns que apareixen als informes d'auditoria de SEO i causen una caiguda massiva a les classificacions de cerca. Fins i tot els proveïdors de serveis tècnics de SEO i els desenvolupadors web són susceptibles de cometre errors de robot.txt.

Com a tal, és important que comprengui dues coses: 1) què és robots.txt i 2) com fer servir robots.txt a WordPress i altres sistemes d'administració de contingut (CMS). Això us ajudarà a crear un fitxer robots.txt que estigui optimitzat per a SEO i facilitarà que les aranyes web rastregin i indexin les seves pàgines web.

Aprofundim en els conceptes bàsics de robots.txt. Seguiu llegint i descobriu com podeu aprofitar el fitxer robots.txt per millorar la capacitat de rastreig i indexació del seu lloc web.

Què és Robots.txt?

Robots txt, també conegut com a estàndard o protocol d'exclusió de robots , és un fitxer de text ubicat al directori arrel o principal del seu lloc web. Serveix com una instrucció per a les aranyes SEO sobre quines parts del vostre lloc web poden i no rastrejar.

Línia de temps de Robots.Text

El fitxer robot txt és un estàndard proposat pel creador d'Allweb, Martijn Koster, per regular com els diferents robots de motors de cerca i rastrejadors web accedeixen al contingut web. Aquí hi ha una descripció general del desenvolupament de larxiu txt de robots al llarg dels anys:

El 1994, Koster va crear una aranya web que va provocar atacs maliciosos als seus servidors. Per protegir els llocs web dels mals rastrejadors de SEO, Koster va desenvolupar robot.text per guiar els robots de cerca a les pàgines correctes i evitar que arribin a certes àrees dun lloc web.

El 1997, es va crear un esborrany d'Internet per especificar mètodes de control de robots web utilitzant un fitxer txt de robot. Des de llavors, robot.txt s'ha fet servir per restringir o canalitzar un robot aranya per seleccionar parts d'un lloc web.

L'1 de juliol de 2019, Google va anunciar que està treballant per formalitzar les especificacions del protocol d'exclusió de robots (REP) i convertir-lo en un estàndard web, 25 anys després que els motors de cerca creessin i adoptessin el fitxer txt de robots.

Lobjectiu era detallar escenaris no especificats per a lanàlisi i la comparació de txt de robots per adaptar-se als estàndards web moderns. Aquest esborrany indica que:

1.  Qualsevol protocol de transferència basat en un identificador uniforme de recursos (URI), com HTTP , Protocol d'aplicació restringida (CoAP) i Protocol de transferència de fitxers (FTP), pot utilitzar robots txt.
2.  Els desenvolupadors web han d'analitzar almenys els primers 500 kibibytes d'un robot.text per alleujar la tensió innecessària als servidors.
3.  El contingut de SEO de Robots.txt generalment semmagatzema en memòria cau durant un màxim de 24 hores per proporcionar als propietaris i desenvolupadors de llocs web el temps suficient per actualitzar el seu fitxer txt de robot.
4.  Les pàgines no permeses no es rastregen durant un període raonablement llarg quan un fitxer txt de robots es torna inaccessible a causa de problemes del servidor.

S'han fet diversos esforços de la indústria al llarg del temps per estendre els mecanismes d'exclusió de robots. No obstant això, no tots els rastrejadors web poden admetre aquests nous protocols de text de robot. Per comprendre clarament com funciona robots.text, primer definim el rastrejador web i responguem una pregunta important: Com funcionen els rastrejadors web?

Què és un rastrejador web i com funciona?

Un rastrejador de llocs web , també anomenat robot aranya , rastrejador de llocs o robot de cerca , és un robot dInternet normalment operat per motors de cerca com Google i Bing. Una aranya web rastreja la web per analitzar les pàgines web i garantir que els usuaris puguin recuperar la informació en qualsevol moment que la necessitin.

Què són els rastrejadors web i quina és la seva funció al SEO tècnic? Per definir el rastrejador web, és vital que es familiaritzi amb els diferents tipus de rastrejadors de llocs a la web. Cada robot aranya té un propòsit diferent:

1. Robots de motors de cerca

Què és una aranya de motor de cerca? Un bot de motor de cerca d'aranya és un dels rastrejadors de SEO més comuns utilitzats pels motors de cerca per rastrejar i rastrejar Internet. Els bots dels motors de cerca utilitzen els protocols SEO de robots.txt per comprendre les seves preferències de traça web. Saber la resposta a què és una aranya de motor de cerca? li dóna un avantatge per optimitzar el fitxer robots.text i assegurar-se que funcioni.

2. Aranya de roba comercial

Un rastrejador de llocs comercials és una eina desenvolupada per empreses de solucions de programari per ajudar els propietaris de llocs web a recopilar dades de les seves pròpies plataformes o llocs públics. Diverses empreses brinden pautes sobre com construir un rastrejador web per a aquest propòsit. Assegureu-vos dassociar-se amb una empresa comercial de rastreig web que maximitzi leficiència dun rastrejador SEO per satisfer les seves necessitats específiques.

3. Robot rastrejador personal

Un rastrejador de llocs web personals està dissenyat per ajudar les empreses i les persones a recopilar dades dels resultats de cerca i/o monitoritzar el rendiment del vostre lloc web. A diferència dun bot de motor de cerca daranya, un bot de rastreig personal té una escalabilitat i funcionalitat limitades. Si teniu curiositat sobre com fer un rastrejador de llocs web que realitzi treballs específics per recolzar els seus esforços tècnics de SEO, consulteu una de les moltes guies a Internet que us mostren com construir un rastrejador web que s'executa des del dispositiu local.

4. Rastrejador de llocs descriptori

Un robot rastrejador descriptori sexecuta localment des de lordinador i és útil per analitzar llocs web petits. No obstant això, no es recomanen els rastrejadors de llocs descriptori si està analitzant desenes o centenars de milers de pàgines web. Això és perquè el rastreig de dades de llocs grans requereix una configuració personalitzada o servidors intermediaris que un bot rastrejador d'escriptori no admet.

5. Bots de rastreig de drets d'autor

Un rastrejador de llocs web amb drets dautor cerca contingut que infringeixi la llei de drets dautor. Aquest tipus de bot de cerca pot ser operat per qualsevol empresa o persona que tingui material protegit per drets dautor, independentment de si sap com construir un rastrejador web o no.

6. Robot sobre erugues basat en el núvol

Els bots de rastreig basats en el núvol sutilitzen com una eina tècnica de serveis de SEO. Un robot rastrejador basat en el núvol, també conegut com a programari com a servei (SaaS), s'executa en qualsevol dispositiu amb connexió a Internet. Aquesta aranya d'Internet s'ha tornat cada vegada més popular perquè rastreja llocs web de qualsevol mida i no requereix múltiples llicències per utilitzar a diferents dispositius.

Per què és important saber: Què són els rastrejadors web?

Els bots de cerca generalment estan programats per cercar robot.text i seguir les seves directives. No obstant això, alguns bots de rastreig, com els robots de spam , els recol·lectors de correu electrònic i als robots de malware , sovint ignoren el protocol SEO de robots.txt i no tenen les millors intencions en accedir al contingut del vostre lloc.

Què és el comportament d'un rastrejador web sinó una mesura proactiva per millorar la vostra presència en línia i millorar la vostra experiència d'usuari? En fer un esforç per entendre la resposta a què és una aranya de motor de cerca? i en què es diferencia dels rastrejadors de llocs dolents, podeu assegurar-se que l'aranya d'un bon motor de cerca pugui accedir al seu lloc web i evitar que els rastrejadors SEO no desitjats arruïnin la seva experiència d'usuari (UX) i classificacions de cerca .

El 8è informe anual de bots dolents d'Imperva mostra que els bots de rastreig web dolents van generar el 25,6% de tot el trànsit del lloc el 2020, mentre que les bones aranyes de SEO van generar només el 15,2% del trànsit . Amb les moltes activitats desastroses de les que són capaços els bots de rastreig d'aranyes dolentes, com el frau de clics, l'apropiació de comptes, el raspat de contingut i l'enviament de correu brossa, val la pena saber 1) Què és un rastrejador web que és beneficiós per al vostre lloc? i 2) Quins bots necessita bloquejar quan creeu text de robot?

Els especialistes en màrqueting haurien d'aprendre a fer un rastrejador de llocs web?

No necessàriament necessita aprendre a fer un rastrejador de llocs web. Deixeu els aspectes tècnics del desenvolupament dun rastrejador SEO a les empreses de solucions de programari i centreu-vos en el seu lloc en loptimització de txt dels seus robots SEO.

Ningú crea el seu propi rastrejador web a menys que estigui extraient específicament dades dun lloc. “Des del punt de vista del SEO tècnic, les eines per al rastreig de llocs web ja existeixen. Només si extreu desenes de GB de dades constantment, seria rendible construir i allotjar el propi rastrejador d'Internet”.

Com funcionen els rastrejadors web?

En aquest panorama digital vertiginós, simplement saber què és un rastrejador web no és suficient per guiar loptimització de txt dels seus robots SEO. A més de «què són els rastrejadors web?» també ha de respondre «com funcionen els rastrejadors web?» per assegurar-vos de crear text de robot que contingui les directives adequades.

Les aranyes de cerca estan programades principalment per fer cerques automàtiques i repetitives a la web per crear un índex. L'índex és on els motors de cerca emmagatzemen la informació web per recuperar-la i mostrar-la als resultats de cerca rellevants a la consulta de l'usuari.

Un rastrejador dInternet segueix certs processos i polítiques per millorar el procés de rastreig del seu lloc web i aconseguir el seu objectiu de teranyina.

Aleshores, Com funciona exactament un rastrejador web? Vegem.

Descobrir URL Les aranyes web comencen a rastrejar la web a partir duna llista dURL, després passen entre els enllaços de la pàgina per rastrejar els llocs web. Per augmentar la capacitat de rastreig i indexació del vostre lloc, assegureu-vos de prioritzar la navegabilitat del vostre lloc web, creeu un mapa del lloc de robots.txt clar i envieu robots.txt a Google.
Exploreu una llista de llavors Els motors de cerca proporcionen a les seves aranyes de motors de cerca una llista de llavors o URL per verificar. Les aranyes dels motors de cerca després visiten cada URL a la llista, identifiquen tots els enllaços a cada pàgina i els afegeixen a la llista de llavors per visitar. Les aranyes web usen mapes de llocs web i bases de dades d'URL prèviament rastrejades per explorar més pàgines web a la web.
Afegeix a l'índex Quan l'aranya d'un motor de cerca visita les URL de la llista, localitza i presenta el contingut, inclosos el text, els arxius, els vídeos i les imatges, a cada pàgina web i l'afegeix a l'índex.
Actualitzar l'Índex Les aranyes dels motors de cerca consideren senyals clau, com a paraules clau i rellevància i frescor del contingut, en analitzar una pàgina web. Quan un rastrejador d'Internet localitza qualsevol canvi al seu lloc web, actualitza el seu índex de cerca en conseqüència per garantir que reflecteixi l'última versió de la pàgina web.

Segons Google, els programes informàtics determinen com rastrejar un lloc web. Observen la importància i rellevància percebudes, la demanda de rastreig i el nivell dinterès que els motors de cerca i els usuaris en línia tenen al seu lloc web. Aquests factors afecten la freqüència amb què una aranya dInternet rastrejarà les seves pàgines web.

Com funciona un rastrejador web i garanteix que es compleixin totes les polítiques de rastreig web de Google i les sol·licituds de rastreig d'aranya?

Per comunicar millor amb una aranya de motors de cerca sobre com rastrejar un lloc web, els proveïdors de serveis tècnics de SEO i els experts en disseny web de WordPress us aconsellen que creï robots.txt que indiqui clarament les seves preferències de rastreig de dades. El txt de robots de SEO és un dels protocols que utilitzen les aranyes web per guiar el procés de rastreig web i rastreig de dades de Google a través d'Internet.

Podeu personalitzar el vostre fitxer robots.txt per aplicar-lo a aranyes de cerca específiques, prohibir l'accés a fitxers o pàgines web particulars o controlar el seu retard de rastreig de robots.txt.

Agent d'usuari

la directiva d'agent d'usuari  es refereix al nom del rastrejador de SEO per al qual estava destinat la comanda. És la primera línia per a qualsevol format o grup de regles de robots.txt.

L'ordre d'agent d'usuari utilitza una comodí o el símbol * . Això significa que la directiva s'aplica a tots els robots de cerca. Les directives també es poden aplicar a agents específics d'usuari.

Cada rastrejador SEO té un nom diferent. Els rastrejadors web de Google es diuen Googlebot , el rastrejador SEO de Bing s'identifica com BingBot i l'aranya d'Internet de Yahoo es diu  . Podeu trobar la llista de tots els agents d'usuari aquí .

# Exemple 1
Agent d'usuari: *
No permeteu: /wp-admin/

En aquest exemple, atès que es va fer servir , vol dir que robots.txt bloqueja l'accés de tots els agents d'usuari a la URL.

# Exemple 2
Agent d'usuari: Googlebot
Disallow: /wp-admin/

Googlebot s'ha especificat com a agent d'usuari. Això vol dir que totes les aranyes de cerca poden accedir a la URL excepte els rastrejadors de Google.

# Exemple 3
Agent d'usuari: Googlebot
Agent d'usuari: Slurp
Disallow: /wp-admin/

L'exemple núm. 3 indica que tots els agents d'usuari, excepte el rastrejador de Google i l'aranya d'Internet de Yahoo, poden accedir a la URL.

permetre

L'ordre allow de robots.txt indica quin contingut és accessible per a l'agent d'usuari. La directiva dautorització de Robots.txt és compatible amb Google i Bing.

Tingueu en compte que el protocol de autorització de robot.txt ha de seguir-se a la ruta a la qual poden accedir els rastrejadors web de Google i altres aranyes de SEO. Si no se n'indica cap ruta , els rastrejadors de Google ignoraran la directiva de permís robot.txt.

# Exemple 1
Agent d'usuari: *
Permet: /wp-admin/admin-ajax.php
: /wp-admin/

Per a aquest exemple, la norma allow de robots.txt s'aplica a tots els agents d'usuari. Això vol dir que els robots txt impedeixen que tots els motors de cerca accedeixin al directori /wp-admin/ excepte a la pàgina /wp-admin/admin-ajax.php .

# Exemple 2: Eviteu directives conflictives com aquesta
User-agent: *
Permetre: /exemple
: *.php

Quan creeu una directiva de robots txt com aquesta, els rastrejadors de Google i les aranyes de cerca es confondran sobre què fer amb la URL http://www.yourwebsite.com/example.php . No és clar quin protocol seguir.

Per evitar problemes de traça web de Google, assegureu-vos d'evitar l'ús de comodins quan utilitzeu les directives robot.txt allow i robots disallow juntes.

Rebutjar

L'ordre disallow de robots.txt s'utilitza per especificar a quin URL no han d'accedir els robots de traça de Google i les aranyes de traça de llocs web. Igual que la comanda robots.txt allow, la directiva robots.txt disallow també ha d'anar seguida de la ruta a la qual no voleu que hi accedeixin els rastrejadors web de Google.

# Exemple 1
Agent d'usuari: *
No permeteu: /wp-admin/

Per a aquest exemple, l'ordre robots disallow all evita que tots els agents d'usuari accedeixin al directori /wp-admin/ .
L'ordre disallow de robots.txt s'utilitza per especificar a quin URL no han d'accedir els robots de traça de Google i les aranyes de traça de llocs web. Igual que la comanda robots.txt allow, la directiva robots.txt disallow també ha d'anar seguida de la ruta a la qual no voleu que hi accedeixin els rastrejadors web de Google.

# Exemple 2
Agent d'usuari: *
No permetre:

Aquesta ordre de rebuig de robots.txt diu a un rastrejador web de Google ia altres robots de cerca que rastregin les pàgines de Google del lloc web, tot el lloc web, perquè res està prohibit.

Nota: encara que aquesta directiva de rebuig de robots conté només dues línies, assegureu-vos de seguir el format de robots.txt correcte. No escriviu agent dusuari: * Disallow: en una línia perquè això és incorrecte. Quan creeu robots.txt, cada directiva ha d'estar en una línia separada.

# Exemple 3
Agent d'usuari: *
No permetre: /

El símbol / representa l'arrel a la jerarquia d'un lloc web. Per a aquest exemple, la directiva disallow de robot.txt és equivalent a l'ordre robots disallow all. En poques paraules, està amagant tot el seu lloc web de les aranyes de Google i altres robots de cerca.

Nota: Igual que en l'exemple anterior ( user-agent: * Disallow: ), eviteu utilitzar una sintaxi de robots.txt d'una línia ( user-agent: * Disallow: / ) per prohibir l'accés al vostre lloc web.

Un format de robots.txt com aquest agent dusuari: * Disallow: / confondria a un rastrejador de Google i podria causar problemes danàlisi de robot.txt de WordPress.

Mapa del lloc

L'ordre de mapa del lloc robots.txt es fa servir per apuntar a les aranyes de Google i als rastrejadors web al mapa del lloc XML. El mapa del lloc robots.txt és compatible amb Bing, Yahoo, Google i Ask.

Quant a com afegir un mapa del lloc a robots.txt? Saber la resposta a aquestes preguntes és útil, especialment si voleu que tants motors de cerca com sigui possible accedeixin al vostre mapa del lloc.

# Exemple
d'agent d'usuari: *
No permeteu: /wp-admin/
Mapa del lloc: https://yourwebsite.com/sitemap1.xml
Mapa del lloc: https://yourwebsite.com/sitemap2.xml

En aquest exemple, l'ordre robots disallow diu a tots els robots de cerca que no accedeixin a /wp-admin/ . La sintaxi de robot.txt també indica que hi ha dos mapes de lloc que es poden trobar al lloc web. Quan sabeu com afegir un mapa del lloc a robots.txt, podeu col·locar diversos mapes del lloc XML al fitxer txt del vostre robot.

Demora de rastreig

La directiva de retard de rastreig de robots.txt és compatible amb els principals robots aranya. Evita que un rastrejador web de Google i altres aranyes de cerca sobrecarreguin un servidor. L'ordre de retard de rastreig de robots txt permet als administradors especificar quant de temps han d'esperar les aranyes de Google i els rastrejadors web entre cada sol·licitud de rastreig de Google, a mil·lisegons.

# Exemple
d'agent d'usuari: *
No permeteu: /wp-admin/
No permetre: /calendari/
No permeteu: /esdeveniments/Agent d'usuari: BingBot No permeteu
: /calendari/ No permetre
: /esdeveniments/
Crawl-delay: 10Mapa del lloc: https://yourwebsite.com/sitemap.xml

En aquest exemple, la directiva de retard de rastreig de robots.txt diu als robots de cerca que esperin un mínim de 10 segons abans de sol·licitar una altra URL.

Algunes aranyes web, com el rastrejador web de Google, no admeten les ordres de demora de rastreig de robots txt. Assegureu-vos dexecutar la seva sintaxi de robots.txt en un verificador de robots txt abans denviar robots.txt a Google i altres motors de cerca per evitar problemes danàlisi.

Baidu, per exemple, no és compatible amb les directives de retard de rastreig de robots txt, però podeu aprofitar les Eines per a administradors web de Baidu per controlar la freqüència de rastreig del seu lloc web. També podeu utilitzar Consola de cerca de Google (GSC) per definir la freqüència de rastreig del rastrejador web.

amfitrió

La directiva de host li diu a les aranyes de cerca el domini mirall preferit o la rèplica del seu lloc web allotjat en un servidor diferent. El domini mirall sutilitza per distribuir la càrrega de trànsit i evitar la latència i la càrrega del servidor al seu lloc web.

# Exemple
d'agent d'usuari: *
No permetre: /wp-admin/Amfitrió: susitioweb.com

La directiva de host robot.txt de WordPress us permet decidir si voleu que els motors de cerca mostrin yourwebsite.com o www.yourwebsite.com .

Operador de fi de cadena

El signe $ s'usa per indicar el final d'una URL i dirigir un rastrejador web de Google sobre com rastrejar un lloc web amb paràmetres. Es col·loca al final del camí.

# Exemple
d'agent d'usuari: *
No permeteu: *.html$

En aquest exemple, la directiva robots txt nofollow diu a un rastrejador de Google ia altres agents d'usuari que no rastregin les URL de llocs web de Google que acaben en .html .

Això significa URL amb paràmetres com aquest https://yourwebsite.com/page. html ?lang=en encara estaria inclòs a la sol · licitud de rastreig de Google, ja que la URL no acaba després de .html .

Comentaris

Els comentaris serveixen com a guia per als especialistes en disseny i desenvolupament web, i van precedits del signe #. Es poden col·locar al començament d'una línia robot.txt de WordPress o després d'una ordre. Si col·loqueu comentaris després d'una directiva, assegureu-vos que estiguin a la mateixa línia.

Tot el que estigui després del # serà ignorat pels robots de rastreig i les aranyes de cerca de Google.

# Exemple 1: bloquejar l'accés al directori /wp-admin/ per a tots els robots de cerca.
Agent d'usuari: *
No permeteu: /wp-admin/
# Exemple 2
Agent d'usuari: *#S'aplica a totes les aranyes de cerca.
Disallow: /wp-admin/#Bloqueja l'accés al directori /wp-admin/.

Per què es fa servir Robots.txt?

La sintaxi de Robot.txt s'utilitza per gestionar el trànsit de traça d'aranya al vostre lloc web. Exerceix un paper crucial per fer que el seu lloc web sigui més accessible per als motors de cerca i els visitants en línia.

Voleu aprendre a utilitzar robots.txt i crear robots txt per al vostre lloc web? Aquestes són les principals formes en què pot millorar el seu rendiment de SEO amb robots.txt per a WordPress i altres CMS:

1 . Eviteu sobrecarregar el vostre lloc web amb el rastreig web de Google i les sol · licituds de bots de cerca.
2 . Eviteu que els robots de traça de Google i les aranyes de cerca rastregin seccions privades al vostre lloc web usant directives de robots txt nofollow .
3 . Protegiu el vostre lloc web dels bots maliciosos.
4 . Maximitzeu el vostre pressupost de traça : la quantitat de pàgines que els rastrejadors web poden rastrejar i indexar en el vostre lloc web dins d'un període de temps determinat.
5 . Augmenteu la rastrejabilitat i la indexabilitat del vostre lloc web.
6 _ Eviteu el contingut duplicat en els resultats de cerca.
7 . Oculteu les pàgines sense acabar dels robots de traça web de Google i les aranyes de cerca abans que estiguin llestes per a la seva publicació.
8. Milloreu la vostra experiència d'usuari.
9 _ Passi link equity o link juice a les pàgines correctes.

Desperdiciar el vostre pressupost i recursos de traça en pàgines amb URL de baix valor pot afectar negativament la seva capacitat de rastreig i indexació. No espereu fins que el vostre lloc experimenti diversos problemes tècnics de SEO i una caiguda significativa en les classificacions abans de prioritzar finalment l'aprenentatge de com crear robots txt per SEO.

Domineu loptimització de robots.txt de Google i protegirà el seu lloc web de bots perjudicials i amenaces en línia.

Tots els llocs web necessiten crear text de robot?

No tots els llocs web necessiten crear un fitxer robots.txt. Els motors de cerca com Google tenen sistemes establerts sobre com rastrejar les pàgines de Google del lloc web, i automàticament ignoren les versions duplicades o sense importància duna pàgina.

No obstant això, els especialistes tècnics en SEO recomanen que creï un arxiu robots.txt i implementi les millors pràctiques de robots txt per permetre un millor i més ràpid rastreig i indexació web per part dels robots de rastreig i les aranyes de cerca de Google.

Els nous llocs web no necessiten preocupar-se per com fer servir robots.txt, ja que el seu objectiu és fer que les seves pàgines web siguin accessibles per a la major quantitat possible d'aranyes de cerca. D'altra banda, si el vostre lloc web té més d'un any, podria començar a guanyar trànsit i atraure sol · licituds de rastreig de Google i problemes de sol · licitud d'aranya de cerca.

[Quan això passi] haurà de bloquejar aquestes URL a l'arxiu robots.txt de WordPress perquè el seu pressupost de rastreig no es vegi afectat”, va dir Dagohoy. «Tingueu en compte que els bots dels motors de cerca rastregen menys els llocs web amb moltes URL trencades, i no voldrà això per al seu lloc».

Com es va esmentar anteriorment, saber com editar robots.txt per a SEO li brinda un avantatge significatiu. Més important encara, us brinda la tranquil·litat de saber que el seu lloc web està protegit contra atacs maliciosos de bots maliciosos.

Ubicació de WordPress Robots.txt

A punt per crear robots.txt? El primer pas per aconseguir el seu pressupost objectiu de teranyina és aprendre a trobar robots.txt al vostre lloc web. Podeu trobar la ubicació de robots.txt de WordPress anant a la URL del vostre lloc i afegint el paràmetre /robots.txt .

Per exemple: susitioweb.com /robots.txt

Les directives de rebuig i autorització de robot.txt, el directori de robots de cerca i Google de robots.txt també inclou un mapa del lloc de robots.txt per dirigir els rastrejadors web al mapa del lloc XML i evitar desaprofitar el pressupost de rastreig objectiu de la teranyina.

On és Robots.txt a WordPress?

WordPress és considerat el CMS més popular i àmpliament utilitzat del món, i funciona amb aproximadament el 40 per cent de tots els llocs web a la web. No és estrany que molts propietaris de llocs web vulguin aprendre a editar robots.txt a WordPress. Alguns fins i tot recorren als professionals del disseny web de WordPress per obtenir ajuda amb loptimització de robots.txt per a WordPress.

On és robots.txt a WordPress? Seguiu aquests passos per accedir al vostre fitxer robots.txt de WordPress:

1 . Inicieu sessió al panell de WordPress com a administrador.


2
 . Navega fins a «SEO». 

3 . Feu clic a «Yoast». Aquest és un complement de WordPress que heu d'instal·lar al vostre lloc web per editar robots.txt WordPress i crear actualitzacions de robots txt en qualsevol moment que ho necessiti.

4 . Feu clic a «Editor de fitxers». Aquesta eina us permet fer canvis ràpids a les directives de Google robots.txt.

5 . Ara podeu veure el fitxer robots.txt de WordPress i editar el directori de WordPress robots.txt.

Pel que fa a com accedir a robots.txt a WordPress i actualitzar les seves directives de rebuig de robot.txt per mostrar la URL restringida per robots txt? Simplement seguiu el mateix procés que va utilitzar per determinar on es troba robots.txt a WordPress.

No oblideu desar tots els canvis que realitzeu al vostre fitxer robots.txt per a WordPress per assegurar-se que les seves ordres robots.txt no index i robot.txt allow estiguin actualitzats.

Com trobar Robots.txt a cPanel

cPanel és un dels panells de control basats en Linux més populars, utilitzat per administrar comptes dallotjament web amb la màxima eficiència. Els desenvolupadors web també usen cPanel per crear un fitxer robots.txt.

Com trobar robots.txt a cPanel: seguiu aquests passos per accedir als rastrejadors web i al fitxer txt de robots de Google a cPanel.

1 . Inicieu sessió al vostre compte de cPanel.
2 . Obriu el » Administrador d'arxius » i aneu al directori arrel del vostre lloc.
3 . Heu de poder accedir als robots de cerca i al fitxer txt de robots de Google a la mateixa ubicació que l'índex o la primera pàgina del vostre lloc web.

Com editar Robots.txt a cPanel

Si voleu editar el vostre directori de rebuig de robots.txt o fer els canvis necessaris en la seva sintaxi de robots.txt, simplement:

1 . Ressalteu el fitxer robots.txt sense índex.
2 . Feu clic a » Editor »O» Edita codi » al menú superior per editar les ordres de robots txt nofollow.
3 . Feu clic a » Desa els canvis » per desar les darreres modificacions al vostre directori de rebuig de robots.txt.

Com crear Robots Txt a cPanel

Per crear un fitxer robots.txt a cPanel, realitzeu els passos següents:

1 . Inicieu sessió al vostre compte de cPanel.
2 . Aneu a la secció » Arxius »I feu clic a» Administrador d'arxius ".
3 . Feu clic a » nou arxiu » i premeu el botó » Crea nou arxiu «. Ara podeu crear un fitxer robots.txt.

Com trobar Magento Robots.txt

 

A més de la pregunta comuna de com accedir a robots.txt a WordPress, molts propietaris de llocs web també busquen aprendre com accedir, editar i optimitzar Magento robots.txt per comunicar millor a les aranyes de cerca la URL restringida per robots txt.

Magento és una plataforma de comerç electrònic amb PHP incorporat dissenyat per ajudar els desenvolupadors web a crear llocs web de comerç electrònic optimitzats per a SEO. I com trobar Magento robots.txt?

1 . Inicieu sessió al vostre tauler de Magento.
2 . Aneu al » Panell d'administració» i després feu clic a » Botigues ".
3 . Aneu a » Configuració «, després seleccioneu » Configuració ".
4 . Obriu la secció » Robots de motors de cerca «. Ara podeu veure i editar el vostre fitxer robots.txt per determinar la URL restringida per robots txt.
5 . Quan acabi, feu clic al botó » Desa la configuració ".

Què hi ha de com crear robots txt a Magento? El mateix procés s'aplica quan creeu un fitxer robots.txt per a Magento. També podeu fer clic al botó » Restablir valors predeterminats » si necessiteu restaurar les instruccions predeterminades.

Millors pràctiques de text de robots

Aprendre com accedir a robots.txt a WordPress i com editar robots.txt a diverses plataformes són només els passos inicials per optimitzar les seves directives robots.txt no index i robot.txt allow.

Per guiar el procés d'optimització de robots.txt, seguiu aquests passos:

1 . Executeu auditories regulars usant un verificador de txt de robots. Google ofereix un verificador de txt de robots gratuït per ajudar-lo a determinar qualsevol problema de robots.txt al vostre lloc web.

2 . Apreneu a afegir un mapa del lloc a robots.txt i apliqueu-lo al vostre fitxer robots.txt.
3 . Aprofiteu les directives de bloqueig de robots.txt per evitar que els robots de cerca accedeixin a fitxers privats o pàgines sense acabar al seu lloc web.
4 . Verifiqueu els registres del vostre servidor.
5 . Superviseu el vostre informe de rastreig a Google Search Console (GSC) per identificar quantes aranyes de cerca estan rastrejant el seu lloc web. L'informe de GSC mostra les vostres sol·licituds de traça totals per resposta, tipus de fitxer, propòsit i tipus de Googlebot.

6 _ Comproveu si el vostre lloc web està generant trànsit i sol · licituds de bots maliciosos. Si és així, heu de bloquejar-los usant robots.txt bloquejar totes les directives.
7 . Si el vostre lloc web té molts errors 404 i 500 i estan causant problemes de rastreig web, podeu implementar redireccionaments 301 . En cas que els errors augmentin ràpidament i arribin a milions de pàgines 404 i errors 500, podeu utilitzar robots txt per bloquejar totes les directives per restringir l'accés d'alguns agents d'usuari a les vostres pàgines web i arxius. Assegureu-vos d'optimitzar el fitxer robots.txt per resoldre problemes recurrents de rastreig web.
8 _ Sol·liciteu serveis tècnics professionals de SEO i solucions de desenvolupament web per implementar correctament robots txt block all, robot.txt allow i altres directives en la seva sintaxi de robots.txt.

Errors comuns de Robots.txt que cal evitar

Prengui nota daquests errors comuns en crear el fitxer robots.txt i assegureu-vos evitar per millorar la capacitat de rastreig i el rendiment en línia del seu lloc:

❌ Col·locar directives de robots.txt en una sola línia. Cada directiva de robot txt sempre ha d'estar en una línia separada per proporcionar instruccions clares als rastrejadors web sobre com rastrejar un lloc web.
Incorrecte: Agent d'usuari: * No permet: /
Incorrecte: Agent d'usuari: * No permet:

❌Error en enviar robots.txt a Google. Envieu sempre el vostre fitxer robots.txt actualitzat a Google. Ja sigui que hagueu realitzat petits canvis, com afegir robots.txt, denegar totes les ordres a agents d'usuari específics o eliminar robots, no permetre totes les directives, assegureu-vos de fer clic al botó Enviar. D'aquesta manera, Google serà notificat de qualsevol canvi que hagi realitzat al fitxer robots.txt.

❌Col·locar les directives d'índex de robots.txt incorrectes. Si ho fa, el seu lloc web corre el risc de no ser rastrejat pels robots de cerca, perdre trànsit valuós i, el que és pitjor, una caiguda sobtada a les classificacions de cerca.

❌No col·locar el fitxer de text del robot al directori arrel. Posar el fitxer robots.txt en subdirectoris podria fer que els rastrejadors web no ho detectin.
Incorrecte: https://www.yourwebsite.com/assets/robots.txt
Correcte: https://www.yourwebsite.com/robots.txt

❌L'ús inadequat de robots.txt denega totes les ordres, comodins, barres diagonals i altres directives. Executeu sempre el vostre fitxer robot.text en un validador de robots.txt abans de desar-lo i enviar-lo a Google i altres motors de cerca, perquè no generi errors de robots.txt.

❌Confiar al generador de fitxers robots.txt per generar el fitxer robots.txt. Encara que un generador d'arxius robots.txt és una eina útil, confiar únicament en ell sense realitzar verificacions manuals a les directives de denegació de robots.txt, permetre ordres i agents d'usuari de robot.txt al seu arxiu txt de robot és una dolenta pràctica. té un lloc web petit, és acceptable fer servir un generador de fitxers robots.txt per generar robots.txt. Però si teniu un lloc web de comerç electrònic o ofereix molts serveis, assegureu-vos d'obtenir ajuda d'experts per crear i optimitzar el seu arxiu robots.txt.

❌Ignorar els informes del validador de robots.txt. Un validador de robots.txt hi és per una raó. Per tant, maximitzi el vostre verificador de robots.txt i altres eines per assegurar-se que els seus esforços doptimització de robots.txt per SEO estiguin en el camí correcte.

Obtingueu el control del vostre pressupost de traça

Lidiar amb loptimització de robots.txt i altres problemes tècnics de SEO pot ser esgotador, especialment si no té els recursos, la mà dobra i les capacitats adequades per realitzar les tasques necessàries. No s'estressi bregant amb problemes del lloc web que els professionals podrien resoldre ràpidament.

Necessites posar al dia la teva web?

Necessites algun dels nostres serveis de disseny web? A IndianWebs comptem amb una llarga experiència, i un equip de programadors i dissenyadors web a diferents especialitats, som capaços d'oferir un gran ventall de serveis en la realització de pàgines web a mida. Sigui quin sigui el teu projecte, ho afrontarem.