Lo que un desarrollador web debe recordar hacer SEO-Feng Shui

Hoy es muy difícil seguir siendo un único especialista de la industria. Y a menudo, al hacer un nuevo sitio o realizar varios cambios, puede ocuparse de antemano de las cosas principales que lo ayudarán a hacer todo de manera limpia y hermosa, no solo en términos de programación, sino también en términos de SEO.


Entonces, ¿qué debe recordar para hacer el trabajo de manera eficiente, y los especialistas de SEO estaban contentos con su trabajo?

Mejoramos el conocimiento general


En primer lugar, tal vez, debería reforzar su propio conocimiento de SEO (y tal vez publicidad contextual). Tales cosas en el campo del marketing en Internet nunca le harán daño, y le darán la ventaja de hacer todo conscientemente, y no solo "tal como está escrito en los TdR". También es útil para la autoevaluación. Este es el esquema general en el que se superponen los puntos restantes.

Cerrar enlaces de indexación



Si trabaja con auditorías de SEO, probablemente sepa qué son los enlaces externos, los enlaces circulares y los nodos colgantes.

En el caso general: los enlaces externos son aquellos que conducen a otros sitios y resulta que sus visitantes serán llevados a otro lugar; enlaces cíclicos: se comportan sobre sí mismos (también son malos); nodos colgantes: por ejemplo, enlaces para descargar documentos que no conducen a otras páginas. Agregamos el atributo 'rel = ”nofollow”' a todos estos enlaces, lo que permitirá que los robots de búsqueda comprendan que no es necesario seguir este enlace y que no debe tenerse en cuenta. De esta manera ahorramos peso de página. Es mejor agregar target = "_ blank" a enlaces externos, de esta manera su sitio permanecerá abierto para el usuario y habrá una mayor posibilidad de que regrese.

Un ejemplo común de referencias circulares es un menú, logotipo, migas de pan. En estos elementos típicos, los enlaces a la página actual a menudo están ocultos, y es importante recordar cerrarlos inmediatamente después de la indexación (ocultar de los robots).

Los enlaces externos más típicos son un enlace al desarrollador del sitio en el sótano, enlaces a redes sociales, fuentes de noticias, clientes de la empresa, teléfonos, correos, etc.

Espejos de cola



Hablando de reducir duplicados, uno no puede evitar recordar los espejos pegados. Esto significa que sus páginas deberían ser accesibles solo en 1 dirección. Mientras que el suyo puede estar disponible por:


Es decir, hay tres tipos principales de espejos: el protocolo (http / https), la presencia de una barra diagonal al final de las páginas y la presencia de las codiciadas tres letras "www".

Al utilizar redireccionamientos, es importante recordar que para pegar debe ser por defecto 301 (redirección permanente) y no 302 (redirección temporal).

Si tiene clasificaciones \ filtros \ paginación a través de parámetros GET, como regla, esto también crea un doble para el motor de búsqueda. Por lo tanto, es mejor colgar el pegado en esas páginas. Para esto, se agrega un enlace especial <link href = "enlace a la página principal" rel = "canonical"> a <head>. Dicho enlace le dice al robot que esta página no es la principal, pero la principal se encuentra en la dirección en el atributo href. Esto generalmente eliminará muchas tomas de sus páginas.

Establezca las metaetiquetas correctas y el micromarcado



No menos importante al desarrollar metaetiquetas para páginas. Las propiedades del título y la descripción deben completarse al menos en las páginas principales (principal, sobre la empresa, contactos, catálogo, servicios), es mejor tener en cuenta las reglas para la formación de metaetiquetas en categorías, productos o noticias añadidas posteriormente. Puede tomar un título como título y agregar información general al título al estilo de <meta name = ”description” content = “Su descripción como descripción. Más información en site.ru ”>.

En un mundo ideal, puede introducir de inmediato micro-marcado. Bueno, al menos Open Graph. Cuanto más lejos, más a menudo ocurre este elemento en varias auditorías para su implementación, generalmente se realiza de forma rápida y sencilla, pero puede dar un valor decente en términos de mostrar el sitio y su atractivo para los clientes. Puedes leer sobre micromarcado aquí .

También creamos robots.txt estándar. Por lo general, en Internet puede encontrar uno para el CMS que usa, es diferente para todos. Muchos CMS tienen un generador automático o complementos que se harán cargo de este elemento.

Optimizamos la velocidad de carga del sitio



Uno de los principales factores de atractivo de un sitio para un usuario es la velocidad de su carga. Esto es comprensible: esperar 2 minutos de carga de la página era normal en la década de 2000, pero hoy la velocidad del consumo de información es varias veces mayor, así como las necesidades del usuario. Si tiene que mirar el precargador durante más de 5 segundos, comienza a molestar. A menudo, cuando se trata de la velocidad de carga, los especialistas en SEO se centrarán en la herramienta Google PageSpeed ​​Insights .

El enfoque principal de esta auditoría es la optimización de imágenes. Ahora es simplemente indecente subir imágenes enormes sin procesarlas o comprimirlas. Si su imagen pesa 2-3 megabytes, esto generalmente significa que su página se cargará mucho más tiempo de lo que podría, y no le importa su producto. Este elemento le quitará de inmediato a su página unos 40 puntos (si todo está completamente mal) en el mismo PageSpeed ​​Insights.

El servicio también ofrece mover Javascips hacia abajo de la página, porque descargarlos evita la carga del contenido que se muestra, así como el uso de compresión de archivos y caché del navegador. Para esto, se utilizan módulos de servidor, a los que se accede a través de la directiva .htaccess. Puede preparar previamente las reglas que son lo suficientemente universales, con un término de almacenamiento en caché y compresión, para que pueda insertarlas más adelante en el proyecto.

Se parece a esto:

<IfModule mod_expires.c> ExpiresActive on ExpiresDefault "access plus 6 hour" ExpiresByType image/jpeg "access plus 7 day" ExpiresByType image/gif "access plus 7 day" ExpiresByType image/png "access plus 7 day" ExpiresByType image/x-icon "access plus 7 day" ExpiresByType text/css "access plus 6 hour" ExpiresByType application/javascript "access plus 6 hour" ExpiresByType application/x-javascript "access plus 6 hour" ExpiresByType application/x-shockwave-flash "access plus 6 hour" </IfModule> <IfModule mod_deflate.c> <filesMatch "\.(js|css|html|php|jpg|jpeg|png|gif|svg)$"> SetOutputFilter DEFLATE </filesMatch> </IfModule> 

El problema del almacenamiento en caché y la compresión también incluye la conexión mínima de archivos de terceros. Si el sitio desde el cual los conectamos deja de funcionar, es posible que no lo notemos a tiempo. Además, no minimizamos el recurso externo, no comprimimos ni almacenamos en caché (este también es un recurso externo). Es por eso que es una buena práctica descargar fuentes y conectar scripts (como jquery) desde nuestro servidor.

Crea una página para errores 404


Todas las páginas que no existen deben devolver un código de respuesta 404. Muchas personas lo olvidan, pero se recomienda tener elementos de navegación comunes (encabezado / menú) en esta página para que el usuario pueda ir a la página de interés desde allí, y varios enlaces, generalmente a las páginas principal y anterior. . Es importante que el usuario comprenda que estaba en una página inexistente, pero que no se molestó y abandonó su sitio por completo.

No te olvides de la versión adaptativa / móvil



Todos los días se busca cada vez más información a través de dispositivos móviles. Por lo tanto, si realiza cambios que afecten la apariencia del sitio en el escritorio, no es necesario que sea demasiado vago y verifique que no ocurra nada en la adaptación. Si no hay una versión móvil, entonces es una buena forma de al menos poner todo en un aspecto de goma no irritante para que el sitio no tenga que girar constantemente a la izquierda / derecha cuando se ve desde un teléfono. Además, la presencia de una versión móvil aumenta su posición en los resultados de búsqueda.

Cerramos el entorno de desarrollo desde la indexación



Si está desarrollando un nuevo sitio o está trabajando en un subdominio, debe cerrarlo para indexarlo para que no quede bajo afiliación (varios sitios idénticos a partir de los cuales el sistema determinará el principal, y solo todo estará bien con él). Esto generalmente se realiza a través de un archivo robots.txt especial, en el que toda la información se cierra desde todos los robots.

En este punto, lo más importante es no olvidar eliminar este archivo más tarde, de lo contrario el robot de búsqueda no sabrá sobre su nuevo sitio, y el cliente seguramente estará muy descontento.

Cereza en el pastel (páginas de paginación)



Para aquellos que desean destacarse especialmente y perfeccionistas, trabajamos a través de las páginas de paginación. La lista de acciones es bastante simple:

  1. Pegamos la etiqueta canónica con la página principal (<link href = ”enlace a la página principal” rel = ”canonical”>).
  2. Agregue metaetiquetas especiales al <head> que le indique al robot dónde están las páginas anterior y siguiente. Para hacer esto, use la <link href = ”dirección de la página siguiente” rel = ”next”> (en todas las páginas excepto la última), y <link href = ”la dirección de la página anterior” rel = ”prev”> (en todas las páginas excepto la primera ) Además, si estamos en la segunda página, los parámetros de paginación no deberían agregarse a la primera.
  3. En todas las páginas, excepto la primera, agregue la firma "- página N" a las etiquetas <título>, <descripción>, <h1> (donde N es el número de página). Esto nos ayudará a evitar toda una serie de duplicaciones de contenido.

Comentando correctamente


A menudo, el cliente decide eliminar un banner o simplemente un bloque que aún no se puede llenar. Pero después de seis meses, o incluso un año, "milagrosamente" lo recuerda y pide ser devuelto. Cómo lo consigues es tu problema. Por lo tanto, si necesita ocultar algunas cosas que luego podrían necesitarse nuevamente, es mejor comentarlas o hacer una copia del archivo. Además, el comentario no debe tener la forma <! ----->, es decir HTML simple. Tal comentario se mostrará en el código de la página, será visto por el motor de búsqueda y muy posiblemente se considerará código basura. Además, aumenta la cantidad de código html cargado. Por lo tanto, es mejor envolver este comentario, por ejemplo, en un comentario php. ¡Y no olvide firmar a qué se refiere! Porque no es un hecho que en un año tú mismo recordarás esto.

Lista de verificación final



Total Podemos hacer una lista de verificación aproximada para un ser querido:

  • Cerramos enlaces cíclicos (menú, logotipo, migas de pan), enlaces externos (redes sociales, fuentes, clientes, teléfonos, correos) y nodos colgantes (documentos para descargar)
  • Espejos de cola (www, http, /), así como páginas con parámetros GET (filtros, clasificación)
  • Compruebe que todas las redirecciones en el sitio son 301
  • Establecer reglas para metaetiquetas
  • Micro tamaño en tamaños máximos
  • Optimizamos la velocidad de carga del sitio (compresión de recursos, caché del navegador, optimización de imágenes, versiones minimizadas de scripts y estilos, scripts en la parte inferior de la página)
  • No olvides consultar la versión móvil
  • Cerramos el entorno de desarrollo desde la indexación
  • Optimizamos las páginas de paginación de páginas para motores de búsqueda.
  • Comentamos el código no en formato html, sino en php o copia de seguridad por separado
  • No olvides crear una página de error 404

Estos son, quizás, los puntos principales que deben tenerse en cuenta al desarrollar / optimizar un sitio para conocer el Zen de la promoción de búsqueda (bueno, cuánto puede hacer esto el desarrollador).

Source: https://habr.com/ru/post/es417503/


All Articles