Cómo evitar el duplicado de las etiquetas meta robots de WordPress (actualizado)

Múltiples etiquetas meta descripción encontrado wordpress

No estoy seguro de si el Robots.txt tiene prioridad sobre la etiqueta meta robots o no y no parece haber una respuesta definitiva, por lo que puedo deducir la más restrictiva tendrá prioridad es decir, en nuestro caso la etiqueta meta.

Si está utilizando Roots Bedrock, compruebe el valor de WP_ENV en su archivo .env. Si se establece en el desarrollo, entonces esto anula automáticamente el valor de blog_public a ser siempre falsa, lo que significa que el “no robots meta” siempre se inyecta.

He buscado muchas soluciones pero no he podido actualizarlo, incluso he actualizado el archivo functions.php añadiendo el siguiente fragmento de código. Es necesario actualizar el “class-frontend.php” pero, no pude encontrar eso. Entonces probé esto y me funcionó.

Bien, entras dentro del directorio public_html, ahora encuentras una carpeta, nombre wp-includes, doble click para abrir esta carpeta. Al mismo tiempo, hay tantas carpetas y archivos, tomar un respiro, y simplemente haga clic en su teclado Ctrl + f y escriba general-template.php.

Una vez completado esto, vuelva a la comprobación del sitio web, cambie a Search Console y vuelva a enviar la URL que probó anteriormente. El informe de inspección de la URL debería estar libre de todas las advertencias y mensajes de error, al menos los relacionados con la indexación y la capacidad de rastreo, y podrás “Solicitar indexación”.

Cómo corregir meta descripciones duplicadas

WordPress 5.7 incorpora una nueva API de robots que proporciona un control basado en filtros sobre la etiqueta meta robots. Así que si su sitio está ejecutando WordPress 5.7 o superior, notará una nueva etiqueta <meta> incluida en la sección <head> de sus páginas web.

  Tema para móviles y más en JetPack 1-8

Por defecto, la etiqueta meta añadida por WordPress tiene un valor de max-image-preview:large, que está bien SI es la única etiqueta meta robots en la página. Si su sitio ya tiene su propia etiqueta meta robots, entonces habrá etiquetas duplicadas, lo cual es dudoso en el mejor de los casos. Lo ideal para una optimización SEO óptima es tener sólo UNA metaetiqueta robots en cada página.

Ahora busque etiquetas meta robots duplicadas en la página. Si está utilizando un plugin para añadir las etiquetas meta adecuadas, o si se añaden a través de la plantilla de su tema, puede encontrar múltiples instancias de la etiqueta meta robots. Aquí hay una captura de pantalla que muestra un ejemplo de etiquetas robots duplicadas, cada una especificando un valor de contenido diferente:

Por lo que he leído, deben evitarse las etiquetas meta robots múltiples/duplicadas en la misma página. En el mejor de los casos, el cliente combina e interpreta correctamente los distintos valores. En el peor de los casos, el cliente interpreta mal y algo sale mal.

El contenido de las páginas de WordPress se repite

El propósito de un archivo robots.txt, también conocido como protocolo de exclusión de robots, es dar a los webmasters el control sobre qué páginas pueden rastrear e indexar los robots (comúnmente llamados arañas) en su sitio. Un archivo robots.txt típico, colocado en el servidor de su sitio, debe incluir la URL de su mapa del sitio y cualquier otro parámetro que desee colocar.

  Qué es eso del NoCode y por qué es un movimiento perverso ¡Libera el NoCode!

Si un robot quiere visitar una página de su sitio web, antes de hacerlo comprueba su archivo robots.txt (colocado en www.domain.com/robots.txt – distingue entre mayúsculas y minúsculas, si lo llama Robots.TXT no funcionará) y ve que su archivo robots.txt contiene la siguiente exclusión:

Nota: Algunos robots ignorarán su archivo robots.txt, ya que sólo se trata de una directiva, por lo que seguirán accediendo a las páginas de su sitio a pesar de ello. Normalmente se trata de robots maliciosos que pueden recopilar información de su sitio. Algunos podrían ser maliciosos, incluso si crea una sección en su archivo robots.txt para excluirlos de rastrear su sitio, como estos robots suelen ignorar su archivo robots.txt no tendría éxito. Bloquear la dirección IP del robot podría ser una opción, pero como estos spammers suelen utilizar diferentes direcciones IP puede ser un proceso tedioso.

Contenido duplicado wordpress plugin

WordPress facilita la vida a las pequeñas empresas, los blogueros y los grandes sitios de noticias. Tiene las mejores prácticas aplicadas automáticamente en muchos casos, como los enlaces canónicos, y hay plugins para prácticamente todo lo demás que necesita.

La página mostrará fragmentos de artículos o artículos completos. Si la etiqueta es la misma que la de una categoría o página principal de su sitio web principal (suponiendo que no se trate de un blog), habrá creado un competidor de esa página en su propio sitio.

  11 beneficios que no sabías de tu cdn

Tendrán etiquetas H1 que son las mismas que los artículos, no siempre responden a una pregunta o proporcionan una buena solución, ya que son fragmentos de artículos y puede que no sea bueno mostrarlos a las personas que buscan respuestas.

A continuación, comience a añadir texto (no necesariamente en la parte superior, ya que desea ofrecer la receta real rápidamente al usuario) sobre el producto final. Asegúrese de que el texto sea relevante para el tema y muestre por qué, cómo y en qué se diferencia de los demás.