Conceptos Seo .pdf



Nombre del archivo original: Conceptos Seo.pdf


Vista previa del documento


Guía
Básica
Seo

.

ÍNDICE

1 ACCESIBILIDAD
2 INDEXABILIDAD
3 FACTORES CLAVE
4 RECURSOS
5 TERMINOLOGÍA USADA

ANTONIO RODRÍGUEZ CASTRO
Página 2

ACCESIBILIDAD
Lo primero en lo que hay que fijarse es en si tu web es visible a los ojos de los
motores de búsqueda, y sobre todo, en cómo estos están viendo tu página.
Por algunos motivos que explicaremos más adelante, puede darse el caso de que
los motores de búsqueda no puedan leer correctamente tu web.

ARCHIVO ROBOTS.TXT
El archivo robots.txt se usa para impedir que los motores de búsqueda accedan e
indexen ciertas partes de tu web. Por ejemplo en Wordpress, para que no acce-dan
a los archivos de administrador, el archivo robots.txt sería así:

User-agent:*
Disallow:/wp-admin

OJO: Debes tener mucho cuidado de no bloquear el acceso de los
motores de búsqueda a toda tu web sin darte cuenta, como en este
ejemplo:

User-agent:*
Disallow:/

Debemos comprobar que el archivo robots.txt no está bloqueando ninguna parte
importante de nuestra web, bien visitando la url www.ejemplo.com/robots.txt, o bien
a través de Google Webmaster Tools.

ANTONIO RODRÍGUEZ CASTRO
Página 3

El archivo robots.txt también puede usarse para indicar donde se encuentra nuestro sitemap, añadiendo en la última línea del documento:

Sitemap: http://www.ejemplo.com/sitemap.xml

Por lo tanto, un ejemplo de robots.txt completo para Wordpress se vería así:

User-agent:*
Disallow:/wp-admin
Sitemap:http://www.ejemplo.com/sitemap.xml

Si quieres profundizar más en detalle sobre este archivo, es recomendable visitar la
web con la información sobre el estándar.

Meta etiqueta robots
La meta etiqueta “robots” se utiliza para decirle a los robots de los motores de
búsqueda si pueden o no indexar la página y si deben seguir los enlaces que contiene.
A la hora de analizar una página deberás comprobar si hay alguna meta etiqueta
que por error esté bloqueando el acceso a estos robots. Este es un ejemplo de
cómo se verían estas etiquetas en el código HTML:

<meta name=”robots” content=”noindex, nofollow”>

Por otra parte las metaetiquetas son muy útiles para evitar que Google indexe

ANTONIO RODRÍGUEZ CASTRO
Página 4

páginas que no te interesen, como pueden ser las paginaciones o los filtros, pero
que siga los enlaces para que continúe rastreando nuestra web. En este caso la
etiqueta quedaría así:
<meta name=”robots” content=”noindex, follow”>

Podemos comprobar las metaetiquetas haciendo click derecho en la página y
seleccionando “ver código fuente de la página”.

Códigos de estado HTTP
En el caso de que alguna URL devuelva un código de estado (404, 502, etc), los
usuarios y los motores de búsqueda no podrán acceder a esa página.
Para identificar estas URLs, os recomendamos usar Screaming Frog, una aplicación que te muestra rápidamente el estado de todas las URLs de tu página.
IDEA: Cada vez que hagas una nueva búsqueda en Screaming Frog
exporta el resultado en un CSV. Así las podrás reunir todas en un mismo Excel más tarde.

Sitemap
El sitemap es un archivo XML que contiene una lista de las páginas del sitio junto
con alguna información adicional, como con qué frecuencia la página cambia sus
contenidos, cuándo fue su última actualización, etc.

ANTONIO RODRÍGUEZ CASTRO
Página 5

Un pequeño extracto de un sitemap sería:

<url>
<loc>http://www.ejemplo.com</loc>
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>

Hay varios puntos importantes que debes comprobar respecto al Sitemap:

✓✓Sigue los protocolos, si no Google no lo procesará adecuadamente.
✓✓Está subido a Google Webmaster Tools
✓✓Está actualizado. Cuando actualices tu web, asegúrate que tienes todas
las páginas nuevas en tu sitemap.
✓✓Todas las páginas que hay en el sitemap están siendo indexadas por Google.

En caso de que la web no disponga de ningún sitemap deberemos crear uno, siguiendo cuatro pasos:

1 Crea un Excel con todas las páginas que queremos que se indexen, para ello
usaremos el mismo Excel que creamos al hacer las búsqueda de los códigos de
respuesta HTTP.
2 Crea el sitemap. Para ello te recomendamos la herramienta Sitemap Generators
(sencilla y muy completa).

ANTONIO RODRÍGUEZ CASTRO
Página 6

3 Compara las páginas que hay en tu excel y las que hay en el sitemap y elimina
del excel las que no queremos que se indexen.
4 Sube el sitemap a través de Google Webmaster Tools.

Arquitectur a de la web
Haz un esquema de toda la web en el que se pueda ver fácilmente los niveles que
tiene, desde la home hasta la página más profunda, y cuántos clicks hacen falta
para llegar a ella. Te debería de quedar algo así:

HOME

ACERCA

SERVICIOS

CONTACTO

SERV 1

MAPA

SERV 2

EMPLEO

SERV 2.1

Puedes localizar en qué nivel está cada página y si tienes enlaces apuntando hacia ella de nuevo con Screaming Frog. Esto es importante porque Google tiene un
tiempo limitado para rastrear una web, cuantos menos niveles tenga que saltar
para llegar a lo más profundo, mejor.

ANTONIO RODRÍGUEZ CASTRO
Página 7

Javascript y CSS
Aunque en los últimos años Google se ha vuelto más inteligente a la hora de leer
este tipo de tecnologías, debemos tener cuidado porque el Javascript puede ocultar
parte de nuestro contenido y las CSS pueden desordenarlo, mostrándolo en otro
orden al que lo ve Google.
Usando el plugin Web Developer para Firefox o para Chrome nos será mucho más
fácil ver cómo “ve” la web un buscador. Lo primero que tienes que hacer es
desactivar el Javascript. Esto lo hacemos porque todos los menús desplegables,
enlaces y textos tienen que poder ser leídos por Google.
Después con Web Developer desactivamos el CSS, ya que queremos ver el orden
real del contenido y el CSS puede cambiar esto completamente.
ASEGURATE DE QUE CUMPLES LOS SIGUIENTES PUNTOS:
✓✓Puedes ver todos los enlaces del menú
✓✓Todos los enlaces de la web son clicables
✓✓No hay texto que no sea visible con CSS y Javascript activados
✓✓Los enlaces más importantes están en la parte superior

Velocidad de la web
Es un factor vital no solo para posicionamiento sino que además es clave en una
buena experiencia de usuario.

ANTONIO RODRÍGUEZ CASTRO
Página 8

Una carga de página muy lenta puede hacer que tu porcentaje de rebote se dispare. También hay que tener en cuenta que el robot de Google tiene un tiempo
limitado a la hora de navegar por nuestra página, cuanto menos tarde cada
pági-na en cargar, a más páginas conseguirá llegar.
IDEA: Para ver la velocidad de carga de tu web, te recomendamos
Google Page Speed, allí puedes ver cuáles son los problemas que más
ralentizan tu web, además de consejos que te dará Google para atajarlos. Céntrate en los que tienen prioridad alta y media.

ANTONIO RODRÍGUEZ CASTRO
Página 9

INDEXABILIDAD
Ya has identificado cuáles son las páginas a las que pueden acceder los motores
de búsqueda, ahora lo que tienes que hacer es identificar cuántas de esas páginas
están siendo realmente indexadas.

Comando de búsqueda “Site:”
Con este comando lo que puedes hacer es buscar en una web específica, lo que te
da un idea muy aproximada del número de páginas que Google tiene indexadas.
Esto sirve para comparar la cantidad de páginas que Google tiene indexadas con el
número real de las páginas de la web. Pueden ocurrir 2 cosas:
BIEN: El número en ambos es muy parecido.
MAL: El número que aparece en la búsqueda de Google es mayor, esto significa
que la web tiene un problema de contenido duplicado.

Contenido duplicado
Tener contenido duplicado significa que tienes el mismo contenido para varias
URLs. Puede ser interno o externo. Las formas más comunes son:
CANONICALIZACIÓN
Este es el motivo más común de contenido duplicado, se produce cuando tu pá-

ANTONIO RODRÍGUEZ CASTRO
Página 10

gina de inicio tiene más de una URL:

ejemplo.com
www.ejemplo.com
ejemplo.com/index.html
www.ejemplo.com/index.html
Cada una de las anteriores dirigen a
la misma página con el mismo contenido.

Solución
Haz una redirección en el servidor para
asegurarte de que solo hay una página
que se muestre a los usuarios y definir
qué subdominio quieres que sea el
principal

(“www”

o

“no-www”)

en

Google Webmaster Tools > Configuración > Configuración

Parámetros en l a URL
Existen muchos tipos de parámetros, sobre todo en e-commerce:
filtros de los productos (color, talla,
puntuación, etc.), ordenación (precio menor, por relevancia, precio
mayor, en cuadrícula, etc.) y sesiones de usuarios. El problema es que
muchos de estos parámetros no
cambian el contenido de la página.

Solución
Añade una etiqueta
rel=canonical ha-cia
la página original e
indica a

Google
a través de Google Webmaster Tools
> Configuración > Parámetros de URL

qué parámetros debe ignorar.

ANTONIO RODRÍGUEZ CASTRO

Página 11

Paginación
La paginación es un problema enorme en las webs de e-commerce donde tienen
cientos de artículos paginados en la misma categoría. El contenido es diferente
pero demasiado similar.
SOLUCIÓN:
Añade las etiquetas rel=next y rel=prev que permiten a los motores de búsqueda
saber que todas las páginas pertenecen a una misma categoría/publicación. Esto
se hace en 3 pasos:
1. Añade la etiqueta rel=next en la parte de <head> del código a la primera página:

<link rel=”next”

href=”http://www.ejemplo.com/page-2.html”>

2. Añade en todas las páginas menos la primera y la última las etiquetas rel=next y
rel=prev
<link rel=”prev”

href=”http://www.ejemplo.com/página-1.html”>

<link rel=”next”

href=”http://www.ejemplo.com/página-3.html”>

3. Añade a la última página la etiqueta rel=prev

<link rel=”prev”

ANTONIO RODRÍGUEZ CASTRO
Página 12

href=”http://www.ejemplo.com/página-2.html”>

Versión para móvil
Este problema cada vez es más
co mún debido al incremento
enorme del tráfico móvil en el
último año. Lo que ocurre aquí es
que se pre-sentan dos URLs para
todas las pá-ginas de una web:
ejemplo.com/pagina
m.ejemplo.com/pagina
Solución
Crea un diseño responsive que adapte
dinámicamente la web en función de la
resolución de la pantalla del visitante.

Contenido duplicado externo
Para detectar el contenido duplicado externo copia un párrafo del texto y haz la
búsqueda en Google entre comillas. Esto te dará como resultado todas las pá-ginas
que contienen ese fragmento. Para asegurarte usa Copyscape. Si detectas
contenido duplicado contacta con la página que te ha copiado el contenido y pídele
que te enlace como fuente.
Otra para contenido duplicado
http://www.siteliner.com/

¿ Te ha penalizado Google?
El mayor problema que podemos tener a la hora de que se indexe correctamente
nuestra web es que esté penalizada por Google. Lo primero que tienes que hacer

es asegurarte que existe una penalización, para ello bastará con hacer dos búsquedas en Google.

ANTONIO RODRÍGUEZ CASTRO
Página 13

1. PÁGINAS RELEVANTES INDEXADAS
Haz una búsqueda de tu web con el comando “site:” para saber si todas las páginas relevantes están siendo indexadas. Si otras páginas menos relevantes aparecen por encima, es señal de que algo pasa.
2. BÚSQUEDA DE MARCA
Para estar seguro haz una búsqueda con el nombre de tu web, si la web no aparece en las 2-3 primeras páginas, significa que has sido penalizado.
Ojo: Si el nombre de tu web es una búsqueda muy competitiva (ej.
Ordenadores Baratos) es muy posible que no posiciones para ese
término
Cuando ya sepas que has sido penalizado, hay que identificar la causa. Esto
re-quiere un análisis exhaustivo de factores internos y externos:
✓✓Canibalización de Keywords: Si tienes muchas páginas centradas en la
misma Keyword, Google no sabrá cuál posicionar frente a las otras, por lo que
al final no posiciona ninguna. Consejo: No intentes atacar un keyword creando
mu-chas páginas para ella.
✓✓Keyword stuffing: No añadas la palabras clave para la que quieres posicionar
de manera masiva a tu web, tiene que ser una proporción natural.
✓✓Enlaces de baja calidad: Asegúrate de que tu perfil de enlaces sea natural, si
todos tus enlaces son en directorios automáticos o comentarios masivos en

ANTONIO RODRÍGUEZ CASTRO
Página 14

blogs y los buscadores lo verán como un indicador de que tu web no aporta
valor
✓✓Contenido oculto: Esto no siempre se hace de manera voluntaria, aún así
pue-des tener contenido que tus usuarios no pueden ver pero los motores de
bús-queda sí. Consejo: Comprueba esto en la versión de solo texto.
✓✓Muchos enlaces con anchors text con keywords: Evita que todo el texto de los
links (anchor text) sea igual, especialmente utilizando keywords. Para Google
es una señal de link spam. Consejo: Es bueno tener enlaces con anchor text
como “pincha aquí”, “mi web” o el propio nombre de tu web.

Nota: Si tienes Google Webmaster Tools, te llegará un mensaje de
aviso, no te dirá por qué te avisa, pero sabrás que algo anda mal.
El último paso sería corregirlo y enviar una reconsideración a Google desde Google Webmaster Tools.

ANTONIO RODRÍGUEZ CASTRO
Página 15

FACTORES CLAVE
Ya has analizado la accesibilidad y la indexabilidad de la web, ahora le toca el turno a los factores que afectan directamente al posicionamiento en Google. Este paso
es muy interesante porque es donde vamos a encontrar más oportunidades para
mejorar la web.

Etiquetas HTML
Antes de empezar con puntos específicos del código HTML debes asegurarte de
que cumple los estándares. W3C ofrece un validador de HTML que mostrará cualquier fallo del código.
Title
El título es lo primero que aparece en los resultados en Google y es lo que se
muestra cuando la gente pone el enlace en las redes sociales (excepto Twitter).
Para analizar el título seguiremos una serie de pasos:
✓✓Tiene menos de 70 caracteres.
✓✓Es descriptivo con respecto al contenido de la página.
✓✓Contiene keywords importantes, a poder ser al principio, sin perder la lógica.
✓✓Las keywords no se repiten más de 3 veces.
✓✓No hay títulos duplicados.

ANTONIO RODRÍGUEZ CASTRO
Página 16

Otra cosa a tener en cuenta es dónde poner el nombre de la web; por lo general se
pone al final para dar más importancia a las keywords prioritarias, separándo-las del
nombre de la web con un guión o una barra vertical. Es recomendable usar la barra
vertical como separador, le indica mejor a Google que son dos partes diferenciadas
del title. Consejo: Podrás ver fácilmente todos los títulos y su lon-gitud con
Screaming Frog.
Etiquetas H1, H2, H3...
La información de las etiquetas H1, H2, H3... H6 jerarquiza el texto de la web en
función de su importancia. Asegúrate de que cumples las siguientes condiciones:

✓✓Hay solo un etiqueta H1 por página.
✓✓Es recomendable que haya al menos un H2 y un H3 en cada página.
✓✓Están ordenadas de manera correcta. Primero H1, después H2, etc.
✓✓Tienen keywords relevantes para la página sin caer en el keyword stuffing.

Idea: Para comprobar si tenemos bien implementadas todas las etiquetas HTML, aprovecha el Excel donde analizaste los textos e incluye columnas para el Title, Description, el H1 y el H2. Creando una
columna para lo que tienes actualmente y lo de que deberías tener.
Meta Description.
Aunque no es un factor de posicionamiento, afecta a la tasa de clicks (click-throu-

ANTONIO RODRÍGUEZ CASTRO
Página 17

gh rate) en los resultados de búsqueda.
Para la meta description deberas seguir los mismos principios que con el título, solo
que la longitud de esta no debe de exceder los 155 caracteres. Tanto para lo
títulos y la descripciones debes evitar la duplicidad, esto lo puedes comprobar en
Google Webmaster Tools (optimización > mejoras HTML).

URLs
Para analizar las URLs de las páginas debes asegurarte de cumplir una serie de
condiciones:

✓✓Tiene menos de 115 caracteres
✓✓Tiene keywords relevantes. Es importante que la URL describa el contenido
de la página, ya que es la puerta de entrada de Google hacia la web. Consejo:
Cuanto más a la izquierda estén las keywords importantes así como cuantas
menos palabras tenga la URL más importancia tendrá cada una de ellas. Evita
palabras innecesarias.
✓✓No tiene parámetros. Lo óptimo sería usar URLs estáticas, pero si no es posible, como puede darse en e-commerce, evitaremos el uso excesivo, además de
registrarlos en Google Webmaster Tools (configuración > parámetros de URL)
✓✓No tiene barras bajas. Desde Google se recomienda el uso de guiones para
se-parar las palabras en la URL
✓✓Redirigen de manera correcta. La página debe redirigir de “no www” a “www” o
de “.html” a “no .html”.

ANTONIO RODRÍGUEZ CASTRO
Página 18

Para averiguar todo esto usaremos de nuevo Screaming Frog y el excel con todas
las páginas de nuestra web.
Mala: http://www.ejemplo.com/tt0468569.html
Buena:http://www.ejemplo.com/buen-ejemplo/

El contenido
Creo que ha quedado bastante claro por parte de Google que el contenido es el
rey, ofrezcámosle un buen trono entonces.
Para hacer un buen análisis del contenido de nuestra web tienes unas cuantas
herramientas a tu disposición, pero al final lo más útil es usar la página con el Javascript y los CSS desactivados cómo explicamos más arriba. De este modo verás
qué contenido está leyendo Google realmente y en qué orden está dispuesto.
A la hora de hacer el análisis del contenido de las páginas debes hacerte varias
preguntas que te guiarán en el proceso:
✓✓La página tiene suficiente contenido. No hay una medida estándar de
cuánto es “suficiente”, pero al menos debería contener 300 palabras.
✓✓El contenido es relevante. El contenido tiene que ser útil para el lector, basta
con preguntarte si tú leerías eso. Sé sincero.
✓✓Tiene keywords importantes en los primeros párrafos. Además de las keywords,
deberemos usar términos relacionados, Google es muy bueno relacionando términos.
Para esto es el comando ~keyword que nos dará resultados con sinó-

ANTONIO RODRÍGUEZ CASTRO
Página 19

nimos de la palabra clave que busquemos.
✓✓No tiene keyword stuffing. Si el contenido de la página tiene exceso de
keywords, a Google no le hará ninguna gracia.
✓✓No tiene faltas de ortografía.
✓✓Es fácil de leer Si no se nos hace tediosa la lectura, estará bien. Los
párrafos no deben ser muy largos, la letra no debe tener un tamaño demasiado
pe-queño y es recomendable que haya imágenes o vídeos que refuercen el
texto. Acuérdate de pensar siempre para qué público escribes.
✓✓Google puede leer el texto de la página. Tenemos que evitar que el texto
esté dentro de Flash, imágenes o javascript. Esto lo comprobaremos viendo la
ver-sión de solo texto de nuestra página, usando en Google el comando
cache:www. ejemplo.com y seleccionando la versión de solo texto.
✓✓El contenido está bien distribuido. Con sus etiquetas H1, H2, etc correspondientes, las imágenes bien maquetadas, etc.

Idea: Crea un excel con todas las páginas, sus textos y las keywords
que queremos que aparezcan en ellos, de está manera nos será más
fácil ver dónde debemos reducir o aumentar el número de keywords
en cada página.

Otros elementos HTML
Asegurate de que tu web cumple con estas condiciones:
✓✓No tiene etiqueta Meta Keywords, Google no las usa para nada.

✓✓La etiqueta “rel=canonical” está bien implementada - Si hay alguna página
usando esta etiqueta debes asegurarte de que dirija a la página correcta. Cómo
usar la etiqueta “rel=canonical”
✓✓Las etiquetas “rel=prev ; rel=next” están bien implementadas - Si hay páginas
usando estas etiquetas asegúrate de que apuntan hacia las páginas adecuadas.

Imágenes
A la hora de analizar la imágenes debes de tener en cuenta 3 factores:
✓✓No están redimensionadas. Esta información te la da Google Page Speed.
✓✓Incluye la etiqueta “alt”. Tiene que ser descriptiva con respecto a la imagen y
contenido que rodea a la imagen.
✓✓Incluye la etiqueta “title”.

Enlaces
Es muy importante analizar el número de enlaces, tanto externos como internos, y a
dónde están enlazando, para ello haz una lista con los factores más importan-tes:

✓✓El número de enlaces por página no debe superar los 100 y todas las páginas
deben de tener un número de enlaces similar.
✓✓Los links externos deben apuntar a sitios importantes y relacionados con el
contenido de la web.
✓✓El anchor text de los enlaces deberá de tener keywords importantes, pero

ANTONIO RODRÍGUEZ CASTRO
Página 22

tampoco deberemos usar las mismas keywords para todos los enlaces.
✓✓No debe de haber ningún enlace roto ni apuntado a páginas con errores 404.
✓✓Puede que haya links que apunten a páginas con redirecciones, si es así, se
cambiaría la URL por la página de destino final.
✓✓Debe de haber un buen ratio entre enlaces follow y nofollow, no todos deben
de ser follow ni todo nofollow.
✓✓Tienes que asegurarte que existe una buena estructura de enlaces internos,
para ello crearemos un esquema de las páginas internas que sean relevantes
unas para otras y como deben de estar enlazadas entre ellas.
✓✓Todas las páginas internas deben de tener al menos un enlace de otra parte
de la web apuntado a ellas.

ANTONIO RODRÍGUEZ CASTRO
Página 23

RECURSOS
Los plug-ins puede hacernos la vida mucho más fácil, haciendo más fáciles y rápidos los procesos de análisis. Estos son algunos de los plug-ins y herramientas
que usamos a diario en Socialmood.

Extensiones
Broken Link Checker (Chrome): Analiza rápidamente todos los enlaces de una
página, encontrando si hay enlaces rotos.
SEO ToolBar (Firefox): Información del Pagerank, enlaces, edad del dominio y
ubicación.
Redirect Path Checker (Chrome): Muestra en un solo click si esa página tiene o no
algún tipo de redirección.
Chrome Sniffer (Chrome): Identifica rápidamente el CMS de la página en la que
estés navegando.
SEOmoz Toolbar (Chrome): El Plug-in de SEOmoz, resalta los enlaces follow o no
follow, indica edad del dominio, la ubicación, su perfil de enlaces y sus atributos.
Word Count (Chrome): Cuenta el número de palabras y caracteres en un texto
seleccionado.

Herramientas
Screaming Frog: Hace un rastreo completo de una web.
Rich Snippets de Google: Muestra cómo quedaría un página con microformatos en
una búsqueda orgánica.

ANTONIO RODRÍGUEZ CASTRO
Página 24

Google Webmaster Tools: Completamente necesaria
Google Page Speed: Analizar la velocidad de carga de una web
Pingdom: Te sirve para analizar la velocidad de carga de una web.
Screenfly: Permite comprobar de manera rápida como se ve tu web en distintos
dispositivos (ordenadores, tablets, móviles y televisiones) con diferentes resolucion.
Robots.txt Checker: Escribiendo la URL de un archivo robots.txt hace un bús-queda
de posibles errores en el archivo.

SUITES
SEOmoz: Permite crear diferentes campañas en las que podrás analizar el ranking
en buscadores, análisis de los links de la competencia, análisis on-site de tu web,
análisis de relevancia en redes sociales y vincular tu cuenta de Google Analytics
para hacer comparativas de tráfico con tus diferentes keywords.
WebSEO: Análisis de ranking de keywords, análisis de enlaces hacia tu web, búsqueda de keywords según su tráfico y dificultad, búsqueda de contenido dupli-cado,
análisis de URLs, HTML y páginas indexadas; y análisis de la competencia
(posicionamiento, enlaces y relevancia)
Colibri: Permite hacer análisis de ranking de keywords, reportes de enlaces ha-cia
tu web, análisis de la competencia, búsqueda de keywords según su tráfico y
dificultad y vincular tu cuenta de Google Analytics para hacer comparativas de
tráfico con tus diferentes keywords.
Ahrefs: Permite lo que todas pero con añadidos muy interesantes: histórico de
enlaces, facilita el día en el que se han creado y/o eliminado los enlaces; además
de un pequeño análisis on-site.

ANTONIO RODRÍGUEZ CASTRO
Página 25

TERMINOLOGÍA USADA
Rastreo: Es el proceso por el que un motor de búsqueda encuentra nuevo contenido o contenido actualizado que tiene que ser añadido a su indice. Esto lo hacen a
traves de los robots.
Indexación: Es la acción que sigue al rastreo, el motor de búsqueda crea un in-dice
de webs en el que incluye las palabras relevantes del sitio y su ubicación,
ofreciendole luego en los resultados de búsqueda.
Meta etiquetas: Son etiquetas html que se incorporan en el encabezado de una
página web y que resultan invisibles para un visitante normal, pero de gran utilidad
para navegadores u otros programas que puedan valerse de esta información. Su
propósito es el de incluir información (metadatos) de referencia sobre la página:
autor, título, fecha, palabras clave, descripción, etc
Códigos de estado HTTP: Los códigos HTTP describen el estado de un URL cuando un visitante intenta acceder a ella. Esto incluye mensajes de error que apare-cen
cuando un visitante encuentra problemas en un sitio web. Los códigos son números
de tres dígitos. Aquí encontrarás más información.
CSS (cascading style sheets): Son las siglas de Cascading Style Sheets, en
español Hojas de estilo en Cascada. es una tecnología que nos permite crear
páginas web de una manera más exacta que describe cómo se va a mostrar un
documento en la pantalla.
Javascript: Es un lenguaje de programación que se utiliza principalmente en su

ANTONIO RODRÍGUEZ CASTRO
Página 26

forma del lado del cliente (client-side), implementado como parte de un navega-dor
web permitiendo mejoras en la interfaz de usuario y páginas web dinámicas
Página canónica: Una página canónica es la versión preferida de un conjunto de
páginas de contenido muy similar.
Diseño Responsive: o diseño web adaptativo es una técnica de diseño web que
prioriza la correcta visualización de una misma página en en distintos dispositi-vos:
Desde ordenadores de escritorio a tablets o móviles.
Canibalización de keywords: Este término hace referencia a la situación en las
que las distintas páginas de una web compiten entre sí por la misma palabra clave.
Keyword Stuffing: Consiste en abusar de las palabras claves, es decir, se rellenan
todos los elementos de la página web con una misma palabra, para ganar posiciones en el buscador.

ANTONIO RODRÍGUEZ CASTRO
Página 28


Conceptos Seo.pdf - página 1/30
 
Conceptos Seo.pdf - página 2/30
Conceptos Seo.pdf - página 3/30
Conceptos Seo.pdf - página 4/30
Conceptos Seo.pdf - página 5/30
Conceptos Seo.pdf - página 6/30