¿Tutorial de SEO decente?

desu

Alguien domina de SEO y me pasa un tutorial decente moderno que no sea vende humos?

SI busco los títulos de mi posts a google salgo el primero o segundo.

Pero si busco mi nombre en google, que es mi dominio, no salgo hasta la tercera pagina. Se me cuelan facebooks, linkedins, pinterest, twitter, instagrams etc

He buscado un seo analyzer por google y me ha dado un 61% de nota.

Uso jekyll creo para el blog, hay bastantes cosas que ya me las hace pero otras parece que no.

Luego entiendo que esto es lo que tengo que ir corrigiendo?

A

Gratis y de calidad

https://learningseo.io/

https://www.youtube.com/playlist?list=PLIgfqMCUEnDQCNMwjXsLLNjPqDUNKQrtd

Si no cargas muchos recursos puedes usar screaming frog en su versión gratuita.

1 1 respuesta
_Rpv

pon tu web y te ayudamos entre todos.

B

Interesa, ¿alguien recomienda algún curso de SEO en udemy decente en español si puede ser?

1 respuesta
r2d2rigo

No se si decirte que no te comas mucho la cabeza, porque creo que te vas a meter en un jaleo bueno con poco beneficio.

He hecho lo mismo que tu, buscar mi username que es tambien mi dominio web. Sale en la segunda pagina de Google, por detras de mis perfiles sociales y hasta mi cuenta de Steam. Y ojo, que es un dominio que lleva online desde 2008.

Pero bueno, cualquier cosa que encuentres es bienvenida, si encuentras info compartela porque me interesa a mi tambien.

1 respuesta
A

#4 Ninguno, no vas a aprender nada en 30 horas de videos (la mayoría no llega ni a eso) y menos si estás empezando. Arriba ya os he enlazado un par de recursos de donde podéis empezar a rascar.

#5 De nada sirve que sea de 2008 si no tiene contenido relevante

lui_numiz

Extensión SEO META para chrome. Puedes sacar información muy jugosa de las webs e ir aprendiendo poco a poco

JuAn4k4

Mi recomendación para que salgas más arriba por tu nombre es tener un "about me" Donde pongas tu nombre con link a GitHub (así lo tengo yo) y pongas también el resto de enlaces (linkedin/ etc) si quieres.

Yo así salgo el 7, después de fb, tw, in, wikipedia, YouTube y GitHub. Sin haber hecho nada de Seo.

B

. Ups!

Colacado

#1 habría que ver la página, posicionar por querer posicionar... y eso sin olvidar que el SEO es un juego de suma 0, que estés abajo no quiere decir que lo estés haciendo mal, sino que otros lo pueden estar haciendo mejor, muchas veces a base de meter billetes

2 2 respuestas
desu

#10 Bueno es un blog personal.

El objetivo, al menos el mio, no es monetizar o ser top 1.

Es hacer las cosas de SEO bien (sin volverme loco en optimizar el algoritmo) para salir una pagina antes o ser de los primeros en buscar un post.

Entiendo que en mi caso lo mas importante es usar bien los tags y metadatos para que si alguien busca algo concreto como: "programming forth elegance" le salga mi blog el primero o segundo. Ahora mismo creo que salgo el 5 o 6. edit: he vuelto a buscar y salgo el 1, pero creo que es porque he hecho click XD no se. se entiende la idea.

No quiero meter mil redes sociales para que google me de puntos... solo me preocupa cuando alguien busque X contenido yo salir primero. ahoramismo, si no buscas el titulo no salgo 1/2 en la lista de google. como se haria para que el contenido del post tambien siriviese para posicionarme mejor?? esa seria mi duda especifica.

3 respuestas
B

Desafortunadamente, las redes sociales es la principal fuente para derivar resultados a tu web.

Tengo una web de un cliente que no quiere gastar dinero en SEO, pero tiene a una esclava y digo esclava porque no quiere pagarle por poner posts en Facebook. Y aun así en ciertos productos se encuentra entre los primeros. También es que la competencia es aun peor pero bueno.

Depende mucho de contra que te enfrentes vas a tener resultados buenos rápido o muy a la larga.

Juicyhil21

#11 Si no pones la web es difícil de analizar xD

De todas formas, si quieres ver en que posición te encuentras, lo que necesitas es Google Search Console.

2 respuestas
A

#10 Meter billetes? Te refieres a pagar con enlaces? Si tu contenido es una mierda por muchos enlaces que le mandes lo va a tener dificil para rankear algo.

#11 Los metadatos como tal importan poco. Usa un buen title, crea contenido de calidad, jerarquízalo y cuida el enlazado interno. Si te vas a buscar a ti mismo al menos hazlo desde incógnito pero como te dicen mejor usar GSC porque es la "única" forma de saber por qué palabras apareces y te hacen click, además de la posición media. Pero vamos todo esto ya aparece en los enlaces que te puse antes.

2 respuestas
Dientecillos

#13 O Sistrix 🥺

desu

#13 #14 Ok este finde mirare esas herramientas a ver que saco.

No quiero poner links porque no quiero hacerlo publico ni hacer spam.

El otro dia analice con un par de paginas y me decia lo del sitemap y el robot.txt. Vale la pena para un blog tener eso bien?

2 respuestas
B

#16

Si, es necesario porque el sitemap le indicas a Google cuantas veces quieres que se pase con su robot para detectar cambios en tu web.
Si es un blog que escribes semanal, pues así. Si escribes a diario y varias entradas. Pues en la home le indicas que le den caña varias veces.

El robot.txt no es tan necesario, pero tenerlo ayuda a los robots para limitar el acceso a ciertas páginas por parte de estos, o incluso bloquear que contenido dentro de tu web aparezca como búsqueda. En especial imágenes o contenido visual. Si lo que quieres son páginas en concreto, es mejor bloquear con sesiones o contraseña.

Echa un ojo a las recomendaciones de SEO de Google, te puede ayudar bastante:
https://developers.google.com/search/docs/advanced/robots/intro

1 respuesta
A

#16 El robots sirve para controlar el rastreo (que no la indexacion) de forma sencilla, es útil tenerlo bien configurado pero ahora mismo no tendrás muchas cosas que no quieras que se rastreen pero es útil por ejemplo para eliminar las páginas de tags que se crean de serie con WordPress (se que tu no usas)

El sitemap es muy útil por dos cosas, uuna para indexar páginas que no quieras indexar desde tu web ( una landing de una promo por ejemplo) y porque desde Search Console puedes añadir 500 sitemap como máximo para controlar como está tu sitio web y saber si Google lo está rastreando bien. Instalalla etiqueta search console lo antes posible para que puedas ver la evolución.

Pero vamos si acabas de empezar no vas a tener problemas críticos porque no tendrás una estructura poco óptima y tampoco tendrás muchas entradas.

Ahora mismo céntrate en hacer contenido de calidad y jerarquizarlo correctamente (h1, h2, etc), las imágenes que sean chulas y con un alt text descriptivo y si te aburres

#17 eso que dices de controlar el rastreo no es correcto, Google ya ha dicho en muchas ocasiones que sudan de la frecuencia, prioridad y el crawldelay que ellos ya detectan automáticamente cuantas peticiones aguanta tu web y pasarán cuando lo consideren oportuno

1 respuesta
B

#18 Tú te fías de Google? Yo no.

Ya van varias veces que dicen que ciertas medidas no se van a tomar en cuenta o las cambian de un día para otro sin avisar con tal de que pases por su aro.

1 respuesta
A

#19 Pues lo que tu digas, pero al menos di que es tu opinión basada en vete tú a saber qué y no lo que dice Google y que se ha comprobado miles de veces por diferentes personas.

1 respuesta
B

#20 https://developers.google.com/search/docs/advanced/sitemaps/overview?visit_id=637553991516615125-4043024759&rd=1

Te dicen que no es necesario? Si, que lo incluyas en páginas muy complejas, con varios enlaces entre ellos, si.

Si tienes 4 enlaces pues a Google va a ver estos si tienes el típico sidebar con estas entradas.
Pero en un comercio electrónico o web más compleja, el sitemap va a ayudar al robot a encontrar enlaces que de otra manera no tiene acceso.

Que sudan de que pongas diario, semanal, o mensual, es al final es algo más situacional, para indicarles que vas a crear contenido dinámico.
El porque Google suda es porque el sitemap se usa mal. Y al final, han tenido que perfeccionar el robot. Pero si lo usas bien, te ayuda.

1 respuesta
A

#21 Y para qué me cuentas algo que ya sé y que yo no he negado? De hecho he dicho que es muy útil. Y no Google no ha tenido que perfeccionar el robots porque al igual que el sitemap no dependen de Google sino que son archivos que ya existían antes de que Google montará su crawler. Además con los datos que tenemos la web del forero no es nada grande.

Estoy diciendo que el priority y el frecuency (aunque no los mencionas en el hilo al que conteste ) del sitemap no lo usan. https://mobile.twitter.com/JohnMu/status/898150027054514176
https://www.seroundtable.com/google-priority-change-frequency-xml-sitemap-20273.html

Y tampoco usan el crawl delay https://m.youtube.com/watch?v=ZSghHC_4LzU&feature=emb_title

No sé tú pero yo estoy muy al día de estas cosas porque trabajo de esto desde hace ya unos añitos y no montando nichos sino con clientes de todos los tamaños, desde pequeñas webs de pymes hasta grandes empresas con diferentes dominios, idiomas y niveles de profundidad que harían llorar a un minero.

Por otro lado me hace mucha gracia que a firmes categóricamente que no te fías de Google y lo primero que haces es ponerme un enlace a la docu de Google. Pero vamos si quieres pregúntale directamente a JhonMu que suele contestar a ver que te dice.

Andy

hacedle caso a #2. El repositorio que ha montado Aleyda Solís es la mejor biblioteca para el que quiera aprender sobre la disciplina.

1 respuesta
A

#23 Y para los que ya llevamos años, además Aleyda es un puto encanto y tienes unas ponencias que se te caen los huevos al suelo. Y con Iñaki más de lo mismo que se está currando, sin cobrar un duro, un curso de GA4 que a muchos les va a hacer falta porque es un cambio del que no hay documentación extensa aún.

2 1 respuesta
Andy

#24 gente que dignifica la profesión. Perfiles totalmente necesarios en un sector donde ciertos personajes dañan seriamente la reputación de la disciplina.

1
Colacado

#14 no solo enlaces, que obviamente no lo son todo, pero es algo que suma, y a eso añádele por ejemplo pagar por un mejor hosting, pagar por desarrollar una web técnicamente más limpia que cargue más rápido, cosillas del estilo, cuando hablamos de SEO el dinero importa.

#11 la esencia del SEO en realidad es "sencilla", darle al usuario lo que quiere, y si se lo das rápido, mucho mejor 😂 pero como te han dicho sin ver la web y ver qué quieres específicamente, es difícil ayudar.

1 respuesta
A

#26 Vale, vale, es que no entendía la relación que hacías. Bastante de acuerdo.

1 respuesta
24 días después
bornex

#27 te quiero hacer una pregunta (ya que veo que controlas). Imagina que tengo una web con un formulario para crear ciertos recursos, algo así como un mil anuncios para colgar anuncios, luego cada anuncio es accesible a través de un GET a /mi-nuevo-anuncio, es decir las rutas son dinámicas. ¿Esto es indexado por Google?

1 respuesta
A

#28 Si lo he entendido bien tienes una plataforma dónde vas generando nuevas url como cuando yo creo un anuncio en Milanincios o Wallapop no?

En ese caso tengo una serie de preguntas (tranqui, te doy las posibles respuestas):

1) Cualquiera puede ver esas url o hay que estar logeado de alguna forma?
Si es lo primero vamos bien, si es lo segundo Google no va poder verlo a no ser que crees una versión accesible para el User Agent (UA) de googlebot. Algo así como a ti usuario (que tienes un UA normal) te muestro A y a google que tiene su propio UA le muestro B. Mientras el contenido sea muy similar (imagina que al usuario no le muestras el precio pero a googlebot sí) no debería dar problemas. Ahora bien si te pasas de listo y al usuario le muestras una página llena de anuncios y a Google una con una biblia de texto para posicionar pues te comerás un garrón de la gran flauta y puede que te meta alguna penalización por cloaking. Lo importante es que sean lo más similar posible.

User Agents de Google
https://developers.google.com/search/docs/advanced/crawling/overview-google-crawlers?hl=es
Cloaking
https://developers.google.com/search/docs/advanced/guidelines/cloaking?hl=es

2) El contenido se carga usando JS?
Si el contenido solo es posible verlo después de ser renderizado por el navegador a través de un JS vas a tener problemas. No será la primera vez que una página se estrella porque Google no es capaz de leer el contenido. Google no lee JS (en realidad sí, pero no quiero liarte de primeras) así que intenta que el contenido aparezca en "texto plano".

SEO for JS webapps

Básico del SEO para JS
https://developers.google.com/search/docs/guides/javascript-seo-basics

3) Cómo se accede al contenido? Tenemos URLs? Cómo se construyen?
Cómo se navegan hasta esos "anuncios"? Google no hace click en nada, solo lee el html y busca etiquetas href que es la que le marca un enlace. Asegúrate de que Google puede leerlas, vamos que sin hacer click, hover, ni esas polladas que hacéis los usuarios de magia negra dev, que sea algo como "href="/url-del-anuncio". No href, no party
Ahora bien puede que, por el motivo que sea (por ejemplo ofusques enlaces,la lies con las paginaciones, etc) no puedas mostrar una url a Google. En ese caso tira de sitemap y súbelo a Search Console. Mira de crearte un script que te haga un sitemap (es la cosa más tonta del mundo) que en su interior tenga más sitemaps. El motivo es simple: Hay un número máximo de url que se pueden subir a un sitemap (50000 url/ sitemap) y para no tener que subir 400 a mano pues mejor anidarlos. Subirlos a Search Console te ayudará a ver la cobertura total de URL que tienes indexadas. Vigila también que la ruta no tenga mucha profundidad, que no tenga que saltar de enlace en enlace para conseguir lleagr a una página.

Para resumir este punto: Que Google pueda leer el href y que la profundidad no sea alta. Si es alta tira de sitemap (y si no también que es siempre útil xD)

Crear URL rastreables
https://developers.google.com/search/docs/advanced/guidelines/links-crawlable?hl=es

Sitemaps
https://developers.google.com/search/docs/advanced/sitemaps/build-sitemap

No sé si esto ha aclarado tus dudas o me he ido por los cerros de Ubeda, en cualquier caso si hay más dudas pregunta.

1 respuesta
bornex

#29 Efectivamente, la idea es similar a un Milanuncios, y sí, cualquiera puede ver las urls sin estar logeado, osea va a ser el mismo contenido pa to el mundo.

Cuando te refieres a que el contenido es cargado con JS, ¿Te refieres a que el contenido es cargado con una llamada AJAX por ejemplo? Vaya el servidor tiene una ruta tal que así: /{categoría}/{titulo_anuncio} que cuando recibe un GET escupe un HTML, por lo tanto la forma de acceder a los nuevos anuncios creados es dinámica pero está todo renderizado en el servidor.

El problema (creo) es como se navega a esos anuncios, por ahora tengo implementado que se pueda haciendo una búsqueda, pero no tengo ni idea de cómo hacer que cada vez que se cree un anuncio nuevo se crea una página nueva y pueda ser accedida con un sitemap o algo así, ni puta idea vaya. ¿Se te ocurre algo?

1 respuesta