RSS Feed

Artículos sobre ‘SEO Google’ natural y artificial

  1. Copiar contenidos de Google

    Septiembre 17, 2012 por SeoValencia

    copiar contenido web

    El otro día leyendo el Blog oficial de Google para Webmasters ví una frase que me hizo gracia:

    Si decides utilizar un SEO para optimizar el rendimiento de tu sitio, asegúrate de elegir bien el SEO

    La busqué entre comillas y ví que cientos de páginas web la habían copiado. Supongo que del mismo blog para webmasters de google.

    Está claro que si nos copian contenido tenemos a nuestro alcance unas cuantas herramientas para librarnos de esos molestos copiones.

    En este caso, vemos que google ni lo ha intentado como en la mayoría de casos reales. Excepto cuando la copia provoca pérdidas económicas la gente no mueve un dedo.

     

    Lo peor el caso es que la página original no aparece en los resultados de búsqueda

     

    ¿alguna estrategia de google?.. su robots.txt parece normal

    .
    http://googlewebmaster-es.blogspot.com.es/2012/04/algunas-consideraciones-tener-en-cuenta.html

    P.S.: Lo que pasa al escribir un artículo rápido es que muchas veces no te fijas bien. El problema que tenía es con la nueva disposición por país de los dominios con blogspot. Si buscas estos resultados de búsqueda si aparece lo que debe aparecer


  2. Tracear ips desde Google analytics

    Agosto 24, 2012 por SeoValencia

    IP en Google Analytics

    Primero de todo, decir que en principio google considera la ip como algo personal y por eso no saca la característica de saber la ip del visitante por defecto.

    La forma más sencilla consiste en añadir una variable personalizada al código de analytics:

    pageTracker._setVar("<?php echo $_SERVER['REMOTE_ADDR']; ?>
    

    Necesitas tener php instalado para que está línea de código te funcione.

    ¿Para que sirve obtener la ip del visitante?

    Para muchas tareas. Puedes saber , por ejemplo, si desde una misma ip te están pinchando varias veces y así bloquear esa ip o rango de ips en tu campaña de adwords o en otro tipo de campaña.

    No parece que violes las T.O.S. de google:

    Google Analytics no proporciona a sus clientes información sobre la dirección IP real. Además, mediante un método que se conoce con el nombre de “máscara de IP”, los propietarios de sitios web que emplean Google Analytics tienen la opción de indicar a Google Analytics que para la geolocalización solo utilice una parte de la dirección IP, en lugar de la dirección completa. Independientemente de si el propietario de un sitio web utiliza Google Analytics, este tiene acceso a las direcciones IP de los usuarios que visiten su sitio.

    Google entiende que la información de las ips de los visitantes se puede acceder por otros medios.

    En definitiva, como obtener la ip de nuestras visitas desde adwords es bien sencillo si utilizas este tutorial.

    ¿Se te ocurren más formas de sacar partido de las ips de los usuarios? ¿Piensas que con esto estás violando las T.O.S. de Google?


  3. Ocultar contenido a Google

    Mayo 7, 2012 por SeoValencia

    ocultar contenido a google

    En la vida de un consultor seo pueden pasar miles de historias y a veces tan raras como querer ocultar contenido.

    La solución más sencilla para que google no indexe el contenido pero los usuarios lo puedan ver normalmente en tu página web radica en iframes.

    Los iframes son una etiqueta html que se encarga de cargar contenido de otra página. Puede ser tuya o incluso de otro dominio.

    En este caso la acción para que el contenido que no quieres indexar se vea en tu página sería la siguiente:

     

    Colocas un iframe como este:

     

    <iframe src=”ocultar/pagina.html”  width=”850″ height=”250″ scrolling=”no” />

     

    En el robots.txt deberías incluir la siguiente línea:

     

    User-agent: *
    Disallow: /ocultar

     

    La solución es correcta para que no te indexe el contenido pero cuidado con ofrecer contenido malicioso. Google no lo indexa pero lo puede leer.

     

    La mejor solución para realmente ocultar la información a google no existe.

    Lo que suelo utilizar en estos casos es una combinación de todas las formas de dificultar su lectura:

     

    código javascript no común, applet de java, flash e imágenes

     

    Juntando todo esto se lo ponemos muy difícil a papa Google y así no se entera de lo que hacemos.

    No debes olvidar que ocultar información a google puede ser mal visto por otras empresas SEO


  4. Diferencia entre keyword research y spam

    Enero 23, 2012 por SeoValencia

    El caso de Maria ángeles 963802408 es un caso conocido de HOAX, un rumor falso que se extiende por la red. Se ha podido utilizar por dos motivos: uno para colapsar a ese número de teléfono con llamadas erróneas y el otro y más común para sacar cuentas de correo y enviar spam. El proceso para esta segunda opción es bien simple:

    1. Recibes el correo
    2. Lo lees y se te indica que lo pases a tus amigos.
    3. Pasas a tus contactos el correo con copia a todos.
    4. El correo pasa de contacto en contacto y cada vez con más cuentas de correo asociadas en el cuerpo del mensaje.
    5. La viralidad del correo es tal que llega otra vez a la fuente emisora. El hacker recopila todos los correos que hay en el cuerpo del mensaje y los inserta en su base de datos lista para enviar spam.

    Un consejo: no reenviar correos a tus amigos pues aparecen todos los correos a los que se ha enviado.

    Si has llegado aquí pensando que de verdad se trataba de una llamada desde un hospital comentarte que nada más alejado de la realidad. Los hospitales no mandan correos a la gente.

    Más abajo describo como un portal de internet ha utilizado está búsqueda y muchas más para favorecer su posicionamiento.

    Si necesitas asesoría sobre páginas web puedes consultarme gratuitamente

    Hace mucho tiempo que la gente que se dedica a keyword research (búsqueda de palabras claves que interesan a mi producto/dominio) ha acabado su trabajo ‘normal‘ y se ha pasado al lado oscuro. Como ejemplo os cuento esta búsqueda que he encontrado en Softonic:

    http:// www.softonic.com /s/maria-%C3%A1ngeles-963802408

    softonic maria angeles

    Bajo esta búsqueda: maria ángeles 963802408 , un nombre y un teléfono no debería encontrarse en un portal de descargas. Pero si. El excelente buscador de Softonic ha descubierto que hay semejanzas entre maria ángeles y Angelo y Mario.

    La pregunta que nos viene es por qué una página como Softonic guarda búsquedas como ésta. Sólo hay dos posibilidades:

    1. Alguien lo ha buscado en su buscador interno y directamente esa búsqueda pasa a la base de datos, se genera una página con ella y aparece en el sitemap para que Google la indexe.

    2. Se ha realizado una búsqueda de palabras con cierto tráfico y se han hecho las páginas para la captación del correspondiente tráfico aunque nada tenga que ver con la temática de la página.

    Buscando un poco más, he encontrado esta página (no os digo como la he encontrado por si acaso):

    http:// www.softonic.com /s/puta-gratis

    Esta vez el excelente buscador lo relaciona con:

    – Rompecabezas para Computadora 2.0
    – PutAside 1.0

    puta gratis

    Actualmente Softonic se encuentra en novena posición bajo la búsqueda puta gratis con otra url.

    Me recuerda un poco al caso Neoteo

    ¿qué pensáis? ¿las sacan del buscador interno o de keyword research?


  5. Bloquear a los bots

    Enero 17, 2012 por SeoValencia

    Google bot

    El bot o crawler que más nos gusta a los que trabajamos posicionando páginas web es googlebot y salvo en contadas ocasiones nos gusta que copie el contenido de nuestras páginas, se las guarde en sus discos duros y haga lo que quiera con ellas. Nos gustaría que el resultado de esta copia nos posicione lo más arriba posible en su índice.

    Google es considerado bueno porque pese a que piratea nuestras páginas nos suele devolver tráfico y éste tráfico para muchos es dinero. Lo mismo ocurre con los bots de los demás buscadores.

    La forma de actuar de un bot es realmente siniestra. Entra en nuestra página e intenta recorrer un número determinado de páginas indicado por su propio algorítmo de indexación  para copiar nuestro contenido.

    Hace unos años el trabajo al mismo tiempo de varios de estos bots llegó a tumbar una de mis webs. Por ello, desde entonces intento frenar el uso indiscriminado que hacen los bots de la web.

    Si hablamos de googlebot, en general, podemos dejarle hacer lo que quiera. Tiene un sistema que detecta incluso cual es la mejor hora para entrar en tu servidor. De todas formas, lo que se suele hacer con estos bots es poner un delay en el robot.txt. Como ejemplo, un sencillo delay para el extinto bot de telefónica:

    User-agent: noxtrumbot
    Crawl-delay: 50

    El problema es que hay muchos bots que no respetan el archivo robots.txt por lo cual hay que bloquearlos directamente desde el .htaccess.

    Las razones para bloquear estos bots son realmente importantes. He aquí unas cuantas:

    MajesticSEO y AHrefs

    Se están convirtiendo en herramientas muy utilizada para ver como están enlazados los dominios de tu competencia. Bloqueándolos impides a los profesionales que la utilizan averiguar que tu red de blogs está enlazando a un determinado cliente.

    Copyscape

    Detecta contenido duplicado en la red. Si eres de los que copias contenidos de otros debes bloquearlo.

    TwengaBot

    Coge el contenido de tus productos e intenta posicionarse por ellos. Hay gente que lo ve como positivo si tu web carece de posicionamiento.

    BPImageWalker

    Busca imágenes con copyright. Ante la duda mejor bloquearlo. Cuando detecta una imagen busca si tienes licencia. En caso negativo intenta demandarte por una cantidad cercana a los 1000 dólares.

    La lista es interminable y éstos son sólo un ejemplo. Lo ideal es programar un servicio de detección de bots para decidir sobre su posterior bloqueo. Muy útil para webs con alto tráfico.

    Ejemplo de bloqueo:

    RewriteCond %{HTTP_USER_AGENT} ^(turingos|turnitinbot|urly.?warning|vacuum|vci|voideye|whacker) [NC,OR]
    RewriteCond %{HTTP_USER_AGENT} ^(wget|widow|wisenutbot|wwwoffle|xaldon|xenu|zeus|zyborg|anonymouse) [NC,OR]
    # STARTS WITH WEB
    RewriteCond %{HTTP_USER_AGENT} ^web(zip|emaile|enhancer|fetch|go.?is|auto|bandit|clip|copier|master|reaper|sauger|site.?quester|whack) [NC,OR]
    # ANYWHERE IN UA — GREEDY REGEX
    RewriteCond %{HTTP_USER_AGENT} ^.*(craftbot|TwengaBot|download|extract|stripper|sucker|ninja|clshttp|webspider|leacher|collector|grabber|webpictures|ia_archiver-web.archive.org).*$ [NC]

    # ISSUE 403 / SERVE ERRORDOCUMENT
    RewriteRule . – [F,L]

    deny from 216.120.143.126

    P.S.: Hay múltitud de trucos en esta lucha sin final.

    La pregunta del millón:

    ¿Qué hacen los bots en una web?

    Respuesta sencilla: Seleccionar información de tu página, almacenarla en sus discos duros y …

    Suponemos que sacar algún beneficio de esa información.

    P.S.: Recuerdo a los de twenga primero me llamaron por teléfono pidiendo un xml y les dije que no. Luego pusieron su bot y los tuve que bloquear. Si tanto interés tenían me podían haber hecho una oferta económica por mi base de datos 🙂


  6. ¿Google vende enlaces?

    Octubre 9, 2011 por SeoValencia

    Impartiendo el curso SEO en Madrid, estuvimos analizando la web de fotocasa y nos dimos cuenta de que tenía un enlace procedente de Google

    colaboradores de google street view

    El enlace se encuentra en http://www.google.es/help/maps/streetview/ y en teoría es una pequeña lista de Usos destacados por partners:

    – Está esmadrid.com con una lista de rutas por Madrid(maps.google.es/maps/mapplets?layer=c&moduleurl=http://maps.google.es/mapfiles/mapplets/sv/eul/esmadrid_mirando.xml).

    – Está Consumer Eroski con una lista de albergues del camino de santiago)(maps.google.es/maps/mapplets?moduleurl=http://www.svmapplets.com/sv/caminosantiago).

    – Está la Unesco con una lista mundial de grandes monumentos (maps.google.es/maps/mapplets?moduleurl=http://www.svmapplets.com/sv/unesco/)

    ….

    Lo interesante es que hay un enlace directo a www.lanetro.com (error 503 en estos momentos) y un enlace a www.fotocasa.es/Default.aspx.

    Mirando un poco la web de fotocasa, observo que tiene el típico mapita que han configurado a su gusto:

    google maps fotocasa

    Obviamente no puedo afirmar tajantemente que se haya producido una compra de enlace por parte de Fotocasa.

    Si la noticia fuera verdadera, Google diría por ejemplo, que desde Fotocasa se reciben muchas visitas a google maps. Suceso éste que seguramente es cierto. Pero daría pie a que numerosos webmasters inflaran las visitas a Google desde sus páginas para conseguir un enlace. Pero sobretodo, el SEO de idealista se llevaría un buen tirón de orejas al no haber obligado a sus programadores a tunear google maps:

    idealista google maps

    Un SEO mal pensado siempre piensa que para colar un enlace sin que se note, hay que colocarlo entre unos cuantos más: Unesco, Camino de Santiago,…

     

    P.S.: Es un enlace de imagen sin el NO FOLLOW

    Actualización 19 diciembre 2012: Google ha cambiado el contenido de la página y ya no aparecen enlaces raros ni a fotocasa ni a LaNetro ni a Esmadrid. Teniendo en cuenta que esos enlaces no aportaban nada al usuario han debido reprender al empleado de Google que los metió. Olían a ‘comprados‘ .. Smells like link spirit


  7. Auto google plus plugin para wordpress

    Septiembre 25, 2011 por SeoValencia

    google plus

     

    El que no corre vuela han debido pensar los programadores de este plugin. Su misión es simple y clara conseguir cuantos más +1 mejor y sin esfuerzo.

     

    Su funcionamiento es sencillo, crea una capa arriba de todas las capas con z-index:10. El problema es que esto genera que las demás capas sean invisibles  a las acciones. Vamos que no vas a poder seguir ningún enlace.

     

    Por ello sólo lo veo interesante para una web que tengas en parking con un contenido mínimo tipo landing page y que no pretendas que nadie haga click en un enlace.

     

    Caso interesante: Compras un dominio le pones un texto simple y le pones el script. Con suerte cuando vayas a generar el contenido ya dispondrás de un dominio con varios +1 ó una penalización… Mejor utilizarlo en temáticas de bajo nivel cultural como prevención.

    Si alguien tiene ganas de mejorarlo os lo dejo aquí para que podáis diseccionarlo con vuestras herramientas de código:
    Auto plugin google plus para WordPress


  8. Google quiere más

    Octubre 12, 2010 por carlos

    Como si fuera tu novia del instituto o nuestro entrenador de balonmano Google quiere más y más negocio para sí mismo.

    Como muestra esta imagen:

    Google más SEO

    En estos días en los que la nueva gente que se incorpora al mundo de la analítica web sólo conoce google analytics deben estar pensando en que no es suficiente y recuerdan que existen las herramientas para webmasters de Google. De ahí a utilizar todos los productos de Google hay medio paso.

    Ahora incluso sacan resumenes de los partidos de la eurocopa aparte de la clasificación.


  9. El mejor SEO del mundo

    Octubre 7, 2010 por carlos

    El mejor seo del mundo

    Si buscas El mejor seo del mundo en google obtendrás una lista de seos que han escrito algo al respecto en Valencia, en Alicante, Murcia u otros lugares de España o América.

    Puede resultar algo pedante y sobretodo muy de marketing de vender crecepelos (o vendehumos) hablar de esa forma.

    Pero todos sabemos que este tipo de jerga tiene sus incondicionales ya sea en México o en España.

    A veces me han preguntado si el mejor seo de España era el que había posicionado su página web bajo la búsqueda ‘viajes’.

    Mi respuesta siempre ha sido tajante: NO

    Si te fijas, los resultados de esa página son todos de empresas muy importantes del sector. Muchas de ellas pertenecientes a grupos empresariales muy destacados y enlazadas desde ellos.

    Hasta que no vea que viajesbenito.com está primera bajo esa búsqueda no le otorgaré el premio al mejor SEO a ese top1.

    ¿Cómo saber quien es el mejor SEO?

    Aquí muchos pensarán en mirar los resultados de los concursos de posicionamiento que ha habido en el pasado.

    Craso error.

    La mayoría de esos concursantes utilizan todas sus armas para ganar y ello hace que no partan precisamente de cero. Además, no sabemos las horas de dedicación de cada uno ni todos los hacks utilizados.

    Digamos que un buen SEO es aquel que alcanza los objetivos y éstos perduran en el tiempo independientemente de las técnicas utilizadas…si, ya sé. Hay técnicas muy chungas, pero si siguen funcionando, los que las practican seguirán trabajando de esa forma.

    ¿Sirve de algo posicionar pedófilo para la keyword ‘vaticano‘?

    Para crear buzz si. Y para otras cosas también.

    Si los chicos de guionbajo.com en vez de la página del vaticano hubieran puesto una pedófila. Casi nadie hubiera protestado. Salvo las protestas normales por el tipo de temática.

    Si hacen lo mismo para viajes y lo maquillan un poco. Los pobres SEO de la temática viajes alucinarían bastante y no sabrían que hacer.

    El problema es que tal y como lo han hecho parece inviable esa técnica para viajes. Parece que el bug de Google que ocurría cuando clonabas todo un el sitio entero ya no surte efecto.

    Dicen que hay más de 200 factores que influyen en el posicionamiento. En realidad, para la mayoría de proyectos la mayoría de los SEO sólo trabajan con unos pocos. Y sobretodo y más importante hay dos factores que si los controlas haces lo que quieres con los resultados de google… si te montas la infraestructura adecuada y no abusas de ella claro.

    P.S.1: El artículo viene sugerido por el título de la página
    www.guionbajo.com/posicionamiento.html

    P.S.2: Para hacer un buen concurso SEO lo ideal sería recrear un mundo virtual en una red local. Encerrar a los participantes  y dejarlos competir 8 horas contra un algorítmo diseñado al efecto.

    P.S. (noviembre 2012): ¿el mejor seo del mundo en españa? Bueno, fui el primero en publicar esto y poco después he estado un tiempo trabajando fuera y dejando de lado este blog. Uno tras otro me han ido copiando. Igual no siempre a mi, sino del que me copiaba a mi. Siempre lo digo: Si te copian es que eres bueno


  10. Seo 2012: Catastrofes y glaciación

    Mayo 11, 2010 por SeoValencia

    volcan islandia y glaciación

    Una de las técnicas seo consiste en ser previsor y empezar a posicionar eventos que sucederán en el futuro: Mundiales 2018, juegos olímpicos 2020

    Para el 2012 tenemos además de los eventos deportivos la tan conocida teoría maya. Esta vez me uno a ella no con el ánimo de posicionarme sino por un susto que tuve hace unos días.

    Hace unas semanas el volcán Eyjafjallajökull de Islandia paralizó el tráfico aéreo del norte de Europa. Luego cambió el viento y mucha gente se alegró. Pero a mi me entró un susto al recordar una teoría que había leído años atrás.

    En ella se explicaba como el calorcito de nuestro planeta es controlado por corrientes oceánicas y como cambiando el curso de esas corrientes se puede cambiar el clima de todo el planeta. En concreto, si se lograra modificar la corriente del golfo de México (responsable de los valores térmicos templados de Europa) y las aguas frias llegasen a cierta latitud el sistema iría a otro equilibrio, presuntamente una glaciación. Ya que el agua tropical no fluctuaría hacia el norte y este se haría cada vez más frio y nevado.

    ¿qué pinta el volcán aquí?

    La teoría que leí sobre como provocar una glaciación en poco tiempo hablaba de pintar el polo norte de negro. El hielo y la nieve aumentan el albedo, es decir, hacen que se refleje más luz solar y se absorba menos. Si se pintara de negro o simplemente se oscureciera una gran masa superficial de nieve o hielo, provocaría un gran calentamiento y un deshielo que cortaría la corriente del golfo.

    Si el volcán tira las cenizas hacia el ártico durante el suficiente tiempo, podríamos entrar en un ciclo disruptivo del actual equilibrio planetario.

    Los muy catastrofistas ya estarán pensando en comprarse un bunker anti-glaciación pero siendo realmente puristas las posibilidades son mínimas.

    1. Cubrir el artico con algo oscuro necesita mucha actividad volcánica y tiempo.
    2. Se necesita mucha agua helada derretida del artico para que modifique la corriente del golfo.

    Los modelos computacionales todavía no están preparados para admitir todos esos datos y lo que es peor, somos incapaces de analizar esas masas de agua y de producir los datos. Con todo esto no hay ningún simulador que nos diga a ciencia cierta que va a pasar si ocurriera algo así.

    Si buscas glaciación 2012 en google, parece que mucha gente ya está haciendo sus pronósticos para ese año.

    No os preocupéis. Como efectos de la glaciación ya no tendríamos que ir a esquiar a Valdelinares y nuestras costas recibirían una avalancha de suecos que huirían de su país. Una segunda oleada inmobiliaria haría que los valencianos fueramos mucho más prósperos. Además, los juegos olímpicos de invierno estarían a nuestro alcance.