Nuevas funcionalidades en el Analytics de Facebook Ads

Nuevas funcionalidades en el Analytics de Facebook AdsLas nuevas analytics de Facebook están diseñadas para que aquellos anunciantes que quieran, conozcan más información acerca de sus gastos en las campañas de Facebook Ads.

En las próximas semanas, el dashboard de administración de los anuncios en Facebook mejorará sus prestaciones y mostrará más información que hasta ahora, donde se mostraban el CTR o los Likes producidos gracias a la campaña.

Los marketers  pronto serán capaces de realizar un seguimiento de “cualquier acción que se pueda producir en Facebook”. Según David Baser, product manager de Facebook, se podrá medir cualquier acción que un desarrollador pueda implementar en la API de Facebook. (más…)

CloudFlare, ayuda y posible solución frente a ataques (D)DoS

CloudFlare, ayuda y posible solución frente a ataques (D)DoSHace poco me hablaron de CloudFlare, un servicio que gracias a su red trata de actuar como intermediario entre Internet y nuestra web para balancear carga, implementar su propio caché de información, filtrar ataques web, gestionar estadísticas y bloqueos de clientes, etc, y tras investigarlos por un tiempo he visto usuarios que están encantados con su servicio y a los que les da muy buenos resultados, y usuarios que se quejan de caídas del sistema, algo crítico y que es una de las cosas que prometen evitar. A mi personalmente me parece una idea mas que interesante teniendo en cuenta que es gratuito (al menos uno de los planes), y las ventajas que prometen. Si no convence siempre lo puedes desactivar, por lo que no veo problema. Yo de momento lo estoy probando en alguna de mis webs, y si me convence lo pondré en todas. Te dejo un video en inglés al respecto:

[vimeo]http://vimeo.com/22229239[/vimeo] (más…)

Como crear el Robots.txt perfecto para WordPress

Como crear el Robots.txt perfecto para WordPress

Te traigo el robots.txt perfecto para WordPress. Ya sabes que soy fan de WordPress y de vez en cuando te pongo truquillos para optimizarlo. En este caso el truco no es mío y para mas Inri es algo antiguo, pero sin embargo sigue estando de plena actualidad, ya que yo al menos no he encontrado nada mejor a día de hoy.

¿Qué es el archivo Robots.txt?

Este es un archivo que ofrece información para los robots (crawlers, spiders, etc) de los buscadores, sobre las páginas que se quieren indexar o rastrear en los motores de búsqueda. Puedes encontrar esta página accediendo a la siguiente dirección: http://www.tudominio.com/robots.txt

Definicion de Robot WWW

Un robot WWW es un programa que recorre periódicamente la estructura de Internet en busca de nuevos contenidos. La forma de operar de estos programas, por lo general, es recuperando un documento raíz y de manera recurrente recorrer todos los documentos a los que éste hace referencia. El orden en que estos programas hacen el recorrido por lo general es determinado después de hacer un análisis en base a varios parámetros, es decir, después de haber aplicado técnicas de heurística.

La siguiente imagen muestra cómo es que funciona este archivo:

Robots.txt

En el blog de Armonth, SigT.net nos ayudan a mejorar nuestro espacio de comunicación. Han elaborado un fichero robots.txt con el que mejorar la visibilidad del blog y, de paso, evitar contenido duplicado en los buscadores. Yo lo he aplicado tal cual, pues es un robots.txt listo para copiar y pegar, tiene los comentarios de Armonth por si quieres adaptarlo.

(más…)