Visualización de métricas: Grafana, InfluxDB y collectd

Aprovechando el cambio de hosting para este blog y otras cosas, me ha dado por buscar formas de visualizar estadísticas de rendimiento del servidor, y tener controlados todos sus recursos típicos: CPU, memoria, disco, … Esta búsqueda me ha llevado a descubrir estas tres herramientas:
  • Grafana: Es una herramienta para consultar y visualizar series de datos de forma “bonita”. Es una herramienta muy potente, con un editor de consultas muy elaborado que te permite elegir entre las métricas que tengas registradas y realizar con ellas todo el tratamiento que necesites. Como origen de datos también tiene gran variedad, pudiendo elegir entre CloudWatch, ElasticSearch, Graphite, InfluxDB, OpenTSDB o Prometheus.
  • InfluxDB: Es un servidor de base de datos NOSQL utilizado para gestionar series de tiempo. Es decir, datos cuyo “índice” es una marca de fecha/hora y unos cuantos campos asociados a ese registro. Ideal para almacenar datos de rendimiento, contadores, eventos y cosas similares. Está escrita en Go, desarrollada por Google y promete tiempos de respuesta impresionantes comparados con otras alternativas.
  • collectd: Es una herramienta que se encarga de recolectar diferentes contadores y métricas de rendimiento de sistema y/o aplicación y se encarga de guardar esos valores de diferentes formas, como por ejemplo enviarlo por red (IP:puerto) a distintos sistemas de almacenamiento, como el anterior InfluxDB.
Además, ¿porqué no aprovechar y meter un poquito de docker en el proceso? Bueno, pues aquí están los pasos que hay que seguir para conseguir unas gráficas como estas:
image
Dashboard Grafana
image
Gráfica tipo de Grafana
Tener en cuenta que estos pasos de instalación están basados en una Debian Jessie, en otras distribuciones habrá que ajustar algunas cosas.

Instalación de collectd

Esta parte es sencilla, he utilizado directamente paquetes del repositorio de Debian, así que no tiene misterio:
# apt-get install collectd
Y su configuración también es sencilla, editar el fichero /etc/collectd/collectd.conf, quedando algo como esto en la parte superior del fichero:
Hostname "bilbo"
BaseDir "/var/lib/collectd"
PluginDir "/usr/lib/collectd"
TypesDB "/usr/share/collectd/types.db"
Y después hay que definir qué datos vamos a recoger con esta utilidad, que se basa en los plugins que hay que descomentar para activarlos. Yo de momento he activado estos:
LoadPlugin apache
LoadPlugin cpu
LoadPlugin df
LoadPlugin disk
LoadPlugin interface
LoadPlugin load
LoadPlugin memory
LoadPlugin mysql
LoadPlugin network
LoadPlugin swap
LoadPlugin uptime
LoadPlugin users
Y la configuración básica del plugin “network” que hay que hacer para que envíe los datos recopilados al siguiente IP/puerto (que es donde escuchará la base de datos InfluxDB que instalaremos a continuación):
<Plugin network>
     Server "127.0.0.1" "8096"
</Plugin>
Por último comprobar que la sintaxis del fichero es la correcta:
# collectd -t
Y arrancar el servicio si no lo está:
# systemctl start collectd

Instalación de InfluxDB

Esto lo instalaremos como un contenedor de Docker. Lo primero que haremos será crear un par de directorios en el anfitrión donde alojar datos y configuración de la base de datos, para que estos sean persistentes cuando paremos nuestro contenedor o lo actualicemos con uno nuevo:
# mkdir -p /docker/containers/influxdb/conf/
# mkdir -p /docker/containers/influxdb/db/
Estos directorios tendrán que tener permiso para el usuario con el que ejecutes los contenedores de docker en tu máquina (reemplazando user por tu usuario):
# chown user:user -R /docker
Generar el fichero de configuración por defecto para InfluxDB, en el directorio que creamos anteriormente:
# docker run --rm influxdb influxd config > /docker/containers/influxdb/conf/influxdb.conf
Vamos a editar este fichero de configuración para habilitar la conexión con collectd, buscar esta parte del fichero de configuración y configurar de esta forma, para que escuche en el puerto 8096 donde enviará los datos collectd:
[[collectd]]
  enabled = true
  bind-address = ":8096"
  database = "collectd"
  retention-policy = ""
  batch-size = 5000
  batch-pending = 10
  batch-timeout = "10s"
  read-buffer = 0
  typesdb = "/usr/share/collectd/types.db"
Crear el contenedor correspondiente. Como podéis ver, se exponen los puertos 8083  y 8086 TCP, que son los correspondientes a InfluxDB en el interfaz web de cliente (8083) y el del API de la propia base de datos (8086). Además, también se hace lo propio con el puerto 8096 UDP, que es donde enviará los datos el servicio collectd que hemos configurado previamente. También configuramos los directorios de configuración y datos que creamos previamente para que puedan ser accedidos desde el contenedor:
# docker create \
--name influxdb \
-e PUID=1000 -e PGID=1000 \
-p 8083:8083 -p 8086:8086 -p 8096:8096/udp \
-v /docker/containers/influxdb/conf/influxdb.conf:/etc/influxdb/influxdb.conf:ro \
-v /docker/containers/influxdb/db:/var/lib/influxdb \
-v /usr/share/collectd:/usr/share/collectd \
influxdb -config /etc/influxdb/influxdb.conf
 Y después, arrancar este contenedor:
# docker start influxdb
Si todo va bien, podrás conectarte a la IP de la máquina al puerto 8083 con un navegador para acceder al cliente web que proporciona la base de datos, y que tiene esta pinta:
image
InfluxDB web Interface
Desde ahí, también podéis crear la base de datos que vais a utilizar para recoger los datos, o revisar si ya está creada, porque si collectd ya ha empezado a reportar datos se habrá creado una con este mismo nombre. Podéis seleccionar la base de datos con este nombre y ejecutar alguna consulta para comprobar que se están registrando correctamente, por ejemplo:
image
Si véis algo similar a esto, es que todo va bien hasta ahora. Lo recomendable después es crear un usuario admin:
create user "admin" WITH PASSWORD 'XXXXXXX' WITH ALL PRIVILEGES
Y habilitar la autenticación editando el fichero de configuración /docker/containers/influxdb/conf/influxdb.conf, en el apartado [http] habilitando la siguiente directiva:
  log-enabled = true
Después habría que reiniciar el contenedor y comprobar que sigues teniendo acceso utilizando las credenciales anteriores.

Instalación de Grafana

Al igual que con la base de datos, esto también lo vamos a instalar como contenedor Docker.
Lo primero, es crear un volumen de almacenamiento temporal para grafana, para mantener persistencia cuando paremos el contenedor, y cuando lo eliminemos para actualizarlo:
# docker run -d -v /var/lib/grafana --name grafana-storage busybox:latest
Y después, creamos el contenedor, como ves con el puerto TCP 3000 expuesto en la máquina anfitrión para acceder al interfaz web.
# docker create \
--name=grafana \
-p 3000:3000 \
--volumes-from grafana-storage \
-e "GF_SECURITY_ADMIN_PASSWORD=XXXXXXXX" \
grafana\grafana
Ten en cuenta que debes reemplazar el texto XXXXXXX con la contraseña que quieras establecer para acceder al interfaz web de Grafana, el usuario es admin. Después, arrancamos el contenedor:
# docker start grafana
Ahora, abre un navegador apuntando a la IP del servidor y puerto 3000, verás el interfaz de Grafana donde podrás comenzar a trabajar. Lo primero, es crear un DataSource para acceder a los datos de InfluxDB, por ejemplo:
image
Grafana Datasource Configuration
Reemplaza la IP que aparece en la URL por la que tenga tu contenedor de InfluxDB (lo puedes ver con “docker inspect”), y a partir de aquí ya podrás comenzar a crearte tus propios Dashboards, gráficos, …
Enlaces de Interés:

Hora de hacer balance

Llega el último día del año, y con él la hora de hacer balance de algunos aspectos que nos ha traído el año 2013. Por un lado, alguno de mis objetivos han quedado muy lejos, como ya esperaba realmente y al mismo nivel que años anteriores: libros leídos en 2013. Es un reto muy complicado y que requiere mucha dedicación, pero estoy seguro que lo conseguiré uno de estos años.

Otro de los retos que me propuse ya comenzado el año fue mejorar mi nivel de inglés. No es un reto a corto plazo, lo sé, y requiere mucha dedicación y constancia, pero creo que he dado un pasito más y poco a poco se van notando los resultados. Mi método se ha basado en Vaughan, Duolingo y Busuu, tres fantásticas herramientas para mejorar tu inglés, cada una con sus puntos fuertes. Además, ver series en inglés y leer libros en inglés, aunque cuesta un esfuerzo extra, también está ayudando a mejorar.

En el apartado deportivo he terminado mejor de lo que habría cabido esperar a principio de año. Después de la sufrida Carrera de la Marmota de hace dos años, que me ha tenido apartado del running mucho tiempo, decidí volver a intentarlo a mediados de Abril. Comencé con calma, salidas cortas y muy tranquilas, sufriendo como es habitual cuando empiezas a correr, y poco a poco subiendo de intensidad y duración.

El resultado no ha sido malo, durante este año he hecho 111 entrenamientos, he recorrido  1315km, dedicando 118 horas a un ritmo medio de 5:23 min/km:

resumen_running_2013

Además, he participado en 3 carreras. La primera, una media maratón de montaña en La Adrada, mi primera media maratón y también mi primera carrera de montaña. La hice sufriendo a causa de una sobrecarga en el sóleo desde el kilómetro 2, que ya llevaba arrastrando desde hacía varias semanas y que me hizo pasarlo regular durante la subida y mal durante la bajada. Aún así, conseguí terminar el 90 en la clasificación general y el 54 de mi categoría, de un total de 194 llegados a meta:

resultado_laadrada

También, volví a correr los 25km del Cerro de la Marmota, donde pude acabar sin percances y quitarme esa espinita que tenía clavada desde el 2011. Pude hacer un tiempo razonable, llegando el 73 de la clasificación general y el 19 de mi categoría, de un total de 679 llegados a meta:

resultado_marmota

Y por último, me apunté a mi primera San Silvestre, en Alcobendas eso sí. Lo hice con la idea de superar mi mejor marca en 10km (41:26) e intentar bajar de 40′, pero las molestias del pie izquierdo y el perfil de la carrera hacían pensar que iba a ser complicado conseguir esos dos objetivos. Por los pelos, pero lo he conseguido, mi crono ha marcado 39:59 al cruzar la meta dos segundos por detrás de mi amigo Juan.

Por supuesto, han pasado muchas otras cosas durante este año, pero hasta aquí el resumen público 😉

The secret weapon

La verdad es que llevaba bastante tiempo necesitando utilizar alguna herramienta para gestionar mis lista de tareas pendientes, pero hasta hace unos días no me había puesto a hacer una búsqueda activa. Estos días he estado probando algunas de las comentadas habitualmente como las mejores herramientas de gestión de tareas, como Toodledo, Remember The Milk, Nirvana o Todoist. Tanto estas como otras existentes tienen versiones web, de escritorio para Windows y/o MAC, y para móviles Android o iPhone. Probablemente, una de ellas habría sido la elegida … si no me hubiera encontrado de casualidad con lo siguiente: The Secret Weapon.

tsw-header

The Secret Weapon describe un modo de usar Evernote, ampliamente conocida, para poder gestionar tareas y no solamente como herramienta para tomar notas. Este modo de utilizar Evernote es sumamente sencillo, pero la propuesta de uso lo hace extremadamente potente para poder gestionar las tareas pendientes en el trabajo, tareas personales o lo que necesitemos. La idea realmente no es algo totalmente innovador, sino una propuesta para organizar las tareas mediante los tags de evernote, que permiten definir 4 parámetros para cada tarea introducida: When, What, Who, Where, los contextos. Es decir, que tenemos que definir cuándo tenemos que hacer una tarea (when), qué debemos hacer en la tarea (what), quienes están involucrados en la tarea (who) y en qué entorno debe realizarse (where). La combinación de estos cuatro parámetros y las vistas que permite hacer el propio evernote, lo convierten en una herramienta muy útil para gestionar las tareas. Por supuesto, como muchos habréis imaginado, esta propuesta se basa en GTD.

hero_evernoteTodavía llevo muy pocos días aplicándolo, pero creo que me va a ahorrar mucho tiempo y va a liberarme de todo el tiempo que hasta ahora utilizaba para no tratar de olvidar las cosas que tenía pendientes. Además, la facilidad de añadir nuevas tareas/notas a evernote desde cualquier dispositivo lo hace realmente útil, e incluso se integra con aplicaciones como Outlook para alimentar las tareas desde los correos que recibamos, directamente. Dentro de un tiempo lo comentaré, pero espero que mi productividad aumente a partir de ahora.

Sufrida carrera/marcha Cerro de la Marmota

El pasado Domingo participé en la I Carrera Cerro de la Marmota 2011, y el resultado no fue el esperado. Era mi primera carrera larga, 25 km, que no me asustaban demasiado excepto por las molestias que venía sufriendo desde hace 3-4 semanas en mi rodilla derecha. Como me temía, estas molestias se convirtieron en un impedimento para poder terminar de forma adecuada la carrera 🙁

Empecé muy bien, cubriendo los primeros 10 km en 45:43, sin forzar demasiado, reservando fuerzas y con un desnivel favorable, lo más duro se esperaba de la mitad de carrera en adelante. En estos primeros kilómetros adelantamos a gran parte de los participantes en la marcha senderista, que había comenzado una hora antes, y que cubrirían también muchos de ellos los 25km del recorrido. También me encontré con Alfredo, que se pasó por allí con la bici y aprovechó para hacerme alguna fotillo cruzando los riachuelos, con cuidado y sin mojarme 😉

Pero sobre el km 11 empecé a notar algunas molestias en la dichosa rodilla, nada importante, así que seguí aunque bajando un poco el ritmo. Las molestias fueron a más y aguanté un par de kilómetros más hasta que tuve que pararme, intenté no hacerlo y pensaba poder acabar la carrera aunque fuera más despacio, pero me fue totalmente imposible. El dolor fue tal que cuando me paré no podía ni andar, estuve estirando un poco y tratando de flexionar la rodilla más de 30º y era totalmente imposible.

Fueron muchos los corredores que se pararon a ayudarme o simplemente a preguntar, algo de agradecer, aunque les pedía a todos que siguieran y les dije que trataría de acabar el recorrido andando. Buff, no fue nada fácil, los dos primeros kilómetros andando fueron muy duros, las cuestas arriba no me dolía demasiado pero en las cuestas abajo no podía flexionar la rodilla y me dolía muchísimo, todos los que había adelantado antes, tanto corredores como marchadores me estaban adelantando a mi. Pero ya no importaba, lo único importante era seguir andando para terminar el recorrido y poder irme a casa.

Cuando me paré, llevaba aproximadamente 1 hora 10 minutos de carrera y había recorrido algo más de 13 kilómetros. Los 12 kilómetros restantes me llevaron más de 2 horas para acabarlos, pero conseguí hacerlo. Desde el km 15-16 conseguí coger un ritmo de marchador aceptable y ya no me adelantaba demasiada gente, excepto en alguna cuesta abajo. 3 horas y 24 minutos después de haber tomado la salida llegué a meta, no estaba cansado físicamente, solo me dolía la rodilla pero psicológicamente había sido bastante duro, andar y andar viendo pasar los kilómetros tan despacio. Así que hice medio recorrido corriendo y el resto andando, con el resto de participantes de la marcha, charlando, lo que hizo algo más ameno el recorrido.

La sensación final fue amarga, por dos razones. La primera, porque me habría gustado mucho poder terminar de forma razonable la carrera y creo que no habría hecho mal tiempo, las sensaciones habían sido muy buenas hasta que mi rodilla dijo basta, y además era la primera carrera que tenía que abandonar. La segunda, porque no sé lo que le ha pasado a mi rodilla y en qué condiciones me va a dejar de cara al futuro, a corto y medio plazo. Espero que solo sea una sobrecarga (como dice el fisio) y no tenga nada más grave (como quiere descartar mi médico de cabecera, menisco?).

En fin, que espero poder participar en esta agradable carrera el año que viene y espero poder terminarla en mejores condiciones.

Running: 4 meses, 450Km, 4.20 min/km en 10Km

Vaya, nunca pensé que dedicaría voluntariamente parte de mi tiempo libre a una de las actividades más primarias del ser humano: andar, correr, disfrutar del paisaje, de la naturaleza, estar con uno mismo, sumar kilómetros, en resumen, correr por correr. Yo era de esos que hasta hace pocos meses decía: “Correr!, buff… que pereza, que aburrido, yo sería incapaz de hacerlo“. Y de eso no hace ni 4 meses. A últimos de Febrero me calcé unas zapatillas, animado por algunos compañeros de trabajo y comencé a sumar kilómetros, a veces en grupo y otras en solitario, a veces a tope y a veces muy tranquilo, pero siempre hacia delante.

Correr

Estos 4 meses me han servido para ser consciente, una vez más, de que el deporte es salud, que te hace sentir bien, que no debemos acostumbrarnos a esa vida sedentaria a la que nos arrastra el día a día, y que hay que hacer un esfuerzo por mejorar nuestro estado físico, y por ende, también el mental. Al principio, correr supone un gran esfuerzo, cada kilómetro pesa en nuestras piernas y en nuestro cuerpo, pero según van pasando los kilómetros el cuerpo se va a adaptando al movimiento, de nuevo, y todo va mejor. Llega un momento en el que correr ya deja de suponer ese gran esfuerzo y puedes disfrutar de cada zancada, de cada kilómetro, y tras varios días sin salir a correr, empiezas a sentir la necesidad de hacer una nueva salida y descubrir nuevos caminos.


Resumen carrera Proniño Madrid 2011

Según la aplicación que utilizó para registrar las salidas, sports-tracker, a día de hoy llevo acumulados 447Km en 40 salidas y le he dedicado 40 horas, habiendo quemado 35.000 Kcal. Mi mejor marca personal fue ayer, en la Carrera Proniño de Madrid, con un tiempo de 43’33” en el recorrido de 10Km. Y es que el mundo del running para los simples aficionados, como yo, también tiene un puntito de competitividad, que te hace mejorar, no para superar a los demás sino para superarte a ti mismo y encontrar un mejor momento de forma para superar tus propias marcas. Próximo objetivo: mantener mi nivel de salidas semanales, bajar de esos 43′ y correr una media maratón!, veremos si lo cumplo…

Manifiesto: En defensa de los derechos fundamentales en Internet

Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que…

1.- Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.

2.- La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.

3.- La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.

4.- La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.

5.- Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.

6.- Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.

7.- Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.

8.- Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.

9.- Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.

10.- En democracia las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.

Este manifiesto, elaborado de forma conjunta por varios autores, es de todos y de ninguno. Si quieres sumarte a él, difúndelo por Internet.

Certificación de Solaris 10

Solaris 10

Hace unas semanas hice los dos cursos de Administración de Solaris 10, en concreto los del SCSA (Sun Certified System Administrator), el System Administration for the Solaris 10 Operating System (Part I) y el System Administration for the Solaris 10 Operating System (Part II).

Conseguí hacerlos en Core Networks, uno de los pocos partners de formación oficiales de Sun en Madrid, y fue un acierto. Las instalaciones son muy buenas, salas muy bien acondicionadas y equipadas, equipos preparados para hacer todas las pruebas que se necesiten (Intel y Sparc), y los profesores muy profesionales y con bastante conocimiento de la materia, al menos en el plano pedagógico. Además, esto fue después de una muy mala experiencia en Sunion-Gesfor con un curso gratuito sobre Solaris 10, en el que el profesor no tenía ningún conocimiento sobre Solaris, las instalaciones para desarrollar el curso no eran las adecuadas e incluso el material didáctico que se utilizaba era de muy poca calidad. Claro está, que no aguanté en este curso más que un par de días, porque una cosa es que un curso sea gratuito y otra cosa es que nos hagan perder el tiempo.

Hace poco, sin haber estudiado nada de nada, decidí presentarme al primero de los exámenes (CX-310-200) y probar suerte. Hacía falta un 61% para aprobar y justo fue lo que obtuve ;). Me presenté sin estudiar porque conseguí una promoción al comprar el examen en la que te ofrecían dos posibilidades de examen por el mismo precio, pero en realidad tuve mucha suerte como se puede comprobar por la puntuación que obtuve. Para aprobar el examen hace falta estudiar o tener bastante experiencia en sistemas Solaris.

Ahora quiero presentarme al segundo examen (CS-310-202), y esta vez tengo que estudiar y preparármelo bien, ya que esta vez no hay promoción de 2×1 en el examen.

Cada examen vale 230€, y se puede hacer en cualquiera de los centros que ofrecen los de Prometric, donde puedes seleccionar el centro, el día y la hora del examen. En Madrid hay bastantes centros donde poder hacerlo.

Aquí podéis ver el learning path de certificación de solaris 10.

Y ahora, a estudiar 😉

VPS en gandi.net

Después de muchos años manteniendo en casa mi propio servidor conectado al ADSL para servir contenidos web, correo, listas de correo, … creo que ya ha llegado el momento de contratar algo un poco más profesional, y sobre todo con mejores tiempos de respuesta para las pocas cosas que mantengo en internet, como este blog.

He estado estudiando las opciones que ofrecen algunas empresas españoles y otras del extranjero. Para mis necesidades, en principio parece suficiente con una pequeña máquina virtual (VPS) en las que montar un apache, mysql, y poca cosa más. Valoré 1and1 tanto en España como en el extranjero (con mejores prestaciones en este último, claro), pero los malos comentarios de sus usuarios que puedes encontrar en cualquier foro me echaron para atrás. También estudié alguna otra opción de empresa nacional como Axarnet, que no conocía de nada, pero finalmente llegué a la conclusión que por calidad/precio parece que lo mejor es buscar alguna opción fuera de España.

Virtual Private Server

Estuve mirando algunos hosting americanos con buenos precios, pero no tenía ninguna referencia al respecto, y finalmente me acordé de que varias personas me habían hablado hace tiempo de Gandi, entre ellos creo que estaba jgb. El caso es que estuve investigando su oferta y la calidad/precio en principio parecía muy interesante. Tienen máquinas con Xen, que tienen las siguientes características: Quad AMD quad-core, 16GB DDR, 320 GB de disco y lo que hacen es que dividen todo lo anterior en 60 trozos (slices como lo llaman ellos). Tu puedes tener tu máquina virtual con tantos slices como necesites, teniendo en cuenta que cada slice es más o menos así: 1/60 del total de CPU, 256MB de RAM garantizados, 5Mbps dedicados y 5GB del disco de datos (aparte de los 3GB del disco de sistema). Cada slice sale por unos 12€.

Su oferta parece muy muy flexible, porque puedes disponer de más slices en el momento que los necesites haciéndolo de forma manual o programándolo de manera automática. Por ejemplo, si esta semana vas a necesitar más potencia en tu máquina puedes contratar tantos slices como necesites solamente para ese tiempo, o también puedes programar acciones para cuando ocurran determinados eventos, por ejemplo, si el consumo de red/cpu/… de tu máquina alcanza el 90% de uso, se pueden añadir tantos slices como consideres correspondientes durante el tiempo que tu estimes. También puedes programar que determinados días a determinadas horas dispongas de más slices. En fin parece que ofrecen mucha flexibilidad.

Yo, de momento, he contratado una máquina virtual con una slice y estoy migrando algunas cosas, como este blog. De momento el rendimiento no es malo (quizá necesite un poco más de potencia de cpu), los tiempos de accesos son muy buenos y el servicio de momento parece muy correcto. De momento estoy contento, veremos como sigue en el futuro.

PD: Por cierto, algo interesante que he visto en pocas ofertas, no tienen límite de transferencia de tráfico. Yo no creo que superara el límite de los 100GB/mes que establecen otras empresas, pero en cualquier caso te ofrece más tranquilidad en este aspecto.

50 libros al año

Un reto curioso, hay mucha gente por ahí que se plantea el mismo reto cada año, leer 100 o 50 libros al año. La verdad es que me resulta muy difícil de imaginar como es posible que puedan sacar tanto tiempo para dedicarle a la lectura, ya me gustaría a mi. Y es que 100 libros año, son unos 8 libros al mes, es decir, un libro cada 3-4 días.

A mi me resultaría imposible llegar a una cifra como esa, aunque intento sacar tiempo para leer siempre que puedo. Yo creo que mi reto podría ser llegar a leer unos 20 libros al año, y no estoy seguro de poder alcanzar esa cifra :-(.

Aunque claro, en realidad no habría que preocuparse tanto por la cantidad sino por la calidad.

Ciclo de la puerta de la muerte

Buff, qué decir de esta colección, la verdad es que me suscita sentimientos muy variados. Comencé a leerlo por recomendaciones que había leído por la web y por los autores (Margaret Weis y Tracy Hickman), pero no se si debí haberlo hecho. Recuerdo cuando empecé a leer el primer libro (Ala de Dragon), estuve a punto de dejar de leerlo cuando llevaba 4 o 5 paginas pero la verdad es que odio dejar los libros a medias y creo que nunca lo he llegado a hacer, aunque la verdad es que dan ganas muchas veces.

El caso es que empecé a leerlo y desde el principio parecía un libro para niños pequeños simplemente por el vocabulario utilizado por los gegs (garda en lugar de guarda, seoría por señoría, ….), muchas descripciones, muy lento y muy pocas cosas interesantes, pero como he dicho seguí leyéndolo hasta que lo acabé. Lo que ocurre es que esta colección esta compuesta por 7 libros y al igual que no me gusta dejar un libro a medias tampoco me gusta dejar una colección a medias.


Ala de Dragón
La estrella de los elfos
El mar de fuego
El mago de la serpiente
La mano del caos
En el laberinto
La séptima puerta

Ya he terminado de leer la colección entera, y que puedo decir… el tercero (El Mar de fuego) quizá fue el que mas me enganchó hasta ese momento y consiguió captar mi atención y ponerle un poco de emoción a las historias, aunque después de tres libros ya era hora. El cuarto (El Mago de la Serpiente) fue un poco mas flojo que el tercero pero mejor que los dos primeros, y los tres últimos (La mano del caos, En el laberinto y
La Séptima Puerta) un poco mejor que los anteriores, ya que confluyen las historias relatadas en los 4 primeros, y empiezan a entenderse algunas cosas, pero la verdad es que ninguno consiguió engancharme de verdad.

De haber sabido el resultado, seguro que no habría empezado a leérmelos nunca, en fin, una decepción. Y eso que hay gente a la que le encanta esta colección, a que sí Fernando? 😉