Mare Magnum | 2009 Abril 03
3 Abril 2009 – 18:11 | Publicado por Sergio
Este increible vídeo ha sido realizado por José Luis Ortiz gracias a una microcámare FlyCamOne.
Ver como este pájaro usa a su voluntad las corrientes de aire y a la velocidad a la que evoluciona por encima de las montañas me hace envidiar (más aun) a estos animales.
El vuelo picado que el ave realiza hasta la mano de su cuidador (sobre el minuto 5:45) es absolutamente impresionante.
Podéis ver mas fotografías y leer más información en el blog de Erwan Grey.
Vías menéame.
______________________________________________________
Etiquetas: águila, FlyCamOne
Publicado en: Naturaleza
1 comentario 3 Abril 2009 – 14:26 | Publicado por Sergio
El pasado miércoles la empresa de Mountain View desveló uno de sus grandes secretos: cuál es la arquitectura de uno de sus servidores, es decir, el hardware y funcionamiento de uno de estos equipos.
Al contrario que muchas empresas que compran sus servidores a fabricantes como Dell, IBM, HP o Sun, Google prefiere diseñar y construir los suyos. Ben Jai es uno de los ingenieros encargados de esta tarea y fué además el encargado de revelar esta información durante una presentación.
Básicamente, ya que no me voy a perder en datos técnicos profundos, el diseño de cada servidor (ya van por la sexta generación de diseños) consta de 2 procesadores x86 (tanto de AMD como de Intel), 2 discos duros, 8 slots de memoria montados sobre una placa Gigabyte.
Dos de los detalles desvelados más sorprendentes de la arquitectura que emplea la empresa fueron que cada servidor tiene su propia batería de 12 voltios por si existe algún problema con la fuente suministradora de electricidad y que cada centro de datos está formado por containers de transporte con 1.160 servidores en el interior de cada uno y un consumo eléctrico de 250 kilovatios.
Otros datos interesantes sobre la tecnología utilizada por Google los ofreció Paul Strassmann, que ha sido responsable de Tecnologías de la Información en la NASA, directivo de Xerox, consultor del Departamento de Defensa de EE.UU. y es considerado uno de los mayores expertos en gestión de la Información, durante una conferencia en la Universidad de George Mason, Virginia, el pasado mes de diciembre y que reproduce el blog google.dirson.com:
- Cada clúster de Google se compone de 359 racks, 31.654 servidores, 63.184 CPUs, 126.368 GHz de potencia de procesamiento, 63.184 Gbytes de RAM y 2.527 terabytes de espacio en disco duro. Cada uno de estos clústeres puede atender hasta 40 millones de búsquedas por día. Si en cada uno de los más de 20 datacentes que Google tiene repartidos por diversas regiones del mundo (Norteamérica, Asia y Europa) hay al menos un clúster, estaríamos hablando de un total de más de 600.000 servidores.
- Cada uno de los clústeres tiene una arquitectura muy similar (servidores web, servidores donde se almacenan los índices y servidores donde se almacenan los documentos).
- Los ingenieros de Google son capaces de construir y hacer funcionar un clúster de Google en tres días.
- La información está replicada más de tres veces para garantizar la fiabilidad a base de redundancia.
Podéis encontrar más información (y más técnica) en news.cnet y google.dirson.com.
Fotografía: vista lateral de un servidor de Google (cnet).
______________________________________________________
Etiquetas: Ben Jai, Gigabyte, Google, hardware, Paul Strassmann, servidor, x86
Publicado en: Actualidad, Internet, Tecnología
1 comentario 3 Abril 2009 – 9:14 | Publicado por Sergio
Los investigadores han automatizado secciones del proceso científico durante décadas usando, por ejemplo, instrumentos de laboratorio robotizados para secuenciar genomas, pero siempre ha sido el ser humano el responsable final de formular hipótesis, diseñar experimentos y alcanzar conclusiones de su trabajo. Quizá esto acabe en poco tiempo.
Adam es un robot diseñado por un equipo de científicos del departamento de Ciencia Computacional de la Universidad de Aberystwyth, Reino Unido, diseñado para realizar y diseñar cientos de experimentos repetitivos, analizar resultados, formular hipótesis y decidir cuál va a ser el siguiente experimento a realizar.
Usando una serie de algoritmos, Adam ha formulado hipótesis sobre el origen de una serie de enzimas cuya información genética aun no han podido ser codificada, ha planificado y ejecutado experimentos para demostrar sus hipótesis (selección de levaduras mutadas de una colección, incubación de células y medición de su crecimiento). El resultado es que Adam ha codificado 13 enzimas, 12 de ellas confirmadas según han afirmado los responsables del robot y se ha publicado en la revista Science, lo que supone el primer descubrimiento científico realizado por un robot.
Adam es aun un prototipo pero, según Ross King, responsable del equipo creador del robot, en 10 ó 20 años puede que estas máquinas pueden ser habituales en cualquier laboratorio.
Visto en Science y Wired Science.
Fotografía: Jen Rowland.
______________________________________________________
Etiquetas: Adam, enzima, gen, genética, robótica
Publicado en: Actualidad, Ciencia, Tecnología