Para navegar más rápido en la web

Tecno
Las grandes páginas web gestionan sus propios centros de datos, bancos de decenas e incluso cientos de miles de servidores, todos ellos transmitiendo datos de un lado para otro para satisfacer las solicitudes de los usuarios. 

Los centros de datos son propensos a la congestión, y si las colas se hacen demasiado largas, los paquetes de datos pueden verse retrasados.

El equipo del Instituto Tecnológico de Massachusetts ha desarrollado un nuevo sistema de administración de redes que, en los experimentos, redujo la longitud media de la cola de los routers en un centro de datos de Facebook en un 99,6%, prácticamente acabando con ellas. Cuando el tráfico de la red era alto, la latencia media disminuyó casi en la misma proporción, de 3,56 microsegundos a 0,23 microsegundos.


Como internet, la mayoría de centros de datos utilizan protocolos de comunicación descentralizados, cada nodo en la red decide, basándose en sus propias y limitadas observaciones, cuán rápido enviar datos y a qué nodo adyacente. Los protocolos descentralizados tienen la ventaja de la habilidad de gestionar comunicaciones sobre grandes redes con escasa vigilancia administrativa.


El sistema del MIT, apodado Fastpass, depende en cambio de un servidor central, el llamado “árbitro”, que decide qué nodos en la red pueden enviar datos a qué otros durante qué períodos de tiempo.


Los experimentos de los investigadores indican que un árbitro con ocho núcleos o unidades de procesamiento puede dar abasto a una red que transmita 2,2 terabits de datos por segundo. Eso es el equivalente a un centro de datos con 2.000 servidores y conexiones de no menos de 1 gigabit por segundo, transmitiendo a plena capacidad todo el tiempo.

Lo más visto