Contenido Exclusivo

¡Ya está aquí la Revista Digital “Los Mejores 20 CISO de México 2025”!

CIO Ediworld lo invita a sumergirse en el contenido de la...

¡Descarga la Revista Digital “Los Mejores 100 CIO de México 2025”!

Descarga la revista digital CIO Ediworld Edición Especial "Los...

El MIT logra duplicar el desempeño de las redes con generador de algoritmos

Científicos del Massachusetts Institute of Technology (MIT) crearon una herramienta sobre una computadora de 80 núcleos que podría acelerar significativamente las redes mediante la generación de los mejores algoritmos a aplicar en cada momento.

El sistema, llamado Remy, genera sus propios algoritmos para optimizar la implementación de TCP (Transmission Control Protocol), el protocolo utilizado para prevenir la congestión de las redes. Dichos algoritmos son diferentes de cualquiera de los desarrollados hasta ahora y funcionan mucho mejor, según los investigadores del MIT. En redes simuladas son capaces hasta de duplicar la capacidad de proceso.

Aunque Remy no está diseñado para correr en PC y servidores individuales, en el futuro podría ser utilizado en estos sistemas para desarrollar los mejores algoritmos, de acuerdo con Hari Balakrishnan, profesor de Fujitsu en el MIT. Por ahora, lo que Remy es capaz de hacer es crear millones de posibles algoritmos y probarlos en redes simuladas para identificar el mejor posible para un objetivo determinado.

Las redes IP no predeterminan la velocidad a la que se han de enviar los paquetes de datos, ni si deben dejar de transmitir una vez que se congestionan. Cada sistema toma sus propias decisiones utilizando algunas implementaciones de TCP. Cada versión de TCP usa su propio algoritmo para determinar la mejor forma de actuar en diferentes condiciones.

Tales implementaciones de TCP han sido rediseñadas muchas veces a los largo de los últimos 30 años, en ocasiones para adaptarse mejor a determinadas redes y aplicaciones dando prioridad a unas frente a otras. De hecho, hoy existen de 30 a 50 esquemas TCP de gran utilidad, de los que se emplean con mucha frecuencia de cinco a ocho, según Balakrishnan. Pero hasta ahora estos algoritmos han sido desarrollados por ingenieros humanos, algo que Remy podría cambiar, asegura el profesor del MIT.

Los actuales algoritmos de TCP solo utilizan unas cuantas reglas para definir cómo un ordenador debe responder a las condiciones cambiantes de la red a fin de conseguir el mejor rendimiento. Sin embargo, según Balakrishnan, mediante un proceso que dura de cuatro a 12 horas, Remy es capaz de crear algoritmos que manejan más de 150 reglas y además los prueba en condiciones de red simuladas para determinar el mejor en cada caso teniendo en cuenta cómo un pequeño cambio en dichas condiciones puede dar como resultado un gran cambio en el rendimiento.  Los algoritmos finalmente identificados como los óptimos son capaces de duplicar la capacidad de las versiones de TCP más comúnmente utilizadas, y con un retardo muy inferior. En una simulación llevada a cabo en la red de datos móviles de Verizon, los algoritmos de Remy consiguieron un rendimiento de 20 a 30 por ciento superior y un retraso inferior de entre 25 y 40 por ciento.

Los científicos del MIT advierten que Remy aún solo es un proyecto de investigación que ni siquiera ha sido probado en la Internet real. Creen además que si algún día llega a utilizarse fuera de los entornos académicos de prueba, es muy probable que sea empleado en primer lugar en las redes privadas, donde, como hace Google, ya funcionan rediseños de TCP adaptados a las condiciones concretas de cada red para mejorar el rendimiento. En estos casos, Remy podría ser usado para mejorar aún más los algoritmos empleados.

Para Balakrishnan , “nuestra aspiración real es que otros investigadores e ingenieros utilicen Remy como una herramienta. Incluso si el impacto final de nuestro trabajo se limita a cambiar la forma en que los desarrolladores analizan este tipo de problemas, será una enorme recompensa”.

 

Lo Más Reciente

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques...

Tecnología y cumplimiento normativo: el nuevo campo de batalla para las empresas en México

En México, el cumplimiento normativo se ha convertido en...

Newsletter

Recibe lo último en noticias e información exclusiva.

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una fase crítica donde la transformación digital ha redefinido los puntos de riesgo, desplazando el foco...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia artificial y ciberseguridad donde destacados divulgadores de YouTube y expertos reconocidos internacionales se encargaron de...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques se han quintuplicado por la inteligencia artificial, mientras que el costo  global que las empresas...