Investigadores del MIT y de la Universidad de Boston (Estados Unidos) junto a otros de la Universidad de Maynooth (Irlanda) han desarrollado el primer chip de silicio que es capaz de descodificar cualquier código, independientemente de su estructura, y con la máxima precisión.
Lo anterior es posible gracias a que utiliza un algoritmo de descodificación universal llamado Guessing Random Additive Noise Decoding (GRAND), que elimina la necesidad de decodificadores múltiples y complejos desde el punto de vista computacional y permite una mayor eficiencia que podría tener aplicaciones en la realidad aumentada y virtual, los juegos online, las redes 5G y los dispositivos conectados que dependen del procesamiento de un gran volumen de datos con un retraso mínimo.
La investigación, dirigida por la catedrática del MIT Muriel Médard, se presentará esta semana en la Conferencia Europea de Investigación de Dispositivos de Estados Sólidos y Circuitos.
¿Cómo funciona GRAND?
Adivina el ruido que afecta a los mensajes. Utiliza un patrón de ruido para deducir la información original y genera una serie de secuencias de ruido en el orden en que es probable que se produzcan, las resta de los datos recibidos y comprueba si la palabra clave resultante está en un libro de códigos.
El chip utiliza una estructura de tres niveles, empezando por las soluciones más sencillas en la primera etapa y llegando a patrones de ruido más largos y complejos en las dos etapas siguientes. Cada etapa funciona de forma independiente, lo que aumenta el rendimiento del sistema y ahorra energía.
El dispositivo también está diseñado para cambiar sin problemas entre dos libros de códigos. Contiene dos chips de memoria estática de acceso aleatorio, uno de los cuales puede descifrar las palabras clave, mientras que el otro carga un nuevo libro de códigos y luego pasa a la decodificación sin ningún tiempo de inactividad.
Según los investigadores, este chip puede descodificar de forma eficaz cualquier código de redundancia moderada de hasta 128 bits de longitud, con sólo un microsegundo de latencia.
En realidad, Médard y sus colaboradores ya habían demostrado el éxito del algoritmo, pero este nuevo trabajo muestra por primera vez la eficacia y eficiencia de GRAND en hardware.
¿Por qué se codifican los datos?
Desde el MIT explican que todos los datos que viajan por internet (desde los párrafos de un correo electrónico hasta los gráficos en 3D de un entorno de realidad virtual) pueden verse alterados por el ruido que encuentran en el camino, como las interferencias electromagnéticas de un microondas o un dispositivo Bluetooth. Así que los datos se codifican para que, cuando lleguen a su destino, un algoritmo de descodificación pueda deshacer los efectos negativos de ese ruido y recuperar los datos originales.
Desde los años 50, la mayoría de los códigos de corrección de errores y los algoritmos de descodificación se han diseñado conjuntamente. Cada código tenía una estructura que se correspondía con un algoritmo de descodificación concreto y muy complejo, que a menudo requería el uso de hardware específico. Ahora el nuevo chip puede revolucionar esta práctica.