La semana pasada Google anunció planes para construir una red de fibra experimental que ofrecería velocidades de banda ancha de un gigabit por segundo en hasta 500.000 hogares de los EE.UU. Entre otros objetivos, la compañía afirmó que quería “poner a prueba nuevas formas de construir redes de fibra, así como informar acerca de ellas y ayudar con su instalación en el resto de localizaciones.”

Google no ha publicado muchos detalles aún, pero los expertos creen que lo principal del éxito de una banda ancha de muy alta velocidad no sólo recae en la fibra. Para realmente poder aumentar la velocidad de internet, Google tendrá que operar a muchos niveles de su infraestructura.

Las velocidades de un gigabit por segundo son mucho más rápidas de lo que, por ejemplo, ofrecen los servicios de alta velocidad actuales como el de Verizon FiOS. Sin embargo, la red de Google no será la primera en alcanzar esas velocidades. Existen varias otras instalaciones a nivel internacional, incluyendo en lugares como Hong Kong, los Países Bajos y Australia. Internet2, un consorcio de redes avanzadas sin ánimo de lucro en los Estados Unidos, ha estado experimentando con internet de muy alta velocidad durante más de una década, ofreciendo conexiones de 10 gigabit a investigadores universitarios.

Las aplicaciones existentes para internet de muy alta velocidad incluyen la transferencia de archivos de muy gran tamaño, el streaming de video de alta definición (y posiblemente en 3-D), las video conferencias, y los juegos. Algunos expertos especulan que el acceso a grandes archivos de datos y aplicaciones a través de la nube también podría requerir una mejor banda ancha.

“Sólo con ampliar la infraestructura física no podemos garantizar la distribución de aplicaciones de alta gama a los usuarios finales,” afirma Gary Bachula, vice presidente de relaciones externas de Internet2. Hay muchos factores más allá de la banda ancha en sí, afirma Bachula. Por ejemplo, un router configurado de forma errónea o un firewall de universidad que afecte al rendimiento y acabe haciendo que la red se congestione.

“Tenemos que tener redes abiertas, hay que publicar los datos de rendimiento, tenemos que tener a personas capaces de arreglar los problemas de la red de forma remota,” afirma Bachula. Durante los últimos años, Internet2 ha estado investigando herramientas y tecnologías que pueden ayudar a encontrar y solucionar los problemas de rendimiento que ocurren en las conexiones de alta velocidad “de forma sistemática y sin interrupciones.” Lo ideal, afirma, sería que tanto los consumidores como los administradores de red pudieran utilizar estas herramientas para hacer un diagnóstico de la red.

“Si realmente queremos implantar estas aplicaciones de gama alta, hay que ir más allá de la banda ancha en crudo,” afirma.

Tampoco basta con construir una infraestructura de hardware rápida, afirma Steven Low, profesor de ciencias informáticas e ingeniería eléctrica en Caltech, así como cofundador de la compañía FastSoft, con sede en Pasadena, California, y dedicada a la tecnología de optimización de redes. Low cree que los protocolos que mueven el tráfico por la red también necesitarán ser actualizados para poder hacer un uso efectivo de las capacidades de muy alta velocidad.

Por ejemplo, el protocolo de control de transmisión (TCP), el algoritmo de 20 años que gobierna la mayoría del flujo de tráfico por internet, no funciona bien a velocidades de un gigabit por segundo. Los métodos usados por el TCP estándar para asegurarse de que no esté perdiendo datos provocan que utilice muy poca cantidad del ancho de banda disponible.

Low señala que existen problemas similares en muchos protocolos, y que a menudo se dan problemas con la forma en que los protocolos se coordinan entre ellos y que eso puede ralentizar aún más el rendimiento de la red. El ancho de banda de alta velocidad hasta los escritorios de los usuarios también podría tomarse como una oportunidad para crear nuevos sistemas. “¿Qué nuevas aplicaciones se harán posibles que en la actualidad no lo son y que los usuarios realmente deseen utilizar, y qué protocolos de aplicaciones son necesarios para hacer que funcionen?” afirma.

Rudolf van der Berg, asesor de telecomunicaciones que estuvo involucrado en la dirección de una de las primeras redes de banda ancha mundiales, afirma que aunque otras compañías y organizaciones han encontrado formas de instalar conexiones en el rango de los gigabits, la colocación física de la fibra aún supone entre un 70 y un 80 por ciento del coste del proyecto. Google podría hacer una gran contribución mediante la aplicación de métodos más eficientes en cuanto a costes, afirma.

También señala que la intención de Google de compartir la red entre múltiples proveedores podría influenciar la forma en que la red se estructura a nivel técnico. Las redes que llevan una fibra a un grupo de hogares y después comparten la banda ancha entre ellos son más difíciles de administrar según el modelo de acceso abierto, señala van der Berg.

Google aún no tiene todos los detalles de sus planes para la red experimental, según informa un portavoz de la compañía, pero ya existen varios ingenieros interesados en varios tipos de experimentos relacionados con la instalación. Google espera que algunos de sus equipos estén interesados en encontrar formas mejores de instalar la fibra, que otros deseen experimentar con las capacidades de la red, y así de forma similar con otros equipos.

La compañía tiene pensado ofrecer su propio servicio de internet a los clientes en la comunidad o comunidades que seleccione para sus pruebas, y también espera asociarse con otras compañías que ofrezcan servicios a través del uso de su red. En la actualidad Google está recogiendo propuestas de las comunidades interesadas. La compañía espera elegir las localizaciones para finales de año.

Bachula desde Internet2 cree que la iniciativa de Google animará a organizaciones como la FCC a configurar objetivos concretos para el acceso a la banda ancha a lo largo de los Estados Unidos. Mediante la propuesta de un gigabit por segundo, señala Bachula, Google ha abierto la puerta a una conversación sobre cómo de rápidas deberían ser las conexiones de internet del futuro.

Copyright Technology Review 2010.