
Internet, tal y como hoy lo conocemos, fue creado hace 25 años. En realidad la Red había nacido ya en la década de los 70, pero fue a finales de 1989 cuando el inglés Tim Berners Lee creó la web o WWW (World Wide Web), que se desarrolló en los 90 y que se constituyó en el Internet que hoy día conocemos y utilizamos.
Esta Red, entendida como un sistema de documentos interconectados a los que se puede acceder mediante un navegador web y que permite visualizar páginas web con textos, imágenes, vídeos y enlaces a otras páginas web, se ha mantenido casi invariable hasta la actualidad.
Es decir, se trata de una herramienta que podría considerarse ya algo añeja. En el ámbito tecnológico, donde los desarrollos se suceden a velocidades de vértigo, 25 años son suficientes para considerar una tecnología caduca.
Sin embargo continuamos utilizándola con mucha mayor necesidad que hace 25 años, ya que en la actualidad en la red de Redes ya descansan la mayor parte de los sistemas de comunicación, financieros, de salud e incluso de seguridad política de todo el mundo.
Muchos científicos han dado la voz de alarma y aseguran que Internet se está “quedando pequeño”, sin espacio, dado el alto volumen de información que alberga. Esto es responsable de que algunas páginas vayan más lentas y a veces nos cueste más “cargar” una web. ¿Cómo sucede esto?
Aunque no se conoce mucho, en Internet es fundamental para la distribución de la información la Border Gateway Protocol (BGP), un sistema que organiza los datos y permite a los distintos proveedores del servicio enviarse información de una web a otra a través de distintas rutas.
Cuando un usuario visita una página web, llega a ella a través de estas rutas BGP y usando unos routers que, en muchos casos, se están quedando anticuados y ya no soportan la cantidad de información que se maneja desde la popularización de los teléfonos con conexión a Internet y las tabletas.
La solución pasa por sustituir todo el sistema de routers, pero no sería suficiente. Según un informe recabado por la web HTTP Archive, además de la obsolescencia de la tecnología, Internet se enfrenta a otro problema: cada día funciona un poco más lento que el anterior.
La carga de las páginas web es cada día un poco más deficiente. ¿Por qué? Por el progresivo aumento del peso (la cantidad de información) existente en las mismas. Hace sólo tres años, el peso medio de una página web rondaba 1 MB, mientras que en la actualidad la media ya se sitúa en 2,1 MB. A grandes rasgos, podría decirse que en sólo tres años Internet ha duplicado la cantidad de información almacenada.
El aumento de archivos de texto, fotografías y, sobre todo, de vídeos enviados entre los usuarios y alojados en las páginas web está provocando esta saturación que hace que los servicios tarden más en cargar. Los portales también se están llenando de más plugings, extensiones y accesorios para ofrecer un mejor servicio o llamar la atención del internauta… pero que al mismo tiempo convierten las páginas web en elementos más pesados.
Por otra parte, el hecho de que muchas páginas web añadan elementos de terceros, provoca que su carga sea más lenta. Por ejemplo, si accedemos a una web que muestra los “me gusta” que tiene en Facebook, en realidad al entrar a ella se está solicitando información al servidor de la web pero también al de la red social. Para que la página se nos muestre, se están realizando “llamadas” a distintos servicios, por eso tarda más la carga.
Además, muchas páginas están compuestas por distintas versiones de una misma web, para adaptarse a los distintos dispositivos desde los que se podría visitar (PC, tableta, smartphone…) y eso también genera que los archivos sean más pesados y tarden más en abrirse a la hora de cargar una página.
Por lo tanto, nos enfrentamos a dos retos: por una parte, a una tecnología un tanto saturada y, por otra, el desarrollo de páginas web cada vez más complejas. Poner una solución a ambas realidades es la única vía para lograr que la navegación en Internet no sea cada día más lenta.