Master en Usabilidad, Diseño de Interacción y Experiencia de Usuario (online)

Inicio » B11. Fundamentos en tecnologías web » Artículo 1.20 Tecnologías de la WWW. José R. Quevedo. B11

Artículo 1.20 Tecnologías de la WWW. José R. Quevedo. B11

Artículo 1.20 Tecnologías de la WWW

José R. Quevedo

José R. Quevedo. Artículo 1.20. Tecnologías de la WWW. En Cristòfol Rovira; Mari Carmen Marcos; Lluís Codina (dir.). Máster en Información Digital. Barcelona: UPF Barcelona School of Management.


Sumario

1. Una incompleta historia de Internet

1.1. Internet y sus orígenes: años 60

1.2. Creando estándares y protocolos: años 70

1.3. Maduración tecnológica y expansión: años 80

1.3.1 Los comienzos de Internet en España: años 80

1.4. El “boom” comercial: años 90

1.4.1 Años 90 en España

1.5. Siglo XXI: de la Web 2.0 al Internet de las cosas

1.5.1 Web 2.0

1.5.2 La época de los servicios y herramientas para todo

1.5.3 Internet para llevar

1.5.4 Internet de las cosas

2. Conceptos fundamentales de Internet

2.1. ¿Qué es Internet?

2.2. Hosts y redes

2.3. Direcciones de Internet: URL, IP y DNS

2.4. Cómo se envía la información en Internet

2.4.1 Comunicación y procesado de paquetes

2.4.2 Backbones

2.5. Estructura Cliente-Servidor

3. World Wide Web

3.1. Los orígenes de WWW

3.2. Principios y componentes de WWW

3.2.1 Un protocolo de red: HTTP

3.2.2 Un tipo de documento: HTML

3.2.3 Un sistema para acceder a la información: hipertexto

4. Estándares Web

4.1. HTML, CSS y más acrónimos raros. Estándares Web

4.2. ¿Y quién dicta esas normas?

4.2.1 World Wide Web Consortium (W3C)

4.2.2 Internet Engineering Task Force (IETF)

4.2.3 El proceso de crear un estándar Web

4.3. Beneficios de usar Estándares Web

5. El contexto digital: diseñar para la Web

5.1. El lienzo infinito

5.2. Navegación e hipertexto: una forma de construir conocimiento

7. Bibliografía

7. Propuestas para el debate: timeline de Internet.


1. Una incompleta historia de Internet

1.1. Internet y sus orígenes: años 60

Se suele establecer que las primeras referencias documentadas sobre interacciones sociales a través del trabajo en red (networking) proceden de una serie de memorandos escritos por J.C.R. Licklider, científico del Massachusetts Institute of Technology (MIT), en agosto de 1962. En estos documentos se discute un concepto denominado Galactic Network (Red Galáctica), una red interconectada globalmente a través de la cual cada uno puede acceder, desde cualquier lugar, a datos y programas. En síntesis, algo muy parecido a la Internet que conocemos en la actualidad.

A principios de los años 60, Licklider fue el principal responsable del programa de investigación en ordenadores de la Agencia de Investigación de Proyectos Avanzados en Defensa (DARPA – Defense Advanced Research Projects Agency) del Gobierno Norteamericano.

Por su parte, Leonard Kleinrock, científico de la Universidad de California en Los Ángeles (UCLA), en julio de 1961, estaba preparando una teoría matemática de conmutación de paquetes, un nuevo y eficaz método de envío de datos en redes de ordenadores.

Para saber más…

Lawrence G. Roberts, uno de los discípulos de Licklider en DARPA, y que ya era conocedor de la importancia del concepto del trabajo en red, se había interesado en las teorías de paquetes propuestas por Kleinrock. Para explorar este terreno, en 1965, Roberts conectó vía telefónica un ordenador TX-2 ubicado en Massachusetts con un Q-32 situado en Santa Mónica (California), creando así la primera red de ordenadores de área amplia (Wide Area Network) jamás construida. El resultado del experimento fue la constatación de que los ordenadores podían trabajar juntos correctamente, ejecutando programas y recuperando datos en la máquina remota, pero que el sistema telefónico de conmutación de circuitos existente era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó confirmada tras esta experiencia.

tx-2.jpg

Fig. 1. Ordenador TX-2 ubicado en el MIT. © 2004 Computer History Museum.

A finales de 1966, Roberts confeccionó un plan para seguir desarrollando el concepto de la red de ordenadores, creando para ello una red experimental en la DARPA: ARPANET y publicando, en 1967, un documento en el que se postulaban las bases de la misma. El propósito de esta primera red era explotar tecnologías experimentales de conexión enlazando centros de investigación entre sí y acercando recursos remotos como bases de datos y grandes sistemas a investigadores de todo el mundo.

Con el aumento de las tensiones provocadas por la Guerra Fría, la seguridad de los datos de ARPANET cobró una especial importancia. Por ello, se desarrolló un complejo sistema de descentralización de la información consistente en distribuir los datos por los distintos ordenadores conectados a la red, de manera que si en un ataque algún equipo se veía comprometido, se podía seguir accediendo a la información localizada en los otros equipos.

Para saber más…

Coincidió que tres entidades estaban realizando trabajos sobre redes seguras basadas en la conmutación de paquetes: el MIT (1961-67), RAND Corporation (1962-65) y el National Physical Laboratory (NPL) en Inglaterra (1964-67). Paul Baran, Donald Davies, Leonard Kleinrock y otros científicos habían estado investigando en paralelo y sin que supieran del trabajo de los demás. Baran fue el primero en publicar sus conclusiones en “On Data Communications Networks”. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL.

Captura de pantalla 2014-10-21 a las 15.57.39.png

Fig. 2. Detalle del documento de Paul Baran sobre Redes de Conmutación de Paquetes Segura . © 2004 Computer History Museum.

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó una solicitud de presupuesto (RFQ – Request for quotation) para el desarrollo de uno de sus componentes clave: los procesadores de mensajes de interfaz (IMP – Interface Message Processors). El RFQ fue ganado en Diciembre de 1968 por la empresa de alta tecnología Bolt, Beranek y Newman (BBN).

imp2.jpg

Fig. 3. El Equipo de Desarrollo IMP (de izquierda a derecha): Truitt Thatch, Bill Bartell, Jim Geisman, Dave Walden, Frank Heart, Ben Barker, Marty Thrope, Will Crowther, Severo Ornstein, y Bob Kahn. © 1970 BBN Systems and Technologies.

En Septiembre de 1969, cuando BBN instaló el primer IMP en el Network Measurement Center (Centro de Medidas de Red) de la UCLA y quedó el primer ordenador conectado (host), éste pasó a ser el primer nodo de ARPANET.

El Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI.

Se añadieron dos nodos más, uno en la Universidad de California en Santa Bárbara (UCSB) y otro en la Universidad de Utah. Así, a finales de 1969, cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet.

1969_4-node_map.gif

Fig. 4. Diagrama inicial de 4 nodos de ARPANET. © 2004 Computer History Museum.

1.2. Creando estándares y protocolos: años 70

En diciembre de 1970 se finalizó el protocolo host a host inicial para ARPANET, llamado Protocolo de Control de Red (NCP – Network Control Protocol). Durante el periodo 1971-72, se completó la implementación del NCP en los nodos de ARPANET, fue a partir de entonces cuando los usuarios de la red pudieron comenzar a desarrollar aplicaciones.

En Octubre de 1972, se organizó una exitosa demostración de ARPANET en la International Computer Communication Conference. Esta fue la primera demostración pública de la nueva tecnología de red.

Fue también en 1972 cuando se introdujo la primera aplicación “estrella”: el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. En Julio de 1972, Roberts escribió el primer programa de correo electrónico que permitía relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la más utilizada de la red durante algo más de una década.

Los años 70 transcurren con instituciones conectándose directamente o conectando otras redes a ARPANET y con los responsables desarrollando estándares y protocolos. Vinton Cerf y Bob Kahn publican ”Protocolo para Intercomunicación de Redes por paquetes” que especifica en detalle el diseño del Programa de Control de Transmisión (TCP).

En 1973 ARPANET desarrolla una Red Experimental de Protocolos de Voz (VoIP: voice over IP). Esta red utilizaba los protocolos de internet (IP) para enviar las señales de voz de forma digital, es decir, a través de paquetes de datos. En la actualidad, aplicaciones como Skype, WhatsApp o Google Hangouts hacen uso de la tecnología VoIP para permitir las llamadas a través de internet. En 1973 también se establece la primera conexión de redes entre EE.UU. y Reino Unido. Noruega también se a la Red durante estas fechas.

En los siguientes años se fundan dos grandes empresas de la historia de la informática: MicroSoft (1975) y Apple (1976).

Aunque llevaban trabajando en ello desde 1972, es en 1977 cuando Robert Metcalfe y David Boggs reciben una patente sobre la tecnología Ethernet, que definía las características del cableado y señales de las redes físicas. Tras pasar las pruebas iniciales y obtener su validación comercial, Ethernet se convierte en el estándar para las redes cableadas. Sus fundamentos se siguen utilizando en nuestros días.

En 1979 comienzan a aparecer entre los estudiantes estadounidenses una nueva forma de comunicarse: NewsGroups, precursores de los foros de discusión.

1.3. Maduración tecnológica y expansión: años 80

A principios de 1981, algo más de 200 ordenadores de diversas instituciones ya estaban conectados. DARPA publica un plan para aplicar a toda la red un nuevo protocolo: TCP/IP (Transfer Control Protocol / Internet Protocol), que sustituya al vetusto NCP de 1970. Son las primeras referencias de Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. El IBM PC es lanzado en agosto de este año.

En 1983 ARPANET se separa de la red militar, denominada a partir de entonces como MILNET, que la originó y se queda únicamente con 45 hosts. De este modo, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet. Este mismo año, Paul Mockapetris crea el Sistema de Nombres de Dominios (DNS – Domain Name System), lo que facilita que ya no sea necesario conocer la ruta exacta para acceder a un sistema.

Que ARPANET distribuyera a bajo coste sus protocolos fue una de las claves del éxito para la expansión de Internet en esta época. TCP/IP y las capacidades de trabajo en red fueron incluidas de serie en el sistema operativo UNIX de BSD (Berkeley Software Distribution). BSD, que se encontraba ampliamente difundido entre las universidades, permitió que muchos equipos de trabajo se conectaran y se empezaran a crear una gran cantidad de servicios para Internet.

En 1983 también aparece la primera versión de Microsoft Windows, aunque su aparición en el mercado se retrasó hasta el 20 de noviembre de 1985.

Fig. 5. Escritorio de Windows 1.0. © 2013 Microsoft.

En 1985, quince años después de la primera propuesta, se termina el desarrollo del, aún vigente, Protocolo para la Transmisión de Ficheros (FTP) en Internet, basado en la arquitectura Cliente-Servidor. Se crea NSFNET (National Science Foundation’s Network), el reemplazo de ARPANET como conexión troncal backbone de Internet, estableciendo cinco centros de supercomputadoras para proveer una mayor capacidad de proceso y velocidad a la red. A finales de 1985, se alcanzaba la cifra de 2.000 hosts en Internet, todos interconectados en redes TCP/IP.

Para saber más…

A principios de 1987 se superan los 10.000 hosts conectados. La gestión de la red empieza a ser un problema importante y se evidencia la necesidad de un protocolo que permita la administración remota de los routers: aparece SNMP (Simple Network Management Protocol).

En 1988 el backbone NSFNET se termina de actualizar con una mayor velocidad en sus redes. Internet se empieza a expandir internacionalmente con la conexión de Canadá, Dinamarca, Finlandia, Francia, Islandia, Noruega y Suecia.

1988_nsfnet_map.gif

Fig. 6. Mapa de la red troncal “backbone” de NSFNET en 1988. © 2004 Computer History Museum.

Para saber más…

En 1988 el primer virus gusano, Morris, ataca 6.000 de los 60.000 hosts de Internet. ARPANET se prepara para ataques similares en el futuro.

En 1989, MCI Mail, OnTyme, Telemail y CompuServe empiezan ofertar sus servicios comerciales de correo electrónico. Es el tímido comienzo de los servicios comerciales en Internet en EE.UU. En el CERN de Suiza, Tim Berners-Lee, se enfrenta al problema del cambio constante de la información en los proyectos. En lugar de una organización jerárquica, propone un sistema de hipertexto que se ejecutará a través de Internet y en diferentes sistemas operativos. Nace la World Wide Web.

1.3.1 Los comienzos de Internet en España: años 80

Aunque en EE.UU. los orígenes de Internet estuvieron vinculados a programas militares, en España el contexto siempre estuvo relacionado con la investigación y la ciencia desde los centros universitarios.

En 1984 se pone en marcha el Plan Electrónico e Informático Nacional y aparece la primera iniciativa, la red FAENET (Física de Altas Energías Network), colaborando en labores de investigación con el CERN.

En 1985, FAENET interconecta 6 centros universitarios. Un año más tarde, Telefónica lanza Ibertex, una aplicación interactiva que permitía la consulta de contenidos en un terminal; era algo similar a un primitivo y lento teletexto por teléfono.

Ibertex4.png

Fig. 7. Una página de Ibertext. © 2010 Habisoft.com

Para saber más… vídeo: Anuncio publicitario de Ibertex de Telefónica en 1990

En 1988 nace el Programa IRIS (Interconexión de Recursos InformáticoS), que buscaba coordinar y potenciar la comunicación de los científicos entre diversos centros y grupos de trabajo, financiando o facilitando los recursos necesarios para que las instituciones partícipes se conectaran a la red.

1.4. El “boom” comercial: años 90

Internet pasa a estar a cargo de la NSF (National Science Foundation). En 1990 desaparecía oficialmente la organización ARPANET. En 20 años, Internet había crecido de 4 a unos 300.000 hosts interconectados. Se conectan países como Argentina, Austria, Bélgica, Brasil, Chile, Grecia, India, Irlanda, Corea del Sur, España y Suiza.

Internet comenzó a saturarse y, para evitar el colapso, se restringieron los accesos. Eran años de incertidumbre, nadie había ideado la red para los fines y las dimensiones que se estaban alcanzando. Para ilustrar la situación que se vivía a principios de los años 90, InterNIC, el organismo encargado de los registros de nombres de dominios en esa época, estaba formado únicamente por dos personas que trabajaban a tiempo completo y una tercera a tiempo parcial; las solicitudes de registro habían aumentado de 300 a 1300 en un año y no existían criterios eficaces cuando varias empresas solicitaban un mismo nombre de dominio a la vez. Sus responsables manifestaban que aquello les superaba y carecían de la capacidad necesaria para poder gestionarlo adecuadamente.

En 1992 se superaban las 7.500 redes y el millón de hosts conectados.

A principios de 1993 había alrededor de 50 servidores. Este mismo año apareció NCSA Mosaic, el primer navegador con una interfaz gráfica intuitiva y que logró mostrar la dimensión multimedia de la Web. Funcionaba en X Windows, que era una plataforma bastante extendida entre la comunidad científica. En abril el tráfico de la WWW era el 0,1% del total de Internet. El CERN declaraba la WWW como tecnología de acceso gratuito. En septiembre ya había versiones de Mosaic para PC y Macintosh, aumentando exponencialmente su popularidad: gracias al navegador, el crecimiento anual de Internet fue de un contundente 341.634%. A finales de 1993, el tráfico Web alcanzaba el 1% de todo el tráfico de Internet y había algo más de 500 servidores. El crecimiento de la World Wide Web comenzó a ser vertiginoso.

NCSA_Mosaic.PNG

Fig. 8. Interfaz del navegador NCSA Mosaic. © Wikipedia

En el año 1994 nace una empresa: Netscape, y con ella un nuevo navegador, Navigator, que superará el éxito de Mosaic. Para intentar poner algo de orden en la inmensa cantidad de contenido generado en la red aparecen los primeros directorios de búsqueda: Yahoo! ve la luz. Pizza Hut permite realizar pedidos electrónicos de pizza.

En julio de 1994, Jeff Bezos funda cadabra.com una de las primeras librerías en línea desde la que se podían comprar títulos mediante correo electrónico, poco después se renombraría como Amazon, uno de los líderes actuales en comercio electrónico y servicios de computación en la nube (cloud computing).

Fig. 9. La página de inicio de una de las primeras versiones de Amazon.com

En octubre de 1994 se crea World Wide Web Consortium (W3C), una comunidad internacional cuyo objetivo era, y sigue siendo, “guiar la WWW hacia su máximo potencial a través del desarrollo de protocolos y pautas que aseguren el crecimiento futuro de las tecnologías Web”.

También en 1994 comienzan a aparecer las primeras bitácoras web o blogs, originalmente eran publicaciones personales y periódicas, que se caracterizaban por estar dispuestas en un orden cronológico inverso, es decir, de las más recientes a las más antiguas.

El año del gran “boom” de Internet es 1995. Puede ser considerado como el despegue definitivo de la Internet comercial. Desde ese momento, el crecimiento de la red supera todas las expectativas. En este año la Web se convierte en el servicio más popular de Internet, desbancando al correo electrónico. Sólo en EE.UU. ya había conectados 4 millones de ordenadores.

En 1995 se publica el estándar de la tecnología para redes locales cableadas más extendido, utilizado y veloz: Fast Ethernet (IEEE 802.11u), que permitía velocidades en la red local de 100 Mbps, hasta que fue superado, y paulatinamente reemplazado, por la versión Gigabit Ethernet en 1998.

En los primeros meses de 1995 se funda AltaVista, el que sería uno de los motores de búsqueda de internet más utilizados de la época, hasta la llegada del buscador de Google.

En septiembre de 1995 el empresario Pierre Omidyar crea eBay, uno de los primeros sitios web dedicados a la subasta de productos a través de Internet.

En 1996 se contabilizaban diez millones de ordenadores conectados y 45 millones de usuarios. Este mismo año, Sabeer Bhatia y Jack Smith fundan Hotmail, uno de los primeros, y más utilizados en su tiempo, servicios de correo electrónico basados en web (webmail); en diciembre de 1997 la empresa es vendida a Microsoft. Desde entonces ha pasado por diferentes denominaciones: MSN Hotmail, Windows Live Hotmail y Outlook.com.

En 1997 había más de 650.000 servidores conectados. Empiezan a incrementarse el número de servicios que funcionan en la red; banca, televisión, radio, comercio electrónico, etc. En enero de este año, el W3C publica la Recomendación HTML 3.2, ampliando y consolidando las capacidades del lenguaje de marcado web.

También en 1997, se lanza la primera versión del estándar de conexión inalámbrica (Wi-Fi): IEEE 802.11, con una velocidad de 2 Mbit/s. En 1999 se actualiza (802.11b) con velocidades de hasta 11 Mbit/s y empieza a hacerse popular.

En septiembre de 1998, Larry Page y Serguéi Brin, dos jóvenes estudiantes de Ciencias de la Computación en la Universidad de Stanford, fundan Google Inc., cuyo servicio estrella era su buscador web: Google Search. En los años posteriores la compañía se convertirá en un gigante tecnológico con decenas de productos y servicios. En agosto de 2015, sus creadores deciden crear Alphabet Inc., un conglomerado de empresas, Google Inc. entre sus subsidiarias, que trabajan en sectores tan diversos como internet, biotecnología, salud, telecomunicaciones, domótica, inversión y capital de riesgo, etc.

En 1998 se funda PayPal, una de las empresas pioneras en el servicio de transferencias de dinero y pagos online (e-payments). En 2002 es comprada por eBay, transformada en una empresa independiente de nuevo en 2014 y fusionada con Xoom Corporation en julio de 2015.

A finales de los años 90, el auge de las empresas y los servicios directamente relacionados con Internet es impresionante, son las designadas habitualmente como empresas “punto com”. Muchos ven una nueva economía en Internet, por lo que se apresuran a ocupar una posición e invertir en la red. Es un valor al alza. Al comienzo de la siguiente década, las expectativas y viabilidad de estas empresas, frecuentemente sobreestimadas, empezaron a caer en picado, provocando cierres, despidos y quiebras tan espectaculares como los ascensos que habían experimentado poco tiempo antes. Este fenómeno de fuerte economía especulativa es conocido como la burbuja de las “punto com”.

La televisión, el teléfono, la radio e, incluso, la electricidad necesitaron décadas enteras para ser adoptadas como tecnologías de uso masivo. Internet, no.

Internet es considerado el mayor invento desde la imprenta.

1.4.1 Años 90 en España

A finales de 1990 había unos 1.000 ordenadores españoles conectados y registrados bajo el dominio “.es”. A partir de 1990 el Programa IRIS inicia una nueva etapa y cambia su nombre a RedIRIS, síntoma del cambio de orientación realizado. Se empiezan a adoptar ampliamente los protocolos de conexión TCP/IP, se invierte en I+D y se actualizan los equipos informáticos. RedIRIS, al igual que otras redes académicas, pone en marcha un servicio de interconexión de redes de área local IP con acceso a Internet: SIDERAL (Servicio Internet de RedIRIS). A mediados del año 1990 tuvo lugar la primera conexión plena desde España a Internet.

En 1992 aparece Goya Servicios Telemáticos, el primer primer proveedor comercial de servicios de Internet (ISP) español y RedIRIS conecta a prácticamente todas las universidades españolas. Sus estudiantes comienzan a tener conectividad con Internet.

En 1993, Jordi Adell es uno de los pioneros de Internet en España, montando en la Universidad Jaime I el primer servidor Web español.

En 1994 los ordenadores conectados rondan los 20.000 y un centenar de organismos cuentan con acceso a Internet, aunque la la conexión sigue siendo cara y lenta. Aparece el segundo ISP español: Servicom.

En 1995, ya existen en España más de 10 proveedores comerciales de Internet. A finales de año, serán más de 30. Ibertex había alcanzado unos 400.000 usuarios. En diciembre de este año, Telefónica sentencia de muerte a Ibertex lanzando comercialmente Infovía, un paquete cerrado y personalizado de servicios que, paradójicamente, no permitía el acceso pleno a la Internet mundial. Los usuarios que querían acceder a Internet “de verdad” debían acudir a alguno de los proveedores de acceso a Internet de la época, como Goya, Sarenet, Servicom, etc. A pesar de sus limitaciones, Infovía es un éxito debido, en parte, a su bajo coste de conexión: 139 ptas/hora (106 ptas/hora en horario nocturno). En marzo, según una encuesta realizada por la Comisión Europea, el 55% de los españoles manifiesta que no había oído hablar nunca de Internet.

En 1998, hay 200.000 ordenadores conectados, el año acabará con 300.000. Se liberaliza el sector de las Telecomunicaciones.

En 1999 se produce un hecho clave para la popularización de Internet en España, el Ministerio de Fomento y Telefónica llegan a un acuerdo para aprobar la tarifa plana. Utilizará la tecnología ADSL, se implantará en un período de tres años y su coste no superará las 6.000 ptas: será la llegada de la “banda ancha” a los hogares españoles con una velocidad de conexión y precio que empiezan a ser aceptables. El 17 de marzo Telefónica lanza el portal TERRA, experimentará un crecimiento tan vertiginoso que acabará saliendo a bolsa en octubre de ese mismo año para, posteriormente, seguir una suerte similar a la de otras “punto com” de la época.

1.5. Siglo XXI: de la Web 2.0 al Internet de las cosas

Según Internet World Stats, a finales de 2000 el número de usuarios de Internet era, aproximadamente, de 361 millones en todo el Mundo.

1.5.1 Web 2.0

El término Web 2.0 fue utilizado por primera vez en 1999 por la diseñadora de experiencia de usuario, Darcy DiNucci, en su artículo “Fragmented future”. En él expone que la Web había pasado de un prototipo embrionario (Web 1.0) a algo más maduro, más compatible con diversos dispositivos y plataformas, con mejores tecnologías que permitían una interacción con el usuario más enriquecedora. El término se puso de moda a partir de que Tim O’Reilly, fundador de la editorial O’Reilly Media, lo utilizara en una conferencia sobre Web 2.0 en 2004.

La idea que subyace sobre este concepto es que la Web 1.0 estaba pensada para conectar máquinas y la Web 2.0 para conectar a las personas. Una Web centrada en los usuarios, orientada a la colaboración, la interacción y las redes sociales. Era un intento de dar cabida a esa dimensión social que la Web estaba adquiriendo.

El concepto tenía mucho de mercadotecnia y, en realidad, no era más que la evolución lógica de la maduración de las tecnologías Web. Tim Berners-Lee, creador de WWW, afirmaba que no existía tal diferencia entre Web 1.0 y 2.0: la interactividad y la colaboración social era la esencia de la Web desde su nacimiento.

1.5.2 La época de los servicios y herramientas para todo

En enero de 2001, Jimmy Wales y Larry Sanger crean Wikipedia, la que acabaría convirtiéndose en la mayor enciclopedia en línea. Wikipedia es una obra en línea de consulta libre, redactada y editada por voluntarios de todo el Mundo y con artículos en casi 300 idiomas. Actualmente, es una de las 10 páginas más visitadas del planeta.

En octubre de este mismo año, la empresa NTT DoCoMo comienza a ofrecer comercialmente en Japón los servicios de la tercera generación de la tecnología de telecomunicaciones móviles (comúnmente conocida como 3G), lo que supone un fuerte impulso para el desarrollo de los servicios de internet en dispositivos móviles.

En 2003 aparece Skype, un servicio que logra democratizar y popularizar la tecnología de vídeo y voz sobre internet (VoIP). Desde entonces, la empresa ha pasado por diversos dueños como eBay (2005) o Microsoft (2011).

En 28 de abril de 2003, Apple lanza iTunes Music Store, una tienda en línea con canciones en formato digital. Desde su lanzamiento ha ido ganando popularidad hasta convertirse en el mayor vendedor de música del Mundo. En la actualidad ha pasado a denominarse iTunes Store y su catálogo se ha ido ampliando con películas, series y aplicaciones.

En 2003, Mark Zuckerberg, un estudiante de la Universidad de Harvard, lanzó un sitio web llamado Facemash que contenía un amplio listado con nombres y fotos de los estudiantes de dicha universidad, rápidamente se hizo viral y comprendió la necesidad de crear una comunidad online donde sus integrantes compartieran sus preferencias y sentimientos. En febrero de 2004, Mark Zuckerberg, junto a Eduardo Saverin, Chris Hughes y Dustin Moskovitz fundaron Facebook, una de las redes sociales más populares de nuestros días.

En 2004, la empresa canadiense Ludicorp crea Flickr, un servicio web para alojar y compartir fotos y otras imágenes. En marzo de 2005 es adquirida por Yahoo!. El sitio ganará bastante popularidad en los años siguientes y la irá perdiendo en los últimos años ante la fuerte competencia de otros servicios con características similares.

En abril de 2004, Google lanza Gmail, un novedoso servicio de correo electrónico con una interfaz orientada hacia las búsquedas, donde los correos electrónicos se organizaban mediante “conversaciones” y con una enorme capacidad de almacenamiento: 1GB frente a los 2 o 4 MB que ofrecían sus competidores en esa época. Al principio apareció como una beta privada a la que sólo se podía acceder mediante invitación, hasta que se abrió para todo el público en febrero de 2007.

En febrero de 2005, Chad Hurley, Steve Chen y Jawed Karim, antiguos empleados de PayPal, crean YouTube, un servicio web en el se pueden ver, subir y compartir vídeos. Actualmente es el sitio web de su tipo más utilizado en internet y uno de los 3 más visitados del Mundo. La empresa fue comprada por Google en 2006. En 2014 YouTube afirmó que cada minuto se subían 300 horas de nuevos vídeos, tres veces más que el año anterior. Este año se alcanzan los 1.000 millones de usuarios conectados a Internet.

En marzo de 2006, Jack Dorsey, Evan Williams, Biz Stone y Noah Glass crean Twitter, una red social famosa por limitar los mensajes de sus usuarios a 140 caracteres. Lo que en un principio era una limitación técnica, ya que basaban el servicio en la tecnología SMS (Short Message Service), pronto ganó muchos adeptos por lo directos y concretos que eran estos mensajes. En mayo de 2015 esta red contaba con 332 millones de usuarios activos.

A finales de 2006, según fuentes de NetCraft y Internet Live Stats, existían 85,5 millones de sitios web y 1.160 millones de usuarios de internet.

En junio de 2007, Apple presenta su teléfono: iPhone. Aún con sus carencias iniciales, el dispositivo supuso toda una revolución al basar su interfaz en una pantalla multi-touch que permitió, por fin, una forma eficaz de navegar por la web desde un dispositivo móvil.

Para saber más…

Este mismo año el desarrollador web David Karp funda Tumblr, una red social y plataforma web de microblogging. Desde 2013 pertenece a Yahoo!

En 2008, Drew Houston, tras olvidar en repetidas ocasiones su lápiz de memoria USB durante su época de estudiante en el Massachusetts Institute of Technology (MIT), empieza a perfilar la idea de un servicio web donde poder alojar sus archivos, tenerlos disponibles y actualizados siempre que quisiera. Houston, junto a Arash Ferdowsi, lanza Dropbox este año. A finales de 2008, según fuentes de NetCraft e Internet Live Stats, se contabilizan 172.338.726 sitios web y 1.571.601.630 usuarios de internet.

En 2009, los programadores Jan Koum y Brian Acton fundan WhatsApp, una aplicación de mensajería entre dispositivos móviles. En febrero de 2014 es adquirida por Facebook Inc. En febrero de 2016, se estimaban 1.000 millones de usuarios de WhatsApp, lo que la convierte en la aplicación de mensajería más popular del Mundo.

En 2010 se alcanzan los 2.000 millones de usuarios de internet.

En 2011, según fuentes de NetCraft e Internet Live Stats, existían 346 millones de sitios web y casi 2.283 millones de usuarios de internet.

En abril de 2012, Facebook adquiere Instagram, una popular red social de fotografías.

En 2014, se superan los 3.000 millones de personas conectadas a la red. El 12 de marzo de este mismo año, la World Wide Web cumple 25 años. Con motivo de dicha celebración su creador, Tim Berners-Lee, habla sobre los retos pendientes: “A medida que la Web cumple 25 años se evidencia que hacen falta más datos para realzar y defenderla. La comunidad que formamos es tan grande como el mundo; luchamos con amenazas de seguridad cada vez más reales, así como de vigilancia, privacidad, infraestructuras abiertas, neutralidad de la red y protección de contenidos entre otros retos. Creo que es vital que se pase a la acción, que se realce y defienda la web”.

En junio de 2016, Microsoft anuncia la compra de LinkedIn, la mayor red social orientada a empresas, negocios y empleo. El 25 de julio de 2016, tras años de constantes pérdidas económicas, se anuncia la venta de Yahoo! al gigante de las telecomunicaciones norteamericano Verizon Communications. Unos meses más tarde sale a la luz que, al menos, 500 millones de cuentas Yahoo! han sido hackeadas, esta brecha de seguridad podría convertirse en la más grave de la historia, ya que superaría a la que hasta ahora ostentaba el récord, la de MySpace, que afectó a 427 millones de cuentas ese mismo año.

En septiembre de 2016, Google celebra su 18 cumpleaños e Internet Live Stats contabilizaba 3.459 millones de usuarios de internet y 1.082 millones de sitios web en el mundo.

En la última década Internet ha seguido creciendo hasta límites insospechados, y lo seguirá haciendo. Casi el 50% de la población mundial tiene acceso a Internet (en 1995 era menos del 1%), esta cifra sube hasta el 78% en los países desarrollados, y es un hecho que ha favorecido la comunicación y el intercambio de información en el mundo actual.

Como en su momento lo fue el teléfono, la radio o la televisión, Internet es uno de los pilares actuales de la Sociedad de la Información, formando parte esencial de las denominadas Tecnologías de la Información y la Comunicación (TIC). Internet está integrada en nuestra sociedad y ha modificado muchos aspectos de nuestra vida: ha distribuido y permitido un mayor acceso a la información y el conocimiento (aunque no siempre sea de calidad) y ha agilizado los contactos sociales y comerciales como nunca antes hubiéramos pensado. Internet ha adquirido una dimensión social que ha superado a la tecnológica.

Para saber más…

En esta entrevista de 1988, Isaac Asimov aportaba su visión sobre el impacto que tendría internet en la educación y en nuestras vidas:

1.5.3 Internet para llevar

Resulta interesante observar cómo ha ido cambiando la forma en la que las personas se conectan a Internet. El acceso a Internet se ha ido democratizando y extendiendo (la tecnología ha mejorado y el coste se ha abaratado) y las conexiones desde los centros académicos o desde el trabajo han decrecido. Sin embargo, en los últimos 10 años, el porcentaje de conexiones desde casa o en la calle se ha disparado gracias a la irrupción de los dispositivos móviles. Los dispositivos móviles han eliminado la dependencia del PC como punto de conexión, Internet y sus servicios van con nosotros, es la integración de los dispositivos como algo que forma parte del entorno de la persona: es la Computación Ubicua (ubicomp).

Un paso más allá de esta integración es el hecho de que el usuario pueda interactuar de manera natural con sus dispositivos y realizar cualquier tarea diaria de manera completamente transparente a ellos. La tecnología está omnipresente en la vida cotidiana ofreciendo la interacción más natural y con menores fricciones. En este aspecto, la tendencia más reciente es la denominada “tecnología vestible” (Wearable technology), materializada en un sinfín de dispositivos (como pulseras, relojes, ropa tecnológica, gafas “inteligentes”, etc.) que registran diversos parámetros personales o aumentan las capacidades para realizar determinadas tareas, buscando un fin lúdico (gamificación) y social, y valiéndose de Internet para ello.

1.5.4 Internet de las cosas

El concepto de Internet de las cosas (IoT – Internet of Things) fue propuesto en 1999 por Kevin Ashton, cofundador del Auto-ID Center en el Massachusetts Institute of Technology (MIT), donde realizaba investigaciones en el campo de los sensores y la identificación por radiofrecuencia (RFID – Radio Frequency IDentification)

El “Internet de las cosas” busca que Internet trascienda del ordenador y del dispositivo móvil y que los objetos cotidianos también puedan interconectarse utilizando diversas tecnologías, convirtiéndolos en objetos “inteligentes” con capacidades como la automatización, la gestión o el control de sistemas en áreas tan diversas como la vigilancia medioambiental, sistemas médicos y de salud, domótica, sistemas de compra inteligentes, control de tráfico y transportes, etc.

Fig. 10. Notas sobre IoT. Ponencia de Josh Clark, experto en tecnología móvil, en An Event Apart Boston. © 2015 Gary Schroeder

2. Conceptos fundamentales de Internet

2.1. ¿Qué es Internet?

La palabra internet proviene de la abreviatura de Interconnected Networks, es decir, redes interconectadas: red de redes.

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan unos protocolos comunes (TCP/IP), lo que garantiza que las redes físicas heterogéneas que la componen sean capaces de comunicarse entre sí, con alcance mundial.

2.2. Hosts y redes

Una red consiste en un grupo de ordenadores conectados entre sí con la finalidad de compartir -proveer y utilizar- servicios y recursos. A estos ordenadores conectados entre sí también se les denomina terminales o hosts.

Todos los terminales han de tener un lenguaje común, cumplir unas normas, para que puedan entenderse entre ellos. Al conjunto de esas normas se les llama protocolos.

Tradicionalmente, en función de su extensión, se pueden establecer tres tipos de redes principales:

  • Redes locales (LAN – Local Area Network). Son redes que conectan ordenadores que se utilizan en entornos pequeños, generalmente, dentro de un mismo edificio.
  • Redes metropolitanas (MAN – Metropolitan Area Network). Por ejemplo, las utilizadas en ordenadores distribuidos en edificios diferentes, pero dentro de una misma ciudad.
  • Redes de área extensa (WAN – Wide Area Network). Las que se utilizan en ordenadores ubicados en ciudades distintas, incluso, en diferentes países o continentes.

Según esta clasificación, Internet pertenecería al tercer tipo de redes aunque, a su vez, también contiene a los otros tipos de redes descritos.

2.3. Direcciones de Internet: URL, IP y DNS

Cada dispositivo que utiliza Internet tiene su propio nombre y dirección única. Una vez que se conoce la dirección electrónica de alguien, se le puede enviar un correo, transferir archivos, mantener una conversación, etc. El sistema de direcciones de Internet se denomina URL (Uniform Resource Locator).

Para que dos dispositivos en red puedan “dialogar”, debe existir una forma de identificar a cada uno del resto del mundo. Esta identificación la proporciona la dirección IP (Internet Protocol). Una dirección IP es como una “llave de acceso” que sirve para identificar de forma única a un dispositivo conectado a Internet.

Una dirección IP puede ser representada de dos formas:

  • Dirección numérica. Es un conjunto de cuatro números (tripletes), con valores comprendidos entre 0 y 255, separados por puntos. Por ejemplo, 91.198.174.192. Para evitar conflictos y errores, la dirección IP es única e irrepetible. Los tripletes se asignan de forma jerárquica, indicando las redes donde se encuentra conectado el dispositivo y la identificación individual del mismo.
  • Dirección por nombre. Dado que es tedioso el aprendizaje de estos números para acceder a un dispositivo en la red, existe una jerarquía paralela de nombres asociada a la de los números. Es lo que se conoce como Servicio de Nombres de Dominio (DNS – Domain Name Service). DNS es, fundamentalmente, una gran base de datos, que utiliza la estructura Cliente-Servidor, distribuida entre los dispositivos de la red. El servicio DNS es capaz de “resolver” -consultar y averiguar- qué dirección IP numérica, entendida por las máquinas, corresponde a un nombre de dominio, con significado para las personas.

La World Wide Web utiliza el servicio DNS para lograr que el acceso y la navegación entre las páginas Web sea intuitivo y cómodo para los usuarios de Internet. Por supuesto, se podría acceder a los sitios Web mediante su dirección IP, pero el recordar esa cantidad de números arbitrarios no sería fácil para la mayoría de nosotros, especialmente, dada la inmensa cantidad de direcciones que podemos manejar en Internet. Es mucho más sencillo el recordar un sitio Web por un nombre que se identifique con su contenido. Por ejemplo, un usuario no tiene que conocer que la dirección IP numérica 91.198.174.192 corresponde a la página de Wikimedia, simplemente deberá escribir en su navegador la dirección http://www.wikimedia.org y el servicio DNS se encargará de encontrar el recurso solicitado.

Para saber más…

2.4. Cómo se envía la información en Internet

Existen ordenadores especializados en encaminar sus mensajes a su destino, son los denominados enrutadores o routers.

2.4.1 Comunicación y procesado de paquetes

El proceso que sigue una comunicación desde nuestro dispositivo al destino es, aproximadamente, el siguiente:

  • Cuando nos conectamos al proveedor de servicios de Internet (ISP), por ejemplo Movistar, se nos asigna una dirección IP temporal. Esto quiere decir que la próxima vez que conectemos podemos tener una dirección distinta (IP dinámica).
  • Al enviar un mensaje, o al solicitar conectar con otro dispositivo, nuestro equipo verifica nuestra dirección IP y consulta con el servidor de nombres (DNS) la del destinatario.
  • El mensaje es dividido en pequeñas partes (los conocidos como “paquetes”), y cada una de ellas es identificada con su dirección IP y con la del destinatario.
  • Usando las líneas que nos conectan con Internet, estos paquetes son enviados desde nuestro dispositivo al sistema del proveedor.
  • El proveedor comprueba la dirección a la que van dirigidos y, dependiendo del estado de la red, la distancia, el destino y la empresa con la que haya contratado el acceso el proveedor, los paquetes del mensaje irán pasando de router en router hasta llegar a su destino.
  • Una vez recibidos los paquetes en el dispositivo-destino, éste los unirá ordenadamente, reconstruyendo el mensaje. Si algún paquete se ha perdido, el dispositivo-destino lo solicitará al origen de nuevo, que volverá a enviarlo siguiendo el mismo proceso.

2.4.2 Backbones

El camino recorrido por el mensaje se debe a la propia arquitectura de Internet. El proveedor está conectado a una red, y el ordenador con el que quiere conectar, casi siempre, estará conectado a una red distinta. Estas dos redes no están conectadas entre sí, para poder comunicarse utilizan a su vez otras redes.

La mayoría de las redes importantes están conectadas por líneas de muy alta velocidad, llamadas backbones, líneas troncales o “esqueletos”. Son líneas que recorren países enteros transmitiendo mensajes entre las redes con las que conecta. A veces, puede que nuestro mensaje tenga que atravesar varios de estos backbones.

2.5. Estructura Cliente-Servidor

En esencia, Internet es una estructura Cliente-Servidor gigante. La idea básica de un sistema Cliente-Servidor es que debe existir un sitio donde se centraliza la información que se desea distribuir, bajo demanda, a un conjunto de dispositivos conectados.

Un servidor es cualquier cosa que tenga un recurso que pueda ser compartido. Un cliente es cualquier otra entidad que quiera tener acceso a un servidor particular. Mientras el servidor es un recurso disponible permanentemente, el cliente es libre de desconectarse después de haber sido servido.

El objetivo de cualquier red es permitir que dos dispositivos se conecten y “dialoguen” entre ellos. Una vez que los dos se han encontrado pueden mantener una conversación en ambos sentidos. Los programas que habitualmente utilizamos en nuestras casas son programas clientes que hacen peticiones a los programas servidores que se encuentran repartidos por Internet.

Buscando una analogía cotidiana de la estructura Cliente-Servidor, podría ser la relación existente entre el camarero y el cliente en una cafetería. El camarero está situado detrás de la barra esperando las peticiones. Cuando llega un cliente, camarero y cliente se reconocen entre sí y se establece una comunicación. Mediante esta comunicación, el cliente hace la petición y el camarero la sirve. Al terminar se despiden.

3. World Wide Web

El World Wide Web, WWW, W3 o, simplemente, como se le denomina más a menudo, Web, es un sistema de intercambio de información multimedia desarrollado por el CERN (Centro Europeo de Investigación Nuclear) de Ginebra (Suiza) en 1989. La experiencia inicial, basada en el intercambio de documentación interna de proyectos, fue tan positiva que al poco tiempo de su creación se comenzó a difundir a otras entidades con el apoyo de Internet.

El servicio WWW está tan extendido que popularmente es confundido con la propia Internet.

3.1. Los orígenes de WWW

La World Wide Web fue inventada en 1989 por Tim Berners-Lee, informático teórico en el Centro Europeo de Investigación Nuclear. Era un sistema basado en Internet, concebido originalmente para compartir información a través de hipertextos.

3.2. Principios y componentes de WWW

Los documentos necesitaban un formato que fuera adecuado para su misión. Teniendo en cuenta que debían ser leídos por todo tipo de dispositivos, tanto el lenguaje de intercambio (HTML), como el protocolo de red (HTTP) se diseñaron para ser realmente simples.

WWW basa su diseño y funcionamiento en varios puntos clave:

3.2.1 Un protocolo de red: HTTP

Empleado por los servidores WWW. HTTP (HyperText Transfer Protocol) es un protocolo de transmisión de datos entre Clientes-Servidores. El cliente puede ser, por ejemplo, un navegador. El servidor es el encargado de almacenar o crear recursos como documentos web, imágenes, etc. A través de instrucciones simples el cliente indica al servidor qué acciones realizar para recibir o entregar datos. Opera sobre conexiones TCP/IP y se basa en transferencias de texto, aunque realizadas en modo binario.

3.2.2 Un tipo de documento: HTML

Los documentos Web están redactados conforme a un formato denominado HTML (HyperText Markup Language), que permite incluir elementos de texto, gráficos o, incluso, multimedia. HTML se utiliza para indicar a los navegadores cómo estructurar y mostrar las páginas Web.

HTML forma parte de los Estándares Web definidos por el W3C. El código HTML se basa en simples reglas de etiquetado que permiten especificar la estructura de los documentos, la jerarquía y semántica de sus elementos, especificar los hipervínculos, las imágenes, los elementos multimedia, etc. Los navegadores son capaces de interpretar este código y convertirlo (proceso de renderizado) en lo que el usuario finalmente ve como una página Web.

Para saber más…

Para profundizar, a un nivel técnico, sobre cómo funciona un navegador, Ryan Seddon ha compartido la charla que realizó con motivo de la conferencia JSConfEU 2015:

3.2.3 Un sistema para acceder a la información: hipertexto

Una parte fundamental de HTML es su capacidad hipertextual. El concepto en sí no es nuevo. Las referencias a otros documentos, en forma de notas al margen, existían ya en los manuscritos medievales.

Captura de pantalla 2014-09-07 a la(s) 16.44.18.png

Fig. 11. Detalle de las notas al margen de una edición incunable de Santo Tomás de Aquino. In duodecim libros Metaphysicorum Aristotelis expositio (Venecia: Simon Bevilaqua para Alessandro Calcedonius, 20 de diciembre 1493). © Provenance Online Project

En 1945, el Director de la Oficina de Desarrollo e Investigación Científica de EE.UU., Vannevar Bush, escribió en el artículo “As We May Think” su preocupación por la ingente cantidad de información que existía y estaba siendo generada, y el poco tiempo y los ineficientes sistemas que había para encontrarla. Así, y basándose en la tecnología existente en aquel entonces, describió un dispositivo personal, al que llamó Memex, y que imaginaba como un suplemento íntimo a su memoria. Este aparato permitiría a cada individuo almacenar su información en microfilmes, consultarlos rápidamente y, lo que es más importante, crear vínculos entre unos documentos y otros, de modo que durante la lectura de un documento se recordara al lector qué documentos contenían información relacionada. Era una visión de lo que ocurriría 45 años después.

En los años 60, Douglas Engelbart, mientras trabajaba en el Stanford Research Institute (SRI), propuso NLS (oNLine System), un entorno de trabajo por ordenador con un sistema para almacenar publicaciones, con catálogos e índices para facilitar la búsqueda, y con reglas establecidas para citar documentos, de modo que fuera más fácil para los lectores acceder a los documentos referenciados. Era un entorno con teclado, pantalla, ratón e impresora, con posibilidad de teleconferencia y correo electrónico a través de una red de ordenadores para una rápida comunicación entre los profesionales. Tenía las herramientas básicas de composición, estudio, organización y modificación de la información. Los ficheros se guardaban jerárquicamente para su mejor organización. Se trabajaba con los documentos en modo multiventana para ver varios documentos a la vez, y se podían copiar objetos seleccionados de una ventana a otra.

Para saber más…

Douglas Englebart demuestra NLS, que utilizaba el ratón como elemento de interacción con el ordenador. Hizo una presentación mítica denominada “The mother of all demos” donde explica sus descubrimientos tecnológicos. Un fragmento de dicha presentación:

El término hipertexto (también denominado como enlace, hiperenlace, link o vínculo) fue acuñado por primera vez en 1965 por Ted Nelson, en su artículo “A File Structure for the Complex, the Changing, and the Indeterminate”. Nelson ideó un modelo para la interconexión de documentos electrónicos: el proyecto Xanadu.

Tim Berners-Lee había estado experimentando con hipertexto desde 1980, año en que programó Enquire, un programa para almacenar piezas de información y enlazarlas entre ellas. Enquire se ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los mismos datos. En septiembre de 1990, el CERN dio el visto bueno a la propuesta de Berners-Lee y junto con Robert Cailliau comenzó a escribir el nuevo sistema de hipertexto.

HTML permite especificar enlaces (links) entre documentos, haciendo uso de técnicas hipertextuales. De este modo, en un documento pueden haber referencias a otros documentos, los cuales pueden estar situados en otro lugar de Internet. Los enlaces de un documento HTML no tienen por qué restringirse a otros documentos, sino que pueden hacer referencia a otros recursos, como ficheros de cualquier tipo, direcciones de correo electrónico, etc. Sin embargo, el modo de acceder a cada uno de estos recursos es siempre el mismo: el usuario selecciona el enlace resaltado y es el navegador el que se encarga de acceder al elemento.

Los enlaces están redactados conforme a una sintaxis determinada, que permite hacer referencia al nodo de Internet donde puede encontrarse la información, el nombre de fichero que la contiene y el protocolo de comunicaciones. Por este motivo, reciben el nombre genérico de Localizadores Universales de Recursos o URL (Universal Resource Location).

El usuario, sin embargo, no necesita saber nada sobre la existencia de protocolos, servidores, ficheros o cualquier otro tipo de recursos. La tecnología Web permite integrar todas las aplicaciones de comunicaciones desarrolladas con anterioridad, de tal manera que el usuario únicamente debe aprender a manejar una sencilla herramienta gráfica para poder utilizar la gran cantidad de recursos que proporciona Internet.

4. Estándares Web

4.1. HTML, CSS y más acrónimos raros. Estándares Web

Un estándar es un conjunto de reglas normalizadas que describen los requisitos que deben ser cumplidos por un producto, proceso o servicio, con el objetivo de establecer una base sobre la que los distintos elementos de hardware o software que lo utilicen, sean compatibles entre sí.

Los estándares relacionados con la Web han sido desarrollados con la premisa de que Internet sea un lugar donde la información contenida en los documentos WWW pueda ser usada de forma accesible, interoperable y eficiente por cualquier persona, en diversos lugares y sin importar el dispositivo de acceso a la Red que se utilice.

Los Estándares Web indican a los autores cómo crear el código de las páginas Web, pero también especifican a las aplicaciones y navegadores cómo interpretar ese código para que se muestre de la forma adecuada a los usuarios. Los estándares de la Web son la única manera de cerciorarse de que cada parte implicada está siguiendo las mismas “reglas del juego”.

Cada nueva versión de las normas y protocolos de las tecnologías implicadas en la Web ha intentado reflejar un consenso, cada vez mayor, entre los interlocutores de la industria y los desarrolladores, de tal modo que no se desaprovechen las inversiones hechas por los proveedores de contenidos y que sus documentos no dejen de ser legibles a corto plazo.

4.2. ¿Y quién dicta esas normas?

Para nuestros intereses, dos son los actores principales que definen las normas que hacen posible que el complejo ecosistema Web funcione:

4.2.1 World Wide Web Consortium (W3C)

Históricamente, el Consorcio World Wide Web (W3C) es una organización independiente y neutral responsable del diseño, validación, distribución, revisión y modificación de los Estándares Web en función de la demanda tecnológica de la Comunidad de Internet. Además, son responsables de cualquier tecnología relacionada con la WWW, es decir, protocolos (HTTP), Hojas de Estilo en Cascada (CSS), Lenguaje de Marcado de Hipertexto (HTML), Lenguaje de Marcado Extensible (XML), etc. El resultado: más de 110 tecnologías desde 1996.

El W3C es una comunidad internacional, sin ánimo de lucro, dirigida por el inventor de la Web, Tim Berners-Lee, y formada por más de 400 organizaciones, distribuidas a lo largo de todo el mundo y de diversos ámbitos: grandes empresas de hardware o software, centros investigadores, universidades, administraciones públicas, etc. Su misión es guiar la Web hacia su máximo potencial.

Para saber más…

Un vídeo para conocer un poco mejor la actividad del World Wide Web Consortium:

4.2.2 Internet Engineering Task Force (IETF)

Con todavía más alcance que el W3C, el Grupo de Trabajo de Ingeniería de Internet (IETF), es responsable de regular las propuestas y los estándares de Internet, de hecho, la WWW es una pequeña parte del trabajo del IETF.

4.2.3 El proceso de crear un estándar Web

El W3C cuenta con diversos grupos de trabajo (W3C Working Groups) que se organizan por áreas de interés.

Los grupos de trabajo están compuestos, en su mayor parte, por empresas miembro (fabricantes de navegadores, sitios web populares, instituciones académicas y de investigación, compañías tecnológicas, etc.) que son las financian principalmente la actividad del Consorcio y el motivo fundamental por el que se pueden distribuir los estándares Web de forma abierta y gratuita. En segundo lugar, se encuentra un grupo, mucho más reducido, compuesto por expertos invitados y, finalmente, el propio personal contratado por el W3C. Realmente son los grupos de trabajo los que crean los Estándares Web, el W3C se encarga de supervisar y controlar la inmensa información que se genera en este particular foro de debate.

Como es lógico imaginar, lograr el consenso no es una tarea fácil, cada estándar pasa por un tedioso y largo proceso, normalmente de años, hasta llegar a convertirse en una versión final. Por supuesto, en ocasiones, existen discrepancias y luchas de poder interno… como ejemplo, el libro The Truth About HTML5 (For Web Designers) de Luke Stevens contiene una reveladora y crítica historia sobre el proceso de creación de HTML5.

Estos son los estados habituales por los que pasa un estándar Web:

  1. Editor’s Draft (ED)
  2. First Public Working Draft (FPWD)
  3. Working Draft (WD)
  4. Candidate Recommendation (CR)
  5. Proposed Recommendation (PR)
  6. Recommendation (REC)

4.3. Beneficios de usar Estándares Web

A pesar de la labor divulgativa de diversos organismos, profesionales y entusiastas de la Web, la pregunta de por qué usar Estándares Web sigue siendo muy común. La siguiente lista puede ayudar a respondernos:

  • Garantiza la compatibilidad. Los Estándares Web están definidos por el Consorcio Mundial de la Web (W3C), organismo encargado de establecer las tecnologías, especificaciones, guías, aplicaciones y herramientas para crear e interpretar el contenido en Internet. Al desarrollar nuestras páginas, estamos siguiendo unas normas aprobadas y consensuadas internacionalmente siguiendo un proceso controlado en el que participan los Expertos y la Industria. Por tanto, siguiendo los Estándares Web está asegurada gran parte de la compatibilidad con las aplicaciones y dispositivos existentes y los futuros.
  • Aumenta la accesibilidad. Los Estándares Web proponen separar la estructura, el estilo y el comportamiento de las páginas Web utilizando las reglas normalizadas más adecuadas para cada caso. Este hecho mejora el acceso a la información para todos los usuarios, incluyendo a aquellos con diversidad funcional. Es posible dejar en las manos del usuario el control de la apariencia del contenido; tamaño, disposición y color, haciendo su uso más cómodo y adaptado a sus necesidades.
  • Mejora la respuesta y rendimiento. Aplicar Estándares Web implica utilizar un código optimizado, más estricto y “limpio”, lo que redunda en menores tiempos de espera en la carga de las páginas y un mejor rendimiento. Además, jugando con el posicionamiento de los elementos HTML es posible presentar unas partes del contenido antes que otras, aumentando la sensación de velocidad percibida.
  • Reduce los costes de mantenimiento. Un código más ordenado y el tener todas las reglas de estilo ubicadas en un único lugar, mediante las hojas de estilo, facilitan enormemente las tareas de actualización y mantenimiento.
  • Aporta semántica. El contenido puede agruparse basándose en criterios lógicos, gracias a la utilización de diferentes etiquetas que nos permiten jerarquizar y organizar los contenidos o crear unidades informativas con significado.
  • Signo de calidad y apuesta por el futuro. El uso de estándares tecnológicos para la Web se hace con la intención de que se reduzcan los costes y la complejidad en el desarrollo aumentando la viabilidad a largo plazo de cualquier sitio publicado en Internet. Es apostar por el futuro con garantías y trabajar en el camino adecuado para ello.

5. El contexto digital: diseñar para la Web

El diseño Web tiene muchos puntos en común con el diseño tradicional puesto que también se utilizan los elementos propios del diseño gráfico (formas, líneas, colores, tipografía, gráficos e imágenes, etc.). La diferencia fundamental es el medio donde se trabaja: el diseño Web se basa en las posibilidades y tecnologías que le brinda la World Wide Web.

Los diseñadores web deben tener los conocimientos técnicos necesarios para convertir su diseño en un sitio Web en funcionamiento; conocer las soluciones tecnológicas idóneas para cada caso, sus características y restricciones, cómo se comportan, cómo se ven en diferentes plataformas, navegadores, etc. Por tanto, deben conocer y saber aplicar el material con el que se fabrican sus diseños y, ese material, en los sitios Web no es el papel.

A diferencia del diseño tradicional, el diseño web requiere valorar aspectos como la consistencia en la navegación, la facilidad de uso (usabilidad), la organización de los contenidos (arquitectura de la información), la interacción, etc. Los sitios web también deben cargar rápido y funcionar eficientemente para lograr experiencias de uso satisfactorias. Aspectos como el tamaño de los archivos, las resoluciones de pantalla, la velocidad de carga y rendimiento general también deben tenerse en cuenta.

5.1. El lienzo infinito

El diseño tradicional, en papel, permite jugar con un espacio perfectamente delimitado que deja una mayor libertad creativa al diseñador ya que no está limitado por la programación, la resolución o la velocidad.

El diseño impreso es bidimensional. Se diseña para un espacio de un tamaño fijo, cuidando mucho la distribución de los elementos en una retícula invariable. Es una experiencia diseñada para ese lienzo concreto donde se controlan con detalle cómo se van a mostrar todos los elementos. Es un diseño ajustado al milímetro (píxel-perfect) donde se sabe cómo va a quedar cada elemento.

En la Web pueden existir varias dimensiones, es una experiencia flexible, fundamentalmente de desplazamiento (scrolling experience), donde no siempre se mantiene la misma relación de espacio fijo entre los elementos, puesto que depende de variables como las características del dispositivo donde se muestra.

Otra diferencia con el diseño “de papel” es que, debido a la naturaleza de HTML, el orden visual y el orden cognitivo no siempre coinciden: el contenido y su estilo pueden variar de forma independiente para adaptarse al contexto de uso.

En el diseño Web, un único tamaño no encaja para todo, no se trata de hacer el diseño perfecto sino el mejor de los posibles para cada situación.

5.2. Navegación e hipertexto: una forma de construir conocimiento

Sin duda una de las diferencias fundamentales de WWW con respecto a otros medios es su capacidad de navegación a través de hipertextos.

El hipertexto ofrece una forma de acceder a la información de manera asociativa y organizada, lo que supone una ruptura con linealidad en la representación de la información de los medios tradicionales.

El usuario decide el camino a seguir a través de los hipertextos y la “navegación” que los mismos propician. Desde una perspectiva constructivista, el usuario se convierte en “procesador” activo de la información, libre y constructor de su conocimiento, en función de sus intereses, de sus conocimientos y habilidades previas sobre los temas a los que accede.

7. Bibliografía

1. Cabrera Álamo, Domingo y Quevedo Santana, José R. Diseño Web.

Material formativo sin publicar, 2001-2002.

2. Guerra Vega, Ana María. Autopistas de la información: Internet e InfoVía.

Material formativo sin publicar, 1997.

3. Quevedo Santana, José R. HTML & XHTML.

Material formativo sin publicar, 2007.

4. Zeldman, Jeffrey y Marcotte, Ethan. Designing with Web Standards (3rd Edition). New Riders, 2010.

5. A CERN invention you are familiar with: the World Wide Web.

http://public.web.cern.ch/Public/ACHIEVEMENTS/WEB/Welcome.html (no operativo)

6. Breve historia de internet (Internet Society).

http://www.internetsociety.org/es/breve-historia-de-internet

7. Internet History (Computer History Museum).

http://www.computerhistory.org/internet_history/

8. Historia de Internet.

Haz clic para acceder a historiainternet.pdf

9. Tecnologías de Internet – Historia de la Web (WikiBooks).

http://es.wikibooks.org/wiki/Tecnolog%C3%ADas_de_Internet/Historia_de_la_Web

10. Billions Registered (Wired).

http://archive.wired.com/wired/archive/2.10/mcdonalds_pr.html

11. Evolución de Internet en España. Máster de Periodismo (El Mundo).

http://www.elmundo.es/imasd/docs/cursos/masterperiodismo/2002/rivero-master02-espana.html

12. Fundamentos históricos de la Internet en Europa y en España (RedIRIS).

http://www.rediris.es/difusion/publicaciones/boletin/45/enfoque2.html

13. Internet en España (Asociación de Usuarios de Internet).

http://www.aui.es/?page=doc_histo_seccion&id_rubrique=255

14. Uso de Internet en España 2004-2014. Datos EGM

https://docs.google.com/presentation/d/1HRsXafBNtdi9FqCOaQQuDCxXJnr7u0ujQ220233DIHw/edit?pli=1#slide=id.ge63b598_1_0

15. Impacto de Infovía de Telefónica (El profesional de la Información).

http://www.elprofesionaldelainformacion.com/contenidos/1995/noviembre/impacto_de_infova_de_telefnica.html

16. Wikipedia.

https://www.wikipedia.org/

https://en.wikipedia.org/wiki/History_of_the_Internet

7. Propuestas para el debate: timeline de Internet.

  • Realiza una línea temporal, a modo de síntesis donde queden reflejados los principales hitos, tecnologías y personajes destacados en la historia de Internet que aparecen en el artículo.
  • Cada hito se debe describir de forma breve y concisa, con tus palabras; no se trata simplemente de copiar y pegar desde textos encontrados en Internet.
  • Selecciona un mínimo de 20 hitos y un Máximo de 50.
  • Aunque puedes hacer simplemente una lista, es mucho mejor que utilices una herramienta gratuita, como venngage.com, para incluir elementos gráficos a tu timeline. De este modo será mucho más amigable y fácil de leer.

Plantilla para la valoración de las intervenciones en el debate respondiendo a estas propuestas:

  • ¿Están presentes los hitos y acontecimientos más importantes de la historia Internet?
  • ¿Los hitos están descritos de forma breve y concisa?
  • ¿El formato del timeline es amigable y fácil de leer?
  • ¿Se incluye un mínimo de 20 hitos y un máximo de 50?
  • Valorar con el desplegable del foro entre una y cinco estrellas (de menor a mayor calidad).

© José R. Quevedo

© Presente edición: Máster en Información Digital. UPF Barcelona School of Management

Esta obra está bajo una licencia Creative Commons

Reconocimiento-NoComercial-SinObraDerivada 3.0 Unported