▷ Sabiduría semanal que puedes leer en pocos minutos. Añade nuestra revista gratuita a tu bandeja de entrada. Lee gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Liderazgo, Dinero, Startups, Políticas, Ecología, Ciencias sociales, Humanidades, Marketing digital, Ensayos, y Sectores e industrias.

Historia de Internet

▷ Lee Gratis Nuestras Revistas

Historia de Internet

Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este la historia de internet. [aioseo_breadcrumbs]

Historia Inicial de la Comercialización y Adaptación en Internet

Nota: puede resultar relevante la lectura de la historia del comercio electrónico y el desarrollo histórico de la multimedia.

La adopción masiva de Internet en Gran Bretaña sólo se produjo hacia el final de la burbuja puntocom, y persistió mucho después de que ésta hubiera estallado. El momento del despegue fue el verano de 1999. Entre principios de 1999 y 2002, la proporción de hogares británicos con acceso a Internet se disparó del 13% al 46% (Encuesta de Gasto Familiar 2000; Oficina de Estadísticas Nacionales 2008). En 2008, esta proporción había aumentado hasta el 65% (Office for National Statistics 2008). Así pues, en poco menos de una década, las personas con fácil acceso a Internet habían pasado de ser una pequeña minoría a dos tercios de la nación, un cambio comparable en escala e importancia al crecimiento de la propiedad de la televisión durante la década de 1950. Apuntalando esta revolución silenciosa estaba la rápida difusión de la propiedad de ordenadores en los hogares (de poco más de la mitad de los hogares en 2002 al 70% en 2007). El despegue de Internet en Gran Bretaña coincidió con su auge en otros lugares del mundo económicamente desarrollado, desde Finlandia hasta Corea del Sur. Sin embargo, los incunables de Internet (por emplear un término latino utilizado con frecuencia para describir el desarrollo temprano del libro impreso) se extendieron durante un periodo mucho más largo. Los orígenes de Internet se remontan a un proyecto del Dr. Strangelove iniciado en plena Guerra Fría.

Orígenes de Internet

Internet es un vástago del Pentágono. Cuando la URSS lanzó el primer satélite espacial en 1957, el Departamento de Defensa estadounidense respondió creando la Agencia de Proyectos de Investigación Avanzada (ARPA) con el objetivo de movilizar más plenamente a las universidades y laboratorios de investigación estadounidenses en apoyo del esfuerzo del país en la guerra fría. Entre los numerosos proyectos de la nueva agencia figuraba un plan para promover la informática interactiva, mediante la creación de ARPANET, la primera red informática avanzada del mundo. Aunque la red se concibió originalmente como una forma de compartir el costoso tiempo de ordenador, adquirió posteriormente una razón de ser más importante. La red informática facilitaría, se argumentó, el desarrollo de un sofisticado sistema militar de mando y control. También proporcionaba un medio de mantener los canales de comunicación en caso de ataque nuclear de la Unión Soviética. Cuando ARPANET se identificó como parte de la última línea de defensa de Estados Unidos contra el “imperio del mal”, se convirtió en una prioridad de gasto. El desarrollo de la tecnología de conmutación de paquetes y la creación de una red informática en rápida expansión -ambos aspectos fundamentales para el nacimiento de Internet- recibieron una financiación masiva del Departamento de Defensa estadounidense. El gasto militar también ayudó indirectamente a Internet fomentando condiciones externas favorables a su desarrollo. El ejército financió el primer ordenador estadounidense en 1946. Tan grande fue el apoyo posterior de las fuerzas armadas a “la naciente industria informática” que ésta se convirtió, en palabras de un distinguido analista, en “prácticamente una filial militar” (Winston 1998: 218). Este respaldo financiero contribuyó a establecer a EEUU como el principal fabricante de ordenadores del mundo, y productor de programas informáticos. El Estado estadounidense también patrocinó el programa espacial estadounidense, cuyo subproducto -las comunicaciones por satélite- facilitó el funcionamiento de la Internet mundial. En efecto, el Estado estadounidense suscribió una parte importante del proceso de investigación y desarrollo que dio origen a la Internet moderna. No era algo que el sector privado hubiera emprendido fácilmente porque no era evidente, en los primeros días, que la creación de redes informáticas entre académicos, vinculada al programa de defensa, tuviera ningún futuro comercial. De hecho, el gigante comercial AT&T fue invitado en 1972 a hacerse cargo de ARPANET, el precursor de Internet, y declinó alegando que carecía de potencial de beneficio. Fue el Estado estadounidense el que pagó las facturas en un contexto de escaso interés comercial. Sin embargo, tras sufragar el coste del desarrollo de la tecnología y la creación de una importante base de usuarios, el Estado estadounidense procedió a guiar a Internet hasta el mercado. Durante la década de 1980, el gobierno financió a los fabricantes para que modificaran el diseño de los nuevos ordenadores con el fin de sentar las bases de la interconexión comercial. Al levantamiento de la prohibición del uso comercial de la Internet pública en 1991 le siguió la privatización de la red troncal pública de Internet en 1995. En efecto, Internet se convirtió en un sistema comercial patrocinado por el Estado. El papel desarrollista del Estado estadounidense en la financiación, gestión y posterior flotación comercial de Internet encaja mal con la concepción minimalista y “vigilante nocturno” del Estado en la ideología neoliberal estadounidense. En realidad, se corresponde más estrechamente con la concepción de mercado social del Estado como “empresario capitalista” que en los años 60 y 70 defendieron con ahínco los socialdemócratas europeos. Una de las razones por las que la realidad política estadounidense se desvió de la retórica política fue la importante influencia ejercida por las empresas en la política estadounidense de telecomunicaciones. Sin embargo, la razón mucho más importante fue que el Estado estadounidense destinó enormes recursos a establecer una superioridad militar y tecnológica sobre la Unión Soviética durante el apogeo de la Guerra Fría. No hubo niveles similares de inversión pública en otros lugares, ni siquiera en países donde las condiciones para el desarrollo temprano de Internet eran prometedoras. Gran Bretaña construyó el primer ordenador moderno en la década de 1940; desarrolló una importante industria informática en la década de 1950; y fue el primer país en desarrollar, en prototipo, la conmutación de paquetes en 1968. Pero este auspicioso comienzo no obtuvo un amplio apoyo financiero estatal, especialmente en relación con proyectos informáticos que sólo ofrecían un rendimiento a largo plazo. Hubo que esperar hasta 1981 para que Correos pusiera en marcha un remitente de conmutación de paquetes a gran escala, utilizando, tras este largo retraso, un costoso hardware estadounidense bajo licencia.

Culturas de la invención

Internet fue el producto no sólo del ingenio humano y del patrocinio estatal, sino también de los valores de las personas que lo desarrollaron por primera vez. Los sistemas de procesamiento de datos no tienen una forma fija determinada por alguna lógica tecnológica interna, sino que están influidos por las preocupaciones y los objetivos de sus inventores, y por los contextos en los que operan. Por ejemplo, IBM desarrolló un sistema de comunicación altamente centralizado para organizaciones empresariales, en el que el ordenador principal tenía una posición de maestro-esclavo respecto a los terminales, y la relación de los usuarios con la producción y el consumo del sistema de datos dependía de su posición dentro de la corporación. El sistema IBM reflejaba y reproducía a la vez la cultura jerárquica de la empresa. Por el contrario, Internet surgió de un mundo muy diferente, aunque su supuesto carácter edénico se ha convertido en objeto de mucha mitificación. Según los relatos convencionales, la primitiva Internet reflejaba los valores amantes de la libertad de los científicos estadounidenses que la diseñaron y de los activistas de base que la hicieron suya. Este amor por la libertad quedó luego asegurado por la libertad del mercado, asegurando que Internet se convirtiera en un gran motor de la ilustración humana. Hay suficiente verdad en este relato para garantizar su longevidad. Sin embargo, simplifica enormemente al eliminar o restar importancia a características del desarrollo de Internet que no concuerdan con su argumento. También distorsiona groseramente al no reconocer el conflicto central que se desarrolló entre la libertad de la Red y la afirmación del control del mercado. Lo que ocurrió en realidad difiere de la leyenda. El ejército estadounidense no era un “sugar daddy” benigno y autocomplaciente cuyo papel se limitaba a pagar las facturas. Por el contrario, parece que las técnicas de creación de redes fueron moldeadas de muchas maneras por las prioridades y preocupaciones militares. Una prioridad militar abrumadora era la “capacidad de supervivencia”, es decir, un sistema de comunicación que fuera invulnerable a los ataques devastadores. Esto llevó a los militares a patrocinar un sistema descentralizado, sin un centro de mando vulnerable que pudiera ser destruido por el enemigo. También condujo al desarrollo de una tecnología de red que permitiera que el sistema funcionara si se destruían partes del mismo – un atractivo clave de la conmutación de paquetes que prescindía de las líneas dedicadas y abiertas entre emisor y receptor. Otra prioridad militar era asegurar un sistema de red diverso, ya que era el más adecuado para las diferentes tareas militares especializadas. Esto dio lugar a la estructura modular de la Red, en la que se podían añadir fácilmente diferentes redes, una vez cumplidos los requisitos mínimos. También dio lugar a la incorporación de redes por satélite e inalámbricas para el trabajo en red, ya que éstas se adaptaban bien a las comunicaciones con jeeps, barcos y aviones.

Pero si los militares influyeron mucho en los objetivos de diseño, los informáticos académicos concibieron e implementaron realmente el diseño de la Red. De hecho, los académicos que trabajaban para ARPA disponían de un importante grado de autonomía, ayudados por el hecho de que los objetivos militares coincidían en gran medida con los científicos. Así, la preocupación militar por la capacidad de supervivencia encajaba con el deseo de los distintos departamentos universitarios, que constituían la primitiva Internet, de conservar su libertad e independencia. Del mismo modo, el respaldo militar a la diversidad de redes concordaba con el objetivo académico de hacer de Internet una mejor herramienta de investigación mediante la incorporación de más redes. Cuando se produjo un grave enfrentamiento entre pagadores y científicos por la cuestión de la seguridad, se resolvió amistosamente mediante la división de Internet en redes militares y civiles en 1983. En parte como consecuencia de esta armoniosa relación (mantenida, al parecer, incluso durante la guerra de Vietnam), los científicos estaban en condiciones de imponer sus valores al desarrollo general de la Red. La ideología de la ciencia está fuertemente comprometida con la divulgación abierta de la información y, en principio, con la cooperación intelectual para promover el objetivo compartido del avance científico. Esto se manifestó en la forma cooperativa en que se desarrollaron los protocolos de Internet. También se reflejó en la divulgación abierta de estos protocolos, ya que los constructores de Internet buscaban promover la buena ciencia, no ganar dinero mediante la exclusión de la propiedad. La cultura de la ciencia también fomenta la interacción y el debate, y esto influyó en la forma en que se llegó a utilizar la primitiva Internet. El envío de correos electrónicos pronto eclipsó a la informática a distancia como función principal de la primitiva Internet. Sin embargo, la cultura de la vida académica es, de forma en gran medida inconsciente, excluyente. El trabajo académico rara vez se dirige a personas ajenas a la comunidad de conocimiento pertinente, razón por la cual gran parte de él se entierra en publicaciones especializadas (como ésta) y se expresa en un vocabulario autorreferencial. Esta tradición excluyente también era una característica de la primitiva Internet. Se necesitaban considerables conocimientos informáticos para que la gente se conectara, y los informáticos académicos mostraron poco interés en cambiar esta situación. Si los objetivos militares y los valores científicos fueron las influencias formativas iniciales de Internet, la tercera influencia seminal fue la contracultura estadounidense de la década de 1980. Ésta estaba constituida principalmente por tres subculturas superpuestas (y no siempre mutuamente armoniosas). Una subcultura hippy buscaba la autorrealización individual mediante el desarrollo del autoconocimiento y la liberación de las convenciones represivas; una subcultura comunitaria pretendía promover la unión mediante la transformación de la consciencia y experimentos sociales como la comuna; y una subcultura radical esperaba lograr la emancipación colectiva del capitalismo patriarcal o, de un modo más populista, “dar el poder al pueblo”. Aunque esta contracultura estaba muy en declive en la década de 1980, redefinió el significado y el propósito de Internet. Incluso en los primeros días de ARPANET, el uso del ordenador no se había limitado únicamente al trabajo, ya que algunos de sus usuarios se habían enviado correos electrónicos sobre ciencia ficción. Los servicios comerciales en línea de principios de la década de 1980 (un tema poco investigado) también habían ofrecido salas de chat y la oportunidad de comprar en línea. Pero la contracultura ayudó a desarrollar nuevos usos para la Red. Fue el producto de una larga colaboración entre los informáticos (gratificados por que se les dijera repetidamente que eran “guays”) y los graduados del flower power (que buscaban una nueva forma de aferrarse a sus sueños), mediados por periodistas de moda y empresarios culturales. Los ordenadores fueron reimaginados y adaptados como herramientas de liberación personal, organizadores de comunidades virtuales y armas de lucha política. A menudo fueron las redes de área local, gestionadas normalmente como cooperativas muy dependientes del trabajo voluntario, las que demostraron ser más inventivas. Esto quedó tipificado por el WELL (Whole Earth Lectronic Link), creado en la zona de San Francisco en 1985. Fue idea de Stewart Brand, entonces empresario radical de conciertos de rock, y de Larry Brilliant, médico de izquierdas y defensor del Tercer Mundo. Brilliant inscribió a numerosos antiguos miembros de Hog Farm, una gran comuna agrícola autosuficiente de Tennessee (que supuestamente llegó a contar con más de mil miembros). Crearon una comuna electrónica que creció hasta convertirse en 300 “conferencias” mediadas por ordenador que reunían a activistas sociales y políticos, así como a entusiastas de todo tipo. Uno de sus mayores subgrupos estaba compuesto por seguidores del grupo de rock radical Grateful Dead. Los Deadheads (como se les llamaba irrespetuosamente) pasaban horas en línea discutiendo las enigmáticas letras de los Grateful Dead e intercambiando música grabada en sus conciertos en directo, algo que el grupo apoyaba como parte de su postura pública a favor de la “piratería” de su música. También se desarrollaron redes de base geográficamente dispersas, normalmente creadas por estudiantes en campus universitarios. Entre ellas se encontraban Usenet (1979), BITNET (1981), FidoNet (1983) y PeaceNet (1985) Las más importantes fueron los grupos de noticias Usenet, creados en torno al sistema operativo UNIX. Se crearon inicialmente para debatir cuestiones relacionadas con el software UNIX y la resolución de problemas. Proliferaron hasta abarcar una amplia gama de temas, pasando de tres sitios en 1979 a 11.000 en 1988. Durante estos primeros años, Usenet creó un espacio importante para la expresión de opiniones minoritarias y explotó el potencial global de Internet mediante la creación de amplios enlaces internacionales. La contracultura también contribuyó al surgimiento del capitalismo informático radical. Así, Steve Jobs y Steve Wozniak, que lanzaron Apple en 1980, surgieron del movimiento alternativo. Jobs había viajado a la India en busca de la iluminación personal, mientras que Wozniak estaba muy implicado en la escena del rock radical. En 1982, Wozniak financió personalmente la organización de un festival de rock dedicado a la Era de la Información. En el festival, que atrajo a más gente que Woodstock, había una pantalla de vídeo gigante en la que se proyectaba un sencillo mensaje:

“Hay una explosión de dispersión de información en la tecnología y creemos que esta información tiene que ser compartida. Todos los grandes pensadores sobre la democracia decían que la clave de la democracia es el acceso a la información. Y ahora tenemos la oportunidad de poner la información en manos de la gente como nunca antes.”

Además, la contracultura influyó en los estudiantes de postgrado de los departamentos de informática durante las décadas de 1970 y 1980. Esto reforzó el énfasis en la libertad, la divulgación abierta y la interacción social como influencias formativas en la evolución técnica de la Red. También fomentó una cultura radical entre los informáticos que se movilizó posteriormente para resistirse a la mercantilización de la Red. La cuarta influencia cultural que dio forma al ciberespacio fue una tradición de servicio público. Si Internet se incubó principalmente en Estados Unidos, la World Wide Web fue un invento europeo y surgió de un legado que legó grandes parques, bibliotecas públicas, galerías de arte, sistemas públicos de televisión y radio e industrias cinematográficas de arte y ensayo subvencionadas dispersas por toda Europa. El principal arquitecto de la Web, Tim Berners-Lee, se inspiró en dos ideas clave que son leitmotiv de la tradición de servicio público: la idea de abrir el acceso a un bien público (en este caso, el almacén de conocimientos contenido en los sistemas informáticos del mundo) y la de poner en comunión a las personas entre sí (en este caso, a través del potencial conectivo del ordenador).

Berners-Lee encontraba su realización en el servicio a los demás, y le molestaba la exaltación de los valores del mercado por encima de todo. A menudo le preguntan, dice en su trabajo publicado en 2000, en Estados Unidos (aunque con menos frecuencia en Europa):

¿se arrepiente de no haber ganado dinero con la World Wide Web? Lo que es enloquecedor es la terrible noción [implícita en esta pregunta] de que el valor de una persona depende de lo importante y del éxito financiero que tenga, y que esto se mide en términos de dinero… El núcleo de mi educación fue un sistema de valores que ponía la ganancia monetaria bien en su sitio.

La decisión de Berners-Lee de no promover la Web a través de una empresa privada se debió principalmente a la preocupación de que pudiera desencadenar la competencia y conducir a la subdivisión de la Web en dominios privados. Esto habría subvertido su concepción de “un medio universal para compartir información”. En su lugar, convenció al CERN (Conseil Européen pour la Recherche Nucléaire, antiguo título de la Organización Europea para la Investigación Nuclear) para que liberara en 1991 el código de la World Wide Web como regalo gratuito a la comunidad. Posteriormente se convirtió en el director de una agencia de servicio público que regula la Web (World Wide Web Consortium (W3C)), ya que esto le permitió, escribió, “pensar en lo que era mejor para el mundo, en contraposición a lo que sería mejor para una Internet comercial”.

La quinta influencia cultural que dio forma a la Red fueron los valores del mercado. Al principio, éstos parecían benignos y progresistas. Su efecto inicial fue contrarrestar las normas excluyentes de la vida académica democratizando la Red. En 1983, se lanzó un navegador Web comercial (Netscape) que utilizaba imágenes en color e hizo la Web más accesible. De hecho, desempeñó un papel clave en la popularización del uso de la Web. Le siguió la creación de sitios web comerciales que resultaban divertidos de visitar. A mediados de la década de 1990, todos los aspectos de Internet parecían enormemente positivos. Aunque Internet fuera un producto de la maquinaria bélica de una superpotencia, su legado militar terminó en 1990 cuando ARPANET cedió el control de la red troncal pública de Internet a la Fundación Nacional de la Ciencia. Una combinación de valores académicos, contraculturales y de servicio público había creado un espacio público abierto, descentralizado y en gran medida incontrolado. Había establecido una tradición de cooperación en la que los códigos de software se divulgaban libremente. Y había ampliado enormemente los usos que se hacían de la Red, sobre todo mediante la creación de la World Wide Web. La creciente influencia del comercio parecía simplemente extender los beneficios de este nuevo medio a más personas, sin desvirtuar su naturaleza fundamental.

Evolución científica

Antes de seguir examinando el papel del mercado en el desarrollo de Internet y de la Web, merece la pena detenerse en la cadena de innovación que condujo a su creación. La historia tiende a ser escrita por no científicos, lo que favorece que se reste importancia a la dimensión científica de los avances de la comunicación. Una cadena de innovación que condujo a la Web fue, por supuesto, el desarrollo del ordenador.

En la década de 1940 se construyeron los primeros ordenadores digitales electrónicos operativos: el “Colossus” británico en 1943 y el más avanzado, el ENIAC estadounidense en 1946. Estos ordenadores y los posteriores de “primera generación” eran máquinas enormes, que costaban enormes sumas, atendidas por un sacerdocio de bata blanca y dependientes de miles de válvulas notoriamente poco fiables. Posteriormente, tres desarrollos clave transformaron el ordenador, permitiéndole hacerse más pequeño y potente. En 1947 se inventaron los transistores, que sustituyeron gradualmente a las válvulas de los ordenadores. En 1958, se introdujeron los circuitos integrados en forma de chips de silicio que incorporaban miles de transistores miniaturizados. A principios de la década de 1960, esto condujo a la introducción en organizaciones de investigación y empresariales de los llamados “miniordenadores”, aunque éstos eran enormes para los estándares actuales. Todo ello culminó en el último avance decisivo: el microprocesador inventado por Ted Hoff en 1969. Se trata del circuito integrado que incorpora las funciones de la unidad central de procesamiento de un ordenador, su ‘corazón’. Su invención condujo al desarrollo de ordenadores personales basados en microprocesadores, el primero de los cuales se fabricó en 1975 en forma de kit de bricolaje para aficionados. Los últimos años de la década de 1970 marcaron el inicio del auge de los ordenadores personales que ha continuado hasta nuestros días. Una segunda vertiente de la innovación, el desarrollo de las redes informáticas, también puede considerarse un proceso acumulativo. Durante la década de 1950 evolucionó un lenguaje informático que se basaba en el trabajo pionero de una serie de científicos, entre los que destacaba Konrad Zuse. Esto aún dejaba sin resolver cómo los ordenadores, que utilizaban sistemas diferentes, podían comunicarse entre sí.

El primer paso fue la construcción de un ordenador intermediario (IMP) a finales de la década de 1960 que funcionaba como enlace de procesamiento entre el ordenador “anfitrión” y la red. A esto le siguió, a principios de los 70, el desarrollo de convenciones (protocolos) que regían el diálogo entre las máquinas. Esto comenzó con la formulación de códigos compartidos para transportar las comunicaciones (Protocolo de Control de Transmisión, abreviado TCP), y para direccionar los ordenadores (Protocolo de Internet, abreviado IP). Éstos se adoptaron finalmente tanto en Estados Unidos como en el resto del mundo, aunque sólo después de muchas dificultades. El otro avance vinculado fue el desarrollo de la conmutación de paquetes durante las décadas de 1960 y 1970. Se trataba de un ingenioso sistema en el que los mensajes se disgregaban en unidades (paquetes) antes de su envío; se enviaban por diferentes rutas, en función del flujo del tráfico de comunicaciones; y se volvían a ensamblar a su llegada. Cada paquete se envolvía en una especie de sobre digital que contenía especificaciones de transporte y contenido. Los protocolos que rigen la interacción entre ordenadores y la tecnología de conmutación de paquetes hicieron posible el desarrollo de Internet. Ésta comenzó en 1969 como una red informática (ARPANET) establecida por el Departamento de Defensa de Estados Unidos, con nodos en cuatro universidades estadounidenses. Creció rápidamente en los años 70 y 80 hasta convertirse en la columna vertebral de un sistema mayor que englobaba varias redes. Su auge fue paralelo al desarrollo de una segunda gran red iniciada en 1982 por la Fundación Nacional de la Ciencia estadounidense. Esta segunda red se vinculó a la primera; creó enlaces con redes nacionales de todo el mundo a finales de los 80; y asumió el papel de columna vertebral de ARPANET en 1990. En Estados Unidos también se produjo un proceso acumulativo de convergencia, en el que diversas redes externas -empresariales, comerciales y de servicios de base- desarrollaron vínculos más estrechos con el sistema público estadounidense durante el periodo comprendido entre 1983 y 1995. La Internet moderna, en el sentido de red mundial de redes informáticas de acceso público, alcanzó la mayoría de edad a finales de la década de 1980 y despegó en la década de 1990. Un desarrollo auxiliar que facilitó la construcción de esta red mundial fue la mejora de la infraestructura moderna de comunicaciones. Al principio, las redes informáticas se realizaban a través de cables telefónicos, pero más tarde se empezó a utilizar de forma rutinaria tanto el satélite como el cable avanzado. La comunicación por satélite data del lanzamiento de Telstar en 1962, pero sólo se desarrolló plenamente a partir de la década de 1970. Los primeros sistemas locales de cable de banda ancha se tendieron a principios de la década de 1980, mientras que los sistemas transcontinentales se extendieron por los océanos Atlántico y Pacífico a finales de esa misma década. Entre 1996 y 1999, la capacidad de los cables transatlánticos se multiplicó por diez, lo que subraya que el mar sigue siendo tan importante como el cielo para hacer frente al creciente volumen del tráfico de comunicaciones.

La tercera vertiente de la innovación adoptó la forma de avances en el software informático. El venerado pionero del diseño de software es Vannevar Bush. Defendió en los años 30 y 40 que los ordenadores no debían verse como gigantescas máquinas calculadoras, sino como una tecnología que puede ayudar a los seres humanos a almacenar, recuperar y analizar de forma creativa todo tipo de información. Algunos afirman discernir en su esbozo de 1945 de una hipotética máquina “memex” los elementos esenciales de lo que luego fueron las barras de desplazamiento, las páginas de inicio, las pantallas de ordenador y el escaneado. Sin embargo, no fue hasta 1963 cuando Douglas Engelbart y su equipo desarrollaron de forma concreta un software reconociblemente moderno, que incluía interfaces basadas en gráficos y el ahora omnipresente “ratón”, el dispositivo señalador utilizado para recorrer la pantalla del ordenador. A esto le siguió la aparición del software de hipertexto, desarrollado por primera vez de forma sencilla por Ted Nelson en 1965 y perfeccionado enormemente con posterioridad. La principal ventaja del hipertexto es que permite a los usuarios de ordenador pasar de una parte de un texto a otra enlazada haciendo clic en un icono o símbolo. De este modo, ofrece vías intelectuales flexibles y laterales. En 1990, Tim Berners-Lee y sus colaboradores del CERN de Ginebra inventaron la World Wide Web. Ésta adoptó la forma de un programa informático que permitía a las personas acceder, enlazar y crear comunicaciones en una única “red” global de información. Esto se consiguió mediante el desarrollo de nuevas convenciones que regían la interacción entre máquinas. Una convención especificaba la ubicación de la información (URI, más tarde revisada normalmente a URL, Localizador Uniforme (o Universal) de Recursos); una segunda especificaba la forma de transacción de la información (HTTP, Protocolo de Transporte (o Transferencia) de Hipertexto); y la tercera una forma uniforme de estructurar los documentos (HTML, Lenguaje de Marcado de Hipertexto). Antes de su adopción generalizada, la gente experimentaba enormes dificultades para encontrar información en la Red, y también para divulgar información que otros pudieran encontrar. Los distintos protocolos que habían evolucionado para intercambiar información no eran compatibles y no existía una forma generalmente aceptada de vincular la información de distintos documentos. Aunque la Web resultó ser un desarrollo trascendental, se basó en avances que la habían precedido. La Web se superpuso a Internet e incorporó sus protocolos. Sin la existencia previa de la interconexión informática mundial y el desarrollo de la infraestructura de comunicaciones que la sustenta, la Web no habría sido posible. La temprana popularización de los ordenadores personales también fue una condición previa de la Web. Proporcionó la potencia informática dispersa que permitió a los usuarios poner sus propios contenidos en la Web, así como los medios técnicos para ejecutar el software de la Web. Por último, la invención de Berners Lee incorporó innovaciones de software anteriores, sin olvidar los enlaces de hipertexto que fueron una característica clave de su proyecto. De hecho, la World Wide Web puede considerarse, en cierto sentido, como parte de un continuo de desarrollo de software: las innovaciones posteriores facilitaron la navegación por la Web e introdujeron una dimensión de audio y vídeo. Así pues, la Web marcó la confluencia de tres vertientes diferentes de innovación. Unió la informática personal a la creación de redes mediante software conectivo. Esto dio lugar a un desarrollo tecnológico con el potencial de cambiar el mundo. Internet y la Web proporcionan un medio de comunicación global en un contexto en el que el sistema mundial de medios de comunicación es abrumadoramente nacional y local. Permite a individuos y grupos tanto enviar como recibir comunicaciones, en contraste con los flujos de comunicación unidireccionales de los medios convencionales. Es muy versátil y se presta a diferentes usos. Sobre todo, Internet y la Web empezaron como la parte menos controlada del sistema de medios de comunicación, no sujeta inicialmente ni a la dominación estatal ni a la del mercado.

Comercialización de Internet

La recepción en gran medida acrítica que se dio a la creciente comercialización de la Red a mediados de los noventa concordaba con el ethos de la época. Era una época en la que el capitalismo desregulado se pregonaba como la única forma de organizar una economía eficiente y en la que la victoria del capitalismo sobre el comunismo se aclamaba como el “fin de la historia”. La música ambiental de la época se vio reforzada por las efusiones de los expertos de la Red. El gurú del Instituto Tecnológico de Massachusetts (MIT), Nicholas Negroponte, marcó la pauta en un célebre libro, publicado en 1995, que presentaba Internet como la pieza central de una revolución digital democratizadora. La industria de la información”, declaró, “se convertirá más en un negocio de boutiques… los clientes serán las personas y sus agentes informáticos”. El público, predijo, sacará lo que quiera de Internet y de los medios digitales, en lugar de aceptar lo que les impongan los gigantes de los medios. El cambio fundamental ya estaba sobre nosotros. El consumo de medios de comunicación, afirmaba, se está “personalizando” según los gustos individuales, y “los imperios monolíticos de los medios de comunicación de masas se están disolviendo en un ejército de industrias artesanales”, dejando obsoletas “las leyes de propiedad cruzada de la era industrial”.

Del mismo modo, Mark Poster (1995), otro venerado experto en la Red, también llegó a la conclusión de que estamos entrando en la “segunda era de los medios de comunicación” en la que el monopolio está siendo sustituido por la elección, la distinción entre emisores y receptores está llegando a su fin y los gobernados se están transformando en gobernantes. En estos y en la mayoría de los demás comentarios, el mercado no se veía como una limitación al poder emancipador de la Red. La coalición que había creado la Internet anterior al mercado se fracturó a mediados de la década de 1990. Algunos informáticos académicos crearon empresas de Internet y se hicieron millonarios. Otros aceptaron en silencio las restricciones de las licencias de software. Los administradores universitarios buscaron formas de sacar dinero de sus departamentos de informática. Surgió una nueva generación de directivos de la industria informática, cuya informalidad y populismo parecían diferenciarlos de la estirada cultura corporativa de sus predecesores. En este nuevo entorno, el capitalismo parecía estar de moda: la forma de ganar dinero, expresar la individualidad y evitar que el Estado tomara el control. El lenguaje utilizado para hablar de los nuevos medios de comunicación cambió. La metáfora de la “superautopista de la información”, con su asociación de los años 50 al modernismo estatista, dio paso a la imagen romántica del “ciberespacio”, derivada de la ciencia ficción. Todo parecía maravilloso, transformador, positivo.

Sin embargo, la fuerza acelerada de la comercialización empezó a cambiar Internet de formas que no se habían previsto. La divulgación abierta de información en pos del avance científico que había dado forma a la Red empezó a ser sustituida por la imposición de derechos de propiedad intelectual en pos del beneficio.

Los códigos de los programas informáticos ya no se divulgaban abiertamente de forma automática, sino que a menudo se restringían mediante acuerdos de licencia. Aún más potencialmente socavador de las tradiciones de los inicios de la Red fue el deseo transparente de algunas de las principales empresas de la Red de cobrar cuotas por visitar los sitios web. Pretendían que las visitas gratuitas fueran sólo una medida temporal, con el fin de fomentar un “hábito” por el que los usuarios estuvieran dispuestos a pagar una vez que estuvieran “enganchados”. Esto amenazaba con cambiar Internet hasta hacerlo irreconocible, transformando un procomún electrónico abierto en recintos privados de pago. La creencia de que las “voces periféricas” pasarían a ocupar un lugar central en la era digital -central en una ingenua visión de Internet de mediados de los noventa- se hizo cada vez más inverosímil. Esto se debió en parte a que algunos motores de búsqueda evolucionaron hasta convertirse en portales generales que “generalizaron” la experiencia de Internet. Su objetivo central era retener a los usuarios el mayor tiempo posible para vender sus “globos oculares” a los anunciantes y, también posteriormente, vender información sobre su comportamiento en la Red. Esto llevó a los portales generalistas a construir sitios web ‘hub and spoke’, en los que se animaba a los usuarios a seguir rutas definidas y regresar a la base de operaciones antes de aventurarse de nuevo a salir. Estos caminos dieron lugar a “canales” que estructuraron la experiencia en Internet. Por ejemplo, Yahoo! UK ofrecía, en 2002, una elección básica entre canales de compras, información, diversión, negocios, personal y conexión, mientras que sus principales rivales ofrecían variaciones de lo mismo.

Dentro de los “canales” de contenido, se daba importancia a lo que era popular (ya que el objetivo era retener a los usuarios) y también a lo que estaba patrocinado. Así, en 2002, AOL (American Online) Reino Unido tenía un vínculo con Blockbuster para el entretenimiento; MSN (Microsoft Network) Reino Unido con Encarta para el “aprendizaje”; y Freeserve con Barclays Bank para la información empresarial. En resumen, el auge de los portales generalistas fomentó un uso intermedio y convergente de Internet, fuertemente dependiente de las fuentes establecidas. Esta forma de organizar la experiencia de Internet fue eclipsada cada vez más por el modelo menos mediador de Google. Sin embargo, su forma de ordenar los listados tiende a dirigir a la gente hacia los sitios más populares y a hacer que se pasen por alto los sitios menos destacados. La mayoría de la gente no va más allá de las primeras entradas de Google sobre un tema concreto. La seductora visión de boutiques, industrias artesanales y consumidores soberanos, conjurada por los académicos californianos de la Red, resultó estar muy lejos de la realidad. Un pequeño número de empresas, sobre todo Microsoft y AOL, se hicieron con la primera posición en el desarrollo comercial temprano de la Red. La creciente popularidad de la Red impulsó entonces a las principales corporaciones mediáticas -Time Warner, Vivendi, Disney, Bertelsmann, News Corporation, entre otras- a lanzar sofisticados sitios web o a formar empresas conjuntas con grandes compañías de telecomunicaciones o de software para establecer una presencia significativa en línea. Estas superpotencias de los medios de comunicación contaban con enormes activos: catálogos retrospectivos de contenidos, grandes reservas de efectivo y experiencia, estrechos vínculos con la industria publicitaria, visibilidad de marca y recursos de promoción cruzada. Aunque sus empresas de nueva creación a veces se tambaleaban, tuvieron suficiente éxito como para dominar el ciberespacio en un periodo de tiempo extraordinariamente corto. En 1998, más de tres cuartas partes de los 31 sitios web de noticias y entretenimiento más visitados estaban afiliados a grandes empresas de medios de comunicación. En 1999, los sitios web de las cadenas de televisión y MSNBC fueron los más visitados por los “usuarios de noticias”. El efecto de las incursiones de las grandes empresas de medios de comunicación en el ciberespacio fue también elevar el nivel de costes imperante. Crear y mantener un sitio web multimedia que atrajera a la audiencia se convirtió en un negocio caro, que ofrecía pocas oportunidades a quienes disponían de recursos limitados. Un efecto secundario de la comercialización fue el fomento de la publicidad en la Red. La industria publicitaria introdujo en primer lugar el anuncio en forma de banner (una franja horizontal que recuerda a los primeros anuncios en pantalla de la prensa). A éste le siguieron anuncios de diferentes formas, como los “botones”, los “rascacielos” y los “intersticiales” emergentes, así como nuevos tipos de anuncios que contienen elementos audiovisuales o dinámicos (más parecidos a los anuncios de televisión). La venta en línea al público también adquirió mayor protagonismo, especialmente tras la adopción en 1997 de un protocolo estándar para las transacciones con tarjeta de crédito. En este nuevo mundo comercial, las convenciones profesionales -como mantener un “cortafuegos” entre la redacción y la publicidad- se debilitaron. En particular, la aparición de sitios web independientes y de promoción convirtió a los anunciantes en controladores del contenido editorial, en lugar de compradores de espacio, designado como publicidad, en entornos controlados por personal profesional de los medios de comunicación – la norma fuera de línea. Típico de este nuevo fenómeno de la Red fue el sitio web de Pepsi que ofrecía, en 2002, un minisitio de Britney Spears, juegos, música y la oportunidad de conocer la “alegría de Pepsi”. Este enfoque “sin anuncios” puede dar lugar a abusos. Naomi Klein cita como ejemplo de normas rebajadas un sitio web llamado Parent Soup, pagado por Fisher-Price, Starbucks, Procter and Gamble y Polaroid. Se autodenomina “comunidad de padres” e imita a un grupo de noticias dirigido por usuarios. Sin embargo, cuando los padres acuden a Parent Soup en 1999-2001, recibían “sabiduría de marca” como: la forma de mejorar la autoestima de su hija es sacarle fotos Polaroid.

INICIO XXX

Nueva capa de control

Una característica central de los primeros tiempos de la Red, su ausencia de control central, se debilitó como consecuencia de la comercialización. Los empresarios de la Red desarrollaron las “cookies” -marcadores depositados por los sitios web en los discos duros de los ordenadores- para registrar y transmitir información sobre el comportamiento de los usuarios. También introdujeron procedimientos de autenticación para identificar a los usuarios y el estado de las comunicaciones (por ejemplo, mediante el desarrollo de una marca de agua digital que registra si una comunicación ha sido pagada). Durante la década de 1990 surgió toda una nueva tecnología de vigilancia comercial. Esta vigilancia se desplegó de forma muy amplia. En Estados Unidos, se calcula que el 92% de los sitios web comerciales agregan, clasifican y utilizan con fines comerciales datos sobre el uso que la gente hace de la Red, estén donde estén (como escribió Lessig en 1999). La mayoría de las personas se hacen vulnerables a esta vigilancia al renunciar a sus derechos de privacidad para poder acceder a los sitios web. La protección de los “derechos humanos” sobre la privacidad es mínima en Estados Unidos, aunque existe más protección en Europa. Además, el uso que la gente hace de la Red se vigila a menudo en el trabajo. Según un estudio publicado en 2000, el 73% de las empresas estadounidenses comprueban rutinariamente el uso que hacen sus trabajadores de la Red (según señalaba Castells en su trabajo publicado en 2001). Así pues, Internet ha dejado de ser un lugar anónimo para convertirse en un invernadero (aunque muchas personas parecen no ser conscientes de ello cuando se conectan en la intimidad de su hogar). Además, aunque la tecnología de vigilancia se desarrolló con fines puramente comerciales (para vender datos sobre los usuarios, proteger las transacciones financieras y evitar la piratería), empezó a utilizarse de otras formas. A finales de la década de 1990, las agencias gubernamentales utilizaron la tecnología de vigilancia para identificar a los usuarios de la Red, compartir información sobre ellos y perseguirlos (como en el caso de las redes internacionales de pedofilia). Aunque no hay nada malo en que los gobiernos intervengan para proteger a los vulnerables, como los niños víctimas de abusos, esto subraya el hecho de que Internet ya no está “sin control”. De hecho, los gobiernos autoritarios se han vuelto expertos en utilizar el punto débil del sistema de Internet -los proveedores de servicios de Internet- para husmear y censurar. En Estados Unidos (y en otros países) también se ejerció presión empresarial para que la Red estuviera sujeta a una mayor protección de la propiedad. En 1976, Estados Unidos aprobó una Ley de Derechos de Autor que ampliaba los derechos de autor al software. Esto se vio reforzado en 1998 por la Ley de Derechos de Autor para el Milenio Digital, que reforzó enormemente las disposiciones legales contra la “elusión”. Su efecto fue sobreproteger los derechos de propiedad intelectual en el ciberespacio a expensas del “uso justo” (Lessig 2001). Lo más probable es que en el futuro se ejerza una mayor presión para reforzar aún más los derechos de propiedad intelectual, tanto en las jurisdicciones nacionales como en las internacionales, ya que las grandes discográficas han perdido hasta ahora su batalla contra la piratería musical. Puede ser de interés, en especial, contenidos como los siguientes:

Oposición de los trabajadores informáticos

En resumen, Internet cambió profundamente como consecuencia del establecimiento de un sistema de mercado, la exitosa incursión de las grandes discográficas en el ciberespacio y la imposición de una nueva capa de control tecnológico. Sin embargo, estas tendencias no quedaron sin oposición. Cuando la coalición progresista que dio forma a la primitiva Internet se desmoronó, un grupo tomó medidas prácticas para preservar su legado. Se trataba de una comunidad informal de informáticos que se resistían a la imposición del “software propietario”, es decir, programas cuyo uso estaba restringido por patentes privadas o derechos de autor. La revuelta de los empollones comenzó en 1984, cuando Richard Stallman, un programador radical del MIT, creó la Fundación para el Software Libre. Se había indignado cuando un colega se negó a pasarle el código de una impresora alegando que ahora estaba restringido por una licencia. Esto le pareció a Stallman algo nuevo y ajeno, una forma forzada de egoísmo que violaba la norma de cooperación en la que se había basado su vida profesional. Su indignación se convirtió en ira cuando AT&T anunció su intención de conceder licencias del sistema operativo UNIX, ampliamente utilizado y hasta entonces sin restricciones. En su opinión, esto equivalía a la captura corporativa, con toda la autoridad de la ley, de un programa que había sido producido comunitariamente. Richard Stallman, una figura barbuda y romántica con aspecto de apóstol, renunció a su trabajo seguro y se dedicó a construir casi en solitario una alternativa libre al sistema operativo UNIX. Se llamó GNU (que significa “GNU no es UNIX”). Entre 1984 y 1988, Stallman diseñó un editor y un compilador, que fueron aclamados por la comunidad informática como obras maestras de habilidad e ingenio. Después, las manos de Stallman se estropearon por exceso de trabajo y bajó el ritmo. El proyecto GNU aún estaba lejos de completarse hasta que un entonces desconocido estudiante finlandés, Linus Torvalds, que había oído a Stallman dar una carismática charla en Helsinki, llenó el vacío. Con la ayuda de sus amigos, Torvalds desarrolló en 1990 el núcleo que faltaba del sistema GNU. La comunidad informática mejoró colectivamente el sistema GN U/Linux resultante, convirtiéndolo en uno de los más fiables del mundo. Tal fue su éxito sostenido que IBM decidió en 1998 engancharse al movimiento de protesta. Respaldó oficialmente el sistema Linux, accediendo a invertir dinero en su desarrollo posterior sin pretender ejercer ninguna forma de control propietario. IBM también adoptó, en los mismos términos, el servidor Apache. Éste derivaba de un programa liberado libremente por una agencia financiada con fondos públicos, el Centro Nacional de Aplicaciones de Supercomputación (NCSA) de la Universidad de Illinois. Inicialmente lleno de errores, fue transformado por la comunidad hacker mediante mejoras acumulativas (“parches”), y rebautizado como Apache. Se convirtió en un servidor gratuito de uso generalizado, y su éxito contribuyó de nuevo a que IBM lo adoptara como código abierto. Lo que apuntaló en parte la eficacia de esta protesta concertada fue que contó con la protección del Estado (algo que los libertarios radicales tienden a ignorar). La Fundación para el Software Libre creada por Stallman liberó sus proyectos bajo una Licencia Pública General (GPL). Ésta contenía una cláusula “copyleft” (el juego de palabras es típico del humor de los empollones informáticos) que exigía que cualquier mejora posterior del software libre se pusiera a disposición de la comunidad, bajo la GPL.

La ley de contratos y derechos de autor se desplegó así para impedir que las empresas modificaran el software libre y luego reclamaran la versión resultante como de su propiedad. También se utilizó para garantizar que los futuros perfeccionamientos del software libre fueran “regalados” de nuevo a la comunidad. Una fórmula legal similar fue adoptada por el movimiento menos militante del código “abierto” (a diferencia del “libre”), aunque de forma más permisiva. El movimiento del código abierto mantuvo viva la tradición de la divulgación abierta de la información. Perpetuó las normas cooperativas de la comunidad científica en las que la gente realiza mejoras, o desarrolla nuevas aplicaciones (como la World Wide Web), sobre la base del acceso abierto a la información, y luego devuelve el favor poniendo a libre disposición la base de sus descubrimientos. También mantuvo la fe en los valores de la ciencia académica, con su creencia en la cooperación, la libertad y el debate abierto en pos del avance científico. El resultado fue la creación de alternativas prácticas al software propietario. ¿Quiénes eran estas notables personas y qué les inspiró para desafiar al poder corporativo en la industria informática? Eran un grupo relativamente “homo géneo”, formado principalmente por trabajadores informáticos altamente cualificados empleados por universidades, laboratorios de investigación y la industria informática, así como por estudiantes universitarios y entusiastas de la informática bien informados. Tendían a suscribir un conjunto compartido de creencias. Éstas pueden resumirse en cinco preceptos: la información debe ser libre; el respeto debe ganarse a través de logros constructivos, no de la posición o las credenciales; nunca hay que fiarse de la autoridad; los ordenadores tienen el poder de mejorar el mundo; por esta razón, deben ponerse a trabajar en beneficio de la humanidad. Aunque estos motivos eran filantrópicos, también está claro que muchos obtenían satisfacción de la emoción de la creatividad al construir o mejorar nuevos programas. Les gratificaba el reconocimiento que recibían de sus compañeros. Muchos derivaron también un sentido de propósito de trabajar por el bien de la sociedad, y de vivir según un conjunto de valores superiores a los de la cultura corporativa conformista. La tradición del código abierto combinaba así placer y filantropía, y se basaba en una cultura híbrida que casaba el individualismo con el colectivismo. Esta inusual combinación se expresa sucintamente en una estrofa citada con admiración por Richard Stallman: Si no soy para mí, ¿quién será para mí? Si sólo soy para mí, ¿qué soy? Si no es ahora’, ¿cuándo? A medida que se desarrollaba la revuelta, surgieron divisiones en líneas generacionales. Los informáticos más veteranos, como Stallman, pretendían preservar los valores de la Internet anterior al mercado, mientras que los más jóvenes, como Torvalds, tendían a ser menos antimercado. El auge de la industria informática también mermó las filas de los rebeldes, separando a los dedicados de los diletantes. Como comenta Eric Raymond, otro cronista de la revuelta de los hackers ‘la demanda comercial de programadores ha sido tan intensa durante tanto tiempo que cualquiera que se deje distraer seriamente por el dinero ya se ha ido. Nuestra comunidad se ha autoseleccionado por otras cosas: logros, orgullo, pasión artística y entre ellos” (citado en Williams 2002). Sin embargo, en la leyenda de los medios de comunicación, los hackers son destructivos y amenazadores: propagan virus, irrumpen en los sistemas informáticos de forma que ponen en peligro vidas y atraen los robos en línea. Esta demonización oscurece una distinción crucial entre “hackers” y “crackers”, sombreros “blancos” y “negros”, los que trabajan por el bien de la sociedad y los que son antisociales, que se entiende ampliamente dentro de la comunidad informática Meter a los dos en el mismo saco es tratar de deslegitimar la oposición que se desarrolló contra la comercialización de Internet.

La resistencia de los usuarios

La revuelta de los empollones fue eficaz sobre todo porque contó con el respaldo de consumidores recalcitrantes. La Internet anterior a la comercialización había acostumbrado a la gente a esperar que el software de Internet y los contenidos web fueran gratuitos. A las empresas de la Red les resultó difícil reeducarles para que pagaran. Esto queda ilustrado por los primeros intentos de comercializar la Web. En 1993, la agencia financiada con fondos públicos, NCSA, lanzó gratuitamente a la Red su navegador pionero, Mosaic. En seis meses, se descargaron un millón de copias o más. Los miembros del equipo de Mosaic crearon entonces una empresa privada y ofrecieron una versión comercial mejorada, Netscape, a modo de prueba gratuita durante tres meses. Sin embargo, las demandas de pago, tras la prueba gratuita, fueron ampliamente ignoradas. La dirección de Netscape tuvo entonces que decidir si insistía en el pago o cambiaba de táctica. Optó por hacer gratuito su servicio porque temía -probablemente con razón- que los continuos intentos de cobrar harían que la gente se pasara a una alternativa gratuita. En su lugar, Netscape recurrió a la publicidad y la consultoría como principal fuente de ingresos (como señalaba Berners-Lee en 2000). Las empresas que intentaron cobrar tasas por el uso de sitios web también tuvieron problemas. Un gran número fracasó (hay amplia literatura sobre ello a partir del año 2000). El único tipo de contenido web por el que un número significativo de personas parecía dispuesto a pagar era la pornografía o la información financiera. Esto también tuvo el efecto de impulsar a las empresas pioneras de la Red hacia la publicidad como principal fuente de ingresos. Las virtudes de la publicidad en la Red fueron ampliamente pregonadas. En un principio, la Red llegaba a un público principalmente joven y acomodado. Su tecnología permitía dirigir la publicidad a grupos especializados con una precisión casi quirúrgica. Sobre todo, la Red ofrecía un punto de venta único: los consumidores podían hacer clic en un anuncio, ser conducidos directamente al sitio del anunciante, obtener más información y comprar el producto o servicio en cuestión. El único problema era que parecía haber una resistencia intrínseca a la publicidad en la Red porque desde el principio se consideraba intrusiva. Una señal de alerta temprana se produjo en 1994, cuando el bufete de abogados estadounidense Canter and Siegel publicó un anuncio de su servicio de asesoramiento sobre leyes de inmigración en miles de grupos de noticias. Al día siguiente, recibió tal avalancha de respuestas abusivas (“flames”) que su proveedor de servicios de Internet se colapsó repetidamente.

En 1995, una encuesta reveló que dos tercios de los estadounidenses no querían ningún tipo de publicidad en la Red. La gente se volvió experta en evitar los anuncios pulsando el botón de suprimir. Las nuevas formas de atraer el interés de los usuarios se toparon con problemas: los anuncios audiovisuales eran caros y tardaban en descargarse. En el Reino Unido, los burdos anuncios en banners seguían representando el 52% del gasto en publicidad en la red en 2001. Peor aún, el grado de resistencia de los usuarios a la publicidad se hizo vergonzosamente transparente, y se reflejó en los bajos índices de “clics” en los sitios publicitarios. Por todas estas razones, la publicidad en la Red creció con relativa lentitud, y en 2002 sólo representaba el 1% del gasto total en publicidad en los medios de comunicación del Reino Unido (Advertising Association 2002). Sin embargo, la publicidad en Internet despegó posteriormente, hasta alcanzar el 16% del gasto total en medios en 2007. La venta directa en la Red también resultó ser mucho más difícil de lo previsto. Tendía a confinarse a una gama limitada de productos como música, eventos en directo, libros y vacaciones. Resultó que a mucha gente le gustaba comprar en persona, mientras que algunos dudaban de la seguridad de las compras en línea con tarjeta de crédito. La toma de conciencia de que la venta al por menor en la red iba a tardar mucho tiempo en establecerse con éxito, y que requeriría una fuerte inversión con un rendimiento diferido y especulativo, fue la causa principal de la caída de las punto-com en 2000-1. La fiebre del Klondike había terminado casi antes de empezar. No sólo las pequeñas empresas de la Red tuvieron problemas. Incluso líderes del mercado como Yahoo se vieron obligadas a emitir advertencias de beneficios, y grandes conglomerados como AOL Time Warner y Vivendi tuvieron que reestructurarse, en parte como consecuencia del fracaso de sus inversiones en la Red. El capital riesgo que había vertido dinero en la economía de Internet perdió la confianza y retiró su apoyo. Sin embargo, lo irónico es que el comercio minorista por Internet sí se expandió durante la década de 2000. En 2008, el 55% de la población británica afirmaba haber comprado algo por Internet en el pasado. La mayoría de ellos (el 81%) lo había hecho en los últimos tres meses (Office for National Statistics 2008). Los artículos más populares comprados en línea tenían que ver con viajes, alojamiento y vacaciones. Pero aunque el número de compradores en línea aumentó de forma constante, el volumen de compras no creció con la misma rapidez (Office for National Statistics 2008). En resumen, la comercialización no terminó de cuajar, en parte porque Internet resultó ser menos rentable de forma inmediata de lo que se había previsto. La publicidad en línea creció lentamente en Gran Bretaña hasta 2003; las compras en línea se desarrollaron aún más lentamente; las empresas punto perdieron dinero y, sobre todo, no se pudo convencer a la mayoría de los usuarios de que pagaran por los contenidos de la Red.

Espacio disputado

La historia de Internet es, pues, una crónica de contradicciones. En su fase predominantemente previa a la comercialización, Internet estuvo poderosamente influida por los valores de la ciencia académica, la contracultura estadounidense y el servicio público europeo. Comenzó como una herramienta de investigación. Floreció hasta convertirse en un patio de recreo subcultural y un medio de inquietudes populares. Y desarrolló la World Wide Web como un espacio público abierto a todos. Sin embargo, esta formación temprana se vio solapada por un nuevo régimen comercial. Las principales organizaciones de medios de comunicación crearon sitios web bien dotados. Los motores de búsqueda, que buscaban cosechar publicidad, señalaban a los visitantes destinos populares. El crecimiento del entretenimiento en línea tendió a marginar el discurso político. Los empresarios de la red intentaron poblar la Web de tiendas virtuales y hacer que los usuarios pagaran por la información. Las empresas informáticas convirtieron el software en mercancías rentables. Se desarrollaron nuevas tecnologías de vigilancia para controlar el comportamiento de los usuarios y ampliar la gestión de los derechos digitales. Sin embargo, el viejo orden se negó a rendirse sin luchar. Los informáticos discrepantes se resistieron al nuevo régimen de derechos de propiedad intelectual impuestos poniendo a disposición de los usuarios software libre o de código abierto. Los usuarios, condicionados por las normas previas al mercado de la Red, se negaron a ser reeducados para convertirse en consumidores de pago. En su lugar, pasaron de los sitios que pretendían cobrar una cuota a los sitios que eran gratuitos. Como resultado, Internet llegó a mostrar características incongruentes. Sigue siendo un sistema descentralizado en el que la información se transmite por vías independientes y variables a través de una potencia informática dispersa. Pero sobre esto se impone una nueva tecnología de vigilancia comercial que permite a los operadores comerciales -y a los gobiernos- controlar lo que la gente hace en línea. De forma igualmente contradictoria, Internet está gestionada por fideicomisos de servicio público, un legado de su pasado anterior a la comercialización, pero la mayoría de los principales actores de la Red son ahora empresas privadas. Sin embargo, si el afán por comercializar la Red se intensificó en la década de 2000, la cultura del bricolaje de la Red también encontró una nueva expresión. Un ejemplo de ello fue la fundación de Wikipedia, una enciclopedia de contenido libre basada en la Web, en 2001. Fue redactada por una creciente legión de voluntarios, que en 2008 contaba con unos 75.000 colaboradores activos. Abarcaba una enorme variedad de temas, recogidos en 10 millones de artículos en más de 260 idiomas. Se convirtió en un fenómeno global, atrayendo a 684 millones de visitantes en 2008; y alcanzó un notable (aunque variable) nivel de calidad, apoyado por el mecanismo autocorrectivo de la revisión, una norma compartida de adhesión a la exactitud factual, salvaguardas discretas y un rastro académico de enlaces hipertextuales. El auge de Wikipedia estuvo acompañado por el crecimiento meteórico de otros sitios web basados en contenidos generados por los usuarios. Facebook fue creado por estudiantes de Harvard en 2004, despegó como red social de una élite joven y creció exponencialmente cuando se abrió a todo el mundo en 2006. Proporciona una forma en la que los usuarios pueden publicar en efecto a sus amigos, al tiempo que excluyen la atención no deseada. YouTube se creó como un sitio web para compartir vídeos en 2005, y se convirtió en un rápido éxito en todo el mundo. Ofrecía una forma en la que los usuarios podían hacer circular lo que les gustaba, calificar colectivamente lo que estaba disponible y, en el proceso, proporcionar una oportunidad a los intérpretes y artistas marginados de conectar con un público más amplio. La aparición de la Web 2.0, una parte de la Web basada en contenidos generados por los usuarios, representó un refuerzo de las tradiciones no comerciales de la Web. Algunas corporaciones trataron de incorporar esta actividad de base, y transmutarla en beneficios, comprando sitios de gran tráfico que generaran ingresos por publicidad. Así, Google compró YouTube en 2006, mientras que News International, de Rupert Murdoch, adquirió la popular red social Facebook, también en 2006. Mientras tanto, las grandes empresas de cine y televisión intentaron utilizar YouTube y sitios similares como extensiones de sus departamentos de publicidad. Sus intentos no tuvieron mucho éxito porque los usuarios eran los guardianes que determinaban la prominencia en estos sitios, y demostraron ser menos susceptibles a la influencia que algunos periodistas presionados por el tiempo y alimentados por las relaciones públicas que informaban sobre las industrias del entretenimiento. En efecto, el espíritu de cooperación que había reimaginado el ordenador y descubierto nuevos usos para él en la década de 1980, que había defendido Internet a través del movimiento de código abierto, que había creado la World Wide Web en 1990-1, se renovó con el desarrollo de los sitios de redes sociales en la década de 2000. El ciberespacio está ahora mucho más comercializado que hace 10 años; sin embargo, sigue sin ser un sistema de mercado controlado. El equilibrio alcanzado entre lo viejo y lo nuevo es intrínsecamente inestable, y es muy posible que cambie con bastante rapidez; pero, por ahora, las dos concepciones principales de la Red parecen simplistas. La Red no es una zona autónoma en la que la cultura del “empuje” asociada a las poderosas corporaciones mediáticas haya sido vencida en favor de la cultura del “tirón” del usuario soberano; pero, igualmente, Internet no es un centro comercial sin rasgos del capitalismo digital. Sigue siendo un espacio disputado, expuesto a las influencias opuestas de las fuerzas previas al mercado y del mercado.

▷ Lo último (en 2026)
▷ Si te gustó este texto o correo, considera compartirlo con tus amigos. Si te lo reenviaron por correo, considera suscribirte a nuestras publicaciones por email de Derecho empresarialEmprenderDineroMarketing digital y SEO, Ensayos, PolíticasEcologíaCarrerasLiderazgoInversiones y startups, Ciencias socialesDerecho globalHumanidades, Startups, y Sectores económicos, para recibir ediciones futuras.

Hacia una historia global

Hasta ahora, hemos ofrecido una historia de Internet que pone en primer plano su tecnología y sus orígenes estadounidenses, y contrasta un periodo de influencia profesional y popular con el posterior intento de imponer un nuevo orden de control del mercado. Sin embargo, Internet también creció hasta convertirse en un fenómeno global, y esto generó conflictos entre los gobiernos autoritarios y aquellos que pretendían utilizar el nuevo medio de Internet para ampliar los límites de la libertad de expresión. Ahora es necesario elaborar una historia mundial de Internet (algo que aún está por investigar y redactar), con éste como otro tema central. Los comentaristas que a mediados de la década de 1990 sostenían que Internet seguiría siendo incontrolable (supuestamente porque Internet trasciende el lugar y, por tanto, las estructuras físicas de poder) demostraron estar equivocados. Muchos gobiernos de países autoritarios se convirtieron en expertos en presionar a los proveedores de servicios de Internet (ISP) registrados por el Estado para que excluyeran los sitios web considerados indeseables. Esta censura oficial-ISP se eludía mediante el uso de sitios web proxy no prohibidos fuera de la jurisdicción del Estado. Sin embargo, esto requería cierto nivel de conocimiento, lo que limitaba el alcance de la evasión. Pero la eficacia de Internet como agencia de oposición en las sociedades autoritarias no sólo dependía del resultado de este juego del gato y el ratón. En las sociedades dominadas, Internet tendía a ser amordazada; en aquellas en las que la oposición iba en aumento, el resultado podía ser diferente. Esto queda ilustrado por el contraste que ofrecen dos países vecinos. El Partido de Acción Popular (PAP) ha gobernado Singapur desde 1965, y ha mantenido el control en parte mediante una restrictiva Ley de Seguridad Nacional, una manipuladora ley de difamación y el registro anual de las organizaciones de la sociedad civil. Pero también ha gobernado por consentimiento como consecuencia de la creciente prosperidad económica y de la ideología nacional imperante que hace hincapié en los valores asiáticos, la moralidad pública y la necesidad de armonía étnica. El dominio unipartidista hizo que la Internet local fuera cooptada en apoyo del régimen a través de medios en gran medida no coercitivos. Incluso un sitio web crítico dirigido a la población local desde fuera de la jurisdicción de la ciudad-estado, y por tanto libre del control estatal, se ve relativamente contenido en lo que dice porque también está influido por la hegemonía ideológica del PAP. Así pues, Internet ha sido domesticado en Singapur, en gran medida como consecuencia de la forma en que una élite integrada ha monopolizado el poder estatal y ha mantenido un ascendiente prácticamente indiscutible. En cambio, el Frente Nacional (Barisan Nasional), la coalición política dominante en Malasia, está más fracturado y dividido que el PAP. También se ha visto acosado por acusaciones de capitalismo de amiguetes y cabalga intranquilo sobre el tigre del fundamentalismo islámico. El grado mucho mayor de división política y oposición dentro de Malasia, en comparación con Singapur, se acentuó cuando Anwar Ibrahim, el viceprimer ministro, fue encarcelado en 1997 por acusaciones infundadas de corrupción y homosexualidad. La creciente discrepancia encontró su expresión en periódicos y revistas en línea críticos con el régimen, que ganaron una audiencia considerable a finales de los años 90 y en la década de 2000, cuando un número cada vez mayor de personas empezó a desconfiar de la prensa y la televisión dominantes. El periodismo crítico en línea reflejó y amplificó las diferencias políticas en Malasia, que culminaron en las elecciones de 2008, cuando el Frente Nacional obtuvo peores resultados de los que había obtenido en décadas y perdió su mayoría parlamentaria de dos tercios. El entorno exterior explica así por qué la tecnología de Internet se domesticó en Singapur, pero no en Malasia. De hecho, un tema central de este relato es que el contexto más amplio siempre ha sido fundamental a la hora de influir en el desarrollo tecnológico, el contenido y el uso de la Red. Pero a medida que Internet ha ido evolucionando desde sus orígenes estadounidenses hasta convertirse en un fenómeno global, se hace necesario narrar el desarrollo de la Red en un contexto cada vez más amplio. Por esta razón, la historia de Internet que comienza en Estados Unidos tiene ahora que terminar en el mundo.

Revisor de hechos: Harveys

[rtbs name=”home-historia”]

Historia de la Internet y la World Wide Web

La Internet ha tenido un efecto revolucionario, no sólo en las comunicaciones y la informática, sino también en esferas más amplias de la vida, como la economía, la cultura, el idioma y las relaciones sociales.

Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):

Puntualización

Sin embargo, en ese mismo tiempo, la Internet y, posteriormente, la World Wide Web, han sufrido una serie de permutaciones, y las intenciones de sus desarrolladores no siempre han coincidido con las formas en que se ha realizado la tecnología. A medida que la tecnología y su influencia se extendió, por supuesto, los diseños de los planificadores originales se diluyeron. Desde sus orígenes como una arquitectura de redes con base militar y financiada por el Pentágono para comunicaciones experimentales, Internet floreció hasta convertirse en lo que tal vez sea la revolución más arrolladora de la historia de la tecnología de las comunicaciones. La World Wide Web, mientras tanto, pasó de ser un vehículo diseñado para universalizar la Internet y democratizar la información de base electrónica a un monstruo comercial que transformó la forma de hacer negocios.

LA PREHISTORIA DE INTERNET
Aunque en el imaginario popular la Internet es una característica del decenio de 1990, los primeros indicios de las posibilidades de las computadoras conectadas en red se remontan a principios del decenio de 1960.Entre las Líneas En 1962, J.C.R. Licklider del Instituto Tecnológico de Massachusetts (MIT) fue el primero en dilucidar su sueño de una “Red Galáctica” que conectara computadoras de todo el mundo para la distribución y el acceso de datos y programas. Licklider se convirtió en el primer director de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), un brazo del Departamento de Defensa de los Estados Unidos y el organismo que financió y coordinó la investigación original de lo que se convirtió en Internet.

Los colegas de Licklider en el MIT, Leonard Kleinrock y Lawrence G. Roberts, realizaron el trabajo pionero para el desarrollo de la arquitectura de Internet.Entre las Líneas En primer lugar, Kleinrock publicó un revolucionario artículo en el que se promocionaba la posibilidad de utilizar la conmutación de paquetes en lugar de los circuitos para las comunicaciones, preparando así el camino para la necesaria conexión en red de los ordenadores. Roberts se basó en las teorías de Kleinrock para idear la primera red informática de área amplia, utilizando una línea telefónica regular basada en circuitos para permitir que las computadoras de Massachusetts y California se comunicaran directamente. Mientras que las computadoras eran capaces de ejecutar programas e intercambiar datos, Roberts estaba convencido de que la insistencia de Kleinrock en la superioridad de la conmutación de paquetes era correcta.

Habiendo ingresado a DARPA, Roberts presentó en 1967 un documento que esbozaba su visión de la versión original de Internet, conocida como ARPANET, cuyas especificaciones se fijaron para el siguiente otoño. La posición principal de Roberts era que la red que DARPA estaba construyendo podía ser expandida y puesta en mayor uso una vez que estuviera terminada. Kleinrock se trasladó a la Universidad de California, Los Angeles (UCLA) justo a tiempo para que DARPA enviara una propuesta para el desarrollo de sus ideas de conmutación de paquetes para la red que DARPA estaba construyendo. Kleinrock y un puñado de otros académicos interesados en la UCLA establecieron el Centro de Medición de Redes para el proyecto ARPANET.

El primer ordenador central de ARPANET se estableció en el Centro de Medición de Redes de Kleinrock en la UCLA en 1969, y otros nodos, en el Instituto de Investigación de Stanford (SRI), la Universidad de California, Santa Bárbara (UCSB), y la Universidad de Utah en Salt Lake City, se conectaron poco después. A medida que se añadieron computadoras a ARPANET, el Grupo de Trabajo de Redes trabajó en la elaboración de un protocolo de comunicación que permitiera a las diferentes redes hablar entre sí, lo que dio lugar al Protocolo de Control de Red de huésped a huésped (NCP), que se puso en marcha en 1970. Así pues, la Internet como se conoce hoy en día comenzó a florecer.

LA APERTURA DE LA INTERNET
Sin embargo, durante los primeros años de su existencia, ARPANET fue en gran medida desconocida fuera del grupo relativamente esotérico de tecnólogos que la estaba desarrollando. Eso cambió en 1972, cuando Robert Kahn de Bolt Beranek and Newman (BBN), una de las principales figuras en el desarrollo de la arquitectura de ARPANET, organizó una conferencia en la Conferencia Internacional de Comunicaciones Informáticas (ICCC), donde ARPANET se demostró públicamente por primera vez. Ese mismo año se presentó la primera aplicación importante de Internet, llamada correo electrónico o e-mail.Entre las Líneas En el decenio siguiente, el correo electrónico fue la aplicación de red más utilizada en la actualidad.

En los primeros años de ARPANET la red creció lentamente, a medida que se añadían gradualmente nodos, y la gran cantidad de computadoras conectadas a ella exigía programas informáticos y equipos de interfaz para interactuar adecuadamente con ARPANET. A medida que ARPANET se expandió en lo que ahora se conoce como Internet, se basó en lo que se conoce como una red de arquitectura abierta.Entre las Líneas En ese entorno, otras redes podían conectarse e interactuar con la Internet y todas las demás redes a las que estaba conectada, pero la tecnología utilizada para construir cada red podía ser decidida por el proveedor de esa red y no necesitaba ser dictada por ninguna arquitectura particular. La conmutación de paquetes, de la que fue pionero Kleinrock, permitía esa libertad arquitectónica para conectar redes sobre una base de pares, en lugar de jerárquica. De hecho, las redes de arquitectura abierta se denominaron originalmente “Internetting” cuando se introdujeron en DARPA en 1972.

Si bien esto amplió en gran medida los usos de la Internet en su limitado entorno de la época, dio lugar a la falta de una interfaz de usuario común en la Internet. De hecho, la mayoría de las primeras redes conectadas a la Internet estaban diseñadas para una comunidad cerrada de investigadores y estudiosos, por lo que la cuestión de la capacidad de interconexión entre redes tenía una prioridad muy baja. Para los académicos, los oficiales militares y los científicos, esto era satisfactorio en general, ya que la Internet estaba orientada a usuarios muy especializados.

Puntualización

Sin embargo, limitaba la disponibilidad general de la Internet de una manera que no se remediaría hasta el decenio de 1990 y la introducción de la World Wide Web.

Durante varios años, el grueso de la investigación relativa a las comunicaciones por Internet, incluida la labor sobre las diversas cuestiones logísticas de la creación de redes y la transmisión, fue financiada principalmente por el Departamento de Defensa de los Estados Unidos y, por lo tanto, se diseñó principalmente en torno a las preocupaciones militares y se tradujo en ellas.

Puntualización

Sin embargo, el protocolo de control de redes demostró ser limitado en un entorno de arquitectura abierta, ya que dependía del diseño de la red ARPANET para su fiabilidad de extremo a extremo, y cualquier paquete de transmisión que se viera comprometido podría hacer que el protocolo se detuviera abruptamente. Para conseguir que varias redes de paquetes se comunicaran entre sí, independientemente de la tecnología de red subyacente, se necesitaba un protocolo de comunicación común. El primer esfuerzo hacia este fin fue el trabajo sobre el Protocolo de Control de Transmisión (TCP) de Vinton Cerf en el Instituto de Investigación de Stanford y Robert Kahn en BBN. El diseño requería pasarelas, o routers, para conectar las redes a Internet sin necesidad de reconfigurarlas. Después de varios años de investigación y diseño, la primera especificación del TCP se publicó en diciembre de 1974. Sólo unos meses después, DARPA transfirió ARPANET como una Internet totalmente operativa a la Agencia de Comunicaciones de Defensa (posteriormente rebautizada como Agencia de Sistemas de Información de Defensa).

A finales de los 70, el ejército de los Estados Unidos se interesó en la tecnología de Internet no sólo como una herramienta experimental y teórica, sino como un sistema de comunicaciones militares real y existente. Como resultado, los militares comenzaron a utilizar los protocolos de comunicaciones de Internet en los sistemas de radio de paquetes y en varias estaciones de satélite terrestres en Europa. La transferencia de mensajes de voz puso de relieve las complicaciones de estas redes basadas en la radio y condujo al desarrollo de un Protocolo Internet (IP) complementario, que se combinó con el TCP para producir el conjunto de protocolos TCP/IP. El TCP/IP se convirtió rápidamente en la norma de todos los sistemas militares de Internet y, por extensión, de la propia Internet.

A principios del decenio de 1980, diversos productos de Internet se consolidaron en el protocolo TCP/IP, sentando las bases para la apertura de aplicaciones comerciales.Entre las Líneas En gran parte esto se debió a la National Science Foundation Net (NSFNet). Este programa, que nació de una red diseñada para enlazar supercomputadoras entre sí, basada en un software diseñado por David Mills de la Universidad de Delaware, y que fue dirigido por Dennis Jennings de la Fundación Nacional de Ciencias (NSF), generó rápidamente software y sistemas de apoyo por parte de IBM, MCI y otros para acomodar la demanda de redes en rápido crecimiento. Gracias a la aparición de las tecnologías derivadas de la NSFNet, el número de computadoras conectadas a la Internet pasó de sólo varios cientos en 1983 a más de 1,3 millones en 1993, mientras que el número de redes pasó de un puñado diminuto a más de 10.000. Para 1990, la NSFNet, de hecho, había generado una transformación tan profunda en la espina dorsal y el alcance de Internet que la propia ARPANET fue retirada del servicio.

Pronto los proveedores comerciales de correo electrónico, que ya estaban ideando sistemas y programas informáticos para su utilización en intranets, comenzaron a explotar las posibilidades del correo electrónico basado en Internet; los proveedores comerciales de servicios de Internet aparecieron a su paso, brotando del puñado original de redes creadas en el marco de la NSFNet.

Puntualización

Sin embargo, durante varios años esos servicios siguieron estando orientados principalmente a los investigadores y las empresas, esos pocos grupos que ya tenían necesidad de la Internet y acceso a ella. La Internet como recurso doméstico seguía siendo en gran medida inaudita.

La rápida expansión de la Internet en el decenio de 1980 hizo necesarios nuevos métodos de gestión, como el Sistema de Nombres de Dominio (DNS).Entre las Líneas En sus primeras encarnaciones, los usuarios tenían que memorizar direcciones numéricas para acceder al número bastante limitado de redes de acogida, pero eso se hizo inviable a medida que se ampliaba el número de redes conectadas. Con la proliferación de las redes de área local (LAN), los administradores de Internet diseñaron el DNS para crear jerarquías fácilmente identificables de los anfitriones a fin de facilitar la navegación por la Internet.

A finales del decenio de 1980 y principios del decenio de 1990, una serie de iniciativas de política, entre ellas un foro en la Escuela de Gobierno Kennedy de Harvard sobre “La comercialización (vender lo que se produce; véase la comercialización, por ejemplo, de productos) o/y, en muchos casos, marketing, o mercadotecnia (como actividades empresariales que tratan de anticiparse a los requerimientos de su cliente; producir lo que se vende) y privatización de la Internet” y un informe de un comité del Consejo Nacional de Investigación titulado “Hacia una red nacional de investigación”, allanaron el camino para los siguientes pasos de la evolución de la Internet, incluido el patrocinio por el Gobierno de los Estados Unidos de redes informáticas de alta velocidad que servirían de columna vertebral para la explosión de la superautopista de la información y el comercio electrónico en el decenio de 1990.

LA WORLD WIDE WEB
Tal vez el invento que más facilitó el crecimiento de Internet como sistema de intercambio de información a nivel mundial (o global) es la World Wide Web.

Puntualización

Sin embargo, a diferencia de Internet, el diseño y desarrollo inicial de la World Wide Web fue principalmente obra de una sola persona: Tim Berners-Lee. Trabajando como programador por contrato en el Centre Européen de la Recherche Nucléaire (Laboratorio Europeo de Física de las Partículas, o CERN), con sede en Ginebra (Suiza), Berners-Lee se propuso repetidamente desarrollar una interfaz interactiva mundial (o global) para su utilización en la Internet, a fin de convertir la Internet fragmentada y relativamente exclusiva en un conjunto popular y sin fisuras. Tras varios rechazos, Berners-Lee se limitó a desarrollar un prototipo utilizando las entradas de la guía telefónica del laboratorio en 1989. Llamado Enquire Within Upon Everything (Preguntar dentro de todo), el prototipo fue diseñado para enlazar y conectar elementos de la misma manera que el cerebro hace conexiones y asociaciones aleatorias. A diferencia del sistema de base de datos promedio, según Berners-Lee, la Web debía ser diseñada para hacer asociaciones aleatorias entre objetos arbitrarios en los archivos.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.

Al igual que Internet evolucionó para garantizar la mayor flexibilidad e interoperabilidad posibles, el diseño arquitectónico original de la Web minimizó específicamente el grado de especificación para reducir al mínimo las limitaciones para el usuario. De esta manera, el diseño podía ser modificado y actualizado mientras se dejaba la arquitectura básica intacta. Así, por ejemplo, los usuarios podrían introducir el actual Protocolo de Transferencia de Ficheros (FTP) en el espacio de direcciones y sería tan viable como el nuevo Protocolo de Transferencia de Hipertexto (HTTP). El HTTP era el protocolo de comunicaciones que permitía a la web transferir datos desde y hacia cualquier computadora conectada a la Internet, y se diseñó como una mejora de la norma del FTP en el sentido de que aprovechaba la capacidad de la web para leer y traducir características intrincadas.

La mezcla de estos protocolos y formatos de archivo fue la clave, para Berners-Lee, para asegurar la más amplia proliferación así como la mayor durabilidad de su creación. (Tal vez sea de interés más investigación sobre el concepto). De esta manera, la Web no sólo podría evolucionar con los cambios de sistemas y protocolos, sino que la adopción temprana se haría más fácil en el sentido de que los usuarios podrían adoptar la Web desde cualquier sistema que estuvieran utilizando actualmente como sistema paralelo o complementario. Poco después de la exitosa demostración del prototipo de guía telefónica, la comunidad de Internet, todavía relativamente esotérica, comenzó a experimentar con plataformas de navegación para ver la Web. Uno de los primeros éxitos fue el programa Mosaico escrito por Marc Andreessen, más tarde fundador de Netscape.

Aprovechando los portales de Internet y pasando por alto los registros centralizados, Berners-Lee ideó los localizadores uniformes de recursos (URL) que son la base de las direcciones Web bajo el DNS. Los URL se construyeron para poner de relieve el poder central de la Web: que cualquier enlace puede conectar con cualquier otro documento o recurso en cualquier lugar de Internet, o en el “universo de la información”, como dijo Berners-Lee. Los URL están estructurados para identificar el tipo de espacio al que se accede (por ejemplo, mediante los prefijos “https:” o “ftp:”) seguido de la dirección específica dentro de ese espacio de información.

La última pieza del rompecabezas de la WWW fue la lingua franca del medio: Hypertext Markup Language (HTML), un lenguaje de códigos, construido sobre principios hipermedia que se remontan a los años 40, que informaba al navegador sobre cómo interpretar los archivos para la Web. Para 1991, todos los elementos estaban en su lugar, y la World Wide Web fue liberada del laboratorio de Berners-Lee al público de forma gratuita.

CAMBIOS COMERCIALES
En 1999, Internet Explorer se había convertido en el navegador preferido y el modelo de cobro de servicios de America Online (AOL) había caído en desuso frente a los proveedores de servicios gratuitos para los usuarios de Internet. Las búsquedas en Google llegaban a 3 millones cada día, y para el año 2000 más de 70 millones de computadoras se habían conectado a la Internet, con un crecimiento internacional que en muchos casos apenas comenzaba. Las búsquedas en Google, en un solo año, habían saltado a 18 millones. Desafortunadamente, la ola que los negocios en línea estaban montando estaba a punto de colapsar.

La quiebra, bancarrota, o insolvencia, en derecho (véase qué es, su concepto jurídico; y también su definición como “insolvency” o su significado como “bankruptcy”, en inglés) de las punto com de 2000 y 2001, a menudo llamada la explosión de la burbuja tecnológica, fue el resultado de la desubicación y la sobreexuberancia de los inversores. Un gran número de empresas obtuvieron financiación (o financiamiento) simplemente por especulación, y el mercado no podía apoyar ese crecimiento sin modelos de negocio realmente viables. Como resultado, un gran número de empresas de Internet quebraron, las acciones de tecnología se desplomaron y el mercado aprendió una valiosa lección sobre el tipo de empresas que Internet podía sostener. Intentos futuros fueron planeados y ejecutados con mucho más cuidado, y los inversionistas comenzaron a aprender cómo detectar estrategias comerciales sólidas en línea.

A medida que el mercado comenzó a recuperarse a principios de la década de 2000, se produjeron otros acontecimientos importantes. Las ventas digitales, por ejemplo, se convirtieron en una industria viable, empezando con la música digital y pasando a las descargas digitales para una variedad de medios. La velocidad de Internet y la capacidad de descarga para el usuario común se habían diversificado, dejando de lado la opción de conexión telefónica y llegando a un punto en el que las películas y los juegos podían descargarse directamente a las computadoras. Al mismo tiempo, la piratería digital se convirtió en un problema constante para los reguladores de Internet.

El lenguaje del Protocolo de Internet había pasado por varias iteraciones hasta ese momento. Durante la mayor parte de la década de 2000, el IPv4 se utilizó para la mayoría de las transferencias de datos. El IPv6 ya estaba disponible en ese momento, pero su adopción requería un cambio masivo a diferentes capacidades de transferencia de datos, una medida que el mercado no estaba listo para considerar hasta principios del decenio de 2010, cuando el IPv6 se hizo necesario para reforzar la disminución de la oferta de direcciones de sitios web IPv4.

Informaciones

Los datos también se volvieron mucho más maleables durante este tiempo. Tim Berners-Lee acuñó el término “web semántica” para referirse al aumento de los metadatos, o datos sobre los datos que se utilizan dentro de la programación web para recopilar y distribuir información. (Tal vez sea de interés más investigación sobre el concepto). La Web Semántica se vio como una nueva versión de la World Wide Web, pero una que operaba en segundo plano y a la que sólo se accedía mediante una máquina, con los datos vinculados por los programas en aras de la eficiencia, aunque los usuarios nunca la vieron.

SOCIEDAD Y CONVERGENCIA
En el decenio de 2010, la Internet se había convertido en una parte aceptada de todas las industrias y era utilizada para un gran número de fines tanto por empresas como por particulares. Los medios de comunicación social, en forma de redes sociales, blogs, microblogs, foros y motores de búsqueda avanzada, eran muy comunes (pondere más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Facebook y Flickr, ambos creados en 2004, se habían convertido en un fenómeno mundial (o global) para 2011. Twitter, creado en 2006, se convirtió en el microblog preferido.

Detalles

Las empresas y los particulares comenzaron a elegir los métodos de comunicación en línea en lugar de los métodos tradicionales debido a la mayor capacidad de comunicación rica y bidireccional.

A medida que la World Wide Web adoptaba cada vez más avances que facilitaban la visualización de los medios de comunicación, empezó a quitar cuota de mercado a las industrias más tradicionales. El proceso se denominó convergencia, un acontecimiento en el que los avances en una tecnología hacen innecesaria otra tecnología. La convergencia en el desarrollo de la tecnología inalámbrica fue la responsable de hacer innecesarios los PDA (dispositivos de asistencia digital personal) cuando un teléfono inteligente podía hacer el mismo trabajo. Cuando los vídeos podían almacenarse fácilmente en servidores y compartirse en línea, la tendencia a la convergencia comenzó a carcomer las industrias de la televisión y el teléfono.Entre las Líneas En 2010, los consumidores de noticias en línea utilizaban entre dos y cinco sitios web al día para recopilar noticias en lugar de los periódicos tradicionales.

Para 2011, el HTML5 estaba siendo adoptado por muchas de las principales empresas en línea, entre ellas YouTube y Twitter. La última iteración de HTML permitía una flexibilidad aún mayor en la organización y visualización de los datos, lo que aumentaba la eficiencia de los sitios web. La tercera versión de CSS también fue adoptada. Para entonces Google había lanzado un navegador propio, Google Chrome, y el mercado se estaba volviendo cada vez más complejo y diverso. Se esperaba un mayor crecimiento en China, India, Rusia, Indonesia y Brasil, que tenía el potencial de duplicar los actuales usuarios de Internet entre 2011 y 2015.

Datos verificados por: Chris

[rtbs name=”home-historia”]

Recursos

[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]

Véase También

ARPAnet; Berners-Lee, Tim; Three Protocols, The; URL (Uniform Resource Locator); World Wide Web (WWW); World Wide Web Consortium (W3C)

▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
▷ Lee Gratis Nuestras Publicaciones
,Si este contenido te interesa, considera recibir gratis nuestras publicaciones por email de Derecho empresarial, Emprender, Dinero, Políticas, Ecología, Carreras, Liderazgo, Ciencias sociales, Derecho global, Marketing digital y SEO, Inversiones y startups, Ensayos, Humanidades, y Sectores económicos, en Substack.

Contenidos Relacionados:

Los de arriba son los elementos relacionados con este contenido de la presente plataforma digital de ciencias sociales.

2 comentarios en «Historia de Internet»

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

▷ Recibe gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Dinero, Políticas, Ecología, Liderazgo, Marketing digital, Startups, Ensayos, Ciencias sociales, Derecho global, Humanidades, y Sectores económicos, en Substack. Cancela cuando quieras.
Index

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo