La Historia de la Multimedia
Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre la historia de la multimedia. [aioseo_breadcrumbs]
Evolución de las tecnologías multimedia hasta el tiempo actual
Primeros tiempos de la historia de los multimedios
Una breve historia del uso de la multimedia para comunicar ideas podría comenzar con los periódicos, que fueron quizás el primer medio de comunicación de masas, utilizando texto, gráficos e imágenes. Antes de que se inventara la cámara de fotos, estos gráficos e imágenes eran generalmente dibujados a mano.
Joseph Nicéphore Niépce captó la primera imagen natural de su ventana en 1826 con una cámara de caja de madera deslizante (pondere más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Fue realizada con una exposición de 8 horas sobre peltre recubierto de betún. Más tarde, Alphonse Giroux construyó la primera cámara comercial con un diseño de doble caja. Tenía una caja exterior con un lente de paisaje, y una caja interior que contenía una pantalla de enfoque de vidrio molido y una placa de imagen. Al deslizar la caja interior se enfocan los objetos de diferentes distancias. Cámaras similares se usaron para exponer placas de cobre con superficie de plata húmeda, introducidas comercialmente en 1839.Entre las Líneas En la década de 1870, las placas húmedas fueron reemplazadas por las más convenientes placas secas. A finales del siglo XIX se introdujeron las cámaras con película, que pronto se convirtieron en las dominantes hasta que fueron sustituidas por las cámaras digitales.
El fonógrafo de Thomas Alva Edison, inventado en 1877, fue el primer dispositivo capaz de grabar y reproducir el sonido. Originalmente grababa el sonido en un cilindro de hoja de papel de aluminio del fonógrafo.
Los fonógrafos fueron mejorados más tarde por Alexander Graham Bell. Las mejoras más notables incluyen cilindros de cartón recubiertos de cera, y un lápiz de corte que se movía de un lado a otro en un patrón de «zig zag» a través del disco. Emile Berliner transformó aún más los cilindros del fonógrafo en discos de gramófono. Cada lado de un disco tan plano tiene un surco en espiral que va desde la periferia hasta cerca del centro, que puede ser convenientemente tocado por un tocadiscos con un arma de tono y un lápiz. Estos componentes fueron mejorados a lo largo del tiempo en el siglo XX, lo que finalmente permitió reproducir un sonido de calidad muy cercano al origen. El disco del gramófono fue uno de los formatos de grabación de audio dominantes durante gran parte del siglo XX. A partir de mediados del decenio de 1980, el uso del fonógrafo disminuyó considerablemente debido al aumento de las cintas de audio y, más tarde, del disco compacto (CD) y otros formatos de grabación digital. La figura 1.3 muestra la evolución de los medios de almacenamiento de audio, comenzando por el disco cilíndrico Edison, pasando por el disco de vinilo plano, hasta las cintas magnéticas (carrete a carrete y casete) y el moderno CD digital.
Las películas fueron concebidas originalmente en la década de 1830 para observar el movimiento demasiado rápido para la percepción del ojo humano. Edison volvió a encargar la invención de una cámara de cine en 1887. Los largometrajes silenciosos aparecieron de 1910 a 1927; la era del silencio terminó efectivamente con el lanzamiento de The Jazz Singer en 1927.
En 1895, Guglielmo Marconi llevó a cabo la primera transmisión de radio inalámbrica en Pontecchio, Italia, y unos años más tarde (1901), detectó ondas de radio emitidas a través del Atlántico [6]. Inicialmente inventada para el telégrafo, la radio es ahora un medio importante para la transmisión de audio.Entre las Líneas En 1909, Marconi compartió el Premio Nobel de Física.1
La televisión, o la televisión para abreviar, fue el nuevo medio para el siglo XX [7].Entre las Líneas En 1884, Paul Gottlieb Nipkow, un estudiante universitario de 23 años en Alemania, patentó el primer sistema electromecánico de televisión que empleaba un disco giratorio con una serie de agujeros que giraban hacia el centro.
Detalles
Los agujeros estaban espaciados a intervalos angulares iguales de modo que, en una sola rotación, el disco permitiría que la luz pasara a través de cada agujero y a un sensor de selenio sensible a la luz que producía los pulsos eléctricos. Al enfocar una imagen en el disco giratorio, cada agujero capturó un «trozo» horizontal de la imagen completa. El diseño de Nipkow no sería práctico hasta que los avances en la tecnología de tubos amplificadores, en particular, el tubo de rayos catódicos (TRC), estuvieran disponibles en 1907. Disponible comercialmente desde finales del decenio de 1920, la televisión basada en el CRT estableció el vídeo como un medio comúnmente disponible y desde entonces ha cambiado el mundo de la comunicación de masas.
Cronología
Todos estos medios mencionados anteriormente están en el formato analógico, para el cual la característica variable en el tiempo (variable) de la señal es una representación continua de la entrada, es decir, análoga a la señal de entrada de audio, imagen o vídeo. La conexión entre las computadoras y los medios digitales, es decir, los datos de los medios representados utilizando el formato binario discreto, surgió en realidad solo durante un breve período:
- 1967 Nicholas Negroponte formó el Grupo de Máquina de Arquitectura en el MIT.
- 1969 Nelson y van Dam en la Universidad Brown crearon un temprano editor de hipertexto llamado FRESS [8]. El actual proyecto Intermedia del Instituto de Investigación en Información y Becas (IRIS) de Brown es el descendiente de ese temprano sistema.
- 1976 El Grupo de Máquinas de Arquitectura del MIT propuso un proyecto titulado «Medios Múltiples». Esto dio lugar al Aspen Movie Map, el primer videodisco, en 1978.
- 1982 El Disco Compacto (CD) fue comercializado por Philips y Sony, que pronto se convirtió en el medio estándar y popular para los datos de audio digital, sustituyendo a la cinta magnética analógica.
- 1985 Negroponte y Wiesner cofundaron el MIT Media Lab, una institución de investigación líder en la investigación del vídeo digital y multimedia.
- 1990 Kristina Hooper Woolsey dirigió el Apple Multimedia Lab, con un personal de 100 personas. La educación era un objetivo principal.
- 1991 MPEG-1 fue aprobado como un estándar internacional para el video digital. Su desarrollo posterior condujo a estándares más nuevos, MPEG-2, MPEG-4, y más MPEGs, en la década de 1990.
- 1991 La introducción de las PDA en 1991 inició un nuevo período en el uso de las computadoras en general y de la multimedia en particular. Este desarrollo continuó en 1996 con la comercialización (vender lo que se produce; véase la comercialización, por ejemplo, de productos) o/y, en muchos casos, marketing, o mercadotecnia (como actividades empresariales que tratan de anticiparse a los requerimientos de su cliente; producir lo que se vende) del primer PDA sin teclado.
- 1992 JPEG fue aceptado como el estándar internacional para la compresión de imágenes digitales, que sigue siendo ampliamente utilizado hoy en día (por ejemplo, por prácticamente todas las cámaras digitales).
1992 Se realizó la primera multidifusión de audio en la red troncal de multidifusión (MBone). - 1995 Se creó el lenguaje JAVA para el desarrollo de aplicaciones independientes de la plataforma, que se utilizó ampliamente para el desarrollo de aplicaciones multimedia.
- 1996 Se introdujo el vídeo DVD; se distribuyeron películas completas de alta calidad en un solo disco. El formato de DVD prometía transformar las industrias de la música, los juegos y la informática.
- 1998 Se introdujeron en el mercado de consumo reproductores de audio MP3 de mano, inicialmente con 32 MB de memoria flash.
Hipermedia e Internet
Los primeros estudios establecieron una base sólida para la captura, representación, compresión y almacenamiento de cada tipo de medio.
Puntualización
Sin embargo, la multimedia no consiste simplemente en poner juntos diferentes medios, sino que se centra más en la integración de los mismos para permitir una rica interacción entre ellos, y también entre los medios y los seres humanos.
En 1945, como parte de las deliberaciones de posguerra del MIT sobre qué hacer con todos los científicos empleados en el esfuerzo bélico, Vannevar Bush escribió un artículo histórico [9] en el que describía lo que equivale a un sistema de hipermedia, llamado «Memex». Memex estaba destinado a ser un dispositivo de memoria universalmente útil y personalizado que incluso incluía el concepto de enlaces asociativos, es realmente el precursor de la World Wide Web. Después de la Segunda Guerra Mundial, 6.000 científicos que habían trabajado duro en el esfuerzo bélico se encontraron de repente con tiempo para considerar otros temas, y la idea de Memex fue uno de los frutos de esa nueva libertad.
En la década de 1960, Ted Nelson comenzó el proyecto Xanadú y acuñó el término hipertexto. Xanadú fue el primer intento de un sistema de hipertexto -Nelson lo llamó «un lugar mágico de memoria literaria».
Podemos pensar en un libro como un medio lineal, básicamente destinado a ser leído de principio a fin.
Pormenores
Por el contrario, un sistema de hipertexto está destinado a ser leído de forma no lineal, siguiendo los enlaces que apuntan a otras partes del documento, o incluso a otros documentos.
Douglas Engelbart, muy influenciado por «As We May Think» de Vannevar Bush, demostró el Sistema en Línea (NLS), otro de los primeros programas de hipertexto en 1968. El grupo de Engelbart en el Instituto de Investigación de Stanford tenía como objetivo «el aumento, no la automatización», para mejorar las habilidades humanas a través de la tecnología informática. El NLS consistía en ideas críticas como un editor de esquemas para el desarrollo de ideas, enlaces de hipertexto, teleconferencias, procesamiento de textos y correo electrónico, e hizo uso del dispositivo para apuntar el ratón, el software de ventanas y los sistemas de ayuda.
El hipermedia, introducido por primera vez por Ted Nelson, fue más allá de solo texto. Incluye una amplia gama de medios, tales como gráficos, imágenes, y especialmente el sonido continuo de los medios y el vídeo, y los vincula entre sí. La World Wide Web (WWW o simplemente Web) es el mejor ejemplo de una aplicación de hipermedia, que es también la más grande.
Sorprendentemente, esta aplicación multimedia en red más predominante tiene sus raíces en la física nuclear! En 1990, Tim Berners-Lee propuso la World Wide Web al CERN (Centro Europeo de Investigación Nuclear) como medio para organizar y compartir sus trabajos y resultados experimentales. Con la aprobación del CERN, comenzó a desarrollar un servidor de hipertexto, un navegador y un editor en una estación de trabajo NeXTStep. Su equipo inventó el Lenguaje de Marcado de Hipertexto (HTML) y el Protocolo de Transferencia de Hipertexto (HTTP) también para este propósito.
Lenguaje de marcado de hipertexto (HTML)
Se reconoce que los documentos deben tener formatos que sean legibles para el ser humano y que identifiquen la estructura y los elementos. Charles Goldfarb, Edward Mosher y Raymond Lorie desarrollaron el Lenguaje de Marcado Generalizado (GML) para IBM.Entre las Líneas En 1986, la ISO publicó una versión final del Lenguaje de Marcado Generalizado Estándar (SGML), basado en su mayor parte en el anterior GML.
El HTML es un lenguaje para publicar hipermedios en la Web. Se define usando el SGML y deriva elementos que describen la estructura y el formato de los documentos genéricos. Como utiliza ASCII, es portátil a todos los diferentes equipos informáticos (incluso los incompatibles con los binarios), lo que permite el intercambio global de información. (Tal vez sea de interés más investigación sobre el concepto). La versión actual de HTML es la 4.01, y una versión más reciente, HTML5, está aún en desarrollo.
HTML utiliza etiquetas para describir los elementos del documento.
Detalles
Las etiquetas tienen el formato para definir el punto de inicio de un elemento del documento y para definir el final del elemento. Algunos elementos solo tienen parámetros en línea y no requieren etiquetas de final. El HTML divide el documento en una parte de CABEZA (Head) y otra de CUERPO (Body).
El HEAD describe las definiciones de los documentos, que son analizadas antes de que se haga cualquier presentación de documentos. Estas incluyen el título de la página, los enlaces de recursos y la meta-información que el autor decide especificar. La parte del BODY o CUERPO describe la estructura y el contenido del documento. Los elementos de estructura comunes son los párrafos, tablas, formularios, enlaces, listas de elementos y botones.
Naturalmente, el HTML tiene estructuras más complejas y puede mezclarse con otros estándares. El estándar ha evolucionado para permitir la integración con los lenguajes de script, la manipulación dinámica de casi todos los elementos y propiedades después de su visualización en el lado del cliente (HTML dinámico), y la personalización modular de todos los parámetros de renderizado utilizando un lenguaje de marcado llamado Hojas de Estilo en Cascada (CSS).
Aviso
No obstante, el HTML tiene elementos de estructura rígidos y no descriptivos, y la modularidad es difícil de lograr.
Lenguaje de marcado extensible (XML)
También se necesitaba un lenguaje de marcado para la Web que tuviera modularidad de datos, estructura y vista. Es decir, nos gustaría que un usuario o una aplicación pudiera definir las etiquetas (estructura) permitidas en un documento y su relación entre sí, en un lugar, luego definir los datos utilizando estas etiquetas en otro lugar (el archivo XML) y, por último, definir en otro documento cómo representar las etiquetas.
La versión original de XML fue XML 1.0, aprobada por el W3C en febrero de 1998, y actualmente se encuentra en su quinta edición a partir de 2008. La versión original sigue siendo recomendada. La segunda versión XML 1.1 se introdujo en 2004 y actualmente se encuentra en su segunda edición a partir de 2006. La sintaxis del XML se parece a la del HTML, aunque es mucho más estricta. Todas las etiquetas son en minúsculas, y una etiqueta que solo tiene datos en línea tiene que terminarse a sí misma, por ejemplo, «< token params />». XML también utiliza namespaces, de modo que múltiples DTDs que declaran elementos diferentes pero con nombres de etiquetas similares pueden tener sus elementos distinguidos. Los DTDs también pueden ser importados de URIs.
Además de las especificaciones XML, se han estandarizado las siguientes especificaciones relacionadas con XML:
- Protocolo XML. Se utiliza para intercambiar información XML entre procesos. Su objetivo es sustituir al HTTP y ampliarlo, así como permitir las comunicaciones entre procesos a través de las redes.
- Esquema XML. Un lenguaje más estructurado y potente para definir los tipos de datos XML (etiquetas). A diferencia de un DTD, XML Schema utiliza etiquetas XML para las definiciones de tipos.
- XSL. Esto es básicamente CSS para XML.
Otros Elementos
Por otro lado, XSL es mucho más complejo, ya que tiene tres partes: Transformaciones XSL (XSLT), Lenguaje de Trayectoria XML (XPath), y Objetos de Formato XSL.
La Web ganó rápidamente popularidad, debido a la cantidad de información disponible en los servidores web, la capacidad de publicar dicha información y la facilidad de navegar por ella con un navegador web, particularmente después de la introducción del navegador Mosaic por Marc Andreessen en 1993 (que más tarde se convirtió en Netscape).
Hoy en día, la tecnología de la Web es mantenida y desarrollada por el Consorcio de la World Wide Web (W3C), junto con el Grupo de Tareas de Ingeniería de Internet (IETF) para estandarizar las tecnologías. El W3C ha enumerado los tres objetivos siguientes para la WWW: acceso universal a los recursos de la web (por parte de todos en todas partes), eficacia en la navegación de la información disponible y uso responsable del material publicado.
Cabe mencionar que Internet sirve de vehículo subyacente para la WWW y el contenido multimedia que se comparte en ella. A partir de la Red del Organismo de Proyectos de Investigación Avanzada (ARPANET), que en 1969 solo tenía dos nodos, la Internet se fue convirtiendo gradualmente en la red mundial (o global) dominante que interconecta numerosas redes informáticas y sus miles de millones de usuarios con el conjunto de protocolos estándar de Internet (TCP/IP). Evolucionó junto con los multimedios digitales. Por una parte, Internet transporta gran parte del contenido multimedia. Ha barrido en gran medida los discos ópticos como medio de almacenamiento y distribución de la industria cinematográfica. Actualmente está reformando la industria de la radiodifusión televisiva a una velocidad cada vez mayor. Por otra parte, Internet no fue diseñada inicialmente para datos multimedia y no fue muy amigable con el tráfico multimedia.
Informaciones
Los datos multimedia, que ahora ocupan casi el 90% del ancho de banda de Internet, son la fuerza impulsora clave para mejorar la Internet actual y para desarrollar la próxima generación de Internet.
[rtbs name=»home-historia»]
Historia de la Industria de las Telecomunicaciones y de las Tecnologías de la Comunicación
Historia de la Industria de las Telecomunicaciones
Véase la historia de la industria o sector de las Telecomunicaciones en el mundo.
Historia de la Industria de las Tecnologías de la Comunicación
Véase la historia de la industria o sector de las tecnologías de la comunicación en el mundo.
Historia de la Multimedia en las Humanidades Digitales
¿Qué es la historia de los multimedia?
Una forma tradicional de pensar en algo que es nuevo es recuperar sus historias.
Más Información
Las historias de los multimedios aún se están negociando e incluyen las historias de los diferentes medios de comunicación, la historia de la informática y la historia de las teorías críticas aplicadas a los multimedios. Una de las historias de los multimedios es la del ordenador personal, que pasó de ser una máquina institucional diseñada para el procesamiento numérico a un ordenador personal multimedia que la mayoría de nosotros puede permitirse. El ordenador moderno, tal y como surgió tras la Segunda Guerra Mundial, es una máquina de uso general que puede adaptarse a nuevos fines mediante la programación y los periféricos. La historia del ordenador desde el ENIAC (1946) puede verse como la elaboración de esta idea de diferentes maneras, incluyendo las técnicas de gestión de diferentes medios. Aunque los primeros ordenadores se diseñaron únicamente para realizar cálculos numéricos científicos y aplicados, con el tiempo se ampliaron para manejar cadenas alfanuméricas (texto), gráficos rasterizados y vectoriales, audio, imágenes en movimiento (vídeo y animación) y, finalmente, objetos tridimensionales y el espacio. Hoy en día, los ordenadores personales pueden manejar todos estos medios con los periféricos adecuados, lo que pone el desarrollo y el consumo multimedia al alcance del usuario doméstico.
Números y texto
Si los primeros ordenadores se diseñaron para el cálculo de números y el procesamiento de datos para aplicaciones militares, científicas y luego empresariales, pronto se adaptaron a la edición de textos o a la manipulación de cadenas alfanuméricas. El primer procesador de textos comercial fue el IBM MT/ST (cinta magnética / máquina de escribir Selectric), comercializado por IBM como «procesador de textos» y lanzado en 1964. Almacenaba el texto en una cinta para editarlo y reimprimirlo a través de una máquina de escribir Selectric. Un procesador de textos, a diferencia de un editor de textos, estaba pensado para producir documentos retóricos, mientras que los editores de textos eran para programar e interactuar con el sistema. A finales de los años 70, los ordenadores personales contaban con primitivos programas de procesamiento de textos que permitían introducir, editar e imprimir documentos. El WordStar de MicroPro International (1979) fue uno de los primeros programas de procesamiento de textos con éxito comercial para un ordenador personal, ampliando los medios que podía manejar un usuario doméstico desde los números hasta el texto.
Imágenes
El siguiente paso fue el acceso a los gráficos en un ordenador personal, un desarrollo que llegó con el lanzamiento del Apple Macintosh en 1984. El Macintosh (Mac), que hizo accesibles las innovaciones del Centro de Investigación de Xerox Palo Alto en un ordenador personal de éxito comercial, fue diseñado desde el principio para manejar gráficos. Venía con un programa de «pintura», MacPaint, y un ratón para pintar e interactuar con la interfaz gráfica de usuario (GUI). Aunque no fue el primer ordenador con capacidades gráficas, sí fue el primer ordenador ampliamente disponible con capacidades gráficas estándar incorporadas para que cualquiera pudiera pintar imágenes sencillas, editarlas, imprimirlas o integrarlas en otros documentos, como los de procesamiento de textos creados con Mac-Write, un procesador de textos WYSIWIG (lo que ves es lo que obtienes) que también se incluía con los primeros Mac.
Publicación de escritorio
En 1986, las capacidades del Macintosh se ampliaron con el lanzamiento del Mac Plus, Aldus PageMaker y la Apple LaserWriter con capacidad PostScript. La combinación de estas tres tecnologías hizo que la «autoedición» fuera accesible en el ordenador personal cuando antes estaba limitada a sistemas especializados muy caros. Mientras que MacPaint era una herramienta lúdica que no podía competir con los sistemas gráficos comerciales, un diseñador equipado con PageMaker y una LaserWriter podía competir con los diseñadores profesionales que trabajaban en sistemas de composición dedicados para trabajos de publicación monocromática de gama baja, como manuales y boletines. No pasó mucho tiempo antes de que saliera al mercado un Macintosh con capacidad de color (el Mac II) que, combinado con programas de edición de imágenes como Adobe PhotoShop, ayudó a que el Mac sustituyera a los sistemas dedicados como estándar de la industria para el diseño gráfico y la publicación.Entre las Líneas En la actualidad, casi cualquier publicación, desde los periódicos hasta los informes anuales más brillantes, se crea, edita y corrige en sistemas informáticos personales. Los únicos componentes que todavía están fuera del presupuesto del usuario doméstico son las cámaras digitales de alta resolución, los escáneres y las impresoras necesarias para producir publicaciones de alta calidad.Si, Pero: Pero incluso estos componentes se están poniendo poco a poco al alcance de los usuarios cotidianos de ordenadores.
La autoedición es la precursora de los multimedios, aunque la autoedición tiene como objetivo artefactos retóricos que no se ven en un ordenador. El diseño gráfico asistido por ordenador y la autoedición son artes que utilizan los ordenadores en lugar de las tecnologías tradicionales para producir artefactos retóricos que combinan medios, como el texto y las imágenes. El reto de combinar dos medios, cada uno con tradiciones creativas e interpretativas diferentes, es anterior a la autoedición: los diseñadores anteriores al ordenador se esforzaban por diseñar la palabra y la imagen.
Puntualización
Sin embargo, la novedad era que el usuario del ordenador personal tenía ahora la oportunidad de experimentar con el diseño y la colocación del contenido en el espacio bidimensional. El resultado inicial fue una proliferación de boletines y carteles horribles y sobredimensionados que a menudo mostraban un uso desenfrenado de fuentes y estilos visuales.
Entornos de autoría
Además, las herramientas de autoedición eran en sí mismas entornos multimedia que permitían la manipulación directa de imágenes y texto. La autoedición fue un precursor de los multimedios; los autoeditores solían pasar la mayor parte de su tiempo viendo los documentos para impresión que manipulaban en la pantalla interactiva, no en papel.
Informaciones
Los diseñadores gráficos que se sentían cómodos con el diseño para la impresión (pero en una pantalla) estaban preparados cuando aparecieron las primeras herramientas de autoría para el diseño de medios basados en la pantalla. Sabían cómo trabajar con imágenes y texto en el espacio bidimensional de la pantalla y eran competentes con las herramientas gráficas necesarias para maquetar y crear infografías. Cuando Apple lanzó HyperCard en 1987, la comunidad gráfica se posicionó para aprovechar sus nuevas habilidades en el diseño basado en la pantalla. HyperCard, desarrollado por el creador de MacPaint, fue un éxito inmediato, sobre todo porque venía gratis con todos los Macintosh y permitía a los autores multimedia distribuir pilas de HyperCard sin costes de licencia a otros usuarios de Macintosh. Dada la gran penetración de los Mac en las escuelas, no es de extrañar que un año después del lanzamiento de HyperCard hubiera miles de trabajos multimedia educativos sencillos que combinaban texto, imágenes, animaciones simples y una interactividad sencilla.
Los entornos de autoría como HyperCard son importantes para el crecimiento de los multimedios, ya que eran más fáciles de aprender que los lenguajes de programación necesarios anteriormente para crear multimedios, y estaban diseñados específicamente para la combinación de medios en obras interactivas. HyperCard, como su nombre indica, se inspiró en la teoría del hipertexto. La metáfora de HyperCard era que los autores creaban una pila de tarjetas (nodos de información), que podían tener texto, gráficos y botones. Los botones eran los enlaces de hipertexto a otras tarjetas. HyperCard disponía de un lenguaje de scripting con el que se podían crear comportamientos más complejos o añadir extensiones para controlar otros dispositivos multimedia como los CD de audio y los reproductores de videodisco. Uno de los juegos de ordenador más populares de su época, Myst (1993), se desarrolló por primera vez en HyperCard. La metáfora de la pila de tarjetas fue rápidamente imitada por Asymetrix ToolBook, uno de los entornos de creación multimedia más populares para el IBM PC. La metáfora de ToolBook era la de un libro de páginas con texto, gráficos y botones, y añadía la capacidad del color.
En la actualidad, los entornos de creación más populares, aparte de los editores de HTML como Dreamweaver y GoLive, son herramientas como Macromedia Director y Macromedia Flash. Tanto Director como Flash utilizan una metáfora de celdas y líneas de tiempo que evolucionó a partir de entornos de animación (pondere más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Flash se utiliza mucho para añadir animaciones y componentes interactivos a los sitios web, mientras que Director se utiliza para proyectos más complejos que suelen entregarse en un CD-ROM. El formato de archivo de Flash (SWF) se ha publicado para que otras herramientas puedan manipular SWF.
Sonido
El Macintosh también incorporó la manipulación del sonido como una característica estándar. Los primeros Macs lanzados a mediados de la década de 1980 tenían capacidades de sonido integradas más allá de un altavoz para los pitidos. El Mac de 128K tenía capacidad de salida de sonido mono de 8 bits.Entre las Líneas En 1990, Apple ya incluía micrófonos en los Mac estándar. HyperCard podía manejar audio, aunque no podía editarlo. Por tanto, el Macintosh estándar contaba con capacidades de audio sencillas y adecuadas para los multimedia interactivos. Con la incorporación de controladores y software de interfaz digital para instrumentos musicales (MIDI), los Macintosh se hicieron populares en la comunidad de la música electrónica, junto con el ya descatalogado Atari ST (1985), que venía con un puerto MIDI integrado.
Una de las primeras obras multimedia que utilizó ampliamente el audio fue la Novena Sinfonía de Beethoven interactiva de Robert Winter. Esta obra de 1989 venía con pilas de HyperCard en disquete, que podían controlar un CD de audio comercial de la Novena Sinfonía de Beethoven. El usuario podía navegar por el audio y leer notas críticas que estaban sincronizadas con la sinfonía.
Lo digital y virtual
Vídeo digital
El último umbral de los medios de comunicación que se ha superado en los ordenadores personales asequibles es el vídeo digital. El reto de los multimedios es combinar no sólo medios asíncronos como el texto y las imágenes, ninguno de los cuales necesita reproducirse en el tiempo, sino también medios dependientes del tiempo como el audio, la animación y el vídeo. El vídeo es lo que más exige a los sistemas informáticos para acceder, procesar y emitir los 29,97 fotogramas por segundo típicos del vídeo de calidad televisiva. Sólo recientemente, con la introducción de ordenadores con puertos Fire Wire o IEEE-1394, ha resultado fácil grabar vídeo, descargarlo al ordenador personal para editarlo y transferirlo de nuevo a una cinta, CD o DVD, o incluso transmitirlo por Internet. Dado el reto que supone la integración del vídeo, ha habido algunas soluciones híbridas interesantes. Uno de los primeros trabajos multimedia, el Aspen Movie Map (1978), de Andrew Lippman (y otros) de lo que ahora se llama el MIT Media Lab, combinaba fotografías en un videodisco con el control del ordenador para que el usuario pudiera pasear por Aspen, subiendo y bajando por las calles en diferentes estaciones.
Con la aparición de estándares de vídeo digital como MPEG (MPEG-1 en 1989, MPEG-2 en 1991) y Apple QuickTime (1991), se hizo posible gestionar el vídeo totalmente en formato digital. Uno de los primeros trabajos publicados que aprovechó las ventajas de QuickTime fue el CD-ROM Voyager de A Hard Day’s Night de los Beatles (1993). Se trataba de una versión de vídeo digital de la innovadora película musical de los Beatles.Entre las Líneas En la actualidad, es habitual que las obras multimedia incluyan elementos de vídeo digital de baja resolución.
Espacio virtual y más allá
Los sistemas multimedia actuales presentan al usuario una interfaz gráfica bidimensional. Aunque estos sistemas pueden manipular información tridimensional (3-D), no suelen tener los dispositivos de entrada y salida en 3-D asociados a los sistemas de realidad virtual (RV). ¿Es la RV el siguiente paso en la evolución del ordenador multimedia y la interfaz de usuario? En los años 90 parecía que el ciberespacio, tal y como lo describió William Gibson en Neuromancer (1984), era la siguiente frontera de la informática multimedia. La visión de Gibson se implementó en sistemas que combinaban sistemas de seguimiento de la cabeza, guantes de datos y gafas 3D para proporcionar una experiencia inmersiva de un espacio virtual. La metáfora de la informática ya no sería el escritorio, sino espacios virtuales llenos de avatares que representan personas y objetos en 3D. La relación entre el usuario y el ordenador pasaría de la manipulación directa de representaciones iconográficas a la inmersión en un mundo simulado. El espacio y la estructura eran la última frontera del multimedia.
Aunque esta evolución proyectada de la interfaz multimedia sigue siendo objeto de investigación y desarrollo académico, han sido la miniaturización e Internet los que han impulsado la industria. Los sistemas multimedia de sobremesa de la década de 1990 se están reequipando como dispositivos portátiles que pueden reproducir múltiples medios. El teclado y el ratón están siendo sustituidos por dispositivos de entrada como las interfaces de lápiz de los asistentes digitales personales (PDA).Entre las Líneas En lugar de sumergirnos en cuevas virtuales, estamos sacando la informática multimedia de la oficina o el laboratorio y la estamos integrando en nuestro entorno. El reto del diseño multimedia es cómo adaptar las interfaces a dispositivos de mano como reproductores MP3 y teléfonos móviles.
Datos verificados por: Brooks
Recursos
[rtbs name=»informes-jurídicos-y-sectoriales»][rtbs name=»quieres-escribir-tu-libro»]
3 comentarios en «Historia de la Multimedia»