Ordenadores o Computadoras Portátiles
Este elemento es una ampliación de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre los ordenadores portátiles. [aioseo_breadcrumbs]
Visualización Jerárquica de Ordenador
A continuación se examinará el significado.
¿Cómo se define? Concepto de Ordenador
Véase la definición de ordenador en el diccionario.
Cronología de la Micro-Informática
1962 I.B.M. (International Business Machines Corporation) desarrolla el sistema SABREC (Semi-Automatic Business Research Environment) para la reserva de billetes de avión, la primera aplicación transaccional comercial de un tipo que ahora se utiliza en todos los ordenadores.
1963 El estadounidense Douglas C. Engelbart funda en el Stanford Research Institute un grupo de investigación sobre la interacción hombre-máquina. Desarrolla un “escritorio electrónico” y un dispositivo de puntero rápido: el ratón (patentado en 1969).
1965 El miniordenador PDP-8 de D.E.C. (Digital Equipment Corp.) ofrece una buena potencia por sólo 18.000 dólares, una fracción del precio de un ordenador central. Esto fue posible gracias al uso de circuitos integrados y una arquitectura lógica bien diseñada; se vendieron 40.000 unidades.
1971 Lanzamiento al mercado de las calculadoras de bolsillo con circuitos integrados (Texas Instruments, Casio, etc.), que relegan las reglas de cálculo al museo. Junto con los miniordenadores y las consolas de tiempo compartido, estos instrumentos contribuyen a difundir la práctica de la informática personal.
1973 El primer microordenador, el Micral N, desarrollado por la empresa francesa R2E y vendido por 8.500 francos.
1975 El M.I.T.S.’s Altair se anuncia en forma de kit en la revista estadounidense Popular Electronics como “el proyecto de miniordenador más potente jamás presentado: se puede construir por menos de 400 dólares”. Incompleto y difícil de programar, encontró mercado entre los aficionados al bricolaje, que a su vez crearon empresas o clubes de usuarios.
1977 El Apple II se lanzó en un mercado de microordenadores ya muy activo, en el que competían decenas de pioneros. Su éxito se debió a tres factores principales: un marketing hábil por parte de los fundadores de Apple, que se posicionaron como retadores de I.B.M.; una buena interfaz hombre-máquina; y una presentación de este microordenador que era a la vez completa (pantalla, teclado, discos y software) y abierta (que permitía a los usuarios adaptar el aparato a sus necesidades). Dirigido tanto al público en general como a aplicaciones profesionales, y fomentando el intercambio de software, este producto fabricado en serie se convirtió en el símbolo y el instrumento de una revolución microinformática.
1979 Visicalc, una hoja de cálculo diseñada por un estudiante de Harvard para la contabilidad personal o de pequeñas empresas, fue un éxito inmediato, llevando el microordenador de un juego a un uso profesional. Junto con Wordstar y dBase, este paquete de software inaugura un nuevo sector económico.
1981 I.B.M. lanza el PC (ordenador personal), que se convierte rápidamente en un estándar y contribuye a legitimar el microordenador. Aunque consigue devolver temporalmente a I.B.M. el control del mercado de los microordenadores, el PC acaba generando clones compatibles que reducen al líder mundial a un competidor más.
1984 Apple presenta el Macintosh, cuya interfaz gráfica y control por ratón atraen rápidamente el interés de las industrias editorial, mediática y educativa. Para defender la posición del IBM PC, que dominaba el mercado empresarial, Microsoft adaptó las innovaciones del Macintosh y derivó Windows, que se lanzó sin mucho éxito en 1985, pero que se consolidaría en la década siguiente.
1992 El Newton de Apple, un ordenador de bolsillo o PDA (asistente personal digital). Esta primera versión, que no tuvo suficiente éxito, llevó a Apple a abandonar este tipo de producto (500 millones de dólares invertidos y sólo 300.000 unidades vendidas). Pero todas las empresas que se introdujeron posteriormente en este mercado tuvieron éxito: Palm, Psion y otros fabricantes.
Revisor de hechos: EJ
Historia de los ordenadores
Históricamente, el instrumento de computación más importante de los primeros tiempos es el ábaco. Ha sido conocido y ampliamente utilizado durante más de 2.000 años. Otro instrumento de computación, el astrolabio, también se usó hace unos 2.000 años para la navegación.
A Blaise Pascal se le atribuye la construcción de la primera “máquina de calcular digital” en 1642. La máquina estaba destinada a ayudar al padre de Pascal, que era recaudador de impuestos. Sólo realizaba sumas de números introducidos por medio de diales.Entre las Líneas En 1671, Gottfried Wilhelm von Leibniz diseñó una computadora; construida en 1694, podía sumar y, mediante sucesivas sumas y desplazamientos, multiplicar. Leibniz inventó un mecanismo especial de “marcha escalonada” para introducir los dígitos añadidos, y este mecanismo sigue en uso. Los prototipos construidos por Leibniz y Pascal no fueron muy utilizados. De hecho, siguieron siendo curiosos hasta más de un siglo después. Entonces, Tomás de Colmar (Charles Xavier Thomas) desarrolló (1820) la primera calculadora mecánica de éxito comercial que podía sumar, restar, multiplicar y dividir. Siguió una sucesión de calculadoras mecánicas mejoradas “de mesa” por varios inventores. Alrededor de 1890 esos dispositivos podían acumular resultados parciales, almacenar y reintroducir resultados anteriores e imprimir los resultados. Estas mejoras se hicieron principalmente para adaptarse a los usuarios comerciales. Se prestó poca atención a las necesidades de la ciencia.
Babbage. Mientras Tomás de Colmar desarrollaba la calculadora de mesa, el matemático inglés Charles Babbage tenía ideas más ambiciosas. Babbage se dio cuenta (1812) de que muchos cálculos largos, especialmente los necesarios para preparar tablas matemáticas, consistían en operaciones rutinarias que se repetían regularmente; a partir de esto supuso que debería ser posible hacer estas operaciones automáticamente. Comenzó a diseñar una máquina de cálculo mecánico automático, a la que llamó “motor de diferencia”. Para 1822 había construido un pequeño modelo de trabajo para demostración. (Tal vez sea de interés más investigación sobre el concepto). Con la ayuda financiera del gobierno británico, Babbage comenzó la construcción de un motor de diferencia a gran escala en 1823. Se pretendía que fuera impulsada por vapor; completamente automática, incluso hasta la impresión de las tablas resultantes; y comandada por un programa de instrucción fijo.
El motor diferencial, aunque de flexibilidad y aplicabilidad limitadas, fue conceptualmente un gran avance. Babbage continuó trabajando en él durante diez años.Entre las Líneas En 1833, sin embargo, perdió interés porque tenía una “mejor idea”. Esta fue la construcción de lo que hoy se describiría como una computadora digital mecánica automática de propósito general, totalmente controlada por programas. Babbage llamó a su máquina un “motor analítico”. Los planes para ella especificaban una computadora paralela decimal que operaba con números (palabras) de 50 dígitos decimales y proveía una capacidad de almacenamiento (memoria) de 1.000 de tales números. Las operaciones incorporadas debían incluir todo lo que una computadora moderna de propósito general necesitaría. La máquina habría tenido incluso la importantísima capacidad de “transferencia de control condicional”, que permitiría ejecutar instrucciones en cualquier orden, no sólo en secuencia numérica. El motor analítico debía utilizar tarjetas perforadas, que debían ser leídas en la máquina desde cualquiera de varias estaciones de lectura. Estaba diseñado para funcionar automáticamente, por medio de la energía del vapor, con un solo asistente.
Las computadoras de Babbage nunca se completaron. Se han adelantado varias razones para su fracaso. Una de ellas es la falta de técnicas de mecanizado de precisión en ese momento. Otra conjetura es que había poca necesidad en ese momento del tipo de máquina que Babbage imaginó.
Esto cambió en la segunda mitad del siglo XIX. Entre 1850 y 1900, se hicieron grandes avances en la física matemática. Se llegó a entender que la mayoría de los fenómenos dinámicos observables pueden ser caracterizados por ecuaciones diferenciales. Esto significó que sería útil disponer de medios para su solución y para la solución de otros problemas de cálculo.
Otros Elementos
Además, existía una necesidad práctica de tales cálculos. La disponibilidad de la energía de vapor condujo a un período de grandes logros de la ingeniería. Era la época de la construcción de ferrocarriles y de la construcción de barcos de vapor, fábricas textiles y puentes. Estos y otros proyectos requirieron cálculos diferenciales para determinar cantidades tales como los centros de gravedad, centros de flotabilidad, momentos de inercia y distribuciones de tensión; incluso la evaluación de la potencia de una máquina de vapor requirió una integración matemática práctica. Así pues, se desarrolló una fuerte necesidad de una máquina que pudiera realizar rápidamente muchos cálculos repetitivos.
Uso de tarjetas perforadas por Hollerith. Un paso hacia la automatización de los cálculos fue la introducción de las tarjetas perforadas. Estas fueron utilizadas por primera vez con éxito en conexión con la computación en 1890 por Herman Hollerith y James Powers, trabajando para la Oficina del Censo de los Estados Unidos. Ellos desarrollaron dispositivos que podían leer automáticamente la información que había sido perforada en las tarjetas. Estos dispositivos eliminaron muchos errores humanos. El flujo de trabajo aumentó. Aún más importante, las pilas de tarjetas perforadas podían ser usadas como un almacén de memoria accesible de capacidad casi ilimitada. Y diferentes problemas podían ser almacenados en diferentes lotes de tarjetas y trabajados según fuera necesario.
Estas ventajas fueron señaladas por los intereses comerciales. Esto pronto condujo al desarrollo de sistemas mejorados de máquinas comerciales de tarjetas perforadas por IBM, Remington-Rand, Burroughs y otras corporaciones. Estos sistemas utilizaban dispositivos electromecánicos; la energía eléctrica proporcionaba el movimiento mecánico, como para hacer girar las ruedas de una máquina de sumar. Estos sistemas pronto incluyeron funciones para introducir automáticamente un número determinado de tarjetas desde una estación de “lectura”; realizar operaciones como la adición, la multiplicación y la clasificación; y alimentar las tarjetas perforadas con los resultados. Las máquinas eran lentas; normalmente procesaban de 50 a 250 tarjetas por minuto, y cada tarjeta contenía hasta 80 números decimales.
Puntualización
Sin embargo, en ese momento, las tarjetas perforadas constituían un enorme paso adelante.
Computadoras digitales automáticas. A finales del decenio de 1930, las técnicas de las máquinas perforadoras de tarjetas se habían establecido y eran fiables. Varios grupos de investigación se esforzaron ahora por construir computadoras digitales automáticas. Una máquina prometedora, construida con piezas electromecánicas estándar, fue construida por un equipo de IBM dirigido por Howard Hathaway Aiken. La máquina de Aiken, llamada la Marca I de Harvard, manejaba 23 números decimales (palabras) y podía realizar las cuatro operaciones aritméticas.
Otros Elementos
Además, tenía programas especiales incorporados, o subrutinas, para manejar logaritmos y funciones trigonométricas. La Mark I se controlaba originalmente desde una cinta de papel preperforada sin posibilidad de inversión; esto significaba que las instrucciones automáticas de “transferencia de control” no podían ser programadas. La salida se realizaba mediante perforadora de tarjetas y máquina de escribir eléctrica. La Mark I utilizaba contra-ruedas giratorias IBM como componentes clave además de los relés electromagnéticos.
Puntualización
Sin embargo, se clasificó como un ordenador de relés. Era lenta, requería de 3 a 5 segundos para una multiplicación, pero era totalmente automática y podía realizar cálculos largos. Mark I fue la primera de una serie de computadoras diseñadas y construidas bajo la dirección de Aiken.
Computadoras digitales electrónicas
El estallido de la Segunda Guerra Mundial produjo una necesidad desesperada de capacidad de computación, especialmente para los militares. Se produjeron nuevos sistemas de armas para los que faltaban tablas de trayectoria y otros datos esenciales.Entre las Líneas En 1942 un grupo de la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania decidió construir una computadora electrónica de alta velocidad para hacer el trabajo. Liderando el grupo estaban J. Presper Eckert y John W. Mauchly. La máquina resultante se conoció como ENIAC; el acrónimo significaba Electronic Numerical Integrator and Computer (o Calculator). El tamaño de su palabra numérica era de diez dígitos decimales, y podía multiplicar dos de esos números a razón de 300 productos por segundo. Lo hacía encontrando el valor de cada producto a partir de una tabla de multiplicación almacenada en su memoria. Aunque era difícil de operar, ENIAC era todavía muchas veces más rápido que la anterior generación de ordenadores de relevo.
ENIAC utilizó 18.000 tubos de vacío estándar, ocupó 167,3 m2 de superficie y consumió unos 180.000 vatios de energía eléctrica. Tenía entrada y salida de tarjeta perforada. Aritméticamente tenía 1 multiplicador, 1 divisor-rotador cuadrado, y 20 sumadores que empleaban “contadores de anillo” decimales; este último servía también como almacenamiento de registro de lectura-escritura de acceso rápido (0,0002 segundos).
Más Información
Las instrucciones ejecutables que componían un programa estaban incorporadas en las unidades separadas de ENIAC.
Más Información
Las unidades se conectaron para formar una ruta a través de la máquina para el flujo de los cálculos. Estas conexiones tenían que ser rehechas para cada problema diferente, junto con tablas de funciones e interruptores preestablecidos. Esta técnica de instrucción de “cablear lo propio” era inconveniente, y ENIAC apenas podía considerarse programable; sin embargo, era eficiente en el manejo de los programas particulares para los que había sido diseñado. ENIAC se utilizó de forma productiva desde 1946 a 1955. Se reconoce generalmente que fue la primera computadora digital electrónica de alta velocidad (EDC) que tuvo éxito.
Puntualización
Sin embargo, en 1971 se desarrolló una controversia sobre la patentabilidad de los conceptos digitales básicos de ENIAC. Se afirmó que otro físico estadounidense, John V. Atanasoff, ya había utilizado las mismas ideas en un dispositivo de tubo de vacío más sencillo que construyó en el decenio de 1930 en el Iowa State College.Entre las Líneas En 1973, el tribunal falló a favor de que la compañía usara la demanda de Atanasoff.
El Programa de Almacenamiento Moderno EDC
Intrigado por el éxito de ENIAC, el matemático John von Neumann emprendió (1945) un estudio teórico de la computación. (Tal vez sea de interés más investigación sobre el concepto). Demostró que un ordenador podía tener una estructura física muy simple y fija y, sin embargo, ser capaz de ejecutar cualquier tipo de cómputo de manera efectiva por medio de un control programado adecuado; no debería existir necesidad de ningún cambio en el hardware. Von Neumann aportó una nueva comprensión de cómo deben organizarse y construirse las computadoras prácticas y rápidas; estas ideas, a menudo denominadas la técnica de programas almacenados, se convirtieron en fundamentales para las futuras generaciones de computadoras digitales de alta velocidad.
La técnica de programas almacenados implica muchas características de diseño y función de la computadora además de la nombrada; en combinación, estas características hacen factible el funcionamiento a muy alta velocidad. No se pueden dar detalles aquí.
Puntualización
Sin embargo, se puede dar un vistazo considerando lo que implican 1.000 operaciones aritméticas por segundo. Si cada instrucción de un programa de trabajo se utilizara sólo una vez en orden consecutivo, ningún programador humano podría generar suficientes instrucciones para mantener la computadora ocupada.
Una Conclusión
Por lo tanto, se deben hacer arreglos para que partes del programa de trabajo -llamadas subrutinas- se usen repetidamente de una manera que dependa de cómo progrese el cálculo.
Otros Elementos
Además, sería claramente útil que las instrucciones pudieran ser alteradas según sea necesario durante un cálculo para que se comporten de manera diferente. Von Neumann satisfizo ambas necesidades. Proporcionó un tipo especial de instrucción de máquina llamada transferencia de control condicional, que permitía que la secuencia del programa se interrumpiera y se reiniciara en cualquier punto. También almacenó todos los programas de instrucción junto con los datos en la misma unidad de memoria; esto significaba que las instrucciones podían ser modificadas aritméticamente, cuando se deseara, de la misma manera que los datos.
La computación y la programación podían ahora ser más rápidas, más flexibles y más eficientes. Las subrutinas de uso frecuente no tenían que ser reprogramadas para cada nuevo problema; podían mantenerse intactas en “bibliotecas” y leerse en la memoria cuando fuera necesario. De esta manera, gran parte de un programa dado podía ser ensamblado a partir de la biblioteca de subrutinas. La memoria de la computadora multipropósito se convirtió en el lugar de ensamblaje en el que se almacenaban las partes de un largo cálculo, se trabajaba a destajo y se ensamblaba para formar los resultados finales. El control de la computadora servía como un corredor de recados para todo el proceso. Tan pronto como las ventajas de estas técnicas se hicieron evidentes, las técnicas se convirtieron en una práctica estándar.
La primera generación de modernos ordenadores electrónicos programados para aprovechar estas mejoras apareció en 1947. Este grupo incluía computadoras que usaban memoria de acceso aleatorio (RAM); esta es una memoria diseñada para dar acceso casi constante a cualquier pieza de información en particular. Estas máquinas tenían dispositivos de entrada y salida de tarjeta o cinta perforada y RAM de 1.000 palabras con un tiempo de acceso de 0,5 microsegundos (0,5 × 10-6 seg.); algunas de ellas podían realizar multiplicaciones en 2 a 4 microsegundos (examine más sobre todos estos aspectos en la presente plataforma online de ciencias sociales y humanidades). Físicamente, eran mucho más compactos que ENIAC. Algunos tenían el tamaño de un piano de cola y requerían 2.500 pequeños tubos de electrones, mucho menos que los requeridos por las máquinas anteriores. La primera generación de ordenadores de programas almacenados requería un mantenimiento considerable. Alcanzaron tal vez un 70% a 80% de funcionamiento fiable y se utilizaron durante 8 a 12 años. Típicamente, se programaban directamente en lenguaje de máquina, aunque a mediados de la década de 1950 se habían hecho progresos en aspectos de programación avanzada. Estas máquinas incluían EDVAC y UNIVAC, las primeras computadoras disponibles en el mercado.
Los avances en la década de 1950. En la década de 1950 dos importantes descubrimientos de ingeniería provocaron un cambio significativo en las computadoras. Permitieron pasar de máquinas rápidas pero a menudo poco fiables a un hardware de fiabilidad relativamente alta e incluso de mayor capacidad.
Informaciones
Los descubrimientos fueron la memoria del núcleo magnético y el elemento de circuito de transistores (ver memoria de la computadora).
Estos avances técnicos encontraron rápidamente su camino en nuevos modelos de computadoras digitales. La capacidad de la memoria RAM aumentó de 8.000 a 64.000 palabras en las máquinas disponibles en el mercado a principios de la década de 1960; los tiempos de acceso eran de 2 ó 3 microsegundos. Las máquinas eran muy caras de comprar o alquilar. También eran muy caras de operar debido al costo (o coste, como se emplea mayoritariamente en España) de la expansión de la programación. (Tal vez sea de interés más investigación sobre el concepto). Tales computadoras se encontraban típicamente en grandes centros de computación con muchos programadores y personal de apoyo; estos centros sólo podían ser operados por la industria, el gobierno y los laboratorios privados.
Esta situación condujo a modos de operación que permitían compartir la alta capacidad disponible. Uno de estos modos es el procesamiento por lotes.Entre las Líneas En éste, los problemas se preparan y luego se mantienen listos para el cómputo en un medio de almacenamiento relativamente barato, como tambores magnéticos, paquetes de discos magnéticos o cintas magnéticas. Cuando la computadora termina con un problema, típicamente “vuelca” todo el problema -programa y resultados- en una de estas unidades de almacenamiento periférico y toma un nuevo problema. Otro modo de uso de las máquinas rápidas y potentes se llama tiempo compartido.Entre las Líneas En el tiempo compartido, la computadora procesa muchos trabajos en espera en una sucesión tan rápida que cada trabajo avanza tan rápidamente como si los otros trabajos no existieran. Estos modos de funcionamiento requieren elaborados programas “ejecutivos” para atender la administración de las diversas tareas.
Avances en los años 60. En la década de 1960, los esfuerzos para diseñar y desarrollar las computadoras más rápidas posibles con la mayor capacidad alcanzaron un punto de inflexión con la finalización de dos máquinas. Una fue la máquina LARC para los Laboratorios de Radiación Livermore de la Universidad de California, fabricada por la Corporación Sperry-Rand; la otra fue la computadora Stretch de IBM. La LARC tenía una memoria central de 98.000 palabras y se multiplicaba en 10 microsegundos. Stretch estaba provisto de varios rangos de memoria con un acceso más lento para los rangos de mayor capacidad. El tiempo de acceso más rápido fue menos de 1 microsegundo; la capacidad total fue de alrededor de 100 millones de palabras.
Durante este período los principales fabricantes de computadoras comenzaron a ofrecer una gama de capacidades y costos (o costes, como se emplea mayoritariamente en España) de computación, así como diversos equipos periféricos. Estos últimos incluían medios de entrada como consolas y alimentadores de tarjetas; medios de salida como impresoras de páginas, pantallas de tubo de rayos catódicos y dispositivos gráficos; y almacenamiento opcional de archivos de cinta magnética y disco magnético. Éstos se utilizaban ampliamente en los negocios para aplicaciones como la contabilidad, la nómina, el control de inventario, el pedido de suministros y la facturación. (Tal vez sea de interés más investigación sobre el concepto).
Más Información
Las unidades centrales de procesamiento (CPU) para estos fines no necesitaban ser muy rápidas aritméticamente; se han utilizado principalmente para acceder a grandes cantidades de registros en archivo, manteniéndolos actualizados. La mayoría de los sistemas informáticos se han entregado para las aplicaciones más modestas, como en los hospitales para llevar un registro de los registros de los pacientes, los medicamentos y los tratamientos administrados. También se utilizan en sistemas automatizados de bibliotecas, como MEDLARS, el sistema de recuperación de la Biblioteca Médica Nacional; y en el sistema de Resúmenes Químicos, una vasta base de datos de información relacionada con la química.
Avances posteriores. Durante la década de 1970 la tendencia fue, hasta cierto punto, alejarse de los centros de cómputo centralizados extremadamente poderosos. El movimiento fue hacia un rango más amplio de aplicaciones para sistemas de computación menos costosos. La mayoría de las manufacturas de proceso continuo, como los sistemas de refinación de petróleo y de distribución de energía eléctrica, pasaron a utilizar computadoras de capacidad relativamente modesta para controlar y regular sus actividades.Entre las Líneas En el decenio de 1960, los problemas de programación de las aplicaciones constituían un obstáculo para la autosuficiencia de las instalaciones informáticas in situ de tamaño moderado. Los grandes avances en los lenguajes de programación de aplicaciones eliminaron entonces estos obstáculos. Los lenguajes de aplicación se hicieron disponibles para controlar una gran variedad de procesos de fabricación, para el funcionamiento de las máquinas herramienta por computadora y para muchas otras tareas.
Además, hubo otra revolución en el hardware de las computadoras. Esto implicó la miniaturización de los circuitos lógicos de las computadoras y de la fabricación de componentes mediante técnicas de integración a gran escala, o LSI.Entre las Líneas En el decenio de 1950 se comprendió que la “reducción a escala” del tamaño de los circuitos electrónicos digitales y las piezas de las computadoras aumentaría la velocidad y la eficiencia y, por lo tanto, mejoraría el rendimiento. Lo que se necesitaba eran los métodos de fabricación para lograrlo. Alrededor de 1960, la fotoimpresión de placas de circuitos conductores para eliminar el cableado se desarrolló mucho. Entonces se hizo posible construir resistencias y condensadores en el circuito por medios fotográficos (ver circuito impreso).
En la década de 1970 la deposición en vacío de transistores se hizo común. Como resultado, ensamblajes enteros, como sumadores, registros de desplazamiento y contadores, se hicieron disponibles en pequeños “chips”. Durante esta década muchas empresas introdujeron minicomputadoras programables provistas de paquetes de software. La tendencia a la reducción de tamaño continuó con la introducción de las computadoras personales (PC). Estas eran máquinas programables lo suficientemente pequeñas y baratas como para ser compradas y utilizadas por individuos; ahora se conocen como computadoras de escritorio. Muchas compañías, como Apple Computer y Radio Shack, introdujeron con mucho éxito máquinas de escritorio. El desarrollo de estas pequeñas computadoras se expandió rápidamente.
En los años 80, la integración a muy gran escala (VLSI), en la que se colocan cientos de miles de transistores en un solo chip, se hizo cada vez más común. Durante esa década el gobierno japonés anunció un plan masivo para diseñar y construir una nueva generación de supercomputadoras que emplearían nuevas tecnologías en VLSI. Este proyecto llamado de quinta generación, sin embargo, fue abandonado a principios de los años 90 (ver inteligencia artificial). El enorme éxito de la PC y los consiguientes avances en la tecnología de microprocesadores iniciaron grandes cambios en la industria informática. Se pudieron adquirir cantidades rápidamente crecientes de potencia de computación por los mismos costos (o costes, como se emplea mayoritariamente en España) básicos. Los microprocesadores equipados con ROM, o memoria de sólo lectura (que almacena programas usados constantemente, sin cambios), ahora también realizaban una enorme variedad de tareas. Se utilizaban en un número creciente de funciones de control de procesos, pruebas, monitoreo y diagnóstico en la industria. A la llegada del siglo XXI, se podían encontrar hasta 50 microprocesadores en un automóvil.
El primer fabricante de microordenadores de la historia pronto se vería eclipsado por las firmas estadounidenses Tandy, Commodore y, sobre todo, Apple, que, creada en 1976, puso sus miras en el gran público lanzando su primer ordenador personal, el Apple II, en 1977. A principios de los años 80, cuando decenas de programas informáticos (hojas de cálculo y procesadores de texto) empezaron a estar disponibles en el mercado y el microordenador se definió claramente como un producto “de oficina”, I.B.M. (International Business Machines Corporation), confiada en su vasta clientela profesional, dio un giro en este sentido: fue el nacimiento del I.B.M. PC (ordenador personal).
En la década de 1990 estos cambios obligaron a la industria de la informática a hacer ajustes sorprendentes. Los gigantes de larga data, así como los posteriores, redujeron su personal de trabajo, cerraron fábricas y eliminaron subsidiarias. Al mismo tiempo, la competencia en el campo del hardware se intensificó. Los productores de computadoras más pequeñas continuaron proliferando. También lo hicieron las compañías especializadas en un área de fabricación, distribución o servicio al cliente.
La industria informática sigue creciendo. Las computadoras han disminuido en tamaño mientras que aumentan en potencia, haciéndolas ubicuas en el hogar, la escuela, la oficina y el uso móvil. El software se ha convertido en el componente más costoso de muchos sistemas.
Puntualización
Sin embargo, la programación modular orientada a objetos y el movimiento de código abierto han disminuido esta tendencia al alza de los costos. Las tecnologías de la informática y las telecomunicaciones continúan integrándose.
Las redes informáticas, el correo electrónico y la publicación electrónica son sólo algunas de las aplicaciones que han madurado a finales del siglo XX y principios del XXI. El crecimiento más fenomenal se ha producido en áreas relacionadas con el desarrollo de Internet. Sus ramificaciones van desde el desarrollo de programas informáticos hasta el comercio mundial (o global) y la seguridad nacional.
Cómo funcionan las computadoras digitales
Codificación y procesamiento digital. Para procesar números y datos electrónicamente, es necesario representar la información como cantidades eléctricas. Para representar los diez dígitos del conocido sistema numérico decimal, se podría elegir un conjunto de diez valores eléctricos y asignar un valor a cada uno de los diez dígitos. Esta disposición parece sencilla.
Puntualización
Sin embargo, no puede utilizarse en ordenadores, porque el amplio rango de valores necesarios hace que sea imposible construir circuitos prácticos.
Otros Elementos
Además, cuando se incluyen caracteres distintos de los números en la lista de elementos a procesar, el aumento del número de valores distintos se hace inviable.
Para resolver el problema, todos los datos se codifican como números binarios. La distinción más fiable en los sistemas eléctricos se produce cuando sólo existen dos valores posibles. Una bombilla, por ejemplo, puede estar encendida o apagada; las dos posibilidades son distintas e inconfundibles.
Informaciones
Los dos valores binarios cero y uno se utilizan para representar las ideas eléctricas apagadas y encendidas. Estos dígitos individuales suelen denominarse bits. También se requiere una forma de ampliar el conjunto de posibles representaciones más allá de dos. Si se permite que una cadena de ceros y unos represente un dígito o carácter, entonces el número de representaciones posibles se convierte en el valor de dos a la potencia del número de bits. Por ejemplo, si se utilizan cuatro bits, entonces hay 24, o 16, secuencias de cuatro bits posibles que pueden construirse. El conjunto de secuencias es el siguiente: 0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111. Este conjunto puede, por supuesto, ser usado para representar 16 caracteres y dígitos en lugar de sólo 10. Si se utilizan secuencias de seis bits, entonces se pueden representar 64 posibles caracteres y dígitos.
Esta codificación binaria de los artículos es el principal medio para representar todos los datos en las computadoras electrónicas. Se utilizan muchas longitudes diferentes de secuencias de bits. Algunas longitudes comunes son cuatro, seis y ocho. Típicamente, los diez dígitos de la aritmética decimal están representados por las primeras diez secuencias en las cadenas de cuatro bits mencionadas anteriormente. Esto se llama la representación decimal con código binario.
Dentro de la computadora, los estados electrónicos de encendido y apagado se realizan utilizando unidades lógicas básicas llamadas puertas. Los interruptores de luz ordinarios son ejemplos observables de puertas electrónicas. A medida que las operaciones requeridas de una computadora se volvieron más complejas, se desarrollaron interruptores que tienen una variedad de formas en las que se pueden encender o apagar. A fin de describir sistemáticamente esas formas, se definen dos funciones elementales. Estas son la función Y y la función O. El resultado de la función AND con cualquier número de valores binarios es verdadero si todos los valores son verdaderos; de lo contrario, es falso. Generalmente, un uno corresponde a un valor verdadero y un cero a un valor falso. El resultado de la función OR con cualquier número de valores binarios es verdadero si alguno (o más) de los valores es verdadero. Aplicando estas dos funciones junto con la función inversa (NOT), que toma cualquier valor y produce el valor opuesto, se puede describir cualquier actividad necesaria en el procesamiento digital.
Las funciones lógicas Y y O se ven fácilmente para proporcionar decisiones, como: hacer A si B Y (NO C) son verdaderas. La aritmética también puede describirse en estos términos lógicos. Por ejemplo, la suma de dos dígitos binarios, A y B, produce un término de suma, S, y un término de arrastre, C, según las siguientes relaciones: S = A Y (NO B) O (NO A) Y B, y C + A Y B. La matemática de este tipo se llama álgebra booleana.
En las computadoras electrónicas modernas el transistor es el dispositivo que actúa como un interruptor. Cuando se construyeron las primeras computadoras que usaban transistores, el tamaño de cada transistor era de alrededor de 0,125 in2 (0,806 cm2). Hoy en día, cientos de transistores pueden residir en un espacio comparable cuando se integran en un chip semiconductor (ver circuito integrado). Las tecnologías y procesos que se utilizan para hacer circuitos integrados microscópicos son a su vez posibles gracias a las computadoras. Estas tecnologías incluyen el enmascaramiento, el grabado y la epitaxia. Aprovechan las propiedades únicas del silicio para crear no sólo transistores, sino también complejas vías de conducción y otros elementos dentro de pequeños chips individuales. (Véase también Diseño asistido por ordenador y Fabricación asistida por ordenador).
Componentes de una computadora digital. Cualquier computadora digital contiene cuatro elementos básicos: una unidad aritmética y lógica, una unidad de memoria, una unidad de control y unidades de entrada y salida. Debido a que las computadoras se utilizan actualmente para todo tipo de propósitos, el contenido de cada uno de los elementos básicos varía enormemente.
Puntualización
Sin embargo, cada elemento debe estar presente.
La unidad aritmética y lógica es la parte de la computadora en la que se manipulan los valores de los datos y se realizan los cálculos. Esta sección de la computadora suele contener numerosos registros y caminos entre estos registros. Los registros son colecciones de dispositivos de memoria que pueden guardar valores particulares. Por ejemplo, cuando se han de sumar números, éstos deben estar presentes en un lugar físico de la computadora donde se va a realizar la suma. El registro puede dar cabida a esto. Un circuito utiliza entonces el contenido del registro para determinar la suma. La idea es idéntica a la forma en que se sumarían dos números en una hoja de papel.
En una aplicación típica, un ordenador realiza millones de cálculos cada segundo. Es imposible mantener todos los valores necesarios en los registros en todo momento. Como resultado, la velocidad de cálculo se convierte en un factor para determinar la capacidad de trabajo de un ordenador. Las funciones matemáticas distintas de la suma pueden ser incorporadas en una unidad aritmética y lógica. Estas incluyen la resta, la multiplicación y la división.
No todas las computadoras están construidas para realizar cálculos con valores. Algunas están diseñadas para clasificar listas de elementos o seleccionar elementos que tienen una cierta propiedad. Por ejemplo, una biblioteca puede tener todo su catálogo de fichas almacenado en una computadora. Cuando un prestatario busca un título determinado, la computadora se encarga de buscar en la lista de libros de la biblioteca y de comparar el título deseado con la lista. No se trata de un problema aritmético sino lógico. Los problemas lógicos implican el examen de los valores de ciertas propiedades y la toma de decisiones basadas en esas propiedades. Todos los problemas lógicos pueden describirse como una colección de funciones Y, O, e inversas (NO).
Dado que todos los operandos necesarios para la ejecución de las funciones aritméticas y lógicas no pueden almacenarse en registros, se proporciona otro medio. Se trata de la unidad de memoria. La unidad de memoria almacena los datos que no se están procesando actualmente. El funcionamiento de una computadora requiere una lista de instrucciones de procedimiento, que también se almacena en la memoria. Hay dos tipos de memoria. La memoria primaria almacena los datos e instrucciones que se utilizan con mayor frecuencia. La memoria secundaria almacena información relacionada que se utiliza con menos frecuencia. La memoria secundaria suele almacenar un gran lote de datos que un programa de la memoria primaria evaluará.
El proceso de invocar el contenido de la memoria se denomina operación de búsqueda. El proceso de guardar un valor en la memoria se denomina operación de almacenamiento o, a veces, de escritura. Cuando se necesita con frecuencia el contenido almacenado en la memoria, como en el caso de las instrucciones de procedimiento, la computadora debe recuperar la información rápidamente y no necesariamente en orden secuencial. La memoria primaria se emplea para esta tarea. El contenido de ciertos segmentos de la memoria primaria puede sustituirse durante la ejecución de un programa si los datos que se necesitan se almacenan en la memoria secundaria.
La memoria secundaria se denomina a veces memoria masiva. Cuando se va a utilizar la información almacenada en la memoria secundaria, la computadora debe obtener normalmente mucho más que los datos específicos necesarios. Por ejemplo, los nombres, las alturas, los pesos, las edades, las calificaciones y otros datos de una clase de estudiantes pueden almacenarse en la memoria secundaria. A fin de determinar el peso medio de los miembros de la clase, la computadora obtendría toda la información en la memoria primaria. A continuación, seguiría las instrucciones para extraer el peso de cada miembro.
Detalles
Por último, se calcularía un promedio utilizando la unidad aritmética y lógica. La memoria secundaria se almacena normalmente en cintas o discos magnéticos y se segmenta en archivos.
El proceso de entrada y salida de información en la computadora es manejado por una unidad de entrada y salida.
Informaciones
Los dispositivos de entrada-salida salvan la brecha entre los datos en la forma utilizada por la computadora y los datos en la forma utilizada con un dispositivo de acceso particular. El teclado de una computadora es uno de esos dispositivos; es una paleta de caracteres que incluye letras, números, signos de puntuación y términos especiales. El procesador de la computadora interpreta sólo cadenas de ceros y unos. El teclado hace la conversión de los caracteres tecleados a secuencias binarias.
También es el trabajo de una unidad de entrada y salida para manejar los problemas de tiempo. Por ejemplo, la velocidad a la que los mecanógrafos pueden pulsar las teclas varía enormemente.
Otros Elementos
Además, es un desperdicio para la computadora esperar a que se introduzcan todos los caracteres necesarios antes de comenzar una secuencia de procesamiento, y los dispositivos de entrada-salida pueden aliviar este problema. Problemas de tiempo similares surgen cuando la computadora ha completado las operaciones y luego debe mostrar los resultados. Lo más frecuente es que esto se haga con impresoras y terminales de visualización de vídeo.Entre las Líneas En muchos casos los resultados se transmiten a otra computadora.Entre las Líneas En ciertos momentos durante las operaciones de una computadora, varias transacciones diferentes de entrada y salida pueden realizarse simultáneamente. Parte de la carga de la gestión de esta actividad pertenece a las propias unidades de entrada y salida.
Puntualización
Sin embargo, la dirección general es gestionada por la unidad de control.
Cada una de las partes de la computadora descritas hasta ahora -aritmética y lógica, memoria y entrada-salida- es capaz de realizar sus propias funciones y comunicar los resultados.
Puntualización
Sin embargo, para que estas partes trabajen juntas de manera efectiva, es necesario tener una unidad de control que coordine las acciones. Para realizar este trabajo, la unidad de control establece un marco temporal de referencia. Por lo general, el tiempo dentro de una computadora se divide en momentos cuya duración está determinada por una tasa básica a la que los componentes de la unidad de control pueden reaccionar. Esta tasa es fijada por un reloj de precisión. (Tal vez sea de interés más investigación sobre el concepto).
Puntualización
Sin embargo, todas las partes de la computadora no pueden actuar a la misma velocidad. Para acomodar esto, se desarrollan también períodos de tiempo más largos, basados en fracciones de la tasa fija. Al diseñar la computadora de manera que cada actividad esté relacionada con la fuente del reloj, los eventos se vuelven predecibles, responsables y fáciles de coordinar.
La unidad de control inicia una operación obteniendo primero una instrucción de una lista de instrucciones, llamada programa. El programa se almacena en la memoria primaria. Cada instrucción es una descripción exacta de cómo deben responder las unidades de hardware en un momento dado en el esquema de tiempo de la computadora. El programa puede compararse con una receta para hacer un pastel.
Observación
Además de una lista de ingredientes, la receta contiene una descripción paso a paso de cómo manipular los ingredientes para producir el pastel. Del mismo modo, la unidad de control de una computadora está hecha para proceder a través de una lista de instrucciones que describen cómo manipular ciertos datos. Una simple computadora es capaz de realizar sólo una tarea a la vez. Las computadoras más complejas tienen la capacidad de realizar varias tareas con una sola instrucción. (Tal vez sea de interés más investigación sobre el concepto). Independientemente del nivel de complejidad, la unidad de control actúa como un ejecutivo. Proporciona a cada parte de la computadora la información necesaria para realizar su función, supervisar su progreso y determinar qué hacer a continuación. (Tal vez sea de interés más investigación sobre el concepto). La unidad aritmética y lógica, la unidad de control y la memoria primaria constituyen lo que se suele denominar CPU, o unidad central de procesamiento.
Operación y programación de la computadora. Como se ha dicho, todas las computadoras requieren un programa, o lista de instrucciones, para guiar su actividad. A veces el programa está diseñado, o reside, dentro del hardware del ordenador; no se puede cambiar sin rediseñar el hardware. Más a menudo, el programa se introduce como software en la memoria y puede ser fácilmente eliminado o alterado. De hecho, las computadoras que no tienen un programa de hardware suelen tener varios programas disponibles en la memoria al mismo tiempo. Algunos de estos programas se emplean en el funcionamiento general de la computadora, es decir, controlan las funciones ejecutivas. Estos programas forman parte de lo que se conoce como sistema operativo.
Las computadoras modernas tienen en realidad dos secciones del sistema operativo. La primera y más primitiva sección generalmente se almacena en una memoria permanente en el hardware. Esta porción del sistema proporciona la configuración y las conexiones entre los elementos básicos de la computadora.Entre las Líneas En las computadoras actuales, este sistema operativo primitivo es el BIOS (sistema básico de entrada/salida) que viene con el hardware. La segunda porción del sistema se encuentra en un almacenamiento secundario para su ejecución cuando sea necesario. Estos sistemas más complejos, como UNIX y, hasta hace poco, DOS, realizan una variedad de tareas de manejo de archivos utilizando un conjunto de comandos estructurados. Otra capa del sistema operativo utiliza gráficos en lugar de comandos mecanografiados. Productos como Microsoft Windows y Apple Macintosh utilizan los gráficos de esta manera.
Informaciones
Los diversos niveles del sistema operativo funcionan juntos para coordinar y manejar la interacción del hardware y el software de la máquina para el funcionamiento de la computadora.
Además de los programas que gobiernan los sistemas operativos, otros programas son escritos para propósitos específicos. Por ejemplo, calcular la nómina de una empresa, jugar a juegos, hacer el balance de las chequeras, editar textos, etc. Se denominan programas de usuario o aplicaciones de usuario (véase programación informática). Aunque un sistema operativo es necesario para que una computadora funcione, las aplicaciones de usuario cumplen los objetivos específicos para los que se emplea la computadora.
Los elementos del procesador interactúan de una manera que está determinada en gran medida por el diseño del hardware. Están controlados por sistemas operativos, de los que puede haber muchos tipos adecuados.
Puntualización
Sin embargo, el funcionamiento de la memoria secundaria y de diversos dispositivos de entrada y salida introduce requisitos que reducen el número de sistemas operativos adecuados. Debe elegirse un sistema operativo que pueda gestionar las interacciones de determinados tipos de teclados, módems, unidades de disco, impresoras, sistemas de salida de vídeo, etc.
Las memorias secundarias que utilizan cintas magnéticas tienen información almacenada en secuencia a lo largo de la cinta. Para poder acceder a datos específicos, la cinta debe ser movida y buscada hasta encontrar la porción deseada. Esto lleva mucho tiempo.
Informaciones
Los discos magnéticos, o discos duros, almacenan la información en anillos concéntricos que pueden ser buscados más rápidamente escaneando en dirección radial. Estas diferencias en el tiempo de acceso y la organización de los contenidos requieren que se apliquen diferentes tipos de sistemas operativos a los sistemas de cinta y disco. Se hacen consideraciones similares para las unidades de entrada y salida.
Puntualización
Sin embargo, el factor dominante en el diseño de los sistemas operativos es la interacción con la memoria.
Los programas informáticos se denominan software (el término general) o, a veces, firmware. Ambos son un conjunto de instrucciones que residen en la memoria para su ejecución. (Tal vez sea de interés más investigación sobre el concepto). Los programas se denominan firmware cuando las instrucciones se encuentran en una ROM (memoria de sólo lectura), que es inalterable durante el funcionamiento. El BIOS de una máquina es el firmware.
Más Información
Las instrucciones ejecutadas desde la RAM (memoria de acceso aleatorio) se denominan software; esto constituye la mayoría de los programas actuales. Los programas se escriben para un número de niveles diferentes dentro de la computadora y en un número de lenguajes de programación diferentes (ver lenguajes de computadora). Una computadora es capaz de realizar una función particular una vez que se le da una señal, pero a menudo hay varias maneras en las que puede realizar la función. (Tal vez sea de interés más investigación sobre el concepto).
Una Conclusión
Por lo tanto, se le debe instruir más para que utilice un determinado método. La enumeración de las funciones de una computadora, junto con sus métodos para realizar las funciones, se denomina conjunto de instrucciones de la computadora.
El conjunto de instrucciones se puede ver desde la perspectiva del programador o de la máquina.Entre las Líneas En el caso de la máquina, las instrucciones deben codificarse en términos de unos y ceros. Desde la perspectiva del programador, las páginas llenas de unos y ceros son tediosas y difíciles de interpretar. Por esta razón se asignan acrónimos a cada instrucción del conjunto, haciéndolas más legibles. Por ejemplo, si se añaden dos números que están almacenados en dos registros, se les puede dar la etiqueta ADD A, B. El lenguaje de los unos y los ceros se llama lenguaje de máquina. El lenguaje que utiliza etiquetas para simplificar las cosas se llama lenguaje ensamblador. El proceso de convertir el lenguaje ensamblador en lenguaje de máquina se llama ensamblado. Todo programa debe ser eventualmente convertido al lenguaje de máquina para poder ser ejecutado.
El lenguaje ensamblador es mucho más fácil de manejar que el lenguaje máquina.
Puntualización
Sin embargo, es difícil de usar, especialmente en grandes y complejos conjuntos de instrucciones.
Otros Elementos
Además, los programas en lenguaje ensamblador no pueden ser usados en diferentes computadoras. Ambos problemas se resuelven con el uso de lenguajes de alto nivel.
Más Información
Las instrucciones en los lenguajes de alto nivel se dan en términos más fácilmente comprensibles que los de los programas en lenguaje ensamblador.
Otros Elementos
Además, tales instrucciones en lenguajes de alto nivel son relativamente independientes de la computadora particular en la que se ejecutan. Una instrucción de alto nivel se puede dividir en varias instrucciones de nivel ensamblador. Cuando este proceso es realizado por un ordenador, se llama compilación. (Tal vez sea de interés más investigación sobre el concepto). Un solo lenguaje de alto nivel tendrá un compilador diferente para cada tipo de computadora en la que se utilice el lenguaje. Algunos ejemplos de lenguajes de alto nivel comunes son BASIC, C, Java, LISP, Pascal, Python y Ruby.
La programación exitosa requiere que una tarea se descomponga en pasos metódicos llamados algoritmos. Esto debe ser entendido no sólo por la computadora sino también por otros programadores. Después de que un programa es escrito, debe ser revisado minuciosamente para eliminar los errores. Este proceso a menudo consume tanto tiempo como la escritura (su redacción) del programa.
Las dificultades que se encuentran con más frecuencia dentro de los programas son de dos tipos. El uso de una serie de pasos incorrectos en el diseño de un algoritmo se llama error lógico. El uso incorrecto del lenguaje de programación se denomina error de programación. (Tal vez sea de interés más investigación sobre el concepto). El proceso de localizar estos errores se llama depuración. (Tal vez sea de interés más investigación sobre el concepto). Es una tarea ardua, pero es crucial, porque el rendimiento final de un ordenador depende totalmente de la lógica estricta de sus programas. (Un programa también puede fallar en su funcionamiento debido a su incompatibilidad con otros programas o sistemas operativos).
Aplicaciones informáticas. La influencia directa o indirecta de las computadoras es ahora casi universal. Las computadoras se utilizan en aplicaciones tan diversas como el diagnóstico de una enfermedad, el diseño, la construcción y el lanzamiento de un vehículo espacial y el funcionamiento de una granja. La ciencia es un campo en el que las computadoras se han aplicado ampliamente desde el principio. Debido a que el desarrollo de las computadoras ha sido en gran medida obra de los científicos, es natural que un gran cuerpo de aplicaciones informáticas sirva al científico. Para resolver los problemas científicos, es inevitable que los investigadores tengan que lidiar con el lenguaje de la ciencia: las matemáticas. Al intentar comprender más profundamente los fenómenos naturales complejos, el científico debe utilizar las relaciones matemáticas que se hacen cada vez más difíciles.
Informaciones
Los datos también se vuelven más voluminosos. Sería imposible manejar muchos de los estudios de fenómenos científicos complejos sin la ayuda de las computadoras.
Muchos programas de computación científica sirven inevitablemente a toda la población. (Tal vez sea de interés más investigación sobre el concepto). Esto puede verse en un área como la agricultura. Cuando las computadoras se utilizan para analizar los datos relativos a la ingesta de alimentos, el tamaño y el contenido de los alimentos de los animales de granja, se pueden obtener eficiencias en la producción. (Tal vez sea de interés más investigación sobre el concepto).
Una Conclusión
Por lo tanto, los beneficios de tales análisis eventualmente se filtran al consumidor.
La mejora de la precisión de la previsión meteorológica es otro ejemplo de programas informáticos más potentes. Las computadoras no sólo ayudan a pronosticar el tiempo, sino que permiten a los meteorólogos analizar cantidades cada vez más grandes de datos y, por lo tanto, contribuyen a la comprensión de la ciencia del tiempo. Las computadoras también hacen posible las ya conocidas imágenes satelitales de los sistemas meteorológicos. La tecnología necesaria para poner los satélites en órbita también es proporcionada por las computadoras de gran escala. Todavía queda un largo camino por recorrer antes de que el tiempo se pronostique con gran precisión. (Tal vez sea de interés más investigación sobre el concepto). Se espera, sin embargo, que las futuras generaciones de supercomputadoras, utilizando técnicas como el procesamiento paralelo, logren este objetivo.
Las empresas ahora usan las computadoras extensamente y a nivel mundial. Un ejemplo bien conocido es la industria bancaria, que depende casi por completo de las computadoras. Los cajeros automáticos (ATM) son ahora omnipresentes.Entre las Líneas En cierto modo, son poco más que dispositivos de entrada y salida para la computadora de un banco.
Puntualización
Sin embargo, también son un ejemplo del poderoso sistema llamado red informática. Las computadoras, las bases de datos y los dispositivos de entrada y salida están ahora conectados en todo el mundo por medio de cables, fibra óptica, transmisión inalámbrica o por satélite. El negocio bancario es típico de muchos negocios. Los problemas de mantenimiento de registros y disponibilidad de información son similares en todos los tipos de negocios. La computadora es la herramienta perfecta para tratar con tales preocupaciones.
Un área en crecimiento para las computadoras es la de las comunicaciones (ver telecomunicaciones). Las comunicaciones consisten en el flujo y el control de la información. (Tal vez sea de interés más investigación sobre el concepto). Esto forma parte de lo que hace una computadora al gestionar los datos que se mueven entre los elementos que la componen. Al ampliar el concepto de computadora para incluir redes de dispositivos de entrada y salida en lugar de un dispositivo único y completo, el resultado es un sistema de comunicaciones. Si tanto la unidad de memoria como la unidad aritmética y lógica de una computadora son relativamente pequeñas pero controlan muchos dispositivos de entrada y salida, entonces la computadora actuará más como un sistema de manejo de mensajes que como un dispositivo informático. El correo electrónico, el reconocimiento de voz, la síntesis de voz, la creación de redes de computadoras y la Internet han tenido un efecto importante en las comunicaciones de todo el mundo.
Las computadoras pequeñas, potentes y de bajo costo (o coste, como se emplea mayoritariamente en España) para el hogar han sido posibles gracias a los avances en la microelectrónica (véase microcomputadora). Las computadoras de escritorio y las máquinas más pequeñas realizan ahora muchas de las funciones de las computadoras más grandes. Inicialmente utilizadas en aplicaciones domésticas como los videojuegos y los juegos de computadora y el mantenimiento de registros, a fines del decenio de 1970, las computadoras personales estaban demostrando ser útiles también en los negocios y la educación. (Tal vez sea de interés más investigación sobre el concepto). El desarrollo de microprocesadores más potentes y los avances en las redes informáticas desde mediados y finales del decenio de 1980 hasta el decenio de 1990 dieron lugar a la utilización de computadoras personales en empresas y escuelas. (Véase la tecnología en la educación).
La autoedición es una de las principales aplicaciones de la informática personal que surgió durante este período. Se utilizan programas de software e impresoras baratas para producir textos y gráficos listos para su publicación. (Tal vez sea de interés más investigación sobre el concepto).Entre las Líneas En una sola computadora, un usuario puede escribir y editar texto; producir gráficos, como tablas y dibujos; escanear fotografías o incorporar imágenes digitales, que luego pueden ser manipuladas; disponer el texto y los elementos gráficos; y almacenar los resultados en la memoria. Los resultados pueden luego imprimirse o enviarse en disco o electrónicamente a un digitalizador. La autoedición permite a las personas producir material impreso de alta calidad a bajo costo. Muchos de los mismos instrumentos y procesos se utilizan para crear “páginas” electrónicas publicadas en la World Wide Web de Internet. Las páginas web pueden incorporar texto, imágenes, audio y vídeo. A través de la serie de redes interconectadas, un solo usuario puede comunicarse instantáneamente con una audiencia mundial.
Preocupaciones modernas. Los investigadores continúan buscando nuevas formas de construir mejores computadoras.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):
Más Información
Los objetivos incluyen la reducción de costos, el aumento de la velocidad de procesamiento, el aumento de las capacidades y la facilitación del uso de las computadoras. Esta última cualidad, la facilidad de uso, se conoce comúnmente como facilidad de uso. A veces las mejoras implican nuevos dispositivos.Entre las Líneas En otras ocasiones, se producen gracias a nuevos métodos de integración de elementos de hardware o software.
La memoria, tanto primaria como secundaria, es una parte de la computadora que ha recibido considerable atención a lo largo de los años. Originalmente, la unidad de memoria de cualquier computadora era un conjunto de pequeños anillos de hierro que podían magnetizarse con cualquiera de las dos polaridades. El proceso resultante era lento, voluminoso y caro. Desde entonces, los chips semiconductores se han convertido en los pilares de las memorias primarias, y las cintas y discos magnéticos se encargan del almacenamiento de la memoria secundaria. Se siguen experimentando otros fenómenos como posibles formas de tecnologías de la memoria. Estos incluyen los dispositivos de burbujas magnéticas, los dispositivos de tunelización de electrones y el disco compacto.Entre las Líneas En el ámbito del almacenamiento magnético, se ha realizado un esfuerzo considerable para encontrar formas de almacenar la información de forma más densa. Como resultado, en la actualidad el costo (o coste, como se emplea mayoritariamente en España) por bit de almacenamiento en disco se reduce aproximadamente a la mitad cada año. Se dispone de gigabytes (véase byte) de almacenamiento fiable en cinta y disco en formatos económicos para uso doméstico y comercial. Los sistemas de cinta, disco y disco requieren dispositivos con piezas móviles que son propensos al desgaste y a eventuales fallos. Se ha prestado atención a la ampliación de las capacidades de almacenamiento no volátil, de estado sólido, basado en la memoria flash, que no tiene piezas móviles. Históricamente esta tecnología de memoria ha sido lenta y de capacidad limitada.
Puntualización
Sin embargo, se han hecho grandes avances acoplando dispositivos de flash y escribiendo datos en ellos simultáneamente de forma paralela. Este enfoque ha aumentado significativamente la velocidad y la capacidad.
El progreso en las tecnologías de semiconductores continúa, produciendo mayores velocidades de procesamiento y la instalación de más circuitos en menos espacio. La integración a muy gran escala, la integración de cientos de miles de circuitos en una oblea de silicio, se logró a finales de los años 80. Los productos de los avances en semiconductores dan a los diseñadores la libertad de incorporar funciones en el hardware que antes tenían que ser proporcionadas por el software. De esta manera, los ordenadores ganaron tanto en velocidad como en versatilidad.
El uso de medios ópticos para almacenar información resultó atractivo principalmente porque la alta frecuencia inherente de la luz implicaba que debía proporcionar altas densidades. Por otra parte, el ojo humano es más tolerante a los errores de información que una computadora. Por esta razón, además de la dificultad de crear un material en el que se pueda escribir repetidamente utilizando luz láser, la aparición de medios de almacenamiento óptico comenzó lentamente. El uso de los discos compactos por parte de los consumidores hizo que el costo (o coste, como se emplea mayoritariamente en España) de los discos de sólo lectura (CD-ROM) fuera lo suficientemente bajo como para que se convirtieran en el medio preferido para la distribución de software. A finales del decenio de 1990, los CD grabables y regrabables se utilizaron ampliamente. A principios del decenio de 2000, se dispuso de otra opción. (Tal vez sea de interés más investigación sobre el concepto). El DVD (disco versátil digital; véase videodisco) se hizo popular por primera vez como medio de sólo lectura para películas. Pronto, las versiones grabables y regrabables del DVD se convirtieron en una opción de almacenamiento popular.
También se están desarrollando otras tecnologías ópticas láser. El uso de métodos ópticos en el procesamiento informático real está todavía en sus primeras etapas.
Puntualización
Sin embargo, ofrece la esperanza de computadoras muy rápidas y eficientes para el futuro. Algún día las computadoras podrán tener, además de memorias ópticas, procesadores ópticos (véase computación óptica).
Otra área de experimentación es la organización de las partes de la computadora. La mayoría de las memorias se organizan de manera que se le da una dirección a una ubicación, y el contenido se encuentra localizando esa dirección. (Tal vez sea de interés más investigación sobre el concepto). La memoria direccionable por contenido, o CAM, es un estilo de organización más reciente, en el que la información se localiza según su valor de contenido. Con este método una computadora puede buscar un artículo en un grupo para encontrar rápidamente todo el grupo. Por ejemplo, si el texto de este artículo estuviera almacenado en una CAM, la tarea de encontrar una determinada frase se facilitaría si la CAM permitiera a la computadora buscar una frase en particular. Las memorias de contenido direccionable están jugando un papel en los intentos de modelar las capacidades del cerebro. Las máquinas de flujo de datos son un nuevo tipo de unidad de procesamiento en el que se realizan cálculos cuando todos los argumentos del cálculo están presentes. De esta manera, incluso el tiempo para obtener un argumento o esperar un cálculo previo se utiliza para hacer algo.
Otro cambio en la organización de las computadoras -que se utiliza ahora en un porcentaje cada vez mayor de ellas- es el uso de menos instrucciones para maximizar la velocidad de procesamiento. Esta es la base de las llamadas computadoras de conjunto de instrucciones reducidas, denominadas RISC. A medida que las computadoras se abren paso en diversos usos, se desarrollan arquitecturas que mejoran la eficacia de las aplicaciones. Una aplicación como la compresión del habla para su uso en la industria de los teléfonos celulares se realiza ahora en una computadora de propósito especial que es un solo circuito integrado llamado procesador de señales digitales (DSP). Su programa es totalmente autónomo como firmware en el procesador.
Existe un gran interés en el campo de la inteligencia artificial (IA). Las tecnologías y los beneficios que se derivarán de esta área de estudio se filtrarán sin duda a todas las áreas de la informática. Gran parte del trabajo en la investigación de la IA implica programas construidos para funcionar de manera similar a la forma en que los humanos piensan. Un ejemplo es la estrategia empleada en los programas de juegos. Aquí la computadora lleva un registro de todas las respuestas posibles, tanto ganadas como perdidas, y luego construye un camino de decisión que refuerza el ganar y disuade el perder. Hasta cierto punto, esto es un algoritmo para el aprendizaje. A pesar de ciertos avances en la IA, las computadoras aún no pueden hacer más de lo que sus programas les instruyen. Los mayores éxitos comerciales en este campo han llegado con sistemas expertos. Estos son enormes sistemas de bases de datos que actúan como consultores expertos en campos como la medicina y el análisis químico. El procesamiento paralelo, en el que las computadoras descomponen las instrucciones en otras más pequeñas para ser ejecutadas simultáneamente, está jugando un gran papel en la investigación de la IA debido a las grandes velocidades de computación. (Tal vez sea de interés más investigación sobre el concepto). Las redes neuronales, que consisten en capas de sumas ponderadas de varias señales de entrada, son una forma práctica de arquitectura de computación que se utiliza para resolver problemas más intuitivos como el reconocimiento de patrones. (Una suma ponderada es la suma de números que se multiplican cada uno por algún valor).
Datos verificados por: George
Los delitos informáticos
Los delitos informáticos (también conocidos como ciberdelitos), según la definición del Departamento de Justicia de los Estados Unidos (DOJ), son “violaciones del derecho penal que implican un conocimiento de la tecnología informática para su perpetración, investigación o enjuiciamiento”.Entre las Líneas En sus explicaciones sobre el tema, el Departamento de Justicia divide los delitos informáticos en tres categorías: 1) delitos en los que los equipos, periféricos o programas informáticos son objeto de una actividad delictiva (por ejemplo, estos artículos se obtienen ilegalmente); 2) delitos en los que la computadora es el sujeto inmediato o “víctima” de un delito, como un ataque a una computadora o un sistema, cuya destrucción o perturbación constituye el delito; y 3) delitos en los que las computadoras y los sistemas conexos son el medio o instrumento mediante el cual se cometen delitos comunes, como el robo de dinero, información o datos privados, o la distribución de pornografía infantil.
VIRUS INFORMÁTICOS
La segunda categoría es la que la mayoría de las personas asocian con el delito informático (y también con la “molestia informática” en forma de spam). Estas perturbaciones comenzaron inocentemente. El primer virus, conocido como Elk Cloner, fue creado como una broma por Rich Skrenta (1967-), un estudiante de secundaria americano en 1982. El virus residía en un disco de Apple II y, en el 50º arranque del ordenador con ese disco, mostró un pequeño poema, titulado “Elk Cloner”: El programa con personalidad”, que incluía los versos: Se meterá en todos sus discos / Se infiltrará en sus chips / Sí, es Cloner!.
Desde entonces los virus se han diferenciado en otras categorías, como los troyanos.
HACKING
El término “hacker” se aplicó a los aficionados a la informática que pasaban su tiempo libre creando videojuegos y otros programas informáticos básicos. El término adquirió connotaciones negativas durante la década de 1980 cuando los expertos en informática accedieron ilegalmente a varios bancos de datos de alto perfil. Las bases de datos del Laboratorio Nacional de los Álamos (un centro de investigación de armas nucleares) y el Centro de Cáncer Sloan-Kettering en la ciudad de Nueva York estaban entre sus objetivos. El acceso a los sistemas por enlace telefónico desde cualquier computadora incrementó tales ataques.
Con el tiempo, la etiqueta de “hacker” llegó a aplicarse a los programadores y diseminadores de virus. La percepción pública de los hackers sigue siendo la de un experto solitario con gusto por las travesuras.
Puntualización
Sin embargo, la piratería informática ha llegado a abarcar una amplia gama de delitos informáticos motivados por el beneficio económico. De hecho, la información vital que se mantiene en las computadoras las ha convertido en un blanco para el espionaje corporativo, el fraude y los esfuerzos de malversación. (Tal vez sea de interés más investigación sobre el concepto). Con la creciente sofisticación de los programas de seguridad informática y los esfuerzos de aplicación de la ley ha llegado a la conclusión de que muchos aparentes ataques de piratería informática provienen de personas bien informadas que intentan echarse a perder o, ocasionalmente, vengarse. Los incidentes de hacking pueden reducirse mediante la renovación regular de las contraseñas y el uso de cortafuegos.
SPAM
“Spam” es el término utilizado para designar el correo electrónico no solicitado. El correo basura se sometió a una reglamentación relativamente leve con la aprobación de la Ley de control del asalto a la pornografía y la comercialización (vender lo que se produce; véase la comercialización, por ejemplo, de productos) o/y, en muchos casos, marketing, o mercadotecnia (como actividades empresariales que tratan de anticiparse a los requerimientos de su cliente; producir lo que se vende) no solicitadas (CAN-SPAM), que entró en vigor el 1º de enero de 2004. La ley exige que los remitentes de correo electrónico comercial no solicitado etiqueten sus mensajes, pero el Congreso no exigió un lenguaje de etiquetado estándar. Se exige que esos mensajes lleven instrucciones sobre cómo optar por no recibir ese tipo de correo; los remitentes también deben proporcionar su dirección física real. Se prohíben los encabezamientos y títulos engañosos. El Congreso autorizó a la Comisión Federal de Comercio (FTC) a establecer un registro de “no-correo” pero no exigió que la FTC lo hiciera. CAN-SPAM también impide que los estados prohíban el correo electrónico comercial o exijan su propio etiquetado.
En efecto, sobre la base de las disposiciones de CAN-SPAM, el correo basura no es un delito informático a menos que, según el Código de los Estados Unidos, Título 18, Nº 1037, se cometa una violación “en apoyo de cualquier delito grave con arreglo a las leyes de los Estados Unidos o de cualquier Estado”. A pesar de su condición jurídica, el correo basura es una gran molestia y, al mismo tiempo, supone un coste (o costo, como se emplea mayoritariamente en América) importante.Entre las Líneas En el artículo “The Economics of Spam”, Justin M. Rao y David H. Reiley estimaron que de los más de 100 mil millones de correos electrónicos enviados en 2010, noventa mil millones se consideraron spam, y estos mensajes no deseados le cuestan a las empresas e individuos estadounidenses más de 20 mil millones de dólares anuales. Rao y Reiley estimaron el costo (o coste, como se emplea mayoritariamente en España) para los usuarios finales en 14.000 millones de dólares, calculando que el tiempo de una persona tenía un valor promedio de 25 dólares por hora y que cada correo electrónico no deseado requería sólo cinco segundos de tiempo para ser reconocido y eliminado. A esta cifra se suman los 6.500 millones de dólares que se calcula que se gastan anualmente en sistemas antispam y el hardware, software y mano de obra asociados. Rao y Reiley desglosan el costo (o coste, como se emplea mayoritariamente en España) del spam en general a aproximadamente $30 por año por cada mil millones de usuarios en línea.
PHISHING
El phishing también ha surgido como una amenaza constante a la seguridad informática.
Informaciones
Los delincuentes en línea utilizan el phishing para robar las identidades de víctimas desprevenidas y utilizarlas para cometer fraudes como el retiro de dinero de cuentas bancarias. El phishing suele adoptar la forma de correos electrónicos no deseados que engañan a los destinatarios haciéndoles creer (por ejemplo) que han ganado una lotería o que tienen derecho a recibir dinero de una herencia. Como tal, se dirige a los destinatarios a que devuelvan por correo electrónico sus datos de identificación y de la tarjeta de crédito, momento en el que el phisher obtiene acceso a la información clasificada de estas personas. Los phishers pueden entonces acceder a la cuenta bancaria y a otros detalles de sus víctimas para cometer el fraude que deseen.
MEDIDAS DE SEGURIDAD
La seguridad informática se ocupa de evitar que la información almacenada o utilizada por las computadoras sea alterada, robada o utilizada para cometer delitos. Este campo incluye la protección de las transferencias electrónicas de fondos, la información de propiedad (diseños de productos, listas de clientes, etc.), los programas informáticos y otras comunicaciones, así como la prevención de los virus informáticos. Puede ser difícil asignar un valor en dólares a estos activos, especialmente cuando se tienen en cuenta factores como la posible pérdida de reputación o cuestiones de responsabilidad.Entre las Líneas En algunos casos (por ejemplo, en las aplicaciones militares y hospitalarias) existe la posibilidad de que se pierdan vidas debido a la pérdida o destrucción de datos; esto no se puede transmitir adecuadamente mediante fórmulas de análisis de riesgos.
La cuestión a la que se enfrentan la mayoría de las empresas no es si deben practicar las medidas de seguridad informática, sino cuánto tiempo y esfuerzo deben invertir. Afortunadamente, las empresas que desean protegerse de los delitos informáticos pueden elegir entre una amplia gama de opciones de seguridad. Algunas de estas medidas están diseñadas específicamente para contrarrestar las amenazas internas, mientras que otras están pensadas para detener los peligros externos. Algunas son relativamente baratas de poner en práctica, y otras requieren importantes desembolsos de dinero.
Puntualización
Sin embargo, muchos expertos en seguridad creen que la mayor defensa que cualquier empresa puede aportar es simplemente una mentalidad en la que las cuestiones de seguridad son de suma importancia.
Protección contra amenazas internas
Las grandes corporaciones suelen tener departamentos enteros dedicados a la gestión de sistemas informáticos, pero las pequeñas empresas no suelen tener ese lujo.
Aviso
No obstante, hay medidas de sentido común que pueden adoptar los gerentes y los administradores de sistemas para reducir al mínimo el peligro de alteraciones internas de los sistemas informáticos.
El seguro cibernético
El seguro cibernético también ha surgido como un remedio para gestionar los riesgos que plantean los delitos informáticos. El concepto supone la transferencia de los riesgos residuales a las compañías de seguros tras la aplicación de todas las demás medidas de seguridad cibernética apropiadas en una organización. (Tal vez sea de interés más investigación sobre el concepto). Como en cualquier otra póliza de seguros, el asegurado remite las cantidades acordadas de las primas mensuales al asegurador. El asegurado obtiene una indemnización en caso de que se produzcan delitos informáticos sujetos a los riesgos asegurados. El seguro cibernético, por lo tanto, proporciona una plataforma para que las pequeñas empresas adopten medidas a largo plazo (véase más detalles en esta plataforma general) para la seguridad informática, de los datos y de la información.
ROBO DE HARDWARE
Aunque los virus informáticos y el robo de información plantean las mayores amenazas financieras para las grandes organizaciones, la pérdida de equipo informático por simple robo es la segunda categoría de pérdidas para las pequeñas empresas. Las medidas de sentido común, como la supervisión de las entradas y el bloqueo del equipo fácilmente transportable por la noche son bastante obvias. Muchas computadoras portátiles se pierden a manos de ladrones de oportunidades que, parados en un vestíbulo desatendido, ven una computadora portátil en un escritorio mientras se oyen risas distantes en una fiesta de cumpleaños de la oficina.
Los viajeros de negocios, por supuesto, deben vigilar de cerca sus ordenadores portátiles. El atractivo de estos portátiles es tan grande que los ladrones a veces trabajan en equipo para ponerles las manos encima.
Detalles
Los aeropuertos y hoteles son los lugares favoritos de los ladrones. Los expertos en seguridad aconsejan a los viajeros que estén especialmente atentos en las zonas de alto tráfico, que lleven los números de serie de los ordenadores separados del hardware y que consideren la posibilidad de instalar cerraduras, alarmas o software de seguimiento.
Datos verificados por: Chris
Recursos
[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]Traducción al Inglés
Traducción al inglés de Computadora: Computer
Véase También
Véase También
- Tratamiento de datos
- Codificación
- Microordenador
- Informática doméstica
- Computadora electrónica
- Miniordenador
- Datos personales
- Recogida de datos
- Registro de datos
- Base de datos
- Memorización de datos
Historia de la informática
Comercio Electrónico, Comunicación, Derecho Informático, Equipo Informático, Industria Informática, Informática y Tratamiento de Datos, Sistema de Comunicación
Técnicas Informática
Hardware informático
Procesadores
Bibliografía
▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.