Bueno acá un pequeño resumen de cada disertación.
EVOLUCIÓN DE LOS PROCESADORES.
1. Antecedentes historicos del computador

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.
2. La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
Considerada por muchos como predecesora directa de los modernos dispositivos de cálculo, la máquina diferencial era capaz de calcular tablas matemáticas. Este corte transversal muestra una pequeña parte de la ingeniosa máquina diseñada por el matemático británico Charles Babbage en la década de 1820. La máquina analítica, ideada también por Babbage, habría sido una auténtica computadora programable si hubiera contado con la financiación adecuada. Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida, aunque esta posibilidad estaba dentro de la capacidad tecnológica de la época. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial Nº 2 totalmente operativa, siguiendo los dibujos y especificaciones de Babbage.
3. Los primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
4. Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1945. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.
La primera computadora electrónica comercial, la UNIVAC I, fue también la primera capaz de procesar información numérica y textual. Diseñada por J. Presper Eckeret y John Mauchly, cuya empresa se integró posteriormente en Remington Rand, la máquina marcó el inicio de la era informática. En la ilustración vemos una UNIVAC. La computadora central está al fondo, y en primer plano puede verse al panel de control de supervisión. Remington Rand entregó su primera UNIVAC a la Oficina del Censo de Estados Unidos en 1951.
5. El eniac
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
6. Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
Los circuitos integrados han hecho posible la fabricación del microordenador o microcomputadora. Sin ellos, los circuitos individuales y sus componentes ocuparían demasiado espacio como para poder conseguir un diseño compacto. También llamado chip, un circuito integrado típico consta de varios elementos como reóstatos, condensadores y transistores integrados en una única pieza de silicio. En los más pequeños, los elementos del circuito pueden tener un tamaño de apenas unos centenares de átomos, lo que ha permitido crear sofisticadas computadoras del tamaño de un cuaderno. Una placa de circuitos de una computadora típica incluye numerosos circuitos integrados interconectados entre sí.
7. Evolución cronológica de la computadora
La necesidad del hombre de encontrar métodos rápidos y efectivos para resolver sus cálculos y su gran inventiva lo llevaron a través de los siglos al desarrollo de lo que hoy conocemos como la computadora. Desde el ábaco hasta las computadoras personales éstas han tenido una gran influencia en diferentes aspectos de nuestro diario vivir, mejorando nuestra calidad de vida y abriendo puertas que antes eran desconocidas para la humanidad.
500 AC: Ábaco
El primer calculador de tipo mecánico fue ideado en Babilonia alrededor de 500 A.C. Este dispositivo mecánico llamado ábaco consistía de un sistema de barras y poleas con lo cual se podían efectuar diferentes tipos de cálculos aritméticos.
1622: Oughtred presenta la regla de cálculo
Hacia 1622, el matemático inglés William Oughtred utilizó los recién inventados logaritmos para fabricar un dispositivo que simplificaba la multiplicación y la división. Consistía en dos reglas graduadas unidas que se deslizaban una sobre otra.
1642: Primera máquina de sumar
El matemático y filósofo francés Blaise Pascal tenía diecinueve años cuando construyó la primera máquina sumadora del mundo en 1642. Utilizaba un engranaje de ruedas dentadas como contadores. El dispositivo llevaba 1 automáticamente al llegar a las decenas y también podía emplearse para restar.
1834: Primera computadora digital programable
En 1834 el científico e inventor inglés Charles Babbage realizó los esquemas de un dispositivo el cual llamó máquina analítica lo que en realidad era una computadora de propósitos generales. Esta máquina era programada por una serie de tarjetas perforadas que contenían datos o instrucciones las cuales pasaban a través de un dispositivo de lectura, eran almacenados en una memoria y los resultados eran reproducidos por unos moldes. Esta máquina superaba por mucho la tecnología de su tiempo y nunca se terminó.
1850: Primera sumadora de teclado
El teclado apareció en una máquina inventada en Estados Unidos en 1850. Podían sumarse una secuencia de dígitos pulsando unas teclas sucesivas. Cada tecla alzaba un eje vertical a cierta altura y la suma quedaba indicada por la altura total.
8. Generaciones Del Computador
A.C. (Antes De Ordenadores)
Dotación física
Mecánico
Software lógica
Tarjetas o cinta de papel perforadas
Ada Lovelace - primer programador (c. 1840)
Máquina de Turing y Church-Turing Thesis (1937)
Máquinas Especiales
Ábaco
Pascaline - Primera Máquina calculadora Automática (1642)
Telar De Telar jacquar (1805)
Motores De Babbage
Motor De Diferencia (1822)
Motor Analítico (1832)
Hollerith
Máquina De Tabulación (Censo 1890 De los E.E.U.U.)
La máquina de tabulación de las formas Co. (1896) - se convierte la IBM en 1924
Máquina sumadora De Burroughs (1888)
10. Primera generación: C. 1940 – 1955
Dotación física
Tubos de vacío
Tambores magnéticos
Cinta magnética (cerca del extremo de la generación)
Software lógica
Programas en terminología de la informática
Programas en lenguaje ensamblador (cerca del extremo de la generación)
1946 - von Neumann publica el documento sobre el ordenador salvado del programa
1950 - Prueba de Turing publicada
Máquinas Especiales
1940 - ABC (1r ordenador electrónico)
1940 - Robinson (1r ordenador, código operacionales de Enigma de las grietas)
1946 - Calculadora numérica de ENIAC (1r completamente electrónico, de uso general)
1950 - UNIVAC I (1r ordenador comercialmente acertado)
11. Segunda generación: C. 1955 – 1964
Dotación física
Transistores
1947 - Convertido
1955 - Calculadora Del Transistor De IBM's
Minicomputadoras
Discos magnéticos
Tarjetas de circuito impresas
Software lógica
Lenguajes de alto nivel
1956 - FORTRAN
1959 - COBOL
Máquinas Especiales
1963 -- PDP 8 (1ra minicomputadora)
12. Tercera generación: C. 1964 – 1971
Dotación física
Circuitos integrados (c. desarrollada 1958)
Familias de los ordenadores (1964 - IBM 360)
1970 - Diskette
Software lógica
Los programas entraron directamente en los ordenadores
Lenguajes de un nivel más alto (1965 - BASIC)
Sistemas operativos
Timesharing
Máquinas Especiales
1964 -- Serie del sistema 360 de la IBM (1ra familia de ordenadores)
13. Cuarta generación: C. 1971 – PRESENTE
Dotación física
1971 - Viruta del microprocesador introducida en los E.E.U.U. por Intel
Microordenadores (Ordenadores Personales)
Integración De la Escala Grande (LSI)
Integración De la Escala Muy Grande (Vlsi)
Software lógica
Programación estructurada
Conjuntos de aplicación
Sistemas del windowing (interfaces utilizador gráficos -- GUIs)
Programas conviviales
Máquinas Especiales
1971 - (1ra calculadora de bolsillo)
1975 -- Altaír 8800 (1ra PC)
1977 -- Manzana I (hágala usted mismo kit)
1978 -- Manzana II (premontada)
1981 -- PC DE LA IBM
1984 -- Impermeable
14. Tendencias generales
Dotación física
Más pequeño
Más rápidamente
Más barato
Más disponible
Software lógica
Más grande (más exige en la dotación física: CPU, memoria, espacio de disco, etc.)
Más fácil utilizar
Mejore El Diseño
Más barato
Más disponible
15. Ordenadores analógicos
El ordenador analógico es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
16. Ordenadores digitales
Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, el ordenador puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Un ordenador con una velocidad de reloj de 100 MHz, velocidad bastante representativa de un microordenador o microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.
La velocidad y la potencia de cálculo de los ordenadores digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, el ordenador aumenta el número de operaciones que puede reconocer en cada ciclo. Por ejemplo, un ordenador que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, los ordenadores de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo.
Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210 , o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria. El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de los ordenadores. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de los ordenadores digitales modernos.
17. Evolución futura
Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes.
Historia de la computación en Chile
En 1961, en la Aduana de Valparaíso se instaló el primer computador digital en Chile: un IBM-1401. Pero la historia comenzó con anterioridad. El servicio de Aduanas trabajó en los años cincuenta con máquinas UR (Unit Record), especialmente diseñadas para procesar información perforada en tarjetas. IBM, proveedor de las máquinas, propuso un “upgrade” hacia un computador IBM-1401 comercializado internacionalmente desde 1959 para aplicaciones administrativas o “comerciales”.
La Aduana decidió aceptar la oferta de arriendo de un computador y convocó a sus empleados a un concurso interno para capacitarse como programador. Se presentaron alrededor de 60 empleados que fueron sometidos a un test de aptitudes aplicado por IBM. Finalmente fueron seleccionados René Cabezas de 26 años, Jefe de Máquinas UR, y Leopoldo Valdivia de 27 años. Los dos fueron entrenados en diagramas de flujo y el lenguaje ensamblador SPS (Symbolic Programming System), por Federico Cavada del Departamento de Ingeniería de Sistemas de IBM.
Una vez terminada la capacitación, René Cabezas y Leopoldo Valdivia comenzaron a programar un sistema estadístico de importaciones. Terminados los programas, escritos con “papel y lápiz” en hojas de codificación, son enviados por tres semanas a Buenos Aires para realizar pruebas en las instalaciones de IBM-Argentina. Una vez que los programas fueron perforados en tarjetas, y como podría esperarse, no funcionaron. Sólo al final de la primera semana lograron que el computador los procesara y en las dos semanas siguientes los corrigieron y afinaron.
En mayo de 1961, se instaló el computador IBM-1401 con 4K de memoria, una lectora y perforadora 1402 de 400 tarjetas por minuto y una impresora 1403 de 600 líneas por minuto. La máquina no disponía de un sistema operativo, por lo que era operado por los propios programadores. De hecho, una compilación entregaba como resultado un programa en lenguaje de máquina perforado en tarjetas. Para su ejecución, las tarjetas debían ser trasladadas manualmente a la lectora, activando su lectura y ejecución a través de teclas del panel de control.
Una vez que el computador estuvo operativo, el sistema estadístico se procesó paralelamente, tanto en las máquinas UR, como en el 1401. A fines de 1961, después de jornadas de trabajo que abarcaron varios días completos, se logró tener las estadísticas actualizadas, logrando superar el retraso de dos años del sistema antiguo. Cabe señalar que los resultados se imprimieron en alrededor de 400 páginas de formulario continuo.
La máquina resultó bastante robusta y sólo se recuerdan problemas intermitentes con la lectora de tarjetas que resultó con algunos daños durante el desembarco, que se atribuyeron a “la falta de una paloma para el operador de la grúa” ;-). Por otra parte, jamás se descubrió la razón de algunas “caídas” inexplicables del procesador, aunque se observó que sospechosamente coincidían con los movimientos de algunas maquinarias del muy cercano recinto portuario.
René Cabezas compilando un programa
Considerando la satisfactoria experiencia inicial, que incluso significó recibir una carta de felicitación del presidente Jorge Alessandri, en 1963 la Aduana decidió “agrandar” el computador agregando 4K de memoria y 4 unidades de cinta magnética 729. Lamentablemente, el programa que ordenaba (“sorteaba”) una cinta no funcionó. Después de examinar los cientos de tarjetas que contenían el programa en el lenguaje de máquina, René Cabezas logró corregirlo. Al respecto, un “sort” con el algoritmo de cascada tardaba alrededor de 12 horas en ordenar la información de una cinta magnética de 2400 pies de longitud grabada con una densidad de 800 bits por pulgada.
La IBM utilizaba el computador arrendado a la Aduana para mostrarlo a sus clientes. En una oportunidad uno de los visitantes presionó uno de los botones del panel de control preguntando ¿para qué sirve esta tecla? Resultado: se interrumpió abruptamente un programa que llevaba horas de proceso. Desde entonces, la Aduana restringió las visitas de demostración a los clientes de IBM.
En 1963, el servicio de Aduanas decidió capacitar más programadores. Después de un nuevo test de habilidades se seleccionó a Guillermo Fliess, Luis Reyes, Luis Prado y Raúl Domínguez. Tras recibir cursos de capacitación en el lenguaje de máquina y en el lenguaje simbólico Autocoder, desarrollaron aplicaciones estadísticas, un sistema de remuneraciones y una base de datos de personal.
En 1967, durante el gobierno de Eduardo Frei Montalva, se creó la Oficina Central de Organización y Métodos (OCOM) que revisó el quehacer informático en el Estado. Como resultado de la visita a la Aduana de una comisión asesora, presidida por John Kennedy ;-), se creó el Centro de Procesamiento de Datos a cargo de Guillermo Fliess y comenzaron a desarrollarse nuevos sistemas aduaneros. Posteriormente, en 1973 se agregaron al computador 24K de memoria y una unidad de disco. Finalmente, en 1975 el IBM-1401 fue reemplazado por un IBM-370 modelo 125, uno de los primeros computadores de este tipo en Chile.
En síntesis, la Aduana de Valparaíso ocupa un lugar privilegiado en la Historia de la Computación en Chile. En 1960 se programaron las primeras aplicaciones administrativas del país, y en 1961 se instaló el primer computador digital en Chile. Este medio siglo de historia merecería al menos una placa conmemorativa virtual, tal como las dos que se encuentran actualmente en la entrada de su edificio y rinden homenaje a un grupo de sus trabajadores y al poeta nicaragüense Rubén Darío, quien trabajó en la aduana a fines del siglo XIX, período en que escribió su obra más importante: Azul en 1888.
Nota del autor: Aunque la responsabilidad de la redacción es exclusivamente del autor, agradezco la valiosa colaboración de Guillermo Fliess, René Cabezas y Federico Cavada quienes proporcionaron valiosa información y fotografías de la época. Gracias también a mi colega en el proyecto “Historia de la Computación en Chile” Claudio Gutiérrez por las fotografías actuales, sus comentarios y por compartir un entretenido viaje a la Aduana de Valparaíso.
. Memorias de almacenamiento
El propósito del almacenamiento es guardar datos que la computadora no esté usando. El almacenamiento tiene tres ventajas sobre la memoria:
Hay más espacio en almacenamiento que en memoria.
El almacenamiento retiene su contenido cuando se apaga el computador
El almacenamiento es más barato que la memoria.
El medio de almacenamiento más común es el disco magnético. El dispositivo que contiene al disco se llama unidad de disco (drive). La mayoría de las computadoras personales tienen un disco duro no removible. Además usualmente hay una o dos unidades de disco flexible, las cuales le permiten usar discos flexibles removibles. El disco duro normalmente puede guardar muchos más datos que un disco flexible y por eso se usa disco duro como el archivero principal de la computadora. Los discos flexibles se usan para cargar programas nuevos, o datos al disco duro, intercambiar datos con otros usuarios o hacer una copia de respaldo de los datos que están en el disco duro.
Una computadora puede leer y escribir información en un disco duro mucho más rápido que en el disco flexible. La diferencia de velocidad se debe a que un disco duro está construido con materiales más pesados, gira mucho más rápido que un disco flexible y está sellado dentro de una cámara de aire, las partículas de polvo no pueden entrar en contacto con las cabezas.
La memorización consiste en la capacidad de registrar sea una cadena de caracteres o de instrucciones (programa) y tanto volver a incorporarlo en determinado proceso como ejecutarlo bajo ciertas circunstancias.
El computador dispone de varios dispositivos de memorización:
La memoria ROM
La memoria RAM
Las memorias externas. Un aspecto importante de la memorización es la capacidad de hacer ese registro en medios permanentes, básicamente los llamados "archivos" grabados en disco.
El acumulador
La principal memoria externa es el llamado "disco duro", que está conformado por un aparato independiente, que contiene un conjunto de placas de plástico magnetizado apto para registrar la "grabación" de los datos que constituyen los "archivos" y sistemas de programas. Ese conjunto de discos gira a gran velocidad impulsado por un motor, y es recorrido también en forma muy veloz por un conjunto de brazos que "leen" sus registros. También contiene un circuito electrónico propio, que recepciona y graba, como también lee y dirige hacia otros componentes del computador la información registrada.
Indudablemente, la memoria externa contenida en el disco duro es la principal fuente del material de información (data) utilizado para la operación del computador, pues es en él que se registran el sistema de programas que dirige su funcionamiento general (sistema operativo), los programas que se utilizan para diversas formas de uso (programas de utilidad) y los elementos que se producen mediante ellos (archivos de texto, bases de datos, etc.).
Unidades de Memoria
BIT: puede tener valore de 0 y 1, es decir sistema binario
BYTE: son 8 Bits.
KILOBYTE (KB) = 2 **10 bytes
MEGABYTE (MB) = 2 ** 10 Kilobyte = 2 ** 20 Bytes
GIGABYTE (GB) = 2** 10 Megabyte = 2** 30 Bytes
TERABYTE (TB) =2**10 Gigabyte = 2**40 Bytes
Es necesario aclarar que las unidades son infinitas, pero las antes nombradas son las usadas.
BIT: su nombre se debe a la contracción de Binary Digit, es la mínima unidad de información y puede ser un cero o un uno
BYTE: es la también conocida como el octeto, formada por ocho bits, que es la unidad básica, las capacidades de almacenamiento en las computadoras se organiza en potencias de dos, 16, 32, 64.
Las demás unidades son solo múltiplos de las anteriores, por ello cada una de ellas están formadas por un determinado numero de Bits.
La memoria principal o RAM
Acrónimo de Random Access Memory, (Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior. Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.
Cuando las aplicaciones se ejecutan, primeramente deben ser cargadas en memoria RAM. El procesador entonces efectúa accesos a dicha memoria para cargar instrucciones y enviar o recoger datos. Reducir el tiempo necesario para acceder a la memoria, ayuda a mejorar las prestaciones del sistema. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o discos duros, es que la RAM es mucho más rápida, y se borra al apagar el ordenador.
Es una memoria dinámica, lo que indica la necesidad de "recordar" los datos a la memoria cada pequeños periodos de tiempo, para impedir que esta pierda la información. Eso se llama Refresco. Cuando se pierde la alimentación, la memoria pierde todos los datos. "Random Access", acceso aleatorio, indica que cada posición de memoria puede ser leída o escrita en cualquier orden. Lo contrario seria el acceso secuencial, en el cual los datos tienen que ser leídos o escritos en un orden predeterminado.
Es preciso considerar que a cada BIT de la memoria le corresponde un pequeño condensador al que le aplicamos una pequeña carga eléctrica y que mantienen durante un tiempo en función de la constante de descarga. Generalmente el refresco de memoria se realiza cíclicamente y cuando esta trabajando el DMA. El refresco de la memoria en modo normal esta a cargo del controlador del canal que también cumple la función de optimizar el tiempo requerido para la operación del refresco. Posiblemente, en más de una ocasión en el ordenador aparecen errores de en la memoria debido a que las memorias que se están utilizando son de una velocidad inadecuada que se descargan antes de poder ser refrescadas.
Las posiciones de memoria están organizadas en filas y en columnas. Cuando se quiere acceder a la RAM se debe empezar especificando la fila, después la columna y por último se debe indicar si deseamos escribir o leer en esa posición. En ese momento la RAM coloca los datos de esa posición en la salida, si el acceso es de lectura o coge los datos y los almacena en la posición seleccionada, si el acceso es de escritura.
La cantidad de memoria Ram de nuestro sistema afecta notablemente a las prestaciones, fundamentalmente cuando se emplean sistemas operativos actuales. En general, y sobretodo cuando se ejecutan múltiples aplicaciones, puede que la demanda de memoria sea superior a la realmente existente, con lo que el sistema operativo fuerza al procesador a simular dicha memoria con el disco duro (memoria virtual). Una buena inversión para aumentar las prestaciones será por tanto poner la mayor cantidad de RAM posible, con lo que minimizaremos los accesos al disco duro.
Los sistemas avanzados emplean RAM entrelazada, que reduce los tiempos de acceso mediante la segmentación de la memoria del sistema en dos bancos coordinados. Durante una solicitud particular, un banco suministra la información al procesador, mientras que el otro prepara datos para el siguiente ciclo; en el siguiente acceso, se intercambian los papeles.
Los módulos habituales que se encuentran en el mercado, tienen unos tiempos de acceso de 60 y 70 ns (aquellos de tiempos superiores deben ser desechados por lentos). Es conveniente que todos los bancos de memoria estén constituidos por módulos con el mismo tiempo de acceso y a ser posible de 60 ns.
Hay que tener en cuenta que el bus de datos del procesador debe coincidir con el de la memoria, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado. Por tanto, el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad. Como existen restricciones a la hora de colocar los módulos, hay que tener en cuenta que no siempre podemos alcanzar todas las configuraciones de memoria. Tenemos que rellenar siempre el banco primero y después el banco número dos, pero siempre rellenando los dos zócalos de cada banco (en el caso de que tengamos dos) con el mismo tipo de memoria. Combinando diferentes tamaños en cada banco podremos poner la cantidad de memoria que deseemos.
Discos duros
Pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al disco duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los discos flexibles o por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en la computadora de manera permanente), Winchester (por ser esta la primera marca de cabezas para disco duro). Estas denominaciones aunque son las habituales no son exactas ya que existen discos de iguales prestaciones pero son flexibles, o bien removibles o transportables.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios GB. en minis y grandes computadoras. Para conectar un disco duro a una computadora es necesario disponer de una tarjeta controladora (o interfaz). La velocidad de acceso depende en gran parte de la tecnología del propio disco duro y de la tarjeta controladora asociada al discos duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético codifican / decodifican la información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos.
Los discos duros han evolucionado mucho desde los modelos primitivos de 10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es tan alta que deben girar a más de 5000 r.p.m. (revoluciones por minuto), lo que desgraciadamente hace que se calienten como demonios, por lo que no es ninguna tontería instalarles un ventilador para su refrigeración.
Una diferencia fundamental entre unos y otros discos duros es su interfaz de conexión. Antiguamente se usaban diversos tipos, como MFM, RLL o ESDI, aunque en la actualidad sólo se emplean dos: IDE y SCSI.
. Sistemas operativos
Un sistema operativo (SO) es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardware y provee servicios a los programas de aplicación, y se ejecuta en modo privilegiado respecto de los restantes.1
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Esta identidad entre kernel y sistema operativo es solo cierta si el núcleo es monolítico. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con una línea de comandos y el sistema gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con el propio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadas distribuciones Linux, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.3 (Véase AmigaOS, beOS o MacOS como los pioneros4 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre de Video Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. La mayoría de aparatos electrónicos que utilizan microprocesadores para funcionar, llevan incorporado un sistema operativo. (teléfonos móviles, reproductores de DVD, computadoras, radios, enrutadores, etc). En cuyo caso, son manejados mediante una Interfaz Gráfica de Usuario, un gestor de ventanas o un entorno de escritorio, si es un celular, mediante una consola o control remoto si es un DVD y, mediante una línea de comandos o navegador web si es un enrutador.
Redes sociales en computación
Las redes sociales son grupos de personas relacionadas entre sí por temas o afinidades específicos. Sitios como MySpace, Facebook, Hi5, Orkut, entre muchísimos otros, permiten intercambiar comentarios, contenidos de audio y video, fotografías, hacer amigos en cualquier parte del mundo y “pertenecer” a un grupo que en teoría nos comprende y comparte los mismos intereses. “Las redes sociales resultan de gran utilidad para la sociedad —escribe Enrique Bustamante, autor de Redes sociales y comunidades virtuales en internet— porque satisfacen una necesidad real de expresión y reconocimiento”.
Formar parte de una red es fácil: basta crear un perfil (real o ficticio), invitar por correo electrónico a posibles “amigos” y casi al instante comenzar a tejer una compleja telaraña de relaciones que implican compartir información regularmente y realizar comentarios a los perfiles, artículos o blogs de los miembros. De acuerdo con Bustamante, “gracias a las redes sociales tenemos la posibilidad de interactuar con otras personas para el beneficio común. Cada miembro que ingresa transforma el grupo en otro nuevo; la fortaleza de las redes sociales está en sus miembros que contribuyen constantemente al crecimiento de las relaciones”.
La influencia de las comunidades sociales abarca prácticamente todo, desde la música y la forma de vestir, hasta actitudes, apoyo psicológico, consejos sobre temas como maternidad, salud, sexualidad o educación de los hijos, comunidades religiosas entre una incontable variedad de tópicos. Cualquier tema puede encontrar su nicho en alguna red social. Para esto, no todas las comunidades deben contar con millones de usuarios. Algunas subsisten con apenas unos cientos o miles de suscriptores. Una búsqueda de Google sobre redes sociales religiosas, por ejemplo, da como resultado más de 48 millones de ligas.
Las redes sociales son también una oportunidad de negocios. Una encuesta celebrada por la consultora JupiterResearch reportó que 48% del marketing de internet presupuestado para este año se realizaría a través de las redes sociales. Según esta empresa, uno de cada cuatro usuarios de internet navega al menos una vez al mes por alguna comunidad virtual, y uno de cada tres miembros de redes sociales son influenciados por ésta a la hora de comprar algún producto.
Y es apenas el principio. La tendencia es integrar las diferentes comunidades en un solo espacio. Actualmente, muchísimos internautas utilizan diferentes proveedores. Con el tiempo, estos servicios (aunque sean de diferentes compañías) podrán integrarse. “Los días en que los usuarios ‘pertenecían’ a las compañías han terminado”, comenta Gina Bianchini, CEO de la empresa Ning, uno de los primeros miembros de OpenSocial, una iniciativa de Google para que los programadores creen aplicaciones que puedan funcionar con diferentes sitios y redes sociales.
Las comunidades virtuales, que ya de por sí están haciendo sentir su peso e influencia en la forma en que concebimos internet, se preparan para tomar nuevamente por asalto la red… y nuestras vidas.
Internet
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
El género de la palabra Internet es ambiguo, según el Diccionario de la lengua española de la Real Academia Española.
Mapa parcial de Internet basado en la información obtenida del sitio opte.org en 2005.
Cada línea entre dos nodos representa el enlace entre dos direcciones IP y su longitud es proporcional al retardo entre estos.
PLACA MADRE
El primer componente de un ordenador es la placa madre (también denominada "placa base"). La placa madre es el concentrador que se utiliza para conectar todos los componentes esenciales del ordenador.
Como su nombre lo indica, la placa madre funciona como una placa "materna", que toma la forma de un gran circuito impreso con conectores para tarjetas de expansión, módulos de memoria, el procesador, etc.
Características
Existen muchas maneras de describir una placa madre, en especial las siguientes:
el factor de forma;
el chipset;
el tipo de socket para procesador utilizado;
los conectores de entrada y salida.
Factor de forma de la placa madre
El término factor de forma (en inglés <em>form factor</em>) normalmente se utiliza para hacer referencia a la geometría, las dimensiones, la disposición y los requisitos eléctricos de la placa madre. Para fabricar placas madres que se puedan utilizar en diferentes carcasas de marcas diversas, se han desarrollado algunos estándares:
AT miniatura/AT tamaño completo es un formato que utilizaban los primeros ordenadores con procesadores 386 y 486. Este formato fue reemplazado por el formato ATX, cuya forma favorecía una mejor circulación de aire y facilitaba a la vez el acceso a los componentes.
ATX: El formato ATX es una actualización del AT miniatura. Estaba diseñado para mejorar la facilidad de uso. La unidad de conexión de las placas madre ATX está diseñada para facilitar la conexión de periféricos (por ejemplo, los conectores IDE están ubicados cerca de los discos). De esta manera, los componentes de la placa madre están dispuestos en paralelo. Esta disposición garantiza una mejor refrigeración.
ATX estándar: Tradicionalmente, el formato del estándar ATX es de 305 x 244 mm. Incluye un conector AGP y 6 conectores PCI.
micro-ATX: El formato microATX resulta una actualización de ATX, que posee las mismas ventajas en un formato más pequeño (244 x 244 mm), a un menor costo. El Micro-ATX incluye un conector AGP y 3 conectores PCI.
Flex-ATX: FlexATX es una expansión del microATX, que ofrece a su vez una mayor flexibilidad para los fabricantes a la hora de diseñar sus ordenadores. Incluye un conector AGP y 2 conectores PCI.
mini-ATX: El miniATX surge como una alternativa compacta al formato microATX (284 x 208 mm) e incluye a su vez, un conector AGP y 4 conectoresPCI en lugar de los 3 del microATX. Fue diseñado principalmente para mini-PC (ordenadores barebone).
BTX: El formato BTX (Tecnología Balanceada Extendida), respaldado por la marca Intel, es un formato diseñado para mejorar tanto la disposición de componentes como la circulación de aire, la acústica y la disipación del calor. Los distintos conectores (ranuras de memoria, ranuras de expansión) se hallan distribuidos en paralelo, en el sentido de la circulación del aire. De esta manera, el microprocesador está ubicado al final de la carcasa, cerca de la entrada de aeración, donde el aire resulta más fresco. El cable de alimentación del BTX es el mismo que el de la fuente de alimentación del ATX. El estándar BTX define tres formatos:
BTX estándar, con dimensiones estándar de 325 x 267 mm;
micro-BTX, con dimensiones reducidas (264 x 267 mm);
pico-BTX, con dimensiones extremadamente reducidas (203 x 267 mm).
ITX: el formato ITX (Tecnología de Información Extendida), respaldado por Via, es un formato muy compacto diseñado para configuraciones en miniatura como lo son las mini-PC. Existen dos tipos de formatos ITX principales:
mini-ITX, con dimensiones pequeñas (170 x 170 mm) y una ranura PCI;
nano-ITX, con dimensiones muy pequeñas (120 x 120 mm) y una ranura miniPCI. Por esta razón, la elección de la placa madre y su factor de forma dependen de la elección de la carcasa. La tabla que se muestra a continuación resume las características de los distintos factores de forma.
No hay comentarios:
Publicar un comentario