miércoles, 28 de septiembre de 2011

TARJETA MADRE (MOTHERBOARD)


La tarjeta madre es el componente más importante de un computador. Es el dispositivo que funciona como la plataforma o circuito principal de una computadora, integra y coordina todos los sus demás elementos. Tambien es conocida como placa base, placa central, placa madre, tarjeta madre o Board (en inglés motherboard, mainboard).
La tarjeta madre es un tablero que contiene todos los conectores que se necesitan para conectar las demás tarjetas del computador. Una tarjeta madre alberga los conectores del procesador, memoria RAM, Bios, puertas en serie, puertas en paralelo, expansión de la memoria, pantalla, teclado, disco duro, enchufes. Una vez que la tarjeta madre ha sido equipada con esta los elementos que se han mencionado, se le llama “Chipset” o conjunto de procesadores.
La tarjeta madre debe realizar básicamente las siguientes tareas:
  • Conexión física.
  • Administración, control y distribución de energía eléctrica.
  • Comunicación de datos.
  • Temporización.
  • Sincronismo.
  • Control y monitoreo.
Para que la placa base cumpla con su cometido, lleva instalado un software muy básico denominado BIOS.

CARACTERÍSTICAS DE LA TARJETA MADRE


            Definición: Un diccionario informático señala que una tarjeta madre es un “Circuito integrado con varios chips y diferentes tipos de ranura y conectores. En ella se conectan todos los componentes del computador incluyendo el procesador”.
            Otra definición nos dice: “Tarjeta principal de circuito impreso en un dispositivo electrónico, que contiene zócalos que aceptan tarjetas adicionales”.
            En un computador  personal, la tarjeta madre es el centro, ya que contiene los elementos claves del procesamiento tales como el CPU, memoria, conectores de expansión, circuitos de enlace (chipset), BIOS, el caché, los circuitos I/O y losconectores para conexiones serial, paralela y discos. La tarjeta madre casi por sí sola define el rendimiento del computador. Este es el componente más costoso de un PC y el elemento más importante.

Actualización y Problemas:  Como la mayoría de los componentes del procesamiento están ubicados en la tarjeta madre, es de esperarse que la actualización produzca el mayor incremento en el rendimiento por dinero invertido. Las tarjetasmadres bajan de precio rápidamente. Si no se necesita una tarjeta más nueva se puede obtener un modelo reciente a precios menores del que era su valor original.
            Las actualizaciones de las tarjetas  madres se pueden dividir en las que implican adiciones y el reemplazo de la tarjeta principal de circuitos. Las adiciones incluyen memoria caché, coprocesadores o el reemplazo de la CPU.
            Los  de las tarjetas madres son realmente serios y fácilmente impiden que un equipo arranque. Si un equipo no parte y la fuente de poder está bien se puede sospechar con relativa certeza que la tarjeta madre o alguno de sus componentes, como la memoria, el CPU o el caché están dañados.
 Otro de los problemas que se puede encontrar respecto a una tarjeta madre, es que si ésta no está bien ajustada con el paso del tiempo y las vibraciones pueden llegar a producir fisuras en las conexiones en la superficie con fallas que son imposibles de detectar.
La tarjeta madre también es llamada:

ð     Tarjeta Principal.
ð     Motherboard.
ð     Mainboard.
ð     Placa Base.
ð     Tarjeta Base.


PARTES DE UNA TARJETA MADRE


            Dentro de los componentes de una tarjeta madre podemos encontrar:

Ä     Procesador.
Ä     Puertos (Seriales y Paralelos).
Ä     Buses (PCI, ISA, AGP y USB).
Ä     Ranuras de extensión RAM (SIMM y DIMM).
Ä     BIOS.
Ä     Fuente de Alimentación.
Ä     Etc.



 


Procesador


            Este es el cerebro del computador, porque lee cada instrucción desde la memoria en una secuencia lógica determinada  y realiza acciones y procesos. La CPU puede ser un único chip o una serie de chips que realizan cálculos aritméticos y lógicos que temporizan y controlan las operaciones de los demás elementos del sistema.

            Dependiendo del tipo de procesador y su  se obtendrá un mejor o peor rendimiento. Hoy en día existen varias marcas y tipos. Las familias (tipos) de procesadores compatibles con el PC de IBM usan procesadores x86. Esto quiere decir que hay procesadores 286, 386, 486, 586 y 686.

            Existen, hoy en día tres marcas de procesadores: AMD, Ciryx e Intel. De las cuales, Intel es la más conocida por sus modelos: Pentium, Pentium MMX, Pentium Pro, Pentium II Y Pentium III. Luego  AMD tiene el AMD586, K5 y el  K6. Por último los modelos de cyrix son: 586, 686, 686MX y el 686MXI. Los 586 ya están totalmente obsoletos.

            La velocidad de los procesadores se mide en Megahertz (MHZ = Millones de ciclos por segundo). Este parámetro indica el número de ciclos de instrucciones que el procesador realiza por segundo, pero sólo sirve para compararlo con procesadores del mismo tipo.

PUERTOS
            Hoy en día las tarjetas madres traen incorporados los puertos seriales (Ratón,Scanner, etc.), los paralelos (Impresoras) y la entrada de Teclado.

BUSES
            Elemento integrado a la tarjeta madre que es usada por todos los componentes y el procesador para comunicarse entre sí. El rendimiento global del sistema depende mucho de su velocidad (en Megahertz), precisamente porque a través de él viaja toda la información entre todas las partes del computador.


            Algunas características de los buses ocupados por la tarjeta madre:

ð    Bus Local PCI
            El bus PCI fue desarrollado específicamente para los sistemas de quinta y sexta generación, aunque las últimas tarjetas madre para 486 ya incluían este bus.
            El PCI es de 32 bits y puede correr a un máximo de 33MHz. Soportando periféricos y tarjetas para un ancho de banda de hasta 132 Mbytes/segundo.
            El PCI es  del procesador, es controlado por una circuitería especial en el chipset que está diseñado para manejarlo. En este caso el chipset provee las facilidades de control y arbitraje, al activar el PCI se puede lograr mucho más que con el bus VESA.

 del PCI:

    Alto ancho banda.
    Permite a los periféricos beneficiarse de la potencia de proceso disponible.
    No dependen de la arquitectura, ni de la velocidad del procesador.
    Tiene incorporada la posibilidad de actualización.


ð    Bus Local ISA
            Este es el conector clásico de 16 bits que se inició con PC-AT de IBM. Las especificaciones de este fueron eliminadas este año. Sin embargo, es muy posible que aún se consigan motherboards con este conector para ofrecer a los clientes la posibilidad de conectar tarjetas que aún usan este estándar. Existen módems, tarjetasde sonido y hasta tarjetas de video que aún utilizan este tipo de conector.
ð    AGP
            La  interface AGP (Accelerated Graphics Port) es una nueva especificación de bus que permite posibilidades gráficas de alto rendimiento, especialmente . AGP provee de un alto ancho de banda, tiene su propio bus dedicado, pudiendo ser la ubicación del HW de gráficos tanto en la placa madre como en una tarjeta adicional.
           
La implementación AGP de Intel está optimizada para lograr un rendimiento definitivo del más potente procesador que ha sido creado, el procesador Pentium III.
Ventajas:
:      Las aplicaciones 3D se ejecutarán más rápidamente cuando se elimina la necesidad de texturas caché en la memoria de video local.
:      Minimiza la necesidad de memoria de video.
:      El  de video viaja a través del bus AGP a la pantalla del usuario.
:      Los sistemas tienen más estabilidad cuando el tráfico y video de uso intensivo de ancho de banda son eliminados del bus PCI.

Mientras el bus PCI soporta un máximo de 132 Mbytes/s, AGP a 66 MHz corre a 533 Mbytes/s. Este aumento de velocidad se consigue transfiriendo datos tanto en la subida como en la bajada del reloj de 66 MHz y a través del uso de modos de transferencia de datos más eficientes.

ð       
            Nueva tecnología que facilita la conexión de periféricos al computador. Esta reconoce automáticamente los dispositivos nuevos y no hay que insertar una tarjetacontroladora para el dispositivo, sino que se conecta a la parte de atrás del computador a una enchufe especial. La tarjeta madre debe traer esta tecnología para poder conectar dispositivos de este tipo.

Ranuras De Extensión (RAM)

            RAM significa Memoria de Acceso Aleatorio (Ramdom Access Memory) y es la que se encarga de almacenar la información mientras el computador se encuentra encendido. Esto quiere decir que cuando el computador arranca esta se encuentra vacía inicialmente y entonces se lee información del disco duro y se almacena en ella el S.O (primero), después cualquier otra que se haga. Al trabajar en procesador de palabras, por ejemplo la información se almacena aquí. La información solo pasa al disco duro cuando grabamos. Por esto se pierde la información si se apaga el computador sin grabar.
Hoy en día se consiguen dos tipos de tarjetas de RAM:

I.                 SIMM
            SIMM (Single in line memory module). Son el estándar de los computadores menos recientes, pero un desperdicio del mañana.

            Tiene la desventaja que en ciertas tarjetas madre se debe “aparear” la memoria. Este es el caso de los procesadores Pentium y similares. Esto quiere decir que se deben instalar las tarjetas de memoria en parejas de iguales características de tamaño y velocidad.

            En las tarjetas SIMM tenemos que hay varios tipos de memoria: Normal, con paridad, EDO (Extended Data Out) y existe una nueva y muy veloz llamada SDRAM (Syncronus Dynamic Ramdom Access Memory).

1.      La normal o RAM estándar sin paridad es la más barata, utilizada por la mayoría de la gente.
2.      La que tiene paridad es un poco más cara y no presenta mejoría de rendimiento alguno, peor algunos computadores requieren de paridad para funcionar.
3.      La memoria EDO es más cara aún. No tuvo mucha fuerza debido a su precio y poca mejoría, pero los precios han bajado y es la común del momento.
4.      La memoria SDRAM, es la más nueva y poco a poco se toma el mercado como el tipo de memoria estándar. Generalmente está viniendo en forma de DIMM y no de SIMM.

II.              DIMM

            DIMM (Double in line memory module). Son más nuevos y la mayoría de las tarjetas madres nuevas traen de este tipo.
            En las tarjetas DIMM también se encuentran varios tipos de memoria generalmente: EDO y SDRAM. La ventaja de estos tipos de tarjeta de memoria es que no se debe colocar en pares, sino que se puede colocar uno, dos, tres o los que estime conveniente. El tipo de ranura para esta memoria es diferente de los SIMM.


BIOS
            La cantidad de ranuras para memoria es importante, ya que, existen algunas tarjetas madres con sólo dos ranuras, lo cual, está por debajo de lo normal. Lo normal es cuatro y si trae ranuras para SIMM y para DIMM mucho mejor. Es probable que traigan ranuras para ambos tipos de tarjetas de memoria y éstas se puedan mezclar.

Los servicios del BIOS están intercalados entre el  “hardware” y los lenguajes de alto nivel, incluyendo el S.O. como se puede observar en la siguiente figura.
 








            El BIOS trabaja directamente con el “hardware”  del computador  y de los distintos periféricos realizando algunas de las tareas más fundamentales del sistema, tales como leer y escribir datos en la pantalla o en el disco.
Fuente de Alimentación

            La fuente de alimentación convierte la corriente alterna en uno o varios voltajes de corriente continua, es decir, ésta es la responsable de suministrar los voltajes a todos los componentes de la computadora, la fuente de alimentación juega un papel  muy importante en las siguientes áreas:
M               Estabilidad: La fuente de alimentación debe seguir proporcionando el mismo voltaje, ya que si todos los componentes están trabajando a su máxima potencia, puede provocar perdidas de datos o deterioro en el  funcionamiento del disco duro.
M               Posibilidad de expansión: La potencia de la fuente de alimentación, indica la habilidad de la PC para poderse expandir.
M               Enfriamiento: Otras de las funciones es la de enfriar el sistema, ya que en algunas computadoras, posee el único ventilador en el sistema, el más grande y este controla la mayoría del flujo de aire que entra al gabinete.
M               Consumo eficiente de energía: Los nuevos requerimientos de las fuentes de alimentación, hacen posible que estas pueda ser controladas por SW, para reducir  la cantidad de potencia que consumen, cuando no están trabajando.

DISIPADOR DE CALOR


Un disipador es un instrumento que se utiliza para bajar la temperatura de algunos componentes electrónicos.
Su funcionamiento se basa en la segunda ley de la termodinámica, transfiriendo el calor de la parte caliente que se desea disipar al aire. Este proceso se propicia aumentando la superficie de contacto con el aire permitiendo una eliminación más rápida del calor excedente.



Un disipador extrae el calor del componente que refrigera y lo evacúa al exterior, normalmente al aire. Para ello se necesita una buena conducción de calor a través del mismo, por lo que se suelen fabricar de aluminio por su ligereza, pero también de cobre, mejor conductor del calor, pero más pesado.



En los dispositivos electrónicos se suelen usar para evitar un aumento de la temperatura en algunos componentes. Por ejemplo, se emplea sobre transistores en circuitos de potencia para evitar que las altas temperaturas puedan llegar a quemarlos.
En los ordenadores su uso es intensivo, como por ejemplo en algunas tarjetas gráficas o en el microprocesador para evacuar el calor procedente de la conmutación de los transistores. Sin embargo, en ocasiones el calor generado en los componentes es demasiado elevado como para poder emplear disipadores de dimensiones razonables, llegando a ser necesarias emplear otras formas de refrigeración como larefrigeración líquida.
Los fabricantes de ordenadores acostumbran incluir un disipador y uno o más ventiladores, aunque no sean estrictamente necesarios, ya que es una forma barata de prevenir los posibles problemas que pueda haber por picos de potencia disipada en el componente o incrementos en la temperatura ambiente del entorno de trabajo.

                                                                        Imagen de dos disipadores de calor   

Los disipadores de calor son componentes metálicos que utilizan para evitar que algunos elementos electrónicos como los transistores bipolares , algunos diodos, SCR, TRIACs,MOSFETS, etc., se calienten demasiado y se dañen.

HISTORIA DE LA COMPUTADORA


HISTORIA DE LAS COMPUTADORAS


Las computadoras aparecen a finales de la década de 1950.

La computadora resulta ser un medio mecánico (electrónico, de hecho) para representar descripciones libre de ambigüedad y obtener un resultado útil.

Más aún, podría decirse que la computadora aparece cuando los niveles tecnológicos (electrónico fundamentalmente) alcanzan el grado de avance y refinamiento que ya tenían las ideas y conceptos matemáticos, lo cual sucede a mediados del siglo XX.

Uno de los problemas que siempre nos ha cautivado es el relacionado con la actividad de contar y con el concepto de número.  De ahí que las primeras herramientas que se inventaron en esté ingenio mecánico capaz de liberarnos de la pesada tarea de calcular a mano. 
  •  El abaco, es la primera calculadora mecánica, aunque no se puede llamar computadora porque carece de un elemento fundamental, el   programa,   que no se logrará hasta mucho tiempo después.
  • La maquina de calcular de Blaise Pascal (1623-1662).  Se trata de engranes en una caja, que proporcionan resultados de operaciones de suma y resta en forma directa – mostrando un numero a través de una ventanita-
  •   La máquina analítica  de Charles Babbage, nació alrededor de 1830, esta podría considerarse la primer computadora.  Este diseño, nunca llevado por completo a la práctica, contenía todos los elementos que configuran una computadora moderna y la diferencian de una calculadora.
La máquina analítica estaba dividida funcionalmente en dos grandes  partes: una que ordenaba y otra que ejecutaba las ordenes.  La que ejecutaba las ordenes era una versión muy ampliada de la máquina de Pascal, mientras que la otra era la parte clave.  La innovación consistía en que el usuario podía, cambiando las especificaciones de control, lograr que la misma máquina ejecutara operaciones complejas, diferentes de las hechas antes.

 Esta verdadera antecesora de las computadoras contaba también con una sección en donde recibían los datos para trabajar.  La maquina seguía instrucciones dadas por la unidad de control, las cuales indicaban qué hacer con los datos de entrada, para obtener luego resultados deseados. La aplicación fundamental para la que se elaboro esta maquina era, elaborar tablas de funciones matemáticas usuales (logaritmos, tabulaciones trigonometricas, etc.)  que requerían mucho esfuerzo manual.

Ésta leía los datos por medio de tarjetas perforadas.  
    
No obstante esta nunca pudo entrar en circulación porque cada que se quería calcular una función diferente se debían cambiar las especificaciones.

Es válido referirse a esta maquina como la primera computadora digital, porque el termino digital no presupone el concepto “electrónico”,  como ahora se explicará.

Los procesos naturales comparten la característica del tipo continuo; es decir, la escala de manifestaciones de un fenómeno cualquiera no tiene singularidades ni puntos muertos, sino que se extiende de manera continua desde la parte inferior a la superior. La altura de la columna de mercurio de un termómetro clínico puede variar entre las marcas, 30 y 45 grados, y en todo momento puede estar en cualquier punto de la escala.  Este se conoce como un fenómeno analógico.

No ocurre lo mismo, sin embargo, con otro tipo de fenómenos.  Si averigua la cantidad de ventanas que hay en un edificio, por ejemplo puede llegar a la conclusión que son 140, pero no 140 ½ .  Estos fenómenos reciben el nombre de digitales, talvez porque se pueden contar con los dedos de la mano.  En estos fenómenos se habla de estados (posiciones o manifestaciones discretas) y de transición entre ellos, y puede ser representado mediante un modelo matemático conocido como autómata finito.

Resumiendo, un fenómeno se llama analógico o continuo cuando entre dos manifestaciones cualesquiera de el siempre puede haber una tercera.  En contraposición, un fenómeno se conoce como digital o discontinuo cuando entre dos de sus manifestaciones no existe nada, si no solo una transición entre ambos estados.

 Así, puede hablarse de computadoras analógicas y computadoras digitales: son computadoras digitales aquellas que manejan información de manera discreta (en bits – dígitos binarios-) y son analógicas las que trabajan por medio de funciones continuas – generalmente representación de señales eléctricas-.

 A continuación se describen algunas características de la maquina inventada por Charles Babbage.
 
  •   Cien años después de Babbage, en 1947 se diseño la primera computadora electrónica digital, que tenia gran parecido funcional con la maquina analítica de Babbage, aunque antes hubo algunos esfuerzos.
o       En 1932  Vannevar Bush construyo en el Instituto Tecnológico de Massachussets (MIT) una calculadora electromecánica conocida como el analizador diferencial, pero era de propósito especifico y no tenia capacidad de programación.
o       Igualmente en 1944 se construyo en la Universidad de Harvard la computadora MARK I, diseñada por un equipo encabezado por Howard H. Aiken.  No obstante no era de propósito general y su funcionamiento estaba basado en relevadores.

Un equipo dirigido por los Doctores John Mauchly y John Ecker de la Universidad de Pennsylvania, termino en 1947 la ENIAC (Electronic Numerical Integrator And Computer) que puede ser considerada como l a primera computadora digital, electrónica de la historia.

Esta maquina era enorme media 10 x 16 metros, ocupaba el sótano de una Universidad, pesaba 30 tonelada, tenia 17,468 tubos  de vació y 60000 relevadores, consumía 140 Kw y requería un sistema de aire acondicionado industrial.  Pero era capaz de efectuar alrededor de 5000 sumas o 2800 multiplicaciones en un segundo, calculo el valor de la constate pi.  Como entre otras cosas iba a reemplazar a un grupo de matemáticas que hacia cómputos numéricos para una oficina especializada, recibió el nombre de “computadora”.

El  proyecto concluyo 2 años después cuando se integro al equipo John Von Neuman (1903-1957), quien es considerado el padre de las computadoras.

El nuevo equipo diseño la EDVAC (Electronic Discrete Variable Automatic Computer), tenia cerca de 40,000 bulbos y usaban un tipo de memoria basado en tubos de mercurio donde circulaban señales eléctricas sujetas a retardos.

La nueva idea fundamental resulta muy sencilla, pero de vital importancia: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera “suave” y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como la ENIAC.

Esta idea, que incluso obliga a una completa revisión de la arquitectura de las computadoras , recibe desde entonces el nombre del modelo de Von Neuman.  Alrededor de este concepto gira toda la evolución posterior de la industria y la ciencia de la computación.
Comparación entre la ENIAC y un procesador ya obsoleto


ENIAC
Intel 8080
Año
1947
1974
Componentes electrónicos
Casi 18,000 bulbos
Un circuito integrado con mas de 6000 transistores
Tamaño
160 m.
Menos de 1cm²
Requerimientos de Potencia
140 Kilowatts
Pocos miliwatts
Frecuencia de Reloj
100 KHz
2 MHz
Costo
Varios millones de
150 dlls
    


GENERACIONES DE LAS COMPUTADORAS

Esta clasificación se emplea poco ya, y además el criterio para determinar cuando se dio el cambio de una generación a otra no está claramente definido, aunque proponemos que al menos debieran cumplirse los dos requisitos estructurales :
  •  Cambios estructurales en su construcción.
  • Avances significativos en la forma de comunicación con las computadoras.

Primera Generación

El arranque de la industria de la computación se caracteriza por un gran desconocimiento de las capacidades y alcances de las computadoras.  Por ejemplo, según un estudio de esa época, se suponía que iban a ser necesarias alrededor de 20 computadoras para saturar la capacidad del mercado de Estados Unidos en el campo del procesamiento de datos.  Esta primera etapa abarcó la década de 1950 y se conoce como la primera generación de computadoras.  Las maquinas de esta generación cumplen los requisitos antes mencionados de la siguiente manera:
  • Su construcción estaba basada en circuitos de tubos de vacío o bulbos.
  • La comunicación se establecía por medio de programación en lenguaje máquina (binario).
Estos aparatos son grandes y costosos (Decenas o cientos de miles de dolares).

En 1951 aparece la primera computadora comercial, es decir fabricada para ser vendida: La INIVAC I (UNIVersal Computer).  Esta maquina, que disponía de 1000 palabras de memoria central y podía leer cintas magnéticas, se utilizó para procesar los datos del censo de 1950 en Estados Unidos.

Durante la primera generación ( y hasta parte de la tercera), las unidades de entrada estaban por completo dominadas por las tarjetas perforadas.  A la UNIVAC I siguió una máquina desarrollada por IBM(Internacional Bussiness Machines), que apenas incursionaba en el campo; es la IBM 701.  Hubo otras máquinas que competían con ella, de diferentes compañías.  La más exitosa de las computadoras fue el modelo 650 de IBM, de la cual se produjeron varios cientos.

Esta tenía un sistema de memoria secundaria llamado tambor magnético, antecesor de  los discos empleados actualmente.

La competencia contestó con modelos UNIVAC 80 y 90, que pueden situarse ya en los inicios de la segunda generación.     


Segunda generación

Cerca de la década de 1960 las computadoras seguían en constante evolución, reduciendo su tamaño y aumentado sus capacidades de procesamiento. Al mismo tiempo se iba definiendo con mayor claridad una nueva ciencia: la de comunicarse con la computadora, que recibía el nombre de programación de sistemas (software de base).

En esta etapa puede hablarse ya de la segunda generación de computadoras, que se caracteriza por los siguientes aspectos primordiales.
  • Estaban construidas por circuitos de transistores.
  • Se programaban con nuevos lenguajes llamados de “alto nivel”.
En general las computadoras de la segunda generación son de tamaño más reducido y menor costo que las anteriores. En la segunda generación hubo mucha competencia y muchas compañías nuevas, y se contaba con maquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la máquina ATLAS, de la Universidad de Manchester. Entre los primeros modelos que se pueden mencionar esta la Philco 212 y la UNIVAC M460.

IBM mejoro la 709 y produjo la 7090 (luego ampliada a la 7094), que gano el mercado durante la primera parte de la segunda generación. UNIVAC continuo con el modelo 1107, mientras NRC (National Cash Register) empezó a producir maquinas más pequeñas para proceso de datos comercial como la NCR 315.

RCA (Radio corporation of America) introdujo el modelo 501 y más tarde el RCA 601.

Esta generación no duro mucho, solo cinco años.

Tercera Generación
A mediados de la década de 1960, con la aparición de nuevas y mejores formas de comunicarse con la máquina, además de procesos adicionales en electrónica, surge la tercera generación de computadoras.

Se inaugura con la presentación, en abril de 1964 , de la serie 360 de IBM, como culminación de una enorme estrategia comercial y de mercadotecnia.
Las características de la tercera generación consisten en :
  • Su fabricación electrónica está basada en circuitos integrados: agrupamiento de circuitos de transistores grabados en milimétricas placas de silicio.
  • Su manejo es por medio de los lenguajes de control de los sistemas operativos.
Las computadoras de la serie IBM 360 (modelos 20, 22,30,40,50,65,75, 85, 90, 195 ) incluían técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características ahora usuales.

El sistema operativo de esta serie, llamado OS (Operative System), en varias configuraciones, incorporaba un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron es estándares.

Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la mas rápida.

A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitio con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.
Y así varias empresas continuaron compitiendo con nuevas aportaciones.
Minicomputadoras
A mediados de la década de 1970, surgió un gran mercado para computadoras de tamaño mediano, o minicomputadoras, no tan costosas como las grandes máquinas y con una gran capacidad de proceso. En un principio, el mercado de estas maquinas fue dominado por la serie PDP-8 de DEC (Digital Equipment Corporation).

Las computadoras de la serie IBM 360 (modelos 20, 22,30,40,50,65,75, 85, 90, 195 ) incluyan técnicas especiales del manejo de procesador, unidades de cinta magnética para nueve canales, paquetes de discos magnéticos y otras características Haza usuales.

El sistema operativo de esta serie, llamado OS (Operative System), en varias configuraciones, incorporaba un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron es estándares.

Esta serie alcanzo un éxito enorme de tal forma que la gente en general, pronto llego a identificar el concepto de computadora con IBM. Sin embargo sus maquinas no fueron las únicas, ni necesariamente las mejores. También existían CDC serie 600 modelo 6600, que durante varios años fue considerada la mas rápida.

A mediados de 1970, IBM produjo la serie 370 (modelos 115, 125, 135, 145, 158, 168) como mejora de la serie 360. UNIVAC compitió con los modelos 1108 y 1110, CDC inauguro se serie 7000 con el modelo 7600, reformando después para introducir el modelo Cyber.

Y así varias empresas continuaron compitiendo con nuevas aportaciones.

Otras minicomputadoras fueron la serie PDP-11 de DEC , remplazada luego por las màquinas VAX (Virtual Addres eXtended) de la misma compañia: los modelos Nova y Eclipse de Data General; las series 3000 y 9000 de Hewlett-Packard, en varias configuraciones y el modelo 34 de IBM, que luego fue remplazado por los modelos 36 y 38.

En la ahora ex Uniòn Soviètica fueron de amplio uso las computadoras de la serie SU (sistema unificado Ryad), asì mismo los países ahora ex socialistas desarrollaron una serie de computadoras dedicadas al control industrial, además de las máquinas de la serie Mink y BESM.

En la actualidad el mercado de las minicomputadoras es muy dinámico, sobre todo para el uso de servidores.

Cuarta generación 
El adelanto de la microelectrónica prosiguió a una velocidad impresionante, y por el año de 1972, surgió en el mercado una nueva familia de circuitos integrados de alta densidad, que recibieron el nombre de microprocesadores.  Las microcomputadoras  diseñadas con base en estos circuitos de semiconductores eran extremadamente pequeñas y baratas, por lo que su uso se extendió al mercado de consumo.

Sin embargo desde el punto de vista estricto, hace poco ingresamos a la cuarta generación , porque en la que podía llamarse la segunda parte de la tercera generación solo hubo adelantos significativos en el punto A y no en el punto B.  Con el uso masivo de internet ya también ya se puede hablar de un cambio sustancial en el punto B.
Por los que criterios son:
  • Microelectrónica de alta integración y distribución de tareas específicas mediante microprocesadores acoplados.
  • Acceso a la red desde una computadora personal, tanto en forma local como global.

La siguiente generación
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de introducir maquinas con innovaciones reales en los dos criterios mencionados, aunque a su termino en 1993 los resultados fueron bastante pobres.  La ACM Association for Computing Machering, que junto con la Computer Society de la IEEE (Institute of Electrical and Electronics Engineers), después de leer detallados artículos, concluye que esta es una generación perdida.

En Estados Unidos estuvo en actividad un programa de desarrollo que perseguía objetivos semejantes, que pueden resumirse de la siguiente forma:
  • Procesamiento en paralelo mediante arquitecturas y diseños especiales.
  • Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro de la computación es muy interesante, y se puede esperar que esta ciencia sigua siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.  Talvez las dos tecnologías que definirán los inicios del siglo XXI serán la computación y la ingeniería genética, y esta última depende en buena medida de las tecnologías de computo para proceder.