lunes, 13 de julio de 2009

SISTEMAS MULTIPROCESADORES

UNIVERSIDAD DE OCCIDENTE
Campus Culiacán
Maestro:
Lic. Amado Castaño Ibarra
Materia: Arquitectura de Computadoras
Grupo: E-2
Alumno: Galvez Caro Veronica
Matricula: 0640510

SISTEMAS MULTIPROCESADORES: Es una interconexión de dos o mas CPU con equipo de memoria y entrada-salida. El termino “procesador”, en multiprocesador, puede significar una unidad de procesamiento central (CPU) o un procesador de entrada-salida (IOP). Sin embardo, un sistema con una sola CPU y uno o mas IOP por lo general no se incluye en la definición de un sistema multiprocesador, a menos que los IOP tengan opciones computacionales comparables a una CPU como se define con mayor frecuencia, un sistema multiprocesador implica la existencia de múltiples CPU, aunque por lo general también habrá uno o mas IOP. Los multiprocesadores se clasifican como sistemas de flujo de instrucciones múltiple, flujo de datos múltiple (múltiple instruction stream, múltiple data stream, mimd).
Multiprocesadores se clasifican por la manera en que se organiza su memoria. Un sistema multiprocesador con memoria compartida común se clasifica como multiprocesador de memoria compartida. Esto no evita que cada procesador tenga su propia memoria local. De hecho, la mayoría de los procesadores de memoria compartida proporcionan una memoria cache con cada CPU. Además, hay una memoria común global que puede accesar todas las CPU. Por lo tanto, la información puede compartirse entre las CPU al colocarla en la memoria global común.

MULTIPROCESO:
Conocido como el uso de múltiples procesos concurrentes en un sistema en lugar de un único proceso en un instante determinado. Como la multitarea que permite a múltiples procesos compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar múltiples hilos dentro de un único proceso.
El multiproceso para tareas generales es, a menudo, bastante difícil de conseguir debido a que puede haber varios programas manejando datos internos (conocido como estado o contexto) a la vez. Los programas típicamente se escriben asumiendo que sus datos son incorruptibles. Sin embargo, si otra copia del programa se ejecuta en otro procesador, las dos copias pueden interferir entre sí intentando ambas leer o escribir su estado al mismo tiempo. Para evitar este problema se usa una variedad de técnicas de programación incluyendo semáforos y otras comprobaciones y bloqueos que permiten a una sola copia del programa cambiar de forma exclusiva ciertos valores.














MULTITAREA:
(Software que se subdivide en distintas tareas que pueden ser ejecutadas de forma simultánea. En realidad trata de una simultaneidad aparente, puesto que el microprocesador dedica a cada trabajo una fracción de segundo; algo, por otra parte, inapreciable para el ser humano. Los recursos y el tiempo pueden ser asignados de forma igualitaria o estableciendo correcciones según un orden de prioridades. La multitarea es una característica típica de sistemas como OS/2 o Unix.

Tipos de multitarea
Cooperativa
Los procesos de usuario son quienes ceden la CPU al sistema operativo a intervalos regulares. Muy problemática, puesto que si el proceso de usuario se interrumpe y no cede la CPU al sistema operativo, todo el sistema estará trabado, es decir, sin poder hacer nada. Da lugar también a latencias muy irregulares, y la imposibilidad de tener en cuenta este esquema en sistemas operativos de tiempo real.

Preferente El sistema operativo es el encargado de administrar el/los procesador(es), repartiendo el tiempo de uso de este entre los procesos que estén esperando para utilizarlo. Cada proceso utiliza el procesador durante cortos períodos de tiempo, pero el resultado final es prácticamente igual que si estuviesen ejecutándose al mismo tiempo. Ejemplos de sistemas de este tipo serían Unix y sus derivados (FreeBSD, GNU/Linux), VMS y derivados, AmigaOS, Windows NT.

Real Sólo se da en sistemas multiprocesador. Es aquella en la que varios procesos se ejecutan realmente al mismo tiempo, en distintos microprocesadores. Suele ser también preferente. Ejemplos de sistemas operativos con esa capacidad: variantes Unix, GNU/Linux, Windows NT, Mac OS X, etc.
En otras palabras
Los sistemas operativos multitarea son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

MULTIHEBRA:
El concepto multihebra (”multithreading”) es de tipo lógico. Significa que un programa puede tener varias vías de ejecución que “pueden” ser independientes. Por ejemplo: Un procesador de texto puede tener una hebra que es utilizada por el usuario para escribir y otra, que a periodos de tiempo determinados, salva a disco el contenido de la memoria, obteniendo así una copia de seguridad. Según hemos visto, desde el punto de vista físico, lo que caracteriza a las diversas hebras de un proceso es que comparten ciertos recursos dentro del mismo; por ejemplo la memoria, los ficheros abiertos y las variables estáticas, mientras que mantienen independencia en los recursos que les permiten una ejecución independiente, por ejemplo su propia pila y el estado de los registros del procesador, que es salvado y restituido cada vez que la hebra es desactivada o activada.
Lo importante aquí es que desde un punto de vista lógico, las hebras corren de forma simultánea e independiente (lo que no impide que pueda existir cierta coordinación entre ellas, de forma que, por ejemplo, una puede esperar hasta que otra ha terminado cierto trabajo). Que esta “simultaneidad” sea o no real no es lo más importante. En cualquier caso, la percepción del usuario es que todas corren simultánea e independientemente.

PARALELISMO Y PROCESAMIENTO DE VECTOR
El paralelismo es una forma de computación en la cual varios calculos pueden realizarse simultaneamente, basado en el principio de dividir los problemas grandes para obtener varios problemas pequeños, que son posteriormente solucionados en paralelo. Hay varios tipos diferentes de paralelismo: nivel de bit, nivel de instrucción, de datos, and de tarea. El paralelismo ha sido empleado durante muchos años, sobretodo para la Computación de alto rendimiento.
Desde el punto de vista de un programa de ordenador, un array (matriz o vector) es una zona de almacenamiento contiguo, que contiene una serie de elementos del mismo tipo, los elementos de la matriz. Desde el punto de vista lógico un array se puede ver como un conjunto de elementos ordenados en fila (o filas y columnas si tuviera dos dimensiones). En principio, se puede considerar que todos los arrays son de una dimensión, la dimensión principal, pero los elementos de dicha fila pueden ser a su vez arrays (un proceso que puede ser recursivo), lo que nos permite hablar de la existencia de arrays multidimensionales, aunque los más fáciles de imaginar son los de una, dos y tres dimensiones.


El procesamiento paralelo puede considerarse de diversos niveles de complejidad. En el nivel mas bajo, distinguimos entre operaciones seriales y paralelas mediante el tipo de registros que utilizan. Los registros de corrimiento operan en forma serial un bit a la vez, mientras que los registros con carga paralela operan con todos los bits de la palabra en forma simultánea.

Procesadores vectoriales memoria a memoria
Otro tipo de procesadores vectoriales permite que las operaciones realizadas con vectores se alimenten directamente de datos procedentes de la memoria hasta los pipelines vectoriales y que los resultados se escriban directamente en la memoria. Este tipo de procesadores se conocen con el nombre de procesadores vectoriales memoria a memoria. Dado que los elementos del vector necesitan venir de la memoria en lugar de proceder de un registro, se requiere más tiempo para conseguir que la operación vectorial comience a realizarse. Esto es debido en parte al coste del acceso a la memoria. Un ejemplo de procesador vectorial memoria a memoria era el CDC Cyber 205.
Debido a la capacidad de superponer el acceso a la memoria y la posible reutilización de los vectores ya utilizados, los procesadores vectoriales de registro vectorial suelen ser más eficientes que los procesadores vectoriales memoria a memoria. Sin embargo, a medida que la longitud de los vectores utilizados para un cálculo se incrementa, esta diferencia en el rendimiento entre los dos tipos de arquitecturas tiende a desaparecer. De hecho, los procesadores vectoriales memoria a memoria pueden llegar a ser más eficientes si la longitud de los vectores es lo suficientemente grande. Sin embargo, la experiencia ha demostrado que la longitud de los vectores suele ser mucho más corta de la necesaria para que esta situación llegue a producirse.

COMPUTADORA CON MULTIPROCESADOR
Un sistema operativo multiproceso se refiere al numeró de procesadores del sistema, que es más de uno y este es capaz de usarlos todos para distribuir su carga de trabajo.

IBM xSeries 430
Maneja arquitectura Intel
Procesamiento SMP
Numero máximo de procesadores 64 y un minimo de 4
Memoria que puede manejar de 1 a 64 GB
SUN ENTERPRISE 10000
Solo funciona con UNIX
Numero maximo de procesadores 36
Memoria RAM de 500 GB
Procesameinto SMP


SUN FIRE 6800
Numero maximo de procesadores 24
Memoria RAM 192 GB


SUN ENTERPRISE ULTRA 10s

Numero maximo de procesadores 4
Memoria RAM 18.2 GB
Procesamiento SMP
Funciona con varios sistemas operativos

IBM DEEP BLUE
Deep Blue fue una computadora de IBM que jugaba al ajedrez. Su nombre se podría traducir al español como “Azul Oscuro” o “Azul Profundo”.
La segunda de las traducciones es más acertada, ya que se emplea un algoritmo de inteligencia artificial de la familia Minimax. La fuerza de juego de estos programas de juego automático es mayor cuanto mayor sea la profundidad (número de movimientos futuros) hasta la que llega la exploración, y por tanto mayor el número de nodos. De este modo, el nombre Deep Blue es un juego de palabras que relaciona el azul (color corporativo de IBM) con la gran profundidad de exploración gracias a la potencia de su hardware.
Deep Blue fue mejorando y jugó de nuevo contra Kasparov en mayo de 1997, ganando el encuentro a 6 partidas por 3′5-2′5, lo que lo convirtió en la primera computadora en derrotar a un campeón del mundo vigente, en un encuentro con ritmo de juego de torneo estándar. El encuentro concluyó el 11 de mayo. El sistema saca su fuerza de juego principalmente en la fuerza bruta que calcula el sistema central. Era una potencia paralela, de 30 nodos, RS/6000, SP-based el sistema informático realzado(mejorado) con 480 VLSI con el objetivo especial de jugar al ajedrez. Su programa de juego de ajedrez fue escrito en C y corrió bajo el sistema operativo AIX. Era capaz de calcular 200 millones de posiciones por segundo, dos veces más rápido que la versión de 1996. En junio de 1997, Deep Blue era el 259 superordenador más poderoso, capaz de calcular 11.38 gigaflops, aunque toda esta potencia no estaba pensada en realidad para jugar al ajedrez.

SUPERCOMPUTADORA CRAY
Cuenta con sus 216 procesadores AMD Opteron Dual Core 2.2Ghz, tiene un poder de procesamiento de 0.95 TFlops, capaz de realizar 950,000,000,000 operaciones en aritmética de punto flotante (sumas o multiplicaciones con números reales) en un segundo.
Este equipo también posee una capacidad de almacenamiento central de 4 Tbytes. Almacenamiento equivalente a 4,000,000,000,000 de caracteres.
La supercomputadora Cray XD1 combina sistemas avanzados de interconexión, administración y tecnología computacional reconfigurable que satisface de manera confiable las demandas de procesamiento de alto rendimiento. Diseñada para cumplir con los requerimientos de cómputo de alto rendimiento (HPC) en áreas que van del diseño de productos, a predicción del clima, e investigaciones científicas. La Cray XD1 es una poderosa herramienta para científicos e ingenieros que les permite simular y analizar problemas de mayor complejidad de forma rápida.
La Cray XD1 esta basada en la arquitectura de “Conexión Directa entre Procesadores (DCP)” lo que permite interconectar muchos procesadores como uno solo, optimizando las aplicaciones que hacen uso del envío de mensajes, enlazando un bloque de procesadores al siguiente a través de interconexiones (propietarias) de alto desempeño, eliminando la contención de la memoria compartida y de los cuellos de botella en los dispositivos PCI.
La Cray XD1 es un sistema modular cuya unidad base es el chasis. En un gabinete se pueden instalar hasta 12 chasis, integrando múltiples gabinetes es posible integrar cientos de procesadores en un único sistema.

CLASIFICACION Y CARACTERISTICAS DE MULTIPROCESADOR

Multiprocesador: es un unico computador que incluye multiples procesadoes.
Los procesadores se pueden comunicar y cooperar a diferentes niveles para resoslver un problema dado: esta comunicación se puede realizar:
* Enviando mensajes de un procesador a otro
* Compartiendo una memoria comun

Clasificación en función de la organizaciónde la memoria– Uniform Memory Access (UMA)– NonUuniform Memory Access (NUMA)– Message Passing Machines (MPM)• Emulación de Multiprocesadores• Mercado actual
La memoria es determinante en un sistemacon tanto ancho de banda de memoria(ABmem)– El ABmem de 1 sólo procesador es muy grande– La memoria puede servir para comunicarseentre los procesadores• UMA (Uniform Memory Access)– Espacio de direcciones de memoria compartido– Tiempo de acceso uniforme para toda dirección– Hardware bastante simple.– El cuello de botella es el acceso a memoriaprincipal, lo cual implica:• Grandes cachés en cada procesador• El número de procesadores no puede ser muyalto. Hoy en día N≤32
Las características del equipo son las siguientes:
HARDWARE

216 Procesadores AMD Opteron 275, x8664, 2.2 GHzz
216 Gbytes DDR 400 registered ECC de memoria RAM Total
4 Tbytes de almacenamiento principal
1 Tbyte de registros de memoria accesibles por procesador
Interconexion tipo Rapid Array Interconnect
1.7 µs Latencia MPI entre procesadores
Rendimiento Teórico Pico 0.95TFlops

FUENTES DE INFORMACION:

lunes, 15 de junio de 2009

R.I.S.C Y C.I.S.C


UNIVERSIDAD DE OCCIDENTE

UNIDAD CULIACAN

MATERIA: ARQUITECTURA DE COMPUTADORAS

ALUMNA: VERONICA GALVEZ CARO

MAESTRO: AMADO CASTAÑOS

DEFINICION:
R.I.S.C.- (Reduced Instruction Set Computer), Computadora con Conjunto de Instrucciones Reducidas. Es un tipo de microprocesador con las siguientes características fundamentales:


INTRUCCIONES: De tamaño fijo y presentadas en un reducido número de formatos. Sólo las instrucciones de carga y almacenamiento acceden a la memoria por datos. Además estos procesadores suelen disponer de muchos registros de propósito general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentacion y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPC, DEC Alpha, MIPS, ARM... son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.
La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.
Terminología más moderna se refiere a esos diseños como arquitecturas de carga-almacenamiento.


ARQUITECTURAS RISC: Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.
En investigaciones hechas a mediados de la década de los setentas, con respecto a la frecuencia de utilización de una instrucción en un CISC y al tiempo para su ejecución, se observó lo siguiente:
- Alrededor del 20% de las instrucciones ocupa el 80% del tiempo total de ejecución de un programa.
- Existen secuencias de instrucciones simples que obtienen el mismo resultado que secuencias complejas predeterminadas, pero requieren tiempos de ejecución más cortos.
Las características esenciales de una arquitectura RISC pueden resumirse como sigue:
Estos microprocesadores siguen tomando como base el esquema moderno de Von Neumann.
Las instrucciones, aunque con otras características, siguen divididas en tres grupos:
a) Transferencia.

b) Operaciones.


c) Control de flujo.



Reducción del conjunto de instrucciones a instrucciones básicas simples, con la que pueden implantarse todas las operaciones complejas.
Arquitectura del tipo load-store (carga y almacena). Las únicas instrucciones que tienen acceso a la memoria son 'load' y 'store'; registro a registro, con un menor número de acceso a memoria.
Casi todas las instrucciones pueden ejecutarse dentro de un ciclo de reloj. Con un control implantado por hardware (con un diseño del tipo load-store), casi todas las instrucciones se pueden ejecutar cada ciclo de reloj, base importante para la reorganización de la ejecución de instrucciones por medio de un compilador.
Pipeline (ejecución simultánea de varias instrucciones). Posibilidad de reducir el número de ciclos de máquina necesarios para la ejecución de la instrucción, ya que esta técnica permite que una instrucción puede empezar a ejecutarse antes de que haya terminado la anterior. El hecho de que la estructura simple de un procesador RISC conduzca a una notable reducción de la superficie del circuito integrado, se aprovecha con frecuencia para ubicar en el mismo, funciones adicionales:
Unidad para el procesamiento aritmético de punto flotante.
Unidad de administración de memoria.
Funciones de control de memoria cache.



Implantación de un conjunto de registros múltiples. La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.
Por otra parte, es necesario considerar también que:
La disponibilidad de memorias grandes, baratas y con tiempos de acceso menores de 60 ns en tecnologías CMOS.
Módulos SRAM (Memoria de acceso aleatorio estática) para memorias cache con tiempos de acceso menores a los 15 ns.
Tecnologías de encapsulado que permiten realizar más de 120 terminales. Esto ha hecho cambiar, en la segunda mitad de la década de los ochentas, esencialmente las condiciones técnicas para arquítecturas RISC.



DEFINICION:

C.I.S.C.-(Complex Instruction Set Computer - Computadora con Conjunto de Instrucciones Complejas).CISC es un tipo de arquitectura de computadoras que promueve el uso de gran número de instrucciones, permitiendo operaciones complejas entre operandos situados en memoria o en registros internos.


ARQUITECTURAS CISC: La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC.
Como por ejemplo:
Intel 8086, 8088, 80286, 80386, 80486.


Motorola 68000, 68010, 68020, 68030, 6840.
La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador.
En la década de los sesentas la micropramación, por sus características, era la técnica más apropiada para las tecnologías de memorias existentes en esa época y permitía desarrollar también procesadores con compatibilidad ascendente. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones.
Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj (al menos uno por microinstrucción).


DIFERENCIA ENTRE C.I.S.C Y R.I.S.C
Es contrapuesta a la arquitectura RISC. La arquitectura CISC dificulta el paralelismo, para subsanar este inconveniente actualmente los microprocesadores implementan un sistema para convertir instrucciones complejas en varias instrucciones simples (del tipo RISC).La familia Intel x86 (los microprocesadores más usados en PC) utilizan arquitectura CISC como así mbién el Motorola 68000, Zilog Z80, etc.


Los atributos complejo y reducido describen las diferencias entre los dos modelos de arquitectura para microprocesadores solo de forma superficial. Se requiere de muchas otras características esenciales para definir los RISC y los CISC típicos. Aun más, existen diversos procesadores que no se pueden asignar con facilidad a ninguna categoría determinada.
Así, los términos complejo y reducido, expresan muy bien una importante característica definitiva, siempre que no se tomen solo como referencia las instrucciones, sino que se considere también la complejidad del hardware del procesador.
Con tecnologías de semiconductores comparables e igual frecuencia de reloj, un procesador RISC típico tiene una capacidad de procesamiento de dos a cuatro veces mayor que la de un CISC, pero su estructura de hardware es tan simple, que se puede realizar en una fracción de la superficie ocupada por el circuito integrado de un procesador CISC.
Esto hace suponer que RISC reemplazará al CISC, pero la respuesta a esta cuestión no es tan simple ya que:
Para aplicar una determinada arquitectura de microprocesador son decisivas las condiciones de realización técnica y sobre todo la rentabilidad, incluyendo los costos de software.
Existían y existen razones de compatibilidad para desarrollar y utilizar procesadores de estructura compleja así como un extenso conjunto de instrucciones. La meta principal es incrementar el rendimiento del procesador, ya sea optimizando alguno existente o se desee crear uno nuevo. Para esto se deben considerar tres áreas principales a cubrir en el diseño del procesador y estas son:
La arquitectura.
La tecnología de proceso.
El encapsulado. La tecnología de proceso, se refiere a los materiales y técnicas utilizadas en la fabricación del circuito integrado, el encapsulado se refiere a cómo se integra un procesador con lo que lo rodea en un sistema funcional, que de alguna manera determina la velocidad total del sistema.
Aunque la tecnología de proceso y de encapsulado son vitales en la elaboración de procesadores más rápidos, es la arquitectura del procesador lo que hace la diferencia entre el rendimiento de una CPU (Control Process Unit) y otra. Y es en la evaluación de las arquítecturas RISC y CISC donde centraremos nuestra atención.
Dependiendo de cómo el procesador almacena los operandos de las instrucciones de la CPU, existen tres tipos de juegos de instrucciones:
Juego de instrucciones para arquitecturas basadas en pilas.
Juego de instrucciones para arquitecturas basadas en acumulador.
Juego de instrucciones para arquitecturas basadas en registros. Las arquítecturas RISC y CISC son ejemplos de CPU con un conjunto de instrucciones para arquítecturas basadas en registros.


FUENTE DE INFORMACION:http://www.azc.uam.mx/publicaciones/enlinea2/num1/1-2.htm


http://img.zdnet.com/techDirectory/RISC.GIF

lunes, 25 de mayo de 2009

TIPOS Y TAMAÑOS DE COMPUTADORAS

UNIVERSIDAD DE OCCIDENTE
CAMPUS CULIACAN
MATERIA: ARQUITECTURA DE COMPUTADORAS
MAESTRO: AMADO CASTAÑOS
ALUMNA: GALVEZ CARO VERONICA
MATRICULA: 0640510

La computadora: Es un dispositivo electronico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando calculos, para posteriormente mostrar los resultados deseados.

Dentro de la evolución de las computadoras, han surgido diferentes equipos con diferentes tamaños y características según su tipo de labor acontinuacion mencionare los tipos de computadoras mas conocidos.

SUPERCOMPUTADORAS ("PARALELAS") :
Una supercomputadora es la computadora más potente disponible en un momento dado. Estas máquinas están construidas para procesar enormes cantidades de información en forma rápida. Las Supercomputadoras pueden costar desde 10 millones hasta 30 millones de dólares, y consumen energía eléctrica sufiente para alimentar 100 hogares.




MACROCOMPUTADORAS “MAINFRAME”:
Son sistemas que ofrecen mayor velocidad en el procesamiento y mayor capacidad de almacenaje que una mini computadora típica.

La computadora de mayor tamaño en uso común es el macrocomputadora. Las Macrocomputadoras (mainframe) están diseñadas para manejar grandes cantidades de entrada, salida y almacenamiento.


MINICOMPUTADORAS:
Al igual que las micros son de propósitos generales, pero mayormente son más poderosas y más costosas que las micros. En tamaño varían de un modelo de escritorio a una unidad del grande de un archivo.

La mejor manera de explicar las capacidades de una Minicomputadora es diciendo que están en alguna parte entre las de una macrocomputadora o mainframe y las de las computadoras personales. Al igual que las Macrocomputadoras, las Minicomputadoras pueden manejar una cantidad mucho mayor de entradas y salidas que una computadora personal. Aunque algunas minis están diseñadas para un solo usuario, muchas pueden manejar docenas o inclusive cientos de terminales.

En 1960 surgió la Minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un MainFrames, y esto ayudó a reducir el precio y costo de mantenimiento. Las Minicomputadora, en tamaño y poder de procesamiento, se encuentran entre los MainFrames y las estaciones de trabajos.

En general, una Minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.

ESTACIONES DE TRABAJO ("WORKSTATION") :
Diseñados para apoyar una red de computadoras, permitiendo a los usuarios el compartir archivos, programas de aplicaciones y hardware", como por ejemplo las impresoras.
Entre las Minicomputadoras y las microcomputadoras (en términos de potencia de procesamiento) existe una clase de computadoras conocidas como estaciones de trabajo. Una estación de trabajo se ve como una computadora personal y generalmente es usada por una sola persona, al igual que una computadora. Aunque las estaciones de trabajo son más poderosas que la computadora personal promedio. Las estaciones de trabajo tienen una gran diferencia con sus primas las microcomputadoras en dos áreas principales. Internamente, las estaciones de trabajo están construidas en forma diferente que las microcomputadoras. Están basadas generalmente en otra filosofía de diseño de CPU llamada procesador de cómputo con un conjunto reducido de instrucciones (RISC), que deriva en un procesamiento más rápido de las instrucciones.

MICROCOMPUTADORAS:
Son sistemas pequeños de propósitos generales. Pero pueden ejecutar las mismas operaciones y usar las mismas instrucciones de muchos sistemas grandes.

Estas pequeñas computadoras se encuentran comúnmente en oficinas, salones de clase y hogares. Las computadoras personales vienen en todas formas y tamaños. Modelos de escritorio. El estilo de computadora personal más común es también el que se introdujo primero: el modelo de escritorio. Computadoras notebook Las computadoras notebook, como su nombre lo indica, se aproximan a la forma de una agenda. Las Laptop son las predecesoras de las computadoras notebook y son ligeramente más grandes que éstas. Asistentes personales digitales Los asistentes personales digitales (PDA) son las computadoras portátiles más pequeñas.

Las PDA también llamadas a veces palmtops, son mucho menos poderosas que los modelos notebook y de escritorio. Se usan generalmente para aplicaciones especiales, como crear pequeñas hojas de cálculo, desplegar números telefónicos y direcciones importantes, o para llevar el registro de fechas y agenda. Muchas pueden conectarse a computadoras más grandes para intercambiar datos.

COMPUTADORAS PORTATILES:
En 1993, con su filial FirstPerson IEC. Sun anuncio su entrada en el mercado de la electrónica de consumo con computadoras portátiles que se pueden conectar a sistemas de redes. Algunas computadoras portátiles usan RAM con alimentación por baterías como disco virtual; es mas caro pero consume menos energía que un disco duro. Los relojes digitales, las computadoras portátiles y los juegos electrónicos son sistemas basados en microprocesadores. Las pantallas LCD son más planas y más pequeñas que los monitores de rayos catódicos, y se emplean frecuentemente en ordenadores portátiles.

PCMCIA, en informática, acrónimo de Personal Computer Memory Card Internacional Association. Especificación que regula los estándares en la fabricación de tarjetas de expansión, originalmente para ordenadores so computadoras portátiles.

TABLA COMPARATIVA
Categoria
Super Computadora
Macrocomputadora "mainframe"
Minicomputadora
Estación de trabajo
Microcomputadora

Tamaño
Cuarto Completo
Cuarto Parcial o completo
De pequeño archivo a grande
De escritorio a archivo pequeño
De mano a escritorio

Velocidad
Miles de MIPS
Cientos de MIPS
Cientos de MIPS
25 a 200 MIPS
1 a 100 MIPS

Numero de Usuarios en linea
Miles de usuarios
Cientos a miles de usuarios
2 a 4,000 usuarios
2 a 1,ooo
Un usuario

Rango de Precios
Varios millones en adelante
$300,000 a varios millones
$15,000 a varios cientos de miles de $
$5,000 a $150,000
Cientos amiles de dolares

FUENTE DOCUMENTAL:
http://html.rincondelvago.com/tipos-de-computadoras.html
http://www.icono-computadoras-pc.com/tipos-de-computadoras.html

martes, 12 de mayo de 2009

Arquitectura de Harvard.

Arquitectura de Harvard. El termino arquitectura Harvard proviene de la computadora Harvard Mark I, se encarga de almacenar instrucciones en cintas perforadas y los datos en interrupciones. Es la misma arquitectura de computadoras, posee dispositivos de almacenamiento que se encuentran separados físicamente para los datos y las instrucciones. Las partes principales de las computadoras es la memoria y la CPU, la primera guarda los datos y la CPU los procesa. A través de la memoria no solo se pueden manejar los datos sino también el lugar donde se encuentran almacenados, estos dos parámetros son de mucha importancia para la CPU.El CPU trabaja con mucha mayor velocidad que las memorias con las que trabaja. Para que la memoria valla más rápida se aconseja suministrar una pequeña memoria llamada caché que es muy rápida. Se pueden conseguir memorias con más velocidad pero estas poseen un alto precio. Si los datos están en la caché rendirán mucho mas tiempo, pero si la caché tiene que obtener los datos a través de la memoria principal estos no perduraran mucho. La arquitectura Harvard permite que los datos y las instrucciones se almacenen en chaches separados para obtener mejor rendimiento. Se utiliza en procesadores de señal digital y en DSPs, que son utilizados en productos para procedimiento de video y audio.