linea del tiempo

| edit post
Cuestionario Linux
CUESTIONARIO LINUX

1.- ¿Que es linux?
R= Sistema operativo de codigo fuente libre.

2.- ¿Quien invento Linux?
R= Linus Torvalds

3.- ¿Cuales son las ventajas y desventajas del Software libre?
R= Gratuito, posibliladad de modificar codigo fuente, no se infecta, es estable. Los codigos para software no estan libres y compatibles con linux

4.- ¿Por que linux es seguro?
R= Por que no se infecta y las mayoria de las amenazas esta orientada a Windows.

5.- ¿Que otras aplicaciones se pueden instalar comparadas con las de Windows?
R= *Open Office, Thunderbird, Gaim, Samba, K3V, Apache, Firefox, Totem.

6.- ¿Cuales son las carpetas principales de Linux?
R= /raiz, /dev, /root, /home, /use/, /bin, /lib.

7.- ¿Linux no tiene un buen soporte en Hardware?
R= La mayaoria de los controladores, sus codigos no las han liberado.

8.- ¿Cuales son los diferentes grupos de Linux?
R= Debian, Suse, MAndrake-Mandriva, Ubuntu, Red Hat.

9.- ¿A que se le llama Software free y cuales serian sus desventajas comparados con uno de licencia?
R= Compatibilidad con Sistemas Operativos, Versiones de prueba (BETA).
| edit post
Unidad 1

1.1   Definición Objetivos Función Sistema Operativo

El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.

En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.




Cómo funciona un Sistema Operativo

Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux.
Cómo se utiliza un Sistema Operativo

Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.

Ejemplos de Sistema Operativo

A continuación detallamos algunos ejemplos de sistemas operativos:
Familia Windows

 Windows 95
Windows 98
Windows ME
Windows NT
Windows 2000
Windows 2000 server 
Windows XP
Windows Server 2003
Windows CE
Windows Mobile
Windows XP 64 bits
Windows Vista (Longhorn)

Familia Macintosh
     Mac OS 7
 Mac OS 8
Mac OS 9
Mac OS X

Familia UNIX

AIX
AMIX
GNU/Linux
GNU / Hurd
HP-UX
Irix
Minix
System V
Solaris
UnixWare

 

1.2 HISTORIA EVOLUCIÓN SISTEMA OPERATIVO

Primera etapa: Procesamiento en serie

En un principio no existían sistemas operativos, programándose sobre el hardware básico. Los programas se escribían en lenguaje máquina, y se introducían en el ordenador, junto a los datos, en octal o hexadecimal mediante una consola con interruptores manuales. Se iniciaban los programas cargando el registro contador de programa con la dirección de memoria de la primera instrucción del programa. Los resultados de la ejecución se obtenían examinando el contenido de los registros y posiciones de memoria relevantes. Los dispositivos de E/S se controlaban directamente, escribiendo y leyendo en los puertos de E/S.

Evidentemente la programación del hardware básico resulta baja en productividad, tanto para los usuarios, como para la máquina. El proceso largo y tedioso de la introducción de programas y datos excluye prácticamente la ejecución de programas medios y grandes.

Un siguiente paso significativo en la evolución en el uso de los ordenadores viene con la llegada de los dispositivos de E/S, tales como lectores de tarjetas y de cintas de papel perforadas. También aparecen los traductores de lenguajes. Los programas, codificados ahora en un lenguaje simbólico, se traducen a forma ejecutable mediante un traductor. Otro programa, llamado cargador, automatiza la carga de programas ejecutables en memoria. El usuario pone un programa y sus datos de entrada en un dispositivo de entrada, y el cargador transfiere información desde el dispositivo de entrada a memoria. Después, se transfiere el control, mediante medios manuales o automáticos, al programa cargado para su ejecución. El programa en ejecución lee sus entradas desde el dispositivo de entrada designado y puede producir alguna salida en un dispositivo de salida, como la impresora o la pantalla. Una vez en memoria, el programa se puede reejecutar con un conjunto diferente de datos de entrada.

El mecanismo de desarrollo de programas sigue siendo engorroso. En una secuencia típica, se carga el programa editor para preparar el código fuente del programa de usuario. El siguiente paso es cargar y ejecutar el traductor, y alimentarlo con el código fuente del programa de usuario. Los traductores de paso múltiple pueden requerir que se vuelva a poner el código fuente durante cada paso para leerlo. Una vez corregido sintácticamente el programa se ejecuta el código objeto. Si se detectan errores en la ejecución, se puede examinar y modificar el contenido de la máquina mediante los interruptores de la consola, o con la ayuda de un programa denominado depurador.

La mayoría de los programas utilizaban dispositivos de E/S. Una mejora lógica fue el proporcionar unas rutinas estándares de E/S que fueran usadas por todos los programas. Al principio, las rutinas de E/S se introducían con las demás tarjetas del programa de usuario. Posteriormente, se guardaba en memoria las rutinas compiladas, y mediante un programa enlazador se combinaban con el código objeto del usuario.

En estos sistemas las rutinas de E/S y el programa cargador constituyen una forma rudimentaria de sistema operativo. Los traductores, editores y depuradores son programas de sistema, pero no forman parte del sistema operativo.



 Segunda etapa: Procesamiento por lotes

Hasta ahora la utilización del procesador es muy baja, pues el tiempo empleado en leer un programa almacenado en tarjetas suele ser mucho mayor que el empleado en ejecutar el programa. Cuando aparecieron las cintas magnéticas, cuya lectura y escritura era muy inferior en tiempo a las tarjetas, se pensó que se utilizaría más el procesador si todas las entradas y salidas se realizaban sobre cintas.

Para realizar esto se utilizó una técnica de off-lining (fuera de línea). La idea era dedicar un ordenador periférico, de menor costo y potencia, a convertir las tarjetas o la cinta perforada en información sobre cinta magnética, y la salida sobre cinta magnética en salida sobre impresora o cinta perforada. Una vez que se procesaban varios trabajos a cinta, ésta se desmontaba del ordenador periférico, y se llevaba a mano para su procesamiento por el ordenador principal. Cuando el ordenador principal llenaba una cinta de salida, ésta se llevaba al ordenador periférico para su paso a impresora o cinta perforada.

Una de las implicaciones de esta forma de trabajo era que en una cinta de entrada podían existir los trabajos de varios programadores. Para diferenciar los trabajos (o tareas) de distintos programadores se introducían tarjetas de control que interpretaba un sistema operativo embrionario. Así, por ejemplo, un trabajo podía empezar con una tarjeta $JOB de comienzo, con un identificativo del programador. Después una tarjeta $FORTRAN para indicarle al sistema operativo que cargue el compilador de FORTRAN de una cinta del sistema. A continuación vendrían las tarjeta del código fuente. Una tarjeta $LOAD para que se cargue en memoria el programa compilado (pues usualmente se guardaba en cinta). La tarjeta $RUN indicaba que se ejecutara el programa con los datos que vienen en las tarjetas siguientes. Por fin, una tarjeta $END indicaba el fin del trabajo.

 El sistema operativo residía en memoria y tenía un programa de control que interpretaba las tarjetas de control, las cuales representaban un lenguaje de control de tareas. Dependiendo del tipo de tarjeta de control el sistema operativo realizaba una acción determinada. Este programa de control es un antecedente de los modernos intérpretes de órdenes.

 Con esta forma de trabajo el programador entregaba sus tarjetas a un operador y esperaba horas hasta que el programa proporcionara su salida. La falta de un punto y coma al final de una línea de un programa podía provocar un error sintáctico, y la pérdida de estas horas de espera. Por otro lado, debido a que la cinta magnética es un medio de almacenamiento serie, no había opción alguna de orden de ejecución de las tareas que no fuese el orden en que éstas se habían presentado al ordenador.

 De cara a eliminar la dependencia de las E/S en lugar de tan sólo reducirla, hay que emplear técnicas mediante las cuales se puedan superponer las E/S al proceso a ejecutar. Ello es posible con la ayuda de dos elementos del hardware: el canal y la interrupción. Un canal es un elemento que controla uno o más dispositivos, llevando a cabo transferencias de datos entre estos dispositivos y la memoria sin involucrar prácticamente al procesador central. Una interrupción es una señal que transfiere el control del procesador central a una posición fija de memoria, almacenando al mismo tiempo el valor anterior del contador de programa, y, posiblemente, la palabra de estado del procesador. De esta forma, se suspende temporalmente la ejecución del programa que estaba siendo llevado a cabo en el momento de la interrupción, aunque podrá reemprenderse dicha ejecución más tarde (o sea, el programa es interrumpido). Una interrupción de un canal actúa como señal que indica que se ha completado una transferencia de datos. De esta forma es posible que el procesador central inicie una transferencia a un dispositivo, continúe el proceso que estaba llevando a cabo mientras el canal controla la transmisión y reciba a través de una interrupción la notificación de haberse completado dicha transferencia.

 Es posible ahora leer las tareas a ejecutar guardándolas en un soporte adecuado (normalmente disco), y ejecutarlas una a una al mismo tiempo que se van leyendo otras. Para ello ha habido que añadir a nuestro sistema operativo una rutina de gestión de las interrupciones y otra que decida cuál de las tareas almacenadas en disco será la siguiente en ser ejecutada. Esta última función, que recibe el nombre de sheduling, deriva del empleo del disco (caracterizado por un acceso aleatorio) como medio de almacenamiento de las distintas tareas en lugar de la cinta magnética, caracterizada por un acceso serie. Un sistema que trabaje de esta forma recibe el nombre de monitor de batch de flujo único (en inglés, single stream batch monitor). El concepto de flujo único lleva implícita la idea de una sóla tarea ejecutándose a la vez.

Tercera etapa: Multiprogramación y tiempo compartido

La principal desventaja de un sistema de cola única es la total dedicación de la máquina a la ejecución de una sóla tarea, no importa lo larga o lo corta que sea. Este inconveniente puede superarse mediante la multiprogramación, o sea, la ejecución simultánea de varios programas que residen en la memoria principal, dividiendo el procesador central su tiempo entre ellos de acuerdo con los recursos (tal como canales o dispositivos) que necesite en cada momento cada uno de ellos. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, obtener una utilización óptima de los recursos disponibles. Ello incluye la utilización del procesador central, ya que en tanto que una tarea esté esperando el final de una transferencia de E/S, este procesador puede pasar a trabajar en alguna otra tarea que esté pendiente en la máquina. La carga que recae sobre el sistema operativo consiste en el control de los recursos, así como la protección de cada tarea frente a las actividades de las otras. Un sistema operativo de este tipo recibe el nombre de monitor de batch de varios flujos.

En el estadio actual de la progresión que hemos llevado a cabo tenemos un sistema notablemente sofisticado que hace bastante buen uso de la electrónica disponible. Sin embargo, desde el punto de vista del usuario el sistema adolece de falta de interactividad, tan necesaria en el proceso de desarrollo de programas, y útil también para desarrollar programas interactivos que respondan instantáneamente a las peticiones del usuario. Para hacer posible esta interacción, el sistema de batch de varios flujos debe modificarse con el fin de que pueda adquirir la información que le suministren los usuarios desde los respectivos terminales: es decir, debe convertirse en un sistema multiusuario. Un sistema de este tipo, en el cual existen varios usuarios con un terminal en línea (usuarios interactivos), se llama sistema de tiempo compartido. En estos sistemas se divide el tiempo del procesador central, y de los demás recursos del ordenador, de forma que cada usuario tiene la ilusión de que todo el ordenador se le dedica exclusivamente a él, al recibir unos tiempos de respuesta aceptables. En un sistema de tiempo compartido los usuarios suelen ejecutar programas cortos (por ejemplo, compilar un programa), frente a los programas largos (por ejemplo, ordenar una cinta de un millón de datos) que se suelen dar en los sistemas batch.

Por último hay que indicar que algunos sistemas operativos permiten tanto usuarios interactivos como lotes de trabajos batch. En estos sistemas se atiende a los usuarios interactivos con mayor prioridad, ejecutándose los programas batch cuando no hay programas de usuario.
 

Cuarta etapa: redes de ordenadores

En una red de ordenadores se tiene una configuración de varios ordenadores conectados físicamente. Los ordenadores de una red pueden tener sistemas operativos de red o sistemas operativos distribuidos.

En un sistema operativo de red los usuarios son conscientes de la existencia de varios ordenadores, y pueden conectarse con máquinas remotas para, por ejemplo, copiar ficheros. Cada máquina ejecuta su propio sistema operativo local y tiene su propio usuario (o grupo de usuarios). Los sistemas operativos de red no difieren de los sistemas operativos tradicionales de un sólo procesador. Necesitan un controlador de red, algunas rutinas de E/S para utilizar dicho controlador, y programas que permitan la conexión y el acceso a ordenadores remotos, pero esas características adicionales no modifican la estructura esencial del sistema operativo.

En un sistema distribuido los ficheros que utiliza un usuario (así como el procesador en el que se ejecutan sus programas) pueden estar situados en cualquier ordenador de la red. Además, esto es transparente al usuario. Los sistemas operativos distribuidos requieren algo más que añadir un poco de código a un sistema operativo de un único procesador, ya que los sistemas distribuidos difieren en aspectos críticos de los sistemas centralizados.



1.3   SUBSISTEMAS OPERATIVOS

Un archivo es un conjunto de información, que se encuentra almacenada o guardada en la memoria principal del computador, en el disco duro, en el disquete flexible o en los discos compactos (Cd-ROM).

Uno de los problemas más frecuentes en el manejo de archivos son los deadlock, un deadlock es una situación no deseada de espera indefinida y se da cuando en un grupo de procesos, dos o más procesos de ese grupo esperan por llevar a cabo una tarea que será ejecutada por otro proceso del mismo grupo, entonces se produce el bloqueo
Dispositivos de Entrada y Salida
El código destinado a manejar la entrada y salida de los diferentes periféricos en un sistema operativo es de una extensión considerable y sumamente complejo. Resuelve las necesidades de sincronizar, atrapar interrupciones y ofrecer llamadas al sistema para los programadores. Los dispositivos de entrada salida se dividen, en general, en dos tipos: dispositivos orientados a bloques y dispositivos orientados a caracteres
Administración de Proceso.
Uno de los conceptos más importantes que gira en torno a un sistema operativo es el de proceso. Un proceso es un programa en ejecución junto con el entorno asociado (registros, variables, etc.).  El corazón de un sistema operativo es el núcleo, un programa de control que reacciona ante cualquier interrupción de eventos externos y que da servicio a los procesos
Gestión de la memoria:
El sistema operativo se encarga de gestionar el espacio de memoria asignado para cada aplicación y para cada usuario, si resulta pertinente. Cuando la memoria física es insuficiente, el sistema operativo puede crear una zona de memoria en el disco duro, denominada “memoria virtual”.


 1.4   ESTRUCTURAS SISTEMAS OPERATIVOS

MÁQUINA VIRTUAL es un software que emula a un ordenador y puede ejecutar programas como si fuese un ordenador real. Este software en un principio fue definido como "un duplicado eficiente y aislado de una máquina física". La acepción del término actualmente incluye a máquinas virtuales que no tienen ninguna equivalencia directa con ningún hardware real.

SISTEMA OPERATIVO Conjunto de programas que se integran con el hardware para facilitar al usuario, el aprovechamiento de los recursos disponibles. Algunos de sus objetivos principales son:

· Provee de un ambiente conveniente de trabajo.
· Hace uso eficiente del Hardware.
· Provee de una adecuada distribución de los recursos.
· Para un Sistema Operativo real deberá satisfacer las siguientes funciones:
· Gobierna el Sistema.
· Asigna los recursos.
· Administra y controlar la ejecución de los programas.

ESTRUCTURA MONOLÍTICA.

Es la estructura de los primeros sistemas operativos constituídos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra (Ver Fig. 2). Las características fundamentales de este tipo de estructura son:

Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador.
Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento.

Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc.
Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

ESTRUCTURA JERÁRQUICA.

A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles.
Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interface con el resto de elementos.
Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos (Ver Fig. 3). Se puede pensar también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa categoría. [Feld93].
En la estructura anterior se basan prácticamente la mayoría de los sistemas operativos actuales.

CLIENTE-SERVIDOR ( MICROKERNEL)

El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.
Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales.

El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee solamente funciones muy básicas de memoria, entrada/salida, archivos y procesos, dejando a los servidores proveer la mayoría que el usuario final o programador puede usar. Estos servidores deben tener mecanismos de seguridad y protección que, a su vez, serán filtrados por el núcleo que controla el hardware. Actualmente se está trabajando en una versión de UNIX que contempla en su diseño este paradigma.


1.5   ANÁLISIS DE S. O. COMERCIALES

Los sistemas operativos empleados normalmente son UNIX, Mac OS, MS-DOS, OS/2 y Windows-NT. El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un método sencillo de organizar archivos y permite la protección de archivos. Sin embargo, las instrucciones del UNIX no son intuitivas. Otros sistemas operativos multiusuario y multitarea son OS/2, desarrollado inicialmente por Microsoft Corporation e International Business Machines Corporation (IBM), y Windows-NT, desarrollado por Microsoft. El sistema operativo multitarea de las computadoras Apple se denomina Mac OS. El DOS y su sucesor, el MS-DOS, son sistemas operativos populares entre los usuarios de computadoras personales. Sólo permiten un usuario y una tarea.



| edit post
HISTORIA Y EVOLUCION DEL SISTEMA OPERATIVO
Evolución del Software


Evolución de los sistemas operativos





Los sistemas operativos, al igual que el hardware, han sufrido cambios a través del tiempo, los cuales se pueden agrupar en generaciones. La evolución del hardware ha marcado el paralelismo de la evolución de los sistemas operativos.



* Primera Generación.

* Segunda Generación.

* Tercera Generación.

* Cuarta Generación.





Primera Generación (Finales de la década de los 50's)

En esta década aparecen los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes. Cuando se ejecutaba alguna tarea, ésta tenía control total de la máquina. Al terminar cada tarea, el control era devuelto al sistema operativo, el cual limpiaba, leía e iniciaba la siguiente tarea. Aparece el concepto de nombres de archivo del sistema para lograr independencia de información. Los laboratorios de investigación de General Motors poseen el crédito de haber sido los primeros en poner en operación un sistema operativo para su IBM 701.







Segunda Generación (Mitad de la década de los 60's)

En esta generación se desarrollan los sistemas compartidos con multiprogramación, en los cuales se utilizan varios procesadores en un solo sistema, con la finalidad de incrementar el poder de procesamiento de la máquina. El programa especificaba tan sólo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad. El sistema operativo localizaba entonces una unidad de cinta disponible con las características deseadas, y le indicaba al operador que montara una cinta en esa unidad.



Tercera Generación

En esta época surge la familia de computadores IBM/360 diseñados como sistemas para uso general, por lo que requerían manejar grandes volúmenes de información de distinto tipo, lo cual provocó una nueva evolución de los sistemas operativos: los sistemas de modos múltiples, que soportan simultáneamente procesos por lotes, tiempo compartido, procesamiento en tiempo real y multiprocesamiento.



Cuarta Generación (Mitad de la década de los 70's hasta nuestros días)

Los sistemas operativos conocidos en la época actual son los considerados sistemas de cuarta generación. Con la ampliación del uso de redes de computadoras y del procesamiento en línea es posible obtener acceso a computadoras alejadas geográficamente a través de varios tipos de terminales. Con estos sistemas operativos aparece el concepto de máquinas virtuales, en el cual el usuario no se involucra con el hardware de la computadora con la que se quiere conectar y en su lugar el usuario observa una interfaz gráfica creada por el sistema operativo.
| edit post
Evolución de los sistemas operativos
Evolución de los sistemas operativos



Los sistemas operativos, al igual que el hardware, han sufrido cambios a través del tiempo, los cuales se pueden agrupar en generaciones. La evolución del hardware ha marcado el paralelismo de la evolución de los sistemas operativos.






* Primera Generación.


* Segunda Generación.


* Tercera Generación.


* Cuarta Generación.




Primera Generación (Finales de la década de los 50's)


En esta década aparecen los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes. Cuando se ejecutaba alguna tarea, ésta tenía control total de la máquina. Al terminar cada tarea, el control era devuelto al sistema operativo, el cual limpiaba, leía e iniciaba la siguiente tarea. Aparece el concepto de nombres de archivo del sistema para lograr independencia de información. Los laboratorios de investigación de General Motors poseen el crédito de haber sido los primeros en poner en operación un sistema operativo para su IBM 701.



Segunda Generación (Mitad de la década de los 60's)


En esta generación se desarrollan los sistemas compartidos con multiprogramación, en los cuales se utilizan varios procesadores en un solo sistema, con la finalidad de incrementar el poder de procesamiento de la máquina. El programa especificaba tan sólo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad. El sistema operativo localizaba entonces una unidad de cinta disponible con las características deseadas, y le indicaba al operador que montara una cinta en esa unidad.




Tercera Generación


En esta época surge la familia de computadores IBM/360 diseñados como sistemas para uso general, por lo que requerían manejar grandes volúmenes de información de distinto tipo, lo cual provocó una nueva evolución de los sistemas operativos: los sistemas de modos múltiples, que soportan simultáneamente procesos por lotes, tiempo compartido, procesamiento en tiempo real y multiprocesamiento.




Cuarta Generación (Mitad de la década de los 70's hasta nuestros días)


Los sistemas operativos conocidos en la época actual son los considerados sistemas de cuarta generación. Con la ampliación del uso de redes de computadoras y del procesamiento en línea es posible obtener acceso a computadoras alejadas geográficamente a través de varios tipos de terminales. Con estos sistemas operativos aparece el concepto de máquinas virtuales, en el cual el usuario no se involucra con el hardware de la computadora con la que se quiere conectar y en su lugar el usuario observa una interfaz gráfica creada por el sistema operativo.
| edit post
| edit post
HISTORIA Y EVOLUCION DEL SISTEMA OPERATIVO


Evolución del Software
Evolución de los sistemas operativos Los sistemas operativos, al igual que el hardware, han sufrido cambios a través del tiempo, los cuales se pueden agrupar en generaciones. La evolución del hardware ha marcado el paralelismo de la evolución de los sistemas operativos.* Primera Generación.* Segunda Generación.* Tercera Generación.* Cuarta Generación.Primera Generación (Finales de la década de los 50's)En esta década aparecen los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes. Cuando se ejecutaba alguna tarea, ésta tenía control total de la máquina. Al terminar cada tarea, el control era devuelto al sistema operativo, el cual limpiaba, leía e iniciaba la siguiente tarea. Aparece el concepto de nombres de archivo del sistema para lograr independencia de información. Los laboratorios de investigación de General Motors poseen el crédito de haber sido los primeros en poner en operación un sistema operativo para su IBM 701.Segunda Generación (Mitad de la década de los 60's)En esta generación se desarrollan los sistemas compartidos con multiprogramación, en los cuales se utilizan varios procesadores en un solo sistema, con la finalidad de incrementar el poder de procesamiento de la máquina. El programa especificaba tan sólo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad. El sistema operativo localizaba entonces una unidad de cinta disponible con las características deseadas, y le indicaba al operador que montara una cinta en esa unidad. Tercera GeneraciónEn esta época surge la familia de computadores IBM/360 diseñados como sistemas para uso general, por lo que requerían manejar grandes volúmenes de información de distinto tipo, lo cual provocó una nueva evolución de los sistemas operativos: los sistemas de modos múltiples, que soportan simultáneamente procesos por lotes, tiempo compartido, procesamiento en tiempo real y multiprocesamiento.Cuarta Generación (Mitad de la década de los 70's hasta nuestros días)Los sistemas operativos conocidos en la época actual son los considerados sistemas de cuarta generación. Con la ampliación del uso de redes de computadoras y del procesamiento en línea es posible obtener acceso a computadoras alejadas geográficamente a través de varios tipos de terminales. Con estos sistemas operativos aparece el concepto de máquinas virtuales, en el cual el usuario no se involucra con el hardware de la computadora con la que se quiere conectar y en su lugar el usuario observa una interfaz gráfica creada por el sistema operativo.
| edit post

| edit post


| edit post
| edit post
  • Seguidores