miércoles, 20 de agosto de 2008

El Transistor es un dispositivo electrónico semiconductor que cumple funciones de amplificador, oscilador, conmutador o rectificador. El término "transistor" es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Actualmente se los encuentra prácticamente en todos los enseres domésticos de uso diario: radios, televisores, grabadores, reproductores de audio y vídeo, hornos de microondas, lavadoras, automóviles, equipos de refrigeración, alarmas, relojes de cuarzo, computadoras, calculadoras, impresoras, lámparas fluorescentes, equipos de rayos X, tomógrafos, ecógrafos, reproductores mp3, celulares, etc. Sustituto de válvula termoiónica de tres electrodos o triodo, el transistor bipolar fue inventado en los Laboratorios Bell de EE. UU. en diciembre de 1947 por John Bardeen, Walter Houser Brattain y William Bradford Shockley, quienes fueron galardonados con el Premio Nobel de Física en 1956. El transistor consta de un sustrato (usualmente silicio) y tres partes dopadas artificialmente (contaminadas con materiales específicos en cantidades específicos) que forman dos uniones bipolares, el emisor que emite portadores, el colector que los recibe o recolecta y la tercera, que está intercalada entre las dos primeras, modula el paso de dichos portadores (base). A diferencia de las válvulas, el transistor es un dispositivo controlado por corriente y del que se obtiene corriente amplificada. En el diseño de circuitos a los transistores se les considera un elemento activo, a diferencia de los resistores, capacitores e inductores que son elementos pasivos. Su funcionamiento sólo puede explicarse mediante mecánica cuántica.
Un diodo (del griego "dos caminos") es un dispositivo semiconductor que permite el paso de la corriente eléctrica en una única dirección con caracteristicas similares a un interruptor. De forma simplificada, la curva característica de un diodo (I-V) consta de dos regiones: por debajo de cierta diferencia de potencial, se comporta como un circuito abierto (no conduce), y por encima de ella como un corto circuito con muy pequeña resistencia eléctrica y El diodo es un dispositivo de dos terminales que, en una situación ideal, se comporta como un interruptor común con la condición especial de que solo puede conducir en una dirección. Tiene un estado encendido, el que en teoría parece ser simplemente un circuito cerrado entre sus terminales, y un estado apagado, en el que sus características terminales son similares a las de un circuito abierto. Cuando el voltaje tiene valores positivos de VD (VD > 0 V) el diodo se encuentra en el estado de circuito cerrado (R= 0 Ω) y la corriente que circula a travιs de este esta limitada por la red en la que este instalado el dispositivo. Para la polaridad opuesta (VD < r=" ∞" id =" 0" class="autolink" id="autolink" href="http://www.monografias.com/trabajos11/tebas/tebas.shtml">muestra los dos estados del diodo y su símbolo con el que se representa.
bobina es un componente pasivo de un circuito eléctrico que, debido al fenómeno de la autoinducción, almacena energía en forma de campo magnético.Tambien la bonina son componentes pasivos de dos terminales que generan un flujo magnético cuando se hacen circular por ellas una corriente eléctrica. Se fabrican arrollando un hilo conductor sobre un núcleo de material ferromagnético o al aire. Su unidad de medida es el Henrio (H) en el Sistema Internacional pero se suelen emplear los submúltiplos mH y mH.
En electricidad y electrónica, un condensador o capacitor es un dispositivo que almacena energía eléctrica, es un componente pasivo. Está formado por un par de superficies conductoras en situación de influencia total (esto es, que todas las líneas de campo eléctrico que parten de una van a parar a la otra), generalmente en forma de tablas, esferas o láminas, separados por un material dieléctrico (siendo este utilizado en un condensador para disminuir el campo eléctrico, ya que actúa como aislante) o por el vacío, que, sometidos a una diferencia de potencial (d.d.p.) adquieren una determinada carga eléctrica, positiva en una de las placas y negativa en la otra (siendo nula la carga total almacenada). La carga almacenada en una de las placas es proporcional a la diferencia de potencial entre esta placa y la otra, siendo la constante de proporcionalidad la llamada capacidad o capacitancia
Resistencia eléctrica: R, de una sustancia, a la oposición que encuentra la corriente eléctrica para circular a través de dicha sustancia. Su valor viene dado en ohmios, se designa con la letra griega omega mayúscula (Ω), y se mide con el Ohmímetro. Esta definición es válida para la corriente continua y para la corriente alterna cuando se trate de elementos resistivos puros, esto es, sin componente inductiva ni capacitiva. De existir estos componentes reactivos, la oposición presentada a la circulación de corriente recibe el nombre de impedancia. Según sea la magnitud de esta oposición, las sustancias se clasifican en conductoras, aislantes y semiconductoras. Existen además ciertos materiales en los que, en determinadas condiciones de temperatura, aparece un fenómeno denominado superconductividad, en el que el valor de la resistencia es prácticamente nulo.
Corriente eléctrica: o simplemente corriente, se emplea para describir la tasa de flujo de carga que pasa por alguna región de espacio. La mayor parte de las aplicaciones prácticas de la electricidad tienen que ver con corrientes eléctricas. Por ejemplo, la batería de una luz de destellos suministra corriente al filamento de la bombilla cuando el interruptor se conecta. Una gran variedad de aparatos domésticos funcionan con corriente alterna. En estas situaciones comunes, el flujo de carga fluye por un conductor, por ejemplo, un alambre de cobre. Es posible también que existan corrientes fuera de un conductor.
El termino corriente eléctrica, o simplemente corriente, se emplea para describir la tasa de flujo de carga que pasa por alguna región de espacio. La mayor parte de las aplicaciones prácticas de la electricidad tienen que ver con corrientes eléctricas. Por ejemplo, la batería de una luz de destellos suministra corriente al filamento de la bombilla cuando el interruptor se conecta. Una gran variedad de aparatos domésticos funcionan con corriente alterna. En estas situaciones comunes, el flujo de carga fluye por un conductor, por ejemplo, un alambre de cobre.
Voltaje:
Voltaje, tensión o diferencia de potencial El voltaje, tensión o diferencia de potencial es la presión que ejerce una fuente de suministro de energía eléctrica o fuerza electromotriz (FEM) sobre las cargas eléctricas o electrones en un circuito eléctrico cerrado, para que se establezca el flujo de una corriente eléctrica.A mayor diferencia de potencial o presión que ejerza una fuente de FEM sobre las cargas eléctricas o electrones contenidos en un conductor, mayor será el voltaje o tensión existente en el circuito al que corresponda ese conductor.
La electricidad (del griego electrón, cuyo significado es ámbar) es un fenómeno físico cuyo origen son las cargas eléctricas y cuya energía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros.[1] [2] [3] [4] Se puede observar de forma natural en los rayos, que son descargas eléctricas producidas por el rozamiento de las partículas de agua en la atmósfera (electricidad estática) y es parte esencial del funcionamiento del sistema nervioso. Es la base del funcionamiento de muchas máquinas, desde pequeños electrodomésticos hasta sistemas de gran potencia como los trenes de alta velocidad, y asimismo de todos los dispositivos electrónicos.[5] Además es esencial para la producción de sustancias químicas como el aluminio y el cloro. También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que lo usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica— se ha convertido en una de las formas de energía más importantes para el desarrollo tecnológico debido a su facilidad de generación y distribución y a su gran número de aplicaciones.

miércoles, 6 de agosto de 2008

INSTALACION DE SISTEMA OPERATIVO debemos tener en cuenta : a) hardware del que se dispone y sus componentes con el fin de realizar una instalación optima b) las necesidades de los usuarios para determinar y aconsejar que sistema operativo debe instalar ejemplos:

miércoles, 14 de mayo de 2008

Características Dreamweaver
Las características de este llegan a dar a las páginas con aspecto profesional, y soporta gran cantidad de tecnologías, además muy fáciles de usar:Hojas de estilo y capasJavascript para crear efectos e interactividadesInserción de archivos multimedia...Además es un programa que se puede actualizar con componentes, que fabrica tanto Macro media como otras compañías, para realizar otras acciones más avanzadas.En resumen, el programa es realmente satisfactorio, incluso el código generado es de buena calidad. La única pega consiste en que al ser tan avanzado, puede resultar un poco difícil su manejo para personas menos experimentadas en el diseño de Web.Dreamweaver ha evolucionado mucho en su versión 4, que incluye soporte para la creación de páginas dinámicas de servidor en ASP, con acceso a bases de datos (versión Ultradev) y una mayor integración con otras herramientas de Macro media como Fireworks.
Adobe dreamweaver: Se basa en una aplicación en forma de estudio pero más similar a un laboratorio destinado para la edición, creado inicialmente por macro media. Es el programa de este tipo mas utilizado y preferido en el sector del diseño y la programación Web. Su principal competidor es Microsoft expresión Web .Tiene soporte tanto para edición de imágenes como para animación a través de su integración con otras herramientas. Hasta la versión MX, fue duramente criticado por su escaso soporte de los estándares de la Web, ya que el código que generaba era con frecuencia sólo válido para Internet Explorer, y no soportaba como HTML estándar. Esto se ha ido arreglando en las versiones recientes. Se pone a la venta como parte de la suite Adobe Creative Suite 3 Las versiones originales de la aplicación se utilizaban como simples editores WYSIWYG, sin embargo, versiones más nuevas soportan otras tecnologías Web como CSS, JavaScript y algunos frameworks del lado servidor.
ASCII Hay 95 caracteres ASCII imprimibles, numerados del 32 al 126. El código ASCII (acrónimo inglés de American Standard Code for Information Interchange — Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII. El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español. ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre como se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio). Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos y para el control de dispositivos que manejan texto.

martes, 13 de mayo de 2008

John von Neumann zu Margitta (Se pronuncia "fon noiman"), (Margittai Neumann János Lajos) (28 de diciembre de 1903 - 8 de febrero de 1957) fue un matemático húngaro-estadounidense, de ascendencia judía, que realizó contribuciones importantes en física cuántica, análisis funcional, teoría de conjuntos, informática, economía, análisis numérico, hidrodinámica (de explosiones), estadística y muchos otros campos de la matemática. Recibió su doctorado en matemáticas de la Universidad de Budapest a los 23 años.

tarea 1 del segundo periodo

1 programación orientada a objetivos: Saltar a navegación, búsqueda La Programación Orientada a Objetos (POO u OOP según sus siglas en inglés) es un paradigma de programación que usa objetos y sus interacciones para diseñar aplicaciones y programas de computadora. Está basado en varias técnicas, incluyendo herencia, modularidad, polimorfismo, y encapsulamiento. Su uso se popularizó a principios de la década de 1990. Actualmente son muchos los lenguajes de programación que soportan la orientación a objetos. Los objetos son entidades que combinan estado, comportamiento e identidad: El estado está compuesto de datos, serán uno o varios atributos a los que se habrán asignado unos valores concretos (datos). El comportamiento está definido por los procedimientos o métodos con que puede operar dicho objeto, es decir, qué operaciones se pueden realizar con él. La identidad es una propiedad de un objeto que lo diferencia del resto, dicho con otras palabras, es su identificador (concepto análogo al de identificador de una variable o una constante). La programación orientada a objetos expresa un programa como un conjunto de estos objetos, que colaboran entre ellos para realizar tareas. Esto permite hacer los programas y módulos más fáciles de escribir, mantener y reutilizar. De esta forma, un objeto contiene toda la información que permite definirlo e identificarlo frente a otros objetos pertenecientes a otras clases e incluso frente a objetos de una misma clase, al poder tener valores bien diferenciados en sus atributos. A su vez, los objetos disponen de mecanismos de interacción llamados métodos que favorecen la comunicación entre ellos. Esta comunicación favorece a su vez el cambio de estado en los propios objetos. Esta característica lleva a tratarlos como unidades indivisibles, en las que no se separan ni deben separarse el estado y el comportamiento. Los métodos (comportamiento) y atributos (estado) están estrechamente relacionados por la propiedad de conjunto. Esta propiedad destaca que una clase requiere de métodos para poder tratar los atributos con los que cuenta. El programador debe pensar indistintamente en ambos conceptos, sin separar ni darle mayor importancia a ninguno de ellos, hacerlo podría producir el hábito erróneo de crear clases contenedoras de información por un lado y clases con métodos que manejen a las primeras por el otro. De esta manera se estaría realizando una programación estructurada camuflada en un lenguaje de programación orientado a objetos. Esto difiere de la programación estructurada tradicional, en la que los datos y los procedimientos están separados y sin relación, ya que lo único que se busca es el procesamiento de unos datos de entrada para obtener otros de salida. La programación estructurada anima al programador a pensar sobre todo en términos de procedimientos o funciones, y en segundo lugar en las estructuras de datos que esos procedimientos manejan. En la programación estructurada sólo se escriben funciones que procesan datos. Los programadores que emplean éste nuevo paradigma, en cambio, primero definen objetos para luego enviarles mensajes solicitándoles que realicen sus métodos por sí mismos. Origen Los conceptos de la programación orientada a objetos tienen origen en Simula 67, un lenguaje diseñado para hacer simulaciones, creado por Ole-Johan Dahl y Kristen Nygaard del Centro de Cómputo Noruego en Oslo. Al parecer, en este centro, trabajaban en simulaciones de naves, y fueron confundidos por la explosión combinatoria de cómo las diversas cualidades de diversas naves podían afectar unas a las otras. La idea ocurrió para agrupar los diversos tipos de naves en diversas clases de objetos, siendo responsable cada clase de objetos de definir sus propios datos y comportamiento. Fueron refinados más tarde en Smalltalk, que fue desarrollado en Simula en Xerox PARC (y cuya primera versión fue escrita sobre Basic) pero diseñado para ser un sistema completamente dinámico en el cual los objetos se podrían crear y modificar "en marcha" en lugar de tener un sistema basado en programas estáticos. La programación orientada a objetos tomó posición como el estilo de programación dominante a mediados de los años ochenta, en gran parte debido a la influencia de C++, una extensión del lenguaje de programación C. Su dominación fue consolidada gracias al auge de las Interfaces gráficas de usuario, para las cuales la programación orientada a objetos está particularmente bien adaptada. En este caso, se habla también de programación dirigida por eventos. Las características de orientación a objetos fueron agregadas a muchos lenguajes existentes durante ese tiempo, incluyendo Ada, BASIC, Lisp, Pascal, entre otros. La adición de estas características a los lenguajes que no fueron diseñados inicialmente para ellas condujo a menudo a problemas de compatibilidad y a la capacidad de mantenimiento del código. Los lenguajes orientados a objetos "puros", por otra parte, carecían de las características de las cuales muchos programadores habían venido a depender. Para saltar este obstáculo, se hicieron muchas tentativas para crear nuevos lenguajes basados en métodos orientados a objetos, pero permitiendo algunas características imperativas de maneras "seguras". El Eiffel de Bertrand Meyer fue un temprano y moderadamente acertado lenguaje con esos objetivos pero ahora ha sido esencialmente reemplazado por Java, en gran parte debido a la aparición de Internet, y a la implementación de la máquina virtual de Java en la mayoría de navegadores. PHP en su versión 5 se ha ido modificando y soporta una orientación completa a objetos, cumpliendo todas las características propias de la orientación a objetos. 2lenguaje de programación orientados a Saltar a navegación, búsqueda Con la llegada de las computadoras desaparecen las secuencias de posiciones de llaves mecánicas que debían desconectarse para obtener una acción determinada, una clave conectada era un 1 y una llave desconectada era un 0. Una sucesión de llaves en cualquiera de sus dos posiciones definía una secuencia de ceros y unos (por ejemplo: 0100011010011101...) que venía a representar una instrucción o un conjunto de instrucciones (programa) para el ordenador (o computador) en el que se estaba trabajando. A esta primera forma de especificar programas para una computadora se la denomina lenguaje máquina o código máquina. La necesidad de recordar secuencias de programación para las acciones usuales llevó a denominarlas con nombres fáciles de memorizar y asociar: ADD (sumar), SUB (restar), MUL (multiplicar), CALL (ejecutar subrutina), etc. A esta secuencia de posiciones se le denominó "instrucciones", y a este conjunto de instrucciones se le llamó lenguaje ensamblador. Posteriormente aparecieron diferentes lenguajes de programación, los cuales reciben su denominación porque tienen una estructura sintáctica similar a los lenguajes escritos por los humanos. // Concepto Varios libros sobre diversos lenguajes de programación. Un lenguaje de programación es un lenguaje que puede ser utilizado para controlar el comportamiento de una máquina, particularmente una computadora. Consiste en un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Aunque muchas veces se usa lenguaje de programación y lenguaje informático como si fuesen sinónimos, no tiene por qué ser así, ya que los lenguajes informáticos engloban a los lenguajes de programación y a otros más, como, por ejemplo, el HTML (lenguaje para el marcado de páginas web). Un lenguaje de programación permite a uno o más programadores especificar de manera precisa: sobre qué datos una computadora debe operar, cómo deben ser estos almacenados, transmitidos y qué acciones debe tomar bajo una variada gama de circunstancias. Todo esto, a través de un lenguaje que intenta estar relativamente próximo al lenguaje humano o natural, tal como sucede con el lenguaje Léxico. Una característica relevante de los lenguajes de programación es precisamente que más de un programador puedan tener un conjunto común de instrucciones que puedan ser comprendidas entre ellos para realizar la construcción del programa de forma colaborativa. Los procesadores usados en las computadoras son capaces de entender y actuar según lo indican programas escritos en un lenguaje fijo llamado lenguaje de máquina. Todo programa escrito en otro lenguaje puede ser ejecutado de dos maneras: Mediante un programa que va adaptando las instrucciones conforme son encontradas. A este proceso se lo llama interpretar y a los programas que lo hacen se los conoce como intérpretes. Traduciendo este programa al programa equivalente escrito en lenguaje de máquina. A ese proceso se lo llama compilar y al traductor se lo conoce como un malhecho compilador. Clasificación de los lenguajes de programación Los lenguajes de programación se determinan según el nivel de abstracción, Según la forma de ejecución y Según el paradigma de programación que poseen cada uno de ellos y esos pueden ser: Según su nivel de abstracción Lenguajes de bajo nivel Los lenguajes de bajo nivel son lenguajes de programación que se acercan al funcionamiento de una computadora. El lenguaje de más bajo nivel es, por excelencia, el código máquina. A éste le sigue el lenguaje ensamblador, ya que al programar en ensamblador se trabajan con los registros de memoria de la computadora de forma directa. Lenguajes de medio nivel Hay lenguajes de programación que son considerados por algunos expertos como lenguajes de medio nivel (como es el caso del lenguaje C) al tener ciertas características que los acercan a los lenguajes de bajo nivel pero teniendo, al mismo tiempo, ciertas cualidades que lo hacen un lenguaje más cercano al humano y, por tanto, de alto nivel. Lenguajes de alto nivel Artículo principal: Lenguaje de alto nivel Los lenguajes de alto nivel son normalmente fáciles de aprender porque están formados por elementos de lenguajes naturales, como el inglés. En BASIC, el lenguaje de alto nivel más conocido, los comandos como "IF CONTADOR = 10 THEN STOP" pueden utilizarse para pedir a la computadora que pare si CONTADOR es igual a 10. Por desgracia para muchas personas esta forma de trabajar es un poco frustrante, dado que a pesar de que las computadoras parecen comprender un lenguaje natural, lo hacen en realidad de una forma rígida y sistemática. Según la forma de ejecución Lenguajes compilados Naturalmente, un programa que se escribe en un lenguaje de alto nivel también tiene que traducirse a un código que pueda utilizar la máquina. Los programas traductores que pueden realizar esta operación se llaman compiladores. Éstos, como los programas ensambladores avanzados, pueden generar muchas líneas de código de máquina por cada proposición del programa fuente. Se requiere una corrida de compilación antes de procesar los datos de un problema. Los compiladores son aquellos cuya función es traducir un programa escrito en un determinado lenguaje a un idioma que la computadora entienda (lenguaje máquina con código binario). Al usar un lenguaje compilado (como lo son los lenguajes del popular Visual Studio de Microsoft), el programa desarrollado nunca se ejecuta mientras haya errores, sino hasta que luego de haber compilado el programa, ya no aparecen errores en el código Lenguajes interpretados Se puede también utilizar una alternativa diferente de los compiladores para traducir lenguajes de alto nivel. En vez de traducir el programa fuente y grabar en forma permanente el código objeto que se produce durante la corrida de compilación para utilizarlo en una corrida de producción futura, el programador sólo carga el programa fuente en la computadora junto con los datos que se van a procesar. A continuación, un programa intérprete, almacenado en el sistema operativo del disco, o incluido de manera permanente dentro de la máquina, convierte cada proposición del programa fuente en lenguaje de máquina conforme vaya siendo necesario durante el proceso de los datos. No se graba el código objeto para utilizarlo posteriormente. La siguiente vez que se utilice una instrucción, se le debe interpretar otra vez y traducir a lenguaje máquina. Por ejemplo, durante el procesamiento repetitivo de los pasos de un ciclo, cada instrucción del ciclo tendrá que volver a ser interpretado cada vez que se ejecute el ciclo, lo cual hace que el programa sea más lento en tiempo de ejecución (porque se va revisando el código en tiempo de ejecución) pero más rápido en tiempo de diseño (porque no se tiene que estar compilando a cada momento el código completo). El intérprete elimina la necesidad de realizar una corrida de compilación después de cada modificación del programa cuando se quiere agregar funciones o corregir errores; pero es obvio que un programa objeto compilado con antelación deberá ejecutarse con mucha mayor rapidez que uno que se debe interpretar a cada paso durante una corrida de producción. 3 programación estructural o secuencial: Saltar a navegación, búsqueda La programación estructurada es una forma de escribir programación de computadora de forma clara, para ello utiliza únicamente tres estructuras: secuencial, selectiva e iterativa; siendo innecesario y no permitiéndose el uso de la instrucción o instrucciones de transferencia incondicional ( GOTO ). Hoy en día las aplicaciones informáticas son mucho más ambiciosas que las necesidades de programación existentes en los años 60, principalmente debido a las aplicaciones gráficas, por lo que las técnicas de programación estructurada no son suficientes lo que ha llevado al desarrollo de nuevas técnicas tales como la programación orientada o objetos y el desarrollo de entornos de programación que facilitan la programación de grandes aplicaciones. // Origenes de la programación estructurada A finales de los años sesenta surgió una nueva forma de programar que no solamente daba lugar a programas fiables y eficientes, sino que además estaban escritos de manera que facilitaba su comprensión posterior. El teorema del programa estructurado, demostrado por Böhm-Jacopini, demuestra que todo programa puede escribirse utilizando únicamente las tres instrucciones de control siguientes: Secuencia Instrucción condicional. Iteración (bucle de instrucciones) con condición al principio. Solamente con estas tres estructuras se pueden escribir todos los programas y aplicaciones posibles. Si bien los lenguajes de programación tienen un mayor repertorio de estructuras de control, éstas pueden ser construidas mediante las tres básicas. Por ejemplo, en Visual Basic la secuencia de instrucciones consiste en la escritura de una instrucción debajo de otra (también se pueden poner en la misma línea separadas por el símbolo de dos puntos ":" aunque no es recomendable). La instrucción condicional es la instrucción If y la iteración con condición al inicio sería la instrucción do-while-loop o while-wend. Ventajas de la programación estructurada [editar] Con la programación estructurada, elaborar programas de computador sigue siendo una labor que demanda esfuerzo, creatividad, habilidad y cuidado. Sin embargo, con este estilo podemos obtener las siguientes ventajas: 1. Los programas son más fáciles de entender, ya que pueden ser leído de forma secuencial, sin necesidad de hacer seguimiento a saltos de línea (GOTO) dentro de los bloques de código para entender la lógica. 2. La estructura del programa es clara puesto que las instrucciones están más ligadas o relacionadas entre sí. 3. Reducción del esfuerzo en las pruebas. El seguimiento de los fallos o errores del programa ("debugging") se facilita debido a la estructura más visible, por lo que los errores se pueden detectar y corregir más fácilmente. 4. Reducción de los costos de mantenimiento de los programas. 5. Programas más sencillos y más rápidos (ya que es más fácil su optimización). 6. Los bloques de código son auto explicativos, lo que facilita a la documentación. 7. Los GOTO se reservan para construir las instrucciones básicas. Aunque no se usan de forma directa, por estar prohibida su utilización, están incluidas implícitamente en las instrucciones de selección e iteración. 4 leguajes de programación: Saltar a navegación, búsqueda Java es un lenguaje de programación orientado a objetos desarrollado por Sun Microsystems a principios de los años 90. El lenguaje en sí mismo toma mucha de su sintaxis de C y C++, pero tiene un modelo de objetos más simple y elimina herramientas de bajo nivel, que suelen inducir a muchos errores, como la manipulación directa de punteros o memoria. Las aplicaciones Java están típicamente compiladas en un bytecode, aunque la compilación en código máquina nativo también es posible. En el tiempo de ejecución, el bytecode es normalmente interpretado o compilado a código nativo para la ejecución, aunque la ejecución directa por hardware del bytecode por un procesador Java también es posible. La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems en 1995. Desde entonces, Sun ha controlado las especificaciones, el desarrollo y evolución del lenguaje a través del Java Community Process, si bien otros han desarrollado también implementaciones alternativas de estas tecnologías de Sun, algunas incluso bajo licencias de software libre

miércoles, 30 de abril de 2008

leccion 3

ESTRUCTURA DE UN COMPUTADOR Hablar de estructura significa hablar de la organizacion, distribución y combinación de elementos que forman parte de un computador.Se constituye en software y hardware. HARDWARE:Las identificaciones y elecciones de los componentes físicos pueden parecer tareas, pero se puede simplificar su proceso de almacenamiento de datos. DISPOSITIVOS DE ENTRADA:proporcionanordenes y comandos de instrucciones de datos al computador. Entre estos se encuentran el scanner, el mouse, teclado, cámara, ETC. DISPOSITIVOS DE SALIDA:Son los que proporcionan al usuario el resultado final del proceso de información. Entre estos se encuentran la impresora, pantalla y audio. DISPOSITIVOS DE ALMACENAMIENTO DE DATOS:Son dispositivos donde se guardan datos que genera el usuario en el disco duro cd/dvd y unidades de diseque. DISPOSITIVOS MIXTOS:Son tanto de entrada como de salida como lo son el módem, tarjeta de red y tarjeta de sonido.

miércoles, 2 de abril de 2008

tarea de fat

FRACMENTAR Es una condición por la que os archivos se dividen en el disco en pequeños segmentos separados físicamente entre sí. Esta condición es una consecuencia natural del crecimiento de los archivos y de su posterior almacenamiento en un disco que ya está bastante lleno o en el que se ha escrito y borrado información en múltiples ocasiones. FAT File Allocation Table, método de control de la ubicación física y del espacio libre de los archivos almacenados en disco empleado por ciertos sistemas operativos. Un archivo se almacena en un disco en segmentos de longitud fija llamados clusters. Estos segmentos pueden quedar ubicados en el disco consecutivamente o quedar físicamente separados. La función de la tabla de asignación o localización de archivos es crear y mantener una tabla con la ubicación física exacta de todos los segmentos para que cuando el sistema operativo quiera recuperar el archivo pueda localizar los segmentos que lo componen. PARTICIONAR Selección del área de almacenamiento de un disco duro creada para estructurarlo o para separar diferentes sistemas operativos. Las particiones se crean durante la preparación inicial del disco duro, antes de formatearlo.

trabajo de tics de sistemas operativos

SISTEMAS OPERATIVOS GUSTAVO MATAMOROS JEISON QUINTERO MIGUEL ARIAS JHON BARON SISTEMAS OPERATIVOS Y CLASES DE ESTOS FABIO NIÑO COLEGIO FE Y ALEGRIA SAN IGNACIO IED TICS SANTAFE DE BOGOTA 2008-03-18 CONTENIDO INTRODUCION: SISTEMAS OPERATIVOS 1 Funciones básicas 1.1 Interfaces del usuario 1.2 Administración de recursos 1.3 Administración de archivos 1.4 Administración de tareas 1.5 Servicio de soporte 7 Características 7.1 Administración de tareas 7.2 Administración de usuarios 7.3 Manejo de recursos CLASES DE SITEMAS OPERATIVOS - WINDOWS: - 1 Historia o 1.7 Windows 95 o 1.8 Windows 98 o 1.9 Windows 98 Second o (SE) o 1.10 Windows Millenium Edition (ME) o 1.11 Windows 2000 o 1.12 Windows XP (eXPerience) o 1.13 Windows Server 2003 o 1.14 Windows Vista o 1.15 Windows Server 2008 o 1.16 Windows 7 - DOS 1 Historia 2 Características 3 Versiones de DOS - UNIX 1 Historia - LINUX 1 Etimología 2 Historia 3. CONCLUCIONES 4. BIBLIOGRAFIA INTRODUCCION Este trabajado fue realizado con el objetivo que dará a conocer la definición del sistema operativo y sus tipos de clases para enriquecer la información de el grupo dando analizar los temas propuestos en los cuales se identificara los temas sobre los tipos de sistemas operativos dándole paso a las empresas desarrolladoras de estos los cuales tienen mucha actuación en el tema por sus diferentes marcas y historia obtenida por el tiempo en el cual fue obtenida la perfección y la técnica médiate la competencia entre estas. Pero una de las historias que se destaca es la de Windows la cual tiene la mayor acogida mundial en la historia de la computadora y del los sistemas operativos la cual en la actualidad es la mayor industria de los sistemas operativos en el mundo en los cuales en las personas ha cogido mas fuerza mediante su comercialización. 1. SISTEMAS OPERATIVOS Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computadora destinado a permitir una administración eficaz de sus recursos. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos, permitiendo también la interacción con el usuario. Un sistema operativo se puede encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, auto radios, computadoras, etc.). // Funciones básicas Los sistemas operativos, en su condición de capa software que posibilitan y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en micro núcleos), podemos reseñar las siguientes: Proporcionar comodidad en el uso de un computador. Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos (programas) Brindar una interfaz al usuario, ejecutando instrucciones (comandos). Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con los servicios que ya se prestaban (evolutividad). Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema informático: suministro de interfaz al usuario, administración de recursos, administración de archivos, administración de tareas y servicio de soporte y utilidades. Interfaces del usuario Es la parte del sistema operativo que permite comunicarse con él de tal manera que se puedan cargar programas, acceder archivos y realizar otras tareas. Existen tres tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las interfaces gráficas de usuario. Administración de recursos Sirven para administrar los recursos de hardware y de redes de un sistema informativo, como el CPU, memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida. Administración de archivos Un sistema de información contiene programas de administración de archivos que controlan la creación, borrado y acceso de archivos de datos y de programas. También implica mantener el registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de almacenamiento secundarios. Administración de tareas Los programas de administración de tareas de un sistema operativo administran la realización de las tareas informáticas de los usuarios finales. Los programas controlan que áreas tiene acceso al CPU y por cuánto tiempo. Las funciones de administración de tareas pueden distribuir una parte específica del tiempo del CPU para una tarea en particular, e interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad. Servicio de soporte Los servicios de soporte de cada sistema operativo dependerán de la implementación particular de éste con la que estemos trabajando. Entre las más conocidas se pueden destacar las implementaciones de Unix, desarrolladas por diferentes empresas de software, los sistemas operativos de Apple Inc., como Mac OS X para las computadoras de Apple, los sistemas operativos de Microsoft, y las implementaciones de software libre, como Linux o BSD producidas por empresas, universidades, administraciones públicas, organizaciones sin fines de lucro y/o comunidades de desarrollo. Estos servicios de soporte suelen consistir en: Actualización de versiones. Mejoras de seguridad. Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, un asistente para administrar alguna determinada función, ...). Controladores para manejar nuevos periféricos (este servicio debe coordinarse a veces con el fabricante del hardware). Corrección de errores de software. Otros. No todas las utilidades de administración o servicios forman parte del sistema operativo, además de éste, hay otros tipos importantes de software de administración de sistemas, como los sistemas de administración de base de datos o los programas de administración de redes. El soporte de estos productos deberá proporcionarlo el fabricante correspondiente (que no tiene porque ser el mismo que el del sistema operativo). 2. CLASES DE SISTEMAS OPERATIVOS WINDOWS Windows es una familia de sistemas operativos desarrollados y comercializados por Microsoft. Existen versiones para hogares, empresas, servidores y dispositivos móviles, como computadores de bolsillo y teléfonos inteligentes. Hay variantes para procesadores de 16, 32 y 64 bits. Incorpora diversas aplicaciones como Internet Explorer, el Reproductor de Windows Media, Windows Movie Maker, Windows Mail, Windows Messenger, Windows Defender, entre otros. Desde hace muchos años es el sistema operativo más difundido y usado del mundo, de hecho la mayoría de los programas (tanto comerciales como gratuitos y libres) se desarrolla originalmente para este sistema. Todos los fabricantes del planeta dedicados a equipos basados en procesadores Intel o compatibles con éstos (excepto Apple Inc.) preinstalan Windows en su versión más reciente y todas sus variantes. Windows Vista es la versión más reciente para computadoras personales, Windows Server 2008 para servidores y Windows Mobile 6.0 en los dispositivos móviles. Windows 95 Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en Agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa. Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1. de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16. Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto. Mas adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (Ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998 Windows 98 Artículo principal: Windows 98 El 25 de Junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema. Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98 aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores. Windows 98 Second Edition (SE) Artículo principal: Windows 98 SE A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998 cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos. Mejorando en si dos cosas importantes: 1) El grave error de solicitud de Licencia que simplemente de puede dejar pasar por alto en la instalacion cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo 2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administracion de memoria virtual, reduciendo asi los famosos mensajes de error en pantalla azul Windows Millenium Edition (ME) Artículo principal: Windows ME En 2000 Microsoft introdujo Windows ME que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores). Esta versión no traía unidad de proceso de 16 bits, centrándose únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto. Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso(bugs). Estos inconvenientes hicieron que salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000. Windows 2000 Artículo principal: Windows 2000 En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT. La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 server, advanced server, datacenter server). Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son: Almacenamiento: Soporte para FAT16, FAT32 y NTFS. Cifrado de ficheros (EFS). Servicio de indexación. Sistema de archivos distribuido (DFS). Nuevo sistema de backup (ASR). Sistema de tolerancia a fallos (RAID) con discos dinámicos (software). Comunicaciones: Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento). Nueva versión de IIS con soporte para HTTP/1.1. Active Directory. Balanceo de carga (clustering) Servicios de instalación desatendida por red (RIS). Servicios nativos de Terminal Server. Estos avances marcan un antes y un después en la historia de Microsoft. Windows XP (eXPerience) Artículo principal: Windows XP La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar inmediatamente de haber lanzado el último Service Pack (SP2) Microsoft diseño un sistema orientado a Empresas y Corporaciones llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente a Empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil a todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...) Windows Server 2003 Artículo principal: Windows Server 2003 Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas). Windows Vista Artículo principal:  HYPERLINK "http://es.wikipedia.org/wiki/Windows_Vista" \o "Windows Vista" Windows Vista Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006, posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso traslado la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. Las diferentes versiones que se podrán adquirir son tres para el consumidor, Vista Home Basic, Vista Home Premium y Ultimate Edition y dos versiones para las empresas, Vista Business y Vista Enterprise, más Vista Starter, para los mercados emergentes. Los requisitos minimos para que la versión básica de Windows Vista (Home Basic - Starter) funcione en un equipo son los siguientes: DOS DOS es una familia de sistemas operativos para PC. El nombre son las siglas de Disk Operating System (sistema operativo de disco). Fue creado originalmente para computadoras de la familia IBM PC, que utilizaban los procesadores Intel 8086/8088 de 16 bits, siendo el primer sistema operativo popular para esta plataforma. Tenía una interfaz de línea de órdenes vía su intérprete de órdenes, command.com. En las versiones de Windows modernas, (véase Windows NT, 2000, 2003, XP o Vista) MS-DOS dejó de llamarse así para convertirse en Símbolo del Sistema, que se ejecutaba mediante cmd.exe Existen varias versiones de DOS. El más conocido de ellos es el MS-DOS, de Microsoft (de ahí las iniciales MS). Otros sistemas son el PC-DOS, DR-DOS y, más recientemente, el FreeDOS. Con la aparición de los sistemas operativos gráficos, del tipo Windows, el DOS ha ido quedando relegado a un segundo plano. Historia 1980 Seattle Computer Products lanza QDOS una emulación del CP/M para procesadores Intel de 16 bits. 1981 Microsoft compra QDOS; de acuerdo con IBM lo modifica para correr sobre el IBM PC, lo bautiza como MS-DOS (Microsoft Disk Operating System). Incluye el AUTOEXEC.bat y el sistema de ficheros FAT (File Alocation Table). Se utiliza desde floppy disk de 160 KB (5.25'). IBM lo lanza como PC-DOS junto al IBM PC. 1982 Aparece MS-DOS 1.2 y el PC-DOS 1.1 con soporte para diskettes de 5.25' de doble cara (320KB). 1983 Microsoft lanza MS-DOS 2.0 para correr en el IBM PC/TX. Soporta discos duros de 10 MB y estructura jerárquica de ficheros. MS-DOS 2.1 con soporte multilenguaje. 1985 Aparece MS-DOS 3.0 junto al IBM PC/AT. Soporta diskettes 5,25' de 1.2 MB, discos duros hasta 32 MB y elección de formato de fecha y hora. MS-DOS 3.1 incluye soporte de redes por primera vez. 1986 MS-DOS añade soporte para diskettes (3,5') de 720 KB. 1987 MS-DOS 3.3 soporta diskettes (3,5') de 1,44 MB, selección de páginas de código y de país. 1988 Microsoft incorpora soporte gráfico y de EMS (Extended Memory Specification) en su MS-DOS 4.0, con poco éxito y muchos dificultades (bugs) 1989 MS-DOS 4.1 soluciona algunos problemas, EMS, de 4.0 Aparece el DR-DOS de Digital Reserch. 1990 Digital Reserch lanza el DR-DOS 5.0 1991 Microsoft lanza el MS-DOS 5.0 una actualización del S.O. que se vende al publico, incorpora EMS y XMS. Aparece el DR-DOS 6.0 cuyas novedades más llamativas son compresión y desfragmentación de disco duro, que hasta ese momento se realizaban con herramientas de terceros como Stacker 2.0 y 3.0 (1990 a 1993) de STACK ELECTRONICS cuyo lema era "DOUBLE YOUR DISK CAPACITY". 1993 Microsoft lanza MS-DOS 6.0 1994 MS-DOS 6.22 que además de diversas mejoras, incluye novedades como ScanDisk, utilidad de escaneado y reparación de errores de disco. Características El DOS carece por completo de interfaz gráfica, y no utiliza el mouse. Era incapaz de detectar el hardware (no existía el Plug-and-play), por lo que todo debía ser configurado manualmente. No era ni multiusuario ni multitarea. No podía trabajar con discos duros muy grandes. Originalmente, por limitaciones del software, no podía manejar más de 64KB de memoria RAM. Poco a poco, con las mejoras en la arquitectura de los PCs, llegó primero a manejar 640KB (la llamada "memoria convencional"), y luego hasta 1 MegaByte (agregando a la memoria convencional la "memoria superior" o UMB). Más tarde, aparecieron mecanismos como la memoria extendida (XMS) y la memoria expandida (EMS), que permitían ya manejar varios megabytes. Desde el punto de vista de los programadores, este sistema operativo permitía un control total de la computadora, libre de las capas de abstracción y medidas de seguridad a las que obligan los sistemas multiusuario y multitarea. Así, hasta la aparición del DirectX, y con el fin de aprovechar al máximo el hardware, la mayoría de los videojuegos para PC funcionaban bajo DOS. La necesidad de mantener la compatibilidad con programas antiguos, hacía cada vez más difícil programar para DOS, debido a que la memoria estaba segmentada, es decir, la memoria apuntada por un puntero tenía como máximo el tamaño de un segmento de 64KB. Para superar estas limitaciones del modo real de los procesadores x86, se recurría al modo protegido de los procesadores posteriores (80386, 80486...), utilizando programas extensores que hacían funcionar programas de 32 bits sobre DOS. Versiones de DOS Fueron varias las compañías que sacaron versiones del DOS, generalmente muy similares entre sí. PC-DOS y MS-DOS, por ejemplo, empezaron siendo prácticamente idénticos, aunque acabaron siendo muy distintos. Las versiones más conocidas fueron: MS-DOS (Microsoft) DR-DOS (Digital Research) PC-DOS (IBM) Novell DOS (Novell) FreeDOS OpenDOS Bajo GNU/Linux es posible ejecutar copias de DOS bajo dosemu, una máquina virtual nativa de Linux para ejecutar programas en modo real. Hay otros muchos emuladores para diferentes versiones UNIX Unix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.[1] [2] «Después de treinta años de su creación, UNIX sigue siendo un fenómeno»[3] Dennis Ritchie Hasta 2008, el propietario de la marca UNIX® es The Open Group, un consorcio de normalización industrial. Sólo los sistemas que cumplen a cabalidad y se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). Durante fines de la década de 1970 y principios de la década de 1980, la influencia de Unix en círculos académicos indujo a su adopción en masa (principalmente la variante BSD, que había surgido en la Universidad de California, Berkeley) en varias compañías que se iniciaban por aquel entonces[cita requerida], siendo la más destacada Sun Microsystems. Hoy en día, junto a los sistemas Unix certificados, también se pueden encontrar sistemas similares a Unix, como Linux y los derivados de BSD. En ocasiones, el término "Unix tradicional" suele emplearse para describir a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V. Historia Ken Thompson y Dennis Ritchie A finales de 1960, el Instituto Tecnológico de Massachusetts, los Laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics (Multiplexed Information and Computing Service)[4] , desarrollado para ejecutarse en una computadora central (mainframe) modelo GE-645. El objetivo del proyecto era desarrollar un sistema operativo interactivo que contase con muchas innovaciones, entre ellas mejoras en las políticas de seguridad. El proyecto consiguió dar a luz versiones para producción, pero las primeras versiones contaban con un pobre rendimiento. Los laboratorios Bell de AT&T decidieron desvincularse y dedicar sus recursos a otros proyectos. Uno de los programadores del equipo de los laboratorios Bell, Ken Thompson, siguió trabajando para la computadora GE-635[5] y escribió un juego llamado Space Travel[6] ,[7] (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida. De este modo, Thompson escribió nuevamente el programa, con ayuda de Dennis Ritchie, en lenguaje ensamblador, para que se ejecutase en una computadora DEC PDP-7. Esta experiencia, junto al trabajo que desarrolló para el proyecto Multics, condujo a Thompson a iniciar la creación de un nuevo sistema operativo para la DEC PDP-7[8] . Thompson y Ritchie lideraron un grupo de programadores, entre ellos a Rudd Canaday, en los laboratorios Bell, para desarrollar tanto el sistema de ficheros como el sistema operativo multitarea en sí. A lo anterior, agregaron un intérprete de órdenes (o intérprete de comandos) y un pequeño conjunto de programas. El proyecto fue bautizado UNICS, como acrónimo Uniplexed Information and Computing System, pues sólo prestaba servicios a dos usuarios (de acuerdo a Andrew Tanenbaum, era sólo a un usuario[9] ). La autoría de esta sigla se le atribuye a Brian Kernighan, ya que era un hack de Multics. Dada la popularidad que tuvo un juego de palabras que consideraba a UNICS un sistema MULTICS castrado (pues eunuchs, en inglés, es un homófono de UNICS), se cambió el nombre a UNIX, dando origen al legado que llega hasta nuestros días[10] . Hasta ese instante, no había existido apoyo económico por parte de los laboratorios Bell, pero eso cambió cuando el Grupo de Investigación en Ciencias de la Computación decidió utilizar UNIX en una máquina superior a la PDP-7. Thompson y Ritchie lograron cumplir con la solicitud de agregar herramientas que permitieran el procesamiento de textos a UNIX en una máquina PDP-11/20, y como consecuencia de ello consiguieron el apoyo económico de los laboratorios Bell. Fue así como por vez primera, en 1970, se habla oficialmente del sistema operativo UNIX[11] ejecutado en una PDP-11/20. Se incluía en él un programa para dar formato a textos (runoff) y un editor de texto. Tanto el sistema operativo como los programas fueron escritos en el lenguaje ensamblador de la PDP-11/20. Este "sistema de procesamiento de texto" inicial, compuesto tanto por el sistema operativo como de runoff y el editor de texto, fue utilizado en los laboratorios Bell para procesar las solicitudes de patentes que ellos recibían. Pronto, runoff evolucionó hasta convertirse en troff, el primer programa de edición electrónica que permitía realizar composición tipográfica. El 3 de noviembre de 1971 Thomson y Ritchie publicaron un manual de programación de UNIX (título original en inglés: "UNIX Programmer's Manual")[12] . En 1972 se tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C[13] . Este cambio significaba que UNIX podría ser fácilmente modificado para funcionar en otras computadoras (de esta manera, se volvía portable) y así otras variaciones podían ser desarrolladas por otros programadores. Ahora, el código era más conciso y compacto, lo que se tradujo en un aumento en la velocidad de desarrollo de UNIX. AT&T puso a UNIX a disposición de universidades y compañías, también al gobierno de los Estados Unidos, a través de licencias[14] . Una de estas licencias fue otorgada al Departamento de Computación de la Universidad de California, con sede en Berkeley[14] . En 1975 esta institución desarrolló y publicó su propio sucedáneo de UNIX, conocida como Berkeley Software Distribution (BSD), que se convirtió en una fuerte competencia para la familia UNIX de AT&T. Mientras tanto, AT&T creó una división comercial denominada Unix Systems Laboratories para la explotación comercial del sistema operativo. El desarrollo prosiguió, con la entrega de las versiones 4, 5 y 6[15] en el transcurso de 1975. Estas versiones incluían los pipes o tuberías, lo que permitió dar al desarrollo una orientación modular respecto a la base del código, consiguiendo aumentar aún más la velocidad de desarrollo. Ya en 1978, cerca de 600 o más máquinas estaban ejecutándose con alguna de las distintas encarnaciones de UNIX. La versión 7[15] , la última versión del UNIX original con amplia distribución, entró en circulación en 1979. Las versiones 8, 9 y 10[15] se desarrollaron durante la década de 1980, pero su circulación se limitó a unas cuantas universidades, a pesar de que se publicaron los informes que describían el nuevo trabajo. Los resultados de esta investigación sirvieron de base para la creación de Plan 9, un nuevo sistema operativo portable y distribuido, diseñado para ser el sucesor de UNIX en investigación por los Laboratorios Bell. Éste sería el aspecto de UNIX sobre los fines de la década de 1980 utilizando X Window System creado por el MIT AT&T entonces inició el desarrollo de UNIX System III, basado en la versión 7, como una variante de tinte comercial y así vendía el producto de manera directa. La primera versión se lanzó en 1981[15] . A pesar de lo anterior, la empresa subsidiaria Western Electric seguía vendiendo versiones antiguas de Unix basadas en las distintas versiones hasta la séptima. Para finalizar con la confusión con todas las versiones divergentes, AT&T decidió combinar varias versiones desarrolladas en distintas universidades y empresas, dando origen en 1983 al Unix System V Release 1[15] . Esta versión presentó características tales como el editor Vi y la biblioteca curses, desarrolladas por Berkeley Software Distribution en la Universidad de California, Berkeley. También contaba con compatibilidad con las máquinas VAX de la compañía DEC. En 1993, la compañía Novell adquirió la división Unix Systems Laboratories de AT&T junto con su propiedad intelectual[16] . Esto ocurrió en un momento delicado en el que Unix Systems Laboratories disputaba una demanda en los tribunales contra BSD por infracción de los derechos de copyright, revelación de secretos y violación de marca de mercado [cita requerida]. BSD no solamente ganó el juicio sino que cambiaron tornas descubriendo que grandes porciones del código de BSD habían sido copiadas ilegalmente en UNIX System V. En realidad, la propiedad intelectual de Novell (recién adquirida de Unix Systems Laboratories) se reducía a unos pocos ficheros fuente[cita requerida]. La correspondiente contra-demanda acabó en un acuerdo extrajudicial cuyos términos permanecen bajo secreto a petición de Novell. Aproximadamente por esa misma fecha, un estudiante de ciencias de la computación llamado Linus Torvalds desarrolló un núcleo para computadoras con arquitectura de procesador Intel x86 que mimetizaba muchas de las funcionalidades de UNIX y lo lanzó en forma de código abierto en 1991, bajo el nombre de Linux. En 1992, el núcleo Linux fue combinado con los programas desarrollados por el Proyecto GNU, dando como resultado el Sistema Operativo GNU/Linux. En 1995, Novell vendió su división UNIX comercial[16] (es decir, la antigua Unix Systems Laboratories) a Santa Cruz Operation (SCO) reservándose, aparentemente, algunos derechos de propiedad intelectual sobre el software[17] . SCO continúa la comercialización de System V en su producto UnixWare, que durante cierto tiempo pasó a denominarse OpenUnix, aunque ha retomado de nuevo el nombre de UnixWare.. LINUX Linux es la denominación de un sistema operativo tipo Unix (también conocido como GNU/Linux) y el nombre de un núcleo. Es uno de los ejemplos más prominentes del software libre y del desarrollo del código abierto, cuyo código fuente está disponible públicamente, para que cualquier persona pueda libremente usarlo, estudiarlo, redistribuirlo, comercializarlo y, con los conocimientos informáticos adecuados, modificarlo[1] . Las variantes de los sistemas Linux de denominan "distribuciones" ( ) y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios, de estar forma existen distribuciones para hogares, empresas y servidores. Algunas son gratuitas y otras de pago, algunas insertan software no libre y otras contienen solo software libre. Los primeros sistemas Linux se originaron en 1992, al combinar utilidades de sistema y bibliotecas del proyecto GNU con el núcleo Linux, creado por Linus Torvalds, con la colaboración de cientos de co-desarrolladores y que se distribuye bajo la Licencia Pública General de GNU.[2] . Desde finales del 2000 se ha incrementado el apoyo y respaldo de parte de fabricantes de hardware como IBM[3] , Sun Microsystems[4] , Hewlett-Packard[5] , y Novell[6] . Algunos de ellos (como Dell[7] , Hewlett-Packard[8] [9] , Lenovo[10] [11] [12] y Acer[13] ) lo incluyen pre-instalado en algunos modelos de computadoras portátiles y de escritorio para el usuario final. El respaldo de las compañías de software también está presente, ya que -entre otras aplicaciones- Nero, Java, Google Earth, Google Desktop, Adobe Reader, Adobe Flash, RealPlayer, Silverlight y Yahoo! Messenger están disponibles para Linux. Linux puede instalarse en computadores de escritorio (PCs x86 y x86-64 así como Macintosh y PowerPC), computadores de bolsillo, teléfonos celulares, portátiles, dispositivos empotrados, videoconsolas (Xbox, PlayStation 3, PlayStation Portable, Dreamcast, GP2X...) y otros (como en varios modelos de iPod), sin embargo su mayor desarrollo se ha llevado a cabo en el los servidores y supercomputadores[14] . La marca registrada Linux (Número de serie: 1916230) pertenece a Linus Torvalds y se define como "un sistema operativo para computadoras que facilita su uso y operación". Existen grupos de usuarios del sistema Linux en casi todas las áreas del planeta. Etimología Linux se refiere estrictamente al núcleo Linux, pero es comúnmente utilizado para describir al sistema operativo tipo Unix (que implementa el estándar POSIX), que utiliza primordialmente filosofía y metodologías libres (también conocido como GNU/Linux) y que está formado mediante la combinación del núcleo Linux con las bibliotecas y herramientas del proyecto GNU y de muchos otros proyectos/grupos de software (libre o no libre). La expresión "Linux" es utilizada para referirse a las distribuciones GNU/Linux, colecciones de software que suelen contener grandes cantidades de paquetes además del núcleo. El software que suelen incluir consta de una enorme variedad de aplicaciones, como: entornos gráficos, suites ofimáticas, servidores web, servidores de correo, servidores FTP, etcétera. Coloquialmente se aplica el término "Linux" a éstas. Algunas personas opinan que es incorrecto denominarlas distribuciones Linux, y proponen llamarlas sistema GNU/Linux. Otras personas opinan que los programas incluidos proceden de fuentes tan variadas que proponen simplificarlo denominándolo simplemente a "Linux". La pronunciación correcta (para cualquier idioma) es muy cercana a como se pronuncia en español: /lí.nux/ o /lnəks/ (Alfabeto Fonético Internacional), aunque el mismo creador ha expresado que es irrelevante. Historia Artículo principal: Historia de Linux Linus Torvalds, creador del núcleo Linux Linux nació gracias a la idea de Linus Torvalds de crear un sistema basado en Unix para máquinas i386. En más de una ocasión, Linus Torvalds ha afirmado que si hubiera sabido de la existencia de los sistemas BSD que ya cumplían lo que hacía Linux, no se habría molestado en modificar Minix. La historia de Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983, tiene como objetivo el desarrollo de un sistema Unix completo compuesto enteramente de software libre. Hacia 1991, cuando la primera versión del núcleo Linux fue liberada, el proyecto GNU había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo. Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el hueco final que el sistema operativo GNU exigía. Subsecuentemente, miles de programadores voluntarios alrededor del mundo han participado en el proyecto, mejorándolo continuamente. Torvalds y otros desarrolladores de los primeros días de Linux adaptaron los componentes de GNU y de BSD, así como de otros muchos proyectos como Perl, Apache, Python, etc. para trabajar con el núcleo Linux, creando un sistema operativo completamente funcional procedente de muchísimas fuentes diferentes, la mayoría libres. conclusiones La conclusión de este tema visto es dar ha conocer los diferentes tipos de sistemas operativos dando la diferencia de los ya nombrados y sus posibles utilidades las cuales se perfeccionan con los años dando nuevos aires de tecnología al mundo mostrando nuevas herramientas para facilitar el uso del computador en los cuales tienen mas acogida los sistemas operativos dando una mirada al mundo. BIBLIOGRAFIA 1 .WWW.WILKIPEDIA.COM 2. WWW.MONOGRAFIAS.COM 3. WWW.ELRINCONDELVAGO.COM