miércoles, 20 de mayo de 2015

Herramientas de Medicion

Herramientas de medición

Las herramientas de rendimiento de Windows (WPT) del kit contiene herramientas de análisis de rendimiento que son nuevas para el SDK de Windows para Windows Server 2008 y. NET Framework 3.5. El kit de WPT es útil a un público más amplio, incluyendo los integradores de sistemas, fabricantes de hardware, desarrolladores de controladores y desarrolladores de aplicación general. Estas herramientas están diseñadas para medir y analizar el sistema y el rendimiento de las aplicaciones en Windows Vista, Windows Server 2008, y más tarde.

Herramientas de rendimiento de Windows están diseñados para el análisis de una amplia gama de problemas de rendimiento, incluyendo los tiempos de inicio de aplicación, los problemas de arranque, llamadas de procedimiento diferido y la actividad de interrupción (CPD y ISRS), los problemas del sistema de respuesta, uso de recursos de aplicación, y las tormentas de interrupción.

Estas herramientas se incluyen con el SDK de Windows (a partir de Windows Server SDK Feb'08 2008). Últimas QFE de estas herramientas también están disponibles para descarga en este centro de desarrollo. El MSI que contiene estas herramientas están disponibles en el directorio bin del SDK (uno por la arquitectura).

Indicadores de desempeño

En Analysis Services, un KPI es un conjunto de cálculos asociados a un grupo de medida de un cubo, que se usa para evaluar el éxito empresarial. Normalmente, estos cálculos son una combinación de expresiones MDX (Expresiones multidimensionales) o miembros calculados. Los KPI también tienen metadatos adicionales que proporcionan información acerca de cómo deberían las aplicaciones cliente mostrar los resultados de los cálculos de KPI.

Un KPI administra información sobre un objetivo establecido, la fórmula real del rendimiento registrada en el cubo y medidas para mostrar la tendencia y el estado del rendimiento. Para definir las fórmulas y otras definiciones acerca de los valores se un KPI se usa AMO. La aplicación cliente usa una interfaz de consulta, como ADOMD.NET, para recuperar y exponer los valores de KPI al usuario final. Para obtener más información, vea ADOMD.NET.

Un objeto Kpi simple se compone de la información básica, el objetivo, el valor real logrado, un valor de estado, un valor de tendencia y una carpeta donde se ve el KPI. La información básica incluye el nombre y la descripción del KPI. El objetivo es una expresión MDX que se evalúa como un número. El valor real es una expresión MDX que se evalúa como un número. El estado y el valor de tendencia son expresiones MDX que se evalúan como un número. La carpeta es una ubicación sugerida para el KPI que se va a presentar al cliente.

Roadmap

Un RoadMap (que podría traducirse como hoja de ruta) es una planificación del desarrollo de un software con los objetivos a corto y largo plazo, y posiblemente incluyendo unos plazos aproximados de consecución de cada uno de estos objetivos. Se suele organizar en hitos o "milestones", que son fechas en las que supuestamente estará finalizado un paquete de nuevas funcionalidades.

Para los desarrolladores de software, se convierte en una muy buena práctica generar un Roadmap, ya que de esta forma documentan el estado actual y posible futuro de su software, dando una visión general o específica de hacia adónde apunta a llegar el software.

La expresión Roadmap se utiliza para dar a conocer el "trazado del camino" por medio del cual vamos a llegar del estado actual al estado futuro. Es decir, la secuencia de actividades o camino de evolución que nos llevará al estado futuro.

martes, 24 de marzo de 2015

El sistema operativo y los procesos

El sistema operativo y los procesos

nTodos los SO de multiprogramación están construidos entorno al concepto de proceso

nLos requerimientos principales que debe cumplir  un SO para con los procesos  son los siguientes:
1._ El SO debe intercalar la ejecución de procesos para optimizar la  utilización de l procesador ofreciendo alavés un tiempo de respuesta razonable
2._ El SO debe asignar los  recursos del sistema a los procesos en conformidad con una política especifica que evite situaciones de ínter bloqueo
3._ El SO podría tener que dar soporte ala comunicación entre procesos y ofrecer mecanismos para su creación 
Creación y terminación de procesos
El sistema de operación debe crear un mecanismo para la creación y terminación de procesos.
 1._  Creación de procesos
   Cuando un nuevo proceso se agrega el sistema de operación construye las estructuras de datos que son usadas para administrar los procesos y le asigna espacio de direcciones. Estas acciones constituyen la creación de un nuevo proceso.
Los eventos comunes para la creación de procesos

- En un ambiente batch, un proceso es creado en 
respuesta al sometimiento a ejecución de un trabajo.
- En un ambiente interactivo, un proceso es creado
 cuando un nuevo usuario entra al sistema.
- El sistema de operación puede crear un proceso 
para que realice una función en respuesta a una 
petición de un programa usuario, sin que el usuario 
tenga que esperar.
- Creación de procesos hijos por parte de procesos 
usuarios ya existentes el proceso que crea se llama 
proceso padre. 

2._  Terminación de procesos

      Un proceso termina cuando ejecuta su última
 instrucción y pide al sistema operativo que lo elimine.
 En este momento, el proceso puede devolver un 
valor de estado a su proceso padre.
      El sistema operativo libera la asignación de todos
 los recursos del proceso, incluyendo las memorias 
física y virtual, los archivos abiertos y los búferes de 
E\S.
La terminación puede producirse también en otras
 circunstancias.
Un proceso puede causar la terminación de otro 
proceso a través de la adecuada llamada al
sistema.
Dicha llamada al sistema al sistema sólo puede 
ser invocada por el padre del proceso que va a 
terminar.
En caso contrario, los usuarios podrían terminar 
arbitrariamente los trabajos de otros usuarios.
Adicionalmente, un número de error  o una
 condición de fallo puede llevar a la finalización
 de un proceso. Las condiciones mas 
habituales son las siguientes:

Finalización normal .
Limite de tiempo excedido.
Memoria no disponible.
Violaciones de frontera .
Error de protección .
Limite de tiempo.
Fallo de E/S.
Instrucción no válida.
Instrucción privilegiada.
Uso inapropiado de datos.
Intervención del operador por el sistema operativo.
Terminación del proceso padre.
Solicitud del proceso padre.

ESTADOS DE UN PROSESO DE SISTEMAS

Preparado (R).- Proceso que está listo 
para ejecutarse
Ejecutando (O).- Sólo uno de los procesos 
preparados se está ejecutando en cada 
momento
Suspendido (S).- Se esta suspendido si no 
entra en el reparto de CPU, el proceso pasa
 a formar parte del conjunto de procesos 
preparados
 PARADO (T).- Será cuando pasarán a 
estar preparados cuando reciban una señal 
determinada que les permita continuar.

Zombie (Z).- Todo proceso al finalizar avisa 
a su proceso padre . En vaso de que el 
padre no lo reciba, el proceso hijo queda en
 estado zombie, no está consumiendo CPU,
 pero sí continua consumiendo recursos del
 sistema .

Transiciones de estado de los procesos

De ejecución á Bloqueado: Se realiza 
esta transición cuando cuando queda en espera cuando por la concesión de sus recursos o por la determinación de un suceso.
De ejecución á Listo: Cuando el 
proceso que ocupa la CPU lleva 
demasiado tiempo ejecutándose ,el 
sistema operativo decide que otro 
proceso ocupe la CPU, pasando el 
proceso que ocupaba la CPU a estado
 listo.
De Listo á en ejecución: Cuando lo 
requiere el planificador de la CPU.
De Bloqueado á Listo: Se dispone del
 recurso por el que se había bloqueado
 el proceso.
De Nuevo a Preparado: Es cuando el
 SO acepta o admite un proceso mas.
De Preparado a Terminado: Ocurre
 cuando cuando el proceso padre decide
 finalizar la ejecución del hijo.
De Bloqueado a Terminado: Ocurre 
cuándo el proceso supere el tiempo 
máximo de espera de un recurso y el
 SO decida terminarlo.

martes, 17 de marzo de 2015

Software Propietario

                                                   DEFINICIÓN

Es cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo

Para la Fundación para el Software Libre (FSF) este concepto se aplica a cualquier software que no es libre o que sólo lo es parcialmente ( semi-libre ), sea porque su uso, redistribución o modificación está prohibida, o requiere permiso expreso del titular del software.
CARACTERÍSTICAS DEL SOFTWARE PROPIETARIO:
  • Este software no te pertenece no puedes hacerle ningún tipo de modificación al código fuente.
  • No puedes distribuirlo sin el permiso del propietario.
  • El usuario debe realizar cursos para el manejo del sistema como tal debido a su alta capacidad de uso.
  • Este posee accesos para que el usuario implemente otro tipo de sistema en el. 
                          VENTAJAS DEL SOFTWARE PROPIETARIO:
    • Propiedad y decisión de uso del software por parte de la empresa.
    • Soporte para todo tipo de hardware.
    • Mejor acabado de la mayoría de aplicaciones.
    • Las aplicaciones número uno son propietarias.
    • El ocio para ordenadores personales está destinado al mercado propietario.
    • Mayor mercado laboral actual.
    • Mejor protección de las obras con copyright.
    • Unificación de productos.
    • Facilidad de adquisición (puede venir pre-instalado con la compra del PC, o encontrarlo fácilmente en las tiendas).
    • Existencia de programas diseñados específicamente para desarrollar una tarea.
    • Las empresas que desarrollan este tipo de software son por lo general grandes y pueden dedicar muchos recursos, sobretodo económicos, en el desarrollo e investigación.
    • Más compatibilidad en el terreno de multimedia y juegos.
    • Mayor compatibilidad con el hardware.
                           DESVENTAJAS DEL SOFTWARE PROPIETARIO:
    • No existen aplicaciones para todas las plataformas (Windows y Mac OS).
    • Imposibilidad de copia.
    • Imposibilidad de modificación.
    • Restricciones en el uso (marcadas por la licencia).
    • Imposibilidad de redistribución.
    • Por lo general suelen ser menos seguras.
    • El coste de las aplicaciones es mayor.
    • El soporte de la aplicación es exclusivo del propietario.
    • El usuario que adquiere software propietario depende al 100% de la empresa propietaria.


               

  Requerimientos de  Instalación para Servidores en software propietario 



Requisitos:
Procesador
Mínimo: 1GHZ en 32bits(x86), 1.4GHZ en 64bits(x64)
Recomendado: 2GHZ o más

Memoria
Mínimo: 512MB (si en Core se instala y corre con ese chin). 
Recomendado: 2 GB o más
Máximo (porque todo tiene tope): en 32bit de 4 a 64GB, en 64 bit de 32gb a 2 TB.
Disco Duro
Mínimo: 10GB
Recomendado: 40GB o más


1) Revisar si las aplicaciones a correr en el servidor son compatibles
Para hacer esta revision puede usar el Microsoft Application Compatibility Toolkit.
2) Desconectar los UPS de la administración
Esto es en casi de que tenga UPS conectados al servidor por puerto serial. Si es así, desconectarlos antes de iniciar la instalación.
3) Hacer BackUp
El BackUp debe incluir toda los documentos, bases de datos, etc, así como las configuraciones necesarias para que el servidor funcione una vez instalado. Estas informaciones de configuracion son importantes, especialmente la de aquellos servidores que proveen infraestructura de red, como DHCP. Cuando haga el backup, asegurese de incluir las particiones de booteo y de sistema, ademas del System State.
4) Deshabilitar el antivirus
El software antivirus puede interferir con la instalación. Por ejemplo, al antivirus escanear cada archivo que está copiando la instalación, esta se hace más lenta.
5) Ejecute el Windows Memory Diagnostic Tool
Este se ejecute para revisar y probar la memoria RAM del servidor.
6) Tener disponible los drivers de los discos
Si está usando unidades de discos de alta capacidad, probablemente necesitara durante la instalación proveer los drivers de estos equipos. Ponga estos drivers en un CD, DVD o USB para insertarlos en la instalación y ubíquelos en la forma siguiente: amd64 para computadoras 64bits, i386 para computadoras de 32 bits, o ia64 para computadoras de procesadores Itanium. 
7) Asegúrate de que tu Windows Firewall está encendido por defecto
Debido a que las aplicaciones del servidor pueden recibir solicitudes de conexiones no deseadas, es mejor activar el Firewall y así se evita que se interrumpa la instalación, además de que solo las aplicaciones que se desean se conecten lo harán. Para ello, verifique antes de la instalación que puertos usan tales aplicaciones para que las especifique en las excepciones del firewall.

8) Prepare su ambiente de Active Directory para la actualización de Windows Server 2008
Antes de añadir un controlador de dominio que corra en Windows Server 2008 en un ambiente de Active Directory que corra en Windows 2000 Server o Windows Server 2003, necesita actualizar el ambiente. Para ello debe seguir los siguientes pasos:
Para preparar una Foresta:
a) Inicie sesión con un usuario administrador de dominio o Enterprise Admin.
b) Desde el DVD de instalación de Windows Server 2008 copie el folder\sources\adprep a $\sysvol\
c) Abra una ventana de Command Prompt, vaya al directorio$\sysvol\adrep\ y ejecute "adrep /forestprep"
d) Si está instalando un Controlador de Dominio "Read Only" (RODC), ejecute "adprep /rodcprep"
e) Deje que se apliquen todos los cambios antes de pasar a la instalación.
Para preparar un Dominio
a) Inicie sesión con un usuario administrador de dominio.
b) Desde el DVD de instalación de Windows Server 2008 copie el folder\sources\adprep a $\sysvol\
c) Abra una ventana de Command Prompt, vaya al directorio$\sysvol\adprep\ y ejecute "adrep /domainprep /gpprep"
d) Deje que se apliquen todos los cambios antes de pasar a la instalación.
Después de estos pasos, se pueden añadir más controladores de dominio que corran WS2008 a los dominios que ya se han preparar.



lunes, 16 de febrero de 2015

Historia y Evolución De Los Sistemas Operativos

Historia y educación de los sistema operativos.











Para tratar de comprender los requisitos de un Sistema Operativo y el significado de las principales caracteristicas de un Sistema Operativo contemporaneo, es util considerar como han ido evolucionando estos con el tiempo.
Existen diferentes enfoques o versiones de como han ido evolucionando los Sistemas Operativos     La primera de estas versiones podria ser esta: 
En los 40's, se introducen los programas bit a bit, por medio de interruptores mecanicos y despues se introdujo el lenguaje maquina que trabajaba por tarjetas perforadas. 
    Con las primeras computadoras, desde finales de los años 40 hasta la mitad de los años 50, el programador interactuaba de manera directa con el hardware de la computadora, no existia realmente un Sistema Operativo; las primeras computadoras utilizaban bulbos, la entrada de datos y los programas se realizaban a traves del lenguaje maquina (bits) o a traves de interruptores.

Durante los años 50's y 60's.- A principio de los 50's, la compania General's Motors implanto el primer sistema operativo para su IBM 170. Empiezan a surgir las tarjetas perforadas las cuales permiten que los usuarios (que en ese tiempo eran programadores, disenadores, capturistas, etc.), se encarguen de modificar sus programas. Establecian o apartaban tiempo, metian o introducian sus programas, corregian y depuraban sus programas en su tiempo. A esto se le llamaba trabajo en serie. Todo esto se traducia en perdida de tiempo y tiempos de programas excesivos.

En los años 60's y 70's se genera el circuito integrado, se organizan los trabajos y se generan los procesos Batch (por lotes), lo cual consiste en determinar los trabajos comunes y realizarlos todos juntos de una sola vez. En esta epoca surgen las unidades de cinta y el cargador de programas, el cual se considera como el primer tipo de Sistema Operativo.
En los 80's, inicio el auge de la INTERNET en los Estados Unidos de America. A finales de los años 80's comienza el gran auge y evolucion de los Sistemas Operativos. Se descubre el concepto de multiprogramacion que consiste en tener cargados en memoria a varios trabajos al mismo tiempo, tema principal de los Sistemas Operativos actuales.

Los 90's y el futuro, entramos a la era de la computacion distribuida y del multiprocesamiento a traves de multiples redes de computadoras, aprovechando el ciclo del procesador.

Se tendra una configuracion dinamica con un reconocimiento inmediato de dispositivos y software que se anada o elimine de las redes a traves de procesos de registro y localizadores.

La conectividad se facilita gracias a estandares y protocolos de sistemas abiertos por organizaciones como la Organizacion Internacional de normas, fundacion de software abierto, todo estara mas controlado por los protocolos de comunicacion OSI y por la red de servicios digital ISDN.

     Se ha desarrollado otra version, la cual se ha hecho en base a etapas o generaciones: 
   
 1a. Etapa (1945-1955): Bulbos y conexiones. 




Despues de los infructuosos esfuerzos de Babbage, hubo poco progreso en la construccion de las computadoras digitales, hasta la Segunda Guerra Mundial. A mitad de la decada de los 40's, Howard Aiken (Harvard), John Von Newman (Instituto de Estudios Avanzados, Princeton), J. Prespe R. Eckert y Williams Mauchley (Universidad de Pennsylvania), asi como Conrad Zuse (Alemania), entre otros lograron construir maquinas de calculo mediante bulbos. Estas maquinas eran enormes y llenaban cuartos completos con decenas de miles de bulbos, pero eran mucho mas lentas que la computadora casera mas economica en nuestros dias. 
Toda la programacion se llevaba a cabo en lenguaje de maquina absoluto y con frecuencia se utilizaban conexiones para controlar las funciones basicas de la maquina. Los lenguajes de programacion eran desconocidos (incluso el lenguaje ensamblador). No se oia de los Sistemas Operativos el modo usual de operacion consistia en que el programador reservaba cierto periodo en una hoja de reservacion pegada a la pared, iba al cuarto de la maquina, insertaba su conexion a la computadora y pasaba unas horas esperando que ninguno de los 20,000 o mas bulbos se quemara durante la ejecucion. La inmensa mayoria de los problemas eran calculos numericos directos, por ejemplo, el calculo de valores para tablas de senos y cosenos. 
A principio de la decada de los 50's la rutina mejoro un poco con la introduccion de las tarjetas perforadas. Fue entonces posible escribir los programas y leerlas en vez de insertar conexiones, por lo demas el proceso era el mismo. 
    2a. Etapa. (1955-1965): Transistores y Sistemas de Procesamiento por lotes.
La introduccion del transistor a mediados de los años 50's modifico en forma radical el panorama. Las computadoras se volvieron confiables de forma que podian fabricarse y venderse a clientes, con la esperanza de que ellas
continuaran funcionando lo suficiente como para realizar un trabajo en forma. 
Dado el alto costo del equipo, no debe sorprender el hecho de que las personas buscaron en forma por demas rapidas vias para reducir el tiempo invertido. La solucion que, por lo general se adopto, fue la del sistema de procesamiento por lotes. 
    3ra Etapa (1965-1980): Circuitos integrados y multiprogramacion.

    


La 360 de IBM fue la primera linea principal de computadoras que utilizo los circuitos integrados, lo que proporciono una gran ventaja en el precio y desempeno con respecto a las maquinas de la segunda generacion, construidas a partir de transistores individuales. Se trabajo con un sistema operativo enorme y extraordinariamente complejo. A pesar de su enorme tamano y sus problemas el sistema operativo de la linea IBM 360 y los sistemas operativos similares de esta generacion producidos por otros fabricantes de computadoras realmente pudieron satisfacer, en forma razonable a la mayoria de sus clientes. Tambien popularizaron varias tecnicas fundamentales, ausentes de los sistemas operativos de la segunda generacion, de las cuales la mas importante era la de multiprogramacion.

Otra caracteristica era la capacidad de leer trabajos de las tarjetas al disco, tan pronto como llegara al cuarto de computo. Asi, siempre que concluyera un trabajo el sistema operativo podia cargar un nuevo trabajo del disco en la particion que quedara desocupada y ejecutarlo. 
    4ta Etapa (1980-Actualidad): Computadoras personales. 
Un interesante desarrollo que comenzo a llevarse a cabo a mediados de la decada de los ochenta ha sido el crecimiento de las redes de computadoras personales, con sistemas operativos de red y sistemas operativos distribuidos. 
En los sistemas operativos de red, los usuarios estan conscientes de la existencia de varias computadoras y pueden conectarse con maquinas remotas y copiar archivos de una maquina a otra. Cada maquina ejecuta su propio sistema operativo local y tiene su propio usuario. 
Por el contrario, un sistema operativo distribuido es aquel que aparece ante sus usuarios como un sistema tradicional de un solo procesador, aun cuando esta compuesto por varios procesadores. En un sistema distribuido verdadero, los usuarios no deben ser conscientes del lugar donde su programa se ejecute o de lugar donde se encuentren sus archivos; eso debe ser manejado en forma



La informática tal y como se le conoce hoy día, surgió a raíz de la II Guerra Mundial, en la década de los 40. En esos años no existía siquiera el concepto de "Sistema Operativo" y los programadores interactuaban directamente con el hardware de las computadoras trabajando en lenguaje máquina (esto es, en binario, programando únicamente con 0s y 1s).

El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.
En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema en tiempo real.

Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos que existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos al público general de manera impensable hasta entonces. Esto hace que se multiplique el desarrollo, creándose el lenguaje de programación C (diseñado específicamente para reescribir por completo el código UNIX).

Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras interfaces de usuario.

En los 80 nacieron sistemas como MacOS, MS-DOS, Windows.


En la década de los 90 hace su aparición Linux, publicándose la primera versión del núcleo en septiembre de 1991, que posteriormente se uniría al proyecto GNU, un sistema operativo completamente libre, similar a UNIX, al que le faltaba para funcionar un núcleo funcional. Hoy en día la mayoría de la gente conoce por Linux al Sistema Operativo que realmente se llama GNU/Linux


Edubuntu
Es una derivación oficial de la distribución Linux Ubuntu, destinada para su uso en ambientes escolares.
Su lista de paquetes está más orientada a tal fin, incorporando el servidor de Terminal, y aplicaciones educativas como GCompris y la KDE Edutainment Suite.
Edubuntu ha sido desarrollado en colaboración con docentes y tecnólogos de múltiples países. Edubuntu se construyó sobre Ubuntu e incorpora una arquitectura de cliente de LTSP, así como de usos educativos específicos, con un objetivo a la población entre los 6 y los 18 años. Hasta la versión 8.10, contaba con el servicio ShipIt para encargar CDs de manera gratuita.
La meta fundamental de Edubuntu es proporcionar al educador, con conocimientos técnicos limitados, habilidades para instalar un laboratorio de cómputo para después poder administrarlo sin necesidad de mayores conocimientos específicos.
Las metas principales de Edubuntu son lograr una gerencia centralizada en configuración, usuarios y procesos, junto con una instalación para poder trabajar en colaboración en clase. Igualmente tiene como meta recopilar el mejor software libre y con fines educativos.
MAX
MAX o MAdrid_LinuX es un sistema operativo basado en Ubuntu (que a su vez está basado en Debian GNU/Linux) creado por la Consejería de Educación de la Comunidad de Madrid. Hasta la versión 2 estuvo basada en Knoppix, una distribución live CD basada en Debian GNU/Linux.
Este sistema operativo puede utilizarse en modo LiveDVD, y también instalarse en el disco duro. Desde 2003, la distribución MAX se instala en todos los ordenadores que la Consejería de Educación de la Comunidad de Madrid instala en los centros educativos de enseñanza no universitaria.
La última versión cuenta con los escritorios Gnome, KDE y XFCE y las aplicaciones más habituales en el mundo del software libre: el navegador Firefox, los programas de correo electrónico Thunderbird y Evolution, el programa de diseño gráfico Gimp, el paquete ofimático OpenOffice.org, el editor de páginas web NVU, el editor de sonido Audacity, entornos de e-learning como Moodle entre otras aplicaciones, y una serie de programas de carácter educativo, que permiten generar contenidos educativos en formato digital, como JClic, Hot Potatoes, Animalandia, Malted o Squeak. Esta distribución está especialmente volcada en los usuarios con problemas de accesibilidad, por lo que cuenta con una serie de herramientas orientadas a facilitarla elaboradas a partir de software libre por la ONCE.

GUADALINEXEDU
Guadalinex Edu es el sistema operativo que se usa en la red de centros educativos públicos no universitarios de Andalucía desde 2003.
Desde 2009 existen versiones de Guadalinex Edu que permiten su instalación en cualquier equipo personal, facilitando al alumnado y al profesorado contar en su casa con el mismo entorno de trabajo con el que se encuentran en sus centros.
Está basada en Guadalinex y Ubuntu y añade la selección de aplicaciones educativas libres que la comunidad educativa ha ido solicitando a lo largo de estos años.
Actualmente la red de Centros TIC, Escuelas TIC 2.0 y Centros Bilingües andaluces se compone de más de 2.500 centros con más de 500.000 ordenadores utilizando Guadalinex Edu.
Las personas interesadas en contar con el mismo entorno de trabajo y aprendizaje que se utiliza en los centros educativos pueden instalar Guadalinex Edu en sus hogares.


SKOLELINUX/DEBIAN EDU
Debian Edu o Skoleliux es un proyecto creado en Noruega por un conjunto de docentes, activistas y entusiastas del Software Libre con el objetivo de proveer una solución completa de software para la educación basado en Software Libre. Skolelinux es una combinación de la palabra Noruega "skole" que significa es-cuela y Linux, el "kernel" del sistema operativo libre GNU/Linux.
Algunas características de este sistema operativo son:
Adaptado a las necesidades de escenarios educativos.
Viene preconfigurado para su fácil instalación.
Fácil de usar, mantener y administrar.
De igual manera Skolelinux tiene el objetivo de clasificar y todo el Software Libre educativo existente y proveer documentación sobre la utilización de las diversas aplicaciones disponibles en el contexto educativo.

FEDORA EDUCATION SPIN
La edición de Fedora para la educación tiene como objetivo principal facilitar a docentes y estudiantes el acceso a una gran variedad de herramientas para la educación tales como el galardonado ambiente de escritorio Sugar y las populares aplicaciones educativas de KDE
Este sistema operativo también viene equipado con el entorno de desarrollo integrado Eclipse y otras herramientas que brindan la oportunidad a sus usuarios tanto de explorar las aplicaciones como de contribuir con la producción de código para las mismas
QIMO FOR KIDS
Qimo4kids es un sistema operativo basada en Ubuntu con un escritorio diseñado exclusivamente para los más chicos. Viene equipado con juegos educativos para niños mayores de tres años. Su interfaz gráfica es sencilla e intuitiva y está diseñado con iconos grandes y llamativos.
La diferencia de Qimo con Edubuntu es que Qimo es un sistema operativo de escritorio para correr en computadoras caseras, mientras que Edubuntu posee más funcionalidades que lo hacen apto para ser utilizado en una red de computadoras de una escuela. Además Qimo puede correr directamente desde un Live CD sin necesidad de tener Ubuntu instalado previamente.
Los requisitos mínimos para instalar Qimo son: 256 MB de memoria para correr desde el disco compacto, o 192 MB para instalar. Al menos 6 GB de espacio en disco y procesador de 400 MHz o más



OPENSUSE: EDUCATION-LI-F-E
OpenSUSE es un reconocido sistema operativo basado en GNU/Linux auspi-ciado por la compañía de tecnología estadounidense Novell
OpenSUSE para la educación es un proyecto que buscar ayudar a escuelas y co-legios a utilizar openSUSE, mediante la creación de un paquete de software especialmente seleccionado para la educación con una gran variedad de aplicaciones en distintas áreas de conocimiento. La imagen de openSUSE-Edu puede utilizarse para grabar un DVD live o para crear un USB live
TUQUITO
Tuquito es un sistema operativo construido por un equipo de desarrolladores expertos y una gran comunidad alrededor del mundo. Tuquito es una alternativa de código abierto para el sistema operativo Windows y el paquete de oficina MSOffice.
Tuquito es un proyecto originado en el año 2003, por estudiantes de la Universidad Nacional de Tucumán, en Argentina, con el fin de dar nueva vida útil a un antiguo gabinete de computación, para lo que desarrollaron una distribución basada en GNU/Linux Hoy en día Tuquito es más que un sistema operativo, es una comunidad de gente que ayuda a gente, y su propósito es aportar a la sociedad desde lo informático, brindando soluciones tecnológicas con desarrollos de fácil utilización e implementación