viernes, 10 de julio de 2009
















HISTORIA GOOGLE










Sergey Brin (23 años entonces) y Larry Page (24), confundadores de Google y actualmente presidente y CEO, se conocen en un acto que la Universidad de Stanford organiza para los candidatos de su Doctorado en Informática.
- otoño 1995: Larry y Sergey comienzan a trabajar en el 'Digital Library Project' de la Universidad de Stanford. Larry Page, con experiencia en diseño web y el título de Ingeniero Eléctrico, y Sergey Brin, un experto en tratamiento de datos y Licenciado en Informática y Ciencias Matemáticas, comienzan a crear un algoritmo para la búsqueda de datos. Esta tecnología se convertirá mas tarde en el corazón que hará funcionar a Google.
El nombre que Larry Page da a esta tecnologia fue 'PageRank'. En su pagina web personal de la Universidad de Stanford, colgará en 1997 una presentacion que lo explica: 'PageRank: Bringing Order to the Web'.
- enero 1996: Comienzan a desarrollar un buscador llamado 'BackRub'. Este nombre se lo dan debido a que la mayor habilidad de este motor de búsqueda es analizar los 'back links' (enlaces que apuntan a una determinada página).
Tal y como indican en su descripción, Backrub está escrito en Java y Python (incluso Larry Page postea alguna duda en los 'newsgroups'), y corre sobre varias máquinas Sun Ultra y Intel Pentium con Linux. La Base de Datos está alojada en un ordenador Sun Ultra II con 28GB de disco duro.
Si tienes cualquier duda sobre el funcionamiento de este buscador, y no está contestada en sus FAQ, puedes llamar al (415) 723-3154, y preguntar por Larry. Los primeros usuarios son los alumnos y profesores de Stanford, que disfrutan de la precisión con la que el buscador encuentra datos en la web.
- 1997: 'Backrub' se transforma en 'Google'. Le otorgan este peculiar nombre por su parecido a la palabra 'googol', que en inglés es el nombre que que se da a la cifra '10 elevado a 100' (un uno seguido de 100 ceros). Ya tienen indexadas 24 millones de páginas. Mucho antes, ya han tenido problemas de capacidad en sus discos duros, y han tenido que idear ingenios basados en Lego, como este.
En los comienzos de Google (en el dominio google.stanford.edu), su diseño es aún más austero de lo que será posteriormente. En esta antigua versión se incluyen fotografías de los equipos que utilizan
Google sigue indexando paginas rápidamente, y Larry y Sergey necesitan mucha más capacidad en sus discos duros. Tienen que adquirir un terabyte, y finalmente consiguen comprar varios discos duros rebajados, todos por $15,000.
A pesar de la 'fiebre de los punto com' de aquellos días, Larry y Sergey no consiguen encontrar un inversor que financie Google, y tienen que conseguir todo el dinero de sus familias y amigos íntimos. Mientras tanto, habían abandonado su Doctorado en Stanford.
Google cumple 10 años tras cambiar el mundo de la información onlineUn 7 de septiembre de 1998 (en unas pocas horas hace justo 10 años) dos jóvenes universitarios que pretendían terminar su postgrado en la Universidad de Stanford constituían una pequeña firma llamada "Google Inc." para poder así dar una forma legal a un buscador de enlaces web que habían creado un par de años antes con el nombre de 'BackRub y que lo bautizaron posteriormente como 'Google' en honor al término 'googol'. Semanas antes de esta constitución como empresa, Andy Bechtolsheim (cofundador de Sun) había extendido un cheque de 100.000 dólares a favor de la inexistente 'Google Inc.', y Larry Page y Sergey Brin (los jóvenes universitarios ahora presidentes de Google) necesitaban darle una forma legal. Al de unos días, se fueron a trabajar a un garaje donde instalaron varias líneas telefónicas, un cable-módem, una línea DSL, y una plaza de aparcamiento para su primer empleado, Craig Silverstein. Han pasado 10 años desde aquellos inicios en un garaje con un solo empleado, para pasar a ser una de las empresas más valiosas de EEUU y contar con miles de trabajadores en todo el planeta. Entre los hitos más importantes de la compañía podemos destacar: septiembre 1998: Se funda 'Google Inc.', una compañía que dispone solamente de un buscador de enlaces web con 60 millones de páginas indexadas que responde a 10.000 consultas diarias, 3 trabajadores (contando a los dos fundadores), y un garaje. junio 1999: Google recibe la primera inversión importante, con 25 millones de dólares provenientes de prestigiosas firmas como Sequoia Capital. noviembre 1999: Google firma su primer acuerdo para la venta de la licencia de uso del buscador web en el sitio web de un tercero. En un principio, la compañía pretendía obtener sus ingresos económicos a través de esta vía. marzo 2000: Se lanza el Directorio de Google (directory.google.com), la primera herramienta diferente del buscador web. El buscador de imágenes nació en junio de 2001, el buscador de catálogos en diciembre de 2001, y 'Google News' en septiembre de 2002. junio 2000: Se firma un acuerdo entre Yahoo! y Google por el cual el primero comenzaba a incluir los resultados del buscador web del segundo. En esos momentos, Yahoo! era el líder en el mercado de las búsquedas en Internet, pero tras este acuerdo los usuarios comenzaron a ver la leyenda "powered by Google" en unos resultados que ofrecían una gran calidad. De esta manera, se comenzó a conocer la marca 'Google', y cuando se accedía a 'google.com' se descubría un servicio que solamente buscaba en las páginas web, y que no tenía servicios añadidos con un diseño muy sencillo (todo lo contrario que Yahoo!). Así, comenzó el famoso 'boca-oreja' que ha hizo famoso a Google en unos pocos años, puesto que numerosas

jueves, 9 de julio de 2009













TIC’S
Importancia de las nuevas tecnologías Hoy en día, los progresos en las denominadas tecnologías de la información, que abarcan los equipos y aplicaciones informáticas y las telecomunicaciones, están teniendo un gran efecto. De hecho, se dice que estamos en un nuevo tipo de sociedad llamada Sociedad de la información o Sociedad de Conocimiento, que viene a reemplazar a los dos modelos socioeconómicos precedentes, la sociedad agraria y la sociedad industrial. Sin embargo, la generación de la riqueza en la actualidad tiene que ver con otras maneras de proceder. Además de la importancia de la acumulación de capital y de la tecnología productiva, lo que en verdad se convierte en algo decisivo es saber qué quieren los clientes, qué hacen los competidores, dónde y a quién se puede comprar y vender en mejores condiciones, qué cambios legislativos pueden afectar a la empresa o a un sector, etcétera. En definitiva, resulta fundamental contar con la información oportuna para tomar las mejores decisiones en el momento adecuado. En esta situación las nuevas tecnologías de la información son muy relevantes. Permiten obtener y procesar mucha más información que los medios manuales. Así que las empresas invierten en ellas. Sin embargo, como cualquier tecnología, se debe tener presente que las TIC son sólo un instrumento (eso sí, muy potente y flexible) para la gestión de las empresas. Por tanto, es evidente que las nuevas tecnologías son un elemento imprescindible y en continuo desarrollo dentro de cualquier empresa. No obstante las tecnologías están mucho más presentes en las grandes empresas que en las medianas y pequeñas (PYME); esto se debe principalmente a la dimensión de la empresa y, como consecuencia, al ámbito de actuación de la misma y a su capacidad de inversión y gestión, aunque poco a poco esta diferencia se va acortando, ya que muchas PYME están empezando a ser conscientes de que el uso de las TIC es una cuestión clave para su expansión y supervivencia. Las tecnologías de la información y la comunicación (TIC) son un conjunto de servicios, redes, software y dispositivos que tienen como fin la mejora de la calidad de vida de las personas dentro de un entorno, y que se integran a un sistema de información interconectado y complementario. Las Tecnologías de la información y la comunicación, son un solo concepto en dos vertientes diferentes como principal premisa de estudio en las ciencias sociales donde tales tecnologías afectan la forma de vivir de las sociedades. Su uso y abuso exhaustivo para denotar modernidad ha llevado a visiones totalmente erróneas del origen del término. La ciencia informática se encarga del estudio, desarrollo, implementación, almacenamiento y distribución de la información mediante la utilización de hardware y software como recursos de los sistemas informáticos. Más de lo anterior no se encargan las tecnologías como tal. Como concepto sociológico y no informático se refieren a saberes necesarios que hacen referencia a la utilización de múltiples medios informáticos para almacenar, procesar y difundir todo tipo de información, telemática, etc. con diferentes finalidades (formación educativa, organización y gestión empresarial, toma de decisiones en general, etc.). Por lo tanto no se trata del objeto concreto sino de aquellos objetos intangibles para la ciencia social. Por ejemplo democracia, y nuevas tecnologías de la información y la comunicación (NTIC) son dos conceptos que viajan en una misma dirección, mientras democracia es el espíritu de las NTIC son métodos, recursos, libertades que ofrecen transparencia a las gestiones gubernamentales.









EVOLUCION DE LAS SUPERCOMPUATADORAS
The CDC 6600 is believed to have been the first computer to be designated as a supercomputer , offering the fastest clock speed for its day (100 nanoseconds). El CDC 6600 se cree que ha sido el primer equipo para ser designado como un superordenador, que ofrece la velocidad de reloj más rápida de su día (100 nanosegundos). It was one of the first computers to use Freon refrigerant cooling and was also the first commercial computer to use a CRT console. Fue uno de los primeros ordenadores para el uso de refrigerantes freón de refrigeración y también fue la primera computadora comercial de usar un monitor CRT consola. The machine was operated for nearly a year at the 30th street location in Boulder until the Mesa Laboratory was ready in December 1966. La máquina fue operada durante casi un año en la 30 calle hasta la ubicación en el Condado de Boulder la Mesa de laboratorio estaba listo en diciembre de 1966. The CDC 6600 was a large-scale, solid-state, general-purpose computing system. El CDC 6600 fue un gran escala, de estado sólido, de uso general del sistema de computación. It had a distributed architecture (central scientific processor supported by ten very fast peripheral machines) and was a reduced instruction set (RISC) machine many years before such a term was invented. Tuvo una arquitectura distribuida (procesador central de científicos apoyados por diez máquinas periféricas muy rápido) y se redujo un conjunto de instrucciones (RISC) máquina de muchos años antes de este término fue inventado. Input to the computer was by punch cards or seven-channel digital magnetic tape. De entrada al equipo fue por tarjetas perforadas o siete canales digitales en cinta magnética. Output was available from two line printers, a cardpunch, a photographic plotter, and standard magnetic tape. Se dispone de salida de línea de dos impresoras, una cardpunch, un trazador de fotografía, y el nivel de cinta magnética. An interactive display console allowed users to view graphical results as data were being processed. Una consola de visualización interactiva permite a los usuarios ver los resultados gráficos de los datos se están procesando. The CDC 6600 had 65,000 60-bit words of memory. El CDC 6600 tenía 65.000 60-bits palabras de memoria. It was equipped with a large disk storage device and six high-speed drums as storage intermediate in speed and accessibility between the central core storage and magnetic tapes. Fue equipado con un gran dispositivo de almacenamiento en disco y seis de alta velocidad como los bidones de almacenamiento intermedio en la velocidad y la accesibilidad entre el núcleo central de almacenamiento y las cintas magnéticas. The 6600 supported the FORTRAN 66 compiler and a program library. El 6600 apoyó el compilador Fortran 66 y un programa de biblioteca. The CDC 6600 was decommissioned in 1977. El CDC 6600 fue desmantelada en 1977.
Modern supercomputing began in the 1970s with the introduction of vector processors. Supercomputación moderna comenzó en la década de 1970 con la introducción de los procesadores vectoriales. Many of the newer players developed their own such processors at a lower price to enter the market. In the early to mid 1980s, performance advancement was obtained through improvements in vector processor technology and the introduction of symmetric multiprocessors (SMPs). Dongarra ‎ [3] defined SMP as “[A] computer system that has two or more processors connected in the same cabinet, managed by one operating system, sharing the same memory, and having equal access to input/output devices.” Muchos de los nuevos jugadores desarrollado sus propios procesadores de este tipo a un precio inferior a entrar en el mercado. En la primera mitad del decenio de 1980, los resultados se obtuvo el progreso a través de mejoras en la tecnología de procesador de vectores y la introducción de multiprocesadores simétricos (SMPs). Dongarra [3 ] SMP define como "[A] sistema informático que tiene dos o más procesadores conectados en el mismo gabinete, dirigido por un sistema operativo, que comparten la misma memoria, y que tengan igualdad de acceso a los dispositivos de entrada / salida."
The early and mid-1980s saw machines with a modest number of vector processors working in parallel to become the standard. Los principios y mediados de los años 1980 vieron las máquinas con un modesto número de procesadores de vectores que trabajan en paralelo para convertirse en la norma. Typical numbers of processors were in the range of four to sixteen. Típico número de procesadores se encuentran en el rango de cuatro a dieciséis. During the first half of the 1980s, much attention was paid to the marketability of supercomputers so that manufactures were able to sell enough systems to stay in business. Durante la primera mitad de la década de 1980, se prestó mucha atención a la comercialización de los superordenadores a fin de que se fabrica en condiciones de vender lo suficiente para permanecer en los sistemas de negocio. This included development of “standard programming environments, operating systems, and key applications” ‎ [3]. Esto incluía el desarrollo de "entornos de programación estándar, sistemas operativos y aplicaciones clave" [3].
Supercomputers built in the early-80s used the shared memory model (SM), which limited scalability in such systems. Superordenadores construido a principios de los años 80 utilizó el modelo de memoria compartida (SM), que limita la escalabilidad de estos sistemas. In the later 1980s and early 1990s, attention turned from SM to distributed memory (DM) implemented by massive parallel processing systems with thousands of “ordinary” CPUs, some being off the shelf units and others being custom designs. En los últimos años 1980 y principios de 1990, la atención de SM convertido a memoria distribuida (DM), aplicadas por los sistemas de procesamiento paralelo masivo con miles de "ordinaria" CPU, algunos de ellos, frente a las estanterías y otros son diseños personalizados. This shift in focus was accompanied by an increase in performance of standard off-the-shelf processors due to the transition to RISC architectures and the introduction of CMOS technology. Este cambio de enfoque fue acompañado por un aumento en el rendimiento de la norma fuera de los procesadores de la plataforma debido a la transición a arquitecturas RISC y la introducción de la tecnología CMOS. This leads to the introduction of the concept of massively parallel processors (MPP) ‎ [3].Vaughan-Nichols ‎ [7] defines a MPP as a system using many CPUs, each with its own memory, running in parallel and linked by high-speed interconnections to execute the various parts of a program. Esto lleva a la introducción del concepto de procesadores masivamente paralelo (MPP) [3]. Vaughan-Nichols [7] define un PMP como un sistema que utiliza muchos CPUs, cada una con su propia memoria, funcionando en paralelo y conectados por alta velocidad de las interconexiones para la ejecución de las distintas partes de un programa. His use of “many” to describe the number of processors is a rather relative term. IBM Roadrunner, currently the world's fastest supercomputer is listed as a hybrid design with 12,960 IBM PowerXCell 8i CPUs and 6,480 AMD Opteron dual-core processors in specially designed server blades connected by Infiniband ‎ [8] but a computer with a few orders of magnitude fewer processors could also be described as having “many” processors. Dongarra suggests considering “many” to mean “larger than the current largest number of processors in a shared-memory machine.” Su uso de "muchos" para describir el número de procesadores es más bien un término relativo. Roadrunner de IBM, que actualmente es el superordenador más rápido del mundo se muestra como un híbrido de diseño de IBM con 12.960 procesadores PowerXCell 8i y 6.480 AMD Opteron de doble núcleo en procesadores diseñados especialmente para servidor hojas unidas por Infiniband [8], pero un equipo con algunas órdenes de magnitud menor número de procesadores también podrían ser descritos como "muchos" los transformadores. Dongarra sugiere considerar "muchos" en el sentido de "más grande que la actual mayor número de procesadores en un compromiso memoria-máquina ".
In order to provide a more reliable basis for statistics on high-performance computers, the Top500 list was introduced in 1993. Con el fin de proporcionar una base más fiable para las estadísticas sobre los ordenadores de alto rendimiento, la lista Top500 se introdujo en 1993. Initially this ranking made usage of the Linpack benchmark. Inicialmente hizo uso de esta clasificación de la referencia Linpack. LINPACK is a software library for performing numerical linear algebra on digital computers. Linpack biblioteca es un software para realizar el álgebra lineal numérica en ordenadores digitales. It was written in Fortran by Dongarra and other researchers between late 1970s and early 1980s for use with supercomputers. Fue escrito en Fortran Dongarra y por otros investigadores entre fines del decenio de 1970 y principios de 1980 para su uso con superordenadores. This decision was controversial since LINPACK is considered to over-estimate the capability of microprocessor-based machines ‎ [4]. Esta decisión fue polémica desde Linpack se considera a la sobre-estimación de la capacidad de las máquinas basadas en microprocesadores [4]. LINPACK has actually been largely superseded by LAPACK, which runs more efficiently on modern architectures. Linpack ha sido sustituida en gran parte por LAPACK, que será más eficaz en las modernas arquitecturas.
Until the introduction of the Earth Simulator supercomputer in 2002, MPP machines dominated the supercomputer industry ‎ [6]. The percentage of machines on the Top500 list utilizing vector processors had been steadily decreasing over the years, and had appeared to stabilize around 10% in 2003 (Feitelson 2005). When introduced, Earth Simulator was the world's fastest supercomputer and featured vector processors in a MPP architecture ‎ [4]. Hasta la introducción de la supercomputadora en el Simulador de la Tierra de 2002, dominó el MPP máquinas superordenador industria [6]. El porcentaje de las máquinas en la lista Top500 la utilización de procesadores de vectores se ha disminuido de manera constante en los últimos años, y ha aparecido a estabilizar en torno al 10% en 2003 (Feitelson 2005). Cuando se presentó, Simulador de la Tierra era el superordenador más rápido del mundo y figura en un vector de procesadores MPP arquitectura [4]. According to Dongarra, this “demonstrated that many scientific applications could benefit greatly from other computer architectures.” Feitelson highlights that researchers in Japan , where the Earth Simulator is located, have preferred the vector processing approach, while American companies have preferred to use commodity microprocessors. Según Dongarra, esto "demuestra que muchas aplicaciones científicas podrían beneficiarse en gran medida de otras arquitecturas de computadora." Feitelson destaca que los investigadores en Japón, donde el Simulador de la Tierra se encuentra, han preferido el enfoque de procesamiento de vectores, mientras que las empresas norteamericanas han preferido utilizar los microprocesadores .
Currently, the focus in supercomputing is on clustered systems, as Strohmaier and Meuer note that the number of clustered systems on the Top500 list has grown considerably. Dongarra defines “cluster” as a “commonly found computing environment consisting of many PCs or workstations connected together by a local-area network.” He also comments that a long running trend indicates that it is increasingly rewarding to aggregate the computational power of relatively small machines. As the typical desktop computer has become more powerful over the years, it can now be considered a significant computing resource ‎ [3]. Actualmente, en el centro de supercomputación se agrupan en sistemas, como Strohmaier Meuer y observar que el número de sistemas agrupados en la lista Top500 ha crecido considerablemente. Dongarra define el "grupo" como "se encuentran entorno compuesto de muchos ordenadores conectados entre sí o de trabajo por una red de área local. "También comenta que una larga tendencia indica que cada vez es más gratificante para agregar la potencia de cálculo de máquinas relativamente pequeño. Como la típica computadora de escritorio se ha vuelto más poderoso a través de los años, ahora puede ser considerada una parte significativa de recursos de computación [3]. Coupling groups of commodity computers together with high-speed interconnects has proved to be a successful venture, lowering costs and putting supercomputers within reach of new users ‎ [7]. As an example, Vaughan-Nichols ‎ [7] cites Viriginia Tech's new Terascale Cluster, built with 1,100 off-the-shelf Apple computers, Cisco Systems' 4500 Gigabit switches, and 24 96-port Infiniband switches. The Terascale cluster was built in 4 months and cost a relatively small $5.2 million. In summary, clusters of PCs and workstations have become the prevalent architecture for many HPC application areas in all ranges of performance in recent years ‎ [3]. Acoplamiento de los grupos de ordenadores, así como con interconexiones de alta velocidad ha demostrado ser una empresa exitosa, reduciendo los costos y la puesta superordenadores al alcance de los nuevos usuarios [7]. A modo de ejemplo, Vaughan-Nichols [7] cita Viriginia Tech nuevo Terascale grupo, con 1.100 construidos fuera de la plataforma con ordenadores Apple, Cisco Systems conmutadores Gigabit 4500, y 24 96-puerto Infiniband interruptores. Terascale El grupo fue construido en 4 meses y un costo relativamente pequeño 5,2 millones de dólares. En resumen, las agrupaciones de PC y estaciones de trabajo se han convertido en la prevalencia de la arquitectura HPC para muchas áreas de aplicación en todos los rangos de rendimiento en los últimos años [3].
4.

4. LINPACK and LAPACK Linpack y LAPACK
LINPACK is a software library for performing numerical linear algebra on digital computers. Linpack es una biblioteca de software para la realización de álgebra lineal numérica en ordenadores digitales. It was written in Fortran by Jack Dongarra, Jim Bunch, Cleve Moler, and Pete Stewart, and was intended for use on supercomputers in the 1970s and early 1980s. Fue escrito en Fortran por Jack Dongarra, Jim Bunch, Cleve Moler, y Pete Stewart, y fue destinado a ser utilizado en supercomputadoras en la década de 1970 y principios de 1980. It has been largely superseded by LAPACK, which will run more efficiently on modern architectures. Se ha sustituido en gran medida por LAPACK, que se desarrollará de manera más eficiente en las modernas arquitecturas.
LINPACK is a collection of FORTRAN subroutines that analyze and solve linear equations and linear least-squares problems. Linpack es una colección de subrutinas FORTRAN que analizar y resolver ecuaciones lineales y lineales de mínimos cuadrados problemas. The package solves linear systems whose matrices are general, banded, symmetric indefinite, symmetric positive definite, triangular, and tridiagonal square. El paquete que resuelve sistemas lineales de matrices son generales, bandas, simétrico indefinida, simétrica positiva definida, triangulares, cuadrados y tridiagonal. In addition, the package computes the QR and singular value decompositions of rectangular matrices and applies them to least-squares problems. Además, el paquete que calcula el QR y singular valor decompositions de matrices rectangulares y las aplica a los problemas de mínimos cuadrados. LINPACK uses column-oriented algorithms to increase efficiency by preserving locality of reference. Linpack utiliza algoritmos columna orientada a aumentar la eficiencia mediante la preservación de la localidad de referencia. The result is reported in millions of floating point operations per second (MFLOP/s, sometimes simply called FLOPS). El resultado es en millones de operaciones de punto flotante por segundo (MFLOP / s, a veces simplemente llamado FLOPS).
LAPACK can be seen as the successor to the original LINPACK, which was designed to run on the then-modern vector computers with shared memory. LAPACK puede considerarse como la sucesora de la original Linpack, el cual fue diseñado para ejecutarse en el entonces moderno vector computadoras con memoria compartida. LAPACK, in contrast, depends upon the Basic Linear Algebra Subprograms (BLAS) in order to effectively exploit the caches on modern cache-based architectures, and thus can run orders of magnitude faster than LINPACK on such machines, given a well-tuned BLAS implementation. LAPACK, en cambio, depende de los subprogramas Álgebra lineal básica (BLAS) con el fin de explotar las cachés en los modernos basados en las arquitecturas de memoria caché y, por tanto, puede ejecutar órdenes de magnitud más rápido que Linpack de dichas máquinas, un bien afinada aplicación BLAS . LAPACK has also been extended to run on distributed-memory systems in later packages such as ScaLAPACK and PLAPACK. LAPACK se ha ampliado también a ejecutarse en los sistemas de memoria distribuida en paquetes, como más tarde ScaLAPACK y PLAPACK.
5. Top supercomputers 5. Superordenadores Arriba
IBM Roadrunner currently occupies the first position in the 32 nd edition of the prestigious top500 ranking ‎ [8]. IBM Roadrunner ocupa actualmente la primera posición en la 32 ª edición del prestigioso ranking top500 [8]. It was built by IBM for the computer for the US Department of Energy's (DOE) National Nuclear Security Administration and it is located at Los Alamos National Laboratory. Fue construido por IBM para el equipo de los EE.UU. del Departamento de Energía (DOE), Administración Nacional de Seguridad Nuclear y se encuentra ubicado en Los Alamos National Laboratory. It is a hybrid design with 12,960 IBM PowerXCell 8i CPUs and 6,480 AMD Opteron dual-core processors in specially designed server blades connected by Infiniband. Es un híbrido de diseño de IBM con 12.960 procesadores PowerXCell 8i y 6.480 AMD Opteron de doble núcleo en procesadores diseñados especialmente para las hojas de servidor conectados por Infiniband. The Roadrunner uses Red Hat Enterprise Linux along with Fedora as its operating systems and is managed with xCAT distributed computing software. El Roadrunner utiliza Red Hat Enterprise Linux con Fedora como a lo largo de sus sistemas operativos y se gestiona con el software de informática distribuida xCAT. Top500 ‎ [8] reports an average performance of 1105000 GFLOPS and a peak performance of 1456704 GFLOPS for the LINPACK benchmark. Top500 [8] informa de un rendimiento medio de 1105000 GFLOPS y un máximo rendimiento de 1456704 GFLOPS Linpack para el punto de referencia. Roadrunner uses the Open MPI Message Passing Interface implementation. Roadrunner utiliza el Open MPI Message Passing Interface aplicación. Roadrunner occupies approximately 6,000 square feet (560 m2) and became operational in 2008. Roadrunner ocupa aproximadamente 6.000 pies cuadrados (560 m2) y entró en funcionamiento en 2008. The DOE plans to use the computer for simulating how nuclear materials age in order to predict whether the USA 's aging arsenal of nuclear weapons is safe and reliable. El DOE planes para usar la computadora para simular la forma en la edad de materiales nucleares con el fin de predecir si los EE.UU. 's envejecimiento arsenal de armas nucleares es seguro y fiable. Other uses for the Roadrunner include the sciences, financial, automotive and aerospace industries. Otros usos para la Roadrunner incluyen las ciencias, la financiera, las industrias automotriz y aeroespacial.
At second position is the Jaguar XT supercomputer by Cray, built for the US Department of Energy's Oak Ridge National Laboratory in Tennessee . En segunda posición es la Jaguar XT por superordenador Cray, construido por los EE.UU. Departamento de Energía del Laboratorio Nacional de Oak Ridge en Tennessee. Top500 reports currently the usage 150152 cores and an average performance of 1059000 GFLOPS and a peak performance of 1381400 GFLOPS for the LINPACK benchmark. Top500 informes en la actualidad el uso de 150.152 núcleos y un rendimiento promedio de 1059000 GFLOPS y un máximo rendimiento de 1381400 GFLOPS Linpack para el punto de referencia. DOE establishes the purpose of Jaguar as unclassified research. DOE, establece el propósito de Jaguar no clasificados como de investigación.
It is very interesting to highlight from the top500 ranking that from the top 500 supercomputers in the world, 290 are located in US (58%), followed by 49 in United Kingdom (9.20%), 26 in France (5.20%), 25 in Germany (5.00%), 17 in Japan (3.40%) and 15 in China (3.00%). Es muy interesante destacar top500 de la clasificación que de las 500 supercomputadoras en el mundo, 290 están situadas en EE.UU. (58%), seguido por 49 en Reino Unido (9,20%), 26 en Francia (5,20%), 25 en Alemania (5,00%), 17 en Japón (3,40%) y 15 en China (3,00%). Among Latin American countries, Brazil has 2 supercomputers and Mexico 1 supercomputer. Entre los países de América Latina, Brasil tiene 2 y superordenadores Mexico 1 superordenador. With respect to operating systems, 389 supercomputers use Linux which accounts for a 77.80% of the top500 ranking. Con respecto a los sistemas operativos, 389 superordenadores uso de Linux que representa un 77,80% de los top500 clasificación. However, the real percentage of supercomputers using Linux is higher is higher if we consider that specific Linux distributions as SUSE or Redhat are considered separately. Sin embargo, el porcentaje real de los superordenadores con Linux es más alto es mayor si tenemos en cuenta que las distribuciones de Linux específicos como Suse o Redhat se consideran por separado.

MIPS
MIPS es el acrónimo de "millones de instrucciones por segundo". Es una forma de medir la potencia de los procesadores. Sin embargo, esta medida sólo es útil para comparar procesadores con el mismo juego de instrucciones y usando benchmarks que fueron compilados por el mismo compilador y con el mismo nivel de optimización. Esto es debido a que la misma tarea puede necesitar un número de instrucciones diferentes si los juegos de instrucciones también lo son; y por motivos similares en las otras dos situaciones descritas. En las comparativas, usualmente se representan los valores de pico, por lo que la medida no es del todo realista. La forma en que funciona la memoria que usa el procesador también es un factor clave para la potencia de un procesador, algo que no suele considerarse en los cálculos con MIPS. Debido a estos problemas, los investigadores han creado pruebas estandardizadas tales como SpecInt para medir el funcionamiento real, y las MIPS han caído en desuso.
En el mundo de GNU/Linux se suelen referir a los MIPS como 'BogoMips'.
El equivalente en la aritmética de punto flotante de los MIPS son los flops.
Muchos microprocesadores de 8 y 16 bits han sido medidos con KIPS (kiloinstrucciones por segundo), que equivale a 0'001 MIPS. El primer microprocesador de propósito general, el Intel 8080 ejecutaba 640 KIPS. El Intel 8086 (16 bits), el primer microprocesador usado en PC, 800 KIPS. El Pentium 4 llega aproximadamente a 1'700 MIPS.
Los PC actuales realizan un máximo de 18.000 millones de operaciones lógicas por segundo. Si se ejecutan 6 instrucciones por ciclo y hay 3.000 millones de ciclos por segundo, se tienen 18.000 MIPS.





MICROPROCESADOR






Un Microcontrolador es un circuito integrado que contiene toda la estructura de una microcomputadora, osea:
CPU (Unidad de Proceso Central).
Memoria RAM. (Memoria de Acceso Aleatorio).
Memoria ROM (Memoria solo de Lectura).
Circuitos de entrada y salida (I/O).
Su nombre nos indica sus principales características:Micro por su tamaño, ya que es un dispositivo pequeño, y Controlador por que se utiliza principalmente para controlar otros circuitos o dispositivos electricos, mecánicos, etc.

Un poco de Historia sobre los Microprocesadores
A partir de 1970, el panorama de la electrónica cambió radicalmente cuando apareció en el mercado un nuevo supercomponente:El Microprocesador. Esto introdujo un concepto novedoso que en la actualidad se conserva y refuerza cada vez más, el de la lógica programada. Antes de los microprocesadores, los circuitos electrónicos se diseñaban para una función específica la cual no podía modificarse sin cambiar físicamente las conexiones, osea, el número y la cantidad de los diferentes elementos que los formaban a lo cual se les llamó la lógica cableada.
Consolidadas las técnicas digitales de los años 60, se creó entonces la necesidad de profundizar en el estudio y desarrollo de las aplicaciones para los microprocesadores y la programación en lenguaje de máquina o assembler. Fué la época de oro del 8080, el 8086, el Z-80, el 6809, el 6502, el 68000 y otros microprocesadores, utilizados como circuitos centrales en las aplicaciones de control.
En 1980, aproximadamente, los fabricantes de integrados iniciaron la difusión de un nuevo circuito con aplicaciones para control, medición, e instrumentación, al que llamaron "microcomputador de un solo chip" o, de manera más exacta y concisa: microcontrolador.
Evolución histórica de los Microprocesadores
Dentro de los anales de la electrónica esta el año de 1970 como la fecha de invención del microprocesador. Con el microprocesador se inició una nueva era de desarrollo de la industria de las computadoras y de la electrónica, la cual hasta el presente ha ido evolucionando con una velocidad que aún sorprende incluso a los visionarios más futuristas. Nadie en esa época se imaginaba el impacto tan grande que causaría este desarrollo en la vida del hombre moderno.
Sin duda la senda la abrió el invento del tubo de vacío por Lee De Forest a comienzos del siglo, basado en el descubrimiento de un fenómeno llamado "Efecto Edison". Este dispositivo hizo posible la radio, la telefónia inalámbrica, etc., e impulsó el desarrollo comercial e industrial de la electrónica. Inclusive las primeras computadoras eran fabricadas con tubos de vacío. Luego vino la revolución del transistor, desarrollado en los laboratorios de Bell Telephone en 1948 y utilizado a partir de 1950 a escala industrial, con su inclusión en la fabricación de todo tipo de aparatos como:
· Radio.
· Televisión.
· Computadoras.
· En la industria Militar.

El microprocesador es: El máxino exponente de la etapa siguiente al transistor; la tecnología de los Circuitos Integrados.
El concepto de circuito integrado, empezó a rondar por los cerebros y mentes prodigiosas de quienes trabajaban en el diseño y fabricación de transistores. El planteamiento fue más o menos el siguiente: si se fabrican transistores en forma individual y luego se tenían que unir siempre de la misma forma entre sí con alambres y con otros componentes ¿Por qué no fabricar de una vez todo el conjunto de material semiconductor y aislante, interconectado internamente para que cumpliera la misma función del sistema total?



En Fairchild dirigía el equipo de trabajo Robert Noyce y en Texas Jack Kilby. La explosión de los circuitos integrados desde el año 1960 hasta la fecha, ha permitido el desarrollo de la electrónica en una forma sorprendente.
Noyce renunció a la fairchild en 1968 y fundó, en compañía de Gordon Moore y andrew Rock, la empresa Intel en donde se dieron los primeros pasos para el desarrollo del microprocesador. Esta compañía empezó a vislumbrar un gran mercado en el área de las computadoras y su investigación se orientó hacia el reemplazo de los circuitos de memoria magnéticos con núcleo de ferrita, por circuitos de memória basados en semiconductores. La base técnica consistió en el uso de un simple flip-flop como elemento de memoria. Así se creó el primer circuito de memoria tipo RAM llamado el 1103, con una capacidad de 1024 Bits.
El diseño del microprocesador se inició en un grupo de trabajo de Intel dirigido por Ted Hoff, un brillante ingeniero egresado de la Universidad de Stanford. Todo empezó cuando Intel firmo un contrato con una compañía japonesa (Busicom Corporation) fabricante de calculadoras. Esta quería que se le fabricara un conjunto de circuitos integrados que reemplazan la gran cantidad de componentes que tenían las calculadoras de ese entonces.
Después de un largo trabajo, se llegó hasta lograr que todo el circuito fuera reemplazado por tres chips, pero estos resultaron ser de un tamaño mayor de acuerdo a los requerimientos. A Hoff se le ocurrío que debía agrupar toda la parte del proceso aritmético y lógico en un sólo circuito y el resto de la calculadora en los otros dos circuitos. Con la intervención de otro diseñador, Federico Faggin, el proyecto se llevó a cabo con todo éxito. A este circuito, de 2250 elementos integrados en un área dee 3 x 4 milímetros, se le llamó microprocesador. También se le dió el nombre de CPU (Central Processing Unit) o MPU (Micro Processing Unit).
Aunque este circuito tenía ya muchas de las características de una unidad central de proceso integrada, el primer microprocesador en un solo chip, fabricado como tal, fue el 4004 de Intel, diseñado para reemplazar grandes cantidades de circuitos integrados TTL. El 4004 era un chip muy sencillo que manipulaba datos de cuatro bits. Intel desarrolló muy pronto, en 1972, el 8008, el cual podía procesar datos de ocho bits, pero era muy lento.
Para remediar esto, Intel desarrolló un sustituto, el 8080, y posteriormente el 8085 compatible con el primero, con funciones adicionales y menos circuitos de soporte. Un equipo de diseñadores que antes había trabajado para Intel en el 8080 formó la Zilog Inc, y construyó el microprocesador Z-80, el cual incorporaba un conjuntode instrucciones más extensos que el 8080, aunque era compatible con este último. Este microporcesador ha sido uno de los más utilizados en el campo de control.
Por la misma época en que se presentaba al mercado el 8080, otra empresa de semiconductores, Motorola, desarrolló el 6800, un microprocesador de 8 bits con un diseño completamente distinto pero con iguales características. Motorola perfecionó el 6800 hacia el 6809, considerado como uno de los mejores procesadores de 8 bits de todas la épocas.
A pesar de sus excelentes características, el 6809 no tuvo el éxito comercial que se esperaba. Dicho éxito lo obtuvo otro derivado del 6800: el 6502, producido por MOS Technology. Con este microprocesador se fabrincaron las primeras computadoras personales como la PET de Commodorre y la Apple II de Apple Computer Inc.
A partir de ese momento, se estableció una guerra técnica y comercial, que aún subsiste, entre Intel y Motorola, la cual los a llevado a ser los dos grandes líderes indiscutibles del mercado de microprocesadores. Pero el desarrollo del microprocesador no se quedó ahí. A principios de la década de los 80 empezaron a apareceer los microprocesadores de 16 bits, mucho más potentes. El primero en salir al mercado fue el 8086 de Intel en 1978, el cual fue adoptado por la IBM para la fabricación de su famosa IBM PC. Lo siguieron de cerca el 68000, el 68020, el 68030 y el 68040 de Motorola. Con estos microprocesadores se inició en Apple una nueva familia de microcomputadores: la Macintosh. Luego, en un consorcio entre Apple, IBM y Motorola se desarrolló una nueva familia de microprocesadores: Los Power PC, los cuales se utilizan en las computadoras Apple e IBM actuales.



HISTORIA Y EVOLUCIÓN DE SUPERCOMPUTACIÓN


Supercomputación o de computación de alto rendimiento (HPC) son términos utilizados para clasificar los sistemas compuestos por computadoras que funcionan en paralelo a través de los medios disponibles en el comercio de interconexiones de alta velocidad, de manera que el sistema puede funcionar prácticamente como un sistema unificado. Este documento ofrece una breve visión general de HPC y su evolución a lo largo de los años a partir de los datos de Control de Empresas (CDC) 6600 y la exploración hasta la más reciente supercomputadora, como la de IBM Roadrunner.

A pesar de la actual definición común de un superordenador, este concepto ha cambiado durante los años de gran. El término en sí es bastante superordenador líquido, y hoy la supercomputadora tiende a convertirse en equipo ordinario de mañana. CDC principios máquinas eran simplemente muy rápido escalar los transformadores, en el orden de diez veces la velocidad más rápida de las máquinas de los ofrecidos por otras compañías. En la década de 1970, el plazo era en su mayor superordenador a que se refiere especializados de alto rendimiento de vectores de transformación. Los principios y mediados de los años 1980 vieron las máquinas con un modesto número de procesadores de vectores que trabajan en paralelo para convertirse en la norma. Típico número de procesadores se encuentran en el rango de cuatro a dieciséis. En los últimos años 1980 y 1990, la atención se apartó de los procesadores vectoriales de los sistemas de procesamiento paralelo masivo con miles de "ordinaria" CPU, algunos de ellos, frente a las estanterías y otros son diseños personalizados. Hoy en día, los superordenadores son comúnmente entendido como el grupo de ordenador que se construyen en función de "fuera de la plataforma de servidor de clase de microprocesadores, como el PowerPC, Opteron, Xeon o que se combinan utilizando interconexiones costumbre.
Una de las ventajas de la utilización de componentes comunes para construir un grupo, es que estos sistemas pueden ser producidos masivo y, por tanto, debe ofrecerse a un precio inferior. Aunque un alto grado de habilidad técnica es necesaria para crear un sistema de este tipo, los beneficios, tales como su flexibilidad, relativamente bajo consumo de energía y costo, superan el inconveniente.
La evolución general de la computación de alto desempeño con el tiempo pueden ser rastreados a través del aumento en el rendimiento de los superordenadores más rápidos del mundo. Este es normalmente medido en FLOPS (operaciones de punto flotante por segundo), y una lista de todo el mundo existen 500 superordenadores más rápidos en línea en [8]. Esta lista se actualiza dos veces al año, más recientemente, en noviembre de 2008.
Supercomputación no debe confundirse con la Grid Computing (también conocido como Informática distribuida), que es un tipo especial de computación paralela que utilizan los recursos de muchos ordenadores en una red para trabajar en un solo problema, al mismo tiempo. Se emplea el uso de gran escala de clúster de computación y, por tanto, significa un tipo de informática es geográficamente dispersos en la naturaleza. Una de las principales cuestiones de la red informática es la seguridad. Mientras que en la supercomputación el sistema sigue siendo de carácter privado, la red informática en el sistema es público. Esto se debe a que en la red informática, un ordenador desde cualquier lugar del mundo puede convertirse en parte de la red resultante en importantes problemas de seguridad si no se toman en consideración. Un estudio sobre la red de computación está fuera del alcance de este documento.













SISTEMAS OPERATIVOS Y SU EVOLUCION
Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computadora destinado a permitir una administración eficaz de sus recursos. Comienza a trabajar cuando se enciende el computador, y gestiona el hardware de la máquina desde los niveles más básicos, permitiendo también la interacción con el usuario. Un sistema operativo es posible encontrar normalmente en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autorradios, computadoras, etc). Actualmente el concepto de computadora esta intrínsecamente relacionado al de sistema operativo, aunque éste existe en otros aparatos electrónicos y no sólo en las computadoras. Características de un sistema operativo Las características deseables más importantes de un sistema operativo son: Permitir la concurrencia de procesos, traslapándose el tiempo de entrada/salida (E/S) con el de cálculo y ocupando la memoria con varios programas. Posibilitar la ejecución de cualquier proceso en el momento que se solicite siempre y cuando haya suficientes recursos libres para él. Ser eficiente en cuanto a reducir: el tiempo medio que ocupa cada trabajo, el tiempo que no se usa la CPU, el tiempo de respuesta en sistemas multiacceso y el plazo entre dos asignaciones de CPU a un mismo programa. Ser eficiente en cuanto a aumentar la utilización de recursos en general, tales como memoria, procesadores, dispositivos de E/S, discos magnéticos, datos, etc. Ser fiable, es decir, un sistema operativo no debe tener errores y debe prever todas las posibles situaciones. Ser de tamaño pequeño. Posibilitar y facilitar en lo posible el "diálogo" entre computadora y usuario de la misma. Permitir compartir entre varios usuarios los recursos de hardware con que cuenta una computadora. Permitir a los usuarios compartir datos entre ellos, en caso necesario. Facilitar la E/S de los diferentes dispositivos conectados a una computadora. Funciones de un sistema operativo Las funciones más importantes que debe cumplir un sistema operativo son las siguientes: Aceptar los trabajos y conservarlos hasta su finalización. Detectar errores y actuar de modo apropiado en caso de que se produzcan. Controlar las operaciones de E/S. Controlar las interrupciones. Planificar la ejecución de tareas. Entregar recursos a las tareas. Retirar recursos de las tareas. Proteger la memoria contra el acceso indebido de los programas. Soportar el multiacceso. EVOLUCION DE LOS SISTEMAS OPERATIVO Años 40 A finales de los años 40, con lo que podríamos llamar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable. Años 50 A principios de los años 50 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal. Monitor residente Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente. Era sumamente complicado, por el hecho de que eran tarjetas perforadas las cuales las tenia que leer el sistema. Procesamiento por lotes Como solución para optimizar, en un mismo núcleo de cinta o conjunto de tarjetas se montaban los programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición. Almacenamiento temporal Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el spooling. Años 60 En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas: Multiprogramación En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. Tiempo compartido En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Tiempo real Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. .Sistemas operativos desarrollados Además del Atlas Supervisor y el OS/360, los años 70 marcaron el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y programado en PL/1 uno de los pocos SO desarrollados en un lenguaje de alto nivel en aquel tiempo, luego del fracaso del proyecto, UNIX comienza a desarrollarse a partir de este a finales de la década. Años 70 Debido al avance de la electrónica, pudo empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producir los primeros sistemas integrados. Ésta década se podría definir como la de los sistemas de propósito general y en ella se desarrollan tecnologías que se siguen utilizando en la actualidad. Es en los años 70 cuando se produce el boom de los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los cuales se creó específicamente para reescribir por completo el código del sistema operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk. Inconvenientes de los sistemas existentes Se trataba de sistemas grandes y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido. Características de los nuevos sistemas Para solventar los problemas antes comentados, se realizó un costosísimo trabajo para interponer una amplia capa de software entre el usuario y la máquina, de forma que el primero no tuviese que conocer ningún detalle de la circuitería. Sistemas operativos desarrollados MULTIC (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180. Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó un solo nivel de almacenamiento para el acceso a los datos, desechando la clara distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas multiprocesador. Años 80 Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS(Micro Soft Disk Operating), escrito por Microsoft para IBM PCy otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000. Apple Macintosh El lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos usuarios, al ver que estaba completamente diseñado para funcionar a través de una GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel gráfico. MS-DOS En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en Windows Milenium, a partir de la cual MS-DOS dejó de existir como tal y se convirtió en una parte integrada del sistema operativo Windows. Años 90 La idea de un Sistema Operativo Libre para la humanidad nace en 1984, impulsada por Richard Stallman, ex-empleado del MIT. Motivado por esta idea comienza la construcción y desarrollo de las herrmientas elementales que componen un Sistema Operativo, a esta parte del desarrollo del Sistema Operativo se le conoce como proyecto GNU. En esta etapa Richard Stallman cuenta con la colaboración de miles de programadores a nivel mundial. En 1991 aparece la primera versión del núcleo Linux. Creado por Linus Torvalds, pero antes de que este apareciera ya existía la mayoría de las herramientas que componían al Sistema Operativo, pero aun así el núcleo Linux tiene una importancia fundamental para el proyecto, es tal la importancia de este que el proyecto termina llamándose GNU/Linux, dando un 50% de importancia a ambas partes. Este sistema es similar a Unix, basado en el estándar POSIX , un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Lo que permite utilizar linux de una forma visual atractiva. Microsoft Windows A mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de Windows 95 que se le puede considerar un sistema operativo, solo era una interfaz gráfica del MS-DOS. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT. Microsoft ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el Windows 98 que era el más eficaz de esa época Después se crearía el sistema operativo de Windows ME (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de Windows 2000 en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, Windows XP y otros sistemas operativos de esta familia especializados en las empresas. Ahora el más reciente es Windows Vista, que, actualmente, tiene muchas críticas. Ahora está en desarrollo el sistema operativo Windows 7, que será una especie de "actualización" a Windows Vista, sacando novedades y mejorando problemas de incompatibilidad, rendimiento y más. Sistemas operativos mas utilizados Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux y Unix. Diferencias entre Windows Y Linux Si comparamos Linux con Windows 95/98/XP encontramos las siguientes ventajas e inconvenientes: Precio: Linux es libre, flexible, gratuito, configurable, eficiente, no requiere hardware caro, no obliga a cambiar continuamente la versión del software. Windows es un software no gratuito y poco flexible, ademas de que continuamente cambia la versión de software. Compatibilidad: Linux requiere mas conocimientos de informática, no hay sustituto directo para todas las aplicaciones, algunos dispositivos de última generación no están soportados (cada vez son menos). Windows es un software mucho mas compatible, tiene mucho mayor soporte en cuanto a dispositivos y requiere el mínimo de conocimientos de informática. Usuarios: Linux es un software menos comercial por lo cual es menos utilizado ya que como es gratuito la mayoría de usuarios no le tienen toda la confianza. Windows es un software muy publicitado lo cual lo convierte en un producto muy comercial además de que cuenta con un numero mucho mayor de usuarios alrededor del mundo. Seguridad: Windows no es el único sistema operativo donde podemos encontrar vulnerabilidades. En realidad, cualquier sistema construido por el hombre está potencialmente afectado. Linux no es una excepción, solo que en relación a Windows es mucho menos vulnerable. Bien es cierto que las vulnerabilidades encontradas son en número menores, pero también es verdad que el ímpetu con el que se buscan los agujeros en Windows es mucho mayor, debido a que algunos informáticos utilizan buena parte de su tiempo y se divierten buscando manchas en el expediente de Microsoft. Sin embargo, la desventaja más negativa resulta que Microsoft va "jubilando" sus sistemas operativos con el tiempo. Por ejemplo, con la entrada de 2003 ha calificado de obsoletos a sus sistemas MS-DOS, Windows 3.x, Windows 95 y Windows NT 3.5. Windows ME, con tan sólo unos pocos años de vida, se jubilaron el 31 de diciembre de 2003. A partir de entonces, Microsoft no ofrece más asistencia ni actualizaciones para ellos, lo que puede dejar desprotegidos a miles de usuarios de todo el mundo, que deberán actualizar su sistema operativo para disponer actualizaciones de seguridad. Diferencias entre Windows y Unix Unix y Windows parten de paradigmas completamente diferentes para la carga de código en tiempo de ejecución. Antes de intentar construir un módulo con carga dinámic, se debe comprender cómo funciona el sistema final del usuario. En Unix, un fichero objeto compartido (shared object, .so) contiene código que será utilizado por el programa junto con los nombres de las funciones y datos que espera encontrar en el programa. Cuando el fichero se une al programa, se cambian todas las referencias a dichas funciones y datos para que apunten a sus direcciones de memoria reales en el programa. A grandes rasgos, se realiza una operación de enlace. En Windows, un fichero de biblioteca de enlace dinámico, (dynamic-link library, .dll) no tiene referencias pendientes. En lugar de ello, todo acceso a funciones y datos pasa por una tabla de consulta. Por ello, no hay que arreglar el código de la DLL para que haga referencia a la memoria del programa. El programa ya utiliza la tabla de búsquedas, lo que cambia en tiempo de ejecución es la tabla de búsquedas para apuntar a las funciones y datos finales. En Unix, sólo hay un tipo de fichero de biblioteca (.a) que contiene código de varios ficheros objeto (.o). En el paso de enlace para crear un fichero objeto compartido (.so), el enlazador puede encontrarse que desconoce dónde se define un identificador. El enlazador lo buscará en los ficheros objeto y en las bibliotecas. Si lo encuentra, incluirá todo el código del fichero objeto. En Windows, existen dos tipos de biblioteca, una biblioteca estática y una biblioteca de importación (ambas llamadas .lib). Una biblioteca estática es como un fichero .a de Unix: contiene código que se incluirá si es necesario. Una biblioteca de importación se usas sólo para asegurar al enlazador que un identificador concreto es legal y estará presente en el programa cuando se cargue la DLL. Por ello, el enlazador utiliza la información de la biblioteca de importación para construir la tabla de consulta para usar los identificadores no incluidos en la DLL. Cuando se enlaza una aplicación o DLL, puede generarse una biblioteca de importación, que tendrá que usarse para futuras DLLs que dependan de los símbolos de la aplicación o DLL. Diferencia entre Linux y Unix Linux Contra Unix En Los términos de características, Unix y Linux son bastante semejantes. Sin embargo, el mayor la diferencia entre Unix y Linux es que Unix se diseñó específicamente Para el networking. Linux corre perfectamente multa como un sistema personal de Unix y En camareros grandes. Linux sostiene una mucha gran variedad de ferretería que Unix y a causa del modelo Abierto de la Fuente, cualquier conductor con toda seguridad ferretería Puede ser escrito para Linux tan largo como alguien tiene el tiempo a hace así. Muchos las universidades y las compañías comienzan al uso Linux en vez de Unix porque puede proporcionar la funcionalidad de una estación de trabajo en la ferretería de PC En una fracción del costo. Hay otras versiones libres de Unix disponibles Tal como FreeBSD. FreeBSD y Linux son semejantes pero basados en diferente Las metas y por lo tanto diseñó diferentemente. La meta de Linux debía desarrollar un sistema libre de Unix que se podría correr en ambos un nivel personal y en grande Los camareros de la red. FreeBSD buscado sólo a modifica el código existente de BSD Unix. Ventajas de Linux 1. Linux es básicamente un duplicado de UNIX, lo que significa que incorpora muchas de las ventajas de este importante sistema operativo. 2. En Linux pueden correr varios procesos a la vez de forma ininterrumpida como un servidor de red al tiempo que un procesador de textos, una animación, copia de archivos o revisar el correo electrónico. 3. Seguridad porque es un sistema operacional diseñado con la idea de Cliente - Servidor con permisos de acceso y ejecución a cada usuario. Esto quiere decir que varios usuarios pueden utilizar una misma maquina al tiempo sin interferir en cada proceso. 4. Linux es software libre, casi gratuito. Linux es popular entre programadores y desarrolladores e implica un espíritu de colaboración. 5. Linux integra una implementación completa de los diferentes protocolos y estándares de red, con los que se puede conectar fácilmente a Internet y acceder a todo tipo de información disponible. Desventajas de Linux 1. Linux no cuenta con una empresa que lo respalde, por lo que no existe un verdadero soporte como el de otros sistemas operativos. 2. La pendiente de aprendizaje es lenta. 3. No es tan fácil de usar como otros sistemas operativos, aunque actualmente algunas distribuciones están mejorando su facilidad de uso, gracias al entorno de ventanas, sus escritorios y las aplicaciones diseñadas específicamente para él, cada día resulta más sencillo su integración y uso. 4. Documentación y terminología muy técnica. 5. Para usuarios corrientes, todavía no es un sistema de escritorio. Funciona únicamente con proveedores de hardware que accedieron a la licencia GPL y en algunas instancias no es compa. Principales ventajas El tour de inicio al Wndows XP Starter es más detallado. Cuenta con varios videos de introducción en castellano para el usuario principiante. Se puede aprender desde como usar el Mouse hasta saber lo que es un Firewall. Tiene una gran cantidad de tutoriales. Viene con 3 wallpapers del país de destino. El protector de pantalla es la bandera nacional. Opción de configuración automática para el PC Unix Unix es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Además es un sistema multiusuario, en el que existe la portabilidad para la implementación de distintas computadoras. Ventajas de Unix Ø Multiusuario. Ø Multitarea. Ø Soporta acceso remoto. Ø Soporte nativo de TCP/IP (Fácil conexión a Internet y otras redes) o Contiene xFree86, que es una interfaz gráfica de usuario basada en los estándares de X-Windows, y también es gratuita. Desventajas de Unix Ø Carencia de soporte técnico. Ø No ofrece mucha seguridad. Ø Problemas de hardware, no soporta todas las plataformas, y no es compatible con algunas marcas específicas. Ø No existe un control de calidad al momento de elaborar software para Linux, pues muchas veces las aplicaciones se hacen y se liberan sin control alguno. Ø Es poco probable que aplicaciones para DOS y OS/2, se ejecuten correctamente bajo Linux. Ø No hay forma segura de instalarlo sin reparticionar el disco duro.















miércoles, 8 de julio de 2009















BASES DE DATOS
¿POR QUE Y PQR QUE USAR BASES DE DATOS?
La una de las razones principales al usar bases de datos es recuperación de datos rápida y eficiente. Una base de datos le ayuda a organizar sus datos de la manera analogical. Los sistemas de gerencia de base de datos fino-se templan para recuperar rápidamente los datos que usted desea de la manera usted la desea. Las bases de datos también le permiten romper datos en piezas específicas. Recuperando datos de una base de datos se llama el preguntar. Usted’ll ve a menudo la pregunta del SQL del término, que significa brevemente cualquier código del SQL que extraiga datos de la base de datos.
La recopilación de bases de datos servirá a las empresas para:
v Mantener comunicación constante con los clientes (mail, teléfono, correo etc.)
v Conocer las tendencias de compra del mercado objetivo.
v Personalizar la atención a los usuarios.
v Generar estrategias de publicidad.
v Utilizar segmentos específicos de clientes para colocar productos específicos y así llegar de manera directa al comprador o usuario.
Una base de datos de la disposición reduce al mínimo correctamente redundancia de datos. Otra vez usando las ventas ejemplo del coche, usted puede almacenar a todos los detalles de un vendedor apenas una vez en la base de datos y después utilizar una identificación única para identificar a cada vendedor. Cuando usted tiene otros datos que se relacionen con un vendedor particular (por ejemplo, que los coches ellos’ve vendido), usted puede utilizar la identificación única para buscar para los datos. La identificación única es a menudo un número
Las bases de datos tienen una estructura claramente definida y también hacen cumplir las reglas que protegen los datos contenidos. También permiten que más de una persona tenga acceso a la base de datos en el mismo tiempo y cambie los datos almacenados; el sistema de gerencia de base de datos maneja cambios simultáneos. Imagine al caos potencial si usted utilizó una hoja de balance del sobresalir, y a dos vendedores cambian datos simultáneamente. Usted desea guardar ambos sistemas de cambios, pero quienquiera ahorra el último de la hoja de balance es la persona que se almacenan cambios, sobre escribiendo cambios anteriores. Las bases de datos se utilizan comúnmente en los ordenadores personales para almacenar los datos usados localmente, y en almacén de las bases de datos de las redes de la compañía y para compartir la información empresarial.