miércoles, 16 de marzo de 2011

El estilo (Gramática)

CUALIDADES DEL ESTILO

Diversos manuales de redacción, estudios gramaticales y tratados de estilística señalan que la práctica de las ocho cualidades de estilo (claridad, propiedad, precisión, brevedad, sencillez, vigor expresivo, armonía y abundancia) son los principales atributos de un buen escrito.

a) La claridad es la redacción consistente en expresarse sin enredos, lagunas, anfibologías(doble sentido de una palabra), etc, de suerte que cualquier lector comprenda sin confusiones ni rodeos el sentido de nuestras frases y vocablos.

Principales obstáculos de la claridad: frases demasiado largas o rebuscadas; ineficaz o incorrecta organización de las palabras; ambigüedades y omisiones; uso de paréntesis frecuentes o exceso de cláusulas subordinadas, entre otros.

b) La propiedad es la calidad del estilo que consiste en escribir voces, frases y oraciones de manera correcta y pertinente, tanto por su apego a las normas gramaticales como por sus implicaciones de matiz.

Las principales faltas de propiedad con el solecismo, que es una violación de la sintaxis; el barbarismo, que es la falta ortográfica o una confusión de un término por otro, y el defectuoso empleo de los sinónimos.

c) Precisión, íntimamente ligada con la claridad y la propiedad en su forma, pues las tres se combinan en una buena comunicación, se refiere sobre todo al contenido y al sentido estricto de los vocablos y oraciones empleados para difundir la información. Aunque en la búsqueda de la precisión también se evitan impropiedades y confusiones, la tarea específica en este punto es encontrar la palabra justa y la oración irreprochable para transmitir exacta y estrictamente lo que queremos decir.

Un análisis minucioso de las palabras, concepto, cláusulas, ideas y datos es indispensable.

d) La brevedad, que, como se dice, redobla la calidad del buen escrito, en el periodismo es de capital importancia por dos razones:

--- El lector quiere información rápidamente, sin pérdida de tiempo, de aquello que le interesa, y generalmente sólo admite la demora ante aciertos o hallazgos literarios del estilo.

--- El espacio de la prensa es limitado. Si cada uno de los reporteros se esfuerza en conseguir la mayor brevedad posible, además de que sus textos ganarán en concisión y consistencia, éstos tendrán menos posibilidades de compactación o de resumen y serán mejores candidatos a la publicación.

La brevedad es el arte de sintetizar lo escrito, sin embargo, no debe confundirse con el laconismo (brevedad) telegráfico, ni preocuparse si al hacerlo pierde el texto precisión, propiedad o claridad.

e) La sencillez de un texto produce en sus lectores la impresión de que se escribió de un modo natural, sin afectaciones ni artificios, y les permite captar la información sin pensar en lo escabroso o complicado de la misma ni en la cualidad del que escribe.

El rebuscamiento de un escrito se debe habitualmente a que el redactor está más empeñado en exhibir su originalidad o dotes de escritor que en dar fluidez y transparencia al texto.

f) Es el vigor expresivo el rasgo que distingue a los mejores escritores y redactores periodísticos de aquellos que, sólo muy correctos, sencillos, breves y precisos, son incapaces de ser, de reflejar su originalidad en un estilo inconfundible que aliente, cohesione y dé vida a sus escritos. Auxiliado por la mejor tradición literaria y periodística en nuestra lengua, el redactor aumentará la fuerza y la plasticidad que implica el vigor expresivo.

g) La armonía es la cualidad estilística que, en primer lugar, procura la compatibilidad, concordancia o simpatía entre la forma y el contenido del escrito, entre el estilo y la materia informativa, de suerte que muy difícilmente, por ejemplo, pueda abordarse en tono frívolo o irónico un suceso que entrañe una tragedia.

Cada asunto, cada tema reclama una forma, una estructura, un estilo que, con su sensibilidad y con su oficio, el reportero captará y plasmará sin disonancias.

Evitar la cacofonía, la rima, el sonsonete; combinar frases cortas con largas, y procurar la eufonía dosificando melodiosamente la acentuación y las pausas.

h) La abundancia se refiere sobre todo a la variedad o riqueza del vocabulario y al dominio técnico de las múltiples formas de organización sintáctica, recursos que por sí solos son capaces de erradicar la monotonía de nuestros textos y de imprimirles novedad, elegancia y sutileza.

Ø Referencia bibliográfica (Cibergrafía)

martes, 15 de marzo de 2011

La Paráfrasis

La paráfrasis es la explicación o interpretacion amplificativa del contenido de un texto, hecha por el autor por el lector del mismo con sus propias palabras.

Parafrasear
Para parafrasear un texto hay que leerlo profundamente, y captar sus ideas esenciales y expresarlas con tus propias palabras.

sábado, 12 de marzo de 2011

Los cromosomas sexuales o heterocromosomas son cromosomas

Los cromosomas sexuales o heterocromosomas son cromosomas de organismos eucariontes que están representados diferentemente en los dos sexos.

Los cromosomas sexuales típicamente son designados como cromosoma X y como cromosoma Y.

En muchos organismos, un sexo posee un par de cromosomas idénticos y el sexo opuesto posee un par de cromosoma visiblemente diferente, tanto estructural como funcionalmente. Estos cromosomas reciben el nombre de cromosomas sexuales o heterocromosomas y como se siguen apareando en la meiosis se consideran cromosomas homólogos.

Figura

En seres humanos, por ejemplo, el sexo hembra tiene dos cromosomas X (figura 1), en cambio, el sexo macho tiene un cromosoma X y un cromosoma Y. Así la formula genética para la hembra será AAXX y para el macho AAXY, donde A representa a una de las series de autosomas.

Similarmente, en la mosca de la fruta Drosophila melanogaster, el sexo hembra es XX y el macho es XY(Figura 2).

Figura 2.

Durante la meiosis, las hembras sólo producen gametos del tipo AX, es decir, llevan una serie de autosomas y un heterocromosoma X. En cambio, los machos producen un 50% de gametos del tipo AX y un 50% de gametos del tipo AY. Por esta razón el macho es llamado el sexo heterogamético y la hembra el sexo homogamético.

En algunos organismos, el macho es homogamético y la hembra es heterogamética. Como en el caso ZW, donde los machos son homogaméticos ZZ y las hembras heterogameticas ZW. Esta situación se presenta en aves y algunos peces. (Las letras X Y y Z W son notaciones cromosómicas y no se relaciona con el tamaño o la forma de estos cromosomas.).

También existe el caso X0, como en algunos saltamontes y escarabajos, donde hay un solo cromosoma sexual, las hembras son generalmente XX y los machos X0.

Por último está el caso de los cromosomas múltiples, donde varios cromosomas X e Y se hayan implicados en la determinación del sexo, como en algunos chinches y escarabajos. En general, el genotipo determina el tipo de gónada, que a su vez controla el fenotipo del organismo mediante la producción de hormonas

Una vez que se comprobó que el ADN era el material hereditario y se descifró su estructura, lo que quedaba era determinar como el ADN copiaba su información y como la misma se expresaba en el fenotipo. Matthew Meselson y Franklin W. Stahl diseñaron el experimento para determinar el método de la replicación del ADN. Tres modelos de replicación era plausibles.

1. Replicación conservativa durante la cual se produciría un ADN completamente nuevo durante la replicación.

2. En la replicación semiconservativa se originan dos moléculas de ADN, cada una de ellas compuesta de una hebra de el ADN original y de una hebra complementaria nueva. En otras palabras el ADN se forma de una hebra vieja y otra nueva. Es decir que las hebras existentes sirven de molde complementario a las nuevas.


3. La replicación dispersiva implicaría la ruptura de las hebras de origen durante la replicación que, de alguna manera se reordenarían en una molécula con una mezcla de fragmentos nuevos y viejos en cada hebra de ADN.

http://www.biologia.edu.ar/im-index/linea.gif

El experimento de Meselson-Stahl consiste en cultivar la bacteria Escherichia coli en un medio que contenga nitrógeno pesado (15Nitrógeno que es mas pesado que el isótopo mas común: el 14Nitrógeno ). La primera generación de bacterias se hizo crecer en un medio que únicamente contenía 15Nitrógeno como fuente de N. La bacteria se transfirió luego a un medio con 14N. Watson y Crick habían pronosticado que la replicación del ADN era semiconservativa, de ser así el ADN extraído de las bacterias luego de cultivarlas por una generación en 14N tendría un peso intermedio entre el ADN extraído del medio con 15N y el del extraído de medio con 14N y así fue.

Los detalles del experimento que incluye un proceso de ultracentrifugación en cloruro de Cesio (CeCl2) puede encontrarse en el Curtis.

La replicación del ADN, que ocurre una sola vez en cada generación celular, necesita de muchos "ladrillos", enzimas, y una gran cantidad de energía en forma de ATP (recuerde que luego de la fase S del ciclo celular las células pasan a una fase G a fin de, entre otras cosas, recuperar energía para la siguiente fase de la división celular). La replicación del ADN en el ser humano a una velocidad de 50 nucleótidos por segundo, en procariotas a 500/segundo. Los nucleótidos tienen que se armados y estar disponibles en el núcleo conjuntamente con la energía para unirlos.

La iniciación de la replicación siempre acontece en un cierto grupo de nucleótidos, el origen de la replicación, requiere entre otras de las enzimas helicasas para romper los puentes hidrógeno y las topoisomerasas para aliviar la tensión y de las proteínas de unión a cadena simple para mantener separadas las cadenas abiertas.

Una vez que se abre la molécula, se forma una área conocida como "burbuja de replicación" en ella se encuentran las "horquillas de replicación" . Por acción de la la ADN polimerasa los nuevos nucleótidos entran en la horquilla y se enlazan con el nucleótido correspondiente de la cadena de origen (A con T, C con G). Los procariotas abren una sola burbuja de replicación, mientras que los eucariotas múltiples. El ADN se replica en toda su longitud por confluencia de las "burbujas".

Dado que las cadenas del ADN son antiparalelas, y que la replicación procede solo en la dirección 5' to 3' en ambas cadenas, numerosos experimentos mostraron que, una cadena formará una copia continua, mientras que en la otra se formarán una serie de fragmentos cortos conocidos como fragmentos de Okazaki . La cadena que se sintetiza de manera continua se conoce como cadena adelantada y, la que se sintetiza en fragmentos, cadena atrasada.

Para que trabaje la ADN polimerasa es necesario la presencia, en el inicio de cada nuevo fragmento, de pequeñas unidades de ARN conocidas como cebadores, a posteriori, cuando la polimerasa toca el extremo 5' de un cebador, se activan otras enzimas, que remueven los fragmentos de ARN, colocan nucleótidos de ADN en su lugar y, una ADN ligasa los une a la cadena en crecimiento.

Estructura

* Las cromátidas: Son estructuras idénticas en morfología e información ya que contienen cada una una molécula de ADN. Las cromátidas están unidas por el centrómero. Morfológicamente se puede decir que el cromosoma es el conjunto de dos cromátidas y genéticamente cada cromátida tiene el valor de un cromosoma. Estructuralmente, cada cromátida está constituida por un esqueleto proteico, situado en el interior, alrededor del cual se disponen muy apelotonados el ADN y las proteínas que forman el cromosoma.

* El centrómero: Es la región que se fija al huso acromático durante la mitosis. Se encuentra en un estrechamiento llamada constricción primaria, que divide a cada cromátida del cromosoma en dos brazos. En el centrómero se encuentran los cinetocoros: zonas discoidales situadas a ambos lados del centrómero que durante la división celular tienen como función hacer que los microtúbulos del huso se unan a los cromosomas. Los cinetocoros son también centros organizadores de microtúbulos, igual que los centriolos o el centrosoma de las células vegetales.

* Los telómeros: Al extremo de cada brazo del cromosoma se le denomina telómero. El ADN de los telómeros no se transcribe y en cada proceso de división celular se acorta. Cuando los telómeros desaparecen el cromosoma sigue acortándose y la célula pierde información genética útil y degenera. Los telómeros serían, por lo tanto, una suerte de "reloj celular" que determinaría el número de ciclos celulares que puede tener una célula. En las células cancerosas, una enzima, la telomerasa, regenera los telómeros; esta es la razón, al parecer, de que estas células puedan dividirse indefinidamente.

* El organizador nucleolar: En algunos cromosomas se encuentra la región del organizador nucleolar (NOR). En ella se sitúan los genes que se transcriben como ARNr, con lo que se promueve la formación del nucléolo y de los ribosomas. Esta zona no se espiraliza tanto y por eso se ve más clara.

* El satélite (SAT): Es el segmento del cromosoma entre el organizador nucleolar y el telómero correspondiente. Sólo poseen satélite aquellos cromososmas que tienen NOR.

viernes, 11 de marzo de 2011

Un devastador sismo de magnitud 8,8 causa estragos en Japón

Un devastador terremoto asoló el viernes el noreste de Japón, provocando mortales tsunamis a lo largo de amplias zonas de la costa del Pacífico. Se piensa que podría haber cientos de muertos y numerosos desaparecidos. En el distrito de Wakabayashi, en la ciudad de Sendai, prefectura de Miyagi, se encontraron entre 200 y 300 cadáveres en una playa. Según la policía local, es probable que se hayan ahogado a causa del tsunami.

La Agencia de Meteorología señala que el sismo ocurrió a las 2:46 de la tarde del viernes, hora local, frente a las costas de la prefectura de Miyagi. La magnitud calculada se elevó a 8,8, la más fuerte que ocurre en Japón desde que se empezó a llevar esta clase de estadísticas a finales del siglo XIX.

Se emitieron alertas de tsunami para olas de hasta 10 metros de altura desde Hokkaido, en el norte, hasta Tokushima, en el oeste.

En la prefectura de Miyagi, se produjeron temblores con una intensidad de siete, el nivel máximo en la escala japonesa de 0 a 7.

También las sacudidas fueron bastante violentas en muchas partes del país, incluyendo Tokio, donde los edificios se cimbraron durante varios minutos.

Otros tres sismos, de magnitud siete o mayor, ocurrieron sucesivamente en un lapso de 40 minutos a partir del terremoto inicial. El hipocentro de todos ellos se situó en el Pacífico, cerca del noroeste y el centro de Japón.

A las 3:50 de la tarde, un tsunami de más de 7,3 metros de altura alcanzó el puerto de Soma, en la prefectura de Fukushima, arrastrando muchas casas. La policía había ordenado antes una evacuación masiva.

Un tsunami de 4,2 metros de altura golpeó Oarai, en la prefectura de Ibaraki, a las 4:52 de la tarde, mientras que otro de más de cuatro metros alcanzó Kamaishi y Miyako, en la prefectura de Iwate, a las 3:21 de la tarde.

Es difícil contabilizar los daños causados por la serie de terremotos y tsunamis. Sin embargo, se ha informado de heridos y muertos en varias prefecturas.

En la prefectura de Miyagi se confirmó la muerte de una persona, aunque no se ha dado a conocer si ha habido más víctimas.

Las autoridades de Miyagi afirman que unas 20 personas están atrapadas en un rompeolas, mientras que a otras las arrastró un tsunami.

Las cámaras de la NHK en las prefecturas asoladas por el terremoto muestran tsunamis arrasando caminos y llevándose a su paso vehículos y casas.

Se informa que por lo menos ha habido 44 incendios en seis prefecturas. En la de Chiba, una refinería de Cosmo Oil se incendió a causa de una fuga de gas debido al terremoto.

Los trenes bala Shinkansen permanecen fuera de servicio en casi todo el país. Aunque no ha habido informes de accidentes ferroviarios, los trenes no están funcionando en la mayoría de las áreas costeras, incluyendo Tokio.

El aeropuerto de Narita, en la prefectura de Chiba, está cerrado y el personal de la torre de control ha sido desalojado. Todas las autopistas de la prefectura de Miyagi están cerradas al tráfico.

El sismo también ha causado interrupciones al servicio de electricidad en amplias zonas, afectando a millones de hogares.

jueves, 10 de marzo de 2011

Judaism

Judaism, like Christianity and Islam, is monotheistic
and maintains the manifestation of God in human
events, particularly through Moses in the Torah at
Mount Sinai in the 13th century BC. Jews, who come
together in both religious and ethnic communities,
have worldwide representation, with the greatest
concentration in North America and the Middle East.
Britannica 2010

Generaciones de la computación.

Primera Generación (1951 a 1958)

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.

Eckert y Mauchly contribuyeron al desarrollo de computadoras de la Primera Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero excitante comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras.

Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

Segunda Generación (1959-1964)

Transistor Compatibilidad Limitada:

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.

Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.

Tercera Generación (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora:

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970.

Cuarta Generación (1971 a la fecha)

Microprocesador, Chips de memoria, Microminiaturización:

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).

Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo.

El comienzo

Quizás el año más significativo en la historia de los ordenadores fue el año 1936. Fue el año donde el primer “computador” fue desarrollado. Honrad Zuse fue el creador con su Z1. El Z1 se considera el primer ordenador ya que era el primer sistema totalmente programable. Había otros dispositivos antes que este pero ninguno con la capacidad de computación de este equipo.

No fue hasta 1942 que alguna empresa viera posibles beneficios y oportunidades los ordenadores. La primera compañía se llamó “ABC Computers” perteneciente a John Atanasoff y Clifford Berry. Dos años después, el ordenador “Harvard Mark I” fue desarrollado llevando más allá la tecnología de los ordenadores.

Durante el curso de los siguientes años, inventores por todo el mundo empezaron a investigar el mundo de las computadoras y como mejorarlas. Los 10 años siguientes vieron nacer el transistor, que se convertiría en parte vital de la electrónica que compone un ordenador. Por aquel entonces existía la ENIAC 1, la cual requería de 20,000 válvulas para operar. Era una máquina de gran tamaño y empezó la revolución para construir ordenadores mas pequeños y rápidos.

La era de los ordenadores quedo alterada por la introducción en escena de IBM (International Business Machines) en el año 1953. Esta compañía, en el curso de la historia del ordenador, ha sido un punto clave en el desarrollo de nuevos sistemas y de servidores de uso público y privado. Esta introducción trajo los primeros signos reales de competencia en el mundo informático, lo cual ayudó a un mejor esparcimiento de los ordenadores en el mercado. Su primera contribución fue el ordenador IBM 701 EDPM.

Evolución de un lenguaje de programación

Un año mas tarde, el primer lenguaje de programación de alto nivel, fue desarrollado… FORTRAN. Dicho lenguaje de programación no estaba escrito en ensamblador o binario, los cuales están considerados de bajo nivel. FORTRAN se escribió para que más personas pudieran empezar a programar de forma mas fácil.

En el año 1955, el banco de América, juntó con el instituto de investigación Stanford y “General Electric”, vieron al creación de los primeros ordenadores para su uso en bancos. El MICR (Magnetic Ink Character Recognition) junto con el sistema ERMA comenzaron a funcionar en industrias relacionadas con la banca. No fue hasta 1959 que ambos sistemas se pusieron en uso para los bancos tradicionales.

Durante 1958, otro importante evento ocurre con la creación del circuito integrado. El dispositivo, también conocido como chip, es uno de los requerimientos básicos para los sistemas de ordenadores modernos. En cualquier placa base o tarjeta, encontraremos chips que contiene información de lo que estos dispositivos deben hacer. Sin estos chips, los sistemas tal como los conocemos no podrían funcionar.

Juegos, ratón e Internet

Para muchos usuarios de ordenador, los juegos han sido una parte vital dentro del mundo de los ordenadores. El año 1962 vio la creación del primer juego de ordenador, el cual fue hecho por Steve Russel y MIT, el cual se llamó “Spacewar”.

El ratón, uno de los componentes básicos de los ordenadores modernos, se creo en 1964 por Douglass Engelbart. Obtuvo su nombre por el cable que salía del dispositivo asemejándose a un ratón.

Uno de los aspectos mas importantes dentro del mundo informático en la actualidad, fue inventado en 1969. Hablamos de la red ARPA, la cual se puede considerar el Internet original y que proveyó de los fundamentos para el Internet que conocemos hoy en día.

No fue hasta 1970 cuando Intel entro en escena con el primer chip RAM dinámico que dio como resultado una autentica explosión de innovación en el mundo informático.

Casi al mismo tiempo salió el primer microprocesador que también fue creado por Intel. Estos dos componentes, junto con el chip creado en 1958, se pueden considerar el núcleo de los ordenadores modernos.

Un año mas tarde, se creó el “floppy disk” recibiendo su nombre por la flexibilidad de la unidad de almacenamiento. Este fue el primer paso para permitir a mucha gente transferir datos entre ordenadores NO conectados.

La primera tarjeta de red fue creada en 1973, permitiendo transferir datos entre ordenadores conectados entre si.

Aparecen los ordenadores caseros o PC’s

Los siguientes tres años fueron muy importantes para los ordenadores. Es cuando las compañías comenzaron a desarrollar sistemas para el consumidor medio. El Scelbi, Mark-8 Altair, IBM 5100, Apple I y II, TRS-80, y el Commodore Pet fueron los ordenadores pioneros en ordenadores domésticos, aunque resultaban algo caros.

Otro momento importante en el área de software informático, ocurrió en 1978 con la salida del programa de calculo VisiCalc. Todos los gastos y costes en el desarrollo de este programa informático fueron amortizados en un periodo de 2 semanas haciéndolo uno de los programas de mas éxito en la historia.

En 1979 sale a la venta WordStar, el primer procesador de texto. Esto cambió drásticamente el uso cotidiano que se le daba a los ordenadores hasta el momento.

El ordenador personal IBM ayudó a revolucionar el mercado de consumo en 1981, ya que con sus precios competitivos, permitió al usuario medio tener un ordenador en casa. 1981 también vio al gigante Microsoft entrar en escena con su sistema operativo MS-DOS. Este sistema operativo cambió el mundo de los ordenadores para siempre, y era suficientemente fácil para que todo el mundo lo utilizara.

La historia de la tecnología de los ordenadores vería otro cambio importante en 1983. El ordenador de Apple Lisa fue el primero con un interfaz gráfico o GUI. La mayoría de los programas modernos usan un interfaz gráfico, que permite su uso de forma sencilla y agradable para la vista. Esta tecnología empezada por Apple, marcó el principio de la desaparición de muchos programas basados solo en texto.

A partir de este punto, muchos cambios han ocurrido, sobre todo como consecuencia de la gran competitividad entre Apple y Microsoft. El desarrollo de todas las tecnologías existentes relacionada con el mundo del ordenador no tiene límites. Pero debemos recordar que sin esos pequeños pasos que se dieron al principio, nada de esto hubiera sido posible.

miércoles, 9 de marzo de 2011

There have been five extinction waves

There have been five extinction waves in the
planet’s history—including the Permian extinction
250 million years ago, when an estimated
70% of all terrestrial animals and 96% of all marine
creatures vanished, and, most recently, the Cretaceous
event 65 million years ago, which ended the
reign of the dinosaurs. Though scientists have directly
assessed the viability of fewer than 3% of the
world’s described species, the sample polling of animal
populations so far suggests that we may have entered
what will be the planet’s sixth great extinction
wave. And this time the cause isn’t an errant asteroid
or megavolcanoes. It’s us.
Through our growing numbers, our thirst for natural
resources, and, most of all, climate change—which,
by one reckoning, could help carry off 20% to 30% of
all species before the end of the century—we’re shaping
an Earth that will be biologically impoverished. A
2008 assessment by the International Union for Conservation
of Nature found that nearly one in four
mammals worldwide was at risk for extinction, including
endangered species like the famous Tasmanian
devil. Overfishing and acidification of the oceans
are threatening marine species as diverse as the
bluefin tuna and reef-forming corals.
Scary for fishermen, yes, but the question arises,
“Why should it matter to the rest of us?” After all,
nearly all the species that were ever alive in the past
are gone today. Evolution demands extinction. Why
should the loss of a few species among millions matter?
Answer: for one thing, we’re animals too, dependent
on this planet like every other form of life. When
we pollute and deforest and make a mess of the ecological
web, we’re taking out mortgages on the Earth
that we can’t pay back—and those loans will come
due. Then there are the undiscovered organisms and
animals that could serve as the basis of needed medicines—
as the original ingredients of aspirin were derived
from the herb meadowsweet—unless we unwittingly
destroy them first.
Forests razed can grow back, polluted air and water
can be cleaned—but extinction is forever. And we’re not
talking about losing just a few species. In fact, conservationists
quietly acknowledge that we’ve entered an
age of triage, when we might have to decide which
species can truly be saved. The worst-case scenarios of
habitat loss and climate change show the planet losing
hundreds of thousands to millions of species, many of
which we haven’t even discovered yet. The result could
be a virtual genocide of much of the animal world.
So if you care about tigers and tamarins, rhinos and
orangutans, if you believe Earth is more than just a
home for 6.7 billion human beings and counting,
then you should be scared. But fear shouldn’t leave
us paralyzed. Environmental groups worldwide are responding
with new methods to new threats to wildlife. Britanica 2010