martes, 28 de agosto de 2007

camino hacia el futuro

El comienzo de la edad de la informática


La información no es tan tangible y mesurable como los materiales que definían las edades precedentes, pero la información se ha convertido en algo importante para nosotros, haciendo que los costos de la comunicación disminuya como el costo de la informática.
Comencemos por decir que la informática eléctrica se almacena permanentemente, logrando que todo el que tenga computador personas después de haber almacenado la información digital podrá recuperarla, compararla y reconfigurarla rápidamente.

Esta nueva historia de la informática presenta nuevos métodos en donde está se puede intercambiar y manipular cada vez a más rápidas velocidades.
Charles Babbage fue el que concibió la posibilidad de construir un aparato mecánico capaz de efectuar una cadena de cálculos relacionados. Él creyó que su ingenio analítico seria utilizado para hacer le trabajo pesado relacionado con el calculo.
Al procesador central o a la víscera trabajadora de la maquina la llamo el molinoÞ memoria.

La esencia del software es seguir un conjunto de instrucciones cambiantes para poder ejercer diferentes funciones.
Babbage fue el primero en darse cuenta de que una sola maquina podría servir para un cierto numero de propósitos diferentes.
Alan Turing propuso lo que se conoce hoy como maquina de Turing.
Luego Claude Shannon en su tesis para demostrar que los circuitos del computador operaban de falso a verdadero llevando a denominar el uno como verdadero y el cero como falso.

El binomio en le alfabeto de los computadores eléctricos, este es vital para así poder entender el modo en que trabajan los computadores.
Cuando transmitimos la información a varios amigos corremos el riesgo de que cada vez que se manipule está información decrezcan las posibilidades de que siga siendo precisa llevando a que la información sea analógica.
La información analógica tiene la facultad de recopilar, almacenar y reproducir pero esta debe ser imprecisa pues corre el riesgo de hacerse menos precisa cada vez que se transfiere.

Los números de ceros a unos son llamados binarios, a cada cero o cada uno se les llama BIT.
La expresión binaria hace posible la utilización de los circuitos eléctricos para fabricar calculadoras.
Cuando se almacenan instrucciones en una memoria fue en este momento cuando nació el computador moderno. Ahora los computadores sin importar su tamaño o potencia, manejan información almacenada en forma de números binarios.

La teoría de la información de Shannon condujo a otros adelantos, como por ejemplo la eficaz comprensión de datos vital para la informática.
En el futuro nos encontraremos trasladando de un lugar a otro un numero mayor de bits cada vez, estos viajaran a traves de hilos de cobre en ancho de la banda es la medida del numero de bits que se pueden transmitir es un circuito por segundo.

Para finalizar se puede decir que en un futuro no muy lejano un simple cable que llegue a cada casa será capaz de transportar todos los datos digitales necesarios.

No hay comentarios: