Aplicado a cualquier dispositivo electrónico entenderemos que es mejor si es digital. ¿Es esto cierto, es mas moderno lo digital y antiguo lo analógico? De la mayoría ya no podemos elegir, ya no hay analógicos y en algún caso casi ni digitales, como por ejemplo las calculadoras, que tuvieron su versión analógica en las reglas de cálculo. Tampoco existe una bipolarización estricta de las cosas, un aparato es digital si esta hecho con electrónica digital, pero si no es así, no tiene por qué necesariamente estar hecho con electrónica analógica (como una televisión antigua), podría ser un dispositivo mecánico o químico como una cámara de fotos de carrete de película, aunque también lo denominamos “fotografía analógica”.

Digital se refiere a dedos, contar con los dedos y en los dispositivos electrónicos que utilizan y cuentan con magnitudes discretas, en concreto en binario, con “señal” o “no señal”. Con un concepto tan sencillo se puede cuantificar, calcular y computar casi cualquier cosa. Pero no fue fácil llegar hasta aquí, la humanidad necesito siglos de evolución científica y tecnológica.

Como en tantas cosas, las maquinas que hacen esto necesitan dos cosas, una parte física de circuitos (hardware) y una intelectual, de programas y algoritmos (software).

La parte intelectual parece más fácil y llevó la delantera. El matemático Al-Juarismi, allá por el siglo VIII o IX, estableció un procedimiento con una secuencia de reglas e instrucciones para resolver problemas, en su honor lo denominamos algoritmo, precursor de los programas informáticos.

Ya en el siglo XX podemos destacar a Allan Turing como el gran matemático que en sus trabajos teorizó sobre como deberían ser los computadores automáticos. Se definieron las primeras arquitecturas de unidad central de proceso, memorias y periféricos. También los lenguajes de programación.

Con tubos de vacío como circuito elemental de proceso binario, con los que se confeccionan los módulos de proceso más potentes, se construyeron los primeros computadores capaces de ejecutar secuencias de instrucciones (programa). Eran caros y muy grandes, restringidos a utilización en grandes proyectos gubernamentales de investigación.

Con el transistor se pudieron construir ordenadores asequibles para grandes empresas. En esta línea podemos destacar el primer computador de oficina o computador personal, el “Programma” de Olivetti.

La verdadera revolución se produjo en la miniaturización de los componentes. Poco después de inventar el transistor, Shockley creó su propia empresa para producirlos masivamente, pero no tubo mucho éxito. Ocho ingenieros de su empresa se cansaron de él y fundaron Fairchild Semiconductor y comenzaron a producir transistores de silicio (lo habitual era el germanio). Al poco fueron capaces de producir varios transistores interconectados en la misma base (chip), considerándose a Robert Noyce (Fairchild) como el inventor del circuito integrado, junto a Jack Kilby, de Texas Instruments, que había desarrollado un circuito integrado de germanio pocos meses antes.

Tras varios años de éxito, muchos de los fundadores de Fairchild abandonaron la compañía y destacamos a Robert Noyce de nuevo y Gordon Moore que entre otros fundaron la compañía INTEL.

Por aquel entonces, Intel recibió el encargo de la compañía japonesa Busicom de un circuito para una calculadora. El ingeniero Ted Hoff fue el encargado del proyecto y considero que podría utilizar la arquitectura de un computador para ello. Lo importante fue que integró todos los módulos de la unidad central de proceso de un ordenador en un solo circuito integrado. Con la idea de Ted Hoff, Intel encargó a Federico Faggin (procedente de Olivetti) el diseño de un microprocesador de propósito general en un solo chip, el Intel 4004 (año 1.971). Destacaremos este momento como merecedor de un monolito en la historia del hombre.

Desde entonces los microprocesadores han disminuido de tamaño y aumentando de potencia. Siguiendo la ley de Moore precisamente, el cofundador de Intel, que dice que cada dos años se duplicará el numero de transistores de un microprocesador. Se utilizan prácticamente en todos los dispositivos electrónicos, electrodomésticos, coches, aviones, etc. nada funcionaría sin ellos. La ley de Moore ya no se cumple estrictamente, puede que estemos llegando al limite de esta tecnología y sea necesaria una nueva generación de ordenadores que tengan que ser creados por otros ingenieros y científicos, los ordenadores cuánticos quizás, estamos en sus manos.

 

También te puede interesar

  • Esos locos científicosEsos locos científicos Desde hace miles de años los filósofos griegos ya pensaban que la materia estaba compuesta por partículas indivisibles
  • Ondas gravitacionalesOndas gravitacionales Las ondas son fenómenos naturales, que entre otras muchas cosas nos permiten escuchar o contemplar lo que nos rodea. Las hay de muchísimos tipos, ondas sonoras, electromagnéticas, sobre la […]
  • El Péndulo de FoucaultEl Péndulo de Foucault Además de la novela de Umberto Eco, el Péndulo de Foucault es el famoso experimento del científico francés en el que colgó una bala de cañón con un cable desde la cúpula del Panteón de […]
  • El Universo elegante. Teoría del todoEl Universo elegante. Teoría del todo Desde los antiguos filósofos hasta los científicos actuales , siempre se ha intentado buscar la ecuación que lo explique todo