Informática | historia, concepto, ¿Cómo funciona? - TuInfoTecno

Tecnología
"Gestión de procesos digitales a través de la computación"


La informática es el proceso de utilizar la tecnología informática para completar una determinada tarea orientada a un objetivo. La computación puede abarcar el diseño y desarrollo de sistemas de software y hardware para una amplia gama de propósitos, a menudo para estructurar, procesar y administrar cualquier tipo de información, para ayudar en la búsqueda de estudios científicos, crear sistemas inteligentes y crear y usar diferentes medios para entretenimiento y comunicación.

La informática también se ha definido como una rama de la ciencia de la ingeniería que se ocupa del estudio sistemático de los procesos algorítmicos, que se utilizan para describir y transformar información.

También tiene significados específicos según el contexto y el campo en el que se utiliza. Algunos ejemplos para entender bien el concepto son la computación en la nube, social, ubicua, en paralelo y la en cuadrícula, caen de forma general en el significado de computación de computación, es decir, son acciones que están dentro del concepto, aunque aún tienen un propósito específico y una definición separada una de la otra. Esencialmente, estas son diferentes aplicaciones de la computación.

No obstante, no importa como ésta se encuentra definida, lo que realmente encierra es una pregunta fundamental ¿Qué estructurarías, procesarías, administrarías o automatizarías a partir de la computación?
 

Sinopsis de la historia

Sus orígenes se encuentran en los antiguos filósofos griegos y sus famosos algoritmos o calculadoras mecánicas del siglo XVII y máquinas programables del siglo XIX. Gracias a este impulso, a primera mitad del siglo XX vio avances en la tecnología necesaria para crear las primeras computadoras. Estos avances, incluidos los tubos de vacío, las puertas lógicas y los primeros circuitos, abrieron un campo de conocimiento que transformó rápidamente todos los demás campos y cambió la forma en que las personas pensaban sobre el trabajo. 

La investigación algorítmica de figuras como el matemático británico Alan Turing (1912-1954) también fue importante durante las tres primeras décadas del siglo, Turing estableció que "se pueden resolver todos los problemas o ejercicios matemáticos que pueden expresarse mediante un algoritmo". Durante la Segunda Guerra Mundial, se desarrollaron las primeras computadoras automatizadas para descifrar los códigos militares enemigos, pues la necesidad de desarrollar tecnologías cada vez más imbatibles para los enemigos los obligaba a innovar.

Surgieron nuevas tecnologías como transistores, semiconductores y dispositivos de almacenamiento de información. Así, la primera computadora automática totalmente programable se llamó Z3, construida en 1941, poco tiempo después en 1944 la Universidad de Harvard de los Estados Unidos, desarrolló la primera máquina electromecánica, nombrada ‘Mark I’. La primera computadora fue creada en la universidad de Pensilvania, su tamaño era exorbitante, ocupaba el tamaño de una habitación promedio, se conoció como ‘Proyecto PX’, aunque finalmente se le llamó proyecto ENIAC (Computador e Integrador Numérico Electrónico), se diseñó y construyó entre 1943 y 1945. Desde entonces, los sistemas informáticos han seguido evolucionando.

Primera computadora del mundo, llamada proyecto ENIAC o Proyecto PX
"Proyecto PX o proyecto ENIAC"

Esta es la primera de varias generaciones de sistemas informáticos cada vez más compactos y potentes. En las décadas de 1950 y 1960, se establecieron las primeras escuelas de informática en las universidades y nació una fuerte industria informática. 

¿Cómo funciona esta tecnología? 


El objetivo final de computar, almacenar y recuperar información es uno de los mayores desafíos que enfrenta la humanidad desde el principio de los tiempos. En este sentido, el sistema de almacenamiento primario es un sistema de escritura, que codifica información y puede recuperarse marcando su superficie. 

La tecnología de la información se toma en serio este principio y crea sistemas y dispositivos que almacenan, crean, transmiten y reproducen información de manera eficiente y rápida a escala. No es por nada que hoy en día la informática interfiere de alguna manera con la mayoría de las otras áreas del conocimiento.

Publicar un comentario

0 Comentarios

advertise