Los datos se pueden definir como una representación de hechos, conceptos o instrucciones de manera formal, que debe ser adecuada para la comunicación, interpretación o procesamiento por máquina humana o electrónica.
Los datos se representan con la ayuda de caracteres como alfabetos (A-Z, A-Z), dígitos (0-9) o caracteres especiales (+,-,/,*, <,>, = etc.)
La información se organiza o se clasifican datos, que tienen algunos valores significativos para el receptor. La información son los datos procesados en qué decisiones y acciones se basan.
Para que la decisión sea significativa, los datos procesados deben calificar para las siguientes características –
Oportuna: la información debe estar disponible cuando sea necesario.
El procesamiento de datos es la reestructuración o reordenamiento de datos por parte de personas o máquina para aumentar su utilidad y agregar valores para un propósito particular. El procesamiento de datos consta de los siguientes pasos básicos: entrada, procesamiento y salida. Estos tres pasos constituyen el ciclo de procesamiento de datos.
Entrada: en este paso, los datos de entrada se preparan en alguna forma conveniente para el procesamiento. El formulario dependerá de la máquina de procesamiento. Por ejemplo, cuando se utilizan computadoras electrónicas, los datos de entrada se pueden registrar en cualquiera de los diversos tipos de medio de entrada, como discos magnéticos, cintas, etc.
Procesamiento – En este paso, los datos de entrada se cambian para producir datos en una forma más útil. Por ejemplo, las verificaciones de pago se pueden calcular a partir de las tarjetas de tiempo, o se puede calcular un resumen de ventas para el mes a partir de las órdenes de ventas.
¿Qué son los datos según la informática?
El término dado se deriva del «dato» latino, que literalmente significa «hecho» y es un valor en bruto insertado en el contexto y equipado con significado sobre la base de la cual es posible obtener información.
El procesamiento de múltiples datos permite obtener una o más información, que a su vez solía alcanzar otros fines, como tomar decisiones.
Por ejemplo, los datos numéricos 20 no tienen significado solo, pero adquiere uno si está asociado con el factor de «edad».
En él, el conjunto de datos múltiples se mantiene dentro de archivos o bases de datos, o bases de datos.
Los datos generalmente se almacenan en dispositivos de hardware especiales y organizados dentro de los archivos de la computadora. Estar fácilmente disponible y elaborado.
Los datos se pueden dividir en diferentes categorías:
– Datos complejos: consisten en múltiples datos simples;
– Datos digitales: son cantidades que toman valores dentro de un conjunto de tamaño discreto; Un ejemplo de datos digitales puede ser el bit, que puede tomar el valor binario «0» o el valor binario «1»;
– Datos analógicos: son cantidades que toman valores en un conjunto continuo, como el voltaje medido por un voltómetro eléctrico o las señales eléctricas producidas por las ondas de sonido de un sonido.
Se define el resultado derivado de la interpretación de un conjunto de datos destinado a abrir un aumento en el conocimiento de un sujeto.
¿Cuáles son los tipos de datos en informática?
La preocupación fundamental de la informática es determinar lo que puede y no se puede automatizar. [7] [8] [9] [10] [11] El premio Turing generalmente se reconoce como la mayor distinción en la informática. [12] [13]
Los primeros cimientos de lo que se convertirían en informática es anterior a la invención de la computadora digital moderna. Las máquinas para calcular tareas numéricas fijas, como el ábaco, han existido desde la antigüedad, ayudando en cálculos como la multiplicación y la división. Los algoritmos para realizar cálculos han existido desde la antigüedad, incluso antes del desarrollo de equipos informáticos sofisticados. [16]
Wilhelm Schickard diseñó y construyó la primera calculadora mecánica de trabajo en 1623. [17] En 1673, Gottfried Leibniz demostró una calculadora mecánica digital, llamada Reckoner Stepped. [18] Leibniz puede considerarse el primer científico informático y teórico de la información, debido a varias razones, incluido el hecho de que documentó el sistema de números binarios. En 1820, Thomas de Colmar lanzó la industria de la calculadora mecánica [Nota 1] cuando inventó su aritmómetro simplificado, la primera máquina calculadora lo suficientemente fuerte y lo suficientemente confiable como para usarse diariamente en un entorno de oficina. Charles Babbage comenzó el diseño de la primera calculadora mecánica automática, su motor de diferencia, en 1822, que finalmente le dio la idea de la primera calculadora mecánica programable, su motor analítico. [19] Comenzó a desarrollar esta máquina en 1834, y «en menos de dos años, había dibujado muchas de las características sobresalientes de la computadora moderna». [20] «A crucial step was the adoption of a punched card system derived from the Jacquard loom»[20] making it infinitely programmable.[note 2] In 1843, during the translation of a French article on the Analytical Engine, Ada Lovelace wrote, in Una de las muchas notas que incluyó, un algoritmo para calcular los números de Bernoulli, que se considera el primer algoritmo publicado jamás diseñado específicamente para la implementación en una computadora. [21] Alrededor de 1885, Herman Hollerith inventó el tabulador, que usaba tarjetas perforadas para procesar información estadística; Finalmente, su compañía se convirtió en parte de IBM. Después de Babbage, aunque desconoce su trabajo anterior, Percy Ludgate en 1909 publicó [22] el segundo de los únicos dos diseños para motores analíticos mecánicos en la historia. En 1937, cien años después del sueño imposible de Babbage, Howard Aiken convenció a IBM, que estaba haciendo todo tipo de equipos de tarjeta perforados y también estaba en el negocio de la calculadora [23] para desarrollar su calculadora programable gigante, la ASCC/Harvard Mark I, basada en, basado en en el motor analítico de Babbage, que usaba tarjetas y una unidad informática central. Cuando se terminó la máquina, algunos la aclamaron como «el sueño de Babbage se hizo realidad». [24]
Durante la década de 1940, con el desarrollo de máquinas informáticas nuevas y más potentes como la computadora Atanasoff -Berry y ENIAC, el término computadora se refería a las máquinas en lugar de a sus predecesores humanos. [25] Como quedó claro que las computadoras podrían usarse para algo más que cálculos matemáticos, el campo de la informática se amplió para estudiar el cálculo en general. En 1945, IBM fundó el Laboratorio de Computación Científica de Watson en la Universidad de Columbia en la ciudad de Nueva York. La casa de fraternidad renovada en el lado oeste de Manhattan fue el primer laboratorio de IBM dedicado a la ciencia pura. El laboratorio es el precursor de la División de Investigación de IBM, que hoy opera instalaciones de investigación en todo el mundo. [26] En última instancia, la estrecha relación entre IBM y la Universidad de Columbia fue instrumental en el surgimiento de una nueva disciplina científica, con Columbia ofreciendo uno de los primeros cursos de crédito académico en ciencias de la computación en 1946. [27] La informática comenzó a establecerse como una disciplina académica distinta en la década de 1950 y principios de la década de 1960. [28] [29] El primer programa de título de informática del mundo, el Diploma de Cambridge en Ciencias de la Computación, comenzó en el Laboratorio de la Universidad de Cambridgecomputer en 1953. El primer departamento de informática en los Estados Unidos se formó en la Universidad de Purdue en 1962. [30] Como las computadoras prácticas estuvieron disponibles, muchas aplicaciones de informática se han convertido en áreas distintas de estudio en sus propios derechos.
Aunque se propuso por primera vez en 1956, [31] el término «informática» aparece en un artículo de 1959 en Comunicaciones de la ACM, [32]
en el que Louis Fein aboga por la creación de una escuela de posgrado en ciencias de la computadora análoga a la creación de Harvard Business School en 1921. [33] Louis justifica el nombre argumentando que, al igual que la ciencia de la gestión, el tema se aplica y de la naturaleza interdisciplinaria, al tiempo que tiene las características típicas de una disciplina académica. [32]
Sus esfuerzos, y los de otros, como el analista numérico, el Gorsythe, fueron recompensados: las universidades crearon tales departamentos, comenzando con Purdue en 1962. [34] A pesar de su nombre, una cantidad significativa de informática no involucra el estudio de las computadoras mismas. Debido a esto, se han propuesto varios nombres alternativos. [35] Ciertos departamentos de las principales universidades prefieren el término ciencia de la computación, para enfatizar con precisión esa diferencia. El científico danés Peter Naur sugirió el término data de datos, [36] para reflejar el hecho de que la disciplina científica gira en torno al tratamiento de datos y datos, aunque no necesariamente involucra computadoras. La primera institución científica que usó el término fue el Departamento de Datos de DataTía de la Universidad de Copenhague, fundada en 1969, con Peter Naur el primer profesor en la data de datos. El término se utiliza principalmente en los países escandinavos. Un término alternativo, también propuesto por Naur, es Data Science; Esto ahora se utiliza para un campo multidisciplinario de análisis de datos, incluidas estadísticas y bases de datos.
Artículos Relacionados:
- Qué es la información en base de datos y cómo se puede utilizar para mejorar los resultados de marketing
- ¿Qué son los datos?
- ¿Cuál es la diferencia entre información y datos?
- La información: qué es, cómo se produce y cómo se gestiona
- Servicio de optimización de datos para mejorar el rendimiento de tu sitio web
