Want to create interactive content? It’s easy in Genially!

Get started free

Presentación Décadas

Kuromi Moon

Created on September 7, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Higher Education Presentation

Psychedelic Presentation

Vaporwave presentation

Geniaflix Presentation

Vintage Mosaic Presentation

Modern Zen Presentation

Newspaper Presentation

Transcript

Linea del tiempo de la

Historia de los Datos

Fatima Sanchez Dominguez

09 de septiembre del 2024

Introduccion a la Ciencia De Datos Prof: Jaime A. Romero Sierra

Nota:

El icono de i muesta mas informacion acerca del tema, asi que haga clic y podra visualizar mas información.

INTRODUCCION

La ciencia de datos es una disciplina que ha evolucionado significativamente a traves de los siglos, desde sus origenes en la estadistica y las matematicas, hasta su transformacion e influencia en las nuevas areas y tecnologias en la actualidad. La ciencia de datos o el analisis de datos ha permitido a cientificos y matematicos desarrollar nuevos conceptos y herramientas que han revolucionado la forma en la que vemos y entendemos las cosas. Esta linea del tiempo destaca los hechos mas importantes de la evolucion de la ciencia y analisis de datos, abarcando desde los primeros registros de datos hasta la colaboracion de la Inteligencia Artificial con la humanidad.

Intrdoduccion

3000 a.C.

3000a.C

Primeros regsitros de datos

Los sumerios fueron quienes desarrollaron la escritura cuneiforme, fue una de las primeras formas de regsitrar datos.

3050 a.C.

Antigua Egipto

En la antigua Egipto, se utilizaban censos y registros para recopilar información sobre la población, la tierra y la producción. El Faraón ordenó realizar un censo en el año 3050 a.C., lo que muestra la importancia que se le daba a la recopilación y análisis de datos en la sociedad egipcia.

1620

Metodo Cientifico

1600

En 1620, Francis Bacon propone el método científico en su obra 'Novum Organum', estableciendo los principios para la investigación empírica y la recopilación de datos como fundamentos esenciales para el avance del conocimiento.

1663

Estadistica como precursora

En 1663, John Graunt publica 'Natural and Political Observations Made upon the Bills of Mortality', considerado uno de los primeros trabajos en estadística y demografía, sentando las bases para el desarrollo posterior de la ciencia de datos.

1700-1941

1700-1941

Primeras computadoras

1700

Teorema de Bayes- 1763

1837

Teorema del limite central-1733

Maquina Analitica de Babbage-1837

Maquina tabuladora para procesar datos - 1890

Primer algoritmo a ser procesado-1843

Maquina de Turing - 1936

1936

1941

Primera computadora electromagentica programable- 1941

Primer ordenador electronico digital - 1937

Ingieneria de sistemas - 1940

1940

1943-1944

1945

ENIAC

FORTRAN

La computadora ENIAC es completada, considerada una de las primeras computadoras electronicas de proposito general.

Se desarrolla el primer lenguaje de programacion de alto nivel, FORTRAN, para simplificar la programacion

1956

1950

Desarrollo de la inteligencia artificial

El informático John McCarthy acuña por primera vez el término Inteligencia Artificial durante la conferencia de Darmouth de 1956, considerada el germen de la disciplina.

1959

Aparicion del Machine Learning

En 1959, Arthur Samuel acuña el término 'Machine Learning', describiendo la capacidad de las máquinas para aprender patrones a partir de datos y mejorar su desempeño sin una programación explícita, sentando las bases para el desarrollo de algoritmos de aprendizaje automático.

1960-1970

1962

John W. Tukey introduce el término "Análisis de Datos"

1965

Gordon Moore formula la "Ley de Moore"

1970

Edgar F. Codd presenta el modelo relacional de la base de datos

1970-1990

1974

Peter Naur utiliza el término “Ciencia de Datos” en su libro "Concise Survey of Computer Methods"

1989

Gregory Piatetsky-Shapiro organiza el primer taller de “Conocimiento a partir de Bases de Datos” (KDD) en la IJCAI1.

1990

Data Mining

1991

Creación de Python para análisis de datos

1993

Desarrollo de R para estadística

1990

1996

Conferencia bienal

1999

Internet de las cosas

2000

2001

Publicacion de "Ciencias De Datos"

2000

Auge del BigData

2004

2006

Amazon Web Services (AWS) se lanza popularizando la computacion en la nube.

Se populariza el termino "Web 2.0"

2007

2008

El informe final del estudio

2000

Centro de Investigación de Dataology y Data Science

2009

"Aprovechando el poder de los datos digitales para la ciencia y la sociedad"

2010's

2010

2010

2012

Data, Data Everywhere- 2010

Explosión de la demanda de científicos de datos-2010

Akka DistBelief -2011

PrestoDB 2012-2013

Lenguaje de programacion Julia -2012

2014

2019

Lanzamiento de TensorFlow - 2015

Se publica el libro “Data Science for Business” por Foster Provost y Tom Fawcet-2019

Se publica el primer informe anual de “State of Data Science & Machine Learning” por Kaggle"-2016

2020

La pandemia de COVID-19 destaca la importancia de la ciencia de datos en la modelización y predicción de brotes

20XX

2021

Se lanza el modelo GPT-3 de OpenAI, uno de los modelos de lenguaje más avanzados

2022

Se publica el informe “AI Index Report” destacando los avances en inteligencia artificial y ciencia de datos.

2023

20XX

Se lanza el modelo DALL-E 2 de OpenAI, capaz de generar imágenes a partir de descripciones textuales

2024

Scalable AI El uso de la IA a escala ha ido más allá de las empresas nativas digitales a diversos sectores, como la fabricación, las finanzas y la sanidad.

2024

Se espera que la ciencia de datos siga evolucionando a traves de los años

Conclusión

Conclusión

Podemos concluir que los datos han tenido un avance bastante importante a traves de los años, tambien nos podemos dar cuenta del gran impacto que tuvo y tiene esta ciencia, permitiendo a grandes investigadores desarrollar nuevos conceptos, y hacernos ver como es que funciona el mundo de una manera diferente, las ciencias de datos aun siguen en desarrollo, esto quiere decir que se espera que sigan evolucionando de manera continua, repercutiendo de manera relevante en el analisis de los datos, ofrencindo nuevas herramientas y tecnologias para este.

  • https://lahistoria.info/historia-de-la-estadistica-linea-del-tiempo/
  • https://datascientest.com/es/fortran-todo-sobre-el-primer-lenguaje-de-programacion
  • https://culturacientifica.com/2015/06/09/de-la-maquina-analitica-al-pc-en-10-pasos/
  • https://www.preceden.com/
  • https://www.nationalgeographic.com.es/ciencia/breve-historia-visual-inteligencia-artificial_14419
  • https://www.iberdrola.com/innovacion/machine-learning-aprendizaje-automatico#:~:text=Este%20aprendizaje%20permite%20a%20los,al%20boom%20de%20los%20datos.
  • https://ayudaleyprotecciondatos.es/2021/03/11/mineria-datos-data-minig/
  • https://www.aluracursos.com/blog/que-es-python-historia-guia-para-iniciar#:~:text=En%20cuanto%20al%20origen%20de,)%2C%20en%20los%20Pa%C3%ADses%20Bajos.
  • https://culturapedia.com/2020/05/23/internet-de-las-cosas-una-tecnologia-para-el-siglo-xxi/
  • https://www.dynamicgc.es/historia-del-big-data/ https://concepto.de/web-2-0/
  • https://es.wikipedia.org/wiki/Amazon_Web_Services
  • https://es.wikipedia.org/wiki/Julia_(lenguaje_de_programaci%C3%B3n)
  • https://aws.amazon.com/es/what-is/presto/ https://gamco.es/glosario/tensorflow/
  • https://www.kaggle.com/datasets/santiagodelrey/isic-2016-task-1-training-data
  • https://isdfundacion.org/2021/07/02/el-origen-y-evolucion-de-la-ciencia-de-datos-data-science/
  • https://pcweb.info/historia-del-data-science-la-ciencia-de-datos/#2008
  • https://view.genially.com/640eb40620a86c00134aab5c/interactive-content-linea-del-tiempo-de-ciencia-de-datos

Referencias

muchas

GRACIAS :)

1993

Lenguaje R

Surge el lenguaje de programación R Fue desarrollado inicialmente por Robert Gentleman y Ross Ihaka del Departamento de Estadística de la Universidad de Auckland en 1993. El lenguaje de programación R es una implementación del lenguaje de programación S. También se combina con la semántica de alcance léxico inspirada en Scheme. Sin embargo, además de ser un lenguaje de programación, es un conjunto de programas integrados para el manejo de datos, simulaciones, cálculos y realización de gráficos.

Primer algoritmo a ser procesado

En 1843 Ada lovelace escribe el primer algoritmo destinado a ser procesado por una maquina, convirtiendose en la primera programadora.

Z3

En 1941, Konrad Zuse, un pionero alemán en la informática, creó la Z3, la primera computadora electromagnética programable del mundo. Esta máquina utilizaba relés electromagnéticos para realizar cálculos complejos y contaba con una capacidad de almacenamiento de programas mediante tarjetas perforadas.

2006

Lanzamiento de amazon web service

AWS se lanzó oficialmente en 2006, ofreciendo servicios de computación en la nube para desarrolladores y empresas. El primer servicio público de AWS fue el Simple Queue Service (SQS), lanzado en noviembre de 2004, seguido por Amazon Elastic Compute Cloud (EC2) en 2006

2000

Auge del BigData

La historia del Big Data no tiene una fecha concreta de creación, sino que, con el desarrollo y progreso de aplicaciones y tecnologías, ha ido dando forma y se ha ido adaptando hasta lo que hoy en día conocemos.En la década de los años 2000 surgen empresas que generan y almacenan de forma segura grandes cantidades de datos concretamente para dar facilidades a las empresas. El auge del Big Data a partir del año 2000 impulsa el desarrollo de la ciencia de datos al enfrentar el desafío de manejar y analizar enormes volúmenes de información generada por diferentes fuentes

Maquina de Turing

En 1936 Alan Turing publicaba un trabajo en el que analizaba lo que significaba para un humano seguir un conjunto de instrucciones. Como consecuencia de este análisis crea el concepto de «máquina universal» (máquina de Turing universal) capaz de interpretar y seguir cualquier conjunto de instrucciones. Diez años después transformaría esta idea en un plan práctico para la construcción de un ordenador electrónico capaz de ejecutar cualquier programa.

Teorema del limite central

En 1733, Abraham de Moivre formula el teorema del límite central, un resultado crucial en estadística que establece la convergencia de la distribución de la suma de variables aleatorias a una distribución normal, fundamentando técnicas de inferencia estadística.

Teorema de Bayes

En 1763, Thomas Bayes desarrolla el teorema que lleva su nombre, un principio fundamental en estadística que establece cómo actualizar creencias probabilísticas en función de la evidencia observada, sentando las bases para el análisis bayesiano en la ciencia de datos.

El internet de las cosas

En la década de 1970 se comenzó a especular con una tecnología de estas características, pero no fue hasta 1999 cuando Kevin Ashton, considerado el padre del internet de las cosas, desarrolló esta nueva tecnología. El término no se popularizó hasta 2010, cuando salió a la luz que Google utilizó sus servicios de Street View para obtener datos de Wifis particulares.

1989

Primer taller de "Descubrimiento del conocimiento en bases de datos"

Gregory Piatetsky-Shapiro organiza y preside el primer taller de Descubrimiento del conocimiento en bases de datos (KDD). En 1995 , se convirtió en la Conferencia anual ACM SIGKDD sobre Descubrimiento del Conocimiento y Minería de Datos (KDD).

Maquina tabuladora

Herman Hollerith

La máquina tabuladora es un invento de Herman Hollerith, diseñado en su inicio para el procesamiento de datos del censo de 1890 en Estados Unidos, pero luego fue utilizada en la contabilidad y otros campos profesionales ampliando su margen de acción. piscing elit, sed do eiusmod tempor incididunt.

1996

Miembros de la Federación Internacional de Sociedades de Clasificación (IFCS) se reúnen en Kobe, Japón.

Por primera vez, el término “ciencia de datos” se incluye en el título de la conferencia (“Ciencia de datos, clasificación y métodos relacionados”). Dato interesante: El IFCS, fue fundado en 1985 por seis sociedades de clasificación específicas de cada país e idioma, una de las cuales, The Classification Society , la cual fue fundada en 1964.

2008

El informe final del estudio

El JISC publica el informe final de un estudio que se encargó de “examinar y hacer recomendaciones sobre la función y el desarrollo profesional de los científicos de datos y el suministro asociado de habilidades especializadas en curación de datos para la comunidad de investigación.

Mineria de datos

En la década de 1990, el término “Data Mining” comenzó a popularizarse en la comunidad de bases de datos. Aunque los conceptos y técnicas relacionadas con la exploración de datos y la extracción de conocimientos ya existían desde la década de 1980, fue en la década de 1990 que se consolidó el término y se desarrollaron los primeros algoritmos y herramientas para la minería de datos.

Maquina analitica de Babbage

En 1837, Charles Babbage diseña la 'Máquina Analítica', considerada la primera computadora programable, sentando las bases para el procesamiento automático de datos y el surgimiento de la informática como disciplina

2001

Publicacion de "ciencia de datos"

En 2001, William S. Cleveland publica “Ciencia de Datos: un plan de acción para expandir las áreas técnicas del campo de la estadística”. Se trata de un escrito destinado a ampliar las áreas principales de trabajo del campo de las estadísticas. En su artículo pretendía introducir la ciencia de datos como una disciplina independiente, extendiendo el campo de la estadística para incluir los avances en computación. Estableció seis áreas que conformarían el campo: investigaciones multidisciplinarias, modelos y métodos para datos, computación de datos, pedagogía, evaluación de herramientas y teoría.

Ley de Moore

En 1965, el cofundador de Intel, Gordon Moore, predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el costo1. Esta predicción se conoció como la Ley de Moore y se representa en la Figura 1. Cuantos más transistores o componentes haya en un dispositivo, el costo por dispositivo se reduce mientras que el rendimiento por dispositivo aumenta.

Modelo relacional de los datos

El modelo relacional, para el modelado y la gestión de bases de datos, es un modelo de datos basado en la lógica de predicados y en la teoría de conjuntos. Tras ser postuladas sus bases en 1970 por Edgar Frank Codd, de los laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma en los modelos de base de datos.

Atanasoff-Berry Computer

El Atanasoff-Berry Computer (ABC), construido entre 1937 y 1942 por John V. Atanasoff y Clifford Berry, es a menudo citado como el primer ordenador digital. Sin embargo, su desarrollo y operatividad están sujetos a debate y no se considera un ordenador electrónico en el sentido moderno.

John W. Tukey en "El futuro del analisis de datos"

La Ciencia de Datos tiene su origen en el año 1962, cuando el estadístico estadounidense John W. Tukey, conocido por el desarrollo de complejos algoritmos y el famoso diagrama de caja y bigotes (Box Plot), escribe y se cuestiona el futuro de la estadística como ciencia empírica. Escribiría así en El futuro del análisis de datos (1962): «Durante mucho tiempo pensé que era un estadístico interesado en inferencias de lo particular a lo general. Pero a medida que observé la evolución de las estadísticas matemáticas, tuve motivos para preguntarme y dudar […] Llegué a sentir que mi interés central está en el análisis de datos… El análisis de datos, y las partes de las estadísticas que se adhieren a él, deben […] asumir las características de la ciencia en lugar de las matemáticas […] el análisis de datos es intrínsecamente una ciencia empírica».

Ingieneria en sistemas

En la década de 1940, la ingeniería de sistemas comienza a integrar conceptos de gestión, modelado y análisis de datos para diseñar sistemas complejos, sentando las bases para la aplicación de métodos cuantitativos en la toma de decisiones

2004

termino de web 2.0

El término se originó en 2004, producto de la conferencia de Tim O’Reilly sobre el futuro de Internet, y juega con la denominación usual para los programas informáticos (1.0, 1.1., 1.2, 2.0, etc.) a medida que se actualizan y mejoran. Sin embargo, no se refiere realmente a una mejoría técnica de la red, como a una manera distinta de entenderla.

2007

Centro de Investigación de Dataology y Data Science

Se establece el Centro de Investigación de Dataology y Data Science en la Universidad de Fudan, Shanghai, China. En 2009, dos de los investigadores del centro, Yangyong Zhu y Yun Xiong, publicaron “Introducción a la Dataología y la Ciencia de los Datos”, en el que afirman “Diferente de las ciencias naturales y sociales, la Dataología y la Ciencia de los Datos toman los datos en el ciberespacio como objeto de investigación. . Es una ciencia nueva ”. El centro celebra simposios anuales sobre Dataología y Ciencia de Datos.

Origen de Pynthon

En cuanto al origen de Python, fue desarrollado inicialmente a fines de la década de 1980 por el programador holandés Guido van Rossum, y su primera versión fue lanzada en 1991 en Centrum Wiskunde & Informatica - CWI (Instituto Nacional de Investigación en Matemáticas y Ciencias de la Computación), en los Países Bajos.

1974

El libro "Concise Survey of Computer Methods" galardonado Turing-award

En 1974 el científico danés, Peter Naur, utilizó por primera vez el concepto de “data science” en su libro “Concise Survey of Computer Methods”. A partir de su publicación, el concepto comenzó a estudiarse y utilizarse más abiertamente en el entorno académico.

2010 Data, Data Everywhere

En 2010 Kenneth Cukier escribe en The Economist Special Report “Data, Data Everywhere” donde expresa su opinión acerca de ese nuevo tipo de profesional, el científico de datos. Una figura que debe combinar las habilidades de programador de software y estadístico, capaz de analizar y encontrar datos interesantes en bases de datos extensas.

2009

Aprovechando el poder de los datos digitales para la ciencia y la sociedad

Se publica "Aprovechando el poder de los datos digitales para la ciencia y la sociedad". Este informe del Grupo de Trabajo Interagencial sobre Datos Digitales al Comité de Ciencia del Consejo Nacional de Ciencia y Tecnología declara que “La nación necesita identificar y promover la aparición de nuevas disciplinas y especialistas expertos en abordar los desafíos complejos y dinámicos de la preservación digital , acceso sostenido, reutilización y reutilización de datos...”.

2010

Explosion de la demanda de cientificos de datos

A partir de 2010, la explosión de la demanda de científicos de datos impulsa la profesionalización de la disciplina y la necesidad de habilidades en análisis de datos, programación y visualización.

2011

Akka DistBelief

Google Brain construyó DistBelief como un sistema propietario de aprendizaje automático, basado en redes neuronales de aprendizaje profundo. Su uso creció rápidamente a través de diversas compañías de Alphabet tanto en investigación como en aplicaciones comerciales. DistBelief es un marco para entrenar redes neuronales profundas con un grupo de máquinas en lugar de GPU. El principal algoritmo usado es Downpour SGD en el que múltiples réplicas del modelo de red neuronal están entrenadas en paralelo.

Julia, lenguaje de programacion

Julia se inició en el año 2009, por Jeff Bezanson, Stefan Karpinski, Viral B. Shah y Alan Edelman, quienes se propusieron crear un lenguaje libre que fuera rápido y de alto nivel. El 14 de febrero de 2012, el equipo lanzó un sitio web que explica por qué fue creado el lenguaje.​ En una entrevista con InfoWorld en abril de 2012, Karpinski dijo sobre el nombre «Julia»: «En realidad, no hay una buena razón. Parecía un nombre bonito». Bezanson dijo que eligió el nombre por recomendación de un amigo

PrestoDB

En 2012, el grupo de infraestructura de datos de Facebook creó Presto, un sistema de consultas interactivas que podía funcionar rápidamente a escala de petabytes. Se lanzó en toda la empresa en la primavera de 2013. En noviembre de 2013, Facebook abrió el código de Presto bajo la licencia de software Apache y lo puso a disposición para que cualquiera pudiera descargarlo en Github.

TensorFlow

TensorFlow es una biblioteca de software de código abierto para la programación de redes neuronales y el aprendizaje automático. Fue desarrollada por Google Brain Team y se lanzó al público en 2015.

2016 Primer informe de State of Data Science and Machine Learning”

El primer informe “State of Data Science and Machine Learning” de Kaggle, publicado en 2016, proporcionó una visión general del estado de la ciencia de datos y el aprendizaje automático en ese momento. Este informe se basó en una encuesta realizada a la comunidad de Kaggle y cubrió varios temas clave

Data Science for Business

En 2019 se publica el libro “Data Science for Business” por Foster Provost y Tom en su libro Data Science for Business introducen los principales fundamentos de la ciencia de datos y guían al lector a través de “pensamiento analítico de datos” necesario para extraer conocimiento útil y valor comercial de los datos que se recopilan. Esta guía también ayuda a los lectores a comprender las técnicas de minería de datos que se utilizan actualmente.