Want to create interactive content? It’s easy in Genially!
Presentación Décadas
Kuromi Moon
Created on September 7, 2024
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Higher Education Presentation
View
Psychedelic Presentation
View
Vaporwave presentation
View
Geniaflix Presentation
View
Vintage Mosaic Presentation
View
Modern Zen Presentation
View
Newspaper Presentation
Transcript
Linea del tiempo de la
Historia de los Datos
Fatima Sanchez Dominguez
09 de septiembre del 2024
Introduccion a la Ciencia De Datos Prof: Jaime A. Romero Sierra
Nota:
El icono de i muesta mas informacion acerca del tema, asi que haga clic y podra visualizar mas información.
INTRODUCCION
La ciencia de datos es una disciplina que ha evolucionado significativamente a traves de los siglos, desde sus origenes en la estadistica y las matematicas, hasta su transformacion e influencia en las nuevas areas y tecnologias en la actualidad. La ciencia de datos o el analisis de datos ha permitido a cientificos y matematicos desarrollar nuevos conceptos y herramientas que han revolucionado la forma en la que vemos y entendemos las cosas. Esta linea del tiempo destaca los hechos mas importantes de la evolucion de la ciencia y analisis de datos, abarcando desde los primeros registros de datos hasta la colaboracion de la Inteligencia Artificial con la humanidad.
Intrdoduccion
3000 a.C.
3000a.C
Primeros regsitros de datos
Los sumerios fueron quienes desarrollaron la escritura cuneiforme, fue una de las primeras formas de regsitrar datos.
3050 a.C.
Antigua Egipto
En la antigua Egipto, se utilizaban censos y registros para recopilar información sobre la población, la tierra y la producción. El Faraón ordenó realizar un censo en el año 3050 a.C., lo que muestra la importancia que se le daba a la recopilación y análisis de datos en la sociedad egipcia.
1620
Metodo Cientifico
1600
En 1620, Francis Bacon propone el método científico en su obra 'Novum Organum', estableciendo los principios para la investigación empírica y la recopilación de datos como fundamentos esenciales para el avance del conocimiento.
1663
Estadistica como precursora
En 1663, John Graunt publica 'Natural and Political Observations Made upon the Bills of Mortality', considerado uno de los primeros trabajos en estadística y demografía, sentando las bases para el desarrollo posterior de la ciencia de datos.
1700-1941
1700-1941
Primeras computadoras
1700
Teorema de Bayes- 1763
1837
Teorema del limite central-1733
Maquina Analitica de Babbage-1837
Maquina tabuladora para procesar datos - 1890
Primer algoritmo a ser procesado-1843
Maquina de Turing - 1936
1936
1941
Primera computadora electromagentica programable- 1941
Primer ordenador electronico digital - 1937
Ingieneria de sistemas - 1940
1940
1943-1944
1945
ENIAC
FORTRAN
La computadora ENIAC es completada, considerada una de las primeras computadoras electronicas de proposito general.
Se desarrolla el primer lenguaje de programacion de alto nivel, FORTRAN, para simplificar la programacion
1956
1950
Desarrollo de la inteligencia artificial
El informático John McCarthy acuña por primera vez el término Inteligencia Artificial durante la conferencia de Darmouth de 1956, considerada el germen de la disciplina.
1959
Aparicion del Machine Learning
En 1959, Arthur Samuel acuña el término 'Machine Learning', describiendo la capacidad de las máquinas para aprender patrones a partir de datos y mejorar su desempeño sin una programación explícita, sentando las bases para el desarrollo de algoritmos de aprendizaje automático.
1960-1970
1962
John W. Tukey introduce el término "Análisis de Datos"
1965
Gordon Moore formula la "Ley de Moore"
1970
Edgar F. Codd presenta el modelo relacional de la base de datos
1970-1990
1974
Peter Naur utiliza el término “Ciencia de Datos” en su libro "Concise Survey of Computer Methods"
1989
Gregory Piatetsky-Shapiro organiza el primer taller de “Conocimiento a partir de Bases de Datos” (KDD) en la IJCAI1.
1990
Data Mining
1991
Creación de Python para análisis de datos
1993
Desarrollo de R para estadística
1990
1996
Conferencia bienal
1999
Internet de las cosas
2000
2001
Publicacion de "Ciencias De Datos"
2000
Auge del BigData
2004
2006
Amazon Web Services (AWS) se lanza popularizando la computacion en la nube.
Se populariza el termino "Web 2.0"
2007
2008
El informe final del estudio
2000
Centro de Investigación de Dataology y Data Science
2009
"Aprovechando el poder de los datos digitales para la ciencia y la sociedad"
2010's
2010
2010
2012
Data, Data Everywhere- 2010
Explosión de la demanda de científicos de datos-2010
Akka DistBelief -2011
PrestoDB 2012-2013
Lenguaje de programacion Julia -2012
2014
2019
Lanzamiento de TensorFlow - 2015
Se publica el libro “Data Science for Business” por Foster Provost y Tom Fawcet-2019
Se publica el primer informe anual de “State of Data Science & Machine Learning” por Kaggle"-2016
2020
La pandemia de COVID-19 destaca la importancia de la ciencia de datos en la modelización y predicción de brotes
20XX
2021
Se lanza el modelo GPT-3 de OpenAI, uno de los modelos de lenguaje más avanzados
2022
Se publica el informe “AI Index Report” destacando los avances en inteligencia artificial y ciencia de datos.
2023
20XX
Se lanza el modelo DALL-E 2 de OpenAI, capaz de generar imágenes a partir de descripciones textuales
2024
Scalable AI El uso de la IA a escala ha ido más allá de las empresas nativas digitales a diversos sectores, como la fabricación, las finanzas y la sanidad.
2024
Se espera que la ciencia de datos siga evolucionando a traves de los años
Conclusión
Conclusión
Podemos concluir que los datos han tenido un avance bastante importante a traves de los años, tambien nos podemos dar cuenta del gran impacto que tuvo y tiene esta ciencia, permitiendo a grandes investigadores desarrollar nuevos conceptos, y hacernos ver como es que funciona el mundo de una manera diferente, las ciencias de datos aun siguen en desarrollo, esto quiere decir que se espera que sigan evolucionando de manera continua, repercutiendo de manera relevante en el analisis de los datos, ofrencindo nuevas herramientas y tecnologias para este.
- https://lahistoria.info/historia-de-la-estadistica-linea-del-tiempo/
- https://datascientest.com/es/fortran-todo-sobre-el-primer-lenguaje-de-programacion
- https://culturacientifica.com/2015/06/09/de-la-maquina-analitica-al-pc-en-10-pasos/
- https://www.preceden.com/
- https://www.nationalgeographic.com.es/ciencia/breve-historia-visual-inteligencia-artificial_14419
- https://www.iberdrola.com/innovacion/machine-learning-aprendizaje-automatico#:~:text=Este%20aprendizaje%20permite%20a%20los,al%20boom%20de%20los%20datos.
- https://ayudaleyprotecciondatos.es/2021/03/11/mineria-datos-data-minig/
- https://www.aluracursos.com/blog/que-es-python-historia-guia-para-iniciar#:~:text=En%20cuanto%20al%20origen%20de,)%2C%20en%20los%20Pa%C3%ADses%20Bajos.
- https://culturapedia.com/2020/05/23/internet-de-las-cosas-una-tecnologia-para-el-siglo-xxi/
- https://www.dynamicgc.es/historia-del-big-data/ https://concepto.de/web-2-0/
- https://es.wikipedia.org/wiki/Amazon_Web_Services
- https://es.wikipedia.org/wiki/Julia_(lenguaje_de_programaci%C3%B3n)
- https://aws.amazon.com/es/what-is/presto/ https://gamco.es/glosario/tensorflow/
- https://www.kaggle.com/datasets/santiagodelrey/isic-2016-task-1-training-data
- https://isdfundacion.org/2021/07/02/el-origen-y-evolucion-de-la-ciencia-de-datos-data-science/
- https://pcweb.info/historia-del-data-science-la-ciencia-de-datos/#2008
- https://view.genially.com/640eb40620a86c00134aab5c/interactive-content-linea-del-tiempo-de-ciencia-de-datos
Referencias
muchas
GRACIAS :)
1993
Lenguaje R
Surge el lenguaje de programación R Fue desarrollado inicialmente por Robert Gentleman y Ross Ihaka del Departamento de Estadística de la Universidad de Auckland en 1993. El lenguaje de programación R es una implementación del lenguaje de programación S. También se combina con la semántica de alcance léxico inspirada en Scheme. Sin embargo, además de ser un lenguaje de programación, es un conjunto de programas integrados para el manejo de datos, simulaciones, cálculos y realización de gráficos.
Primer algoritmo a ser procesado
En 1843 Ada lovelace escribe el primer algoritmo destinado a ser procesado por una maquina, convirtiendose en la primera programadora.
Z3
En 1941, Konrad Zuse, un pionero alemán en la informática, creó la Z3, la primera computadora electromagnética programable del mundo. Esta máquina utilizaba relés electromagnéticos para realizar cálculos complejos y contaba con una capacidad de almacenamiento de programas mediante tarjetas perforadas.
2006
Lanzamiento de amazon web service
AWS se lanzó oficialmente en 2006, ofreciendo servicios de computación en la nube para desarrolladores y empresas. El primer servicio público de AWS fue el Simple Queue Service (SQS), lanzado en noviembre de 2004, seguido por Amazon Elastic Compute Cloud (EC2) en 2006
2000
Auge del BigData
La historia del Big Data no tiene una fecha concreta de creación, sino que, con el desarrollo y progreso de aplicaciones y tecnologías, ha ido dando forma y se ha ido adaptando hasta lo que hoy en día conocemos.En la década de los años 2000 surgen empresas que generan y almacenan de forma segura grandes cantidades de datos concretamente para dar facilidades a las empresas. El auge del Big Data a partir del año 2000 impulsa el desarrollo de la ciencia de datos al enfrentar el desafío de manejar y analizar enormes volúmenes de información generada por diferentes fuentes
Maquina de Turing
En 1936 Alan Turing publicaba un trabajo en el que analizaba lo que significaba para un humano seguir un conjunto de instrucciones. Como consecuencia de este análisis crea el concepto de «máquina universal» (máquina de Turing universal) capaz de interpretar y seguir cualquier conjunto de instrucciones. Diez años después transformaría esta idea en un plan práctico para la construcción de un ordenador electrónico capaz de ejecutar cualquier programa.
Teorema del limite central
En 1733, Abraham de Moivre formula el teorema del límite central, un resultado crucial en estadística que establece la convergencia de la distribución de la suma de variables aleatorias a una distribución normal, fundamentando técnicas de inferencia estadística.
Teorema de Bayes
En 1763, Thomas Bayes desarrolla el teorema que lleva su nombre, un principio fundamental en estadística que establece cómo actualizar creencias probabilísticas en función de la evidencia observada, sentando las bases para el análisis bayesiano en la ciencia de datos.
El internet de las cosas
En la década de 1970 se comenzó a especular con una tecnología de estas características, pero no fue hasta 1999 cuando Kevin Ashton, considerado el padre del internet de las cosas, desarrolló esta nueva tecnología. El término no se popularizó hasta 2010, cuando salió a la luz que Google utilizó sus servicios de Street View para obtener datos de Wifis particulares.
1989
Primer taller de "Descubrimiento del conocimiento en bases de datos"
Gregory Piatetsky-Shapiro organiza y preside el primer taller de Descubrimiento del conocimiento en bases de datos (KDD). En 1995 , se convirtió en la Conferencia anual ACM SIGKDD sobre Descubrimiento del Conocimiento y Minería de Datos (KDD).
Maquina tabuladora
Herman Hollerith
La máquina tabuladora es un invento de Herman Hollerith, diseñado en su inicio para el procesamiento de datos del censo de 1890 en Estados Unidos, pero luego fue utilizada en la contabilidad y otros campos profesionales ampliando su margen de acción. piscing elit, sed do eiusmod tempor incididunt.
1996
Miembros de la Federación Internacional de Sociedades de Clasificación (IFCS) se reúnen en Kobe, Japón.
Por primera vez, el término “ciencia de datos” se incluye en el título de la conferencia (“Ciencia de datos, clasificación y métodos relacionados”). Dato interesante: El IFCS, fue fundado en 1985 por seis sociedades de clasificación específicas de cada país e idioma, una de las cuales, The Classification Society , la cual fue fundada en 1964.
2008
El informe final del estudio
El JISC publica el informe final de un estudio que se encargó de “examinar y hacer recomendaciones sobre la función y el desarrollo profesional de los científicos de datos y el suministro asociado de habilidades especializadas en curación de datos para la comunidad de investigación.
Mineria de datos
En la década de 1990, el término “Data Mining” comenzó a popularizarse en la comunidad de bases de datos. Aunque los conceptos y técnicas relacionadas con la exploración de datos y la extracción de conocimientos ya existían desde la década de 1980, fue en la década de 1990 que se consolidó el término y se desarrollaron los primeros algoritmos y herramientas para la minería de datos.
Maquina analitica de Babbage
En 1837, Charles Babbage diseña la 'Máquina Analítica', considerada la primera computadora programable, sentando las bases para el procesamiento automático de datos y el surgimiento de la informática como disciplina
2001
Publicacion de "ciencia de datos"
En 2001, William S. Cleveland publica “Ciencia de Datos: un plan de acción para expandir las áreas técnicas del campo de la estadística”. Se trata de un escrito destinado a ampliar las áreas principales de trabajo del campo de las estadísticas. En su artículo pretendía introducir la ciencia de datos como una disciplina independiente, extendiendo el campo de la estadística para incluir los avances en computación. Estableció seis áreas que conformarían el campo: investigaciones multidisciplinarias, modelos y métodos para datos, computación de datos, pedagogía, evaluación de herramientas y teoría.
Ley de Moore
En 1965, el cofundador de Intel, Gordon Moore, predijo que el número de transistores en un chip se duplicaría aproximadamente cada dos años, con un aumento mínimo en el costo1. Esta predicción se conoció como la Ley de Moore y se representa en la Figura 1. Cuantos más transistores o componentes haya en un dispositivo, el costo por dispositivo se reduce mientras que el rendimiento por dispositivo aumenta.
Modelo relacional de los datos
El modelo relacional, para el modelado y la gestión de bases de datos, es un modelo de datos basado en la lógica de predicados y en la teoría de conjuntos. Tras ser postuladas sus bases en 1970 por Edgar Frank Codd, de los laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma en los modelos de base de datos.
Atanasoff-Berry Computer
El Atanasoff-Berry Computer (ABC), construido entre 1937 y 1942 por John V. Atanasoff y Clifford Berry, es a menudo citado como el primer ordenador digital. Sin embargo, su desarrollo y operatividad están sujetos a debate y no se considera un ordenador electrónico en el sentido moderno.
John W. Tukey en "El futuro del analisis de datos"
La Ciencia de Datos tiene su origen en el año 1962, cuando el estadístico estadounidense John W. Tukey, conocido por el desarrollo de complejos algoritmos y el famoso diagrama de caja y bigotes (Box Plot), escribe y se cuestiona el futuro de la estadística como ciencia empírica. Escribiría así en El futuro del análisis de datos (1962): «Durante mucho tiempo pensé que era un estadístico interesado en inferencias de lo particular a lo general. Pero a medida que observé la evolución de las estadísticas matemáticas, tuve motivos para preguntarme y dudar […] Llegué a sentir que mi interés central está en el análisis de datos… El análisis de datos, y las partes de las estadísticas que se adhieren a él, deben […] asumir las características de la ciencia en lugar de las matemáticas […] el análisis de datos es intrínsecamente una ciencia empírica».
Ingieneria en sistemas
En la década de 1940, la ingeniería de sistemas comienza a integrar conceptos de gestión, modelado y análisis de datos para diseñar sistemas complejos, sentando las bases para la aplicación de métodos cuantitativos en la toma de decisiones
2004
termino de web 2.0
El término se originó en 2004, producto de la conferencia de Tim O’Reilly sobre el futuro de Internet, y juega con la denominación usual para los programas informáticos (1.0, 1.1., 1.2, 2.0, etc.) a medida que se actualizan y mejoran. Sin embargo, no se refiere realmente a una mejoría técnica de la red, como a una manera distinta de entenderla.
2007
Centro de Investigación de Dataology y Data Science
Se establece el Centro de Investigación de Dataology y Data Science en la Universidad de Fudan, Shanghai, China. En 2009, dos de los investigadores del centro, Yangyong Zhu y Yun Xiong, publicaron “Introducción a la Dataología y la Ciencia de los Datos”, en el que afirman “Diferente de las ciencias naturales y sociales, la Dataología y la Ciencia de los Datos toman los datos en el ciberespacio como objeto de investigación. . Es una ciencia nueva ”. El centro celebra simposios anuales sobre Dataología y Ciencia de Datos.
Origen de Pynthon
En cuanto al origen de Python, fue desarrollado inicialmente a fines de la década de 1980 por el programador holandés Guido van Rossum, y su primera versión fue lanzada en 1991 en Centrum Wiskunde & Informatica - CWI (Instituto Nacional de Investigación en Matemáticas y Ciencias de la Computación), en los Países Bajos.
1974
El libro "Concise Survey of Computer Methods" galardonado Turing-award
En 1974 el científico danés, Peter Naur, utilizó por primera vez el concepto de “data science” en su libro “Concise Survey of Computer Methods”. A partir de su publicación, el concepto comenzó a estudiarse y utilizarse más abiertamente en el entorno académico.
2010 Data, Data Everywhere
En 2010 Kenneth Cukier escribe en The Economist Special Report “Data, Data Everywhere” donde expresa su opinión acerca de ese nuevo tipo de profesional, el científico de datos. Una figura que debe combinar las habilidades de programador de software y estadístico, capaz de analizar y encontrar datos interesantes en bases de datos extensas.
2009
Aprovechando el poder de los datos digitales para la ciencia y la sociedad
Se publica "Aprovechando el poder de los datos digitales para la ciencia y la sociedad". Este informe del Grupo de Trabajo Interagencial sobre Datos Digitales al Comité de Ciencia del Consejo Nacional de Ciencia y Tecnología declara que “La nación necesita identificar y promover la aparición de nuevas disciplinas y especialistas expertos en abordar los desafíos complejos y dinámicos de la preservación digital , acceso sostenido, reutilización y reutilización de datos...”.
2010
Explosion de la demanda de cientificos de datos
A partir de 2010, la explosión de la demanda de científicos de datos impulsa la profesionalización de la disciplina y la necesidad de habilidades en análisis de datos, programación y visualización.
2011
Akka DistBelief
Google Brain construyó DistBelief como un sistema propietario de aprendizaje automático, basado en redes neuronales de aprendizaje profundo. Su uso creció rápidamente a través de diversas compañías de Alphabet tanto en investigación como en aplicaciones comerciales. DistBelief es un marco para entrenar redes neuronales profundas con un grupo de máquinas en lugar de GPU. El principal algoritmo usado es Downpour SGD en el que múltiples réplicas del modelo de red neuronal están entrenadas en paralelo.
Julia, lenguaje de programacion
Julia se inició en el año 2009, por Jeff Bezanson, Stefan Karpinski, Viral B. Shah y Alan Edelman, quienes se propusieron crear un lenguaje libre que fuera rápido y de alto nivel. El 14 de febrero de 2012, el equipo lanzó un sitio web que explica por qué fue creado el lenguaje. En una entrevista con InfoWorld en abril de 2012, Karpinski dijo sobre el nombre «Julia»: «En realidad, no hay una buena razón. Parecía un nombre bonito». Bezanson dijo que eligió el nombre por recomendación de un amigo
PrestoDB
En 2012, el grupo de infraestructura de datos de Facebook creó Presto, un sistema de consultas interactivas que podía funcionar rápidamente a escala de petabytes. Se lanzó en toda la empresa en la primavera de 2013. En noviembre de 2013, Facebook abrió el código de Presto bajo la licencia de software Apache y lo puso a disposición para que cualquiera pudiera descargarlo en Github.
TensorFlow
TensorFlow es una biblioteca de software de código abierto para la programación de redes neuronales y el aprendizaje automático. Fue desarrollada por Google Brain Team y se lanzó al público en 2015.
2016 Primer informe de State of Data Science and Machine Learning”
El primer informe “State of Data Science and Machine Learning” de Kaggle, publicado en 2016, proporcionó una visión general del estado de la ciencia de datos y el aprendizaje automático en ese momento. Este informe se basó en una encuesta realizada a la comunidad de Kaggle y cubrió varios temas clave
Data Science for Business
En 2019 se publica el libro “Data Science for Business” por Foster Provost y Tom en su libro Data Science for Business introducen los principales fundamentos de la ciencia de datos y guían al lector a través de “pensamiento analítico de datos” necesario para extraer conocimiento útil y valor comercial de los datos que se recopilan. Esta guía también ayuda a los lectores a comprender las técnicas de minería de datos que se utilizan actualmente.