Aplicaciones de la industria 4.0
iridian malpica
Created on July 12, 2024
More creations to inspire you
ANCIENT EGYPT
Learning unit
MONSTERS COMIC "SHARING IS CARING"
Learning unit
PARTS OF THE ANIMAL CELL
Learning unit
PARTS OF THE PLANT CELL
Learning unit
PARTS OF A PROKARYOTIC CELL
Learning unit
Transcript
Aplicaciones de la industria 4.0
M. en A. Edgar Maldonado Mosqueda Dra. Jahel Valdés Sauceda M. en C. Angélica Jaime Fonseca
Integrantes:* Herrera Solano Carlos Alberto* Jiménez Cuellar Pablo* Malpica Romero Iridian Mariana* Murrieta García Misael* Velasco Nava Itzel Aleidi
Equipo: 1 Grupo: 2
Objetivos
Índice
BIG DATA
Características del Big Data
Importancia del Big Data
Comparativa de información
Tipos del Big Data
Tipos de aprendizaje Big Data
INTERNET DE LAS COSAS
Cómo funciona el LoT
Ventajas y desventajas LoT
Tecnologías de LoT
Tipos de realidad aumentada
Ventajas y desventajas de la AR
REALIDAD AUMENTADA
El futuro del LoT
Componentes de AR
Referencias
Aplicaciones de la AR
REALIDAD VIRTUAL
Componentes de un sistema de RV
Comparación de AR y RV
INTELIGENCIA ARTIFICIAL
Tipos de IA
Aplicaciones de la IA
Conclusiones
Beneficios IA
01
Comprender la importancia del BIG DATA en la actualidad
02
Conocer como funciona el BIG DATA asi como sus tipos
03
Reconocer el origen del internet de las cosas asi como las ventajas y desventajas
04
Identificar las diferencias de la realidad aumentada con la realidad virtual
Objetivos
05
Conocer las aplicacaciones de la industria 4.0
06
Conocer los tipos de inteligencia artificial
BIG DATA
Big Data se refiere a conjuntos de datos extremadamente grandes que pueden analizarse computacionalmente para revelar patrones, tendencias y asociaciones, especialmente relacionadas con el comportamiento y las interacciones humanas. El término “big data” se utiliza cuando las aplicaciones de procesamiento de datos tradicionales son inadecuadas para manejar el gran volumen, la velocidad y la variedad de datos que se generan.
Características del Big Data
BIG DATA
1
Volumen
2
Velocidad
3
Variedad
4
Veracidad
El big data implica una enorme cantidad de datos que excede la capacidad de procesamiento de los sistemas de bases de datos convencionales.
Los datos se generan a una velocidad sin precedentes y deben procesarse rápidamente para extraer valor de ellos.
Los macrodatos se presentan en diversas formas, como datos estructurados, no estructurados y semiestructurados, de diferentes fuentes como texto, imágenes, vídeos, etc.
Se refiere a la calidad y confiabilidad de los datos que se capturan.
Importancia del Big Data
BIG DATA
Innovación
Personalización
Ventaja competitiva
Información empresarial
Toma de decisiones mejorada
3
4
5
1
2
Las decisiones basadas en datos suelen ser más precisas y oportunas, lo que conduce a mejores resultados.
Impulsa la innovación al permitir que las organizaciones desarrollen nuevos productos y servicios basados en decisiones basadas en datos.
El big data permite realizar estrategias de marketing personalizadas y adaptadas a las preferencias individuales.
Las empresas pueden obtener una ventaja competitiva aprovechando el big data para la toma de decisiones estratégicas.
El análisis de big data puede proporcionar información valiosa sobre el comportamiento de los clientes, las tendencias del mercado y la eficiencia operativa.
Comparativa de informacion
BIG DATA
Informacion Humana
- Kylobyte (KB) = 1,000 bytes
- Megabyte (MB) = 1,000,000 bytes
- Gigabyte (GB) = 1,000,000,000 bytes
- Terabyte (TB) = 1,000,000,000,000 bytes
- Petabyte (PB) = 1,000,000,000,000,000 bytes.
- Exabyte (EB) = 1,000,000,000,000,000,000 bytes
- Zettabyte (ZB) = 1021 bytes
- Yottabyte (YB) = 1024 bytes
- Quintillón (QB)= 1030 bytes
- 1 Byte -Una letra
- 1 MB -Una novela
- 1 GB -Un pen-drive lleno de páginas con texto
- 1 TB -50.000 árboles de papel
- 10 TB -La colección impresa de la biblioteca del congreso de EEUU
- 1 QB – Datos que se generan en el mundo en 1 día
Web and Social Media
Tipos de BIG DATA
Machineto-Machine (M2M):
Big TransactionData
Biometrics
Human Generated
Contenido web e información que es obtenida de las redes sociales www, Facebook, Twitter, LinkedIn, blogs
Tecnologías que permiten conectarse a otros dispositivos. M2M utiliza dispositivos como sensores o medidores que capturan algún acontecimiento en particular. Se transmiten a través de redes alámbricas, inalámbricas o híbridas. Velocidad, temperatura, presión, variables meteorológicas, variables químicas
Incluye datos procedentes de transacciones masivas de los centros de atención telefónica, de banca, finanzas, atención a clientes, etc Incluye registros de facturación, en telecomunicaciones los llamados registros detallados de las llamadas (Call Detail Record o CDR), etc.
Información biométrica. En el área de seguridad e inteligencia, los datos biométricos son sumamente importantes para los gobiernos, seguridad privada, servicios de inteligencia, policía, etc Huellas digitales, escaneo de la retina, reconocimiento facial, genética, etc
Datos digitales generados por las personas, en sentido genérico Notas de voz, correos electrónicos, documentos electrónicos, resultados de estudios médicos, multas, etc
Programa informático que clasifica el mail como “ spam” o “no spam”.La base de conocimiento del sistema está formada por ejemplos de etiquetados realizados anteriormente por el usuario.
Aprendizaje supervisado
Tipos de aprendizaje BIG DATA
Un robot que minimiza la energía consumida en función de lo que indican los sensores que posee (temperatura, estado de la batería, etc)
Aprendizaje no supervisado
Robot experto que aprende del mundo exterior en base a ensayo-error.
Aprendizaje por refuerzo
Análisis automático de texto, aplicaciones de la bioinformática.
Transducción
Imputación de datos incompletos y clasificación de patrones mediante aprendizaje multitarea
Aprendizaje multi-tarea o multiinstancia
INTERNET DE LAS COSAS
El Internet de las cosas (IdC) hace referencia a la red de dispositivos interconectados y a la tecnología que permite la comunicación entre estos dispositivos y la nube, así como entre los propios dispositivos. Con la llegada de chips informáticos de bajo coste y telecomunicaciones de gran ancho de banda, hoy tenemos miles de millones de dispositivos conectados a Internet. Esto significa que los dispositivos cotidianos, como cepillos de dientes, aspiradoras, coches y máquinas, pueden utilizar sensores para recopilar datos y responder de forma inteligente a los usuarios.
El Internet de las Cosas (IoT)
Se refiere a la conexión de objetos físicos a Internet, permitiendo que estos recojan y compartan datos. Esto transforma la manera en que interactuamos con el entorno y mejora la eficiencia en diversas aplicaciones.
Internet de las cosas
¿Cómo funciona el IoT?
Dispositivos inteligentes
interfaz gáfica de usuario
Aplicación de LoT
¿Sabías que... Retenemos un 42% más de información cuando el contenido se mueve? Es quizá el recurso más efectivo para captar la atención de tu audiencia.
¿Sabías que... En Genially encontrarás más de 1.000 plantillas listas para volcar tu contenido y 100% personalizables, que te ayudarán a narrar tus historias?
Truquito: La interactividad es la pieza clave para captar el interés y la atención de tu audiencia. Un genially es interactivo porque tu público explora y se relaciona con él.
¿Qué objetos de nuestra vida cotidiana pueden concectarse a internet?
Internet de las cosas
Depende de los modelos. Los productos más nuevos tienen circuitos y sensores que pueden conectarse a la internet.
computadoras y celulares
Juguetes
Asistentes inteligentes
Cámaras
Electrodomésticos inteligentes
Tecnlogías que hacen posible el LoT
Internet de las cosas
Sensores y actuadores
Computación en la nube
Tecnologías de seguridad y privacidad
Tecnologías de conectividad
Analytics de big data
Para transmitir datos de IoT desde sensores y actuadores a la nube, los dispositivos IoT deben estar conectados a Internet. Hay varias tecnologías de conectividad que se utilizan en IoT, como wifi, Bluetooth, celular, Zigbee y LoRaWAN.
El futuro del LoT
Internet de las cosas
El futuro del IoT es prometedor, con muchos desarrollos emocionantes para las empresas en el horizonte. Estas son algunas de las tendencias y predicciones para el futuro del IoT:
1
2
5
3
4
Crecimiento
Computación Edge
Sostenibilidad
Inteligencia artificial y aprendizaje automático
Blockchain
Realidad aumentada
La Realidad Aumentada (RA) es un término que describe el conjunto de tecnologías que permiten a un usuario visualizar una parte del mundo físico a través de un dispositivo tecnológico con información gráfica añadida. El dispositivo, o conjunto de dispositivos, añade información virtual a la información física existente, es decir, una parte virtual aparece en la realidad. De esta forma, se combinan elementos físicos tangibles con elementos virtuales, creando una realidad aumentada en tiempo real
Realidad Aumentada
¿Cómo funciona la Realidad Aumentada?
La integración entre el mundo real (físico) y el mundo virtual es el objetivo principal de esta tecnología. Así, para que la Realidad Aumentada pueda reproducirse, se necesitan 3 componentes fundamentales:
- Un objeto real que funcione como referencia para la interpretación y creación del objeto virtual.
- La presencia de un dispositivo con cámara —como un teléfono móvil— para transmitir la imagen del objeto real.
- Un software responsable por interpretar la señal transmitida por la cámara.
Realidad Aumentada
Tipos de Realidad Aumentada
2
1
Realidad aumentada basada en marcadores
Realidad aumentada sin marcadores
Realidad Aumentada
La realidad aumentada crea una experiencia inmersiva para todos sus usuarios. Aunque las formas de AR más comunes son a través de gafas o la lente de una cámara, el interés en AR está creciendo y las empresas están presentando más tipos de lentes y hardware en el mercado. Hay cinco componentes significativos de AR:
Procesamiento
Lentes
Sensores
Software de realidad aumentada
Inteligencia Artificial
Necesitará una lente o una plataforma de imagen para ver el contenido o las imágenes. Cuanto mejor sea la calidad de la pantalla, más realista parecerá la imagen.
Los sistemas AR necesitan digerir datos sobre su entorno para alinear los mundos real y digital. Cuando la cámara captura información, la envía a través de software para el procesamiento.
Necesitará capacidad de procesamiento para que la tecnología AR funcione, generalmente aprovechando el sistema operativo interno del dispositivo.
Estas son las herramientas y aplicaciones utilizadas para acceder a AR. Algunas empresas pueden crear su propia forma de software AR.
La mayoría de las soluciones de realidad aumentada necesitan inteligencia artificial (IA) para funcionar, lo que permite a los usuarios completar acciones mediante indicaciones de voz. AI también puede ayudar a procesar información para la aplicación AR.
Realidad Aumentada
Aplicaciones de la Realidad Aumentada
10. Apta para la NASA
9. El universo más cerca
8. Perfecta para la publicidad
7. Arquitectura inteligente
6. Escáneres faciales
5. Traducciones inmediatas
4. Atentos, deportistas
3. Lecciones que cobran vida
2. Coches a medida
1. Cirugía al detalle
10. Seguimos en las alturas... Usando gafas inteligentes, ahora los astronautas cuentas con la tecnología necesaria para recibir instrucciones visuales en caso de tener que realizar reparaciones durante sus expediciones.
9. Enfocando la cámara de tu dispositivo móvil al cielo, podrás identificar estrellas, constelaciones, planetas y cuerpos celestes, además de recibir información adicional de los mismos.
8. Desde probarte ropa virtualmente hasta ver una campaña interactiva sobre un muro en plena calle. El potencial de venta y promoción que ofrece la RA a las marcas es incalculable.
7. Muchas empresas utilizan la RA para que el cliente compruebe en tiempo real cómo quedará su casa una vez finalizada las obras o cómo encajará el nuevo sillón con el resto de la decoración.
6. Suena a ciencia ficción, pero ya hay un servicio capaz de reconocer la cara de una persona y, simultáneamente, mostrar las redes sociales en las que está presente.
5. Perfecta para viajeros. Con solo tomar una fotografía de cualquier texto que tengas delante (un informe, un anuncio, una receta...) obtendrás una traducción instantánea.
4. Los runners, ciclistas, alpinistas o aficionados al senderismo, ya pueden explorar sus rutas proyectándolas en cualquier superficie en 3D y así planificar su próxima aventura y compartir sus actividades.
3. Muchos alumnos ya disfrutan de cuadernos compuestos por marcadores especiales que, frente a la pantalla del ordenador o del dispositivo móvil, reaccionan ofreciendo imágenes en 3D.
2. Cada vez más fabricantes automovilísticos ofrecen a sus compradores potenciales la posibilidad de visualizar su futuro coche y adaptarlo a sus gustos y necesidades.
1. A través de tabletas o gafas holográficas los médicos pueden visualizar órganos en 3D o consultar el historial del paciente antes o durante la intervención quirúrgica.
La realidad virtual (RV) es la creación de un entorno o escenario simulado que parece completamente real, lo que permite a las personas sumergirse en cualquier lugar o situación deseada como si realmente estuvieran dentro de ella. A través de dispositivos como gafas o cascos de realidad virtual, los usuarios pueden participar en juegos en los que encarnan personajes o viajan por todo el mundo sin salir de su sala de estar, experimentando un entorno completamente realista. Además, la realidad virtual permite el uso de otros dispositivos como auriculares o sables de luz simulados.
Realidad virtual
Una aplicación de realidad virtual es una simulación digital interactiva de un mundo virtual que solo existe en la memoria de un ordenador.A diferencia de una animación, donde los espectadores no pueden cambiar las imágenes pregrabadas, en la realidad virtual el usuario puede moverse libremente por la escena, afectando directamente las imágenes que ve en tiempo real. Esto requiere una representación geométrica 3D del entorno virtual y algoritmos de visualización realista para generar las imágenes desde cualquier punto de vista.
Simulación interactiva
La realidad virtual utiliza la interacción implícita en lugar de la interacción explícita o clásica. En la interacción clásica, el usuario debe comunicar sus acciones al ordenador mediante comandos o una interfaz gráfica (teclado y ratón), lo que requiere esfuerzo y entrenamiento. En cambio, en la realidad virtual, el sistema detecta los movimientos naturales del usuario, como girar la cabeza para cambiar la vista o mover la mano para interactuar con objetos, sin necesidad de comandos específicos. Esto elimina la percepción de los dispositivos de entrada, haciendo que el usuario se sienta inmerso en el entorno virtual, interactuando directamente con los objetos de la escena.
Interacción implícita
La inmersión sensorial, implica desconectar los sentidos del mundo real y conectarlos al mundo virtual. La vista es el sentido más importante para lograr esta inmersión, proporcionando una gran cantidad de información y una fuerte sensación de presencia. Los sistemas de realidad virtual deben generar imágenes adecuadas para la vista y, a menudo, también proporcionan inmersión acústica. A diferencia de las pantallas tradicionales, los dispositivos de visualización de realidad virtual crean la ilusión de que los objetos flotan en el espacio, gracias a la visión estereoscópica, que proporciona dos imágenes ligeramente diferentes para cada ojo, permitiendo percibir la profundidad y la presencia material de los objetos. Esta visión estereoscópica es crucial para la realidad virtual, ya que mejora la percepción espacial y la precisión en la ubicación de los objetos.
Inmersión sensorial
Periféricos de entrada (sensores)
Componentes de un sistema de realidad virtual
Periféricos de salida (efectores)
Computador
Modelo geométrico 3D
Software de tratamiento de datos de entrada
Software de simulación física
Software de simulación sensorial
Los periféricos de entrada en la realidad virtual capturan las acciones del usuario y envían esta información al computador. Los más comunes son los posicionadores, que detectan la posición y orientación de la cabeza, mano o cuerpo del usuario; los guantes, que registran los movimientos de los dedos; y los micrófonos, que graban la voz del participante.
Los periféricos de salida en la realidad virtual convierten las señales de audio y video generadas por el computador en estímulos para los sentidos del usuario. Estos efectores se clasifican según el sentido al que están dirigidos: visuales (cascos estereoscópicos, pantallas de proyección), de audio (sistemas de sonido, altavoces), de fuerza y tacto (dispositivos táctiles) y del sentido del equilibrio (plataformas móviles).
El computador en realidad virtual realiza la simulación de forma interactiva utilizando un modelo geométrico 3D y software especializado para la recogida de datos, simulación física y sensorial. Dado que la simulación visual (síntesis de imágenes a partir de modelos 3D) es crítica, se emplean estaciones de trabajo con avanzadas capacidades gráficas, donde muchas etapas del proceso de visualización están implementadas por hardware.
Un sistema de realidad virtual debe permitir la exploración interactiva de la escena y la visualización del mundo virtual desde cualquier punto de vista. Para lograr esto, se requiere una representación geométrica 3D del mundo, que facilite los cálculos de imágenes, generación de sonido espacial, cálculo de colisiones, entre otros.
Los módulos de recogida y tratamiento de datos en un sistema de realidad virtual se encargan de leer y procesar la información proporcionada por los sensores. Esto incluye los controladores de los dispositivos físicos y el procesamiento inicial de los datos. Por ejemplo, los datos de posición y orientación de la cabeza del usuario deben transformarse al sistema de coordenadas de la aplicación y filtrarse para evitar lecturas erróneas. Los sistemas de comunicación oral requieren reconocimiento de voz, mientras que otros sistemas utilizan un esquema basado en gestos de la mano, que necesita el reconocimiento de gestos a partir de una secuencia de movimientos.
Los módulos de simulación física en un sistema de realidad virtual actualizan la representación digital de la escena según las acciones del usuario y la evolución interna del sistema. Por ejemplo, si el usuario hace el gesto de abrir una puerta, el sistema aplica la transformación geométrica correspondiente. Estos módulos calculan en tiempo real los parámetros de la cámara virtual, colisiones, deformaciones y otros cambios que afectan al entorno virtual.
Estos módulos calculan la representación digital de imágenes, sonidos, etc., que el hardware traducirá a estímulos sensoriales. El módulo más importante es el de simulación visual, que utiliza algoritmos de visualización en tiempo real y técnicas de aceleración de imagen para optimizar el rendimiento. La simulación auditiva considera las propiedades acústicas de los objetos, y la simulación táctil incluye dispositivos que proporcionan sensaciones de tacto, contacto y realimentación de fuerza, activándose en tiempo real ante colisiones virtuales.
Comparación de Realidad Aumentada y Realidad Virtual
La inteligencia artificial (IA) se refiere a la disciplina de las ciencias de la computación que busca desarrollar sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, como el aprendizaje, el razonamiento y la percepción. Estos sistemas pueden percibir su entorno, procesar información, tomar decisiones y actuar para lograr un objetivo dado. La IA abarca una amplia gama de aplicaciones y subcampos, desde el reconocimiento de voz hasta el diagnóstico médico, y se basa en algoritmos y modelos matemáticos para aprender y mejorar con el tiempo.
Inteligencia artificial
Tipos de Inteligencia Artificial
Inteligencia Artificial
Sistemas que piensan como humanos
Sistemas que actuan como humanos
Sistemas que piensan racionalmente
Sistemas que actuan racionalmente
Automatizan actividades como la toma de decisiones, la resolución de problemas y el aprendizaje. Un ejemplo son las redes neuronales artificiales.
Se trata de computadoras que realizan tareas de forma similar a como lo hacen las personas. Es el caso de los robots.
Intentan emular el pensamiento lógico racional de los humanos, es decir, se investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en consecuencia. Los sistemas expertos se engloban en este grupo.
Idealmente, son aquellos que tratan de imitar de manera racional el comportamiento humano, como los agentes inteligentes.
Aplicaciones de la IA
Inteligencia Artificial
Automatización de procesos
Análisis de datos
Asistentes virtuales
Análisis predIctivo
Reconocimiento de imágenes
Personalización
Chatbots
Crear contenido
La inteligencia artificial puede ayudar a las empresas a automatizar tareas repetitivas, lo que permite a los empleados concentrarse en actividades de mayor valor. Un ejemplo de esto es la automatización de procesos en la industria de la fabricación, donde la IA puede ayudar a optimizar la producción y mejorar la eficiencia.
La IA permite analizar grandes conjuntos de datos, lo que ayuda a las empresas a extraer información valiosa y tomar decisiones informadas. Por ejemplo, utilizar IA en el análisis de datos de marketing para identificar patrones y tendencias.
Los asistentes virtuales basados en IA, como Siri, Alexa y Google Assistant, están ganando popularidad. Estos asistentes virtuales pueden responder preguntas, realizar tareas y proporcionar información.
Los chatbots son programas informáticos que pueden interactuar con los clientes a través de chat o mensajes de texto, pueden proporcionar respuestas rápidas y precisas a preguntas frecuentes, lo que puede mejorar la satisfacción del cliente.
Con la IA puedes ahorrar tiempo generando imágenes, títulos o texto en general para tu estrategia de marketing. Por ejemplo, el CRM Escala te ofrece IA para generar el contenido de landing pages.
La IA se puede utilizar para personalizar la experiencia del cliente. Por ejemplo, la IA se puede utilizar en la recomendación de productos y servicios personalizados basados en los intereses del cliente.
La IA se puede utilizar en el reconocimiento de imágenes, lo que permite a las empresas identificar objetos y patrones en las imágenes. Por ejemplo, la IA se puede utilizar en el reconocimiento de imágenes médicas para detectar enfermedades.
La IA se puede utilizar para el análisis predictivo, lo que permite a las empresas predecir el comportamiento futuro de los clientes y tomar medidas para mejorar la experiencia del cliente.
Etapas de desarrollo de la IA
Inteligencia Artificial
Autoconocimiento
Teoría de la mente
Memoria limitada
Máquinas reactivas
IA limitada que solo reacciona a diferentes tipos de estímulos basados en reglas preprogramadas. No usa memoria y, por lo tanto, no puede aprender con datos nuevos.
Se considera que la mayor parte de la IA moderna es de memoria limitada. Puede usar la memoria para mejorar con el tiempo mediante el entrenamiento con datos nuevos, por lo general, a través de una red neuronal artificial.
En la actualidad no existe IA con teoría de la mente, pero se están investigando distintas posibilidades. El término hace referencia a la IA que puede emular la mente humana y tiene capacidades de toma de decisiones similares a las de un ser humano.
Un paso más allá de la IA con teoría de la mente, el concepto de IA con autoconocimiento describe una máquina mítica que tiene conocimiento de su propia existencia y tiene las capacidades intelectuales y emocionales de un ser humano.
Beneficios de la IA
Inteligencia Artificial
1
2
3
Automatización
Reduce errores humanos
4
Elimina las tareas repetitivas.
5
6
Rápido y preciso.
Disponibilidad infinita
Investigación y desarrollo acelerados
La capacidad de analizar grandes cantidades de datos con rapidez puede acelerar los avances en investigación y desarrollo.
La IA puede procesar más información con más rapidez que un ser humano, mediante la búsqueda de patrones y el descubrimiento de relaciones en datos que el humano podría no detectar.
La IA puede eliminar errores manuales en el procesamiento de datos, las estadísticas, el ensamblaje en la fabricación y otras tareas a través de automatización y algoritmos que siguen los mismos procesos cada vez.
Desafios de la IA
Inteligencia Artificial
1
Gobernanza de datos
2
Dificultades técnicas
La IA tiene una serie de desafíos que dificultan su implementación. Los siguientes obstáculos son algunos de los desafíos más comunes relacionados con la implementación y el uso de la IA.
3
Limitaciones de datos
Para entrenar sistemas de IA imparciales, es necesario introducir enormes volúmenes de datos. Debe tener la capacidad de almacenamiento suficiente para gestionar y procesar los datos de entrenamiento.
Entrenar la IA con el machine learning consume enormes recursos. Un umbral alto de potencia de procesamiento es esencial para que las tecnologías de aprendizaje profundo funcionen. Debe tener una infraestructura computacional sólida.
Las políticas de gobernanza de datos deben cumplir con restricciones regulatorias y leyes de privacidad. Para implementar la IA, debe gestionar la calidad, la privacidad y la seguridad de los datos.
El avance tecnologico ha llegado con las nuevas demandas del ser humano de almacenar informacion de diferentes tipos desarrollando con ello sistemas tales como el BIG DATA, donde tambien se aplican algoritmos para poder leer y ordenar esta informacion con mayor rapidez y eficacia.Por otro lado el internet de las cosas busca en principio la interaccion del ser humano con las maquinas, implica que los dispositivos esten conectados a la red y se almacenes cantidades inmensas de informacion que permitan reconocer a detalle el uso de sus usuarios para ofrecer mejoras o recomendaciones. Por ultimo la interaccion fisica, implicita y sensorial nos ha dado herramientas para visualizar entornos a traves de dispositivos y no solo eso si no que favorecen a la interaccion humana en tiempo real.La Industria 4.0 representa un cambio de paradigma hacia sistemas de fabricación inteligentes, interconectados y basados en datos. El potencial transformador de la Industria 4.0 reside en su capacidad para crear procesos de producción más eficientes, permitir la personalización masiva a gran escala, optimizar las cadenas de suministro mediante el intercambio de datos en tiempo real e impulsar la innovación mediante simulaciones digitales y prototipos virtuales.
Conclusiones
- Oracle. (2024, marzo 11). What is Big Data? Recuperado el 15 de julio de 2024, de https://www.oracle.com/mx/big-data/what-is-big-data/
- Intel. (n.d.). What is Big Data? Recuperado el 15 de julio de 2024, de https://www.intel.la/content/www/xl/es/artificial-intelligence/analytics/what-is-big-data.html
- Antonio Monleón-Getino. (2015). El impacto del Big-data en la Sociedad de la Información. Significado y utilidad. Universidad de Barcelona.
- Google Cloud. (n.d.). What is Artificial Intelligence? Recuperado el 13 de julio de 2024, de https://cloud.google.com/learn/what-is-artificial-intelligence?hl=es-419
- Takeyas, B. L. (N.D.). INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL. Instituto Tecnológico de Nuevo Laredo, 1-3. Recuperado el 12 de julio de 2024 de https://nlaredo.tecnm.mx/takeyas/Articulos/Inteligencia%20Artificial/ARTICULO%20Introduccion%20a%20la%20Inteligencia%20Artificial.pdf
- rockcontent. (15 de 12 de 2019). Obtenido de Conoce la realidad aumentada y las posibilidades de interacción que la hacen sobresalir en el mundo digital: https://rockcontent.com/es/blog/realidad-aumentada/
- Freire, N. (12 de 01 de 2024). NATIONAL GEOGRAPHIC. Obtenido de ¿En qué se diferencian la realidad aumentada y la realidad virtual?: https://www.nationalgeographic.com.es/ciencia/que-se-diferencian-realidad-aumentada-y-realidad-virtual_21204
- SAP. (s.f.). Obtenido de ¿Qué es internet de las cosas (IoT)?: https://www.sap.com/latinamerica/products/artificial-intelligence/what-is-iot.html
- IBM. (s.f.). Obtenido de ¿Qué es el Internet de las cosas (IoT)?: https://www.ibm.com/mx-es/topics/internet-of-things
Referencias
Gracias
Computación Edge
La computación Edge es cada vez más importante para el IoT, ya que permite procesar y analizar los datos más cerca de la fuente de los datos, en lugar de en un centro de datos centralizado. Esto puede mejorar los tiempos de respuesta, reducir la latencia y reducir la cantidad de datos que deben transferirse a través de redes de IoT.
Crecimiento
Se espera que el número de dispositivos IoT continúe creciendo rápidamente, con estimaciones que sugieren que habrá decenas de mil millones de dispositivos IoT en uso en los próximos años. Este crecimiento se verá impulsado por una mayor adopción en todos los sectores, así como por el desarrollo de nuevos casos de uso y aplicaciones.
Tecnologías de seguridad y privacidad
A medida que las implementaciones de IoT se generalizan, la seguridad y la privacidad de IoT se vuelven cada vez más importantes. Las tecnologías como la encriptación, los controles de acceso y los sistemas de detección de intrusiones se utilizan para proteger los dispositivos de IoT y los datos que generan a partir de amenazas cibernéticas.
Basada en marcadores
Se crea utilizando el reconocimiento de imágenes para identificar objetos ya programados en su dispositivo o aplicación AR. Al colocar objetos a la vista como puntos de referencia, pueden ayudar a su dispositivo AR a determinar la posición y orientación de la cámara. Esto generalmente se logra cambiando su cámara a escala de grises y detectando un marcador para comparar ese marcador con todos los demás en su banco de información. Una vez que su dispositivo encuentra una coincidencia, usa esos datos para determinar matemáticamente la postura y colocar la imagen AR en el lugar correcto.
Sostenibilidad
La sostenibilidad se está convirtiendo en una consideración cada vez más importante para el IoT, ya que las empresas buscan formas de reducir su impacto medioambiental. El IoT puede utilizarse para optimizar el uso de la energía, reducir los residuos y mejorar la sostenibilidad en toda una serie de sectores.
Son dispositivos como un televisor, una cámara de seguridad o un equipo de ejercicio que están dotados de capacidades informáticas. Recopilan datos de su entorno, de las entradas de los usuarios o de los patrones de uso y los comunican a través de Internet hacia y desde su aplicación de IoT.
Dispositivos inteligentes
Inteligencia artificial y aprendizaje automático
La IA y el aprendizaje automático son cada vez más importantes para el IoT, ya que se pueden utilizar para analizar grandes cantidades de datos generados por dispositivos IoT y extraer información significativa. Esto puede ayudar a las empresas a tomar decisiones más informadas y optimizar sus operaciones.
Analytics de big data
Para dar sentido a las grandes cantidades de datos generados por los dispositivos de IoT, las empresas deben utilizar herramientas de análisis avanzadas para extraer información e identificar patrones. Estas herramientas pueden incluir algoritmos de aprendizaje automático, algoritmos, visualización de datos y modelos de analytics predictivos.
Sensores y actuadores
Los sensores son dispositivos que pueden detectar cambios en el ambiente, como temperatura, luz, movimiento o presión. Los actuadores son dispositivos que pueden causar cambios físicos en el entorno, como abrir o cerrar una válvula o encender un motor. Estos dispositivos están en el corazón del IoT, ya que permiten que las máquinas y los dispositivos interactúen con el mundo físico. La automatización es posible cuando los sensores y actuadores trabajan para resolver problemas sin intervención humana.
Computación en la nube
La nube es donde se almacenan, procesan y analizan las grandes cantidades de datos generados por los dispositivos IoT. Las plataformas de computación en la nube proporcionan la infraestructura y las herramientas necesarias para almacenar y analizar estos datos, así como para crear e implementar aplicaciones IoT.
El dispositivo IoT o la flota de dispositivos se pueden gestionar a través de una interfaz gráfica de usuario. Algunos ejemplos comunes incluyen una aplicación móvil o un sitio web que se utiliza para registrar y controlar dispositivos inteligentes.
Interfaz gráfica de ususario
Sin marcadores
Es más compleja, ya que no hay ningún punto de enfoque para el dispositivo. Debido a esto, el dispositivo debe reconocer los elementos a medida que aparecen a la vista. A través de un algoritmo de reconocimiento, el dispositivo buscará colores, patrones y características similares para determinar qué objeto es y luego, usando el tiempo, el acelerómetro, el GPS y la información de la brújula, se orientará y usará una cámara para superponer una imagen de lo que quiera dentro de su entorno en el mundo real.
Blockchain
La tecnología de lablockchain se está explorando como una forma de mejorar la seguridad y la privacidad en IoT. Blockchain se puede utilizar para crear redes seguras y descentralizadas para dispositivos IoT, lo que puede minimizar las vulnerabilidades de la seguridad de los datos.
paso 1
Las políticas de gobernanza de datos deben cumplir con restricciones regulatorias y leyes de privacidad. Para implementar la IA, debe gestionar la calidad, la privacidad y la seguridad de los datos. Usted es responsable de la protección de los datos y la privacidad de los clientes. Para gestionar la seguridad de los datos, su organización debe tener una idea clara de cómo los modelos de IA utilizan los datos de los clientes e interactúan con ellos en cada capa.
paso 2
Puedes describir brevemente en qué consiste la línea temporal de tu presentación y exponer los hitos alcanzados oralmente para que nadie se duerma.
La IA puede automatizar flujos de trabajo y procesos, o trabajar de forma independiente y autónoma de un equipo humano. Por ejemplo, la IA puede ayudar a automatizar aspectos de la seguridad cibernética mediante la supervisión y el análisis continuos del tráfico de red. De manera similar, una fábrica inteligente puede tener decenas de tipos diferentes de IA en uso, como robots que usan visión artificial para navegar por las fábricas o inspeccionar productos en busca de defectos, crear gemelos digitales o usar analítica en tiempo real para medir la eficiencia y la producción.
La IA se puede usar para realizar tareas repetitivas, lo que libera al capital humano a fin de que trabaje en los problemas de mayor impacto. La IA se puede usar para automatizar procesos, como verificar documentos, transcribir llamadas telefónicas o responder preguntas sencillas de los clientes, como “¿A qué hora cierran?”. Con frecuencia, los robots se usan para realizar tareas “aburridas, sucias o peligrosas” en lugar de que las haga un ser humano.
Una aplicación de IoT es un conjunto de servicios y software que integra datos recibidos de varios dispositivos de IoT. Utiliza tecnología de aprendizaje automático o inteligencia artificial (IA) para analizar estos datos y tomar decisiones informadas. Estas decisiones se comunican al dispositivo de IoT, que responde de manera inteligente a las entradas.
Aplicación LoT
paso 3
Puedes describir brevemente en qué consiste la línea temporal de tu presentación y exponer los hitos alcanzados oralmente para que nadie se duerma.
La Inteligencia Artificial no tienen limitaciones en términos de horarios, necesidad de descansar ni ningún otro factor que pueda interrumpir la labor de un ser humano. Cuando se ejecutan en la nube, la IA y el aprendizaje automático pueden estar “siempre activos”, y trabajar continuamente en las tareas asignadas.