Want to create interactive content? It’s easy in Genially!

Get started free

Impacto ético de la IA en diferentes contextos educativos

GES DG

Created on December 4, 2024

Start designing with a free template

Discover more than 1500 professional designs like these:

Discover Your AI Assistant

Vision Board

SWOT Challenge: Classify Key Factors

Explainer Video: Keys to Effective Communication

Explainer Video: AI for Companies

Corporate CV

Flow Presentation

Transcript

INICIO

En esta presentación, exploraremos el impacto ético de la inteligencia artificial (IA) en el sector educativo, analizando tanto los desafíos como las oportunidades que esta tecnología presenta. A través de casos concretos, descubriremos cómo la IA está transformando las prácticas educativas, influyendo en la privacidad de los datos y cambiando las dinámicas dentro del aula. Cada caso nos ofrece una perspectiva esencial para comprender las implicaciones éticas y prácticas de la IA en la educación.

¡Te invitamos a sumergirte en este recorrido y reflexionar sobre el futuro de la enseñanza en la era de la IA!

Investigación realizada por Stanford que examina el impacto de una herramienta de inteligencia artificial (IA) llamada M-Powering Teachers en la enseñanza. Esta herramienta proporciona retroalimentación automatizada a los instructores sobre sus interacciones en clase, específicamente en la práctica de "aceptación", que implica reconocer y desarrollar las contribuciones de los estudiantes. El estudio busca determinar si la retroalimentación automatizada puede mejorar las prácticas de enseñanza y la satisfacción de los estudiantes, ofreciendo una alternativa de bajo costo a la observación tradicional en el aula.

OPORTUNIDAD

Feedback from an AI-driven tool improves teaching,

Stanford-led research finds

Metodología

Autor: Stanford University

Resultados

ENLACE

Retroalimentación

Durante el desarrollo del artículo se presenta un repositorio de casos que ejemplifican el uso indebido de la IA en educación, plantea preocupaciones éticas, de privacidad y sesgos que afectan la calidad del aprendizaje y los derechos de estudiantes. Casos de uso indebido:

DESAFÍO

Examining the Potential Misuse of Artificial Intelligence

Deshumanización del Aprendizaje

in Education (cases)

Violaciones a la Privacidad de Datos

Plagio y Detección Ineficiente

Autores:
  • Abdulgaffar Abubakar Yahaya
  • Jamilu Habu
  • Abbas Sani
  • Usman Haruna
  • Mewar University

Sesgos Algorítmicos

Vigilancia Abusiva

ENLACE

El caso que se menciona aborda un incidente ético relacionado con el uso de inteligencia artificial para alterar imágenes sin consentimiento, específicamente en un entorno educativo. Aquí está el contexto general basado en la información que me proporcionaste:

DESAFÍO

What do AI chatbots really mean for

Actores involucrados

Acción problemática

students and cheating?

Consecuencias

Autor: Stanford University

Objetivo del caso

ENLACE

El texto que has compartido aborda el problema de la fiabilidad de los detectores de inteligencia artificial (IA) que se utilizan para identificar contenido generado por IA, especialmente en el contexto educativo. A continuación, se explican los puntos clave del caso:

DESAFÍO

AI-Detectors Biased Against

Contexto y Propósito

Problemas de Fiabilidad

Non-Native English Writers

Datos del Estudio

Autor: Stanford University

Causas del Sesgo

ENLACE

Consecuencias Éticas

Conclusión

DESAFÍO

El artículo analiza el impacto de herramientas como ChatGPT en la integridad académica, abordando retos éticos y educativos en la era de la inteligencia artificial. Plantea que estas tecnologías ofrecen oportunidades para el aprendizaje, pero también riesgos como el plagio y la dependencia excesiva. Se destaca la importancia de políticas claras, la formación ética y la promoción del pensamiento crítico para maximizar los beneficios de la IA mientras se mitigan sus desafíos. Es un recurso útil para entender cómo equilibrar innovación y responsabilidad académica.

ChatGPT and the Future of Academic Integrity in the Artificial Intelligence

Era: A New Frontier

AUTOR

ENLACE

El caso presentado se centra en la experimentación de dos investigadores, que decidieron utilizar el modelo de inteligencia artificial GPT-3 para redactar un artículo académico sobre sí mismo. Este experimento plantea una serie de cuestiones éticas y legales en el ámbito de la publicación académica, especialmente en relación con la autoría y el reconocimiento del trabajo realizado por una inteligencia artificial. Puntos clave del caso:

DESAFÍO

We Asked GPT-3 to Write an Academic Paper about Itself

Generación de Contenido

—Then We Tried to Get It Published

Cuestiones Éticas

Autor: Almira Osmanovic Thunström

Proceso de Publicación

ENLACE

Contribución de la IA

“Ética es la diferencia entre hacer aquello a lo que tienes derecho y hacer lo que es derecho”.

Proceso de publicación

Durante el proceso de envío del artículo a una revista académica, los investigadores se encontraron con varios obstáculos, como la necesidad de proporcionar un apellido para GPT-3 y la cuestión de si la IA consiente ser coautora. Esto refleja la falta de claridad en las normas y procedimientos de publicación en relación con la inteligencia artificial. Si el artículo es aceptado, podría cambiar la forma en que se percibe la autoría en la investigación. Podría llevar a la necesidad de que los investigadores demuestren que no han utilizado herramientas de IA, o a la inclusión de IA como coautores en futuros trabajos.

Cuestiones éticas

La decisión de intentar publicar un artículo con GPT-3 como primer autor plantea preguntas sobre la autoría en la investigación. ¿Puede una inteligencia artificial ser considerada un autor legítimo? ¿Qué implicaciones tendría esto para la evaluación del trabajo académico y la carrera de los investigadores humanos?

Problemas de Fiabilidad

El estudio revela que estos detectores no son confiables, especialmente cuando se trata de textos escritos por hablantes no nativos de inglés. Los detectores funcionan mejor con ensayos de estudiantes nativos, pero fallan al evaluar el trabajo de estudiantes no nativos, clasificando erróneamente una gran parte de sus ensayos como generados por IA.

Metodología

La herramienta utiliza procesamiento del lenguaje natural (PLN) para analizar las transcripciones de las clases y proporcionar comentarios sobre cómo los instructores pueden mejorar su interacción con los estudiantes.

Consecuencias Éticas

La inexactitud de estos detectores puede llevar a acusaciones injustas de trampa contra estudiantes no nativos, lo que plantea preocupaciones éticas significativas. Los autores del estudio sugieren que se evite el uso de detectores en entornos educativos donde hay muchos hablantes no nativos. También proponen que los desarrolladores busquen métricas más sofisticadas y consideren la implementación de marcas de agua en el contenido generado por IA para ayudar a identificar su origen.

Consecuencias

Las alteraciones tienen consecuencias graves, tales como:

  • Impacto emocional para el docente, derivado de la falta de respeto y vulneración de su privacidad.
  • Difusión digital, lo que agrava la situación al exponer al docente en espacios públicos o privados de manera inapropiada.

Sesgos Algorítmicos

Las IA pueden perpetuar prejuicios existentes si se entrenan con datos históricos sesgados, afectando decisiones como evaluaciones académicas o recomendaciones educativas.

Vigilancia Abusiva

Herramientas de monitoreo impulsadas por IA, como cámaras con reconocimiento facial, generan preocupaciones sobre la invasión de privacidad y discriminación.

Generación de contenido

GPT-3, un modelo de lenguaje desarrollado por OpenAI, fue capaz de generar un texto académico coherente y bien estructurado en respuesta a una instrucción simple. Esto sorprendió a los investigadores, quienes notaron que el contenido era comparable al de un artículo científico convencional.

Autor

  • Maad M. Mijwil
  • Kamal Kant
  • Hiran Ruchi Doshi
  • Manish Dadhich
  • Abdel-Hameed Al-Mistarehi
  • Indu Bala
  1. Computer Techniques Engineering Department, Baghdad College of Economic Sciences University, Baghdad, IRAQ.
  2. School of Computer Science & IT, Symbiosis University of Applied Sciences, Indore, INDIA.
  3. Department of Computer Science and Engineering, Universidad Azteca, Chalco, MEXICO.
  4. School of Management, Sir Padampat Singhania University, Udaipur, INDIA.
  5. School of Medicine, Johns Hopkins University, Baltimore, Maryland, USA.
  6. School of Electrical and Electronics Engineering, Lovely Professional University, Punjab, INDIA

Plagio y Detección Ineficiente

Los estudiantes pueden usar IA para crear trabajos que no reflejan su propio esfuerzo, mientras que los sistemas de detección no siempre identifican contenido generado por IA.

Causas del Sesgo

Los detectores utilizan una métrica llamada "perplejidad", que mide la sofisticación del texto. Los hablantes no nativos tienden a tener puntuaciones más bajas en esta métrica debido a su menor riqueza y complejidad léxica y gramatical, lo que contribuye a los errores de detección.

Objetivo del caso

El caso busca generar una reflexión crítica, especialmente entre docentes en formación, sobre las implicaciones éticas del uso de la IA en contextos educativos. También plantea preguntas sobre el papel de las instituciones educativas para prevenir y abordar este tipo de incidentes.

Resultado

Los instructores que utilizaron la herramienta mostraron un aumento en el uso de la aceptación y el cuestionamiento efectivo en sus clases. Los estudiantes cuyos instructores recibieron retroalimentación reportaron una mayor satisfacción y mejores tasas de finalización de tareas. La herramienta fue implementada en un curso en línea llamado Code in Place, donde instructores voluntarios enseñan programación a estudiantes de diversas partes del mundo. Muchos de estos instructores tienen poca experiencia previa en la enseñanza.

Datos del Estudio

El estudio encontró que más del 61% de los ensayos del TOEFL escritos por no nativos fueron identificados incorrectamente como generados por IA. Además, un alto porcentaje de ensayos fue marcado por al menos uno de los detectores, lo que plantea serias dudas sobre la objetividad de estas herramientas.

Violaciones a la Privacidad de Datos

Los sistemas de IA requieren datos personales sensibles que, si no están protegidos, pueden ser mal utilizados, exponiendo a los estudiantes a riesgos como robo de identidad.

Deshumanización del Aprendizaje

La dependencia excesiva de la IA puede reducir la interacción humana en el aula, afectando el desarrollo de habilidades sociales y emocionales.

Conclusión

La fiabilidad de los detectores de IA es cuestionable y su uso sin una evaluación rigurosa puede tener consecuencias negativas para los estudiantes. Se necesita un enfoque más cuidadoso y mejoras significativas en estas tecnologías antes de confiar en ellas para la detección de trampas.

Contribución de la IA en el futuro

Los autores se preguntan cómo se valorará la contribución de la IA en el futuro, como un socio en la investigación o simplemente como una herramienta. También expresan su preocupación de que este avance tecnológico podría abrir la puerta a dilemas éticos y legales aún no imaginados.

Actores involucrados

Los principales actores son estudiantes y un docente. Los estudiantes utilizan herramientas de IA para manipular la imagen del docente sin su consentimiento. El docente es el foco central del caso debido a las implicaciones éticas y personales de la alteración de su imagen.

Retroalimentación oportuna y específica

Proporciona retroalimentación oportuna y específica, lo que permite a los instructores reflexionar sobre su práctica de manera continua. Se están realizando estudios adicionales para evaluar la efectividad de la herramienta en otros entornos educativos, como aulas presenciales y programas de tutoría. La herramienta no está destinada a evaluar o vigilar a los docentes, sino a apoyar su desarrollo profesional, similar a un rastreador de actividad física que ayuda a los usuarios a mejorar su salud.

Contexto y Propósito

Tras el lanzamiento de ChatGPT, varias empresas han desarrollado detectores de IA con el objetivo de ayudar a educadores y profesionales a identificar contenido que podría haber sido generado por IA, con el fin de combatir el plagio y la desinformación.

Acción problemática

La acción consiste en que los estudiantes realizan alteraciones digitales utilizando IA para modificar la imagen del docente. Esto incluye ajustes faciales con el propósito de engañar o realizar suplantación de identidad, lo que no solo vulnera el consentimiento, sino que también podría tener implicaciones legales.