Want to create interactive content? It’s easy in Genially!

Get started free

Tema 5 - ICHI

Soporte ICATECH

Created on November 5, 2025

Start designing with a free template

Discover more than 1500 professional designs like these:

Neodigital CPD Course

Minimal Course

Basic Interactive Course

Laws and Regulations Course

Transcript

TEMA 5

Buenas prácticas de uso de ChatGPT

Empezar

Esta presentación es interactiva, te dejo algunos tips para que accedas a todo su contenido.

Este ícono que aparece en la parte superior derecha te permite ver todos los enlaces Este ícono te permitira volver al índice Este ícono te permitirá avanzar en la presentación Este ícono te permitirá retroceder en la presentación Este ícono te abrirá una etiqueta con información Al dar clic te mostrará información adicional

5.1

Seguridad y privacidad al usar IA

Las preocupaciones sobre la privacidad en la inteligencia artificial suelen estar vinculadas a la recolección de datos, la seguridad cibernética, el diseño de los modelos y los mecanismos de gobernanza.

+Info

Es posible desarrollar estrategias de privacidad basadas en IA. Entre las recomendaciones se incluyen:

Limitar la recopilación de datos

Buscar consentimiento explícito

Protección para los datos de dominios confidenciales

Evaluaciones de riesgos

5.2

Evitar la dependencia excesiva

El uso excesivo o indiscriminado de la IA puede generar dependencia tecnológica, disminuyendo la capacidad crítica, la creatividad y la autonomía de las personas. Evitar esta dependencia implica reconocer los límites de la IA, mantener un equilibrio entre la automatización y la intervención humana y asegurar que las decisiones importantes sigan siendo supervisadas por individuos capacitados.

Estrategias para evitar la dependencia

Crear un horario definido

Desconexión consciente

Usar la IA como apoyo, no como sustituto

Utilizar el método Pomodoro

Alternar tareas con y sin tecnología

Diversificar fuentes de información

Reflexión crítica sobre las recomendaciones de la IA

5.3

Cómo verificar la información generada

Verificar la información generada por inteligencia artificial es fundamental, ya que los modelos pueden producir errores, datos desactualizados o contenido inventado. Para garantizar su precisión, es recomendable contrastar los datos con fuentes confiables.

+Info

Señales que pueden ayudar a identificar el texto generado por IA:

La IA produce oraciones sin sentido o extrañas, lo que puede ser un claro indicador. Cambios bruscos de tono, estilo o tema pueden indicar que la IA tiene dificultades para mantener la coherencia de las ideas.

Si el texto parece no captar el contexto general, no capta la idea principal o menciona detalles específicos sin el contexto adecuado, podría ser IA, ya que estos modelos carecen de comprensión y matices del mundo real.

Algunos modelos de generación de texto con IA utilizan marcadores de posición como "Insertar nombre aquí" si carecen de información suficiente para rellenar los espacios.

Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.

Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.

Use this side of the card to provide more information about a topic. Focus on one concept. Make learning and communication more efficient.

Title

Inconsistencias y repeticiones

Title

Contexto y contenido

Title

Texto de marcador de posición

Write a brief description here

Write a brief description here

Write a brief description here

“Una mente crítica vale más que mil algoritmos”

Los riesgos de privacidad deben evaluarse y abordarse a lo largo del ciclo de vida de desarrollo de un sistema de IA.

Algunos de estos riesgos de privacidad incluyen:

  • Recopilación de datos sensibles
  • Recopilación de datos sin consentimiento
  • Uso de datos sin permiso
  • Vigilancia y sesgos no comprobados
  • Exfiltración de datos
  • Filtración de información

Evitar depender exclusivamente de la IA para obtener información o generar contenido.

Los datos de ciertos ámbitos requieren protección adicional y deben emplearse únicamente en contextos estrictamente definidos. Entre estos dominios sensibles se encuentran el estado, el empleo, la educación, la justicia penal y las finanzas personales. Además, cualquier información generada por o sobre menores se considera confidencial.

Equilibrar actividades que requieran IA con otras que no es clave para mantener la salud mental y evitar la sobrecarga cognitiva.

También es importante corroborar la información con múltiples fuentes independientes y evaluar la autoridad de estas, priorizando expertos reconocidos, instituciones académicas o medios confiables, evitando depender únicamente de blogs o redes sociales sin respaldo profesional. Conviene identificar inconsistencias o señales de alerta, como datos contradictorios o afirmaciones excesivamente absolutas, que puedan indicar falta de base sólida.

La IA debe considerarse una herramienta complementaria, no un reemplazo de la toma de decisiones o la creatividad personal.

Trabaja en bloques de tiempo cortos (25 minutos) con descansos regulares de 5 minutos. Esto evitará que te sumerjas demasiado en el uso continuo de la IA.

Las organizaciones deben reducir la recopilación de datos de entrenamiento a lo estrictamente legal y conforme a las expectativas de las personas cuyos datos se recogen. Además de esta minimización de datos, las empresas deben establecer plazos de retención, con el objetivo de eliminar la información lo antes posible.

Definir periodos limitados durante los cuales se utilizarán herramientas de IA ayuda a evitar la sobreexposición.

  • Mindfulness: puede ayudarte a liberar la tensión acumulada por el uso de la IA.
  • Hobbies offline: Dedica tiempo a actividades sin pantallas.

Las organizaciones deben proporcionar al público mecanismos de “consentimiento, acceso y control” sobre sus datos. El consentimiento debe volver a obtenerse si cambia el caso de uso que motivó la recopilación de datos.

Antes de aceptar sugerencias o resultados generados por la IA, es importante evaluarlos con criterio propio. Esto reduce la confianza ciega en la tecnología.