R2. ¿Conoces la teoría del test?
Hollow Lait
Created on August 31, 2024
More creations to inspire you
12 PRINCIPLES OF ANIMATION
Vertical infographics
HOW TO CREATE THE PERFECT VIRTUAL WORKSPACE
Vertical infographics
WHY WE LIKE INFOGRAPHICS
Vertical infographics
BOOKFLIX
Vertical infographics
Transcript
Dentro de esta rama existe un enfoque en el cual a través de métodos matemáticos se asignan números a elementos físicos y psicológicos, de manera que se puede llevar una serie de medidas que construyan diferencias individuales y permitan que los investigadores puedan llevar un análisis estadístico, evaluando e investigando como esto puede resultar eficaz, o no para una investigación de carácter serio.
Teoría de la medición
Teoría clásica de la medición (TCM)
Surge como centro de observación ante la particularidad de que existe una gran probabilidad de error de medición, debido a cuestiones aleatorias, intentando tener el propósito de acercarse a un mayor grado de precisión mediante la repetición y la estandarización.
Teoría Representacional (TR)
Tiene un enfoque más formal y matemático, en el cual se refleja los atributos psicológicos y físicos mediante sistemas numéricos, asegurándose de que los valores sean representativas y comparables, gracias a la función de sus modelos matemáticos avanzados.
Teoría Clásica de los Test (TCT)
Se parte desde el punto de que, al llevar a cabo una medición, existe dos elementos con características fundamentales, el primero es una medida real del rasgo que se quiere evaluar y el segundo es un grado de margen de error que puede llegar a distorsionar el resultado.
Teoría de la Generalizabilidad (TG)
Esta teoría realiza un elemento importante el cual permite evaluar la estabilidad de una serie de resultados dados al momento de un estudio, en donde se tiene como objetivo demostrar que diversas variables esperadas e inesperadas pueden llegar a afectar todo un resultado en conjunto.
Teoría de Respuesta al Ítem (TRI)
Tiene como objetivo que los individuos respondan a cada ítem en una prueba, utilizando modelos estadísticos para poder examinar las características de cada ítem y cómo estas influyen en las respuestas de los participantes.
Autores:
Autores:
Autores:
Supuestos:
Supuestos:
Supuestos:
Autores:
Características:
Características:
Características:
Características:
Características:
Características:
• Tiene un centro con lo que respecta a su validez, a través de métodos que calculan la confiabilidad como la consistencia interna y la estabilidad temporal.• En esta se postula que el resultado tiene un grado de verdadero y un error de medición, siendo que el factor verdadero representa el atributo real, por otra parte, el error termina siendo una aleatoriedad que afecta directamente la precisión de la medición.• Se toma el error de medición como algo aleatorio, considerando el error promedio como cero, por lo que no tendría por qué existir un sesgo en las puntuaciones.
Supuestos:
- El puntaje de cada ítem no es afectado por el error, siempre que se tenga una muestra suficientemente grande.
- El error de un ítem o reactivo no tiene correlación con el error de un ítem distinto.
- El error no se correlaciona con el puntaje verdadero de una variable latente.
Características:
- Esta tiene una variedad de aplicaciones en distintos contextos que van desde entornos de psicología hasta en educación, pues gracias a su análisis de herramientas de evaluación, tiene un grado de efectividad en diferentes situaciones y propósitos.
- Tiene un grado de optimización en donde tiene como objetivo el dar una medida a las habilidades, conocimientos y rasgos psicológicos, lo cual favorece la existencia de un marco sistemático para analizar la efectividad de las herramientas de medición.
- Al existir un grado verdadero y una variable impredecible, hay un punto que tiene como objetivo evaluar la estabilidad de los resultados en diferentes momentos y situaciones.
Autores:
Los autores principales de esta teoría son Charles Spearman, el cual introdujo el concepto de puntuación verdadera y error en la medición y Louis Thurstone, el cual desarrollo métodos estadísticos para analizar la validez y la confiabilidad.
Autores:
La Teoría de la Generalizabilidad (TG) fue desarrollada principalmente por dos estadísticos, el primero fue Lee J. Cronbach, pues amplió y refinó los conceptos de la Teoría Clásica de los Test al incorporar un análisis más detallado de las fuentes de error en las mediciones, y el segundo autor importante fue J. P. E. Gleser, colaborando y ampliando la comprensión de cómo las puntuaciones de los test pueden ser generalizadas a diferentes situaciones, contextos y condiciones.
Características:
- Las escalas de medición pueden compararse entre sí, existiendo una consistencia del cómo se representan las relaciones de los atributos en las escalas numéricas.
- Utiliza modelos matemáticos para lograr una mayor precisión de las escalas y el análisis de datos complejos.
- En esta escala se propone que los números son representaciones cercanas de las magnitudes que se miden.
Supuestos:
- Reconoce que las mediciones pueden verse afectadas por múltiples tipos de error, como variaciones en el contenido, administración, ambiente y características del evaluador y del evaluado.
- Permite que diferentes fuentes de error interactúen entre sí, en lugar de asumir que los errores son independientes como en la TCT.
- Evalúa cómo los resultados de una prueba en un contexto específico pueden aplicarse a otros contextos, considerando las diversas fuentes de error.
- Usa métodos estadísticos como el análisis de la varianza (ANOVA) para identificar cuánto de la variabilidad en las puntuaciones se debe a errores y cuánto a diferencias verdaderas entre los individuos.
- Examina cómo los diferentes aspectos del diseño de la prueba, como el tipo de prueba y las condiciones de administración, afectan la precisión y confiabilidad de los resultados.
Autores:
Esta teoría fue desarrollada por 2 personas, el primero fue Duncan Luce, el cual desarrolló la teoría donde la representación matemática fuesen las relaciones psicológicas y físicas, el segundo fue Patrick Suppes, quien colaboró en el desarrollo de modelos matemáticos para la teoría.
Características:
- La teoría de la generalizabilidad tiene en cuenta diferentes tipos de errores que pueden cambiar las notas, razón por la que existe un enfoque de cada error y su repercusión en los análisis.
- Toma en cuenta dentro de su análisis los errores que interactúan al momento de esta y el cómo estos generan distintas combinaciones en un mismo resultado.
- Examina que cierto tipo de observaciones pueden llegar a una prueba que tenga distintos factores o contexto y aun así arrojar los mismos resultados o similares.
Autores:
Teoría desarrollada por Georg Rasch con implicaciones principales en la construcción de esta, pero a la vez teniendo a diversas figuras como Fred Lord y Melvin Novick los cuales comenzaron la implementación de modelos nuevos para la teoría.
Supuestos:
- Parte de que la probabilidad de una respuesta depende de la habilidad del individuo y de las características específicas del ítem.
- Dentro del modelo de Rasch existe la dificultad de que el ítem y la habilidad del individuo son los únicos factores que influyen en la respuesta.
- Las respuestas tienen una distribución probabilística modelada matemáticamente para obtener estimaciones precisas.
Características:
- Modela la probabilidad de que un individuo responda a un ítem.
- Existen varios modelos dentro de esta teoría que tienen adaptabilidad a distintos datos y necesidades de evaluación, como el modelo de Rasch, donde la cuestión de dificultad y discriminación y la variable de adivinanza terminan siendo factores determinantes.
- Esta teoría permite estimar el rasgo latente con base en las respuestas de los ítems.