test
Margot Sanchez
Created on September 5, 2024
More creations to inspire you
MY PORTFOLIO - TECH
Personal Branding
ABOUT ME - PROFESSIONAL PRESENTATION
Personal Branding
MY WORK EXPERIENCE
Personal Branding
RESUME, LANGUAGES, & SKILLS
Personal Branding
LAYWER RESUME
Personal Branding
MY SOCIAL MEDIA
Personal Branding
MY RESUME - GRAPHIC DESIGNER
Personal Branding
Transcript
Test referidos a la norma.
Test referidos al criterio.
Pasos.
En los Test Referidos al Criterio (TRC), se delimita el dominio de contenido y el uso pretendido del test, en los TRC se presta mucha atención a las especificaciones de contenido y a la elaboración y análisis cualitativo de los ítems. Los TRC se pueden utilizar para dos tipos de objetivos: la estimación de la puntuación dominio de los sujetos y el establecimiento de estándares mediante puntos de corte.Ejemplo: Escala de depresión de Beck, Escala de riesgo suicida Plutchik.
En los Test Referidos a la Norma (TRN) los ítems suelen derivarse de alguna teoría de rasgos y no se hace tanto hincapié en la especificación clara del dominio de contenidos En los TRN el objetivo es maximizar las diferencias individuales por lo que se eligen ítems de dificultad media y alto índice de discriminación para incrementar el poder discriminativo del test.Ejemplo: Escala de inteligencia Weschler, Escala Terman.
ELEMENTOS DE UN TEST
Especificaciones de los test
Elaboración de los test
1. MARCO GENERAL
2. DEFINICIÓN DE LA VARIABLE
3. ESPECIFÍCACIONES
4. CONSTRUCCIÓN DE LOS ITÉMS
5. EDICIÓN
6. ESTUDIOS PILOTOS
8. APLICACIÓN DEL TEST
7. SELECCIÓN DE OTROS INSTRUMENTOS DE MEDIDA
9. PROPIEDADES PSICÓMETRICAS
10. VERSIÓN FINAL DEL TEST
Todo proceso de construcción de un instrumento de medida empieza por una explicación detallada y precisa de cuáles son las razones que motivan su desarrollo. Hay que justifi carlo adecuadamente, asi mismo hay que delimitar cuál es la variable objeto de medición, cuál va a ser el contexto de aplicación, las circunstancias en las que se va a aplicar el instrumento, el tipo de aplicación, el formato de administración, y qué decisiones se van a tomar a partir de las puntuaciones. Wilson (2005).
El objetivo de esta fase es la defi nición operativa, semántica y sintáctica de la variable medida. La variable evaluada debe defi nirse en términos operativos para que pueda ser medida de forma empírica (Muñiz, 2004). En este sentido, puede ser definir cuidadosamente lo que es como lo que no es. La facilidad o dificultad de la definición operativa depende en cierta medida de la naturaleza de la variable objeto de medición. Para llevar a cabo una definición operativa, es clave realizar una revisión exhaustiva de la literatura publicada al respecto, así como la consulta a expertos ( Wilson, 2005). Ello permite, delimitar la variable objeto de medición y considerar todas las dimensiones relevantes de la misma y, tambien permite, identificar con claridad los comportamientos más representativos de tal variable. Asimismo, no se deben incorporar facetas, o ítems, que no tengan relación con la variable objeto de medición (varianza irrelevante).
En esta fase se deben describir de forma detallada y precisa aspectos concernientes a los requerimientos de aplicación del instrumento, el tipo, número, longitud, contenido y distribución de los ítems, especificaciones e instrucciones en la entrega del material y aspectos relacionados con la seguridad del mismo. Los requerimientos de aplicación del instrumento de medida se refieren a cuál va a ser el soporte de administración (papel y/o informático), a qué tipo de aplicación se va a realizar (individual y/o colectiva), y cuándo y en qué lugar se va a administrar el instrumento de medida. Igualmente, se deben especifi car los requerimientos cognitivos, de vocabulario y de accesibilidad de los participantes, así como las derivadas del rango de edades al que se pretende aplicar el mismo. (Wells y Faulkner-Bond, 2016).
La construcción de los ítems constituye una de las etapas más cruciales dentro del proceso de elaboración del test. Los ítems son escenciales, a partir de los cuales se conforma un instrumento de evaluación, por lo que una construcción deficiente de los mismos incidirá en las propiedades métricas finales del instrumento de medida y en la validez de las inferencias que se hagan a partir de las puntuaciones. Si los ítems provienen de otro instrumento ya existente en otro idioma y cultura deberán seguirse las directrices internacionales para la traducción y adaptación de test (Muñiz, Elsoua y Hambleton, 2013). En el caso de ítems originales han de seguirse las directrices elaboradas para su desarrollo (Downing y Haladyna, 2006; Muñiz, 2018).
Aquí se compone y se imprime la primera versión del test, además de construir la base de datos con las claves de corrección. Este paso ha sido con frecuencia injustamente infraestimado pese a que es esencial, buenos ítems pobremente editados dan como resultado un mal test. Podemos haber construido un buen banco de ítems que de nada servirá si luego se presentan de forma desorganizada, con errores tipográfi cos, o en un cuadernillo defectuoso.
Por otra parte, en esta fase también se debe construir, si fuera el caso, la base de datos donde se van a tabular las puntuaciones y a realizar los análisis estadísticos, así como las normas de corrección y puntuación, por ejemplo, si existen ítems que se deben recodificar, si se va a crear una puntuación total o varias puntaciones.
La finalidad es examinar el funcionamiento general del instrumento de medida en una muestra de participantes con características semejantes a la población objeto de interés. Esta fase es sumamente importante porque permite detectar, evitar y corregir posibles errores, así como llevar a cabo una primera comprobación del funcionamiento del test en el contexto aplicado. Existen dos tipos de estudio piloto: cualitativo y cuantitativo (Wilson, 2005). El estudio piloto cualitativo permite, a partir de grupos de discusión, debatir diferentes aspectos relacionados con el instrumento de medida. Por su parte, el estudio piloto cuantitativo permite examinar las propiedades métricas de la versión preliminar del instrumento de medida y ha de llevarse a cabo con personas similares a las que va dirigida la prueba. En ambos casos se deben anotar de forma detallada todas las posibles incidencias acaecidas durante la aplicación.
La selección adecuada de otros instrumentos de evaluación permite recoger evidencias a favor de la validez de las puntuaciones de los participantes (Elosúa, 2003). La selección adecuada de otras variables permite aglutinar diferentes tipos de evidencias que conduzcan a una mejor interpretación de las puntuaciones en el instrumento de medida dentro de un contexto y uso particular. En este sentido, se pueden establecer relaciones con un criterio externo, con otros instrumentos de medida que pretendan medir la misma variable u otras diferentes . Las asociaciones entre las variables son la base para la obtención de evidencias de validez de relación con variables externas, que permite la construcción de una red nomológica.
En esta fase de estudio de campo se incluye la selección de la muestra (tipo, tamaño y procedimiento), la aplicación propiamente dicha del instrumento de medida a los participantes y el control de calidad y seguridad de la base de datos. La representatividad y generalizabilidad de los resultados depende en gran medida de que la muestra elegida sea realmente representativa de la población objetivo de estudio. Elegir una muestra pertinente en cuanto a representatividad y tamaño es esencial, si se falla en esto todo lo demás va a quedar invalidado. El muestreo probabilístico siempre es preferible al no probabilístico, para la estimación del tamaño muestral requerido para un determinado error de medida ha de acudirse a los textos especializados, o consultar los expertos en la tecnología de muestreo.
Una vez aplicado el test se procede al estudio de las propiedades psicométricas de las puntuaciones del mismo: análisis de los ítems, estimación de la fiabilidad de las puntuaciones, obtención de evidencias de validez y construccion de baremos.
La fiabilidad se refiere a la precisión de las puntuaciones, mientras que la validez se refiere a la calidad de las inferencias hechas a partir de las puntuaciones (Muñiz, 2018; Prieto y Delgado, 2010). En sentido estricto no es fiable el test, sino las puntuaciones obtenidas en él. Análogamente, un test no es válido, sino que lo son las inferencias hechas a partir de las puntuaciones.
En último lugar, se envía un informe de resultados a las partes legítimamente implicadas en el proceso de evaluación y se elabora el manual que permita su utilización a otras personas o instituciones. El manual debe de recoger con todo detalle las características relevantes de la prueba. Finalmente, y aunque sea la última fase, esto no quiere decir que el proceso de validación concluya, ya que posteriores estudios deberán seguir recogiendo evidencias de validez que permitan tomar decisiones fundadas a partir de las puntuaciones de las personas.