Want to create interactive content? It’s easy in Genially!
MPF - 13 - M8 - R1
CEV PUCE
Created on December 2, 2020
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Psychedelic Presentation
View
Modern Presentation
View
Relaxing Presentation
View
Chalkboard Presentation
View
Visual Presentation
View
Terrazzo Presentation
View
Halloween Presentation
Transcript
PROCESAMIENTO Y ANALISIS DE DATOS CUANTITATIVOS
Investigación cualitativa y cuantitativa en psicología forense
Psicología forense y peritaje psicológico
PROCESAMIENTO Y ANALISIS DE DATOS CUANTITATIVOS
La estadística permite recolectar, analizar, interpretar y presentar la información que se obtiene en el desarrollo de una determinada investigación. El paso siguiente a la elaboración del plan investigativo estadístico es la recolección definitiva de los datos. Esta recolección consiste en los procedimientos de observación y anotación registro de los hechos en los formularios que se han diseñado previamente. De esta recolección depende en gran parte la calidad del análisis que se realice, ya que pueden existir interpretaciones falsas y análisis erróneos de las situaciones, cuando existen fallas en la recolección de la información.
- Por esto todo dato grupo de datos obtenido, antes de ser totalizado y utilizado requiere un examen crítico, sobre aspectos de exactitud, precisión y representatividad, lo que se denomina la crítica del dato; después en caso que sea necesario, se procede a su codificación.
- En la actualidad el procesamiento de la información que permite el cálculo de medidas de estadísticas para el análisis se hace a través de programas de computador, no por lo que se debe poner más atención al significado de los resultados que a la situación de las fórmulas.
Estadística Descriptiva
- El análisis estadístico de los datos depende de 3 factores fundamentales. Por una parte, del nivel de medición de las variables; por la otra, de la manera como se hayan formulado la hipótesis, por último, del interés que posea el investigador.
- La manera de realizar análisis estadísticos varía según ésta sea manual o a través de programas informáticos.
Tabla de Frecuencia
- Frecuencia: Es un estadístico que se refiere a la cantidad de veces que una variable toma un valor determinado. se puede expresar como un número o como una proporción o porcentaje, es decir, como frecuencia absoluta o como frecuencia relativa.
- Frecuencia absoluta: es el número de observaciones que la variable toma es decir cuántas veces aparece el valor.
- Frecuencia relativa: es la proporción de observaciones en que la variable x toma ese determinado valor. Se obtiene dividiendo la cantidad de veces que la variable se repite, entre el total de observaciones.
Representaciones Gráficas:
- A la hora de analizar las frecuencias, puede ser interesante representar las tablas de una manera más visual, para Lo que se dispone diferentes tipos de representaciones gráficas.
- El diagrama de barras: se suele utilizar para presentar las frecuencias de las variables cualitativas. para cada valor que puede tomar la variable, se construye una barra o columna de altura proporcional a la frecuencia. se construye a partir de una tabla de frecuencias, tanto relativas porcentuales como absolutas.
- Diagrama de sectores: Representa la frecuencia observada mediante el área de los sectores de un círculo.
- Para las variables cuantitativas, resulta más interesante utilizar un histograma. A partir de una tabla de frecuencia simple o agrupadas, se elabora una representación gráfica en forma de columnas. es muy parecido a un diagrama de barras, con la diferencia de que el eje horizontal también tiene escala; es como si fuese una regla, con intervalos proporcionales numerados.
Medidas de Tendencia Central
A los conjuntos de datos podemos describirlos, además, en función de medidas de tendencia central. La tendencia central de cualquier conjunto de datos es la disposición de estos para agruparse ya sea alrededor del centro o de ciertos valores numéricos. sí Existen, principalmente 3 medidas de tendencia central: La media la mediana y la moda.
La moda (Mo)
- La moda es una medida de posición, es decir, posiciona un conjunto de datos. Particularmente, la moda es aquel valor o aquella categoría qué ocurre o se presenta con mayor frecuencia.
- Por ejemplo, en la siguiente tabla, la moda del grupo de datos que representan la edad es 14, ya que es el valor que más se repite
La moda de este grupo de datos es:Mo = 14
Ventajas:
- Se puede considerar la mejor medida de tendencia central. Indica el número de mayor concentración de datos. En una distribución asimétrica, la moda es la medida más representativa del grupo y si son muy diferentes la media aritmética y la moda es preferible utilizar esta última.
- En series polimodales, la moda permite dividir la distribución con fines de estratificación.
Desventajas :
- Es difícil calcular la moda en una serie agrupada y las aproximaciones de su cálculo no son de mucha confianza.
- No puede ser usado fácilmente en procesos algebraicos posteriores.
- No es sensible a cambios de valores de la distribución, a menos que se afecte su propio valor.
Promedio Aritmético o Media Aritmética
Ejemplo
Ventajas:
- Esta medida se define en forma rígida por una ecuación matemática muy fácil de entender. en casos en que no se conozcan los valores individuales se puede obtener, por ejemplo 30 personas ganan $ 1 800 000, En promedio cada persona ganará $ 60 000.
- La media aritmética es muy estable el muestreo.
- es altamente sensible a cualquier cambio en la distribución.
- Permite cálculos matemáticos posteriores (como promedios ponderados, promedios de promedios).
Desventajas:
- es afectada por los valores muy grandes o muy pequeños, por lo tanto valores muy extremos de la distribución Pueden afectar la representatividad del promedio aritmético con respecto a los valores de la distribución.
- En una distribución marcadamente asimétrica en donde el promedio aritmético, la mediana y la moda difieren en forma apreciable, se debe considerar que el promedio no es el único valor representativo de la distribución.
- Cuando la distribución tiene forma de U, es decir es parabólica, el promedio corresponde a los valores menos comunes de la serie y por lo tanto da una idea irreal de la distribución.
Mediana:
- En un conjunto ordenado de datos es el valor que divide al conjunto de valores en dos partes iguales. no es afectada tan drásticamente por los valores extremos. Ejemplo:
- Se tiene un listado ordenado del número de pulsaciones por minuto de un grupo de 9 estudiantes.
Ventajas:
- Es una medida fácil de calcular y no está afectada por los datos extremos.
- Hay ocasiones en que es la única medida de tendencia central qué puede calcularse; como cuando las distribuciones no tienen definidos los límites extremos.
Desventajas:
- No es tan conocida como la media aritmética.
- Es necesario ordenar los datos.
- No permite cálculos matemáticos posteriores.
- La mediana no se afecta por cambios de valores de los elementos que componen la distribución.
Medidas de Dispersión o Variabilidad
- Los estadígrafos dispersión son aquellos que describen cómo se agrupan o dispersan los datos alrededor de un promedio. Permiten conocer si el promedio representa adecuadamente la distribución considerada, cuando menor sea la dispersión más representativos será el promedio, la mediana o la moda. Miden el grado de homogeneidad de los datos; cuando los datos son iguales las medidas de dispersión son iguales a cero; cuando existe mucha heterogeneidad las medidas de dispersión serán grandes.
- Además, sirven para el cálculo del tamaño de la muestra, a menor variabilidad menos tamaño de muestra requerido.
- Los estadígrafos de dispersión o variabilidad tienen sentido solo acompañando las medidas de posición o de tendencia central.
- en general se consideran como estadígrafos de dispersión: El rango, la desviación estándar y la varianza.
El rango
- Es la diferencia entre el dato mayor y el dato menor de la distribución de frecuencias; también es llamado recorrido. cuanto más grande sea el rango, mayor será la dispersión de los datos. Se calcula:
- Rango = Xmax – Xmin
Varianza
La Desviación Estándar:
Medidas de Asimetría
- Estos estadígrafos indican la dirección que toman los datos respecto a un eje. Se dice que una distribución simétrica si los datos se distribuyen de igual forma al lado y lado del eje, en cuyo caso la simetría es igual a cero; puede ser positiva si los datos se agrupan a la derecha del eje o negativa si se agrupan a la izquierda
Estadística Inferencial
- La Estadística inferencial se utiliza para dos procedimientos: a) estimar parámetros y b) probar hipótesis.
- Estimación de Parámetros: los parámetros no pueden ser calculados, por qué no se recolectan todos los datos de la población; Por lo tanto, se calculan Los estadígrafos y a partir de ellos se estiman Los parámetros.
- De otra parte, la existencia de las distribuciones muestrales, requiere que para inferir valores poblacionales a partir de estadísticas muestrales, no se acepte de inmediato hacerlo con el valor exacto calculado como promedio, sino a partir de un intervalo que contenga con mayor confianza el valor poblacional buscado.
- Se ha mencionado que los estadígrafos son estimativos del parámetro, pero ocasiones se obtienen dos valores que contienen dicho parámetro, el intervalo entre estos dos valores se denomina intervalo de confianza.
- Un intervalo de confianza son dos valores límites dentro de los cuales se puede esperar se encuentre un parámetro determinado, como por ejemplo la proporción, o el promedio de una población con un determinado nivel de confiabilidad.
Prueba de Hipótesis:
- Cuando el investigador necesita decidir con respecto a una población examinando una muestra de ella, según diseño analítico de casos y controles, se utiliza la prueba de hipótesis.
- En el proceso investigativo una hipótesis define como una suposición que se plantea para explicar ciertos hechos o eventos y se emplea como base para desarrollar una investigación mediante la cual se busca demostrarla o refutarla.
- Esta hipótesis se traduce en una de tipo estadístico definida como una suposición acerca de un parámetro o de otro valor estadístico de una población, Hipótesis alterna; para hacer la comparación se utiliza la hipótesis nula, la cual supone que no hay diferencia real entre los grupos de valores que se quieren comparar y se supone que las diferencias observadas son debidas a variaciones aleatorias de los datos. Para decidir si se rechaza o no la hipótesis de nulidad, se calcula un valor y se compara con otro que se encuentra en tablas de estadísticas, las cuales indican la probabilidad de cometer un error al aceptar o rechazar la hipótesis de nulidad.
- Si el valor calculado es mayor al valor obtenido de las tablas, la hipótesis de nulidad de rechaza y la diferencia encontrada entre los dos grupos de valores se declara estadísticamente significativa.
- En los informes clínicos de tipo científico se acostumbra señalar el nivel más bajo de las tablas con el que fue rechazada la hipótesis de nulidad; este valor se señala con una letra p, seguido del valor de las tablas p < 0,01 Qué quieres decir: existe una probabilidad < del 1% que las diferencias observadas entre las dos series de valores se deban a variaciones aleatorias de los datos; es decir tiene una significancia estadística del 1% por lo tanto tienen un 99% de probabilidad de ser correcto el rechazo de la hipótesis nula.
Errores en la prueba de hipótesis
- Error tipo 1: a veces las diferencias observadas entre los promedios o proporciones de 2 muestras pueden ser lo suficientemente grandes para rechazar la hipótesis de nulidad, pero esta diferencia puede ser sin embargo debida al azar. El rechazar la hipótesis de nulidad cuando ésta es cierta se conoce como error tipo 1.
- Error tipo 2: también por azar, puede ocurrir que las muestras presenten diferencias pequeñas que concuerden con lo previsto por la hipótesis de nulidad y al observar los resultados se acepta como cierta la hipótesis de nulidad, aunque en realidad se trata de poblaciones que difieren en el parámetro medido. Esta situación se conoce como error tipo 2.
Análisis Bidimensional
- En numerosas ocasiones nos interesa estudiar simultáneamente dos variables de una población. En tal caso, se habla de análisis bidimensional. este análisis es muy útil para saber si existe o no una relación entre 2 variables. Nos puede permitir comprobar, por ejemplo, si el nivel educativo está relacionado con esperanza de vida. La clasificación de variables como dependientes o independientes es de utilidad para el análisis dimensional. Si creemos saber cómo explicar los valores observados de una variable podemos ir viendo si está relacionada con otras variables.
- Según el tipo de variables suelen utilizar: Diagramas de dispersión y el coeficiente de correlación.
- Los datos de la distribución bidimensional, pueden representarse gráficamente en un par de ejes coordenados. tomando al eje de las abscisas para la variable x y al eje de las coordenadas, para los valores de la segunda variable (Y). En un plano cartesiano se presentan tantos puntos como pares de observaciones se tengan; a cada punto corresponde un par de observaciones, a esta representación gráfica se le denomina diagrama de dispersión o nube de puntos.
Regresión
- Todo investigador generalmente cuenta con una muestra de observaciones, basado en su análisis le interesa llegar a conclusiones en la población de la cual obtuvo la muestra. Por lo tanto, cuando en el análisis se va a utilizar el modelo de regresión lineal simple, se debe estar seguro de que dicho modelo es al menos una representación aproximada de la población.
- El término regresión se refiere a un modelo matemático que permite unir algunos puntos de la nube o conjunto de puntos mediante un ajuste rectilíneo.
- Un estadístico muy utilizado pues él coeficiente de correlación lineal de Pearson, qué sirve para cuantificar el grado de relación lineal entre las dos variables. para ello, es interesante representar primero los datos en un diagrama de dispersión Para comprobar si se agrupan más o menos respecto a una recta. el cálculo del coeficiente de correlación lineal se lo puede determinar a través de paquetes estadísticos, el coeficiente de correlación Puede estar entre -1 y 1. Si es mayor qué cero, se trata de una correlación lineal positiva (si aumenta una variable, también lo hará la otra) y, si es menor que cero, de una correlación lineal negativa. cuanto más cerca de -1 o 1, más fuerte es la correlación. sí es cero, se considera que no hay correlación
Procesamiento y Análisis de Datos Cualitativos
- A diferencia de los estudios cuantitativos, en la investigación cualitativa se recauda un volumen grande de información De carácter textual, producto de las entrevistas a los informantes, las notas de campo y el material audiovisual o gráfico que se obtiene el trabajo de campo. El análisis de los estudios cualitativos consiste en la realización de las operaciones a las que el investigador someter a los datos con la finalidad de alcanzar los objetivos propuesto en el estudio.
El trabajo con los Datos
- Existen varias técnicas y estrategias para analizar los datos y darle sentido. Dado que en todos los estudios cualitativos contienen buenos datos descriptivos, proporcionan una descripción íntima de la vida social y pueden conducir a análisis de etnográficos.
- El Análisis de los resultados obtenidos se efectúa en varias etapas. En la primera, la fase de descubrimiento, el investigador debe reconocer las pautas con que emergen sus datos, examinándolos de todos los modos posibles. En la segunda fase de codificación, Se reúnen y analizan los datos según su semejanza, Siguiendo la secuencia de: desarrollar categorías de codificación, Codificación de los datos en cuanto a su correspondencia positiva o negativa, separar los datos pertenecientes a cada categoría, verificación de los datos sobrantes y redefinición del análisis. La fase final del análisis, la relativización de los datos consiste en la interpretación de la información Según el contexto en el que fue recolectada, considerando si fueron o no solicitados, las personas que se encontraban el entorno inmediato al momento de la recolección, Si son datos directos o indirectos, la fuente de la información Y el sesgo de los propios supuestos.
Reducción y Categorización de la Información
- Reducir los datos
- La categorización facilita la clasificación de los datos registrados y por consiguiente, propicia una importante simplificación.
- Las Categorías pueden constituirse utilizando una palabra de una idea que sea similar en otras ideas, o creando un nombre en base a un criterio unificador, logrando que al final del proceso todas las ideas están incluidas en alguna categoría. Cuando se han incluido muchas ideas en una categoría se debe analizar la posibilidad le dividir leen subcategorías para facilitar el análisis.
- La Categorización puede hacerse antes de entrevistar o después de haber hecho las entrevistas. la categorización puede estar predefinida por El analista o, por el contrario, puede surgir a medida que se analizan los datos ya recogidos.
Clarificar sintetizar y comparar
Consiste en reducir aún más la información recogida en el paso anterior, mediante cualquier recurso que permita mostrar conclusiones acerca de las respuestas que se obtuvieron para cada categoría por el grupo de entrevistados. Una forma podría ser simplemente reduciéndolo todo a un conjunto de conclusiones que sirvan para dar respuesta a los objetivos específicos en forma directa. Otra posibilidad más gráfica, y por lo tanto más fácil de comprender, por parte de los evaluadores, es transferir las respuestas a tablas y las que las filas representan las categorías ordenadas y las columnas a los entrevistados, con una columna final para mostrar conclusiones. En este caso estamos comparando las respuestas de cada uno de los entrevistados para sacar conclusiones que puedan ser vistas lado a lado en la tabla correspondiente. Se hacen tantas tablas comparativas como sea necesario.
- Una vez hechas las entrevistas, hay que reducir esa masa de información a un texto que sea fácil de analizar y sacar conclusiones.
- Este trabajo es crucial en toda la investigación. Se debe transcribir toda la información grabada, esto es así porque uno debe leer posteriormente toda esa información escrita tantas veces como sea necesario y hacer todos los comentarios al texto que a uno se le ocurran, A la vez que se destacan las expresiones, frases, oraciones y párrafos que resultan significativos para resolver las interrogantes que nos plantean los objetivos. actualmente contamos con programas de computadoras para hacerlo como el Atlas ti.
-
Bibliografía
- Bonilla C, Elsy y Rodríguez, Penélope. (1997). Mas allá del dilema de los métodos. La Investigación en ciencias sociales. 3ra Ed. Ediciones Uniandes. Santafé de Bogotá.
- Hernández S, Roberto y Otros. (2010). Metodología de la Investigación. 5ta Ed. McGraw-Hill. México.
- Monje Carlos. (2011). Metodología de la Investigación Cuantitativa y Cualitativa. Guía Didáctica. Neiva. Universidad Surcolombiana: Facultad de Ciencias Sociales y Humanas. Colombia.
- Rodriguez, G., Gil, J., Garcia, E. (1996). Metodología de la investigación cualitativa. Ediciones Aljibe. España.
- Strauss, A. Corbin, J. (2002). Bases de la Investigación Cualitativa. Técnicas y procedimientos para desarrollar la teoría fundamentada. Universidad de Antioquia. Medellín.
