martes, 16 de febrero de 2021

SISTEMA OPERATIVO SPSS.


 






Para procesar la información de la realidad científica al igual que la realidad socio-comunitaria existen condiciones, procesos, factores y elementos de corte cualitativo, cuantitativo o mixtos, dependiendo de la naturaleza del nudo critico o realidad a investigar, hoy en dia el avance de la ciencia y la tecnología es grandioso y se da a pasos gigantes, sin embargo en este estudio se han retomados de wikipedias, de investigaciones establecidas en la red, destacando, procesos estadísticos, cálculos, etc. Donde se explican dos modelos operativos que recogen los principales paradigmas descritos, no son los únicos ni son un patrón estandart, pero abarcan un sin número de procesos y factores importantes en el desarrollo y avance de la ciencia y de la sociedad misma. 

SPSS SISTEMA OPERATIVO PARA TRABAJAR DATOS ENFOQUE CUANTITATIVO: SPSS 

Es un programa estadístico informático muy usado en las ciencias sociales y aplicadas, además de las empresas de investigación de mercado. El nombre originario correspondía al acrónimo de StatisticalPackageforthe Social Sciences (SPSS), reflejando la orientación a su mercado original (ciencias sociales), aunque este programa es también muy utilizado en otros campos como la mercadotecnia. Sin embargo, en la actualidad la parte SPSS del nombre completo del software (IBM SPSS) no es acrónimo de nada.1 Es uno de los programas estadísticos más conocidos teniendo en cuenta su capacidad para trabajar con grandes bases de datos y una sencilla interfaz para la mayoría de los análisis. En la versión 12 de SPSS se podían realizar análisis con dos millones de registros y 250.000 variables. El programa consiste en un módulo de base y módulos anexos que se han ido actualizando constantemente con nuevos procedimientos estadísticos. Cada uno de estos módulos se compra por separado. Por ejemplo SPSS puede ser utilizado para evaluar cuestiones educativas. Actualmente, compite no sólo con programas licenciados como SAS, MATLAB, Statistica, Stata, sino también con software de código abierto y libre, de los cuales el más destacado es el Lenguaje R. Recientemente ha sido desarrollado un paquete libre llamado PSPP, con una interfaz llamada PSPPire que ha sido compilada para diversos sistemas operativos como Linux, además de versiones para Windows y macOS. Este último paquete pretende ser un clon de código abierto que emule todas las posibilidades del SPSS. Historia Evolutiva SPSS Fue creado en 1968 por Norman H. Nie, C. Hadlai (Tex) Hull y Dale H. Bent. Entre 1969 y 1975 la Universidad de Chicago por medio de su NationalOpinionResearchCenterestuvo a cargo del desarrollo, distribución y venta del programa. A partir de 1975 corresponde a SPSS Inc. Originalmente el programa fue creado para grandes computadores. En 1970 se publica el primer manual de usuario del SPSS por Nie y Hall. Este manual populariza el programa entre las instituciones de educación superior en Estados Unidos. En 1984 sale la primera versión para computadores personales. Desde la versión 14, pero más específicamente desde la versión 15 se ha implantado la posibilidad de hacer uso de las librerías de objetos del SPSS desde diversos lenguajes de programación. Aunque principalmente se ha implementado para Python, también existe la posibilidad de trabajar desde Visual Basic, C++ y otros lenguajes. El 28 de junio de 2009 se anuncia que IBM, meses después de ver frustrado su intento de compra de Sun Microsystems, adquiere SPSS, por 1.200 millones de dólares.2 Versiones del SPSS SPSS Inc. desarrolla un módulo básico del paquete estadístico SPSS, del que han aparecido las siguientes versiones:  SPSS 1 - 1968  SPSSxrelease 2 - 1983 (para grandes servidores tipo UNIX)  SPSS 5.0 - diciembre 1993  SPSS 6.1 - febrero 1995  SPSS 7.5 - enero 1997  SPSS 8.0 - 1998  SPSS 9.0 - marzo 1999  SPSS 10.0.5 - diciembre 1999  SPSS 10.0.7 - julio 2000  SPSS 10.1.4 - enero 2002  SPSS 11.0.1 - abril 2002  SPSS 11.5.1 - abril 2003  SPSS 12.0.1 - julio 2004  SPSS 13.0.1 - marzo 2005 (Permite por primera vez trabajar con múltiples bases de datos al mismo tiempo.)  SPSS 14.0.1 - enero 2006  SPSS 15.0.1 - noviembre 2006  SPSS 16.0.1 - noviembre 2007  SPSS 17.0.1 - noviembre 2008(En la lista de usuarios de SPSS "SPSSX (r) Discussion [SPSSX-L@LISTSERV. UGA. EDU]" varios funcionarios de la empresa anunciaron previamente la salida de la versión 16 de este software. En ella se incorporó una interfaz basada en Java que permite realizar algunas mejoras en las facilidades de uso del sistema.)  SPSS 16.0.2 - abril 2008  SPSS Statistics 17.0.1 - diciembre 2008 (Incorpora aportes importantes como el ser multilenguaje, pudiendo cambiar de idioma en las opciones siempre que queramos. También incluye modificaciones en el editor de sintaxis de forma tal que resalta las palabras claves y comandos, haciendo sugerencias mientras se escribe. En este sentido se aproxima a los sistemas IDE que se utilizan en programación.)  SPSS Statistics 17.0.2 - marzo 2009  PASW Statistics 17.0.3 - septiembre 2009 (IBM adquiere los derechos y cambia su denominación de SPSS por PASW 18)  PASW Statistics 18.0 - agosto 2009  PASW Statistics 18.0.1 - diciembre 2009  PASW Statistics 18.0.2 - abril 2010  PASW Statistics 18.0.3 - septiembre 2010  IBM SPSS Statistics 19.0 - agosto 2010 (Pasa a denominarse IBM SPSS)  IBM SPSS Statistics 19.0.1 - diciembre 2010  IBM SPSS Statistics 20.0 - agosto 2011  IBM SPSS Statistics 20.0.1 - marzo 2012  IBM SPSS Statistics 21.0 - agosto 2012  IBM SPSS Statistics 22.0 - agosto 2013  IBM SPSS Statistics 23.0 - agosto 2014  IBM SPSS Statistics 24.0 - junio 2016  IBM SPSS Statistics 25.0 - marzo 2017 


CARACTERIZACION  MODULOS    SPSS

El sistema de módulos de SPSS, como los de otros programas (similar al de algunos lenguajes de programación) provee toda una serie de capacidades adicionales a las existentes en el sistema base. Algunos de los módulos disponibles son:  Modelos de Regresión  Modelos Avanzados o Reducción de datos: Permite crear variables sintéticas a partir de variables colineales por medio del Análisis Factorial. o Clasificación: Permite realizar agrupaciones de observaciones o de variables (clusteranalysis) mediante tres algoritmos distintos. o Pruebas no paramétricas: Permite realizar distintas pruebas estadísticas especializadas en distribuciones no normales.  Tablas: Permite al usuario dar un formato especial a las salidas de los datos para su uso posterior. Existe una cierta tendencia dentro de los usuarios y de los desarrolladores del software por dejar de lado el sistema original de TABLES para hacer uso más extensivo de las llamadas CUSTOM TABLES.  Tendencias  Categorías: Permite realizar análisis multivariados de variables normalmente categorías. También se pueden usar variables métricas siempre que se realice el proceso de recodificación adecuado de las mismas.  Análisis Conjunto: Permite realizar el análisis de datos recogidos para este tipo específico de pruebas estadísticas.  Mapas: Permite la representación geográfica de la información contenida en un fichero (descontinuado para SPSS 16).  Pruebas Exactas: permite realizar pruebas estadísticas en muestras pequeñas.  Análisis de Valores Perdidos: Regresión simple basada en imputaciones sobre los valores ausentes.  Muestras Complejas: permite trabajar para la creación de muestras estratificadas, por conglomerados u otros tipos de muestras.  SamplePower (cálculo de tamaños muestrales)  Árboles de Clasificación: Permite formular árboles de clasificación y/o decisión con lo cual se puede identificar la conformación de grupos y predecir la conducta de sus miembros.  Validación de Datos: Permite al usuario realizar revisiones lógicas de la información contenida en un fichero ".sav" y obtener reportes de los valores considerados atípicos. Es similar al uso de sintaxis o scripts para realizar revisiones de los ficheros. De la misma forma que estos mecanismos es posterior a la digitalización de los datos.  SPSS Programmability 



Extensión (SPSS 14 en adelante). Permite utilizar el lenguaje de programación Python para un mejor control de diversos procesos dentro del programa que hasta ahora eran realizados principalmente mediante scripts (con el lenguaje SAX Basic). Existe también la posibilidad de usar las tecnologías .NET de Microsoft para hacer uso de las librerías del SPSS. Aunque algunos usuarios han cuestionado sobre la necesidad de incluir otros lenguajes, la empresa no tiene esto entre sus objetivos inmediatos. Desde el SPSS/PC hay una versión adjunta denomina SPSS Student que es un programa completo de la versión correspondiente pero limitada en su capacidad en cuanto al número de registros y variables que puede procesar. Esta versión es para fines de enseñanza del manejo del programa. Manejo del SPSS: SPSS tiene un sistema de ficheros en el cual el principal son los archivos de datos (extensión. SAV). Aparte de este tipo existen otros dos tipos de uso frecuente:  Archivos de salida (output, extensión. SPO): en estos se despliega toda la información de manipulación de los datos que realizan los usuarios mediante las ventanas de comandos. Son susceptibles de ser exportados con varios formatos (originalmente HTML, RTF o TXT, actualmente la versión 15 incorpora la exportación a PDF junto a los formatos XLS y DOC que ya se encontraban en la versión 12).  Archivos de sintaxis (extensión. SPS): Casi todas las ventanas de SPSS cuentan con un botón que permite hacer el pegado del proceso que el usuario desea realizar. Lo anterior genera un archivo de sintaxis donde se van guardando todas las instrucciones que llevan a cabo los comandos del SPSS. Este archivo es susceptible de ser modificado por el usuario. Muchos de los primeros usuarios del SPSS suelen escribir estos archivos en vez de utilizar el sistema de pegado del programa. Existe un tercer tipo de fichero: el fichero de scripts (extensión. SBS). Este fichero es utilizado por los usuarios más avanzados del software para generar rutinas que permiten automatizar procesos muy largos y/o complejos. Muchos de estos procesos suelen no ser parte de las salidas estándar de los comandos del SPSS, aunque parten de estas salidas. Buena parte de la funcionalidad de los archivos de scripts ha sido ahora asumida por la inserción del lenguaje de programación Python en las rutinas de sintaxis del SPSS. Procedimientos que antes solo se podían realizar mediante scripts ahora se pueden hacer desde la sintaxis mismo. El programa cuando se instala trae un determinado número de ejemplos o utilidades de casi todos los ficheros en cuestión. Estos son usados para ilustrar algunos de los ejemplos de uso del programa. Aquí está una pequeña lista de cosas que se pueden hacer mediante este programa: 1.Introducción de datos: Vamos a vista de datos y se introducen en DISTINTAS columnas (porque son distintas variables) de arriba abajo. 2. Cálculos básicos: Para hacer operaciones: ANALIZAR>>estadísticos descriptivos>>frecuencias (para tablas de frecuencias) ahí llevas la variable que te interese al otro lado y le das a estadísticos donde marcaremos todo lo que queramos saber (media, moda, mediana, cuartiles). Nos aparecerá una pantalla nueva con los resultados. Si necesitamos saber P2,5 o P97,5 habría que hacerlo aquí. -ANALIZAR>>estadísticos descriptivos>>explorar: ahí introducimos la variable en el primer campo (lista de dependientes) y le damos a aceptar. Aquí nos da toda la información de antes pero ADEMÁS nos da el intervalo de confianza y estimación muestral así como el error típico de la media ENCIMA nos da las gráficas del diagrama tronco hojas y el de cajas. -Para la ASIMETRIA y la KURTOSIS: En simetría: si es negativo está sesgada a la IZQUIERDA si es 0 es simétrica y si es positivo está sesgada a la DERECHA. 


En curtosis: si está rondando el 0 es mesocurtica, si es negativo platicúrtica y si es positiva leptocúrtica. -ANALIZAR>>estadísticos descriptivos>>frecuencias>>gráficos esto es útil para ver la FORMA DE LA DISTRIBUCIÓN ya que podemos superponer la curva de la normal. Si la curva se parece al histograma podemos decir que es simétrica. -Si por ejemplo queremos hacer una nube de puntos o un diagrama de dispersión para ver dos variables cuantitativas, vamos a Gráficos>>cuadro de diálogos antiguos>>dispersión puntos>>dispersión simple>>definir>> OJO hay que saber cual es la dependiente y cual la independiente. En función de será la X (dependiente (Y) e independiente (X)[la edad por ejemplo sería independiente en la mayoría de los casos]) -Otra cosa que podemos sacar es el coeficiente de correlación lineal de Pearson ANALIZAR>>correlaciones>>bivariadas. Ahí nos aparecerá una tabla. En una diagonal siempre nos saldrá 1 (no hacer caso) en el otro te aparecerá otro valor, que será el importante. -El coeficiente de regresión y el coeficiente de determinación: ANALIZAR>>regresión>>lineal. De todas las tablas que hay, hay que fijarse en la que pone RESUMEN DEL MODELO y fijarse en la R2 (coeficiente de determinación). Para sacar el coeficiente de regresión (b) hay que mirar en una tabla llama COEFICIENTES. Ahí vemos dos números debajo de la B. La primera se llama constante (también denominada a) y el segundo es el coeficiente B de regresión. En resumen hay que coger el SEGUNDO. -Si queremos contrastar dos medias: ANALIZAR>> comparar medias>>prueba t para muestras independientes>>definir grupos. -Para hacer una selección de datos de una variable: DATOS>>Seleccionar casos>>Si satisface la condición>>Pones la variable a la derecha=(lo que quieras comparar) Ahora ya vamos a ANALIZAR>>explorar. -ANALIZAR>>Estadístico descriptivo>>tablas de contingencia>>casillas>>% en filas>> aceptar -ANALIZAR>>Estadísticos descriptivos>>Tablas de contingencia>>Mostrar gráfico de barras agrupados Y estadísticos>>(el estadístico que se quiera) -ANALIZAR>>Comparar medias>>Prueba T para 1 muestra>>(ponemos el valor en valor de prueba)>>Aceptar `[Miramos en Sig] -Si queremos cambiar el nombre a las variables para que sea más cómodo, se puede en VISTA DE VARIABLES (pestaña derecha) y clickas en el nombre. 


REGISTRO SISTEMATICO UTILIZACION: 


Fichero de Datos de SPSS: Los ficheros de datos en formato SPSS tienen en Windows la extensión. SAV. Al abrir un fichero de datos con el SPSS, vemos la vista de datos, una tabla en la que las filas indican los casos y las columnas las variables. Cada celda corresponde al valor que una determinada variable adopta en un cierto caso. Además de esta vista de datos, en las últimas versiones del programa existe una vista de variables en la que se describen las características de cada una. En esta vista las filas corresponden a cada variable y las columnas nos permiten acceder a sus características:  Nombre, limitado a 8 caracteres.  Tipo de variable (compárese este listado de opciones con los tipos de variables estadísticas existentes) o Numérico, número en formato estándar) o Coma decimal, número con comas cada tres posiciones y con un punto como delimitador de los decimales o Punto decimal, número con puntos cada tres posiciones y con una coma como límite delimitador de los decimales. o Notación científica, número que se expresa con un formato tal que se sigue de una E y un número que expresa la potencia de 10 a la que se multiplica la parte numérica previa o Fecha o Moneda dólar, formato numérico con el que se expresan cantidades en dólares o Moneda del usuario, formato numérico con el que se expresan cantidades en la moneda definida en la pestaña de monedas del cuadro de diálogo "Opciones" o Cadena de caracteres o variable alfanumérica  Tamaño total  Tamaño de la parte decimal  Etiqueta de la variable  Etiquetas para los valores  Valores perdidos  Espacio que ocupa en la vista de datos  Alineación de la variable en la vista de datos  Escala de medición. Algunos usuarios pasan por alto las características de las variables cuando se trabaja en la base de datos. Sin embargo, cuando se utilizan scripts o Python las características de las variables pueden tomar gran relevancia en la construcción de procedimientos ad-hoc. 


Estructura ORGANIZATIVA de sintaxis de SPSS: Se pueden generar estos archivos de sintaxis con la ayuda del programa mismo, pues en casi todas las ventanas donde se realizan tareas en el SPSS existe un botón "Pegar". Este botón cierra la ventana en cuestión y guarda la sintaxis de las acciones seleccionadas en dicha ventana. Una vez salvado este archivo es susceptible de modificación. La sintaxis tal cual se presenta a continuación fue producida directamente con el SPSS. Este programa le da un formato legible a la sintaxis, formato que el software en algunos casos no requiere para su correcto uso. Otra peculiaridad de las sintaxis del SPSS es que no son "case sensitive". Ante lo cual es común ver sintaxis escritas solo en mayúsculas, solo en minúsculas o bien una combinación propia de cada usuario. Esta situación se modifica para aquellas personas que hacen uso de Python dentro de sus sintaxis, pues éste es un lenguaje sensitivo a las variaciones entre mayúsculas y minúsculas. Esto obliga a estos usuarios a escribir sintaxis con mayor cuidado. El siguiente ejemplo ilustra como abrir un fichero de datos mediante sintaxis y como llevar a cabo una frecuencia y una tabla de contingencia con datos de uno de los archivos de ejemplo que instala el programa.

ANÁLISIS ESTADÍSTICO E INFERENCIAL





 Las investigaciones a realizar para desarrollar un análisis de información, pueden estar basadas en uno de estos métodos de investigación, pero la utilización de uno u otro está sujeta a ciertas ventajas o desventajas implícitas tanto en un método como en otros. Los métodos cuantitativos son débiles en términos de validez interna, pues casi nunca se sabe si miden lo que quieren medir, pero a su vez resultan bastante fuertes en validez externa; lo que encuentran es generalizable al conjunto de una población. En este caso, para los métodos cualitativos sucede todo lo contrario, son muy precisos en la información obtenida basándose en lo que se buscaba, pero carecen de validez externa. Una limitación de los métodos cualitativos es su dificultad para generalizar y entregar datos mensurables. La investigación cuantitativa con la prueba de hipótesis no sólo permite eliminar el papel del azar para descartar o rechazar una hipótesis, sino que permite cuantificar la relevancia de un fenómeno. Una desventaja que ofrece la investigación cuantitativa es que se sirve de los sujetos del estudio, pero no saca al máximo toda la información que pudiera necesitar pues sus resultados se basan en los números que arrojen los estudios, sin mediar otros factores. 


En este caso, la investigación cualitativa se comunica con los sujetos y debido a las técnicas que utiliza, como la entrevista y la observación, logra obtener informaciones ocultas en los investigados, como ya se había mencionado. Por otra parte, puede existir un complemento de ambas, donde se logre una fortaleza única en la investigación. Por ejemplo, anteriormente se planteaba que en el caso de la técnica de grupos focales, componente de la investigación cualitativa, es necesario ser certeros en la selección del grupo para que no sea ni muy grande ni muy pequeño. Esta es una situación fácilmente resuelta con la utilización de los métodos de investigación cuantitativa, que uno de sus puntos más fuertes está en seleccionar muestras representativas de una población. Se plantea también que el método cualitativo es subjetivo, frente al cuantitativo que es objetivo. Pero cabe analizar lo siguiente; lo subjetivo puede ser, lo influido por el juicio humano. Desde este punto de vista, tanto la investigación cualitativa como la cuantitativa, son subjetivas. Esto se aprecia porque en un estudio sobre bases cuantitativas, por ejemplo la selección de las variables o de una muestra tiene grandes influencias subjetivas. Por otro lado, cuando se refiere a la medición de emociones, sentimientos, ente otros, se puede apreciar que varias técnicas psicosométricas y sociométricas, que pertenecen a la investigación cualitativa, se ocupan de medir por métodos cuantitativos emociones, sentimientos y actitudes. También se afirma en varias fuentes que los métodos cualitativos son básicamente exploratorios e inductivos; contra los cuantitativos que son confirmatorios e hipotético-deductivos. Pero cada forma de dato o información, puede ser útil tanto para la generación de teorías como para confirmar hechos. Por tanto los métodos cuantitativos no son solamente para responder a determinadas preguntas por medio de un amplio desarrollo de fórmulas y números, como los métodos cualitativos no son solamente para hacerse preguntas en torno a un tema u objeto de estudio y formular hipótesis al respecto. Visto esto, queda en evidencia que no hay una separación tan amplia entre estos métodos de investigación, sino que se complementan y que irán uniéndose cada día más, para el logro de resultados más confiables. Un análisis de información, para que sea certero, debe desarrollarse bajo la conjugación de las investigaciones cualitativas y cuantitativas. 



Pues cada una por si sola no brinda una confiabilidad absoluta, pues tiene ventajas y desventajas; pero unidas pueden llegar a ofrecer resultados verdaderamente fiables para la toma de decisiones. En la siguiente figura se muestra un resumen de lo que debía ser el análisis de información, según este estudio, producto del complemento de los métodos de investigación cualitativa y cuantitativa, así como lo que principalmente aporta cada uno de estos métodos a tan importante labor. Fig. Análisis de información, métodos y aporte de cada uno. El empleo de ambos procedimientos cuantitativos y cualitativos en una investigación podría ayudar a corregir los sesgos propios de cada método. La profesión de analista, o investigador y(o metodólogo a diferencia de otras profesiones, requerirá cada vez más de una formación intelectual, metodológica y cultural de la mayor excelencia imaginable, incluso necesitará de capacidades innatas que le permitan ser competitivo frente a la vorágine que significa la “explosión de la información”, que se desplaza como una avalancha de nieve en crecimiento y desconcierta a los decisores por su volumen y complejidad. 


El manejo general de conocimiento empírico y realista, así como el conocimiento científico debe ser una condición clave en el desarrollo intelectual del investigador. Para realizar estudios de investigación en áreas, educativas, sociales, químicas, industriales, físicas, de laboratorios de medicina, de Alimentos, se destaca el uso y manejo de valores de corte estadístico y su utilidad científica y social, tales como la desviación Típica, la Media, la (T) de Estudent, el (Chi) Cuadrdo, la (T) de Wilcon, estos valores son Coeficientes que se calculan con formulas y procesos estadísticos, necesarios para precisar las nociones poblacionales, muestrales, diferencias de probabilidades y uso de agentes que tradicionalmente y con cálculos de estadística avanzada usa la ciencia y la tecnología con nociones matemáticas para cimentar la investigación estadística científica y social. Dentro de los aspectos relacionados al uso de la práctica de los coeficientes, se explican para la utilidad real de cualquier estudio destacando el avance de la ciencia, pero a la vez la practica real de la matemática y las estadística para los procesos de cálculo experimentales en las ciencias cuantitativas. El uso de estudios comparativos con más de un valor para medir y comparar el uso y manejo de las realidades factibles y operativas.

-LOS MÉTODOS DE INVESTIGACIÓN CUANTITATIVA Y CUALITATIVA:


 



LOS MÉTODOS DE INVESTIGACIÓN CUANTITATIVA Y CUALITATIVA:

 Anteriormente se planteaba que para el análisis de información hay que tener un amplio dominio de la Metodología de la Investigación; siendo esta el basamento y punto de partida para esta labor, lo que conlleva a un necesario conocimiento de los métodos que componen esta disciplina. Existen diferentes tipos de investigación y según la naturaleza de la información que se recoge para responder al problema investigativo, estas pueden ejecutarse bajo dos paradigmas, la investigación cuantitativa o la cualitativa Dentro de los métodos para analizar la información destacando datos cualitativos o cuantitativos están, la inferencia estadística, la analogía o comparación, el proceso de explicación de factores y procesos de análisis categorial, la interpretación de hechos o fenómenos, la socialización, los registros sociohistóricos, las teorías y variables comparadas, la dialéctica concreta, la dinámica socio-critica, los estudios comunitarios de registros reales, los análisis factoriales, los análisis de contenido etc. Algunos autores concuerdan con la vinculación metódica hacia la utilización de técnicas con la misma nomenclatura. 


 La producción bibliográfica cuantitativa se orienta principalmente hacia los estudios que exponen sólo clasificaciones de datos y descripciones de la realidad social y, en menor medida, hacia estudios que intentan formular explicaciones. El producto de una investigación de corte cuantitativo será un informe en el que se muestre una serie de datos clasificados, sin ningún tipo de información adicional que le dé una explicación, más allá de la que en si mismos conllevan. Viéndolo desde este punto de vista, se podría pensar que los estudios cuantitativos son arbitrarios y que no ayudan al análisis de los resultados más que lo que han mostrado por si solos. Esto no es tan así pues con un estudio de este tipo se muestra además las características de estos datos que han sido organizados. La investigación cuantitativa se dedica a recoger, procesar y analizar datos cuantitativos o numéricos sobre variables previamente determinadas. Esto ya lo hace darle una connotación que va más allá de un mero listado de datos organizados como resultado; pues estos datos que se muestran en el informe final, están en total consonancia con las variables que se declararon desde el principio y los resultados obtenidos van a brindar una realidad específica a la que estos están sujetos. 


 Además de lo antes expuesto, vale decir que la investigación cuantitativa estudia la asociación o relación entre las variables que han sido cuantificadas, lo que ayuda aún más en la interpretación de los resultados. Este tipo de investigación trata de determinar la fuerza de asociación o relación entre variables, así como la generalización y objetivación de los resultados a través de una muestra. De aquí se puede hacer inferencia a una población de la cual esa muestra procede. Más allá del estudio de la asociación o la relación pretende, también, hacer inferencia que explique por qué las cosas suceden o no de una forma determinada. Todo esto va mucho más allá de un mero listado de datos organizados, como se puede leer en la afirmación antes expuesta. Esta otra idea que se expone a continuación ofrece una visión más abarcadora y completa de la investigación cuantitativa. Por métodos cuantitativos de investigación se entienden los diseños experimentales y cuasi experimentales, la investigación por encuesta, los cuestionarios estandarizados, los registros estructurados de observación, las técnicas estadísticas de análisis de datos, entre otros.6 Dentro de la investigación cuantitativa se pueden observar:  Los diseños experimentales, donde se aplican experimentos puros, entendiendo por tales los que reúnen tres requisitos fundamentales: la manipulación de una o más variables independientes; medir el efecto de la variable independiente sobre la variable dependiente y la validación interna de la situación experimental.  La encuesta social, que es la investigación cuantitativa de mayor uso en el ámbito de las ciencias sociales y consiste en aplicar una serie de técnicas específicas con el objeto de recoger, procesar y analizar características que se dan en personas de un grupo determinado.  Los estudios cuantitativos con datos secundarios, los cuales, a diferencia de los dos anteriores, abordan análisis con utilización de datos ya existentes. 


 En general los métodos cuantitativos son muy potentes en términos de validez externa ya que con una muestra representativa de un total, hacen inferencia a este con una seguridad y precisión definida. Otro aspecto de la Metodología de la Investigación son los estudios cualitativos, que se han venido retomando luego de un casi dominio de los métodos de investigación cuantitativos. Son identificadas cuatro formas generales en las que se utiliza este tipo de investigación.7  Como mecanismo de generación de ideas.  Para complementar un estudio cuantitativo.  Para evaluar un estudio cuantitativo.  Como método principal de investigación. Ahora bien, cómo ejemplificar esta afirmación. Como mecanismo de generación de ideas se puede ver su utilización en la identificación y jerarquización de problemas y necesidades, en cualquier área del conocimiento. Además, en la evaluación de la calidad de planes y programas; como complemento de un estudio cuantitativo. Los métodos de investigación cualitativos sirven para evaluar estudios cuantitativos en los casos de validación de encuestas, para que los resultados no se queden sólo a escala numérica y porcentaje. Como método principal de investigación, los métodos cualitativos ofrecen un amplio espectro de posibilidades de investigación, mediante la conjugación de varias técnicas. La investigación cualitativa exige el reconocimiento de múltiples realidades y trata de capturar la perspectiva del investigado. Desde este punto de vista, se aprecia que en las investigaciones cualitativas es un hecho sumamente importante el sujeto o las fuentes a investigar.


 Los resultados están muy en dependencia de las emociones o de los análisis exhaustivos del contenido de las fuentes de información. La investigación cualitativa permite hacer variadas interpretaciones de la realidad y de los datos. Esto se logra debido a que en este tipo de investigación el analista o investigador va al “campo de acción” con la mente abierta, aunque esto no significa que no lleve consigo un basamento conceptual, como muchos piensan. El hecho de tener mente abierta hace posible redireccionar la investigación en ese momento y captar otros tipos de datos que en un principio no se habían pensado. En otras palabras, la investigación cualitativa reconoce que la propia evolución del fenómeno investigado puede propiciar una redefinición y a su vez nuevos métodos para comprenderlo. En los métodos de investigación cualitativos los investigadores no sólo tratan de describir los hechos sino de comprenderlos mediante un análisis exhaustivo y diverso de los datos y siempre mostrando un carácter creativo y dinámico. Lo antes expuesto se puede comprobar en la definición de investigación cualitativa dada por Rojo Pérez: "La investigación cualitativa es un tipo de investigación formativa que cuenta con técnicas especializadas para obtener respuesta a fondo acerca de lo que las personas piensan y sienten. Su finalidad es proporcionar una mayor comprensión acerca del significado de las acciones de los hombres, sus actividades, motivaciones, valores y significados subjetivos." La investigación cualitativa estudia los contextos estructurales y situacionales, tratando de identificar la naturaleza profunda de las realidades, su sistema de relaciones, su estructura dinámica. La investigación cualitativa cuenta con varias técnicas para la obtención de datos, como son:  La observación, directa e indirecta, participante y no participante.  La entrevista, abierta, cerrada, semi -estructurada etc.  La revisión de documentos o análisis documental.  Los registros de extracción de datos, categorías o variables de la realidad.  El estudio de caso.  Los grupos focales.  Los cuestionarios, con múltiples opciones, cerrados, abiertos etc. Mediante la revisión de documentos los investigadores generalmente obtienen la mayor cantidad de datos. 


Esta es una de las técnicas que más se utilizan, unidos al empleo de los cuestionarios, registros técnicos, gion de preguntas, etc. En el caso de la observación, el investigador tiene una oportunidad única de obtener información que en otros casos no se logra y que pueden influir en los resultados. Mediante esta técnica, que en la mayoría de los casos se utiliza unida a la entrevista, se captan mensajes o ideas que pueden ser omitidas, ya sea voluntaria o involuntariamente por parte del investigado. A menudo las personas emiten gestos o presentan actitudes que van en contra de lo que están diciendo. Con la técnica de los grupos focales el investigador, al seleccionar grupos de personas con características similares, puede dirigir el tema de discusión por la vía más conveniente para el estudio; sin que se presenten muchos problemas de discordancia. Además, al estar todos los integrantes del grupo expuestos, e intercambiando entre sí, se puede lograr que las personas más tímidas se abran con sus opiniones y comentarios, enriqueciendo así la información de los resultados. Algo que debe tener en cuenta el investigador con esta técnica es que debe seleccionar adecuadamente la muestra a estudiar, pues debe ser suficientemente grande como para que los criterios puedan ser variados y disímiles y a su vez en un marco estrecho para que cada integrante del grupo tenga la oportunidad de emitir sus opiniones. Por eso se hace necesario, que un investigador combine varias de estas técnicas para que la información que obtenga sea más segura y confiable en el momento de la toma de decisiones.

TIPOS DE MUESTREOS ESTADÍSTICOS


 





DEFINICIÓN DE MUESTREO ESTADÍSTICO. 

En la referencia estadística se conoce como muestreo a la técnica para la selección de una muestra a partir de una población estadística. Al elegir una muestra aleatoria se espera conseguir que sus propiedades sean extrapolables a la población. Este proceso permite ahorrar recursos, y a la vez obtener resultados parecidos a los que se alcanzarían si se realizase un estudio de toda la población. En las investigaciones llevadas por empresarios y de la medicina se usa muestreo extensivamente en recoger información sobre poblaciones. Cabe mencionar que para que el muestreo sea válido y se pueda realizar un estudio adecuado (que consienta no solo hacer estimaciones de la población sino estimar también los márgenes de error correspondientes a dichas estimaciones), debe cumplir ciertos requisitos. Nunca podremos estar enteramente seguros de que el resultado sea una muestra representativa, pero sí podemos actuar de manera que esta condición se alcance con una probabilidad alta. En el muestreo, si el tamaño de la muestra es más pequeño que el tamaño de la población, se puede extraer dos o más muestras de la misma población. Al conjunto de muestras que se pueden obtener de la población se denomina espacio muestral. La variable que asocia a cada muestra su probabilidad de extracción, sigue la llamada distribución muestral. 

MUESTREOS PROBABILISTICOS: MUESTREO ALEATORIO SIMPLE.

 Es el prototipo de muestro probabilístico, y en referencia al cual se llevan a cabo las fórmulas básicas del error muestral y el tamaño muestral. A cada unidad del marco muestral se le asigna un número y se les elige de forma aleatoria hasta completar la muestra.Se necesita un listado de números aleatorios.

 MUESTREO ALEATORIO SISTEMÁTICO.

 Es una derivación del Muestreo Aleatorio Simple. Se calcula el coeficiente de elevación (k), que se calcula dividiendo el tamaño del universo (N) por el tamaño de la muestra (n): k=N/n En el universo (N) se elige el primer elemento al azar, con la condición de que el número escogido sea inferior al coeficiente de elevación. Luego los demás se escogen cada cierto intervalo (k), hasta completar el tamaño muestral (n). 

MUESTREO ALEATORIO ESTRATIFICADO.

 Busca asegurar la representación de la heterogeneidad de la población dentro de una muestra, agrupando a las unidades por estratos homogéneos internamente y heterogéneos entre sí. Para la definición de cada estrato se requiere elegir por parte del investigador el tipo de afijación, esto es, cómo se distribuyen lso sujetos encada estrato. Los principales tipos de afijación son los siguientes:  Simple: se asigna el mismo tamaño de la muestra a cada estrato.  Proporcional: el tamaño de la muestra asignado está en función del peso relativo de cada estrato en el conjunto de la población.  Óptima: Al peso relativo de cada estrato se añade la varianza del estrato respecto a la variable considerada en la estratificación. Procedimiento en el muestreo aleatorio estratificado: 1. Se establecen las variables para formar los estratos 2. Se divide a la población en estratos exclusivos. 3. Selección de la muestra a través del m.a.s. 

MUESTERO ALEATORIO POR CONGLOMERADOS

La unidad muestral ya no son los individuos, sino un conjunto de individuos que bajo determinados aspectos, se considera que forman una unidad. Busca, al contrario que el estratificado, heterogeneidad dentro de los estratos y homogeneidad entre estratos. En pequeña escala, cada conglomerado es una representación del universo. 

MUESTREO POLIETÁPICO POR CONGLOMERADOS 

Es un sub-muestreo del conglomerado. Se utiliza cuando el número de conglomerados es elevado. Selecciona los individuos por etapas, configurando sucesivamente grupos (estratos o conglomerados) y subgrupos denominados Unidades de Muestreo primarias, secundarias, terciarias, etc 

MUESTREOS NO-PROBABILISTICOS: 

1. Muestreo por cuotas: se basa en seleccionar la muestra después de dividir la población en grupos o estratos. Los sujetos dentro de cada grupo se eligen por métodos no probabilísticos. 2. Muestreo por conveniencia: consiste en seleccionar a los individuos que convienen al investigador para la muestra. Esta conveniencia se produce porque al investigador le resulta más fácil examinar a estos sujetos, ya sea por proximidad geográfica, por ser sus amigos, etc. 3. Muestreo de bola de nieve (o muestreo por referidos): se realiza sobre poblaciones donde no se conoce a sus individuos o es muy difícil acceder a ellos. Se llama muestreo de bola de nieve porque cada sujeto estudiado propone a otros, produciendo un efecto acumulativo parecido a una bola de nieve. 4. Muestreo casual o accidental: los individuos son elegidos de manera casual, sin ningún juicio previo. Las personas que realizan el estudio eligen un lugar o un medio, y desde ahí realizan el estudio a los individuos de la población que accidentalmente se encuentren a su disposición. 5. Muestreo discrecional (o muestreo por juicio): los sujetos se seleccionan a base del conocimiento y juicio del investigador.

POBLACIÓN Y MUESTRA

 





POBLACION. DEFINICION. Conjunto de personas que convergen en una realidad sociocomunitaria determinada y poseen características de tipo común y no común, es decir heterogéneas y homogéneas, dependiendo de su naturaleza contextual y funcional. 

TIPOLOGIA DE POBLACION: 

1.-Homogeneidad. 2.-Geterogeneidad. CARACTERISTICAS.  Esta puede ser finita e infinita, homogénea y/o heterogenea. para el caso de estudio seleccionado.  Infinita: Número de Pobladores de las comunidades Indígenas en Europa.  Finita: Los contadores de la empresa C.A, que manejan las técnicas de finanzas y control interno. En su total son 45 profesionales.  Poseen características personales diversas., nivel de homogeneidad. 

EJEMPLO DE CARACTERISTICAS DE UNA POBLACION Y/O SUJETOS DE ESTUDIOS.  Comunidad del Muco parroquia santa Catalína del Municipio Bermúdez del Estado Sucre, las cuales ascienden a 6700, entre hombres, mujeres y niños aproximadamente.  El 70% de la población joven es decir niños entre 7 y 8 años realizan estudios en primer y segundo grado. La comunidad posee servicios de salud en un ambulatorio tipo II.  Existen dos Instituciones de formación Populares Bolivarianas.  Funcionan dos Mercales tipo III.  El consejo comunal tienen debilidades en sus labores administrativas.  Diseño y funcionalidad de programas educativos y culturales.  Existen problemas ecológicos ambientales como la acumulación de desechos tóxicos.

 CARACTERISTICAS DE DATOS PARA CALCULAR TAMAÑO DE MUESTRA POBLACIONAL

.  Datos: (n)= Tamaño de la muestra.  N= Valor de la población.  Z=valor de distribución de la curva normal o campana de Gauss, herramienta para la comprobación de datos e hipótesis, Z=99% al valor de 1, Z=98% al valor de 2, Z=97% al valor de 3, hasta Z=90% al valor de 10, continuidad de valores descendentes.  P+Q=1 (P=O.5) (Q=O.5) Valores relacionados a la ley de probabilidades, destaca la explicación de que un evento ocurra de forma positiva o negativa, un número significativo de veces.  e = Error de muestreo, datos que justifican las irregularidades en el proceso de extracción de la información, valores utilizados, 1, 2,3, 5,6,7, 8, 9 11 entre otros ascendentes.  n = Z * (p+q) * N  e* (N-1)+P*Q  (Fórmula para calcular tamaño de la muestra).

EJEMPLO PARA CALCULAR TAMAÑO DE LA MUESTRA. 


 Z = 95% al valor de 5. Valor de Campana de Gauss o Curva de distribución Normal. Describe las razones que justifican la aceptación o rechazo de las hipótesis a comprobar.  P+q =1 Establecido en condiciones normales. 0.5 P mas 0.5 Q = 1 Explica o describe la posibilidad de que un evento ocurra un numero determinado de veces.  E = error de muestreo es de (5). Son las fallas presentadas al seleccionar las unidades que conforman la muestra  Se sustituyen los valores en la formula precitada y (n)= da un valor de 136 personas, a las cuales se les aplico un instrumento llamado cuestionario combinado bajo la modalidad de encuesta. Luego al analizar los datos de las opiniones se pudo demostrar que solo 60 poseían conocimiento.  

Para seleccionar la muestra se debe precisar dos aspectos específicos vinculados al tamaño de la población (N) a trabajar. Cuando la población es pequeña la selección y justificación de esta sólo se realiza por el tipo de muestreo, es decir extraigo una muestra de 30 personas de una población total de 50 individuos, o sencillamente extraigo toda la población y la igualo a la muestra.  N = 60 (n) = 30 se selecciono el 50% de la población porque son los que poseen mayor nivel de conocimiento en el área de cultura popular, criterios del investigador, etc. Este muestreo lo utiliza el investigador imponiendo sus razones y justificaciones (Muestreo Intencional).


El otro caso es cuando la población es grande es decir 400, 600 o mas personas para ello, justifico la selección de la muestra con el muestreo y con la aplicación de una formula mediante un calculo estadístico para conocer (n), que representa el tamaño de la muestra.  (N) =400 Personas calcular (n) = ? Aplicar Formula y Muestreo.  Dentro de los factores estadísticos para realizar investigaciones muy precisas en el contexto de las investigaciones científicas es muy importante revisar, las distribuciones de frecuencias donde se describen y precisan vectores estadísticos de una realidad a estudiar muy precisa, por ejemplo el numero de personas que conforman una unidad o contexto de estudio, clasificada por año, por sexo y edad, la importancia que tienen estas personas o sujetos clasificados por edad para ser investigado de acuerdo a la información que puedan demostrar, los valores numéricos de frecuencia que se encuentre, es decir es importante realizar ejercicios donde se estaque el cálculo y distribución de frecuencias, absolutas, relativas y reales.

lunes, 15 de febrero de 2021

CRITERIOS TÉCNICOS Y LOS INSTRUMENTOS DE RECOLECCIÓN DE DATOS E INFORMACIÓN:



 CRITERIOS TÉCNICOS Y LOS INSTRUMENTOS DE

RECOLECCIÓN DE DATOS E INFORMACIÓN:


Los criterios técnicos cualitativos y cuantitativos , para el diseño de

una investigación se toman dependiendo de la naturaleza de la misma,

para desarrollar cualquier tipo de trabajo, ya sea en las ciencias

sociales o naturales para los fines establecidos, precisando los alcances

descritos por diversas teorías o fundamentos científicos de autores en las

ciencias investigativas. Es importante que dichos criterios o indicadores,

tanto investigativos como de cualquier otra naturaleza, sean plasmados

en una metodología operativa para luego diseñar y estructurar el

trabajo respectivo y/o instrumento requerido para dichos fines, en el

trabajo seleccionado. De acuerdo con Hernández, Fernández y Baptista (1998),”la validez en

términos generales, se refiere al grado en que un instrumento realmente mide

la variable que pretende medir” (pág.243). Destacando los procesos,

estadísticos y sociales necesarios para precisar el grado de fiabilidad de

cualquier tipo de instrumento. Tamayo y Tamayo (1998) considera que 

validar es “determinar cualitativa

y/o cuantitativamente un dato” (224). Esta investigación requirió de un

tratamiento científico con el fin de obtener un resultado que pudiera ser

apreciado por la comunidad científica como tal.


La validez del instrumento de recolección de datos de la presente

investigación, se realizó a través de la validez de contenido, es decir, se

determinó hasta donde los items que contiene el instrumento fueron

representativos del dominio o del universo contenido en lo que se desea medir.


Al respecto, Balestrini (1997),(pág.140) plantea: “ Una vez que se ha

definido y diseñado los instrumentos y Procedimientos de recolección de

datos, atendiendo al tipo de estudio de que se trate, antes de aplicarlos de


manera definitiva en la muestra seleccionada, es conveniente someterlos a

prueba, con el propósito de establecer la validez de éstos, en relación al

problema investigado.”


Según Balestrini (1997), toda investigación en la medida que sea posible

debe permitir ser sometida a ciertos correctivos a fin de refinarlos y validarlos

(pág.147).


Según Rusque M (2003) “la validez representa la posibilidad de que un

método de investigación sea capaz de responder a las interrogantes

formuladas. La fiabilidad designa la capacidad de obtener los mismos

resultados de diferentes situaciones. La fiabilidad no se refiere directamente a

los datos, sino a las técnicas de instrumentos de medida y observación, es

decir, al grado en que las respuestas son independientes de las circunstancias

accidentales de la investigación. (Pág 134).


La fiabilidad, confiabilidad, consistencia y credibilidad de la investigación

se logró a través del análisis de la información, lo cual permitió internalizar

las bases teóricas, el cuerpo de ideas y la realidad (sujetos de estudios-

escenarios y contextos) Rusque, M. (2003:134).


Después de precisar la validez y los niveles y criterios de confiabilidad

tanto cualitativo como cualitativo en la investigación social y de corte

científico en general, es importante destacar las herramientas de

recolección de información, vinculadas a las técnicas de investigación y

de recolección de datos otro factor de suma importancia en el ámbito

descrito para los objetivos establecidos.


Técnica de Análisis de la Información.

La información recabada a través de las técnicas de observación, revisión

documental y la entrevista fueron organizados en categorías para proceder a

analizarlos y someterlas posteriormente a un proceso de triangulación , con el

fin de generar nuevas teorizaciones que fueron contrastadas con las teorías

precedentes.

En este sentido, la autora utilizó el Registro de Observación Documental, el

cual se elaboró con la finalidad de recopilar datos e información vinculados

directamente con la investigación, describiendo, leyendo y analizando la

información trabajada. En las universidades se recolectó datos e información

cualitativa y cuantitativa, la cual se comparó con los resultados obtenidos

mediante la entrevista, con problemas sociales, culturales, de

infraestructuras, comunitarios, societales, políticos, económicos, factibles y

reales del contexto universitario y comunitario en general.

3.- Técnicas Cuantitativas :

Habitualmente las investigaciones cuantitativas se realizan mediante

encuestas, que consisten en una recolección sistemática de información en una

muestra de personas y mediante un cuestionario pre-elaborado. Se aplican

cuando se pretende obtener resultados proyectables a un determinado target,

por ejemplo personas que residen en Montevideo y área metropolitana, o

Caracas Estado Miranda y poseen al menos una tarjeta de crédito. Estas

técnicas sistemáticas permiten responder con precisión a preguntas tales como

“cuántos”, “quiénes”, “con qué frecuencia”, “dónde”, o “cuándo”, y se

orientan a obtener medidas numéricas y objetivas de hechos, hábitos,

comportamientos u opiniones. No permiten, en cambio, ahondar en la


pregunta “por qué”, para la cual los métodos cualitativos suelen ser más

eficaces. Los cuestionarios deben ser cuidadosamente redactados por

profesionales muy entrenados, de tal forma que no contengan preguntas

ambiguas ni sesgadas, que las mismas sean fácilmente comprensibles por

cualquier integrante de la muestra, y que contemplen todos los objetivos de la

investigación. El diseño de la muestra y la elección de la técnica de

relevamiento son otros dos puntos clave de la investigación, ya que de ambos

depende en gran medida que los resultados sean proyectables al conjunto de

la población estudiada. En los hechos se trata de buscar la mejor fórmula de

compromiso entre lo metodológicamente ideal, lo realísticamente factible y el

presupuesto disponible. 

 

Entrevistas personales (cara a cara)


Se pueden aplicar cuando las unidades de muestreo son hogares, personas

o aun empresas y otras organizaciones.

Ventajas: se pueden diseñar muestras en las que cualquier persona u hogar

del público objetivo tenga la misma probabilidad de participar; pueden usarse

estímulos visuales (fotos, material impreso, etc.), y la duración de la encuesta

puede ser mayor.

Desventajas: los costos y los plazos son habitualmente mayores que en las

encuestas telefónicas, y resulta difícil acceder a los niveles socioeconómicos

más altos.

Cuando el público objetivo está constituido por personas físicas, las encuestas

personales pueden realizarse según los siguientes formatos:

1– En hogares: el encuestador aplica la encuesta en el hogar del entrevistado.


2– en locación central: se convoca a las personas a entrevistar a uno o varios

locales. donde son recibidos por un encuestador que le aplica el cuestionario.

Este formato es habitualmente usado para pruebas de productos (alimentos o

bebidas) ya que se necesita cierta infraestructura (cocina, heladera, etc.).

3– coincidental: se interceptan personas en la calle –peatones o

automovilistas–, en ubicaciones que se definen previamente con el cliente.


Encuestas Estructuradas:


Consiste en diseñar un cuestionario donde las preguntas tengan una

relación vinculante comprobada con los objetivos de la investigación

mediante, la combinación de preguntas, abiertas, cerradas o de múltiples

opciones.

 

Encuestas telefónicas:


.-Se pueden aplicar cuando las unidades de muestreo son hogares, personas o

aun empresas y otras organizaciones.

.-En cualquier caso debe definirse con precisión quién será el informante: jefe

de hogar, ama de casa, cualquier persona que cumpla con determinadas

características según edad, sexo u otras variables, decisor de compra,

principal usuario o consumidor de un determinado producto o servicio, etc.

Ventajas: los plazos de realización son más reducidos que en las encuestas

cara a cara, el costo es generalmente más bajo, y permiten acceder más

fácilmente a determinados segmentos de población (niveles socioeconómicos

altos, decisores de compra en empresas, etc.)


Desventajas: se excluyen los hogares sin teléfono, no se pueden utilizar

estímulos visuales (tarjetas, fotos, etc.), y su duración máxima debe ser

inferior a la de las encuestas cara a cara.

 

Encuestas auto-administradas por correo:


Se aplican generalmente a públicos muy específicos y cuando se trata de

formularios largos y complejos para los que el entrevistado debe colectar

previamente cierta información. Por ejemplo: médicos que deben colectar

información de pacientes, empresarios que deben disponer de información de

la empresa. Usualmente se solicita previamente el acuerdo del entrevistado

para enviarle la encuesta y luego se recupera el formulario por correo o

mensajería.

 

Encuestas auto-administradas por internet


Este formato consiste usualmente en enviar una invitación a una base de

datos de e-mails, que contiene un link a través del cual se ingresa a una

encuesta diseñada online. Las personas completan la encuesta y las respuestas

se almacenan en una base de datos que luego se descarga para su

procesamiento. Las principales ventaja de esta forma de relevamiento son su

rapidez y la posibilidad de encuestar a una gran cantidad de personas a bajo

costo. La principal desventaja es la imposibilidad de asegurar la

representatividad estadística de la muestra, ya que la tasa de respuesta puede

ser muy variable según los segmentos de población y habitualmente es inferior

al 5%.


Encuestas de tipo directo: Son instrumentos destinados a la recolección de

datos informativos, donde se precisan sus indicadores y variables a

medir se precisan sus posibles, alcances estructurando una gama de

ítems, se diseña el cuestionario con sus modalidades de preguntas,

seleccionando la poblacion, la muestra y el tipo de muestreo para los

fines establecidos, se procede aplicar antes de ser sometido el

instrumento a un proceso de verificación y conformación, para luego

ser presentados en instrumentos estadísticos para los fines establecidos.

4.-Técnicas de Investigación Cualitativa.

Existen algunas formas específicas de investigación cualitativa que entre ellas

se encuentran.


Técnica basada en la Etnografía.


La etnografía es aquella investigación que estudia las cualidades y

características del objeto de estudio mediante la  observación participante .

Puede usarse como sinónimo de  antropología , pero también para hablar de la

observación participante como método de trabajo en las ciencias sociales y

educativas, al igual que las afines. Se traduce etimológicamente como estudio

de las etnias y significa el análisis del modo de vida de un grupo de individuos

con características comunes, mediante la observación y descripción de lo que

la gente hace, cómo se comportan y cómo interactúan entre sí, para describir

sus creencias, valores, motivaciones, perspectivas y cómo éstos pueden variar

en diferentes momentos y circunstancias, con instrumentos muy precisos

registros fotográficos, registros de actividades, registros vivenciales etc.

Podríamos decir que describe las múltiples formas de vida de los seres

humanos en su dinámica contextual.


La Técnica de la Investigación Participativa.


Se trata de una actividad que combina la forma de interrelacionar

la  investigación  y las acciones en un determinado campo seleccionado por el

investigador, con la participación de los sujetos investigados. El fin último de

este tipo de investigación es la búsqueda de cambios en

la  comunidad  o  población  para mejorar sus condiciones de vida. Se realiza

mediante la utilización de diversas técnicas e instrumentos para recolectar

la información, destacando las entrevistas no estructurada abiertas, los

registros de opiniones etc.


La Técnica de la Investigación-Acción.


Tiene semejanza con la participativa, de allí que actualmente se hable con

bastante frecuencia de investigación-acción participativa. Es uno de los

intentos de resumir lo que tiene que ver de  identidad  necesaria para construir

una  teoría  que sea efectiva como guía para la acción y producción científica,

que esté estrechamente ligada a la  ciencia  para la  transformación  y

la  liberación social . En investigación educativa existe una versión llamada

"criterios de evaluación diagnóstica". Los instrumentos mas utilizados en

esta técnica son los registros sistematizados descriptivos contextuales y

las entrevistas abiertas.


La técnica de la investigación etnográfica aplicada a la educación.


Esta constituye un método útil en la identificación, análisis y solución de

múltiples problemas de la educación. Este enfoque pedagógico surge en la

década del 85, en países como Gran Bretaña, Estados Unidos y Australia, y se

generaliza en toda América Latina, con el objetivo de mejorar la calidad de la

educación, estudiar y resolver los diferentes problemas que la afectan. Este

método cambia la concepción  positivista  e incorpora el análisis de aspectos

cualitativos dados por los comportamientos de los individuos, de sus

relaciones sociales y de las interacciones con el contexto en que se desarrollan.


Técnica del Registro Anecdotista:


Consiste en realizar un estudio detallado a un grupo de persona,

procesos, detallando los sus especificidades para comprender y analizar su

funcionamiento. Mediante el uso de registros fotográficos o fílmicos, el

llenado de datos mediante una libreta explicando cada acción o hecho,

correlacionado a los sujetos o procesos en estudio.


Las Técnicas proyectivas.


Las técnicas pueden usarse para cuestionar de forma indirecta a los

participantes a proyectar sus motivaciones, creencias, actitudes o sentimientos

subyacentes con respecto a los temas de interés, los instrumentos utilizados

son entrevistas focales, los estudios técnicos conductuales individuales, los

test psicométricos etc. Al Interpretar la conducta de otros, los participantes

proyectan de manera indirecta sus propias motivaciones, creencias, actitudes

o sentimientos en la situación. Entre las técnicas proyectivas más comunes

están:


 Asociación: Técnica proyectiva en la cual se presenta un estímulo al

participante y se le pide que responda lo primero que le venga a la mente.

 Construcción: Técnica en la que los participantes deben construir una

respuesta en forma de historia, diálogo o descripción.

 Expresión: Técnica en la que se presenta al participante una situación

verbal o visual, y se le pide que relacione los sentimientos y las actitudes de

otras personas con la situación.

 Complementación: Se pide a los participantes que complementen una

situación de estímulo incompleta

 Grupos focales con testimonios de vida; vivencia directa dentro del grupo,

con informantes claves para conocer las características y opiniones del

grupo a estudiar. Ejemplo: un grupo de personas con  sida .


INSTRUMENTOS DE RECOLECCIÓN DE DATOS.


Este aspecto describe y explica la razón técnica por las cuales se

diseñan los instrumentos de recolección de información. Entre estos se

encuentran, el cuestionario, el guion de preguntas, los registros de datos

mediante tablas de valores absolutos y porcentuales, los test, los test-psico-

métricos, los test-socio-métricos, los cuadros descriptivos de variables, las

tablas que caracterizan por conteo simple las categorías de la investigación,

las tablas comparativas, los registros de valores factoriales, los registros de

contenido, la triangulación de variables y categorías.

MÉTODOS Y LAS TÉCNICAS EN EL ANÁLISIS DE DATOS DE LA INVESTIGACIÓN CIENTÍFICA.


 MÉTODOS Y LAS TÉCNICAS EN EL ANÁLISIS DE DATOS

DE LA INVESTIGACIÓN CIENTÍFICA.



Las tecnologías de la información han experimentado crecimientos

espectaculares avances desde los años 50, a un ritmo en el que la potencia de

la comunicación, la sistematización de datos y de la hacendosa practica de las

metodologías de la investigación crece exponencialmente cada año, acorde con

el dinamismo y exigencia formativa e investigativa del hombre. A este

crecimiento natural de la informática le ha acompañado el de la Educación en

sus múltiples planos y en el contexto de investigación y la metodología, cuyos

volúmenes está haciendo que sea indescifrable por sí sola. Esto ha obligado a

los especialistas de esta rama a recurrir a sistemas de análisis para sacar su

máximo valor.


Las empresas, organizaciones públicas y privadas donde se estructura los

bosquejos y esquemas ligados al desarrollo de la información y de la

investigación y la metodología se dedican hasta hace poco más bien al

almacenamiento de información para que los usuarios las utilizaran cuando y

como pudieran. Ahora, con una visión más “agresiva”, los especialistas de los

procesos de investigación y al proceso metodológico brindan no sólo datos o


grandes volúmenes de información, sino que entregan informes, producto de

análisis, con los cuáles les ayudan a convertir datos en información

sintetizada y confiable. Estos análisis socio-técnicos ayudan a la toma de

decisiones, que es una tarea que se hace cada vez más dinámica y requiere de

un basamento informativo bien sustentado, en el contexto de la educación y de

la gestión y aplicación de modelos investigativos.


El objetivo del análisis de los procesos ligados a la aplicación metodológica

consiste en obtener ideas relevantes, de las distintas fuentes de información, lo

cual permite expresar el contenido sin ambigüedades, con el propósito de

almacenar y recuperar la información contenida, para las múltiples

aplicaciones de la metodología expresada como herramienta técnica

necesaria en cualquier ámbito de competencia.


En la coyuntura histórica Mundial del ámbito educativo universitario

de América Latina y el Mundo el avance científico y tecnológico, es

importante para el desarrollo de las diversas sociedades en todo el orbe

y geografía Nacional e Internacional, ya que se crearon sistemas,

programas, planes y otras actividades de suma relevancia para el avance

de la ciencia y del hombre, en sus diversos planes de accion labora,

institucional y diario.


Analizando el planteamiento anterior, se puede entender que el análisis de

información sólo se produce para tener informes o resultados guardados, en el

complejo mundo del análisis de datos de investigaciones cualitativas y

cuantitativas o de otra naturaleza. Pero hay que agregar que esta disciplina

parte de analizar fuentes, en base a las necesidades de los usuarios, que deben

estar en consonancia con los objetivos estratégicos y sistemáticos de la

institución a la que pertenezcan. Además, en un análisis de este tipo

alternativo ligado a la investigación científica se deben validar las fuentes a

utilizar, pues resulta muy importante que la aplicación de métodos y técnicas

a presentar sea confiable y actualizada; para que los resultados obtenidos

puedan ser utilizados adecuadamente en estudios de cualquier naturaleza

epistemológica, para ofrecer a los usuarios alternativas de decisión

institucional o social. Un estudio con estas características genera además

confianza en el analista e investigador.


El análisis de información forma parte del proceso de adquisición y

apropiación de los conocimientos latentes acumulados en distintas fuentes de

información. El análisis busca identificar la información “útil'', es decir,

aquella que interesa al usuario, a partir de una gran cantidad de datos, bajo

ejemplos como la etno-metodologia y/o etno-fenomenologia.


El análisis de los procesos de recolección de datos está relacionado con lo

que se denomina actualmente el diseño de postulados direccionales y

específicos. Por ejemplo las hipótesis comunes contribuyen a analizar y

recolectar los datos almacenados constituyendo un yacimiento del cual hay

que extraer y procesar la información para que ésta sea “útil'' (desde un

punto de vista económico, científico o tecnológico, social o comunitario). El

valor de la información “bruta'' resulta de la capacidad que se tenga para

procesarla y producir una sistematización “elaborada'', es decir, de nivel más

elevado y potencialmente útil para la investigación en un determinado campo

de actividades, pero que estaba implícita, no manifiesta, en los datos, sino en

su naturaleza y en la correlación con hechos tangibles vivenciales.


El análisis de información parte desde la simple recopilación y lectura de

textos hasta la interpretación. Es decir, el análisis es una actividad intelectual

que logra el arte o la virtud de perfeccionar capacidades profesionales por

parte del analista; todo esto gracias al empleo de métodos y procedimientos de

investigación, ya sean cuantitativos o cualitativos que le permiten separar lo

principal de lo accesorio y lo trascendental de lo pasajero o superfluo, del

cualquier realidad.


El producto del análisis debe ser transmitido en un lenguaje sencillo,

directo, sin ambigüedades y con un orden lógico que resista cualquier crítica o

duda, especificando claramente lo que se sabe, lo que no se sabe y las opciones

respecto de lo que podría suceder en el futuro. Está claro que todo esto

depende de que no surjan variables y/o categorías o constructos externas que

cambien el escenario investigado.


Existen muchos tipos de análisis, tales como: el análisis de oportunidad,

que busca establecer el mejor momento para una decisión, el análisis de valor

agregado, que busca potenciar el valor del significado de informaciones

aparentemente inconexas o, en el campo de la defensa, el análisis de objetivos,

que permite no sólo identificar un blanco, sino, además, el mejor modo de

abatirlo al menor costo posible. A este respecto, la tecnología de vanguardia

está colaborando con datos valiosos y precisos que sirven de materia prima

para el analista, obtenidos por instrumentos cada vez mas sofisticados.


El anterior planteamiento hace una división del análisis de información en

varias categorías, en cada una de las cuales se entregan los resultados con un

nivel de importancia distinto. Según lo que se ha visto hasta el momento, esta

división no es necesaria; pues un análisis de información debe poseer cada una

de estas categorías, unidas en un todo para formar un documento único e

irrebatible, pero metódicamente aplicable y útil.


En un informe para fortalecer líneas y ejes de acción, donde lo primordial

es que el analista recomiende el mejor momento para tomar esta decisión, este

investigador debe imprimirle valor desde el punto de vista de descifrar

elementos que a simple vista no son aprehensibles y por supuesto ofrecer

ventajas en cuanto al menor costo posible de la ejecución, en el proceso de

investigación establecido.


El producto obtenido del procesamiento de fuentes de información, de las

más diversas características, contiene dos tipos de elementos: por una parte, la

evolución de la capacidad analítica para obtener lo esencial y por otra parte,

la asociación única de datos y hechos que pueden explicar y sostener la

veracidad de las conclusiones y proposiciones que se envían al decisor. Es este

"valor agregado" lo que le otorga al documento o producto elaborado un

determinado nivel de confidencialidad y de suma importancia, pues

representa la puesta en evidencia de circunstancias que otros no perciben y

por lo tanto surge por sí, un valor de uso que otros no disponen;

convirtiéndolo en un documento estratégico para el desarrollo de los objetivos


y metas de la institución beneficiaria, para lograr la aplicabilidad de

modelos metodológicos útiles de tipo real y vivenciales.


Un investigador social, comunitario, universitario y/o industrial por citar

ejemplos en inteligencia debe conocer y dominar un conjunto de acervos y

prácticas de varias disciplinas para la gestión del conocimiento, entre otras:

metodología de la investigación, organización de la información, técnicas de

arbitraje de informes científico-técnicos, gestión de bases de datos, gestión de

información, estadística exploratoria y confirmatoria (con aplicación de

software estadísticos), economía de la información, educación universitaria,

investigación de operaciones, análisis de citas, modelos cualitativos, modelos

cualitativos, análisis de información y los análisis de datos respectivamente.


Un analista y/o investigador puede ser escuchado o no, pero si su trabajo

es un producto de buena calidad, en el que se han unido todos o la mayoría de

estos elementos; el tiempo se encargará de darle la razón, bajo estructuras

metodológicas claras y precisas. Dentro de los aspectos para llevar acabo

los análisis de datos de una investigación científica, social, tecnológica,

cualitativa, cuantitativa o mixto, entre otros casos hay que precisar la

lógica, de lo que se quiere lograr.


1.-Precisar el enfoque o paradigma que sustenta el estudio y/o

investigación.


2.-Puntualizar como mi enfoque o paradigma teórico-practico lo llevo al

plano metodológico.


3.-Describir con claridad el método y las técnicas que voy a utilizar,

direccionadas por objetivos o postulados que encaminen el estudio o

investigación, o metodología a utilizar.


4.-Construir instrumentos de recolección de información que permitan

alcanzar, mis fines, metas u objetivos propuestos.


5.-Aplicar dichos instrumentos seleccionados, previamente diseñados y

trabajados por niveles de confiabilidad y validez para los mismos.


6.-Realizar conteo, vaciado de datos o proceso para clasificar las

categorías, variables o resultados empíricos trabajados, organizándolos en

tablas, cuadros, organigramas etc.


7.-Realizar la explicación o el análisis de resultados obtenidos, mediante

métodos o técnicas diseñado para tales fines y alcances.


TECNICAS Y METODOS PARA REALIZAR ANALISIS DE DATOS:


Para precisar los aspectos que conforman el análisis de la investigación

se deben escoger las técnicas y los MÉTODOS para lograr los mismos.


TÉCNICAS DE ANÁLISIS DE DATOS:


1.- Análisis de Correlaciones:

Esta es una técnica de análisis datos estadístico. Sirve para determinar si

existe una relación entre dos variables cuantitativas diferentes y cuan fuerte es

esa relación entre las variables. Suele utilizarse cuando se sospecha que dos

variables siguen o tiene una evolución similar. Ej: el índice IBEX 35 y el

DAXX. Variable causa factor poco o limitado manejo del sistema y variable

efecto, desconocimiento de sistemas operativos y de información.


2.- Análisis de regression:


Se trata de otra de las técnicas de análisis de datos estadísticos para investigar

la relación entre diferentes variables. Se utiliza cuando una se sospecha que

una de las variables puede estar afectando (variable independiente) al

comportamiento de la otra (variable dependiente) u otras. Puedes profundizar

más sobre los análisis de regresión lineal.


3.- Visualización de Datos:


La  visualización de datos  es de lejos una de las técnicas de análisis de datos

más demandada y apreciada a día de hoy por lo fácil que resulta a través de

un gráfico o imagen detectar patrones en los datos. Es especialmente útil

cuando buscamos entender grandes volúmenes de datos de forma rápida y

simplificada. Las infografías y gráficos son la forma más popular de este tipo

de técnicas que utilizan software tipo Tableu Boureu o Qlick View.


4.- Análisis de Escenarios;


El análisis de escenarios consiste en analizar una variedad determinada de

eventos futuros con resultados alternativos. Es bueno utilizarlo cuando no

estamos seguros sobre qué decisión tomar o que curso de acción perseguir.

Este es un buen  ejemplo de análisis de escenarios .


5.-Data Mining

El data Mining o minería de datos es un proceso de análisis de datos

pensado para trabajar con grandes volúmenes de datos. Ahora es más

conocido como  Big data  y se usa para detectar patrones, relaciones o

información relevante que pueda mejorar el desempeño de operaciones

relacionadas con el cliente y el Internet de las cosas.

6.-Análisis de Sentimiento:


Este es otra de las técnicas de análisis de datos que se ha vuelto muy popular

gracias a las redes sociales. Trata de determinar la actitud de un individuo o

grupo hacia un tema particular. Se usa cuando se busca comprender la

opinión de los distintos agentes que interactúan en una industria. La gran

dificultad de este tipo de análisis es que se  basa en aspectos subjetivos  muy

difíciles de medir que tienen que ver con emociones humanas.


7.-Análisis Semánticos de textos:

Este tipo de análisis, también conocido como minería de textos, es un proceso

que trata de extraer valor a través del análisis semántico de grandes

volúmenes de textos. Relacionado con la técnica anterior busca que los

ordenadores sean capaces de entender lo que indexan y obtener datos de

textos no estructurados. La herramienta que mejor conozco para este tipo de

análisis es  BItext . 


8.-Análisis o de patentes y literatura científica

Esta técnica de análisis de datos utiliza los meta datos de publicaciones

científicas y patentes para extraer información sobre tendencias y relaciones

entre estudios, autores o propiedad intelectual. Es una de las técnicas más

usadas en la vigilancia de tendencias tecnológicas.

9.- Simulación de Monte Carlo:


Esta técnica de probabilidad matemática es usada para medir el riesgo

aproximado de que un hecho determinado tenga lugar. Es muy útil para

entender las implicaciones que puede tener un determinado curso de acción

derivado de una decisión.


10.- Programación y optimización matemática:


También conocida como  optimización lineal , es un método para identificar

cual es mejor resultado posible dadas unas restricciones concretas a nuestra

situación. Se utiliza mucho para resolver problemas dados en procesos de

producción y determinar cómo minimizar los costes o maximizar los

beneficios.


11.-Predicción Matemática:


Es un conjunto de técnicas estadísticas que emplea datos de series temporales

para predecir cuál es el resultado más probable que se puede dar en el futuro

cercano. La base de estas técnicas de análisis de datos es fijarse en que es lo

que ha ocurrido en el pasado para saber qué ocurrirá en el futuro. Es muy

utilizado en proyecciones macro-económicas.


12.-Redes Neuronales:

Esta tal vez sea una de las técnicas de análisis de datos más complejas que

existen. Las  redes neuronales  tratan de simular el proceso de decisión e

información del cerebro o grupos de neuronas. El objetivo de estas redes es

simular el proceso de aprendizaje de un cerebro humano en una computadora

para facilitar la  toma de decisiones en inteligencias artificiales .


13.-Experimientos AB:


También conocidos como  pruebas AB o splittesting  son unas de las técnicas

más usadas en marketing digital para comprobar la reacción de los usuarios

ante un mensaje y ver cual funciona mejor. Se utiliza sobre todo para testar

hipótesis en el lanzamiento de un nuevo producto, una campaña publicitaria o

un mensaje en un anuncio.

Otras técnicas de análisis de Datos Actualizadas:

Para terminar esta entrada y no alargarme demasiado en este tema. Creo que

es necesario mencionar al menos otras técnicas de análisis de datos que se

encuentran en auge:


1. Análisis de imágenes: es un proceso de extracción de información a

través de imágenes como fotografías, imágenes médicas y gráficos. Está

siendo usado en las industrias de salud para detección de enfermedades

y en el sector seguridad para la detección facial.


2. Análisis de Vídeo: similar al anterior trata también de reconocer y

predecir el comportamiento de una persona.


3. Análisis de voz: es un proceso de extracción de información a través del

audio para facilitar la comprensión de conversaciones. Este puede ser

utilizado para analizar las conversaciones telefónicas en un servicio de

atención telefónica.


El análisis de por imagen, voz, vídeo son herramientas que están siendo

utilizadas por grandes empresas para optimizar sus procesos. Aunque quedan

lejos del gran público en general.

TRABAJOS Y PROCESOS DE INVESTIGACION SOCIO TECNOLÓGICOS Y CIENTIFICOS

ACTIVIDAD DESCRIPTIVA DE TIPO SINDICAL Y GREMIAL ENTREGA DE JUGUETES U.P.T.P LUIS MARIANO RIVERA.

 LOGROS    Y PERSPECTIVAS   DE   ENTREGA   DE JUGUETES   AL PERSONAL    DE  LA U.P..T.P   LUIS   MARIANO    RIVERA.