miércoles, 28 de febrero de 2018

Definición y aspectos teóricos y prácticos sobre el análisis cualitativo ATLAS.ti para gestionar y analizar Datos.


Definición y aspectos  teóricos y  prácticos sobre el análisis cualitativo ATLAS.ti para gestionar y analizar Datos.

Compilado DR NESTOR   MALAVE.



INTRODUCCIÓN.

Dentro  de   los  factores académicos  y  socio-educativos  que  integran  el  complejo  mundo  de  la  investigación  existen  varias  modalidades  y  opciones  de  modelos  y  estructuras  de  investigación, se  trabajan  los  paradigmas  emergentes  de  varias  corrientes  desde  la  complejidad  hasta  la  trans-complejidad,  se  sustentan  con  aportes cualitativos y  cuantitativos,  pocas  áreas  de  lo  cualitativo  se  han desarrollado  en las  ciencias  sociales,  a  raíz  de  ello  la  importancia  de caracterizar  como  se  pueden  sistematizar, gestionar  y utilizar los  objetivos  mediante  métodos  y  técnicas  precisas,  que  permiten  lograr  los  alcances  propuestos  y dinamizar  el  complejo  contexto   del  acontecer  realista  para  aplicar  modelos  o  sistemas   operativas  en informática  basados  en categorías  e  items, cada  onto-realidad  se  correlaciona con  enfoques diversos  de  la  educación  universitaria, para  los  fines  u  propósitos  asumidos.

  
Autora: Eliana Esther Gallardo Echenique.

Este artículo pretende ser como una guía práctica para el uso del programa de análisis de datos cualitativos asistidos por computadora, ATLAS.ti, en la investigación académica, en especial en las Ciencias Sociales. La fundamentación teórica del programa se basa en la Teoría Fundamentada (Grounded Theory) de Glaser y Strauss (1967) (Varguillas, 2006). ATLAS.ti es un programa de análisis cualitativo asistido por computadora (QDA) que permite al investigador: (a) asociar códigos o etiquetas con fragmentos de texto, sonidos, imágenes, dibujos, videos y otros formatos digitales que no pueden ser analizados significativamente con enfoques formales y estadísticos; (b) buscar códigos de patrones; y (c) clasificarlos (Lewis, 2004; Hwang, 2008).
Para empezar es necesario tener toda la información digitalizada, por ejemplo, transcripción de entrevistas en profundidad. Luego se procede a crear una “Unidad Hermenéutica” (UH), – también conocida como proyecto o base de datos – que incluye documentos primarios como citas, códigos y memos (Ver Figura 1) (Lewis, 2004). Dentro de estas UH se recogen y organizan los documentos asociados a un proyecto, investigación o tema en particular que puede comprender documentos textuales (entrevistas, artículos, informes); imágenes (fotografías, capturas de pantallas, diagramas); audio (entrevistas, emisiones de radio, música); fragmentos de video (material audiovisual); y, datos georeferenciados (Google Earth).
Se utilizó el programa ATLAS.ti para importar la transcripción de cada entrevista (documentos primarios). Diferentes opciones de codificación están disponibles para el investigador como la codificación abierta, en vivo o por lista. Como se ilustra en la Figura 2, Atlas.ti proporciona una barra de herramientas para facilitar la codificación, permitiendo así la creación y organización (en orden alfabético) de códigos a través del gestor de código. El “documento primario” se muestra en el lado izquierdo del programa, mientras que en el lado derecho se visualizan los códigos.
Para codificar cada respuesta, el investigador ha utilizado la estrategia de codificación abierta, axial y selectiva (Strauss & Corbin, 1990). Inicialmente, se aplica la codificación abierta para considerar cada minúsculo detalle mientras desarrollamos algunas categorías provisionales que son examinadas según propiedades específicas para luego establecer subcategorías. La información se codificó y categorizó identificando uno o más pasajes de texto con un tema y relacionándolo con un código. Se les asignó nombres a todos los códigos lo más cercano posible al concepto que están describiendo. ATLAS.ti permite asignar diferentes colores a cada código para una fácil distinción (lado derecho del programa) y navegación (ver Figura 2). Así ATLAS.ti tiene una manera altamente visual y agradable de mostrar tanto la codificación y su contexto (Gibbs, 2007). En la Figura 3, se muestra el administrador de códigos con algunos códigos creados.
Durante la codificación axial, nos centramos en establecer interconexiones entre categorías y subcategorías (ver Figura 4). Este proceso usa el razonamiento inductivo, por el cual las categorías y códigos emergen de los datos a través de continuas y meticulosas revisiones, y de su constante comparación que nos permitió identificar las principales categorías. La capacidad de navegar por una multitud de documentos primarios que ofrece este programa, fue crucial para determinar las conexiones entre las categorías, sub-categorías y códigos a medida que iban surgiendo. El programa ATLAS.ti ofrece 7 tipos de relaciones con su respectivo símbolo (ver Figura 5), pero se pueden crear muchos otros según nuestras necesidades y conveniencias. Una de las herramientas más útiles de este programa es el Administrador de Códigos-Vínculos que nos permitió vincular códigos con otros códigos (Ver Figura 6) permitiendo así la construcción de redes (ver Figuras 7 y 8) que nos facilitó la construcción de relaciones o vínculos entre conceptos o temas. La creación de redes (Figura 8) nos permitió visualizar de manera gráfica la estructuración de los datos.Figura 6-Administrador de vínculos de códigos..
Posteriormente, la codificación selectiva nos permitió realizar una codificación más sistemática con respecto a los conceptos básicos. Este proceso implicó la lectura sucesiva, codificación, revisión y re-codificación de los datos en categorías o “familias” (familia: término utilizado en ATLAS.ti para referirse a categorías temáticas) (Fereday, 2006; Saldaña, 2009). Otra herramienta útil de ATLAS.ti es su “Administrador de Familias” que facilita el proceso de creación y gestión de “familias” (Ver Figura 9). La principal ventaja de una “familia” es que se puede utilizar como cualquier otro tipo de código para diseñar elaboradas consultas dentro de todo el conjunto de datos o utilizarlos como nodos de red (Lewis, 2004).
Otro aspecto fuerte de este programa es su servicio de búsqueda que se puede realizar tanto para texto y combinarlo con los códigos. Además, ATLAS.ti cuenta con una herramienta WordCruncher para contar la frecuencia de las palabras para cada uno de los documentos del proyecto. Finalmente, el programa permite realizar reportes de las citas con los códigos más relevantes que son exportados en formato de texto. Además, se pueden producir a la vez listas de frecuencias para todos los documentos, y los datos se pueden importar y tratarse en una hoja de cálculo u otro programa estadístico para obtener las frecuencias relativas.
Bibliografía
Fereday, J. (2006). Demonstrating rigor using thematic analysis: A hybrid approach of inductive and deductive coding and theme development. International Journal of Qualitative Methods5(1), 80–92.
Gibbs, G. R. (2007). Media review: ATLAS.ti software to assist with the qualitative analysis of data. Journal of Mixed Methods Research1(1), 103–104. doi:10.1177/2345678906291490
Hwang, S. (2007). Utilizing qualitative data analysis software: A review of ATLAS.ti. Social Science Computer Review26(4), 519–527. doi:10.1177/0894439307312485
Lewis, R. B. (2004). NVivo 2.0 and ATLAS.ti 5.0: A comparative review of two popular qualitative data-analysis programs. Field Methods16(4), 439–464. doi:10.1177/1525822X04269174
Saldaña, J. (2009). The coding manual for qualitative researchers. Los Angeles, CA: Sage Publications.
Strauss, A. L., & Corbin, J. M. (1990). Basics of qualitative research: Grounded theory procedures and techniques (p. 270). Newbury Park, CA: Sage Publications.
Varguillas, C. (2006). El uso de ATLAS.ti y la creatividad del investigador en el análisis cualitativo de contenido upel. Laurus12, 73–78.
Otro aspecto fuerte de este programa es su servicio de búsqueda que se puede realizar tanto para texto y combinarlo con los códigos. Además, ATLAS.ti cuenta con una herramienta WordCruncher para contar la frecuencia de las palabras para cada uno de los documentos del proyecto. Finalmente, el programa permite realizar reportes de las citas con los códigos más relevantes que son exportados en formato de texto. Además, se pueden producir a la vez listas de frecuencias para todos los documentos, y los datos se pueden importar y tratarse en una hoja de cálculo u otro programa estadístico para obtener las frecuencias relativas.
Bibliografía
Fereday, J. (2006). Demonstrating rigor using thematic analysis: A hybrid approach of inductive and deductive coding and theme development. International Journal of Qualitative Methods5(1), 80–92.
Gibbs, G. R. (2007). Media review: ATLAS.ti software to assist with the qualitative analysis of data. Journal of Mixed Methods Research1(1), 103–104. doi:10.1177/2345678906291490
Hwang, S. (2007). Utilizing qualitative data analysis software: A review of ATLAS.ti. Social Science Computer Review26(4), 519–527. doi:10.1177/0894439307312485
Lewis, R. B. (2004). NVivo 2.0 and ATLAS.ti 5.0: A comparative review of two popular qualitative data-analysis programs. Field Methods16(4), 439–464. doi:10.1177/1525822X04269174
Saldaña, J. (2009). The coding manual for qualitative researchers. Los Angeles, CA: Sage Publications.
Strauss, A. L., & Corbin, J. M. (1990). Basics of qualitative research: Grounded theory procedures and techniques (p. 270). Newbury Park, CA: Sage Publications.
Varguillas, C. (2006). El uso de ATLAS.ti y la creatividad del investigador en el análisis cualitativo de contenido upel. Laurus12, 73–78

PAQUETE ESTADISTICO SPSS APLICADO A LAS CIENCIAS SOCIALES.

PAQUETE  ESTADISTICO  SPSS  APLICADO  A  LAS  CIENCIAS  SOCIALES.

COMPILADOR. Dr  NESTOR  JOSE  MALAVE   MATA.

Dentro   de  los  factores  o  agentes  que  conforman  la  dialéctica  educativa  universitaria,  es  importante  aclarar   la  trascendencia  de  varios    correlación de elementos   para  emprendeer  una  investigación  bajo  el  enfoque  cualitativo  o  cuantitativo  que  permita   a  las ciencias  sociales,  políticas, antropológicas, sociológicas, económicas, administrativas, contables,  entre otras  opciones   formativa que  interaccionan   con vectores de  diversa  naturaleza  ligados  a al  desarrollo  de  la  investigación  científica.  es  importante  aclarar  que  la  dinámica  educativa  en  las  universidades  es   diversa  y  compleja,  sin embargo es   selección y  justificación  de  un modelo  o  paradigma  teórico  y  prácticos  fundamentado en la clave  de aclarar  la  precisión  de  un sistema  operativo  como  el spss, por  ejemplo  o  el  minitab,  para  ejecutar   procesos, planes, programas  o  proyectos  de  investigaciñon de  corte  universitario.

SPSS es un programa estadístico informático muy usado en las ciencias sociales y aplicadas, además de las empresas de investigación de mercado. El nombre originario correspondía al acrónimo de Statistical Package for the Social Sciences (SPSS), reflejando la orientación a su mercado original, aunque este programa es también muy utilizado en otros campos como las ciencias sociales y la mercadotecnia. Sin embargo, en la actualidad la parte SPSS del nombre completo del software (IBM SPSS) no es acrónimo de nada.1
Es uno de los programas estadísticos más conocidos teniendo en cuenta su capacidad para trabajar con grandes bases de datos y una sencilla interfaz para la mayoría de los análisis. En la versión 12 de SPSS se podían realizar análisis con dos millones de registros y 250.000 variables. El programa consiste en un módulo de base y módulos anexos que se han ido actualizando constantemente con nuevos procedimientos estadísticos. Cada uno de estos módulos se compra por separado.
Por ejemplo SPSS puede ser utilizado para evaluar cuestiones educativas.
Actualmente, compite no sólo con programas licenciados como lo son SAS, MATLABStatisticaStata, sino también con software de código abierto y libre, de los cuales el más destacado es el Lenguaje R. Recientemente ha sido desarrollado un paquete libre llamado PSPP, con una interfaz llamada PSPPire que ha sido compilada para diversos sistemas operativos como Linux, además de versiones para Windows y macOS. Este último paquete pretende ser un clon de código abierto que
Breve  Historia  
Fue creado en 1968 por Norman H. Nie, C. Hadlai (Tex) Hull y Dale H. Bent. Entre 1969 y 1975 la Universidad de Chicagopor medio de su National Opinion Research Center estuvo a cargo del desarrollo, distribución y venta del programa. A partir de 1975 corresponde a SPSS Inc.
Originalmente el programa fue creado para grandes computadores. En 1970 se publica el primer manual de usuario del SPSS por Nie y Hall. Este manual populariza el programa entre las instituciones de educación superior en Estados Unidos. En 1984 sale la primera versión para computadores personales.
Desde la versión 14, pero más específicamente desde la versión 15 se ha implantado la posibilidad de hacer uso de las librerías de objetos del SPSS desde diversos lenguajes de programación. Aunque principalmente se ha implementado para Python, también existe la posibilidad de trabajar desde Visual Basic, C++ y otros lenguajes.
El 28 de junio de 2009 se anuncia que IBM, meses después de ver frustrado su intento de compra de Sun Microsystems, adquiere SPSS, por 1.200 millones de dólares.2
Versiones del SPSS SPSS Inc. desarrolla un módulo básico del paquete estadístico SPSS, del que han aparecido las siguientes versiones:
·         SPSS 1 - 1968
·         SPSSx release 2 - 1983 (para grandes servidores tipo UNIX)
·         SPSS 5.0 - diciembre 1993
·         SPSS 6.1 - febrero 1995
·         SPSS 7.5 - enero 1997
·         SPSS 8.0 - 1998
·         SPSS 9.0 - marzo 1999
·         SPSS 10.0.5 - diciembre 1999
·         SPSS 10.0.7 - julio 2000
·         SPSS 10.1.4 - enero 2002
·         SPSS 11.0.1 - abril 2002
·         SPSS 11.5.1 - abril 2003
·         SPSS 12.0.1 - julio 2004
·         SPSS 13.0.1 - marzo 2005 (Permite por primera vez trabajar con múltiples bases de datos al mismo tiempo.)
·         SPSS 14.0.1 - enero 2006
·         SPSS 15.0.1 - noviembre 2006
·         SPSS 16.0.1 - noviembre 2007 (En la lista de usuarios de SPSS "SPSSX (r) Discussion [SPSSX-L@LISTSERV. UGA. EDU]" varios funcionarios de la empresa anunciaron previamente la salida de la versión 16 de este software. En ella se incorporó una interfaz basada en Java que permite realizar algunas mejoras en las facilidades de uso del sistema.)
·         SPSS 16.0.2 - abril 2008
·         SPSS Statistics 17.0.1 - diciembre 2008 (Incorpora aportes importantes como el ser multilenguaje, pudiendo cambiar de idioma en las opciones siempre que queramos. También incluye modificaciones en el editor de sintaxis de forma tal que resalta las palabras claves y comandos, haciendo sugerencias mientras se escribe. En este sentido se aproxima a los sistemas IDE que se utilizan en programación.)
·         SPSS Statistics 17.0.2 - marzo 2009
·         PASW Statistics 17.0.3 - septiembre 2009 (IBM adquiere los derechos y cambia su denominación de SPSS por PASW 18)
·         PASW Statistics 18.0 - agosto 2009
·         PASW Statistics 18.0.1 - diciembre 2009
·         PASW Statistics 18.0.2 - abril 2010
·         PASW Statistics 18.0.3 - septiembre 2010
·         IBM SPSS Statistics 19.0 - agosto 2010 (Pasa a denominarse IBM SPSS)
·         IBM SPSS Statistics 19.0.1 - diciembre 2010
·         IBM SPSS Statistics 20.0 - agosto 2011
·         IBM SPSS Statistics 20.0.1 - marzo 2012
·         IBM SPSS Statistics 21.0 - agosto 2012
·         IBM SPSS Statistics 22.0 - agosto 2013
·         IBM SPSS Statistics 23.0 - agosto 2014
·         IBM SPSS Statistics 24.0 - junio 2016
Módulos del SPSS
El sistema de módulos de SPSS, como los de otros programas (similar al de algunos lenguajes de programación) provee toda una serie de capacidades adicionales a las existentes en el sistema base. Algunos de los módulos disponibles son:
·         Modelos de Regresión
·         Modelos Avanzados
·         Reducción de datos: Permite crear variables sintéticas a partir de variables colineales por medio del Análisis Factorial.
·         Clasificación: Permite realizar agrupaciones de observaciones o de variables (cluster analysis) mediante tres algoritmos distintos.
·         Pruebas no paramétricas: Permite realizar distintas pruebas estadísticas especializadas en distribuciones no normales.
·         Tablas: Permite al usuario dar un formato especial a las salidas de los datos para su uso posterior. Existe una cierta tendencia dentro de los usuarios y de los desarrolladores del software por dejar de lado el sistema original de TABLES para hacer uso más extensivo de las llamadas CUSTOM TABLES.
·         Tendencias
·         Categorías: Permite realizar análisis multivariados de variables normalmente categorías. También se pueden usar variables métricas siempre que se realice el proceso de recodificación adecuado de las mismas.
·         Análisis Conjunto: Permite realizar el análisis de datos recogidos para este tipo específico de pruebas estadísticas.
·         Mapas: Permite la representación geográfica de la información contenida en un fichero (descontinuado para SPSS 16).
·         Pruebas Exactas: permite realizar pruebas estadísticas en muestras pequeñas.
·         Análisis de Valores Perdidos: Regresión simple basada en imputaciones sobre los valores ausentes.
·         Muestras Complejas: permite trabajar para la creación de muestras estratificadas, por conglomerados u otros tipos de muestras.
·         SamplePower (cálculo de tamaños muestrales)
·         Árboles de Clasificación: Permite formular árboles de clasificación y/o decisión con lo cual se puede identificar la conformación de grupos y predecir la conducta de sus miembros.
·         Validación de Datos: Permite al usuario realizar revisiones lógicas de la información contenida en un fichero ".sav" y obtener reportes de los valores considerados atípicos. Es similar al uso de sintaxis o scripts para realizar revisiones de los ficheros. De la misma forma que estos mecanismos es posterior a la digitalización de los datos.
·         SPSS Programmability Extension (SPSS 14 en adelante). Permite utilizar el lenguaje de programación Python para un mejor control de diversos procesos dentro del programa que hasta ahora eran realizados principalmente mediante scripts (con el lenguaje SAX Basic). Existe también la posibilidad de usar las tecnologías .NET de Microsoft para hacer uso de las librerías del SPSS. Aunque algunos usuarios han cuestionado sobre la necesidad de incluir otros lenguajes, la empresa no tiene esto entre sus objetivos inmediatos.
Desde el SPSS/PC hay una versión adjunta denomina SPSS Student que es un programa completo de la versión correspondiente pero limitada en su capacidad en cuanto al número de registros y variables que puede procesar. Esta versión es para fines de enseñanza del manejo del programa
Manejo
SPSS tiene un sistema de ficheros en el cual el principal son los archivos de datos (extensión. SAV). Aparte de este tipo existen otros dos tipos de uso frecuente:
·         Archivos de salida (output, extensión. SPO): en estos se despliega toda la información de manipulación de los datos que realizan los usuarios mediante las ventanas de comandos. Son susceptibles de ser exportados con varios formatos (originalmente HTML, RTF o TXT, actualmente la versión 15 incorpora la exportación a PDF junto a los formatos XLS y DOC que ya se encontraban en la versión 12)
·         Archivos de sintaxis (extensión. SPS): Casi todas las ventanas de SPSS cuentan con un botón que permite hacer el pegado del proceso que el usuario desea realizar. Lo anterior genera un archivo de sintaxis donde se van guardando todas las instrucciones que llevan a cabo los comandos del SPSS. Este archivo es susceptible de ser modificado por el usuario. Muchos de los primeros usuarios del SPSS suelen escribir estos archivos en vez de utilizar el sistema de pegado del programa.
Existe un tercer tipo de fichero: el fichero de scripts (extensión. SBS). Este fichero es utilizado por los usuarios más avanzados del software para generar rutinas que permiten automatizar procesos muy largos y/o complejos. Muchos de estos procesos suelen no ser parte de las salidas estándar de los comandos del SPSS, aunque parten de estas salidas. Buena parte de la funcionalidad de los archivos de scripts ha sido ahora asumida por la inserción del lenguaje de programación Python en las rutinas de sintaxis del SPSS. Procedimientos que antes solo se podían realizar mediante scripts ahora se pueden hacer desde la sintaxis mismo.
El programa cuando se instala trae un determinado número de ejemplos o utilidades de casi todos los ficheros en cuestión. Estos son usados para ilustrar algunos de los ejemplos de uso del programa.
Aquí está una pequeña lista de cosas que se pueden hacer mediante este programa:
1.Introducción de datos:
Vamos a vista de datos y se introducen en DISTINTAS columnas (porque son distintas variables) de arriba abajo
2.Cálculos básicos:
-para hacer operaciones: ANALIZAR>>estadísticos descriptivos>>frecuencias (para tablas de frecuencias) ahí llevas la variable que te interese al otro lado y le das a estadísticos donde marcaremos todo lo que queramos saber (media, moda, mediana, cuartiles). Nos aparecerá una pantalla nueva con los resultados. Si necesitamos saber P2,5 o P97,5 habría que hacerlo aquí.
-ANALIZAR>>estadísticos descriptivos>>explorar: ahí introducimos la variable en el primer campo (lista de dependientes) y le damos a aceptar. Aquí nos da toda la información de antes pero ADEMÁS nos da el intervalo de confianza y estimación muestral así como el error típico de la media ENCIMA nos da las gráficas del diagrama tronco hojas y el de cajas.
-Para la ASIMETRIA y la KURTOSIS: En simetría: si es negativo está sesgada a la IZQUIERDA si es 0 es simétrica y si es positivo está sesgada a la DERECHA. En curtosis: si está rondando el 0 es mesocurtica, si es negativo platicúrtica y si es positiva leptocúrtica.
-ANALIZAR>>estadísticos descriptivos>>frecuencias>>gráficos esto es útil para ver la FORMA DE LA DISTRIBUCIÓN ya que podemos superponer la curva de la normal. Si la curva se parece al histograma podemos decir que es simétrica.
-Si por ejemplo queremos hacer una nube de puntos o un diagrama de dispersión para ver dos variables cuantitativas, vamos a Gráficos>>cuadro de diálogos antiguos>>dispersión puntos>>dispersión simple>>definir>> OJO hay que saber cual es la dependiente y cual la independiente. En función de será la X (dependiente (Y) e independiente (X)[la edad por ejemplo sería independiente en la mayoría de los casos])
-Otra cosa que podemos sacar es el coeficiente de correlación lineal de Pearson ANALIZAR>>correlaciones>>bivariadas. Ahí nos aparecerá una tabla. En una diagonal siempre nos saldrá 1 (no hacer caso) en el otro te aparecerá otro valor, que será el importante.
-El coeficiente de regresión y el coeficiente de determinación: ANALIZAR>>regresión>>lineal. De todas las tablas que hay, hay que fijarse en la que pone RESUMEN DEL MODELO y fijarse en la R2 (coeficiente de determinación). Para sacar el coeficiente de regresión (b) hay que mirar en una tabla llama COEFICIENTES. Ahí vemos dos números debajo de la B. La primera se llama constante (también denominada a) y el segundo es el coeficiente B de regresión. En resumen hay que coger el SEGUNDO.
-Si queremos contrastar dos medias: ANALIZAR>> comparar medias>>prueba t para muestras independientes>>definir grupos.
-Para hacer una selección de datos de una variable: DATOS>>Seleccionar casos>>Si satisface la condición>>Pones la variable a la derecha=(lo que quieras comparar) Ahora ya vamos a ANALIZAR>>explorar.
-ANALIZAR>>Estadístico descriptivo>>tablas de contingencia>>casillas>>% en filas>> aceptar
-ANALIZAR>>Estadísticos descriptivos>>Tablas de contingencia>>Mostrar gráfico de barras agrupados Y estadísticos>>(el estadístico que se quiera)
-ANALIZAR>>Comparar medias>>Prueba T para 1 muestra>>(ponemos el valor en valor de prueba)>>Aceptar `[Miramos en Sig]
-Si queremos cambiar el nombre a las variables para que sea más cómodo, se puede en VISTA DE VARIABLES (pestaña derecha) y clickas en el nombre.

LAS REALIDADES Y ALCANCES DE LOS PROCESOS DE INVESTIGACIÓN.


LAS  REALIDADES  Y  ALCANCES DE  LOS  PROCESOS  DE  INVESTIGACIÓN.. 


Los diversos  aspectos técnicos y operativos  que van desde, las razones científicas y operativas por las cuales se retoma el abordaje del  método para efectuar un proceso investigativo genérico y particular redimensionado, en el contextualizado ámbito universitario es importante comprender primero el sentido y significado de los elementos teóricos y prácticos que inmersos en una trans-complejidad sistémica donde se describen y caracterizan los agentes operativos de la realidad de la producción científica, social y comunitaria, a través de las perspectivas trans-disciplinarias de la educación y de la pesquisa de hoy en día  o  situadas bajo el enfoque postmoderno de la sociedad misma, siendo estos factores  indispensables para comprender  la re-utilidad socio-formativa  primero como individualidad de aprendizaje y luego como sincronía societal y contextual en el país, encaminados  por  propósitos  direccionales  del  referido  estudio.


La magnitud de la génesis del estudio de  hechos, subrayando  sus principios, causas y consecuencias,  de análisis de  una estructura o aplicabilidad de un bosquejo sistémico y dialéctico, y/o de base diagnostica, reimpulsa la comprensión de lo particular a lo general y viceversa, salvando  la descripción de la realidad vinculante, la acción del fenómeno social y humano, para lo socio-tecnológico como punta de lanza de progreso de la investigación universitaria y social, en el marco  de las universidades Politécnicas Territoriales Experimentales, como totalidad educativa son en si, la esencia de la primicia socio-educativa de la aplicación de los procesos investigativos para renovados fines societales y universitarios con cuerpo epistemológico único y propio de cimiento antropológico y socio-cultural en Venezuela.


La apertura de los procesos de investigación universitarios, basados  en modelos  cualitativos, cuantitativos  o  mixtos, va mas allá de la explicación de un método en un saber, o en una unidad curricular, taller o conferencia, la verdadera  apertura del abanico en la investigación pasa por el compromiso del docente en asumir su rol de formarse, en comprender que no existe una sola vía para resolver problemas, necesidades o estudiar potencialidades en multiplicar una sólida acción científica, metódica,  innovadora y socio-cultural, donde por ejemplo, se destaca al proceso culturall la comunicación, los entes u organizaciones  sociales y la  formación  como agentes de aprendizaje humano, transcurso que va para beneficio, de un entorno socio-comunitario, donde el hacer ciencia es mas complejo que la analogía parsimonica de la doxa y la episteme, como condición básica para analizar el verdadero objetivo y re-utilidad del conocimiento y los  alcances de la investigación social, articulada con la tecnológica a favor de la humanidad y de la universidad misma y su metamorfosis,  sistemática  y  comunitaria  realista.


No basta, con entender posiciones como la filosofía de la operatividad, la axiología epistémica, la mayéutica educativa del proceso de aprendizaje, la cotidianidad y vivencialidad de hechos o acciones etnográficas, la interacción simbólica, los estados de psicología humana, la sistematicidad y realidad de las historias de vida, entre otros factores, Es importante comprender su concepción, su teoría y su fundamentación epistemológica y su verdadero alcance realista, es de mayor relevancia entender su finalidad y re-utilidad para la cotidianidad neo-educativa, esta interrogante es el verdadero ente  formativo, acción enmarcada en los procesos de investigación, ya que de allí depende la naturaleza de la razón innovadora tanto en la sociedad como en la universidad y en la vida misma, los  nudos  críticos y los  problemas,  son  parte  de  la re-contextualidad  humana, lo  que se  diversifica  y  regenera  son los  inconvenientes  cuando  no  se  trabajan a tiempo y retoman procesos que para algunos son desgastados productivamente, en el campo de la educación e investigación universitaria de trascendencia curricular, necesarios para  internalizar los hechos cambiantes en la vida del hombre.

La posibilidad de entender que el método y su diversidad aplicativa, los esquemas de investigación van de la mano, el currículo por acreditación de saberes con salidas intermedias, se cimientan como prototipos de  la reflexión básica de este aporte ontológico en  su  dimensión  de  ajuste social, comunitario y tecnologico. Debido a que,  en el campo de la investigación no puede existir “camisas de fuerzas o recetarios” que limitan la búsqueda de los conocimientos ya sean sociales o tecnológicos, la verdadera esencia es reimpulsar la creatividad mediante la lógica, la racionalidad, el empirismo, la objetividad y la sistematicidad de los hechos o fenómenos a estudiar, indiferentemente su naturaleza epistémica adaptados  a  un complejo  mundo  cambiante  realista y  operativo  donde  no  solo  se  habla  de lo fenomenológico, ni de lo positivista, ni de lo etnográfico, sino  de  aspectos  alternativos emergentes y/o misceláneos, que en su esencia son parte de la praxis investigativa y social del ser humano.

ESTRUCTURA SUGERIDA PARA UNA TESINA. PROYECTO DE INVESTIGACIÓN PARA TESIS DOCTORAL EN EDUCACIÓN. EJEMPLO MODELO.


APROBACION  DEL  TUTOR
INDICE  GENERAL
RESUMEN
INTRODUCCION

CAPITULO  I   PROBLEMA:

.-PERSPECTIVAS  SOCIO-HISTORICA  PROBLEMATIZACION Y METODO.

.-OBJETIVOS  DE  LA  INVESTIGACIÓN:
.-OBJETIVOS  GENERALES.
.-OBJETIVOS  ESPECIFICOS.
.-JUSTIFICACION  DE  LA  INVESTIGACIÓN.

CAPITULO  II  MARCO  TEORICO  O  REFERENCIAL:

.-ANTECEDENTES  DE  LA  INVESTIGACIÓN.
.-REFERENTES  TEORICOS  DE  LA  INVESTIGACIÓN.
.-La gestión del conocimiento     en     relación     a    la    vinculación   de  los procesos  administrativos y acciones humanas en la contextualidad universitaria.
.-La transformación gerencial Universitaria.
.-La calidad desde  la  óptica administrativo gerencial en las Universidades[

.-ASPECTOS  TEORICOS  VINCULADOS A LA 
.-HERMENEUTICA,
.-LO SISTEMICO.
LO SOCIO-CRITICO.

CAPITULO  III. METODOLOGIA:

.-LA EPISTÉMOLOGIA  SOPORTE  METODOLÓGICO  DE LA INVESTIGACIÓN:
.-DISEÑO   Y  TIPOLOGIA  DE  LA  INVESTIGACION
.-LA INVESTIGACIÓN E  INFORMANTES  CLAVES
.-MÉTODOS A  UTILIZAR. MULTIMETODOS.
.-TECNICAS  E  INSTRUMENTOS  DE  RECOLECCION DE  LA  INFORMACION.
.-TECNICAS  DE  ANALISIS  DE  LA  INFORMACION

REFERENCIAS  BIBLIOGRAFICAS.
ANEXOS







TRABAJOS Y PROCESOS DE INVESTIGACION SOCIO TECNOLÓGICOS Y CIENTIFICOS

ACTIVIDAD DESCRIPTIVA DE TIPO SINDICAL Y GREMIAL ENTREGA DE JUGUETES U.P.T.P LUIS MARIANO RIVERA.

 LOGROS    Y PERSPECTIVAS   DE   ENTREGA   DE JUGUETES   AL PERSONAL    DE  LA U.P..T.P   LUIS   MARIANO    RIVERA.