▷ Sabiduría semanal que puedes leer en pocos minutos. Añade nuestra revista gratuita a tu bandeja de entrada. Lee gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Liderazgo, Dinero, Startups, Políticas, Ecología, Ciencias sociales, Humanidades, Marketing digital, Ensayos, y Sectores e industrias.

Técnicas de Análisis de Datos

▷ Lee Gratis Nuestras Revistas

Técnicas de Análisis de Datos

Este elemento es una expansión del contenido de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre este tema. [aioseo_breadcrumbs]

Técnicas de Análisis de Datos

El análisis de datos es el proceso de aplicar sistemáticamente técnicas estadísticas y/o lógicas para describir e ilustrar, condensar y recapitular, y evaluar datos. Según Shamoo y Resnik (2003) diversos procedimientos analíticos “proporcionan una forma de extraer inferencias inductivas de los datos y distinguir la señal (el fenómeno de interés) del ruido (fluctuaciones estadísticas) presente en los datos”…

Aunque el análisis de datos en la investigación cualitativa puede incluir procedimientos estadísticos, muchas veces el análisis se convierte en un proceso iterativo continuo en el que los datos se recogen y analizan casi simultáneamente. De hecho, los investigadores suelen analizar en busca de patrones en las observaciones a lo largo de toda la fase de recogida de datos (Savenye, Robinson, 2004). La forma del análisis viene determinada por el enfoque cualitativo específico adoptado (estudio de campo, análisis de contenido etnográfico, historia oral, biografía, investigación discreta) y la forma de los datos (notas de campo, documentos, cintas de audio, cintas de vídeo).

Un componente esencial para garantizar la integridad de los datos es el análisis preciso y adecuado de los resultados de la investigación. Los análisis estadísticos incorrectos distorsionan los resultados científicos, engañan a los lectores ocasionales (Shepard, 2002) y pueden influir negativamente en la percepción pública de la investigación. Las cuestiones de integridad también son relevantes para el análisis de datos no estadísticos.

Consideraciones/cuestiones en el análisis de datos

Hay una serie de cuestiones que los investigadores deben tener en cuenta con respecto al análisis de datos. Entre ellas se incluyen:

Disponer de las habilidades necesarias para analizar
Seleccionar simultáneamente los métodos de recopilación de datos y el análisis adecuado
Realización de inferencias no sesgadas
Análisis de subgrupos inadecuados
Seguir normas aceptables para las disciplinas
Determinación de la significación estadística
Falta de mediciones de resultados claramente definidas y objetivas
Realización de análisis honestos y precisos
Forma de presentar los datos
Cuestiones ambientales/contextuales
Método de registro de datos
Partición del “texto” al analizar datos cualitativos
Formación del personal que realiza los análisis
Fiabilidad y validez
Alcance del análisis

Tener las habilidades necesarias para analizar

Un supuesto tácito de los investigadores es que han recibido formación suficiente para demostrar un alto nivel de práctica investigadora. La “mala conducta científica” no intencionada es probablemente el resultado de una instrucción y un seguimiento deficientes. Varios estudios sugieren que esto puede ser así más a menudo de lo que se cree (Nowak, 1994; Silverman, Manson, 2003). Por ejemplo, Sica descubrió que la formación adecuada de los médicos en las facultades de medicina sobre el diseño, la realización y la evaluación correctos de los ensayos clínicos es “abismalmente escasa” (Sica, citado en Nowak, 1994). De hecho, un solo curso de bioestadística es lo máximo que se suele ofrecer (Christopher Williams, citado en Nowak, 1994).

Una práctica habitual de los investigadores es diferir la selección del procedimiento analítico a un “estadístico” del equipo de investigación. Lo ideal sería que los investigadores tuvieran algo más que un conocimiento básico de las razones para seleccionar un método de análisis en lugar de otro. Esto puede permitir a los investigadores supervisar mejor al personal que lleva a cabo el proceso de análisis de datos y tomar decisiones informadas.

Selección simultánea de métodos de recopilación de datos y análisis adecuados

Aunque los métodos de análisis pueden diferir según la disciplina científica, la fase óptima para determinar los procedimientos analíticos apropiados se produce al principio del proceso de investigación y no debe ser una ocurrencia tardía. Según Smeeton y Goda (2003), “el asesoramiento estadístico debe obtenerse en la fase de planificación inicial de una investigación para que, por ejemplo, el método de muestreo y el diseño del cuestionario sean adecuados”.

Realización de inferencias no sesgadas

El objetivo principal del análisis es distinguir entre un suceso que refleja un efecto verdadero o uno falso. Cualquier sesgo que se produzca en la recogida de los datos, o en la selección del método de análisis, aumentará la probabilidad de extraer una inferencia sesgada. El sesgo puede producirse cuando el reclutamiento de los participantes en el estudio es inferior al número mínimo necesario para demostrar la potencia estadística o cuando no se mantiene un periodo de seguimiento suficiente para demostrar un efecto (Altman, 2001).

Análisis de subgrupos inadecuado

Al no poder demostrar niveles estadísticamente diferentes entre los grupos de tratamiento, los investigadores pueden recurrir a dividir el análisis en subgrupos cada vez más pequeños para encontrar una diferencia. Aunque esta práctica puede no ser intrínsecamente poco ética, estos análisis deben proponerse antes de comenzar el estudio, incluso si la intención es de naturaleza exploratoria. Si el estudio es de naturaleza exploratoria, el investigador debe hacerlo explícito para que los lectores entiendan que la investigación es más una expedición de caza que una investigación basada principalmente en la teoría. Aunque un investigador no disponga de una hipótesis basada en la teoría para probar las relaciones entre variables no probadas previamente, tendrá que desarrollar una teoría para explicar un hallazgo imprevisto. De hecho, en la ciencia exploratoria no hay hipótesis a priori, por lo que no hay pruebas hipotéticas. Aunque a menudo las teorías pueden dirigir los procesos utilizados en la investigación de estudios cualitativos, muchas veces los patrones de comportamiento o los sucesos derivados de los datos analizados pueden dar lugar al desarrollo de nuevos marcos teóricos en lugar de determinarse a priori (Savenye, Robinson, 2004).

Es concebible que múltiples pruebas estadísticas puedan arrojar un hallazgo significativo por mera casualidad en lugar de reflejar un efecto verdadero. La integridad se ve comprometida si el investigador sólo informa de las pruebas con resultados significativos y olvida mencionar un gran número de pruebas que no alcanzan la significación. Aunque el acceso a paquetes estadísticos informáticos puede facilitar la aplicación de procedimientos analíticos cada vez más complejos, su uso inadecuado también puede dar lugar a abusos.

Seguir las normas aceptables para las disciplinas

Cada campo de estudio ha desarrollado sus prácticas aceptadas para el análisis de datos. Resnik (2000) afirma que es prudente que los investigadores sigan estas normas aceptadas. Afirma además que las normas se basan en dos factores:

  • la naturaleza de las variables utilizadas (es decir, cuantitativas, comparativas o cualitativas),
  • los supuestos sobre la población de la que se extraen los datos (distribución aleatoria, independencia, tamaño de la muestra, etc.).

Si se utilizan normas no convencionales, es fundamental indicarlo claramente y mostrar cómo se utiliza este método de análisis nuevo y posiblemente no aceptado, así como en qué se diferencia de otros métodos más tradicionales. Por ejemplo, varios investigadores yuxtaponen su identificación de nuevas y potentes soluciones analíticas de datos desarrolladas para contar datos en el área del riesgo de contracción del VIH con una discusión de las limitaciones de los métodos comúnmente aplicados.

Si se utilizan normas no convencionales, es crucial indicar claramente que se está haciendo, y mostrar cómo se está utilizando este método de análisis nuevo y posiblemente no aceptado, así como en qué se diferencia de otros métodos más tradicionales. Por ejemplo, Schroder, Carey y Vanable (2003) yuxtaponen su identificación de nuevas y potentes soluciones analíticas de datos desarrolladas para contar datos en el área del riesgo de contracción del VIH con una discusión de las limitaciones de los métodos comúnmente aplicados.

Determinación de la significación

Aunque la práctica convencional consiste en establecer una norma de aceptabilidad para la significación estadística, en determinadas disciplinas también puede ser conveniente debatir si alcanzar la significación estadística tiene un verdadero significado práctico, es decir, “significación clínica”. Jeans (1992) define la “significación clínica” como “el potencial de los resultados de la investigación para marcar una diferencia real e importante para los clientes o la práctica clínica, para el estado de salud o para cualquier otro problema identificado como una prioridad relevante para la disciplina”.

Kendall y Grove (1988) definen la significación clínica en términos de lo que ocurre cuando “… los clientes con problemas y trastornos no se distinguen ahora, después del tratamiento, de un grupo de referencia significativo y representativo sin trastornos”. Thompson y Noferi (2002) sugieren que los lectores de la literatura de asesoramiento deben esperar que los autores informen los índices de significación práctica o clínica, o ambos, dentro de sus informes de investigación. Shepard (2003) se pregunta por qué algunos autores no señalan que la magnitud de los cambios observados puede ser demasiado pequeña para tener significación clínica o práctica, “a veces, un supuesto cambio puede describirse con cierto detalle, pero el investigador no revela que la tendencia no es estadísticamente significativa”.

Falta de mediciones de resultados claramente definidas y objetivas

Ningún análisis estadístico, independientemente de su nivel de sofisticación, corregirá unas medidas de resultado objetivas mal definidas. Ya sea de forma involuntaria o intencionada, esta práctica aumenta la probabilidad de enturbiar la interpretación de los resultados, lo que puede inducir a error a los lectores.

Proporcionar análisis honestos y precisos

La base de esta cuestión es la urgencia de reducir la probabilidad de error estadístico. Entre los problemas más comunes se encuentran la exclusión de los valores atípicos, la cumplimentación de los datos que faltan, la alteración o modificación de los datos, la extracción de datos y la elaboración de representaciones gráficas de los datos.

Forma de presentar los datos

En ocasiones, los investigadores pueden mejorar la impresión de un hallazgo significativo determinando cómo presentar los datos derivados (en contraposición a los datos en su forma bruta), qué parte de los datos se muestra, por qué, cómo y a quién (Shamoo, Resnik, 2003). Nowak (1994) señala que ni siquiera los expertos se ponen de acuerdo a la hora de distinguir entre analizar y masajear los datos. Shamoo (1989) recomienda que los investigadores mantengan un rastro documental suficiente y preciso de cómo se manipularon los datos para futuras revisiones.

Cuestiones ambientales/contextuales

La integridad del análisis de datos puede verse comprometida por el entorno o el contexto en el que se recogieron los datos, es decir, entrevistas cara a cara frente a grupos específicos. La interacción que se produce en una relación diádica (entrevistador-entrevistado) difiere de la dinámica de grupo que se produce en un grupo focal debido al número de participantes y a cómo reaccionan a las respuestas de los demás. Dado que el proceso de recogida de datos puede verse influido por el entorno/contexto, los investigadores deben tenerlo en cuenta a la hora de realizar el análisis de los datos.

Método de registro de datos

El método de registro de los datos también puede influir en el análisis. Por ejemplo, los eventos de la investigación podrían documentarse mediante:

▷ Lo último (en 2026)
▷ Si te gustó este texto o correo, considera compartirlo con tus amigos. Si te lo reenviaron por correo, considera suscribirte a nuestras publicaciones por email de Derecho empresarialEmprenderDineroMarketing digital y SEO, Ensayos, PolíticasEcologíaCarrerasLiderazgoInversiones y startups, Ciencias socialesDerecho globalHumanidades, Startups, y Sectores económicos, para recibir ediciones futuras.
  • grabación de audio y/o vídeo y transcripción posterior (automática o no),
  • encuesta administrada por el investigador o autoadministrada,
  • una encuesta cerrada o abierta,
  • preparando notas de campo etnográficas de un participante/observador, y
  • pedir a los propios participantes que tomen notas, las recopilen y las entreguen a los investigadores.

Aunque cada metodología empleada tiene su razón de ser y sus ventajas, pueden plantearse cuestiones de objetividad y subjetividad cuando se analizan los datos.

División del texto

Durante el análisis de contenido, los investigadores o “calificadores” pueden utilizar estrategias incoherentes para analizar el material textual. Algunos “calificadores” pueden analizar los comentarios en su conjunto, mientras que otros pueden preferir diseccionar el material textual separando palabras, frases, cláusulas, oraciones o grupos de oraciones. Debe hacerse todo lo posible por reducir o eliminar las incoherencias entre los “calificadores” para que la integridad de los datos no se vea comprometida.

Formación del personal que realiza los análisis

La supervisión no supervisada de las técnicas inductivas puede suponer un grave problema para la integridad de los datos. El análisis de contenido requiere que los calificadores asignen temas al material textual (comentarios). La amenaza a la integridad puede surgir cuando los calificadores han recibido una formación incoherente, o pueden haber recibido experiencia(s) previa(s) de formación. La experiencia previa puede afectar a la forma en que los calificadores perciben el material o incluso a la naturaleza de los análisis que deben realizar. Así, un evaluador podría asignar temas o códigos al material que difieran significativamente de los de otro evaluador. Entre las estrategias para abordar este problema se incluiría una lista clara de los procedimientos de análisis en el manual del protocolo, una formación coherente y una supervisión rutinaria de los evaluadores.

Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):

Fiabilidad y validez

Los investigadores que realizan análisis cuantitativos o cualitativos deben ser conscientes de los retos que plantean la fiabilidad y la validez. Por ejemplo, en el ámbito del análisis de contenido, Gottschalk (1995) identifica tres factores que pueden afectar a la fiabilidad de los datos analizados:

  • la estabilidad, es decir, la tendencia de los codificadores a volver a codificar sistemáticamente los mismos datos de la misma manera a lo largo de un período de tiempo;
  • la reproducibilidad, o la tendencia de un grupo de codificadores a clasificar la pertenencia a categorías de la misma manera; y
  • la exactitud, o grado en que la clasificación de un texto se corresponde estadísticamente con un estándar o norma.

La posibilidad de comprometer la integridad de los datos surge cuando los investigadores no pueden demostrar sistemáticamente la estabilidad, reproducibilidad o exactitud del análisis de los datos.

La validez de un estudio de análisis de contenido se refiere a la correspondencia de las categorías (la clasificación que los calificadores asignaron al contenido del texto) con las conclusiones, y la generalizabilidad de los resultados a una teoría (¿apoyaron las categorías la conclusión del estudio, y fue el hallazgo adecuadamente sólido para apoyar o aplicarse a un razonamiento teórico seleccionado?)

Alcance del análisis

Tras codificar el material textual para el análisis de contenido, los evaluadores deben clasificar cada código en una categoría adecuada de una matriz de referencias cruzadas. Confiar en un programa informático para determinar la frecuencia o el recuento de palabras puede dar lugar a imprecisiones. Se puede obtener un recuento exacto de la aparición y frecuencia de esa palabra, pero no tener una cuenta exacta del significado inherente a cada uso particular. Podría ser conveniente realizar otros análisis para descubrir la dimensionalidad del conjunto de datos o identificar nuevas variables subyacentes significativas.

Tanto si se utilizan métodos de análisis estadísticos como no estadísticos, los investigadores deben ser conscientes de la posibilidad de comprometer la integridad de los datos. Mientras que el análisis estadístico suele realizarse con datos cuantitativos, existen numerosos procedimientos analíticos diseñados específicamente para el material cualitativo, como el análisis de contenido, temático y etnográfico. Independientemente de si se estudian fenómenos cuantitativos o cualitativos, los investigadores utilizan diversas herramientas para analizar los datos con el fin de probar hipótesis, discernir patrones de comportamiento y, en última instancia, responder a las preguntas de la investigación. La falta de comprensión o reconocimiento de los problemas de análisis de datos que se presentan puede comprometer la integridad de los datos.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.

Revisor de hechos: Michael

Análisis de Grandes Datos (Big Data)

Análisis de datos longitudinales en Economía

Se analizan las ventajas y las cuestiones metodológicas fundamentales de la inferencia estadística mediante conjuntos de datos que contienen observaciones de series temporales de varios individuos. Véase más, en otro lado de esta plataforma digital, acerca del análisis de datos longitudinales. Para tener una panorámica de la investigación contemporánea, puede interesar asimismo los textos sobre economía conductual, economía experimental, teoría de juegos, y economía monetaria.

Datos verificados por: Sam.

[rtbs name=”macroeconomia”] [rtbs name=”microeconomia”] [rtbs name=”economia-internacional”] [rtbs name=”finanzas-personales”] [rtbs name=”ciencia-economica”] [rtbs name=”mercados-financieros”] [rtbs name=”microeconometria”]

Recursos

Véase También

▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
▷ Lee Gratis Nuestras Publicaciones
,Si este contenido te interesa, considera recibir gratis nuestras publicaciones por email de Derecho empresarial, Emprender, Dinero, Políticas, Ecología, Carreras, Liderazgo, Ciencias sociales, Derecho global, Marketing digital y SEO, Inversiones y startups, Ensayos, Humanidades, y Sectores económicos, en Substack.

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

▷ Recibe gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Dinero, Políticas, Ecología, Liderazgo, Marketing digital, Startups, Ensayos, Ciencias sociales, Derecho global, Humanidades, y Sectores económicos, en Substack. Cancela cuando quieras.

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo