El análisis de contenido
El análisis de contenido (AC) es una metodología ampliamente utilizada en las ciencias sociales, en especial en el área de la comunicación, que se emplea en numerosos estudios de medición del contenido de los medios. Se trata de una técnica en origen cuantitativo, nacida a partir del aumento de información producido por los mass media en EEUU, centrada en ofrecer una descripción sistemática del creciente contenido de las comunicaciones (Marín, Galera y Ruiz San Román 1999). A partir de esta técnica, es posible evaluar la imagen que adquieren ciertas ideas, instituciones o personas, además de servir como punto de partida para el estudio de los efectos de los medios de comunicación. En este sentido, lo que interesa fundamentalmente es el estudio de las ideas, significados y temas, y no tanto las palabras o estilos con que estas se expresan (Ander-Egg 2003).
1. Introducción
El desarrollo sistemático del AC durante las últimas décadas ha dado lugar a que se lo considere como una metodología per se, a pesar de que muchos autores sostengan que se trata más bien de una técnica de análisis (Piñuel Raigada y Gaitán Moya 1995). Si bien su origen histórico tiene raíces en la hermenéutica y en las investigaciones sobre los efectos de la comunicación de masas de la psicología y sociología funcionalista norteamericana, en el presente su uso se ha extendido a todas las ciencias sociales, en particular gracias al uso de procedimientos informáticos para el tratamiento de datos.
Según Berelson (1952), considerado el padre del AC, junto a Lasswell y Lazarsfeld, se trata de una “técnica de investigación para la descripción objetiva, sistemática y cuantitativa del contenido manifiesto de los medios de comunicación” (Crespo 2000: 120). Los requisitos de objetividad y sistematicidad se relacionan con la exigencia de que sus resultados sean reproducibles, esto es, la necesidad de que sus reglas sean suficientemente explícitas e igualmente aplicables a todas las unidades de análisis (Krippendorf 1990). La restricción de que los contenidos sean manifiestos, orientada a asegurar que sean intersubjetivamente verificables, ha generado no pocas críticas sustanciales, en tanto que excluye taxativamente del análisis los contenidos latentes. Esto ha llevado a autores como Klaus Krippendorf a considerar que el objeto del AC ha de ser no tanto el contenido manifiesto, sino más bien el significado simbólico de los mensajes, puesto que, por su propia naturaleza vicaria, “un mensaje es capaz de transmitir una multiplicidad de contenidos incluso a un único receptor” (Krippendorf, 1990: 0)***. A éstos se suma otro fundamental: la inferencia de los “datos” al “contexto” de referencia. Éste es el propósito primordial del análisis: realizar, a partir de ciertos datos, inferencias válidas y replicables, que pueden aplicarse a su contexto. Ello exige que el análisis reúna condiciones mínimas de validez y de fiabilidad, en el proceso de medición (Cea D”Ancona, 1999).
Para que un proceso sea reproducible, las reglas que lo gobiernan deben ser explícitas e igualmente aplicables a todas las unidades de análisis (Krippendorf, 1990). El requisito original de que la técnica sea cuantitativa se ha considerado asimismo restrictivo, ya que sólo permite abordar aspectos formales y sintácticos de los textos (su extensión, su frecuentación y distribución léxica, rasgos estilísticos, construcciones típicas, etc.). Así, la misma práctica investigadora ha ido imponiendo ampliaciones a su metodología, siempre orientada a incorporar al análisis meramente técnico un marco teórico de referencia. En este proceso de teorización de la técnica se fueron añadiendo nuevas técnicas cada vez más diversas que fueron modificando su definición original, entre otras: la aplicación de tests y escalas cuantitativas y cualitativas como el Análisis Automático, el Test de Aptitud Temática, el análisis de estilística cuantitativa, el análisis de las contingencias de Baldwin y Osgood, el cociente de acción de Buseman y el análisis de diferencial semántico (Piñuel Raigada y Gaitán Moya 1995).
En esencia, se comenzó a advertir que los procedimientos interpretativos y las técnicas de comprobación propias del AC requerían del concurso necesario de una elaboración teórica previa, que brinde un repertorio estructurado de categorías de análisis, y una serie de hipótesis y objetivos claramente definidos, en suma, una base teórica firme sobre la cual normalizar la diversidad superficial del corpus analizado.
De ahí que se haya empezado a concebir al AC como una técnica orientada a “formular inferencias identificando de manera sistemática y objetiva ciertas características especificadas dentro de un texto” (Stone et. al., 1996: 5). Esta definición del AC apartada de su concepción original, que reconoce como rasgo definitorio el carácter inferencial de la codificación de unidades textuales en categorías conceptuales (Krippendorf 1990), exige que el vaciado meramente técnico se incluya dentro de un marco de referencia conceptual que guíe desde un principio la conceptualización del diseño general, y que apoye sobre bases teóricas el examen crítico y el análisis sistemático de los datos y sus resultados.
Así, a medida que el AC fue incluyendo variables cualitativas a su propuesta metodológica cuantitativa, dejó de estar limitado a la descripción para comenzar a dedicarse a la inferencia. La mera descripción, esto es, la enunciación de las características del texto, constituye de esta forma la primera etapa del análisis, mientras que la interpretación, es decir, la significación de estas características, se presenta como la segunda fase del proceso. Entre ambas etapas, se ubica la inferencia, como procedimiento de análisis intermedio que permite el paso de una a otra.
En suma, el AC comienza a concentrarse en la búsqueda de los procesos inferenciales que operan entre los datos (unidades de información registradas en un medio duradero) y su contexto referencial (teorías, modelos y conocimientos estables acerca de las relaciones de los datos), es decir, en la tarea de realizar inferencias válidas y replicables a partir de ciertas variables, que puedan aplicarse sistemáticamente a su contexto de referencia. Desde esta perspectiva Wimmer y Dominick proponen definir al AC como una “técnica de investigación sistemática y objetiva, que permite realizar inferencias válidas y estables a partir de algunas variables” (Wimmer y Dominick 1996, 35), y que Krippendorff sugiere precisarlo, análogamente, como una “técnica de investigación destinada a formular, a partir de ciertos datos, inferencias reproducibles y válidas que puedan aplicarse a su contexto” (Krippendorf 1990: 28).
En este cambio de paradigma del AC desarrollado en los últimos años, la mirada del analista se concentra, pues, en formular inferencias en relación con el contexto de los datos, justificando estas inferencias en función de los factores estables, es decir, a partir de las relaciones fijas y conocidas entre las variables del contexto analizado. Se trabaja así en aras de construir una teoría operacional de estas relaciones, que considera a los datos como variables independientes, y al contexto y objetivos de la investigación como parte de las variables dependientes (Krippendorf 1990).
En conclusión, el AC, que comenzó siendo una técnica de análisis y compendio de información eminentemente cuantitativa, orientado en origen a sistematizar y objetivar los aspectos formales y sintácticos de un corpus de datos definido, deriva con el tiempo en un abordaje teórico-metodológico complejo, centrado en la búsqueda de una teoría analítica inferencial, que pretende, por sobre todo, formular inferencias sistemáticas entre la descripción objetiva de los datos y su interpretación contextual, con el fin último de teorizar de forma válida y fiable acerca del significado simbólico de los mensajes contenidos en los textos analizados.
De ahí que Piñuel Raigada y Gaitán Moya ensayen una definición completa del AC, a la cual suscribimos, que describe en esencia la complejidad de su propuesta analítica:
“[E]l análisis de contenido ha de entenderse como un metatexto resultado de la transformación de un texto primitivo (o conjunto de ellos) sobre el que se ha operado aquella transformación para modificarlo (controladamente) de acuerdo a unas reglas de procedimiento, de análisis y de verificación (metodología) confiables y válidas, que se han justificado teóricamente para alcanzar ciertos objetivos interpretativos (teoría e hipótesis)” (Piñuel Raigada y Gaitán Moya 1995: 520).
Definido pues de este modo el análisis de contenido, y revisada sintéticamente su génesis y evolución, pasaremos a continuación a estudiar sus requisitos, procedimientos, reglas y componentes constituyentes, a fin de abarcar lo más completamente posible la complejidad de su propuesta metodológica.
2. Validez y fiabilidad
La inferencia en el AC está condicionada por la validez y la fiabilidad de la técnica de medición aplicada. La validez se refiere a la adecuación del sistema de clasificación utilizado para la medición de los conceptos teóricos, es decir, denota el nivel de correspondencia que existe entre los constructos teóricos y las variables empíricas generadas a partir de ellos (Cea D’Ancona 1999). La fiabilidad, por su parte, es un índice de la consistencia del procedimiento de medición definido, que implica que distintos codificadores puedan llegar a idénticos resultados sobre el mismo corpus de análisis (fiabilidad intersubjetiva), o que el mismo codificador extraiga las mismas conclusiones del mismo corpus en dos períodos de tiempo separados (fiabilidad intrasubjetiva).
La fiabilidad puede descomponerse en dos clases principales: la estabilidad (grado en el que los resultados de la clasificación permanecen invariantes o sin modificaciones a lo largo del tiempo, siempre que se emplee la misma agrupación de categorías) y la reproductibilidad (grado en el que varían los resultados cuando el mismo corpus es analizado por distintos codificadores). En esencia, lo que se busca en ambos casos es minimizar las arbitrariedades en la codificación, procurando siempre eliminar, o al menos reducir a un mínimo posible, las categorías ambiguas, que dependen de la percepción subjetiva de un codificador (Krippendorf,1990). Para ello, se construyen manuales de instrucciones de registro, que deben ser usados por los codificadores como únicas guías de procedimiento, asegurando de esta forma la fiabilidad del sistema de codificación.
3. Diseño de un análisis de contenido
Las siguientes etapas corresponden a los pasos metodológicos necesarios de todo análisis de contenido[1]. Se presupone en este punto la definición previa de un objeto de investigación, un problema asociado a dicho objeto, una o varias hipótesis como respuestas a dicho problema y unos objetivos generales y específicos claramente definidos.
3.1. Definición del universo
Se trata de una delimitación del material o corpus de análisis, esto es, la población de documentos que componen el universo muestral que será sometido a estudio. La definición del universo debe ajustarse a los objetivos y al problema de la investigación.
3.2. Extracción de una muestra representativa
Definido el universo, se procede a tomar una muestra estadísticamente representativa, esto es, un subconjunto cuyas unidades muestrales tienen equiprobabilidad de ser seleccionadas respecto de aquellas que quedaron fuera de la muestra. Para realizar dicha selección, que debe ser idealmente aleatoria, se deben tener en cuenta las características de la población general de documentos y el tipo de inferencia que desea realizarse a partir de la muestra respecto del universo como un todo (Cea D’ancona 1999).
Hay que mencionar, sin embargo, que existen procedimientos de muestreo no aleatorio, por ejemplo, el muestreo estratificado (que reconoce la existencia de subpoblaciones diferenciadas) y el muestreo por conglomerados (que utiliza como unidades muestrales grupos de elementos que presentan designaciones y límites naturales) (Krippendorf 1990).
Un problema importante en cualquier proceso de muestreo radica en la definición del tamaño de la muestra, esto es, en la determinación de la cantidad mínima de unidades muestrales que es necesario extraer para asegurar la representatividad. El tamaño muestral óptimo se desprende de los parámetros del universo, que por supuesto se desconocen. De ahí que deba trabajarse con intervalos de confianza, aceptando una probabilidad máxima de error muestral (Krippendorff 1990).
3.3. Construcción del sistema de categorías
A fin de contrastar empíricamente la teoría que subyace al análisis de contenido, los conceptos y proposiciones definidas en el marco teórico deben transformarse en variables e indicadores, procedimiento deductivo que se denomina operacionalización de conceptos teóricos (Lazarsfeld 1973), y que opera como fase intermedia entre la formulación teórica del problema y la medición de las variables relevantes (Cea D’Ancona 1999). Este proceso se concreta a través de una serie de pasos relacionados: primero, descomponiendo los conceptos en diversas dimensiones; segundo, seleccionando de cada dimensión una serie de indicadores; tercero, sintetizando cada indicador mediante la elaboración de índices. Se trata, en pocas palabras, de la construcción de un sistema de categorías.
La determinación de un sistema de categorías exhaustivo y preciso es un aspecto clave del diseño de todo análisis de contenido, en tanto que su abordaje metodológico se basa precisamente en la codificación, esto es, en el proceso en virtud del cual las características relevantes del contenido de un mensaje son transformadas en unidades de registro que serán a la postre insertadas, colocadas o encasilladas en categorías (Hernández Sampieri et. al. 2000). Tal es así que Berelson (1952) no dudaba en afirmar que el éxito o el fracaso del análisis de contenido dependen de la correcta determinación de sus categorías (Ander-Egg 2003).
Las categorías son los niveles dentro de los cuales se caracterizan las unidades de registro (Holsti 1968). Estos niveles singularizan el contenido de una unidad puesto que proporcionan una denominación genérica a unidades de contenido similar, contribuyendo así a su clasificación (Cea D’Ancona 1999). Desde una perspectiva formal, las categorías, derivadas del marco teórico y de la hipótesis de trabajo, representan campos semánticos, dimensiones o variables en las que tienen lugar las unidades de análisis (Piñuel Raigada y Gaitán Moya 1995). La estructuración de las categorías permite configurar el protocolo de análisis, que toma la forma de una parrilla, plantilla o ficha de codificación, y más propiamente de una base de datos estructurada, que permite el registro de las respuestas o las confirmaciones (en suma, los valores) de las incidencias de cada categoría.
Se pueden definir los siguientes niveles jerárquicos de categorías: categorías generales, dimensiones o variables; categorías específicas o indicadores; y subcategorías. A su vez, respecto de la semántica de los datos (modos de definición del significado de las categorías), debe señalarse que todo sistema categorial debe cumplir con los siguientes requisitos: de un lado, las categorías y subcategorías deben ser exhaustivas, esto es, abarcar todas las unidades de registro posibles del lenguaje fuente; de otro, deben ser mutuamente excluyentes, es decir, deben establecer distinciones netas entre las unidades de análisis, evitando así que una misma unidad pueda pertenecer a dos categorías al mismo tiempo.
La correcta determinación y jerarquización del sistema de categorías redunda en un sistema de medición válido y fiable. De ahí que sea recomendable su comprobación empírica con una pequeña muestra, previa a su utilización definitiva en toda la población muestreada. Esta verificación inicial permite precisar la adecuación del esquema de codificación al lenguaje de los datos y a los objetivos de la investigación (Cea D’Ancona 1999).
3.4. Determinación de las unidades
Seleccionada la muestra de análisis y definido el sistema de categorías se procede a la preparación de los documentos para su tratamiento estadístico, esto es, a la fragmentación de las unidades de muestreo en unidades de codificación y de contexto. Las unidades de codificación, significantes, de registro o, más ampliamente, unidades de análisis, se definen como aquella porción mínima que el investigador aísla por contener elementos de contenido considerados significativos para el análisis (López Aranguren 1989). Se trata del segmento mínimo de contenido que será sometido a categorización. Las unidades de contexto, por otra parte, corresponden a la porción del material simbólico cuyo tamaño, siempre mayor a la unidad de codificación, es óptimo para captar la significación y caracterizar la unidad de registro. Las unidades de contexto no deben ser independientes entre sí, y pueden contener varias unidades de registro (Bardin 1986; Krippendorf 1990).
3.5. Medición, inferencia y análisis
Recolectada la muestra y registradas sus unidades por las plantillas de codificación derivadas del sistema categorial definido, se procede a la medición, esto es, a la cuantificación de las unidades de análisis y de contexto. Aquí deben mencionarse principalmente los análisis de contenido frecuenciales, que contabilizan el número de ocurrencias (AC distribucionales) o de co-ocurrencias (AC relacionales) de indicadores o categorías (Piñuel Raigada y Gaitán Moya 1995). Los AC distribucionales miden la intensidad de los valores, es decir, su frecuencia relativa de incidencia, que se atienen, como señala Krippendorff (1990), a diversas normas, a saber: de distribución uniforme (utilizada cuando la frecuencia de una categoría es mayor o menor que el promedio de todas las categorías), de distribución estable (empleada en los casos en que se aprecian modificaciones en las frecuencias a lo largo del tiempo) y de representación no desviada (se usa cuando se advierte que las frecuencias observadas son mayores o menores de lo que sería esperable si la muestra fuera representativa). De uno u otro modo, los análisis distribucionales permiten detectar relaciones semánticas de oposición y de identidad entre las distintas categorías.
Los análisis relacionales, por su parte, se ocupan de medir la frecuencia de co-ocurrencias de los valores de una variable y los valores de otra, para lo cual se utilizan normalmente tablas de contingencia, que permiten detectar la dependencia o la independencia entre variables y categorías, fijando en cada caso relaciones de determinación, asociación, equivalencia, oposición, exclusión, proximidad, simultaneidad, secuencialidad u orden, entre otras (Piñuel Raigada y Gaitán Moya 1995).
Desde el punto de vista del análisis estadístico, deben diferenciarse los abordajes de estadística descriptiva de los de estadística inferencial. En los primeros, se trata principalmente de realizar una descripción exhaustiva de las puntuaciones sostenidas para cada variable por medio de distribuciones de frecuencia, que permiten además detectar medidas de tendencia central (la media, la mediana, etc.) y medidas de dispersión (desvío estándar, varianza, etc.). En cambio, en los abordajes de estadística inferencial, lo que se busca son los efectos de relación entre una variable dependiente y una variable dependiente (métodos univariables), o entre dos o más variables dependientes y una variable dependiente (métodos multivariables). Entre los métodos multivariables, que son los más significativos en este tipo de análisis, pueden identificarse, siguiendo la clasificación de J. N. Sheth (1968) los siguientes: regresión múltiple lineal, análisis discriminante múltiple, análisis multivariable de la varianza, análisis canónico, análisis factorial, análisis de grupos o cluster analysis, análisis de escalas multidimensionales métricas y no métricas, y análisis de la estructura latente.
En todos los casos, se trata de aproximaciones estadísticas ampliamente utilizadas en los estudios de imagen y posicionamiento empresarial. Su aporte principal radica en la estimación de un coeficiente de correlación múltiple (R), que señala la correlación entre la variable dependiente y todas las variables independientes tomadas en su conjunto. A su vez, cada variable independiente se mide con el valor beta (B), que indica el peso relativo que ejerce sobre la variable dependiente (Hernández Sampieri et. al. 2000). De esta forma, puede conocerse el efecto que tiene cualquier factor sobre determinada variable reconocida como fundamental por una empresa o institución, como por ejemplo, su imagen de marca.
[1] Este listado de etapas del diseño del análisis de contenido es una síntesis de los trabajos de Sampieri et. al 2000; Ander-Egg 2003; Sanz de la Tajada 1996; Krippendorff 1990; Piñuel Raigada y Gaitán Moya 1995; Cea D’Ancona 1999.
Bibliografía
- Amado Suárez, Adriana (ed.) (2008). Auditoría de comunicación. Buenos Aires: La Crujía.
- Amado Suárez, Adriana (2003). Prensa y Comunicación. Personas y empresas frente a los medios. Buenos Aires: Macchi.
- Amado Suárez, A.; Castro Zuñeda, C. ( 1999). Comunicaciones Públicas. El modelo de la comunicación integrada. Buenos Aires: Temas.
- Ander-Egg, Ezequiel (2003). Métodos y técnicas de investigación social IV: técnica para la recogida de datos e información. Buenos Aires: Lumen.
- Bardin, L. (1986). Análisis de contenido. Madrid: Akal/Universitaria.
- Berelson, B. (1952) Content Analysis in Communication Research. Nueva York: Free Press.
- Cea D’Ancona, Ma. Ángeles (1999). Metodología cuantitativa. Estrategias y técnicas de investigación social. Madrid: Síntesis.
- Hernández Sampieri, R.; Fernández Collado, C.; Baptista Lucio, Pilar (2000). Metodología de la investigación. México: McGraw-Hill.
- Holsti, O.R. (1969). Content Analysis for the Social Sciences and Humanities, Reading, MA: Addison-Wesley.
- Holsti, O.R. (1963). “Computer content analysis”. En North, R.C. et. Al. (comps.): Content analysis: a handbook with applications for the study of international crisis. Evanston: Northwestern University Press.
- Kornblit, Ana Lía (coord.) (2004). Metodologías cualitativas en ciencias sociales. Modelos y procedimientos de análisis. Buenos Aires: Biblos.
- Krippendorff, Klaus (1990). Metodología de análisis de contenido. Teoría y práctica. Barcelona: Paidós.
- Lazarsfeld, P.F. (1973). “De los conceptos a los índices empíricos”. En Boudon, R. y Lazarsfeld, P. (comp.). Metodología de las ciencias sociales. I Conceptos e índices. Barcelona: Laia, pp.35-46.
- López-Aranguren, E. (1989). “Análisis de contenido”. En García Ferrando, M. et al. (comps.). El análisis social de la realidad. Madrid: Alianza, pp.383-414.
- Marín,L., García Galera, A. y Ruiz San Román, J. (2003). Sociología de la Comunicación. Madrid: Trotta.
- Moreno Sardá, Amparo (1998). La mirada informativa. Barcelona: Bosch.
- Sanz de la Tajada, L.A. (1996). Auditoría de la imagen de empresa. Métodos y técnicas de estudio de la imagen. Madrid: Síntesis.