Epistemología de la Ciencia
y la Tecnología
DR. RAFAEL EMILIO BELLO DÍAZ
Epistemología de la Ciencia
y la Tecnología
Santo Domingo
2003
Título de la obra:
Epistemología de la Ciencia y la Tecnología
Autor:
Dr. Rafael Emilio Bello Díaz
Edición:
Marzo, 2003
Composición y diagramación:
Eric Simó
Impresión:
Somos Artes Gráficas,
Tel.: (809) 596-8239 • Fax: 699-2993
E-mail: somos.grafina@codetel.net.do
Santo Domingo, República Dominicana
Impreso en República Dominicana
Printed in Dominican Republic
INDICE
Capítulo 1
LA COMPLEJIDAD DE LA COMPLEJIDAD ......................... 7
Capítulo 2
PENSAMIENTO EPISTEMOLÓGICO .................................. 57
Capítulo 3
LA FORMULACIÓN DE HIPÓTESIS ................................ 113
Capítulo 4
LAS BASES MATERIALES DE LAS CAPACIDADES
EPISTÉMICAS ........................................................... 177
Capítulo 5
EL IMPACTO EPISTEMOLÓGICO DE LA TECNOLOGÍA .. 215
BIBLIOGRAFÍA ............................................................... 243
Capítulo 1
LA COMPLEJIDAD
DE LA
COMPLEJIDAD
E
l Mundo es Complejo. La primera verdad que surge del examen de la naturaleza es una verdad para
el hombre: es que debe colocarse él mismo en la clase de los
animales a los que se les parece y probablemente sus instintos le parecerán más seguros que la razón humana y sus quehaceres más admirables que las artes humanas. Recorriendo
sucesivamente y por orden los diferentes objetos que componen el universo, y poniéndose a la cabeza de todos los
seres creados, verá con sorpresa que se puede descender,
por grados casi imperceptibles, de la criatura más perfecta
hasta la materia más informe, del animal más organizado al
mineral más bruto; reconocerá que sus detalles más finos
son la gran obra de la naturaleza.
La filosofía y la ciencia surgen de una misma fuente: los
intentos del hombre por comprender el mundo. Antes de
intentar comprender el sutil funcionamiento de los múltiples fenómenos que se despliegan ante sus ojos, el hombre
considera las grandes y generales preguntas sobre la estructura del mundo y sus cosas. ¿Es el mundo simple o complejo? ¿Es
el mundo ordenado o caótico?
7
La filosofía griega, revela la influencia de una serie de
dualismos. En la base se encuentra la distinción de lo que es
falso o verdadero. Pero también están los problemas del
bien y el mal, de la armonía y la confusión, los problemas
cosmológicos de la simplicidad o complejidad del mundo,
del orden o el caos del universo.
El mundo no es sencillo y no hay una explicación universal para todos los fenómenos; sin embargo, los filósofos
griegos se dieron cuenta pronto que algunos fenómenos
podían entenderse y por lo tanto predecirse; descubrieron
que ésta comprensión de los fenómenos se logra por medio
de números. Para entender el mundo alrededor de nosotros, se debe encontrar los números en las cosas; una vez que se
comprende la estructura numérica, se controla al mundo.
A lo largo de los siglos los científicos desarrollaron estrategias para entender los problemas que plantea la naturaleza y quedar seguros de que las respuestas eran correctas.
¿Cómo podía decidirse si la respuesta propuesta era correcta? Al menos desde el Renacimiento esta decisión se toma por medio
de la experimentación, esto es, del contraste de la teoría con
los sucesos naturales; para que un problema planteado sobre la naturaleza fuera atacado por los científicos debía tener dos cualidades: ser simple para poder ser entendido y
ser manipulable para poder experimentar.
La ciencia fue prosperando y sus objetos de estudio se
fueron haciendo más variados; física, biología, geología, astronomía, química y muchas otras ramas de la ciencia surgen y se dividen de acuerdo a los problemas que se quieren
resolver. La estrategia general del descubrimiento científico
8
es la determinación de la secuencia de los problemas por
resolver; en cada momento histórico, el número de problemas científicos reconocidos como importante es limitado.
Los esfuerzos de los científicos de cada generación se concentran en estos problemas y, se producen avances en la solución.
No es de extrañar que el estudio científico de los problemas sociales haya aparecido tarde; la sociología moderna comienza con Comte a mediados del siglo XIX y desde
entonces la idea de utilizar matemáticas ha sido considerada. Un primer esfuerzo notable en esa dirección lo realiza
Quantelet con su propuesta de una física social, que evolucionó más tarde hacia el análisis estadístico. Pero se ausentó
mucho tiempo; la razón principal de esta ausencia es la dificultad de comprender todas las variables involucradas en
los fenómenos y crear modelos de esta realidad; se argumenta, así que los fenómenos sociales son complejos. La
complejidad de la vida social se refleja también en la dificultad de medir las variables relevantes ya definidas.
De la Complejidad del Conocimiento Antes del Caos
En la décadas de los 60´s y 70´s del siglo XX un grupo
de filósofos intentan una comprensión integral del conocimiento, tomando en cuenta los fenómenos naturales, al observador humano y el contexto cultural y social; pensadores
franceses como Bachelard, Jacob, Morin y Serres, postulan
la necesidad de crear una epistemología con un punto de
vista antropológico y social; a esta concepción integral de la
naturaleza y el conocimiento se le llama compleja.
9
La línea de pensamiento de estos filósofos se encuentra
influenciada por los avances científicos de los siglos XIX y
XX. En particular, la termodinámica y la teoría de la información que permiten comprender, por medio de variables
macroscópicas, el mundo microscópico y la mecánica
cuántica que involucra al observador en la teoría; en sus ensayos integradores intentan explicar el camino de la organización del conocimiento con el mismo esquema de los procesos naturales. Así, Morin dice:
El caos es la desintegración organizadora. Es la unidad antagonista de la explosión, de la dispersión, la división del cosmos y de sus
nucleaciones, sus organizaciones y sus ordenamientos. Los procesos de
orden y de organización no se consiguieron un camino como un ratón a
través de los agujeros del queso gruyère cósmico, se constituyeron en y a
partir del caos, este es el funcionamiento del bucle tetralógico:
desorden => interacciones => orden => organización
=> desorden
Heráclito identificó el camino inferior, o la desintegración dispersiva y el camino superior o la evolución progresiva hacia la organización y la complejidad. Mandelbrot introdujo la terminología del Caos, en el sentido matemático,
en el estudio de los fenómenos de la naturaleza; sin embargo, conceptos científicos bien definidos provenientes de la
física tales como entropía y el Segundo Principio de la Termodinámica son frecuentemente usados en las explicaciones de la evolución del conocimiento.
Así el Segundo Principio de la Termodinámica es mucho más que un útil estadístico y la entropía mucho más que
una cantidad mesurable. Sin embargo, la Segundo Principio
10
no es la llave del universo, y la entropía no es la única ley que
rige la organización. El Segundo Principio y la idea de
entropía deben ser asociados, siempre de manera compleja,
al nuevo concepto de physis y de cosmos. Así estamos en
posición de articular el Segundo Principio:
Organización/orden => desorden
Sobre el principio cosmo-físico formulado así:
Desorden => interacciones (asociativas) => orden/
organización
Ninguna cosa organizada, ningún ser organizado no puede escapar a la degradación, la desorganización, la dispersión. Ningún ser
vivo puede escapar a la muerte. Los perfumes se evaporan, los vinos se
avinagran, las montañas se aplanan, las flores se marchitan, los seres
vivos y los soles regresan a ser polvo. Alrededor del bucle tetralógico se
dispone una constelación policéntrica de nociones de interdependencia.
Esta constelación conceptual no es más que valor general. Marca con
su presencia todos los fenómenos, toda realidad que será estudiada.
Esta constituye el primer fundamento de la complejidad de la naturaleza de la naturaleza. La investigación de la naturaleza de la Naturaleza no puede abstenerse de investigar el método para sujetar las articulaciones claves: Objeto/Sujeto, Naturaleza/Cultura, Physis/Sociedad que ocultan y rompen los conocimientos simples. Lo desconocido,
lo incierto, lo complejo se sitúan justamente en estas articulaciones.
Se intenta crear una teoría general del conocimiento que
tome en cuenta tanto los objetos físicos como a los observadores humanos en su contexto cultural y social. Una teoría que comprenda la complejidad del mundo externo y el
interno del hombre, que conteste las grandes interrogantes
cosmológicas griegas: el mundo es complejo, el mundo debe ser
11
comprendido en su unidad; para este propósito, se hace uso de
los conocimientos científicos establecidos en la época, y de
su lenguaje: la Segunda Ley de la Termodinámica, la mecánica cuántica; la teoría de la evolución, la organización
molecular de la vida; el teorema de Gödel y la cibernética.
El Caos llega al Mundo
En 1908 el matemático Poincaré y el físico Maxwell daban cuentan que había fenómenos tan sensibles a los cambios de condiciones iniciales, que era más fácil pensar que
las consecuencias visibles eran producto del azar.
La investigación matemática indicaba, por el contrario,
que sistemas gobernados por leyes físicas pueden manifestar cambios difíciles de predecir, una situación que ahora se
denomina de Caos.
La Teoría del Caos estudia fenómenos regidos por leyes
matemáticas perfectamente definidas. Los fenómenos estudiados por el Caos son deterministas y ordenados, pero difíciles de predecir. Lorenz, estudió un sistema de ecuaciones
diferenciales que describen flujos de aire en la atmósfera. El
sistema en tres dimensiones tomaría el siguiente aspecto:
dx/dt =-ax+ay
dy/dt =bx-y-xz
dz/dt =z+xy
Dada una solución de la ecuación para el tiempo t=0,
podemos seguir la trayectoria de la solución en el tiempo.
Típicamente lo que resulta se conoce como un atractor de
12
Lorenz; aquí tenemos toda la fenomenología del problema
del estudio del clima.
Antes del advenimiento de las computadoras, para estudiar un sistema de ecuaciones como los que describen la
dinámica de un fluido, se tenían algunos métodos, que resultaban laboriosos de aplicar; para visualizar el desarrollo del
sistema en el tiempo, podían obtenerse soluciones parciales
que sólo son válidas en intervalos pequeños de tiempo; con
la llegada de las computadoras fue posible comenzar a resolver las ecuaciones por métodos numéricos.
La consideración de los fenómenos y su estudio con la
ayuda de las computadoras, llevó a la definición de los llamados sistemas caóticos y a la teoría de fractales. Mandelbrot
realiza la observación de que los fenómenos naturales son
en su gran mayoría caóticos. El estudio de sistemas físicos
de comportamiento caótico reveló que estos tenían las mismas características que ciertos sistemas sociales: exhiben
análogas relaciones matemáticas, las llamadas matemáticas
de sistemas complejos; se les conoce como matemáticas de
sistemas adaptativos complejos, que exhiben mecanismos
de retroalimentación negativos y positivos e incluyen sistemas naturales tales como el inmunológico, el desarrollo
embrionario, los sistemas ecológicos y los mercados económicos. La complejidad surge así de una combinación de tendencias cooperativas y competitivas, pues tales sistemas están en continuo estado de equilibrio dinámico caótico. Estos sistemas operan de acuerdo a reglas simples y los modelos complicados se derivan de la interacción de estructuras
regidas por reglas simples. De esta manera, resulta que la
complejidad es un fenómeno emergente. Si bien, los siste13
mas sociales exhiben, un comportamiento caótico de sistema complejo, el terreno no estaba preparado para que muchos científicos sociales manejaran la complejidad matemática; se producen así una serie de excesos y simplificaciones
provenientes de los filósofos posmodernos y hermenéutas.
Modelos Matemáticos
A principios del siglo XX, el enfoque axiomático cobró
fuerza dentro de las matemáticas y hacía confiar en la posibilidad de axiomatizar todas las matemáticas, esto es, derivar todas las verdades matemáticas a partir de un número
finito de postulados aceptados a priori como verdaderos.
Gödel se encarga de acabar con la esperanza formalista:
demuestra que no puede encontrase un conjunto finito de
axiomas que implique todos los resultados verdaderos de
las matemáticas. Gödel demuestra que cualquier conjunto
finito de axiomas que impliquen los axiomas para la aritmética de Peano y que sean consistentes determina un sistema
formal que no es completo, esto es, siempre se podrán encontrar afirmaciones cuya verdad o falsedad no puede ser
demostrada usando sólo los axiomas y las reglas de inferencia lógica.
Las matemáticas siguieron progresando sin preocuparse por las cuestiones de fundamentos. La lista de
implicaciones del resultado es impresionante; algunas de ellas
son: la verdad matemática objetiva se opone a la mera
demostrabilidad; no existe ningún algoritmo posible al que
se pueda reducir la matemática, de manera que la mente hu14
mana sobrepasa cualquier formalismo; el teorema de Gödel
marca los límites del conocimiento de los objetos matemáticos en la misma forma que el principio de Heisenberg los
marca para los objetos físicos. Hay teóricos que emplean
matemáticas elementales de una manera correcta y útil para
sus fines: construir modelos matemáticos sobre la base de
las variables numéricas que permitan predecir, lo que ocurrirá en alguna situación del futuro.
¿Porqué se habrían de construir modelos matemáticos en ciencias
humanas? Tal vez, por el notable éxito que han tenido las
matemáticas en áreas de las ciencias naturales. Wigner se refiere a este fenómeno como la irrazonable efectividad de las
matemáticas; los físicos encuentran sorprendente la habilidad de los matemáticos de desarrollar herramientas que
después serán necesitadas en modelos físicos de la realidad.
El Camino de la Complejidad
.Según Russell sólo la civilización griega dio luz a un
movimiento filosófico que va mano en mano con la tradición científica, y es esta tradición dual la que ha dado forma
a la civilización occidental. El estudio de los cánones del
método científico, es un estudio filosófico; para marcar las
diferencias; si bien uno de los problemas que siempre ha
interesado a los filósofos es el tratar de describir al mundo
en general, no es un problema filosófico el dar una descripción de hechos en el modo en que lo hace la ciencia; lo que la
filosofía le puede dar a la ciencia es un marco general, un
orden para guardar sus descubrimientos.
15
Los filósofos-científicos a lo largo de la historia han marcado rutas por donde la ciencia ha progresado; un ejemplo se
tiene en matemáticas. El linaje de los matemáticos-filósofos es
muy ilustre. Puede remontarse a Pitágoras y Platón e incluye los nombres de Leibniz, Descartes, Pascal, Pierce, Russell,
Whitehead y Poincaré entre otros; muchos matemáticos,
contaban con una posición filosófica sólida desde la cual
enfocaban su trabajo matemático. En este segundo grupo
podríamos ubicar fácilmente a Newton, Gauss, y Hilbert;
muchos de estos matemáticos se distinguieron por su capacidad de comprensión global del papel de las matemáticas
en las ciencias y en el mundo, lo que les permitió guiar el
desarrollo de las matemáticas en su tiempo.
En física, la tradición filosófica es también muy distinguida. En la física moderna la doctrina epistemológica del
positivismo jugó un papel en el desarrollo de las teorías de
la relatividad por Einstein y de la mecánica cuántica por
Heisenberg; sin embargo, el positivismo también ha tenido
un impacto negativo en algunos aspectos; una de las características más marcadas de las matemáticas, en la segunda
mitad del siglo XX ha sido la ausencia de filósofos-científicos
que indiquen direcciones para el progreso de las ciencias.
En este sentido, el físico Weinberg nos indica: no conozco a
nadie que haya participado activamente en el avance de la física después de la segunda guerra mundial cuyo trabajo de investigación haya
sido significativamente apoyado por el trabajo de filósofos. Resalté antes el problema de lo que Wigner llama la irrazonable efectividad de
las matemáticas; aquí quiero enfatizar otro fenómeno igualmente inquietante, el de la irrazonable inefectividad de la filosofía. La tarea
de los filósofos de la ciencia es una tarea importante: esta16
blecer el marco general de la ciencia, su metodología y su
validez.
Epistemología Dialéctica Crítica como Método
de Investigación Científica
Hace años, a nadie se le ocurría en nuestras universidades, que la división del conocimiento, que surge con la primera división social del trabajo, hace nacer al conocimiento
fragmentado; no es casual que los caminos definitorios del
estatuto científico de los campos disciplinarios de lo social,
están preñados de posturas epistemológicas y escuelas de
pensamiento disímil, dada la variedad y amplitud de los problemas de la realidad social; se debe pensar en que las varias
disciplinas poseen sus propios cuerpos conceptuales y, o
teóricos; también hay que considerar que, los estudiosos de
las diversas disciplinas detentan, epistemes, o fundamentos
de conocimiento no claros.
Desde la comunidad primitiva hasta el tránsito del feudalismo al capitalismo el conocimiento tuvo un carácter totalizador; a partir del surgimiento de ésta formación social,
que implicó la división técnica, social y territorial del trabajo, alcanzando a la producción científica; las ciencias fueron
primeramente divididas en fácticas y formales; después, las
ciencias fácticas en físico-naturales y sociales; éstas en disciplinas especializadas; se ha manejado que la especialización científica permite la profundización en el conocimiento de regiones de la realidad; el argumento se apoya en un criterio
de productividad cognitiva. Farrington, reprocha a Darwin
17
su escasa cultura de la filosofía de la ciencia, lo cual le impidió percibir con precisión los alcances y limitaciones de sus
descubrimientos. Mendel descubrió las leyes básicas de la
genética, desconocidas por Darwin. Cordón, biólogo defensor del darwinismo, muestra cómo el conocimiento fragmentario impide el entendimiento profundo de lo que se
estudia; se puede desprender que:
a El conocimiento disciplinario amplio permite la
apropiación científica profunda de objetos específicos de estudio
b)El encerrarse en un conocimiento disciplinario limita la apropiación científica y empobrece la existencia misma del científico
En un texto escrito por científicos físico-naturales, y denominado: crítica de la ciencia, físicos, químicos, biólogos y
matemáticos, señalan cómo en sus ámbitos investigativos se
ha llegado a una enajenación causada por la fragmentación
cognitiva, resultante de la división técnica del trabajo de investigación. El conocimiento enfrenta otro problema, frecuentemente se convoca a huir de la teoría y a enfrentar problemas concretos, como si los problemas no fuesen el objeto de estudio de la teoría y como si la teoría fuera algo abstracto.
A diferencia de algunas visiones que caracterizan a la teoría de las
siguientes formas: como referida al deber ser de los objetos, o al de los
sujetos; o la que la identifica con sistemas filosóficos abstractos y que
hipotéticamente asume que, los discursos racionales explicativos concretos no son teóricos; aquí se asume que, la teoría no es más que el
producto de un modo específico de apropiarse de lo real: el modo teórico;
18
manifestaba Covarrubias. A causa de la compartimentalizaciónfragmentalización del conocimiento, en ocasiones encontramos
un fuerte escepticismo contra la utilidad de la teoría, pero:
los constructos teóricos sirven de base para generar múltiples satisfactores
de necesidades de todo tipo, generan múltiples prácticas empíricas y
artísticas, resuelven misterios y explican los productos y las prácticas
de los demás modos de apropiación. Por cierto que, la teoría, es la
única capaz de comprender y explicar las condiciones en las que se dan
los procesos de construcción de conocimiento en los otros modos de apropiación.
Lo que está en cuestión, es ¿cómo se constituye la conciencia
científica y por qué predomina la concepción fraccionaria de la realidad
entre los científicos y entre quienes no lo son, si ambos son constituidos
por la sociedad? Es decir, por la multiplicidad de referentes
que se incorporan a la conciencia individual; de esta multiplicidad, los pertenecientes a un determinado modo de apropiación predominan en una conciencia.
Aunque existe una alternancia de referentes en un mismo individuo, en cuanto al modo de apropiarse de la realidad, las prácticas están signadas por los demás referentes y
en especial por los que dominan la forma constituida de la
conciencia. Así, el sociólogo construye objetos de conocimiento sociales; el economista dice que los construye económicos, el físico los construye con base en experimentos; y
ambos aún pueden teorizar sobre su relación de conocimiento con la realidad, al igual que los sociólogos y los
politólogos.
La influencia de la base de dichos campos arrastra tras
de sí todas las limitaciones del empirismo implícito en el
positivismo como paradigma predominante en la historia
19
de las ciencias; desde la época de Hegel, se criticaba al individuo del llamado sentido común, el cual posee una actitud
que toma las cosas como se supone que son; la necesidad de
tranquilizar la conciencia, hace que quienes así se sitúen ante
los problemas los enfoquen con perspectivas particulares
asignándole de positivismo. Esta actitud hace estragos, en
países sin tradición filosófica propia; sus orígenes, hay que
buscarlos en Inglaterra, sobre todo en la personalidad de
Hume. Señalaba Bloch. Esa humildad del agnosticismo, es
decir, la de que nos está vedado el conocimiento de las cosas realmente importantes pueden aprehender de estos autores.
En esa verdad, entonces, el mismo mundo se convierte en su opuesto, es decir, en una pluralidad infinita de datos particulares. La reducción de todas las relaciones objetivas a disposición guiadas más o menos por la economía del pensamiento, este desprecio del entendimiento
disuelve en un caos agnóstico la cohesión de las cosas. Así que a la
aparente exactitud del positivismo le corresponde el correlato de un nomundo cuya única calidad objetual es el delirio pluralista.
El pensamiento tiene que arrancar de hechos, pero no se
detiene en estos por contenidos sensibles; tampoco para
sumarlos, incapaz de descubrir en ellos las vinculaciones efectivas, actuantes; conexiones que no son hechos, ni son tampoco una descripción de ellos, sino un producto de aquella
función del pensar que llamamos conocimiento de los hechos. La certeza sensible hegeliana es una universalidad plena de
lógica, y el concepto aparece también como algo intuitivamente concreto.
El concepto hegeliano se distingue de la teoría de la abstracción precisamente en que pretende ser la unidad de lo universal y lo particular; ahí esta, según Hegel, la totalidad: en20
tre la verdadera extensión de un concepto y su verdadero
contenido no hay en absoluto relación inversa, sino proporción directa; en el juicio concreto se combinan, el concepto y la intuición, lo universal y lo individual. Todo concreto es algo que existe de hecho y por tanto, individual y empírico, y
envuelve, a la par, la universalidad y el concepto. Lo puramente
empírico-individual es una simple ficción, tan poco documentable
como el concepto puro.
Una limitante de origen del empirismo es su concepción
estática de la realidad y de los hechos en esa realidad así
concebida; para el pensar dialéctico, que piensa a la realidad
como proceso en donde tienen concreción un número infinito de procesos, no se puede concebir a los hechos como
dados, sino como ocurriendo, como dándose. La empiria
está en movimiento, y el pensamiento tiene la función de
aprehenderlos, no sólo para explicarlos, sino para incidir en
dichos procesos. El presente, es un proceso dinámico que
no cesa; el presente se aparece como un haz de acontecimientos aislados sin una supuesta relación de necesidad
existencial; pero el presente es contingente y sólo mediante
un pensamiento abierto y crítico, es decir científico, se pueden desentrañar las relaciones necesarias entre esos acontecimientos; la respuesta a esta representación del movimiento está en encontrar la relación entre lo que está dado y lo
que está dándose. En dicha relación entre los momentos de
la realidad, se encuentra la potencialidad que orienta la dirección de un campo de acción entre actores, pero esta no
es manifiesta: sin embargo, es un contenido emergente; lo
que Hegel llamaría el lugar de las transformaciones cualitativas; lo que para Bloch sería lo novum.
21
Esta dimensión está fuera de los alcances del paradigma
disciplinario y del empirismo, toda vez que, topos es el objetivo empírico. Pensar la realidad como un topos, como un
dato objetivo o con una perspectiva objetivista;
diagnosticarlo y pronosticarlo a partir de la objetividad; para
demostrar que este problema se extiende hasta nuestros días,
he aquí la opinión de un epistemólogo contemporáneo: vivimos bajo el imperio de los principios de disyunción, reducción y abstracción, cuyo conjunto constituye lo que llamo el paradigma de simplificación. Descartes formuló ese paradigma maestro de Occidente, desarticulando al sujeto pensante (ego cogitans) y a la cosa extensa
(res extensa), es decir, filosofía y ciencia, y postulando como principio de verdad a las ideas claras y distintas, es decir, al pensamiento
disyuntor mismo. Este paradigma, que controla la aventura del pensamiento occidental desde el siglo XVII, ha permitido, los enormes progresos del conocimiento científico y de la reflexión filosófica; sus consecuencias nocivas ulteriores no se comienzan a revelar hasta el siglo
XX. señalaba Morín.
La única solución que occidente encontró para remediar
la disyunción fue, a través de reducir lo complejo a lo simple; dicho conocimiento fundó su rigor y operacionalidad
en la base de la medida y el cálculo; sin embargo, la
matematización y la formalización han desintegrado, a los
seres por considerar realidades sólo a las fórmulas. El pensamiento simplificante es incapaz de concebir la conjunción
de lo uno y lo múltiple (unitas multiplex).
La metodología dominante produce oscurantismo porque no hay
más asociación entre los elementos disjuntos del saber, y por lo tanto,
tampoco posibilidad de engranarlos y de reflexionar sobre ellos. Occidente funda a partir del siglo XVII a la física y a la metafísica
22
al mismo tiempo que las opone irreductiblemente: en efecto,
la ciencia occidental se fundó sobre la eliminación positivista del sujeto
a partir de la idea de que los objetos, al existir independientemente del
sujeto, podían ser observados y explicados en tanto tales. La idea de
universo de hechos objetivos, liberados de todo juicio de valor, de toda
deformación subjetiva, gracias al método experimental y a los procedimientos de verificación. Dentro de ese marco de referencia, el sujeto es,
o bien el ruido, es decir, la perturbación, la deformación, el error, que
hace falta eliminar a fin de lograr el conocimiento objetivo, o bien el
espejo, simple reflejo del universo objetivo. La idea de universo
objetivo se priva no solamente del sujeto sino también del
ambiente.
La Cuestión Interdisciplinaria
En adición al macro problema estructural del conocimiento occidental, se debe pensar en la dificultad que implica unir diferentes hábeas-teórico-epistemológicos para implementar
una relación de conocimiento interdisciplinaria; si por ésta
se entiende a priori, un conjunto de disciplinas que después
de haber desglosado sus fundamentos de conocimiento, intentaran la forma en que dichas disciplinas articularían, dichos supuestos. La tendencia hacia la labor interdisciplinaria,
ha sido impulsada por grupos de trabajo, cuya finalidad es
encontrar las bases metodológicas de tal labor.
Según Piaget, la epistemología forma cada vez más un
campo de investigaciones a la vez científicas y autónomas,
que vienen a constituir una disciplina reconocida. Todas las
disciplinas sociales y humanas se ocupan más o menos directamente, en
23
sus aspectos diacrónicos, del desarrollo de los conocimientos. La historia económica de las sociedades humanas no podría ser completa sin
una historia de las técnicas, y ésta es fundamental desde el punto de
vista de la formación de la ciencia. En cuanto a las dos ramas más
importantes del punto de vista de la formación de los instrumentos
cognoscitivos, la sociología del conocimiento y la psicología genética,
puede decirse que se prestan servicios complementarios; la epistemología genética es, por una parte, una nueva rama nacida de la hibridación de la epistemología y de la epistemología genética, que es útil a las
dos a la vez. La situación de estas dos nuevas ramas de naturaleza
fundamentalmente interdisciplinaria confirma, las situaciones en que
el poner en relación un dominio superior y otro inferior no supone una
reducción del primero al segundo, ni un refuerzo de la heterogeneidad
del primero, sino una asimilación recíproca tal que el segundo explica
al primero, pero enriqueciéndose con propiedades no percibidas hasta
entonces y que aseguraran la unión buscada. Pero, independientemente
de las divergencias en cuanto a formación universitaria, que constituyen
sin duda el principal obstáculo que hay que superar, las técnicas lógicomatemáticas comunes, cuyo empleo tiende a generalizarse, constituyen
a la vez el mejor índice de la confluencia que se impone y el mejor
instrumento de unión.
Otro trabajo lo constituye, Ensayos en Interciencia de
Yankelevich y Méndez: en todas las contribuciones subyace un propósito común: el de explorar las potencialidades que ofrece una visión
intercientífica en las investigaciones; aquí se muestra, cómo en un
grupo de investigación se genera una idea. La idea, de que
una concepción unificada acerca del hombre y de su sociedad podría adquirirse a través de un pensamiento y una investigación intercientífica-socionatural. La posición
epistemológica implícita en esta postulación difiere de la
contenida en los estudios interdisciplinarios; en éstos, el tér24
mino lo estipula, convergen, un conjunto de áreas de conocimiento que pertenecen al mismo universo científico ya sea
ciencia natural o ciencia social.
Lo que podría denominarse propiamente interciencia está aún por
constituirse. Ambos conjuntos de áreas, las sociales y las naturales,
Han interaccionado habitualmente al nivel de la exploración de aquellos parámetros que pudieran afectar la dinámica de los fenómenos, de
un ámbito, en el otro. Los límites a los territorios entre las disciplinas que constituyen las ciencias naturales han empezado
a resquebrajarse; su objeto de estudio ya no es distinguible
entre cada una de ellas; lo vivo y lo no vivo no son ya mundos binariamente separables; ahora es posible intercambiar
metodología de investigación y un cúmulo de principios teóricos que son válidos para los varios temas; de nuevo, se
detecta un desvanecimiento de los límites entre los campos
de conocimiento, pero esta vez a un nivel intercientífico, entre
las clásicamente denominadas ciencias naturales y ciencias
sociales. La sociedad y el individuo, son sin lugar a dudas un
objeto de estudio compartido.
¿Qué relación guardan entonces, los principios teóricos de organización que para los mismos fenómenos han generado las ciencias naturales y las sociales? Se precisa una vasta investigación intercientífica
con objeto de confrontar aspectos metodológicos y teóricos para avanzar
hacia una propuesta.
El Conocimiento como Función del Concepto de Ciencia
Karl Popper señalaba, que no existe ni puede existir un
verdadero espíritu crítico en la ciencia por medio de la in25
ducción y por medio de una o dos hipótesis sujetas a comprobación. Este paradigma se entrampa en el hecho de que,
el investigador sólo busca y recoge aquélla información que
le permitirá probar sus hipótesis, pudiendo dejar fuera hechos de la experiencia que pudiesen derrumbar su planteamiento; para este, el espíritu crítico radica en buscar elementos de la experiencia con los que se pueda falsear y no
probar subjetivamente las hipótesis; mientras más pruebas
soporte una teoría, se asegura que con ello, se está más cerca
de la verdad científica. Pero este planteamiento no escaparía a una crítica que le preguntaría: ¿cómo asegurar que quien
busca dichos hechos, actúe honestamente?
La perspectiva dialéctica crítica no discute sobre el problema de la prueba, porque no se ciñe a esta visión de la
ciencia cuyos fines son la explicación y predicción de fenómenos dados; su concepto de ciencia aspira a ir más allá.
Para el racionalismo crítico sólo son conocimientos científicos aquellos planteamientos que pasan la prueba del ensayo
y error. Esta demarcación cumple la función del parámetro
para evaluar la capacidad científica de las teorías; a este criterio se añaden otros como la acumulación de conocimiento y el progreso de la ciencia, con el fin de explicar la realidad.
A diferencia de este planteamiento lógico inmanente, la dialéctica
crítica pone mayor énfasis en el objeto de estudio: la realidad objetiva;
critica el trabajo de la filosofía clásica, inaugurando la historia como
elemento fundamental del análisis y orientándose a traspasar el velo de
la apariencia que cubre la realidad. Estamos en presencia de un conocimiento histórico político, el cual sale de la lógica de las ciencias físicas
como lógica de descubrimiento, sin ignorar la fisicalidad del mundo,
26
tiene referentes empíricos cambiantes y no sujetos a regularidades. Por
lo tanto, asume que el conocimiento no puede ser comprendido solamente como la verificación de hipótesis, sino como una reconstrucción
articulada de la realidad multimensional, apoyada en categorías y conceptos provenientes de las diversas disciplinas pero, sin asumir las explicaciones teóricas de éstas, sino haciendo un uso crítico de ellas para
el tratamiento del objeto que nos ocupa, señalaba Zemelman.
El ¿para qué?, más que una pregunta de investigación. El
objeto de estudio es la construcción del conocimiento a partir
de la relación dialéctica entre el objeto y el sujeto mismo. La
relación de conocimiento es lo que define al objeto, el cual
parte de una configuración problemática que incorpora elementos no sólo provenientes de alguna teoría. La relación
de conocimiento entre sujeto y objeto implica la conciencia
racional del sujeto que quiere construir conocimiento, pues
supone haber pasado por un proceso en el cual el despliegue del objeto permite al sujeto identificar con nitidez el
campo de opciones posibles a desarrollar; entre otras cosas,
la viabilidad o no de un proyecto de futuro en un campo
articulado por elementos y el papel que el sujeto juega en su
relación con el objeto. Así, el objeto de estudio es un producto articulado entre niveles de la realidad, corresponde a
una situación histórica y se define en razón del ¿para qué?
¿Para qué? un sujeto quiere estudiar una parcela de la realidad. El para qué es, en la dialéctica crítica, un criterio de
selección de opciones que involucra la subjetividad del investigador en esta fase de construcción del objeto; como
función definitoria de la relación de conocimiento entre sujeto y objeto, así como el traslado a éste, de la conciencia
racional de la subjetividad del investigador. La función del
27
para qué en la construcción del conocimiento objetivo de la
realidad social, reside en el manejo problemático que haga
el sujeto investigador de su propia ideología, incorporándolo como uno de los aspectos de esa realidad y definiendo
la orientación de su estudio. De este modo, la ideología da a
la relación sujeto objeto el elemento que precisa la
historicidad del conocimiento construido, por ser parte de
un determinado contexto histórico, en donde el investigador refleja en sus intereses científicos la realidad concreta
que quiere potenciar a través de sus proyectos, transformando la ideología en conocimiento, el que debe, ser conocido.
Al mismo tiempo, el para qué constituye un cierre lógico en
la problematización de un tema, ya que después del momento de apertura inicial a la realidad, el para qué concentra
los elementos vinculados directamente con su opción, excluyendo otros de menor relevancia.
El Conocimiento Científico
La lógica, estudia la estructura del conocimiento científico, investigando los modos de pensamiento, por medio de
los cuales se elaboran y se constituyen las ciencias, la lógica
formula la teoría de los métodos y de las funciones utilizadas en el trabajo de investigación de la ciencia; únicamente
ante el hecho ya presente de la ciencia, inició la lógica su
estudio sobre las leyes de la investigación científica.
Esta clase de reflexión es la que se denomina lógica. El
universo no es un conjunto de cosas determinadas por completo, sino un conjunto de procesos en el cual los objetos,
pasan por un cambio ininterrumpido de devenir y de ca28
ducidad, que a pesar de todas las contingencias aparentes y
de los retrocesos transitorios, termina por producir un desarrollo progresivo. El conocimiento adquirido tiene un carácter limitado, depende de las condiciones en las cuales ha
sido logrado.
Sin embargo, para penetrar en los elementos del universo, es indispensable desarticularlos de su entronque histórico y natural, para investigarlos por separado, cada uno de
por sí, en su estructura particular y en sus relaciones parciales de causalidad. El análisis de las diferentes partes de la
naturaleza, la clasificación de los diversos procesos y objetos naturales en categorías definidas, el estudio interno de
los organismos según su diferente estructura anatómica, son
las condiciones fundamentales que hacen posible el progreso en el conocimiento científico de la naturaleza. La investigación científica puede caracterizarse como un proceso en
el cual se parte de ciertos supuestos, que son las hipótesis,
para obtener consecuencias.
La validez de los nuevos conocimientos adquiridos, y la
de las hipótesis se encuentran ligadas en una relación de
condicionante a condicionado, en sentido recíproco: tanto
resulta condicionada a la consecuencia por la hipótesis, como
esta viene a ser determinada, por aquella, dando lugar a una
hipótesis más caracterizada, desde un punto de vista más
elevado; este proceso de conocimiento no tiene término, ya
que no existe principio absoluto ni final definitivo. La ciencia trata de indagar la conexión sistemática de la naturaleza
en todas sus partes, al propio tiempo que avanza el conocimiento de la investigación de conjunto del universo, encontrando sus nexos y sus concatenaciones, encontrando que a
29
cada nuevo desarrollo, se dilata en todos los sentidos la perspectiva, mostrando una profundidad y amplitud, mayores.
Con la capacidad finita del pensamiento, alcanzamos a abarcar un intercalo finito de la materia del conocimiento, pero
eso no es suficiente para conocer en dicho intervalo, de
manera más aproximada y completa, la ley que gobierna a
todo el proceso, la relación que determina el término general de la serie del conocimiento; a esta realidad del proceso
infinito del conocimiento, de la infinidad de su problema
mismo, es a lo que se denomina logos, esto es dialéctica.
El conocimiento científico tiene su origen en las actividades que el hombre realiza, en la técnica que emplea; su
fuente se encuentra en la experiencia, sus resultados se aplican en la práctica y la estimación que se le guarda radica en
la utilidad que presta en la satisfacción de las necesidades
humanas; la ciencia no existe por sí misma, sino que es siempre la ciencia de una sociedad determinada, en un lugar y en
una época definida; como desarrollo histórico que es, la ciencia sólo puede estudiarse en función del conjunto de la vida
social, de esa manera la dialéctica es la ciencia de las leyes
generales del cambio, no únicamente en el pensamiento humano, sino también en la sociedad y en la naturaleza.
El conocimiento no emerge de las profundidades del
entendimiento, ni es tampoco el espectador de sí mismo; el
pensamiento es pura y simplemente, el reflejo de los procesos de la naturaleza y de la vida social; el proceso de determinaciones sucesivas que sigue toda ciencia, también se opera
dentro de la lógica; las propias leyes del pensamiento tienen
el carácter relativo y mudable para el conocimiento científico; el desarrollo constante que ocurre en el conocimiento
30
de la naturaleza y de la sociedad, impele al mismo tiempo el
avance del conocimiento lógico. Las transformaciones incesantes que se operan en el seno de la naturaleza y la sociedad, se reflejan en el pensamiento que las interpreta; del mismo modo que las leyes científicas tienen que cumplir la condición de ser susceptibles de comprobarse, modificarse o
refutarse en un experimento posible, los principios lógicos
tienen que sujetarse a la prueba de su aplicación en el proceso del conocimiento.
Las leyes lógicas constituyen el fundamento de la construcción sistemática de la ciencia, porque en ellas se apoya
su estructura interior; además el avance ulterior dela investigación se basa en el conjunto de conocimientos logrados,
vinculados entre sí, por sus relaciones lógicas; todo nuevo
conocimiento, produce un ajuste, un afinamiento de las relaciones establecidas con anterioridad, y con el nuevo arreglo
de la estructuración lógica del estado del desarrollo científico en un momento determinado, se parte para la prosecución del trabajo de investigación.
El propósito más elevado del conocimiento, consiste en
determinar al universo en su totalidad, al objeto en su integridad. Pero ese conocimiento general se logra dividiendo
el dominio completo en campos separados, para estudiar
en particular grupos especiales de relaciones y de propiedades. El conocimiento metódico requiere la determinación
precisa del punto de vista desde el cual se va a fijar la perspectiva dela consideración; entre el infinito número de relaciones que se pueden establecer en el conjunto de objetos en
movimiento, de procesos y de acontecimientos que componen el universo, se practica una selección para prestar aten31
ción a aquellas conexiones que cumplen con las condiciones
escogidas; de esta manera se toma el dominio específico de
conocimientos de una disciplina científica.
El universo como objeto general del conocimiento, es
susceptible de infinitas consideraciones, ya que no existe limitación para el establecimiento de nuevos puntos de vista,
sino que estos se reproducen sin cesar, ante la interminable
sucesión de manifestaciones de los procesos. Los conceptos
científicos no se forman arbitrariamente, sino que reflejan
las conexiones y las interacciones objetivas que existen en le
universo; lo genérico que se expresa en el concepto, existe
objetivamente en los procesos del universo; los conceptos
científicos se forman en el proceso de la evolución histórica
del conocimiento y con fundamento en la práctica social, a
pesar de la abstracción de sus estructuras, los conceptos se
constituyen en un desarrollo histórico y experimental.
Con relación a la formulación del concepto, el concepto
se determina a través de una sucesión de juicios, es decir,
por medio de su relación con otros conceptos. En un nivel
determinado de la investigación científica, el concepto constituye su formación más estable, puesto que comprende a
todo el conocimiento adquirido en una dirección; pero, al
mismo tiempo, el concepto es también el elemento más inestable, ya que es el más susceptible de variación ante las nuevas aportaciones ofrecidas por el avance del conocimiento,
en su tarea de determinar la existencia del universo. La cantidad infinita de los procesos existentes en el universo y la
enorme multiplicidad de sus manifestaciones, hacen necesaria la práctica de una selección dentro de estos; la conceptualización comprende así, tres operaciones importantes: la
32
primera es esa selección de los procesos y de sus aspectos;
la segunda, es la formulación de un concepto que los vincule
unos con otros, y la tercera es la comprobación o la refutación, experimental de que el concepto formulado expresa
las conexiones mostradas en los procesos.
El proceso de investigación está formado por una serie
de conceptos improvisados, de hipótesis de trabajo, entremezcladas con demostraciones imperfectas y provisionales;
aun cuando el concepto representa la reflexión del universo
objetivo en el conocimiento, se distingue de la percepción
sensible; en la percepción se refleja la existencia de las manifestaciones individuales y aisladas de los procesos objetivos, en tanto que en los conceptos se expresan las relaciones
entre los procesos y las regularidades de los movimientos y
los cambios del universo. La lógica formal contrapone lo
genérico a lo particular, pero en sentido abstracto; pero la
abstracción científica no consiste en eliminar la diversidad
concreta del universo, sino en reflejarla en una forma fundamental; por esta razón, el concepto primario y más general
que existe: el concepto del universo objetivo, es el más rico
en contenido entre todos los conceptos, ya que sus propiedades se manifiestan en todos los procesos y en consecuencia, en todos los conceptos correspondientes a dichos procesos.
En el concepto se encuentran reunidos sus tres momentos: universalidad, particularidad y singularidad, de tal manera que nunca se pueden separar de una manera completa.
El proceso de investigación científica consiste precisamente
en desarrollar la determinación del concepto; en este desenvolvimiento de su definición, es que la noción general se
33
convierte en concepto científico definido. La definición del
concepto refleja así, los resultados y el nivel de generalización alcanzados por la ciencia; el concepto no es el registro
de la existencia de los procesos, sino que debe responder a
la exigencia científica fundamental de suministrar una explicación de ellos, de descubrir sus fundamentos y sus
interrelaciones con los otros procesos del universo.
Con relación a la clasificación de los conceptos, tenemos que cuando se expresa un grupo de procesos existentes, por medio de un concepto, se establece una división
relativa entre ese grupo de procesos y los demás; se tiene así
en cada concepto a la representación de una clase definida;
en esta característica radica la posibilidad de ordenar los
distintos grupos de procesos determinados, mediante la clasificación de sus correspondientes conceptos; tomando como
punto de partida a un concepto determinado, se establece
una división del universo en dos clases: una denominada clase
positiva, formada por todos los procesos expresados en el
contenido del concepto; en tanto que en la otra clase, denominada clase negativa, está constituída por todos los otros
procesos del universo cuyas propiedades manifiestas no se
encuentran incluídas en dicho contenido. Las clases positivas que quedan determinadas en esta forma, son las que se
ordenan atendiendo a la relación que guardan entre sí, según
constituyan géneros, especies, subespecies o clases coordinadas como rangos equiparables de un mismo orden superior, obteniendo como resultado, una clasificación sistemática de un dominio determinado del conocimiento. Sin embargo, toda clasificación se encuentra superditada al nivel
alcanzado por la investigación científica, en el tiempo en que
34
dicha clasificación se formule; por lo tanto, el avance del
conocimiento provoca continuamente transformaciones en
el sistema de clasificación, introduciendo variaciones de grado; en algunas ocasiones se llega a producir la sustitución
completa del ordenamiento establecido, por otro enteramente distinto.
El Marco Teórico de la Investigación
Cuando se menciona a la formulación del marco teórico, por regla general se está aludiendo a ese conjunto de
explicitaciones de la doctrina o teoría a la que se adhieren
los investigadores y a un cierto número de definiciones de
los términos involucrados en el problema; además lo que se
entiende como marco teórico variará en relación con el tipo
de investigación de que se trate. La delimitación y carácter
unitario de una teoría están determinados por la delimitación y la unicidad y conjunto de fenómenos sobre los que
trata dicha teoría, pero puesto que los fenómenos se encuentran interconectados de múltiples maneras, el deslinde absoluto de una teoría no es factible y se debe tomar conciencia de que las teorías no constituyen sistemas cerrados; las
teorías tanto se incluyen unas u otras cuando se intersectan o
vinculan lateralmente.
Se llama teoría a una vasta esfera de conocimientos que
describe y explica el conjunto de los fenómenos que da a
conocer las bases reales de todas las tesis enunciadas y que
circunscribe las leyes descubiertas en dicha esfera a un principio unificador único; el conocimiento científico entendido como conjunto de generalizaciones que proporcionan
35
descripciones e interpretaciones de clases determinadas de
fenómenos, presenta una definida organización, sistema de
vinculaciones entre sus componentes que se podría, traducir a articulaciones lógicas; para que un conjunto de conocimientos de un objeto llegue a ser teoría de ese objeto deberá tender a exponerse mediante un sistema de juicios y razonamientos en cuyas transiciones aspire a reflejarse el movimiento del objeto mismo, es decir deberá exponerse
conceptualmente.
La teoría científica de un cierto objeto deberá reflejar en
sus términos y en su red de vinculaciones el sistema mismo
que organiza y dirige el movimiento del objeto real, y esto
no se consigue haciendo una lista de definiciones, sino en la
exacta medida en que las mismas definiciones, explicitaciones,
determinaciones del contenido de los términos, impulsen
más allá del mecanismo de la definición intelectual, y obligue a desarrollar un sistema de transiciones en el que en definitiva consiste la forma conceptual del conocimiento propio de la teoría. La deducción de la ley que hay que explicar,
a partir del sistema de las leyes que la explican, no es simplemente ideal o lógica, sino que se aplica a un sustrato real o
modelo que se supone se adapta a tal deducción y representa sus diversas relaciones. Causa seu ratio, decía Descartes:
la causa es una coordinación lógica proyectada sobre una
coordinación real.
Para los griegos teorizar significa mirar, observar con
inteligencia; desde esta etimología deriva el sentido amplio
del término teoría es decir, el sentido de criterio o principio
de observación. Formal o informal, el conocimiento es siempre contemplación de algo a través de un principio; en su
36
máxima abstracción puede sostenerse que el funcionamiento de una teoría se agota en proporcionar los principios
que permiten una contemplación inteligente de los hechos.
La teoría es una abstracción vacía de verdad y de contenido real. El primer paso dela teoría consistirá en delimitar
su objeto; determinar una perspectiva de observación de
ese conjunto de fenómenos, aislando entre la infinitud de
atributos que podrían observarse aquellos que son relevantes, que tienen que ver con la naturaleza o esencia del
asunto; en segundo lugar, la construcción de la teoría tendrá que ir produciendo y organizando los juicios que describen al objeto:
a) Descripción y clasificación de las manifestaciones
y características
b) Las transformaciones de las cualidades conforme
varían la amplitud o intensidad de las cualidades,
estableciendo criterios para apreciar esos cambios
Una teoría cualquiera estaría compuesta por una red
abigarrada de proposiciones de distinto nivel de abstracción y generalidad, referidas a diversos órdenes de fenómenos, orientadas a describir, explicar y exponer al conjunto
de fenómenos delimitados como objeto de la teoría. En esa
red de afirmaciones se podrán distinguir ciertos subconjuntos
de afirmaciones a partir de las funciones que cumplan en la
teoría:
a) Conjunto de proposiciones que describan manifestaciones o sistemas de manifestaciones y que
exponen las regularidades encontradas, mediante
la generalización de aquellas observaciones
37
b) Exposición de las relaciones lógicas que se establecen entre otros hechos o leyes de diferentes niveles y/o dominios de fenómenos, hasta aislar algunos principios generales que confieren unidad y
coherencia lógica a todos los subconjuntos de proposiciones
c) Afirmaciones que explicitan cuáles son las correspondencias que hay entre la teoría y el objeto que
confiere a la teoría el carácter de un reflejo o modelo conceptual del campo de la realidad cubierto por el objeto
El funcionamiento de una teoría estará cifrado en todo
el proceso de articulación dialéctica entre los hechos y los
principios, los cuales funcionan como el contexto que da
sentido a los juicios que describen los comportamientos singulares del objeto y a las reglas de correspondencia entre el
sistema teórico y el sistema real. El elemento básico de la
teoría científica es el esfuerzo de conceptualización, de transformación delos sistemas de percepciones, de representaciones y de pensamientos intelectivos en estructuras y movimientos conceptuales, que reflejen lo concreto real en lo
concreto pensado; las teorías no surgen en un espacio vacío
de conocimiento o de donde previamente se ha barrido con
las percepciones, representaciones y esquematismos previos;
sólo desde el conocimiento anterior el esfuerzo conceptual
puede avanzar hacia la teoría.
Las teorías científicas no surgen por acumulación
milenaria de sedimentación de conocimientos, surgen por
un mecanismo más semejante a la embriogénesis en donde
la acumulación, por segmentación produce en momentos
38
definidos, reconfiguraciones, en las cuales las estructuras
anteriores han quedado conservadas como contenidos incorporados en un nuevo contexto de desarrollo y transformación. Una ciencia inicia su historia cuando ha logrado aislar un objeto propio y desde ese momento a partir de una
elaboración metódica congruente con ese nuevo objeto, se
construye el edificio del conocimiento hasta alcanzar la plenitud teórica. Tomas Kuhn, sostiene que cuando reina entre
los científicos un grado elevado de confianza y acuerdo en
torno a cierto paradigma, los investigadores pueden dedicarse a avanzar en la resolución de detalles de los problemas
que aquél permite formular, pero cuando no es así, los científicos se encuentran enzarzados en interminables disputas
sobre la legitimidad de los supuestos y métodos fundamentales.
La investigación científica exige una gran seriedad, rigor, profundidad y también, ductilidad para trabajar, elaborar, analizar y articular las nociones, los conceptos con
los cuales se organiza, se le da coherencia y sentido al conocimiento que se obtiene sobre una cierta problemática;
cada uno de los hechos de la realidad es lo que es en virtud
de las infinitas interrelaciones, conexiones, oposiciones con
el resto de los hechos y que en esa trama de procesos se
van configurando distintos niveles de especies cuyo principio de identidad no procede de una convención subjetiva sino del propio sistema de relaciones; un momento esencial en la constitución de una cierta teoría era, el de la delimitación de su objeto o conjunto de fenómenos a estudiar;
este esfuerzo no es otro que el de explicitar cuál es la identidad del objeto.
39
La tarea de trabajar con los conceptos, es tarea difícil de
la ciencia, ya que la identidad de cada especie de fenómenos
existentes en la naturaleza, en la sociedad o en la cultura es
un resultado de un proceso de infinitas interrelaciones, conexiones, oposiciones, configuraciones y transformaciones.
Formal o informalmente, todo marco teórico de una investigación alcanza su madurez cuando ha tenido decisiones
suficientes en torno a los elementos básicos de su matriz de
datos central: a las unidades de análisis; a las variables y a los
valores. Galtung manifestaba: la elección probablemente es la primera elección de la unidad decisiva que se hace en muchas investigaciones; una vez hecha es difícil volver atrás porque todo el procedimiento de
la investigación habrá sido edificado alrededor de esta elección. Por esta
razón es esencial tener una clara representación del espectro de todas las
unidades posibles, de tal manera que la elección basada en el problema
por investigar pueda ser no sólo una elección tradicional, sino también
una elección fructífera. Galtung propone una tipología para clasificar unidades y superunidades de análisis; a partir de un primer nivel tendríamos los siguientes tipos de unidades:
a) Una categoría: sería todo conjunto de individuos
considerando con prescindencia de toda estructura entre ellos; de relativa permanencia e influjo
mutuo
b) Un sistema: serían los individuos cuando son tomados por parte de una interacción binaria, débilmente conectados
c) Un grupo: sería un sistema con una relación de
interacción binaria fuertemente conectada y en la
que todos los individuos están fuertemente vinculados entre sí
40
La unidad de análisis de una investigación puede ser,
el individuo, pero también puede ser una unidad compuesta por individuos cuyo mayor o menor grado de integración determinará el tipo de propiedades emergentes o nuevas variables que puedan surgir; cuando ese conjunto se transforma en una totalidad la que no sólo es
enunciada como tal sino que se comporta como tal, de
manera que las propiedades no pueden ser reducidas a la
suma de las propiedades anteriores, se habla de un salto
de calidad en la unidad de análisis y de un mayor nivel de
integración.
El aporte de la presentación orgánica de las categorías
de la ciencia consiste, en que introduce junto con la cuestión
de la articulación estructural entre series de categorías en la
ubicación de los valores, de las variables y de las unidades
de análisis, la cuestión de las vías analíticas de transformación de un sistema categorial en otro, lo que abre la posibilidad de descubrir las vías de comunicación entre sistemas
teóricos distintos. Una investigación que se inicia con una
fase descriptiva de las manifestaciones de un problema, aún
cuando comienza atendiendo solamente a cualidades, la misma selección de los tipos de atributos presupone la existencia de cualidades características, quedando la serie completamente involucrada en dicha búsqueda, aunque no haya sido
explicitada: cualidad-esencia-sujeto.
El hecho de que la selección de cualidades relevantes
presuponga o señale hacia el lugar de la esencia y del sujeto,
no obstante la propia investigación no podría pasar hacia la
determinación de la esencia, sin antes haber profundizado
la descripción alcanzando la cuantificación y la medición.
41
Según Bavhelard: en su formación individual, un espíritu científico
pasaría pues necesariamente por los tres estados siguientes, mucho más
precisos y particulares que las formas comptianas:
a) Estado concreto: en el que el espíritu se recrea con las
primeras imágenes del fenómeno y se apoya sobre la literatura filosófica que glorifica la naturaleza, y que extrañamente, canta al mismo tiempo a la unidad del mundo y a la diversidad de las cosas
b) Estado concreto-abstracto: en que el espíritu adjunta
a la experiencia física esquemas geométricas y se apoya sobre la filosofía de la simplicidad: el espíritu se mantiene todavía en una situación paradójica: está tanto más seguro de
su abstracción cuanto más claramente esta abstracción está
representada por una intuición sensible
c) Estado abstracto: en el que el espíritu emprende informaciones voluntariamente sustraídas a la intuición del
espacio real, voluntariamente desligadas de la experiencia
inmediata y hasta polemizando abiertamente con la realidad
básica, siempre impura, siempre informe
La posición bachelardiana se instala decisivamente
en el puesto del sistema categorial de la medida y desde
allí señala hacia el resto de una estructura completa:
medida-realidad-praxis, pero por lo mismo que presupone los otros dos lugares, en lugar de acceder a ellos desde el sistema de las categorías de la esencia y del fenómeno, y desde el sujeto y el objeto, proyecta el contenido del sistema de los valores-medida tanto a la realidad
cuanto a la praxis
42
La Experimentación como Proceso
La ciencia, es fundamentalmente conocimiento; y por
convencionalismo es un conocimiento de cierta clase: conocimiento que busca leyes generales que reúnen cierto número de hechos particulares; poco a poco, el aspecto de ciencia como conocimiento, va resultando relegado al olvido al
prevalecer el concepto de ciencia como capacidad de manipular la naturaleza. La palabra research (investigación), tiene su origen en un término que significa explorar o moverse
alrededor de, el cual a su vez se deriva de una palabra que
significa círculo.
Experimentar significa ensayar o poner a prueba y se
refiere a los procedimientos utilizados al tratar de descubrir
hechos y procesos desconocidos. La investigación y la experimentación se refieren a los procesos de exploración y prueba utilizados para lograr una comprensión mayor de la naturaleza del mundo; existen razones específicas por los cuales un experimentador realiza un trabajo particular: una razón básica por la cual se llevan a cabo experimentos, es la
necesidad de determinar la relación entre dos o más variables; la segunda razón es la ampliación del campo de estudio de una variable, la realización de cualquier experimento
presenta problemas nuevos para explorar.
Otra razón para experimentar es el aumento de
confiabilidad de los hallazgos logrados; esto implica la repetición de experimentos ya realizados; la repetición es una
función importante de la experimentación; si diferentes investigadores que utilizan muestras distintas, logran verificar
un hallazgo publicado, se incrementa la confianza en ese des43
cubrimiento. Una cuarta razón general para experimentar,
es la de someter a prueba una teoría. Se ha realizado una
gran cantidad de estudios con la ayuda de los métodos de
correlación, esto significa que el investigador trata de medir
las relaciones que existen entre dos o más fenómenos ya
observados. Una segunda característica de los estudios de
correlación es que la secuencia de tiempo no tiene repercusión particular; en un experimento los valores de la variable
independiente se establecen y se miden antes de determinar
los valores de la variable dependiente. Un tercer punto de
diferenciación es el hecho de que un estudio de correlación
no implica causalidad, mientras sí la involucra un estudio
experimental; por ser posible un gran número de hipótesis,
ninguna correlación permite hacer una afirmación directa
de la causa; en un buen experimento, es posible afirmar que
las condiciones manipuladas por el experimentador fueron
la causa de las reacciones que se obtuvieron. Esto da lugar a
un cuarto punto de distinción: si la correlación entre dos
variables resulta ser alta y confiable, entonces podemos utilizarla con propósitos de predicción.
Mientras un experimentador, más logra controlar las
condiciones de un fenómeno, más preparado está para realizar observaciones precisas, a diferencia del observador que
simplemente registra los fenómenos cuando éstos se presentan; siendo conocidas las condiciones controladas, el experimentador puede montar de nuevo su experimento y repetir las observaciones. Dos conceptos son usados frecuentemente: el de variable independientes y el de variable dependiente. La variable independiente se define, como el factor o variable que manipula el experimentador. La variable
44
dependiente se define como los cambios medidos en el sujeto, con base a sus respuestas de evitación, o de rapidez de
aprendizaje de una tarea.
La variable independiente es tan sólo una condición apta
entre muchas que pueden afectar el fenómeno que se estudia; en cualquier experimento, es posible manipular más de
una variable a la vez, y en tal caso tendríamos dos o más
variables independientes; los experimentos requieren también que ciertas condiciones se mantengan constantes, esto
se hace precisamente porque dichas condiciones podrían
afectar, las respuestas que se intentan medir. En la mayoría
de los experimentos, el tiempo se mantiene constante, los
aparatos controlados o calibrados, las condiciones
medioambientales uniformes y las variables conocidas, a
diferencia de aquellas que están en estudio, se mantienen fijas en algún valor; debe ser evidente que todos los valores se
mantengan constantes, estén en potencia de cambiar eventualmente la respuesta que se va a medir, y por eso se los
puede considerar como variables independientes potenciales; a estos factores que se mantienen constantes se les denomina parámetros.
Otros autores amplían el concepto de variable: a) variables independientes y dependientes, b) variables activas y atributivas,
c) variables continuas y categóricas; la forma más útil de clasificarlas es dividirlas en independientes y dependientes. La variable independiente es la supuesta causa de la variable dependiente, que sería su efecto. La primera es el antecedente;
la segunda el consecuente; cuando decimos: si ocurre A, también se realizará B, tenemos la unión condicional de una variable independiente (A) y una variable dependiente (B).
45
Ambas designaciones provienen de las matemáticas, donde
X es la variable independiente y Y, la variable dependiente;
de manera que en la investigación científica se persiguen incesantemente las relaciones entre X y Y. En los experimentos se manipula la variable independiente; la variable dependiente es aquella que se predice, mientras que la variable independiente es aquella a partir de la cual se predice. La variable dependiente Y, es el supuesto efecto que varía con los
cambios o variaciones de la variable independiente X, y no
se manipula, sino que es observada por si se produce alguna
variación atribuible al cambio de la variable independiente;
para predecir la Y a partir de la X, podemos tomar cualquier valor y asignarlo a X, mientras que el valor de Y que
predecimos depende del valor de X que hayamos escogido.
La variable dependiente suele ser la situación que intentamos explicar.
La relación entre una variable independiente y una variable dependiente se podría comprender mejor, si se trazan
dos ejes perpendiculares entre sí, unos de los cuales representa a la primera y el otro a la segunda; cuando dos ejes son
perpendiculares entre sí, se denominan ejes ortogonales;
conforme a la costumbre de las matemáticas, X es la variable independiente o eje horizontal. Y, la variable dependiente, o eje vertical, la X se conoce con el nombre de abscisa y
la Y con el nombre de ordenada. Una clasificación útil en el
diseño de investigaciones se funda en la distinción que existe
entre variables experimentales y medidas; es importante al
planear y ejecutar la investigación, distinguir entre ambas;
las variables manipuladas se denominan variables activas,
las variables medidas se denominan variables atributivas;
46
cualquier variable susceptible de manipulación es una variable activa; cualquiera que no se pueda manipular es una variable atributiva.
Con relación a las variables continuas y categóricas, esta
distinción es importante en lo que respecta al planeamiento
de la investigación y en el análisis de datos. Una variable
continua puede influir en un conjunto ordenado de valores
dentro de cierto intervalo; esta definición significa, que sus
valores reflejan, un orden jerárquico y que un valor mayor
de la variable indica que la propiedad en cuestión se posee
en un grado superior; las variables categóricas, pertenecen a
una clase de medición llamada nominal, en ella hay dos o
más subconjuntos del conjunto de objetos que se mide; los
individuos son clasificados de acuerdo a la posesión de una
característica que define a cualquier subconjunto. Las construcciones hipotéticas se han denominado también variables intermedias. La variable intermedia es una variable imaginada, no puede ser vista, oída, ni tocada.
El Sistema de las Funciones Lógicas
El pensamiento constituye la formulación de una pregunta o la respuesta a una interrogación; cuando se piensa
en un objeto, en un proceso o en una situación, se plantea un
problema por resolver acerca del objeto, del proceso o de
la situación; o se expresa la solución a la indagación que se
haya formulado. El procedimiento científico consiste en una
sucesión de problemas que se plantean a partir de los datos
contenidos en las investigaciones anteriores y por los cuales
47
se llega a su solución, a través del desarrollo teórico y de la
experimentación. El contenido de la lógica es el pensamiento y sus funciones que son al mismo tempo, las más simples
y las más elementales; a la existencia le sigue la determinación; esta es la característica fundamental del pensamiento;
en sentido estrito pensar es determinar. La determinación
tiene su expresión más caracterizada en el juicio; porque el
juicio es la forma del pensamiento que establece la relación
determinante, y por medio de esa función en el juicio se
fijan los puntos de referencia que indican los momentos del
devenir dialéctico del conocimiento.
En la reconstrucción de los procesos seguidos para la
adquisición del conocimiento, la lógica tiene una función
importante; por medio de esta es que se pueden repetir, todos los pasos que conducen ala conclusión ya alcanzada anteriormente. En este sentido, la técnica de la transmisión del
conocimiento científico se apoya en las leyes y en los métodos desarrollados por la lógica, esta se ocupa de encontrar
en el proceso mismo del trabajo científico, las formas en el
que este procede para desarrollarlas y convertirlas, en eficaces instrumentos para la propia investigación de la ciencia.
El juicio, como expresión más caracterizada de la determinación, establece la relación entre dos o más conceptos. La
función del juicio condiciona a los dos elementos que la constituyen, a los conceptos que intervienen en ella; el concepto
tiene como elementos primordiales a los juicios que lo constituyen.
48
Capacidad de Objetividad de la Razón
El racionalismo crítico propone una racionalidad específica con el criterio de demarcación: sólo será científico un
conocimiento anclado al método hipotético deductivo, en
el que la objetividad se asienta en la contrastabilidad
intersubjetiva de los enunciados a probarse; en esta perspectiva solamente se consideran los enunciados con sentido
y los principios racionales de la lógica formal, transformados en la única lógica de razonamiento.
La alternativa a esta óptica que pone a la lógica por encima del objeto, ubicando a la realidad en un recorte
parametral; estará diferenciada y definida por una nueva racionalidad que no niega los principios racionales de la lógica formal, pero que los asume como instrumentos de la razón con los que se lleva a cabo su relación con la realidad.
En esta perspectiva el mecanismo de apropiación de la realidad es la totalidad, entendida como un modo de organizar
la apertura de la razón hacia la realidad que se quiere estudiar, sin limitarse al encierro en determinados límites teóricos de discursos disciplinarios, pues expresa un concepto
de realidad como articulación de niveles que tienen la exigencia de ser analizados en sus relaciones con otros de ellos.
Esto es así, porque el vínculo entre la razón y la realidad no
queda determinada por la relación teórica, sino por la necesidad de construir objetos en función de un razonamiento
articulado por niveles.
Según Zemelman, es posible definir un campo problemático, si dirigimos la crítica a mantener la construcción de
conocimiento lejos del referente teórico que determina la
49
explicación. Porque la relación de conocimiento subordina
el cómo-ver y el qué-ver a la organización de un campo de observación que no se supedite a las exigencias de tal o cual
teoría proveniente de tal o cual disciplina. Debe romperse
por el contrario con la tendencia del investigador que, pudiendo saber lo que está viendo, intenta que sus observaciones sean coherentes con la base de su conocimiento preestablecido, es decir, teórico-disciplinario.
La apertura de la razón a lo real deberá abrirse a la objetividad, en vez de ser una función de la postura teórica del
especialista; tal capacidad de abrirse a la realidad objetiva
lleva a un campo de opciones y permite asegurar el predominio de lo objetivo sobre el pensamiento; con esto se enriquece el concepto de realidad; se puede entender ahora, como
proceso, como producto y como potencialidad. La apertura de la razón tiene una constante transformación de referentes empíricos y la ruptura de límites teóricos en el plano
del conocimiento; también se precisa de una exigencia de
objetividad que trascienda el contenido de estructuras teóricas, permita reconocer campos de objetos, y opciones de
construcción del objeto. El razonamiento teórico se abre
respecto a la realidad para reconocer una amplitud de concreciones posibles. Reconocer la articulación de los distintos niveles de un fenómeno social implica construir el concepto de realidad considerando a esta en movimiento. En la
perspectiva del racionalismo crítico, la relación con la realidad debe llevar a la explicación y de ahí la exigencia de
refutabilidad en su criterio de falsación.
Si a la inversa, se le otorga primacía al objeto construyéndolo articuladamente por niveles de lo real: el nivel eco50
nómico, el político, el social y el psico-cultural, se pueden descubrir opciones al hallar al mismo tiempo una multiplicidad
de objetos posibles en los que, el poder de explicación, es la
capacidad de organizar relaciones entre ellos, pero al interior de una delimitación que consiste en un campo de objetos; es aquí en donde el reconocer la especificidad se hace
imprescindible, para garantizar el no partir de estructuras
predeterminadas con fines explicativos, sino mediante la
articulación de niveles de lo real y de procesos temporales y
espaciales para lograr la aprehensión del objeto.
Así, la necesidad de reconocer la especificidad de un fenómeno social, se convierte en una exigencia analítica indispensable para el reconocimiento de un campo de opciones
desde donde pueda vislumbrarse lo posible de ser incidido
o potenciado; con ello el razonamiento toma en cuenta la
exigencia de adecuación a lo concreto específico. El problema del conocimiento en este nivel estriba en reconocer planos de la realidad y niveles de abstracción. Lo específico
resulta de la articulación entre el avance a lo particular y
concreto, en donde ésta exige que cada nivel sea analizado
en su relación con otros niveles, en donde es necesario el
corte temporal presente.
Ahora bien, la capacidad de reconocimiento de la especificidad de un fenómeno implica de hecho romper con las
ataduras del esquema hipotético deductivo, aquel que parte
de un marco teórico preestablecido para sólo explicar, a
partir de una o dos causas, la gran complejidad de un fenómeno social. Reconocer opciones permite romper con cualquier intención de partir de una estructura teórica previa; ya
que el objetivo en la perspectiva dialéctica crítica, el recono51
cer la especificidad de procesos se relaciona con construir
la realidad y la búsqueda de opciones teóricas o de acción.
Significa no iniciar el razonamiento enmarcado en una teoría, sino reconocer campos de objetos, es decir, opciones
para la construcción del objeto. La relación de la razón con
la realidad no queda determinada por la relación teórica y
de contenido, sino por la necesidad de construir objetos y
en estos términos, permite ubicar qué categorías o conceptos de la teoría son pertinentes como herramientas analíticas, según Zemelman.
La Totalidad: Recurso Epistemológico para la Articulación
Transdisciplinaria
La articulación transdisciplinaria significa en sentido simple, construir el conocimiento por articulación de niveles
multidimensionales de lo real; lo transdisciplinar se refiere
en este planteamiento, al hecho de relevar la cosa, el objeto,
la realidad pues, por encima de cualquier discurso sustantivo disciplinario. Transdisciplinario es eso, abrir el pensamiento mas allá de los límites de estructuras teóricas
preestablecidas, pero, sin desechar a priori, las posibilidades de captación de lo real por las categorías y conceptos de
constructos teóricos ya construidos, se trata de actuar, con
una actitud crítica en su uso. Se debe pensar por analogía en
la similitud que existe entre un individuo y una disciplina, así
como el individuo está constituido por diferentes referentes
de lo real; una disciplina está también constituida por diferentes fundamentos epistemológicos: su concepción de la
52
ciencia, su concepción ontológica, su concepto de realidad
y su método o, su forma de aprehensión de lo real.
En su origen las disciplinas deambulan y se esfuerzan
por constituirse con el estatuto de ciencia, para poder
autopresentarse. Es decir, para lograr consenso de su legitimidad como disciplina científica. No se trata de rehacer la
historia de las disciplinas científicas, se intenta problematizar
el significado profundo de la totalidad como recurso
epistemológico para el conocimiento, para tratar de dar validez a una propuesta: es decir, para proponer a la
transdisciplina, como articulación disciplinaria vía la totalidad.
Lo dicho implica que la totalidad no es todos los hechos, sino que es una óptica epistemológica desde la que se
delimitan campos de observación de la realidad, los cuales
permiten reconocer la articulación en que los hechos asumen su significación específica. En este sentido se puede
hablar de la totalidad como exigencia epistemológica del
razonamiento analítico.
En este sentido, la perspectiva de Morín como
transdiciplinaria para la propuesta de un modelo viene a ser
más abstracta que su propio planteamiento, toda vez que
aspira a explicar la complejidad del mundo, del universo; a
la inversa, la propuesta de la totalidad en su nivel
epistemológico, es una propuesta para captar objetos concretos, sin pretensiones de visión del mundo, cosmogonía.
Paradójicamente, la propuesta de Morin es más totalizadora, más holista que la de la propia dialéctica crítica. La totalidad es un recurso para organizar el razonamiento analíti53
co, no intenta formar un objeto total que incluya el todo de
todo, pues se centra en definir la base de la teorización, sin
ser una teoría en sí misma; ni mucho menos pretende ser un
objeto real.
Por eso el concepto todo constituye un modo de recortar la realidad
para construir el objeto de estudio que sin partir de exigencias a priori
de todas las propiedades o aspectos de una cosa, permita dar soluciones
sobre ciertas propiedades o aspectos especiales de la cosa en cuestión,
que le hacen aparecer como una estructura organizada. Por esto también consideramos que la totalidad representa una solución al asunto
de la preeminencia del problema por sobre cualquier ideal metodológico,
esto es, sus mecanismos de adecuación a la cosa concreta. Explicaba
Zemelman.
Es su capacidad de apertura hacia lo real lo que permite
profundizar mayormente en la realidad con el objetivo de
dar prioridad a la construcción del objeto. La totalidad así
concebida deviene como un método que hace posible el recorte o construcción del objeto; este último, plantea una
pregunta. ¿Cuáles son los fundamentos de conocimiento implícitos
que están en conexión con un concepto de totalidad de la forma que se
plantea?
a) La necesidad de una apertura de la razón como
actitud abierta a la especificidad de lo real, para el
entendimiento de la interacción que existe entre la
multiplicidad de objetos posibles en el mundo real
b) Control de los condicionamientos de la razón que
impiden la objetividad del conocimiento, imprimiendo sesgos en los análisis
54
c) Para ello se esbozan los mecanismos metodológicos
para la construcción del objeto como reconstrucción
articulada e histórica; aprehendiendo su especificidad con
base en la articulación transdisciplinaria para el descubrimiento de las conexiones determinadoras del objeto, con
otras dimensiones de lo real
Se debe considerar suficiente el señalamiento de las limitaciones que están inmersas en el paradigma disciplinario,
así como el consenso sobre las mismas, en los bastiones más
avanzados en la producción de conocimiento teórico; no
ocurre lo mismo, con la incesante búsqueda de la creación
de paradigmas alternativos al primer acercamiento
interdisciplinario. Los esfuerzos del paradigma de lo complejo, sustentados en la vinculación entre ciencias naturales y
ciencias sociales es una muestra de que la teoría del conocimiento es un nicho de investigaciones inagotable dada la
comprobada limitación racional frente a la complejidad del
universo; por esto se insiste en el error en que se cae al concebir a la dialéctica y a la totalidad en su aspecto ontológico
sin intentar pensarlo como Zemelman, como recurso
epistemológico; con ello, la razón se abre a las potencialidades de lo real, para que se construyan totalidades específicas
sobre campos delimitados. Una premisa en esta perspectiva
es el reconocimiento implícito y explícito de que la complejidad de la realidad no puede ser captada en términos de
todo de todo, sino en el acotamiento que hace posible la
construcción de objetos específico concretos.
Es importante considerar, que una diferencia que distingue cualitativamente a la articulación transdisciplinaria como
55
totalidad concreta del paradigma disciplinario fragmentario, es el hecho de que en el asunto de la explicación, como
determinación de las relaciones entre los elementos de un
objeto, es para los partidarios del método hipotético deductivo o esquema sustantivo disciplinario uno de los principales fines de la ciencia. En la articulación interdisciplinaria
como lógica de aprehensión-apropiación de lo real, al construir
relaciones de conocimiento interesa dar cuenta de la realidad. La lógica explicativa depende subjetivamente de los
supuestos que el investigador de esta práctica piensa que
están determinando al conjunto de las relaciones y determinaciones de un objeto, a partir de teorizaciones sobre objetos similares.
56
Capítulo 2
PENSAMIENTO EPISTEMOLÓGICO
C
on el auge de la computación, la práctica de la investigación social aplicada se ha diversificado tanto
en sus métodos como en las técnicas de análisis que utiliza;
dentro de éstas se encuentran dos metodologías de uso frecuente en la actualidad, la denominada cuantitativa con una
mayor tradición y la cualitativa. Se plantea una discusión en
torno a un debate, la posición respecto al par cuantitativocualitativo en un entorno epistemológico en cuanto al planteamiento del problema a investigar.
Se parte del pensar epistémico como una forma de razonamiento del sentido común para acercarse a la realidad,
sin ligarla a un enfoque teórico particular previamente establecido. En este sentido la discusión epistémica es tomada
como una reflexión predisciplinaria en el planteamiento del
problema a estudiar sobre una realidad concreta; bajo este
esquema, la propuesta es mantener una postura
epistemológica que per mita una for ma abierta y
problematizadora de pensamiento en términos de las categorías que rodean al objeto de estudio, a partir del cual se
57
enfrentan dos métodos posibles para la construcción y análisis de los datos y dos dimensiones: el par cualitativo-cuantitativo y el contexto micro y macrosocial.
Teoría y realidad
Uno de los objetivos principales de la investigación aplicada es conocer la realidad con el propósito fundamental
de modificarla. En este sentido bajo un planteamiento
epistemológico la realidad debe ser pensada como lo objetivamente posible, sin el establecimiento previo de encuadres teórico, ni supuestos basados en la experiencia acumulada, cuidando de no reducir el recorte de observación de
las metas preestablecidas. Captar la realidad como presente
permite potenciar una situación que se anticipe a los múltiples cursos que puede seguir, la apropiación del presente
abre múltiples opciones para la construcción del futuro.
Desde la perspectiva epistemológica el problema es encontrar un método que permita ver la realidad y describirla,
sin reducir el recorte a lo previamente establecido, ni a estructuras conceptuales especificas que supongan un conjunto de relaciones a priori; es buscar una forma de razonamiento que no se limite a organizar el pensamiento con base
en contenidos de información estructurados, sino que, parta de la concepción de la realidad como totalidad dinámica
entre niveles. A partir de esto mantener un pensamiento abierto y problematizador de una realidad concreta que permita
hacer una elaboración conceptual que articule sus procesos.
En este sentido el diagnóstico se convierte en la expresión de las potencialidades de una realidad concreta, entendi58
da ésta como una articulación dinámica de procesos que se
desenvuelven en diferentes niveles y diversas dimensiones
espacio temporales en los ámbitos micro y macrosociales.
En este contexto el uso de la teoría no debe partir del planteamiento de hipótesis y de razonamientos apriorísticos, sino
de problematizar el fenómeno y sus diversas
conceptualizaciones de modo que en lugar de cerrar las relaciones del mundo real a contenidos y jerarquizaciones teóricas, abra un campo de múltiples posibilidades de estas relaciones.
Cuanto menos atado está un investigador a un modelo
teórico concreto, tanto mejor será su condición para encontrar datos ideales; ubicarse en un momento preteórico le
permitirá establecer categorías y concepto que lo lleven a
un análisis de la realidad menos prejuiciado y con ello a la
construcción de nuevas teorías. En este sentido hay una búsqueda por alcanzar lo que sería la totalidad, es decir la intención de encontrar una hipotética completes, porque ahí se
encuentra el horizonte de las interpretaciones disciplinarias
y transdisciplinarias, perspectiva que le debe permitir contemplar elementos políticos, culturales y psicosociales articulados con las estructuras productivas, la dinámica
poblacional y los contextos macro y microespaciales.
El Par Cualitativo Cuantitativo
Si bien el software computacional de análisis de datos
favoreció en un principio a los métodos cuantitativos, el
desarrollo alcanzado en esta materia para el análisis cualita59
tivo ha reanimado el entusiasmo por su utilización; en este
contexto la polémica por el uso de uno u otro método se
acrecienta cada día más, donde se plantea el predominio de
una técnica sobre otra. Los partidarios del análisis cuantitativo afirman que el cualitativo carece de fiabilidad y validez;
por el contrario los que defienden a los segundos, aseguran
que la supuesta neutralidad y precisión de los primeros es
sólo una afirmación ideológica, argumentando que sus modelos distan mucho de representar lo complejo de la realidad social.
Sobre esto los metodólogos cualitativos conceden a sus
análisis una perspectiva Emica (fonémica) frente a su contrapartida la perspectiva Etica (fonética) concedida a los métodos cuantitativos. Aquí la perspectiva ética se refiere a las
afirmaciones generalizadas sobre los datos, que el investigador establece en función de un conocimiento transcultural;
mientras que la émica se refiere a los modelos y patrones
que se observan en una cultura particular concreta. Lo ético
es externo y lo émico es interno, en el primero el investigador se coloca fuera de las culturas, comparando unas con
otras; en lo segundo el investigador descubre desde dentro
lo específico de una cultura particular.
Entre las diferencias de ambas técnicas se pueden mencionar la forma de recolección de datos, los tipos de análisis
que se pueden hacer, las inferencias y las maneras de sistematizar y representar la información; mientras que los métodos cuantitativos se ubican dentro del positivismo del
análisis estadístico, los cualitativos en el campo del
interaccionismo simbólico y la hermenéutica. Los primeros
expresan sus resultados a través de indicadores y modelos
60
estadístico-matemáticos y los segundos explican las relaciones
causales utilizando procesos interpretativos personales de
la realidad, basados en experiencias previas; en este contexto, los significados son productos sociales elaborados a través de la interacción que llevan a cabo las personas en sus
actividades, convirtiéndose de esta manera la acción humana en la fuente de los datos.
Métodos Cualitativos
Los métodos cualitativos se han venido aplicando de
manera creciente entre investigadores de diferentes áreas de
las ciencias sociales; consecuencia de esto ha sido las diferentes denominaciones con las que se le ha calificado: método etnográfico, método de observación participante, estudio de casos, método de interaccionismo simbólico
fenomenológico, interpretativo o constructivista; pero la
más utilizada es de métodos o técnicas cualitativas. Esto
puede ser visto, como un término que cubre una serie de
técnicas interpretativas que pretende describir, descodificar,
traducir y sintetizar el significado, no la frecuencia, de hechos que acaecen naturalmente en el mundo social. Investigar de manera cualitativa es operar símbolos lingüísticos y,
al hacerlo así, intentar reducir la distancia entre indicado e
indicador, entre teoría y dato, entre contexto y acción.
Una de las características de estas técnicas es de utilizar
múltiples fuentes de información. En este sentido se puede
decir que el trabajo cualitativo comienza con una observación detallada y próxima a los hechos, buscando lo específi61
co y local con el fin de descubrir posibles patrones de comportamiento; se da importancia a la observación de casos
concretos y a la conducta de los individuos en sus actividades de interés; en este marco del mundo cotidiano de la vida
es donde se encuentran los problemas de investigación, en
lugar de los que alteran la rutina social.
El orden social se explica en términos de las costumbres, las circunstancias concretas y la interacción social. Los
núcleos de interés son los fenómenos recurrentes en tiempos y espacios concretos. El descubrimiento y la exposición
son más importantes en la investigación que la explicación y
la predicción; aquí las generalizaciones se elaboran en función de la capacidad específica que cada investigador tiene
para interpretar los datos, los cuales reconocen a los fenómenos como particulares y ambiguos en lugar de replicables
y claramente definidos.
En el análisis cualitativo se aplica una metodología específica para captar el origen, el proceso y la naturaleza de los
significados que surgen en la interacción simbólica de los
individuos. Su objetivo es la captación y reconstrucción de
significados, su lenguaje es básicamente conceptual y metafórico, su método de captar información es flexible y no
estructurado, su procedimiento es más inductivo que deductivo y su orientación es holística y concretizadora. Con
esta metodología los datos son extraídos a través de observaciones lentas, prolongadas y sistemáticas, con base en notas, libros de registros y grabaciones entre otros, en un diálogo constante con la unidad de información observada; en
este contexto se habla de una flexibilidad completa en el
trabajo de investigación, es decir, se puede cambiar en cual62
quier momento la hipótesis de trabajo, la fuente de información y la línea de interpretación.
Métodos Cuantitativos
Estos métodos identificados dentro de la filosofía científica positivista, que tuvieron como antecedentes las ciencias naturales y que caen de manera particular en la metodología estadística, la cual se apoya en la matemática y la probabilidad, funcionan principalmente basándose en
indicadores y modelos que busca explicar los fenómenos a
través de generalizaciones objetivas. La generalización de
sus resultados, apoyados en evidencia empírica, genera cuatro tipos básicos de explicación: deductiva, inductiva,
teleológica y genética, los cuales se basan en la reproducción y replica de los fenómenos, a través de las cuales es
posible investigar su regularidad con el fin de expresarla en
forma de leyes y relaciones empíricas.
La información es recabada a través de experimentos
controlados, sondeos masivos y recolección de cifras históricas, sobre las cuales es posible medir sus niveles de error,
lo que permite hablar de representatividad de las unidades
analizadas así como de la confiabilidad y validez de sus resultados en términos probabilísticos; dentro de estos métodos que funcionan a base de variables individuales o conjuntos de ellas, se encuentran las técnicas descriptivas, la estimación de parámetros, las pruebas de hipótesis, la estadística univariada y multivariada, las técnicas paramétricas y las
no paramétricas, así como los métodos de muestreo
probabilístico.
63
La Complementariedad como Estructuración de Diseños de
Investigación
Al considerar las investigaciones denominadas cualitativas, su fundamento está dado por la visión holística de las
realidades, lo cual implica comprender una realidad desde
la relación que hay en cada uno de sus elementos y no desde
la mirada aislada de estos. Según Martínez: cada parte al formar una nueva realidad, toma en si misma algo de la sustancia de
otras, cede algo de sí misma y en definitiva queda modificada.
Si bien, se reconoce que existen diferentes tendencias
cualitativas como: La etnografía, la teoría fundada, la
fenomenología, la hermenéutica, la investigación acción
participativa, la etnometodología, las historias de vida, e
incluso las investigaciones históricas; todas estas presentan
elementos importantes en el análisis en la comprensión de
las realidades culturales; sin embargo, cada una de ellas desconoce el aporte de las otras, al centrar su análisis de comprensión en fracciones de la realidad; caso de la
etnometodología que centra su análisis en las acciones de
los sujetos y no en su esencia como lo propone la
fenomenología; o de la etnografía que busca la descripción
de rasgos culturales, distinto a la teoría fundada que pretende construir teoría a partir de la comparación constante.
En un proceso de investigación social, lo que se busca es
comprender el fenómeno, lo más cerca posible a la realidad
que viven los sujetos inmersos en este, y esa comprensión
no se logra en su totalidad si se percibe desde pequeñas miradas del investigador; se hace necesario reconocer cada uno
de los aportes de las tendencias expuestas para lograr una
64
mayor y mejor aproximación a la realidad estudiada, por
ello se acude al principio de complementariedad como una
posibilidad de articulación respecto a las opciones que brinda cada tendencia; por tanto, para estructurar una propuesta desde la complementariedad, es necesario entre otras, que
esta se sustente en:
Las teorías de la complejización de las ciencias, según las
cuales, una ciencia se desarrolla cuando busca su
complejización; esto es, cuando se analiza desde las relaciones internas y externas, o sea, en función de sus posibilidades de relación con el todo y sus partes. El principio sistémico
ecológico expuesto por Martínez como una posibilidad de
comprensión de un texto cultural y la consideración de las
relaciones que se dan permanentemente en dicho texto: nuestra mente no sigue sólo una vía causal, lineal, unidireccional; sino también, y a veces sobre todo, un enfoque modular estructural, dialéctico,
gestáltico, donde todo afecta e interactúa con todo, donde cada elemento
no sólo se define por lo que es o representa en sí mismo, sino y especialmente, por su red de relaciones con todos los demás.
En la teoría de la acción comunicativa de Habermas;
según la cual, todo acto de habla implica una acción de comunicarse, y esa comunicación se desarrolla mediante las
señales o emisiones emitidas en un contexto de
intencionalidad que desencadena una acción, la cual es la base
en los acuerdos entre participantes del proceso comunicativo; lo anterior implica que para comprender la comunicación es necesario reconocer la intencionalidad de los actos
de habla. Si este acto de habla se analiza en el referente de
contexto sociocultural y desde el proceso global que implica comunicarse, se puede realizar una aproximación a la va65
lidez de la información recolectada; pues es en el marco de
los procesos comunicativos, que el sujeto expresa ese cúmulo de acciones e interacciones que determinan su percepción del mundo y de su realidad. En el acto comunicativo,
existen hablantes y oyentes que se refieren a algo en el mundo, y en esa relación buscan entenderse; lo anterior, se logra
mediante unos contratos implícitos entre el hablante y oyente.
De este acuerdo, puede surgir la acción. Una acción
comunicativa se basa en tres aspectos: el primero está dado
por la intención de los comunicantes al manifestar sus actos
comunicativos; es decir, el aspecto teleológico de ejecución
de un plan de acción. El segundo es el aspecto comunicativo, que implica la interpretación de la situación y el pacto de
comunicación; y el tercero es el acuerdo logrado en la
interacción. Garfinkel considera que: la mayoría de las
interacciones que fundamentan la estructura y el orden social, toman la
forma de intercambios y transacciones lingüísticas entre los miembros
de una sociedad.
La posibilidad de conocer el mundo desde la perspectiva de los sujetos, en tanto este es una representación de las
vivencias que se van logrando durante la historia cultural; lo
anterior recogiendo la posibilidad de emprender miradas
del mundo subjetivo a partir de la búsqueda de posibles
estructuras que lo configuran, para llegar a la comprensión
de las esencias de esas estructuras; esto, apoyados en las tendencias flexibles del estructuralismo que asumen la estructura como algo dinámico y que representan la intencionalidad
de los sujetos mediadas por las acciones e interacciones, y el
rechazo al funcionalismo estructural. Considera que la reali66
dad debe ser complementada con las múltiples miradas, lo
que constituye la necesidad de entender que la percepción se
da con relación a los sujetos. Mockus considera: que es necesario realizar la comprensión de los textos culturales desde el análisis e
interpretación de los contratos de habla.
Este elemento de la complementariedad, es denominado por los investigadores cualitativos como
triangulación, que a decir de Atkinson: es la que conlleva a la
comprobación de información referente a un mismo fenómeno obtenida en diferentes fases del trabajo de campo, desde diferentes puntos o
ciclos temporales existentes en el lugar, o comparando los relatos de
los diferentes participantes. La triangulación se refiere a la utilización de distintos métodos o fuentes de datos. Sandoval
asocia la triangulación con el proceso de verificación de
resultados, y con la contrastación en diferentes fuentes y
localización. Esta estrategia metodológica facilita el desarrollo del principio de complementariedad, toda vez que
permite ver que tipo de acciones e interacciones forman
pautas culturales; es lo que Velazco denomina: acceder al
espacio público de la cultura, según una multiplicidad de perspectivas y datos multirreferenciales; desde esta perspectiva, se considera la cultura como una estructura compleja que sería
imposible de captar desde una sola mirada; por eso, los
datos recolectados sobre ella, deben ofrecer múltiples
facetas o matices remitiendo a una gran variedad de aspectos y niveles de la realidad. La triangulación que contempla
este punto desde las múltiples miradas desde el principio de
complementariedad tiene en cuenta:
1) Los diferentes sujetos informantes que tengan relación con el fenómeno en la observación de este
67
2) La observación del fenómeno desde diferentes ángulos geográficos e históricos
3) Los diferentes contextos internos y externos que
intervienen en el fenómeno a estudiar
4) Comprender la realidad cultural desde la confrontación entre el sujeto protagonista del fenómeno,
la interpretación del investigador y las teorías formales desarrolladas sobre el fenómeno
Los estudios deben realizarse donde tiene objeto la
cotidianidad sin perder de vista lo externo. Esta pretensión
trae una doble connotación para un estudio desde el principio de complementariedad: en primer lugar, la necesidad
de tener en cuenta los contextos interno y externo que están
relacionados con el fenómeno de investigación, lo que hace
posible una visión histórica del mismo; en segundo lugar, la
necesidad de realizar los estudios desde dentro; es decir,
desde la propia percepción de los sujetos implicados. En el
proceso de conocimiento social es necesario tener en cuenta
que el extraer el fenómeno del medio natural donde se genera el acontecimiento es negativo para la comprensión, toda
vez que el comportamiento de los sujetos cambia y de acuerdo a las características del contexto donde se están generando. En la hermenéutica como base en los procesos de comprensión de sentidos y significados de los escenarios sociales y de los sujetos que intervienen en ellos; las realidades de
los sujetos desde las teorías del lenguaje, no sólo son
objetivadas por medio de los procesos comunicativos, sino
que son incorporadas a través de dichos procesos.
68
El lenguaje, es asumido como la posibilidad natural que
tiene el individuo para expresar sus acciones y conciencia
sobre el mundo; el investigador y el investigado en un proceso de relación directa con el fenómeno, dejan entrever
mediante el lenguaje, la forma como ellos están interpretando el mundo; en tal razón, es la hermenéutica del lenguaje,
la que propicia ese acercamiento entre la realidad y el acto
comunicativo, entre el dato descrito y la posibilidad
interpretativa, entre el saber lo observado y la comprensión
de ese fenómeno.
Searle considera que: el significado de un texto sólo puede
aprehenderse sobre el trasfondo de una precomprensión, que desarrollamos al crecer en nuestra cultura. En este mismo sentido Piaget
considera que el mundo es configurado y reconfigurado por
los individuos; así mismo otras teorías psicológicas como la
desarrollada por Gallart, consideran que: las competencias
cognoscitivas se hallan fuertemente ligadas al tipo de aprendizaje cognitivo
con relación a las prácticas sociales dominantes.
Se han desarrollado diversas investigaciones entre las que
se encuentran las de Parra Sandoval; y De la Cuesta; todos
coinciden en que la estructura de un texto cultural, inicia
con los elementos que la propia cultura le otorga al investigador, presentados en el lenguaje ordinario y en general en
los procesos de comunicación que los sujetos utilizan; en un
enfoque desde el principio de complementariedad es necesario tener en cuenta:
a) Realizar los estudios sociales en su medio natural,
tal y como lo enuncia el naturalismo
69
b) La posibilidad de comprender la esencia de los
fenómenos a partir del reconocimiento de las acciones y experiencias de los sujetos, y su consolidación en estructuras socioculturales; propuestas
impulsadas por la fenomenología, la
etnometodología y el estructuralismo
c) La importancia de comprender las redes de sentido y significado socioculturales desde los procesos comunicativos en un contexto determinado,
propias de la hermenéutica
d) El apoyo en un paradigma teórico científico que
reconozca la trascendencia de la comunicación, la
tradición y la historia, tal y como lo propone la
teoría crítica
e) La importancia de poder construir teoría a partir
de la comparación constante, propuesta por la teoría fundada
f) La necesidad de reconocer los rasgos culturales y
poder reflexionar sobre ellos a partir de la propuesta de la etnografía reflexiva
g) La posibilidad de apoyar los análisis de tipo individual y colectivo en historias orales y de vida
h) La posibilidad de utilizar algunos diseños previos
de tipo flexible, que se puedan ir reconfigurando
en el proceso mismo de investigación
i) La opción de utilizar algunas técnicas estadísticas,
siempre que sean un medio en esa búsqueda teórica para ayudar a comprender mejor la realidad
70
j) La posibilidad de extender las propuestas comprensivas hacia la reflexión y cambio de estructuras socioculturales mediante la crítica
emancipadora de la comunidad, propia de la investigación acción participativa
Se propone un diseño metodológico que tenga en cuenta los elementos de cada una de las tendencias de investigación complementándolas entre sí; se asume que la forma de
percepción del universo por el sujeto se hace manifiesta a
través de las acciones e interacciones que dicho sujeto expresa en una realidad determinada; en tal sentido, es necesario estudiarlas en el escenario de relaciones sociales de esa
realidad con la menor influencia posible de un marco de
inferencias apriorísticas. El diseño consta de tres momentos, los cuales interactúan a lo largo de todo el proceso de
investigación y trabajo de campo, con el objetivo de ir configurando la estructura sociocultural:
1) Primer momento (preconfiguración)
En este momento, se hace una aproximación a la realidad sociocultural desde un acercamiento a la teoría formal
y a la teoría sustantiva, con el fin de focalizar un problema
de investigación respecto a la realidad que se desea comprender. Como se delimita la temática desde lo inductivo;
para delimitar y definir la dimensión temática desde lo
inductivo es necesario iniciar el acceso al escenario de investigación; es decir, comenzar los contactos con los diferentes
sujetos involucrados en el fenómeno social, para posibilitar
una negociación de relaciones, esto es la iniciación del traba71
jo de campo, teniendo en cuenta la mirada interna y externa
de la realidad. Este primer momento, es el que permite al
investigador asumir una dirección inicial en la selección del
tema, para irla condensando y delimitando de forma progresiva; el investigador, apoyado en un plan de acción inicial, debe asumir procesos de interacción con el grupo en
estudio, del que surgirán los primeros elementos preconfiguradores de esa realidad, los cuales serán enriquecidos con procesos de búsqueda teórica que se desarrolla de
forma paralela.
Como delimitar el área desde lo deductivo. En la
preconfiguración, debe existir una estrecha relación entre la
teoría y la práctica cultural, pues existe la necesidad de comprender el fenómeno y en muchas ocasiones la sola descripción de la realidad no nos permite dicha interpretación; por
tanto, el proceso deductivo implica la búsqueda teórica de
los elementos que configuran la temática de estudio, la cual
debe realizarse en forma paralela a la búsqueda empírica,
para evitar en lo posible, juicios sesgados sobre la estructura que la realidad nos va mostrando.
Una vez clarificado el escenario desde el proceso
inductivo y deductivo, se procede a establecer una pre-estructura que represente de manera articulada los elementos
encontrados en la realidad; recordando que los elementos
de una estructura no tienen significado por sí solos, sino que
estos se deben a las relaciones que poseen entre sí, es posible representar esa estructura inicialmente encontrada, en
un ideograma o mapa conceptual.
72
2) Segundo momento: plan de configuración
A partir de la pre-estructura encontrada, se elabora una
segunda guía que nos ayuda a buscar la estructura propiamente dicha de la realidad investigada, mediante un proceso profundo de trabajo de campo. Elementos posibles de
guía de configuración:
a) La indagación central a solucionar
b) Las preguntas de investigación
c) La metodología de la investigación
d) Población e informantes claves: hacia la
representatividad sociocultural
e) Métodos de recolección de información: entrevista a profundidad; la observación participante
f) Desarrollo de la guía de investigación
El trabajo de campo inicia cuando se pone en marcha el
diseño hasta aquí elaborado; lo más importante es lograr la
saturación total o teórica de los datos a través de la relación
constante y permanente que se establece con los informantes claves, a tal punto de alcanzar un alto nivel de empatía y
que posibilite la veracidad de la información recolectada.
3) En el tercer momento o reconfiguración
Se exponen los hallazgos de la investigación, donde se
redimensiona la estructura sociocultural, a partir de la relación: elementos teóricos, interpretación del investigador y
73
datos culturales; es decir, se inicia la comprensión de sentido a una estructura sociocultural. ¿Qué pretende el análisis
en un proceso de complementariedad? La propuesta, busca
la complementariedad entre las tendencias de investigación,
por eso el procesamiento de la información se mueve entre
aquellos estudios considerados descriptivos y aquellos considerados teóricos o conceptuales.
¿Qué es reconfigurar la realidad? La reconfiguración de la
estructura ciertamente no es un momento independiente del
momento anterior, aunque ningún momento lo es, pero el
paso de la configuración a la reconfiguración, podría decirse que es paralelo, en tanto una vez los elementos de la estructura van emergiendo, estos se van analizando y articulando con la teoría formal; y desde esta relación se construye la comprensión con sentido del fenómeno; es decir, se
redimensiona la estructura desde la comprensión que la teoría nos aporta sobre las categorías culturales; se asume así
mismo el proceso de reconfiguración, como un momento
de confrontación, logrado desde la realidad empírica y contrastada con la realidad conceptual.
En términos generales, en una investigación etnográfica
cuyo interés está fundamentado en la comprensión de las
acciones e interacciones de un escenario sociocultural, los
datos deben analizarse permanentemente, para desde ese
análisis, poder reorientar el proceso, e ir comprendiendo
esa realidad. Un informe escrito debe contener: el modo
como se recogieron e interpretaron los datos, tiempo y extensión del estudio, naturaleza y número de escenarios e informantes y encuadre mental del investigador; o sea, su ubicación epistemológica en torno a la investigación.
74
La Recuperación del Observador en la Construcción del Dato
Pocas cosas que hayan suscitado tantos debates en las
ciencias sociales como el asunto de la medición. Desde su
inicio, la cuestión sobre la pertinencia y las posibilidades de
la cuantificación como forma de conocimiento de la realidad se gestó en medio de la exigencia en la adquisición del
status de cientificidad; en la actualidad, esta reflexión adquiere nuevas dimensiones: por un lado, existe mayor consenso entre las comunidades epistémicas sobre la especificidad del objeto de estudio de las ciencias socioculturales, así
como acerca de la necesidad de considerarlas como ciencias
interpretativas, lo que se ha traducido en una proliferación
de investigaciones de corte cualitativo en oposición a las
cuantitativas; a pesar de la expansión y maduración de las
metodologías y técnicas de corte interpretativo; reconocer
a los datos no sólo como una mera convención, o como un
elemento que complementa o sustenta una investigación, sino,
advertirlos en su vertiente de construcciones analíticas, tan
abstractas como las cualitativas, permite reconocer la relevancia de esta reflexión como uno de los temas cruciales en
los estudios de filosofía de la ciencia, donde la construcción
del dato pocas veces se analiza en su vertiente de problema
u obstáculo epistemológico.
Las reflexiones parten del reconocimiento de la participación del sujeto en la construcción del conocimiento, con
el énfasis sobre todo en que el acto de medir y cuantificar no
excluye al sujeto de conocimiento; estas premisas se sitúan
frente a aquellas que postulan al sujeto cognoscente como el
encargado de recoger los datos que se supone corresponde
75
a hechos observables. Se debe reconocer cómo todos estos
supuestos no son más que formas particulares de abordaje
que le otorgan al sujeto formas específicas de intervención;
con esto se busca ubicar la discusión sobre la construcción
del dato en un plano epistemológico, con un particular énfasis en el problema de la construcción-correspondencia, frente a
aquellas posturas que lo han reducido a su vertiente técnica,
que advierte el problema como una mera correspondencia
entre precisión-exactitud.
Las Categorías y la Medición
De la correlación entre juicio y concepto, resulta que los
conceptos constituyen los elementos del juicio; puesto que
desempeñan, con respecto al juicio, la función de ser los
componentes primarios, a partir de los cuales se hace posible efectuar su formulación. Un concepto es susceptible de
un número infinito de determinaciones, y que puede formar
parte de una infinidad de juicios, en general ningún concepto deja de implicar, a otros; no existe concepto alguno que
se pueda considerar aislado o separado de los demás; en
todo juicio se encuentra contenida la implicación de otros
conceptos más generales que aquellos que constituyen sus
elementos; pero esos conceptos que son más generales que
los constituyentes del juicio en cuestión, implican a su vez
otros conceptos, todavía más generales; como el conocimiento se encuentra en un movimiento continuo, sin tener
nada de estable en sentido absoluto, esa doble implicación
que existe entre los conceptos que se relacionan por generalización y por particularización, siempre está en actividad.
76
En ese juicio dialéctico de los conceptos, la ciencia encuentra definido su dominio por algunos conceptos, que estarán
implicados en todo juicio que se establezca científicamente;
dentro del campo de una ciencia también se definen dominios, caracterizados por otros conceptos que desempeñan
en ellos dicha función fundamental, así de esta manera se
constituyen las diferentes ramas de una misma ciencia; todavía se llegan a practicar nuevas divisiones y subdivisiones,
para estudiar aspectos más particulares de los procesos del
universo, definidos siempre por conceptos característicos.
A los conceptos que cumplen estas funciones, se les denominan categorías; algunas están implicadas en todo conocimiento; podemos definir a las categorías como aquellos conceptos más generales que todo juicio implica.
Las categorías más generales del conocimiento científico, pueden agruparse dentro de cuatro clases: la cualidad, la
cantidad, la relación y la modalidad; a su vez estas clases se
pueden dividir en grupos o subclases, que comprendan los
momentos dialécticos fundamentales; con relación a la cualidad: el análisis de la unidad y la determinación de sus partes contradictorias, constituye la operación más elemental y
el fundamento de la dialéctica; en la identidad de los opuestos se expresa la existencia de aspectos contradictorios que
se excluyen mutuamente, se exponen las tendencias contrarias y antagónicas que se manifiestan en los procesos de la
naturaleza, lo mismo que de la sociedad y del pensamiento;
por tanto también la diferencia entre lo relativo y lo absoluto, es relativa; porque lo absoluto se encuentra contenido en
lo relativo, de la misma manera en que lo relativo forma
parte de lo que es absoluto; el estado del universo en su
77
totalidad y en su particularidad, es siempre de contradicción, si bien la contradicción misma se encuentra también
en vías de superación.
El conflicto se manifiesta de diversos modos; en primer
término, toda determinación implica una determinación de
su opuesto, porque la existencia de un proceso implica también, la existencia de un opuesto; cualquier proceso concreto es siempre la unidad de determinaciones opuestas; cualquier manifestación concreta implica la abstracción de otras.
Todo proceso se encuentra determinado por fuerzas que se
oponen; con relación a la determinación cualitativa, primordialmente se tiene a la existencia como idéntica a sí misma,
en una indiferenciación absoluta; esta mera existencia es también, mera abstracción y es absolutamente negativa, como
indeterminación que es. La existencia determinada es la unidad de la existente con la indeterminación, y en su relación,
que es a la vez su contradicción, se tienen tan sólo como
momentos; tal existencia determinada con el carácter que le
es inmediato, es la cualidad; así como todo proceso, por
cualidad, es finito y mudable; la finitud y la mutabilidad pertenecen a su existencia; la relación de lo negativo, consigo
mismo, es relación negativa, distinción de lo uno de sí mismo, repulsión de lo uno, posición de muchos; la repulsión
de los unos que existen, se convierte en su repulsión recíproca, en un mutuo excluirse; la repulsión en sí misma es,
por el comportamiento negativo de los unos entre sí, la relación fundamental de los unos con los otros. La determinación cualitativa, que ha llegado en el uno a existencia determinada en y por sí misma, se convierte así en la determinación suprimida, esto es, en la existencia como cantidad.
78
Con relación a la cantidad y sus grados, tenemos que la
determinación cualitativa de un proceso lleva a su consideración cuantitativa; después de identificar a un proceso consigo mismo, entonces surge la necesidad de establecer la
determinación cuantitativa de ese proceso; en la coincidencia de sus propiedades comunes a las del resto de los elementos de la clase, el proceso se diferencia de los otros
miembros por su cantidad. La cantidad es así, una distinción que se establece en el propio seno de la conexión cualitativa; las diferencias de cantidad se manifiestan desde un
punto de vista cualitativo unitario e invariable, aun cuanto
esto último sea siempre relativo; todo proceso del universo
se convierte en objeto particular de la consideración de la
ciencia, cuando el conocimiento llega a ser capaz de cuantificarlo, después de haber descubierto sus propiedades o
cualidades; toda cualidad que el universo exhibe, se explica
por medio de su determinación cuantitativa, cuando esta
llega a su existencia determinada en y por sí misma, se transforma en la existencia como cantidad.
La cantidad es la existencia en la cual se ha superado la
determinación, haciéndose indiferente; la cantidad constituye la determinación fundamental del universo, cuando se
considera que en este, como absolutamente indiferente, toda
diferencia es únicamente cuantitativa. La cantidad es primitivamente, como determinación exclusiva que se tiene en sí
misma, cantidad limitada; todo proceso determinado
cualitativamente es susceptible de aumento o de disminución, sin que por ello se suprima la cantidad. La medición es
aplicable a todas las series que pertenecen a una cierta clase;
la medición incluye, algunos entes que no son cantidades y
79
por otro lado, excluye a algunas cantidades; así, se define la
cantidad como todo aquello que es susceptible de igualarse
cuantitativamente con algo; y esa igualdad cuantitativa posee las siguientes propiedades: es reflexiva, A es igual a A,
es simétrica, si A es igual a B, entonces B es igual a A; es
consistente, ya que puede darse el caso de que A es igual a B,
y es transitiva, si A es igual a B, y B es igual a C, entonces, A
es igual a C.
Las magnitudes son irreflexivas, puesto que ninguna
magnitud es mayor o menor que sí misma; son asimétricas;
la medida de magnitudes es el procedimiento por el cual se
establece una correspondencia biunívoca, es decir unívoca y
recíproca, entre todas o algunas de las magnitudes de una
clase y todos o algunos de los números de una cierta clase.
Si todos los acontecimientos se encuentran correlacionados
con la serie dinámica determinada, entonces, todas sus magnitudes son susceptibles de medirse
Reconocer y conservar el orden, es una condición que
han de cumplir, en general todos los organismos vivos, y un
organismo es un sistema de actividades que se conserva
mediante un aparato de medida o mediante un mecanismo
que se regula a sí mismo basándose en medidas; el hombre
lleva a cabo medidas conscientes en el espectro completo
de actividades que lo distinguen como ser pensante; una vez
que la formación de conceptos y el lenguaje ganan acceso a
las ideas de cosa igual y diferente, el discurso revela ya la
idea de clase como concepto ordenador; y en este proceso
de identificación, comparación y clasificación se encuentran
ya los fundamentos de la medida. El proceso de medida
surge de las necesidades de la existencia práctica, siendo el
80
perfeccionamiento de los conceptos básicos de la medida
una de las mayores realizaciones humanas.
Al realizar una observación, se realiza una clasificación:
lo que se selecciona son rasgos de las cosas, que según las
circunstancias o las convenciones; reciben el nombre de propiedades, atributos o cualidades; en el lenguaje clásico de la
clasificación se hace la distinción entre género y diferencia:
género es la clase a la que pertenecen cualesquiera dos cosas
que se hayan comparado y diferencia, connota las subclases
adecuadas de esta clase, que señalan diferencias dentro de
esta. El resultado de esta manera de clasificar es,
diagramáticamente, un árbol o diagrama ramificado y salen
ala luz relaciones entre las cosas identificadas, en forma de
relaciones de clase; esto da lugar a un sistema formal de
clasificación; y el desarrollo de este sistema formal, en la
lógica silogística de Aristóteles, fue una explicación del carácter clasificatorio del lenguaje corriente y de la medida en
la propia forma de las proposiciones descriptivas sujeto-predicado, que es un primer instrumento de clasificación. El desarrollo más completo de este análisis formal de la clasificación tuvo lugar en forma de matematización de las relaciones de clase, como la desarrollada por Boole; el álgebra de
Boole o lógica de Boole, formalizó las relaciones de clase y
el concepto de pertenencia a una clase, de modo que pudiera desarrollarse el cálculo en términos formales.
Los conceptos fundamentales de dicha lógica de clase, o
teoría elemental de conjuntos, son pertenencia a una clase,
inclusión de clases e intersección de clases y las relaciones
que se dan entre las subclases del dominio. La notación empleada para representar esta operación de asignar individuos
81
a las clases no es siempre la misma; cuando se trata de individuos en cuanto miembros de ciertas clases, estos individuos se toman como elementos de la clase o conjunto, y la
relación de pertenencia a una clase se denota mediante el
símbolo Î. Para representar los elementos se emplean minúsculas: convencionalmente x, y, z, para variables individuales y A, B, C para constantes individuales. Así, la expresión x Î B, significa x es miembro de la clase B, o x pertenece
a B. Para representar una clase o conjunto se emplea el símbolo íý, que recoge los nombres de los miembros entre los
corchetes. La unión de dos conjuntos se representa simbólicamente, mediante È, y es el conjunto de todas las cosas que
son miembros de al menos uno de los conjuntos que quedan
unidos mediante esta relación; la intersección de dos conjuntos, se define como el conjunto de todas las cosas que
pertenecen a ambos conjuntos, y se simboliza mediante Ç, o
también mediante el punto algebraico de multiplicación. y
la relación de intersección se denomina producto de los dos
conjuntos. Cuando dos conjuntos se excluyen mutuamente,
o cuando no hay nada que pertenezca a ambos, la intersección de estos recibe el nombre de conjunto vacío, es decir el
conjunto que no posee miembro alguno: el conjunto vacío
se representa mediante Ù , y se considera como subconjunto
de cualquier conjunto; además si A es un conjunto sin ningún miembro y B es un conjunto sin ningún miembro, cualquier cosa que sea miembro de A también será miembro de
B, y viceversa, de tal modo que A=B, y en consecuencia, hay
un conjunto vacío y sólo uno; por el contrario, el conjunto
universal es el conjunto de todos los individuos del dominio, o del universo de discurso, de la lógica.
82
El conjunto universal se representa mediante Ú ; y la
notación que se emplea para subconjuntos propios es É.
Con este sistema formal de representación de las relaciones
de clase se ponen de manifiesto relaciones de orden entre
las clases, tales como asimetría y transitividad. Puede verse
que la relación que existe entre una clase y una subclase propia de ella es asimétrica, si AÉB, no BÉA, y transitiva, si
AÉB y BÉC, AÉC. Cualesquiera dos cosas que se comparen, si se consideran como miembros en común de cierta
clase, se consideran por tanto equivalentes en cuanto a determinada propiedad, que constituye la condición para pertenecer a esa clase. Con respecto a la propiedad, cualquier
cosa es equivalente a sí misma, y como cualquier miembro
de una equivalencia guarda la relación de equivalencia con
cualquier otro miembro, se dice que la relación es reflexiva y
conexa. Según estas definiciones:
a) Una relación R es reflexiva en un conjunto A, si y sólo sí
(x) (x Î A ® x R x)
b) Una relación R es irreflexiva en un conjunto A, si y sólo si
(x) (x Î A ® no x R x)
c) Una relación R es fuertemente conexa en un conjunto A, sí
y sólo sí (x) (y) (x Î A. y Î A ® x R y V y R x)
d) Una relación R es conexa en un conjunto A, sí y sólo sí (x)
(y) (x Î A . y Î A. x ¹ y ® x R y V y R x)
Las relaciones de grado de una propiedad y de inclusión
en una clase poseen, las mismas características formales, a
saber: asimetría, transitividad, irreflexividad y conectividad;
también pueden definirse cualesquiera dos miembros de una
83
equivalencia que posean la propiedad que sea en el mismo
grado diciendo que son aquellos y sólo aquellos que no posean de ella ni más ni menos; así, con respecto a la relación
mayor que, en el sistema de los números naturales, dos números a y b serán iguales, o sea poseerán la misma posición
ordinal; si no-(a > b) y, también, no-(b > a). Introduciendo la
conectiva lógica, la igualdad puede definirse mediante:
(x) (y) [(x = y) ¬® ((x > y) ¯ (y > x)) ]
No todas las equivalencias pueden ordenarse de esta
manera, pero algunas sí; se denomina pues, clase de todas
las clases de magnitud a aquella subclase de la clase de las
clases de equivalencia que pueden ordenarse así, y se define
clase de magnitud como toda clase de equivalencia que admita una ordenación de sus miembros. Con relación a las
magnitudes y cantidades, tenemos que las magnitudes son
propiedades que admiten ordenación por grado o cantidad;
a menudo se refieren como cualidades variables, y en el desarrollo del concepto de movimiento las nociones de grado
de una cualidad, intensidades y latitudes de forma fueron
intentos de tratar las magnitudes de modo formal; históricamente las cualidades o propiedades que podían ordenarse así pasaron a denominarse cualidades intensivas, por contraste con las cualidades extensivas o dimensivas, que podían ordenarse sobre la base de diferencias unitarias de grado o cantidad, y esta distinción es la que suele hacerse entre
cualidad y cantidad, pues una diferencia cualitativa implica
identidad y diferencia, es decir, diferencia de más o menos
de alguna propiedad que se distingue por la mera percepción sensorial, mientras que una diferencia cuantitativa implica cuánto, en más o en menos y suele exigir medidas cuan84
titativas; sin embargo, no todas las magnitudes son cuantitativas; las propiedades pueden ordenarse por grados, pero
se considera que estas magnitudes no son ni precisas ni
medibles con precisión, pero la precisión no es una propiedad intrínseca y medible de las cosas ni de las relaciones
entre estas, sino que depende de lo que se persiga con la
medida. Si la precisión que se requiere no es superior a la de
una ordenación por rango que pueda establecerse
cualitativamente, lo único que hace falta es una propiedad
que pueda describirse de modo inequívoco sobre la base de
grados comparativos.
La especificación de una cantidad patrón de una magnitud es, una operación físicamente definida; se puede determinar formalmente qué propiedades deba tener tal cantidad, pero las cantidades que gozan de tales propiedades las
descubrimos mediante la investigación empírica. El requisito previo es que se establezca una unidad de magnitud como
patrón, y que se utilice esta unidad para generar un conjunto
de tales unidades patrón, todas ellas iguales por lo que se
refiere a dicha magnitud; operacionalmente pueden compararse dos longitudes superponiéndolas una junto a otra, en
todos sus puntos; son pues, las condiciones de congruencia,
superposición y coincidencia las que definen los requisitos
empíricos que han de cumplirse; pero este no es sino uno de
los pasos a dar para que se cumpla la condición de aditividad.
Lo que se quiere decir con el término aditivo no se define, por tanto mediante la operación de sumar cosas o magnitudes; la aditividad se define más bien en relación con la
operación aritmética de la adición, se define a base de la
propiedad numérica denominada cardinalidad, en términos
85
de la cual se interpreta la adición de la magnitud física: el
número; ahora, en la práctica un conjunto cardinal, es una
colección de unidades de una magnitud que se consideran
invariantes con respecto a esta magnitud y que pueden
numerarse contando, y los conjuntos de este tipo son tales
que se corresponden, en cuanto a cardinalidad, con un conjunto patrón mediante un proceso de asignación biunívoca
de unidades. Otras propiedades como la longitud, el peso o
la configuración no cuentan: lo que cuenta es lo que pueda
contarse uno a uno postulando la invariancia de sus unidades; si denominamos a esto magnitud porque puede ordenarse y definimos cantidad como aquello que es mensurable, en función de esta posibilidad de poder contar unidades invariantes y de su correspondencia con otros conjuntos de tales unidades, entonces esta magnitud no es que sea
como un número: es número; pero no es un número ordinal,
no se encuentra meramente ordenado de acuerdo con un
rango; se encuentra ordenado sobre la base de unidades
patrón que señalan diferencias iguales entre distintos grados
de una magnitud.
El peso es una magnitud aditiva; se necesita una unidad
patrón y una interpretación empírica de su aditividad; establecer una unidad patrón, en tanto en cuanto suponga algo
más que la pura convención de elegir un determinado grado
de una magnitud como representación suya, exige establecer todo un sistema de correspondencias; estas correspondencias no se eligen de modo convencional: se descubren
empíricamente en forma de relaciones entre magnitudes, o
en forma de isomorfismos entre clases de magnitudes. La
medida cuantitativa presenta varios aspectos: primero, im86
plica el descubrimiento empírico de relaciones aditivas entre los grados de una magnitud, lo cual no implica una matemática formal, sino los procesos reales en los que se empleen unidades patrón empíricas, y el descubrimiento de
correspondencias estructurales entre sistemas de tales unidades; segundo, implica la asignación de numerales a los
grados de magnitud, poniendo las relaciones entre magnitudes en correspondencia con relaciones numéricas; el conjunto patrón de todas las clases de magnitud que poseen
estas propiedades es el conjunto de los números cardinales.
Todas serían clases numéricas, y cualquier clase numérica
podrá ponerse en correspondencia con cualquier otra clase
numérica.
El proceso de medida implica la utilización de conjuntos normalizados como escalas; cualquier ordenación ya sea
por identidades y diferencias, por grados de una magnitud
o por diferencias entre los grados de una magnitud referidas a una unidad patrón, implica una correspondencia de
algo con alguna otra cosa, y lo que se establece la correspondencia se toma como escala. La utilización de una escala
implica la determinación de dichas igualdades entre razones
o proporcionalidades, de cantidades de ciertas magnitudes,
y un instrumento de medida es, aquel en el que las variaciones en el grado de una magnitud se relacionan con las variaciones en el grado de alguna otra que se toma como escala;
el calibrado de una escala depende de correspondencias entre tales variaciones de grado que se expresan en unidades
empíricas normalizadas que se descubren mediante la investigación empírica.
87
No existe una magnitud que sea fundamental sino sólo
relaciones y correspondencias fundamentales entre los distintos grados de las magnitudes, y que el proceso de medida
depende el descubrimiento de invariancias empíricas de estas relaciones. El orden que se emplea en el calibrado es el
numérico, pero una vez que se haya determinado que hay
isomorfismo, cualquier magnitud que posea propiedades
numéricas puede emplearse como escala; en ningún caso
resulta tan evidente la continuidad que existe entre la ciencia
teórica y la práctica corriente como en el desarrollo de las
técnicas y la teoría de la medida; la racionalización de la práctica corriente es la matriz en la que se forman los conceptos
de la medida, y a la que estos han de referirse para poner a
prueba su adecuación. En la ciencia, el objeto de la medida
es servir a la teoría, en sus dos vertientes de descubrimiento
y justificación; el experimento típico se plasma en una medida o en un conjunto de estas; la hipótesis típica puede ponerse aprueba sobre la base de predicciones en forma de
enunciados acerca de determinadas medidas, y la formulación teorética típica, en aquellas ciencias que han avanzado
en la utilización de las matemáticas.
Métodos Cuantitativos frente a Métodos Cualitativos
Los científicos sociales se dedican a producir sistemas
de creencia de su sociedad; es decir, estos personajes tienen
un papel fundamental en la conformación de las maneras de
conocer, que incluso han llegado a calificarse de correctas,
legítimas, científicas, verdaderas; cabe entonces preguntarse
por las formas en que proceden las comunidades epistémicos
88
para legitimar ciertos sistemas de creencia, dentro de los
cuales se ubica también una forma de hacer ciencia; resulta
de gran ayuda rastrear las formas de pensamiento que han
llevado a lo que hoy se considera el problema epistemológico
en la construcción del dato, aunque antes de proceder a ello
es preciso reconocer que las formas y estrategias de validación de lo que puede considerarse, o no, conocimiento científico se han modificado con el tiempo.
A mediados del siglo XIX se enarbolaba una concepción empirista de la ciencia, donde la validación científica se
cimentaba en la recopilación de leyes que expresaran regularidades entre fenómenos observables. Esta concepción empirista radical no fue, sin embargo, la concepción predominante de ciencia en el siglo XVIII, cuando Descartes apoyaba una concepción mecanicista del mundo frente a la propuesta de Newton de intentar explicar la regularidad de fenómenos en términos de leyes de aplicación universal que
permiten modelar matemáticamente los fenómenos.
La concepción dominante de la ciencia en el siglo XIX
consideró que no había diferencias lógicas fundamentales
entre ciencias naturales y sociales; con ello, la forma de hacer ciencia social empezó a impregnarse de los principios
de las ciencias naturales: monismo metodológico; conocimiento nomotético; correspondencia entre conceptos, observaciones empíricas y hechos u objetos; la experiencia
como criterio último de verdad; la demarcación del conocimiento científico de aquel que no lo es y la neutralidad de las
aseveraciones. De esta manera la precisión, la exactitud, el
control, la predicción y la contrastación con la realidad se
convirtieron en factores imprescindibles en la definición de
89
la verdad. Comte, en su física social, define con claridad lo
que consideraba criterio de demarcación entre lo que es científico y lo que no lo es; así, convierte al dato empírico en
criterio de verdad, donde toda proposición que no pudiera
reducirse a los hechos sería metafísica; es decir, no científica; asumir lo empírico como lo eminentemente observable
se constituyó en lo dominante en la ciencia moderna. A partir de ello puede entenderse la propagación de la medición
en la actividad científica.
El interés por la medición es antigua. Se podría ubicar
su relevancia desde los orígenes de la ciencia moderna, cuando la posibilidad de traducir proposiciones cognitivas al lenguaje matemático empezó a constituirse en signo de madurez y objetividad; así, cuantificar los procesos sociales y culturales se erigió en una particularidad del procedimiento
científico.
Bunge considera que: si bien la medición no es una condición
indispensable para que el conocimiento sea científico, la ciencia procura
siempre medir y registrar los fenómenos; de igual forma afirma
que: si bien las ciencias sociales estudian cuestiones culturales en lugar
de naturales, ello no impide que sean matematizables. De esta manera, intenta formalizar y cuantificar diversos conceptos
provenientes de la sociología, y ante las críticas a este proceder argumenta que:
Es preferible un concepto simple y claro a una palabra que no
designa ningún concepto preciso; la insistencia en que la realidad es
demasiado compleja para ser apresada en fórmulas matemáticas no es
sino una forma de oscurantismo. De oscurantismo y a veces también de
defensa de la ignorancia.
90
No todo aquel que utilice datos debe ser considerado
seguidor de los métodos cuantitativos; es importante diferenciar los objetivos y los sistemas de notación en que se
producen y exponen las observaciones e indagaciones acerca de la realidad. Como lo plantea Schwartz, la diferencia
entre la sociología cualitativa y la cuantitativa puede reconocerse a partir de los sistemas de notación utilizados para
describir el mundo. Los que utilizan los métodos cuantitativos asignan números a las observaciones cualitativas; en este
sentido, producen datos al contar y medir cosas. Las cosas
medidas pueden ser individuos, grupos, sociedades enteras,
actos de lenguaje y así sucesivamente; los investigadores que
proceden mediante métodos cualitativos, en cambio, describen sus observaciones en lenguaje natural; la aplicación
de sistemas de notación corresponde a grandes diferencias
en cuanto a valores, metas y procedimientos para realizar
investigaciones e interrogar a la realidad.
En las últimas décadas ha tenido lugar un cambio en la
concepción tradicional de la ciencia. Ha surgido una nueva
filosofía de la ciencia; en esta nueva concepción se rechaza la
idea de que puede haber observaciones teóricamente neutrales; ya no se canonizan como ideal de la investigación científica los sistemas de leyes conectadas de forma deductiva;
sin embargo, el reconocimiento más importante es la consideración de la ciencia como una empresa interpretativa, de
modo que los problemas de significado, comunicación y traducción adquieren una relevancia inmediata y central para
las teorías científicas. Este cambio en los principios del proceder científico se encuentra relacionado con la discusión
sobre los objetivos asignados al conocimiento; es decir, la
91
disputa entre una tradición explicativa y comprensiva, polémica. La disputa entre metodologías cuantitativas y cualitativas se ha presentado de una forma excluyente. Esta apertura exige superar la estructura binaria en que se ha construido el pensamiento y que sólo admite una posibilidad,
una sola elección entre dos opciones:
a) Verdadero/no verdadero (falso)
b) Exacto/inexacto (ambiguo)
c) Científico/acientífico (común, ordinario)
e) Objetivo/no objetivo (subjetivo).
La estructura dual que reclama todo para sí, que al reconocer elimina lo distinto, lo diverso, ha sido la forma en que
se ha arribado a la discusión cuantitativo/cualitativo:
f) Empírico/crítico
g) Consenso/disenso
h) Estático/dinámico
i) Cerrado/abierto
j) Determinado/indeterminado
k) Homogéneo/heterogéneo
Una estructura conceptual ya no dual, sino triangular
permitiría superar este reduccionismo y reconocer el intermedio; permitiría matizar posturas, reconocer universos de
realidad no incluidos en perspectivas que adquieren especificidad por oposición. Según Ortí, la recuperación de la dimensión cualitativa frente a la absolutización metodológica
cuantitativista obedece a lo siguiente:
92
a) Desde el punto de vista teórico: fue una reacción
crítica frente a la negación cuantitativista del universo social y frente a la carencia de sentido de la
producción masiva de datos cada vez más precisos y menos relevantes
b) Desde el punto de vista ideológico: fue una reacción crítica frente al conservadurismo de las representaciones sociales a partir del canal de la encuesta precodificada como forma privilegiada de
análisis de lo social
c) Desde el punto de vista sustantivo: reacción crítica frente al desconocimiento de la especificidad,
riqueza, profundidad y complejidad del orden simbólico y de sus formaciones de las formas
lingüísticas y los discursos sociales
El eje de la discusión, implica modificar el centro problemático y plantear un horizonte de conocimiento a través
de la identificación/problematización de las formas en que la
cuantificación permite aprehender la realidad, pero sin calificarla de válida o no, lo que se inserta en un discurso autoritario de corte académico.
En los últimos años se ha asistido a un viraje en los
planteamientos científicos, cuyo resultado ha sido poner
en tela de juicio el discurso tradicional de la ciencia como
sistema legal, unificado y objetivo. Sin embargo, más allá
de la pertinencia o no de cada una de las formas de hacer y
validar la actividad científica, lo cierto que es que esa polémica permite considerar nuevas dimensiones o espacios
de la realidad.
93
La identificación del papel que juega la incertidumbre
no elimina la certeza, sino que le exige nuevas formas de
constitución y fundamentación al reconocer los nuevos planos o niveles de la realidad; el reconocimiento del azar no
elimina la determinación; la aceptación de la diferencia de
lo heterogéneo no elimina la posibilidad de la homogeneidad. La verdad es polisémica, con una dimensión
autorreferencial que implica la adquisición de sentido en función de su propio espacio de referencia en el cual tiene validez propia; es decir, tiene campos de validación en un contexto particular en el cual esa misma verdad es construida
de manera particular; así, los diferentes conceptos de verdad nos trasladan a la necesidad de reconocer diversos sistemas de veridicción, los cuales tienen estrategias de construcción-desconstrucción de la realidad. Esta perspectiva permite
plantear la necesidad de renunciar a la pureza de los géneros
o perspectivas, sobre todo si se reconoce que hay una dimensión cualitativa en lo cuantitativo y viceversa. Siguiendo
a Gutiérrez, podría proponerse un modelo como espacio
continuo, cuyos extremos no están definidos por lo cuantitativo de un lado y lo cualitativo por el otro, oponiéndose y
excluyéndose: sino por una gradación que va desde el énfasis en la
técnica y la ausencia de una reflexión epistemológica, hasta el énfasis
precisamente en la reflexión metodológica y epistemológica.
Si se acepta que en ningún ámbito de la actividad humana existe una realidad dada, independiente del sujeto, es necesario considerar la totalidad de las técnicas y prácticas de
investigación como configuraciones históricas destinadas a
la invención o construcción de realidades, dinámicas, y actores; los datos, los textos, los procedimientos de análisis
94
no constituyen intuiciones del proceso de investigación o
derivaciones naturales del método científico, sino, efectos
de significado, juegos de lenguaje, ámbitos semióticos de
circulación; no son objetos dados sino construidos. Las técnicas no recogen después de rastrear algo que estaba al principio, sino que seleccionan, escogen, captan, construyen un
resultado, un producto, un sentido en el contexto de la
lingüisticidad de lo social; si se parte de que el conocimiento
debe atender a todos los niveles de la realidad, los cuales tienen distinta naturaleza epistemológica, pueden distinguirse:
a) El nivel o campo de los hechos: conformado por
relaciones de indicación o designación de la proposición, en cuanto puesta en evidencia de lo que
acontece o se hace en un espacio-tiempo determinado
b) El nivel o campo de la significación: de la proposición, donde las significaciones son referidas a sí
mismas, a un sistema de signos
c) El nivel o campo de las motivaciones; referido a
las fuerzas motoras, pulsiones, deseos, que corresponden a la interacción social; es decir, a la
intencionalidad y sentido
El reconocimiento de niveles o campos de la realidad
no implica desconocer las limitaciones de cada enfoque; en
este sentido, la perspectiva analítica por la que se opte permitirá definir, pero al mismo tiempo limitar el nivel de realidad con el cual se trabaja. Cada estrategia contiene sus propios límites para captar, reflejar, traducir e interpretar la realidad. La perspectiva de complementariedad se ha fortaleci95
do, así lo muestran los estudios coordinados por Delgado y
Gutiérrez, que reúnen diversas reflexiones en las que se privilegian los métodos cualitativos, pero no se desconocen
los cuantitativos. Se plantea un proceso inverso en la discusión, en cierto sentido de desconstrucción; es decir, analizar
las propiedades asignadas a la cuantificación a partir de los
descubrimientos y consensos alcanzados sobre la conformación del conocimiento.
La Recuperación del Olvido Moderno: El Observador
Si bien la ciencia moderna consideró que no había diferencias lógicas fundamentales entre la ciencia natural y la
social, en etapas posteriores del desarrollo científico se advirtió la urgencia de establecer esa diferencia; fue precisamente por esta coyuntura que las ciencias del hombre se enfrentaron a la discusión en torno a su estatuto epistemológico,
reflexión en la cual ha sido crucial el papel de la interpretación de la acción humana y la forma en que ésta puede diferenciarse de los objetos y los acontecimientos naturales.
Al respecto, Wilson, Cohen, Alexander y Giddens, entre
otros, afirman sin ambivalencias que: la ciencia social es fundamentalmente diferente a la ciencia natural. De esto se deriva el
reconocimiento de la ciencia social como fundamentalmente interpretativa; lo que interesa resaltar es la incorporación
del sujeto en el proceso de conocimiento, que para el caso
de las ciencias sociales se traduce en el paradigma del observador implicado, y que en términos de la física cuántica hace
referencia a la lógica del principio de incertidumbre, el cual
consiste en reconocer que todo observador modifica lo que
96
observa por el solo hecho de observarlo, y con su presencia.
Al respecto, Fried, Latour y Morin coinciden en afirmar que:
Dentro de la concepción clásica de la ciencia, la idea del
sujeto ha perturbado el conocimiento. La objetividad sólo
puede ser alcanzada si se le excluía; el mundo de la
cientificidad es el mundo del objeto, el mundo de la rigurosidad científica, mientras que el mundo de la subjetividad es
el mundo de la filosofía, de la reflexión y la especulación;
ambos dominios se consideran legítimos pero mutuamente
excluyentes. Desde esta perspectiva de construcción/interpretación puede resignificarse el criterio de verdad, el cual descansa en el principio de objetividad como factor inherente
del uso del método científico.
En la ciencia clásica la subjetividad aparece como contingencia, fuente de errores; por eso la ciencia clásica excluyó siempre al observador de su observación y al pensador,
el que construye conceptos, de su concepción, como si fuera inexistente o se encontrara en la sede de la verdad suprema y absoluta; más tarde, en el siglo XXI, se ha asistido a la
invasión de la cientificidad clásica en las ciencias humanas y
sociales. Se ha expulsado al sujeto de la psicología y se lo ha
reemplazado por estímulos, respuestas, comportamientos;
se ha expulsado al sujeto de la historia, se han eliminado las
decisiones, las personalidades, para sólo ver determinismos
sociales; se ha expulsado al sujeto de la antropología, para
ver sólo estructuras, y también se lo ha expulsado de la sociología.
El método científico era el garante de la no participación del sujeto; al reconocer el proceso de traducción e interpretación como factores inherentes al conocimiento, la
97
concepción de los procesos cognitivos como reflejo del
mundo externo aparece como obstáculo para la comprensión de la complejidad del mundo. Latour realiza aportaciones sustantivas al proponer la unificación de ciencia y
política. Plantea, como programa de investigación, reunir
lo desunido, el conocimiento exacto y el poder; es decir, la
naturaleza y la cultura; considera que la división entre ciencia y poder se remonta al siglo XVII, cuando los filósofos
Boyle y Hobbes discuten y se distribuyen los poderes científicos y políticos. Boyle construía sus argumentos desde una
ciencia y una teoría política; mientras Hobbes hacía lo mismo pero desde una teoría política y una ciencia; de esta forma, el hecho científico y los ciudadanos son sólo una invención histórica y política; sin embargo, se distribuyen los poderes científicos y políticos. Pues si bien la constitución
moderna inventa una separación entre el poder científico y
un poder político, ello no implica que a partir de ese momento los sujetos se mantengan apartados de las cosas:
a) Por un lado, los seguidores de Boyle argumentan
que no son los hombres los que hacen la naturaleza, ésta ha existido desde siempre y también desde siempre ha estado allí
b) Por otro lado, los seguidores de Hobbes dirían
que son los hombres y únicamente los hombres
quienes construyen la sociedad y quienes libremente deciden su destino
c) Una tercera garantía de solidez para ambos sistemas argumentativos advierte una separación completa entre el mundo natural y el mundo social
98
El Proceso de Construcción del Dato
Si se define como una cuestión epistemológica; ¿en qué
medida nuestras teorías pueden ser concebidas como una búsqueda de
descripciones verdaderas de lo que es el mundo real? Interpelar el
papel que tiene el dato, las técnicas cuantitativas y el uso de
las matemáticas en este proceso permite situar la discusión
en este orden. La cuestión de la cuantificación se traslada al
plano epistémico cuando se busca discernir sobre la relación y/o correspondencia entre concepto/dato y la realidad;
es decir, remite al tradicional debate epistemológico sobre
la relación pensamiento/realidad, donde la cuestión de la correspondencia entre datos y hechos implica preguntarse sobre la forma en que dicho proceso refleja o traduce a la
realidad.
Si se considera que el dato forma parte de las más diversas producciones conceptuales, entonces es también parte
constitutiva del conocimiento, el cual es una construcción,
pero una construcción que expresa propiedades reales; analizar el proceso de producción del dato es interrogarse sobre uno de los momentos teóricos en la construcción del
conocimiento, el cual se encuentra circunscrito por mediaciones prácticas y culturales; todo esto nos lleva a considerar al dato como una reducción formal de lo dado, que privilegia los aspectos regulares de lo percibido; permite considerar que el desarrollo de una epistemología del dato equivale a considerar los espacios perdidos de la percepción tanto como las sugerencias conceptuales para su constitución.
Estos espacios perdidos de la percepción se generan en
el traslado de lo observado al dato; de aquí se desprende
99
una pregunta: ¿qué posibilidades existen de recuperar universos excluidos si se reconocieran los diversos momentos teóricos en su constitución? A este respecto, Prada plantea que rescatar los espacios perceptuales perdidos exige replantearse la relación del
sujeto cognoscitivo con la realidad y concebir dicho proceso dirigido desde la teoría: el dato contiene teoría y la teoría
contiene datos. La generación de datos es un momento teórico que permite organizar la percepción.
¿Cómo puede construirse el dato sino mediante la teoría? ¿Cuál es el papel del dato en la aprehensión/reconstrucción? ¿Cuál es la correspondencia entre concepto e indicador? ¿Qué criterios se utilizan en la definición de las dimensiones del concepto? ¿Qué criterios sustentan la concreción de una dimensión en indicador ?
¿En qué medida es posible incorporar la cuantificación
a estrategias de corte más cualitativo?
La Ilusión de la Objetividad
En el momento en que ya no es posible sostener la correspondencia directa entre datos y realidad se asiste a la
fractura del fundamento y exposición discursiva de la ciencia tradicional, empírica y positiva. Dicha falta de correspondencia desde los indicadores como referentes implica
una forma de traducción/interpretación no claramente definida
y acotada, donde se reconoce la intervención del sujeto, el
cual deja de ser ese ente pasivo que capta, recoge y registra
la realidad sin intervención, para transformarse en un ente
activo, donde el conocimiento se constituye en objeto/sujeto,
100
lo que reivindica el papel de la teoría en el proceso de recorte/construcción de la realidad.
Al respecto, cabe preguntar: ¿cómo se gesta la fractura de los
pilares de la ciencia empírica? En este punto resulta pertinente
recordar que la ciencia empírica exige que tanto las teorías
como las hipótesis se califiquen de verdaderas o falsas en
función de su contrastación con la experiencia; y es en este
punto donde surge la polémica ya que, como destacan
Piaget, Glasersfeld, Foerster y Watzlawick, no hay sensaciones puras, es decir, independientes de la reflexión de los sujetos. Todo conocimiento es una selección/traducción/interpretación.
Si bien el dato empírico tiene la misión de verificar, siempre se tratará de un dato contaminado de valores, prejuicios, intereses; por eso la sensación pura no existe, pues la
percepción nunca es la suma de sensaciones puras, sino que
ellas aparecen como percepciones totalizantes en las que
siempre hay un componente de construcción conceptual por
parte del conocimiento. Las percepciones siempre son históricas. El dato empírico estará determinado por la conceptualización teórica y el recorte de realidad externa que
lleva a la generación de datos estará normado por los propios conceptos que se quiere verificar.
Si se parte de reconocer que no hay construcciones
cognitivas independientes de los sujetos, surge una pregunta: ¿cómo se expresa el problema de la correspondencia en el dato
reflejado por los indicadores? En tanto eso permite sostener el
rescate del sujeto y definir los ámbitos problemáticos de
discusión; al respecto. El paso de los conceptos a indicadores
sigue tres etapas:
101
a) Descomposición, delimitación de las dimensiones, propiedades, elementos
b) Búsqueda de los indicadores adecuados a las dimensiones definidas
c) Combinación de los indicadores escogidos en un
índice
Mayntz, antes de fijar su posición respecto a la
operacionalización de conceptos, define límites al problema de la correspondencia entre concepto y realidad; considera que el concepto no es nunca idéntico a los fenómenos a
los que se refiere su contenido figurativo. Propone tres fases
de los datos en el proceso de investigación; lo que importa
destacar es el rescate de la teoría en la generación del dato,
pues afirman que los empiristas han puesto en duda la dependencia teórica de la investigación debido a un concepto
muy estrecho de teoría. Textualmente establecen:
Importa destacar que la obtención y el análisis de los datos, en
todas sus fases, dependen de una teoría sobre la realidad social. Sobre
todo, los datos mismos sólo pueden obtenerse recurriendo a conclusiones
teóricamente fundadas. De esta forma, se establece una diferencia entre validez y fiabilidad del indicador, pues mientras la
primera incluye todo aquello a lo que su contenido significativo remite, la fiabilidad se refiere a la producción de los
mismos resultados bajo las mismas circunstancias y que sean
independientes del investigador que los utiliza. Tanto Boudon
y Lazarfeld mencionan continuamente la dificultad en la definición de dimensiones y la búsqueda de indicadores, debido a la característica polisémica de los conceptos. Uno de
los problemas del papel de la interpretación en este proceso
es que nunca se hace explícito en la investigación; se enuncia,
102
pero es poco usual que se hagan explícitas y se argumenten
las razones, teóricas o prácticas, del procedimiento en el cual
descansarán las aseveraciones. Al respecto, Zemelman muestra dos problemas:
a) La descontextualización del indicador, pues en el
momento en que se registra una magnitud, se han
excluido las características específicas que permitieron que el fenómeno adquiriera esa magnitud y
característica
b) La falta de vigilancia epistemológica en su construcción, pues considerar que las dimensiones están ahí, y no reconocer la participación del investigador en la generación del indicador, hace imposible una relación crítica o vigilancia
epistemológica, que le otorgue un papel más adecuado al indicador en la actividad de reconstrucción de la realidad
Hay que distinguir entre indicatum e indicador. Es evidente que el indicatum puede encontrar otras formas de
expresión a través de otros indicadores. Un recorte permite
incluir algunas dimensiones, pero es inevitable la exclusión
de otras; es este momento de construcción el que requiere
una vigilancia que implique la reconstrucción epistémica del
indicador donde se muestren, se hagan evidentes y se argumenten los universos excluidos e incluidos.
La Vigilancia Epistemológica
La finalidad es poner de manifiesto la necesidad de recurrir a una constante vigilancia epistemológica en todo pro103
ceso de investigación, y hacer particular énfasis en lo apremiante de esta labor para el caso de los estudios de base
empírica. Identificar las dimensiones de un concepto es un
problema teórico que acaso sólo puede ser resuelto en este
plano; el momento teórico está en la determinación, como
construcción conceptual, de ¿cuáles son los elementos básicos? El
segundo momento, el empírico, trata de responder a las preguntas de ¿cómo determinar la presencia y la ausencia de los elementos básicos? y ¿qué efectos tendrá la medición en el concepto?, es decir,
¿el instrumento medirá, captará, la plenitud del fenómeno? ¿Cuáles
son las dimensiones del fenómeno que expresa el concepto?
Al analizar las dimensiones que incluyen las investigaciones se manifiesta la diferencia, la cual se intensifica al momento de escoger los indicadores que representen o reflejen
la dimensión seleccionada; pareciera evidente que las razones de uno u otro procedimiento son de orden teórico, de
recorte y acercamiento a la realidad; no sólo hay diferencias
significativas en el número y tipo de indicadores considerados, sino que no pareciera haber justificaciones para recoger o no tomar en cuenta una u otra dimensión.
Por ejemplo, cuando nos acercamos a la manera en que
diversas investigaciones cortan una línea de la pobreza, veríamos tal heterogeneidad que difícilmente podría sostenerse y seguir refiriéndose al mismo fenómeno ¿Dónde está la
objetividad y la neutralidad en la medición? ¿De qué manera el fenómeno se impone?
¿Quién y cómo se definen los universos incluidos? y ¿por qué razón? ¿Con qué argumentos se sustentará la exclusión de otros universos analíticos? Todas estas preguntas tendrían respuestas rela104
cionadas con la participación del sujeto en el proceso de
conocimiento; es importante destacar la importancia que
reviste la vigilancia epistemológica en los procesos de construcción del dato, así como la necesidad de construir procesos cognitivos que tiendan hacia la recuperación de universos excluidos; la idea más importante tiene que ver con la
necesidad de considerar a la vigilancia epistemológica como
una labor imprescindible en el uso de la cuantificación. Esta
constante atención que debe prestarse durante el proceso
de construcción del dato podría contribuir a diferenciar
entre objetividad y exactitud.
El hecho de reconocer que toda cuantificación parte de
un recorte del objeto, a partir de ciertas formas regulares
que presenta, lleva a pensar en la vigilancia epistemológica
como este reconocimiento de la existencia de diversos universos incluidos y excluidos en el análisis, lo que permite
plantear la discusión sobre su relevancia. La correspondencia que la ciencia manifiesta no es entre conceptos y hechos,
sino entre enunciados y hechos interpretados, lo que se contrasta con las diferentes interpretaciones de la realidad.
El Proceso de Gestión de Datos
El proceso de gestión de datos como tarea político-administrativa y de investigación supone el reconocimiento previo de un complejo proceso de construcción de la información; desde esta perspectiva resulta fundamental entender
que los datos no están dados en la realidad y que solo resta
recopilarlos, sino que son fruto de una acción creadora y
105
por tanto condicionada por las perspectivas teóricometodológicas desde las cuales se los construye; aunada a esta
afirmación la gestión de información debe recurrir a datos
que deben ser susceptibles de ser contados, medidos, pesados y para ello se apoya en una metodología cuantitativa.
Con relación a los indicadores. La medida, construcción
de índices y de indicadores, de manejo estadístico de masas
de datos carecen en general de fronteras. Los indicadores
son utilizados como puros instrumentos de conocimiento;
no existe una correspondencia directa entre teoría y realidad, entre conceptos y observaciones: por lo que se requiere la
existencia de una teoría auxiliar como intermediaria entre ambos planos, que especifique en cada caso el modo de relación de un indicador
determinado con una variable teórica determinada. Esta preocupación subyace en todo sistema de información que funciona
como gestión de datos sin problematizar la estandarización
de esquemas conceptuales y teóricos que tienden a homogeneizar la información en una progresiva organización de la
misma.
La Construcción de los Datos como Perspectiva Teóricometodológica
Los datos empíricos en sí no dicen nada, se deben analizar en función de identificar el lugar desde el cual fueron
construidos; desde esta línea el proceso de gestión de datos
implica, por un lado de construir aquellos parámetros y variables desde los cuales fue elaborada la información y por
el otro, re-construir la misma a partir de este reconocimien106
to de singularidad; singularidad que se vuelve necesaria al
relacionarla metódicamente con las causas y razones que la
explican y le dan sentido. La idea es facilitar los medios para
la comprensión, es decir instrumentar los dispositivos necesarios para aprehender la realidad como necesaria e insertarla en el contexto que la hace ser lo que es; para superar el
estigma de que el proceso de gestión de información se constituya en una suma de técnicas o un sistema nacional de contabilidad social, la propuesta es subordinar estas técnicas y
conceptos e indicadores a un examen sobre sus condiciones
y límites de validez.
La vigilancia epistemológica debe estar presente tanto
en el procesamiento de la información como en el análisis
de la misma ya que se vuelve una fuente de información ad
hoc al hablar de los fenómenos bajo análisis. Esto exige estar
atento a la diversidad de subjetividades que intervienen en
todo el proceso que recorre una y otra vez la construcción
de distintas matrices de datos que se constituyen en fuentes
de información básica para el trabajo de sistemas de información; no se trata de la aplicación correcta de un manual
de procedimientos, que se presupone neutral, objetivo y
paradigmático, sino de cómo hacer para preservar el entorno de objetos a los que se atiende o a los que se supone que
se atiende para generar algo llamado dato; así se elaboran
múltiples tablas, estadísticas, indicadores y cuadros que aparecen como datos objetivados y que de alguna manera encubren el núcleo de procedimientos que pretenden verificar y
justificar supuestos e hipótesis que son en definitiva decisiones teórico-políticas, por tanto sustancialmente ideológicas. Los
consultores-investigadores se enfrentan a problemas teóricos y
107
prácticos que ponen de relieve la relación social entre los
primeros y su objeto de investigación-gestión.
El Procesamiento e Interpretación de la Información
Otro ítem significativo refiere a las interpretaciones que
de ellos se hacen sobre lo que sucedió pretendiendo presentar argumentos como condición para decidir los diferentes
resultados que se están mostrando; aquí nos encontramos
con la estadística. La estadística ha sostenido siempre
metodológicamente el paradigma del control; ha servido a
un poder que se reserva el azar y atribuye la pauta. La estadística descriptiva permite al Estado hacer el recuento de
sus recursos materiales y humanos. La estadística inferencial
le permite reducir a pauta el comportamiento de las personas y el movimiento de las cosas.
Con relación a este punto Foucault sostuvo, que toda
práctica social engendra necesariamente dominios de saber;
estos a su vez conllevan dominios de verdad en el sentido
de que implican construcción de subjetividad en términos
de prácticas y discursos sociales que se constituirán en mecanismos, dispositivos y tecnologías de control y vigilancia.
Estos dispositivos de información son dispositivos de acción. Ellos enuncian una compleja red de relaciones que quedará sujetada a sistemas totalmente sistémicos; cada elemento
o parte está sujetado por esa red de relaciones por lo que no
existen elementos autónomos; tampoco estructuras estables
ya que para que exista lo instituido debe existir lo instituyente,
el sistema social reproduce su estructura cambiando. Desde
este lugar, los sistemas de información conjugan elementos
108
y estructuras que permiten una cara visible: observación y
una cara invisible: acción; estos son un modo de tomar medidas de la sociedad en el doble sentido de tomar medidas a
y tomar medidas sobre. Las medidas que se toman son según niveles de cuantificación, del tipo clasificación, del tipo
ordenación, o del tipo medición; sólo es posible y necesario
clasificar, ordenar y medir cuando hay más de una alternativa.
La condición de existencia de la alternativa es la
reflexividad sobre los procesos de construcción de conocimiento; una reflexividad que se vuelve una distancia necesaria al develar las posiciones desde las cuales hablamos y significamos el mundo en que vivimos; significa ser rigurosos
sin ser rígidos, comprensivos sin justificar y vigilar sin controlar; por esto resulta fundamental recuperar el concepto
de vigilancia en las dos acepciones que se trabajan en esta
ponencia. Una como práctica de develamiento de la propia
subjetividad en el proceso de investigación y la otra como
proceso de control panóptico de las operaciones y prácticas de gestión en una institución; es decir, una propone una
autoreflexión sobre las propias condiciones de producción
de conocimiento, lo que conlleva la exposición de la singularidad de los puntos de vista; la otra, por su parte, pretende la regulación y normalización de las prácticas con total
indiferencia de las condiciones y condicionamientos.
Proceso de Gestión de Información
Las condiciones de existencia se conforman a partir
múltiples líneas segmentarizadas y planificadas que nos atra109
viesan y permean; estas forman parte indisociable del complejo entramado de instituciones que regulan la vida social
produciendo en su operatoria una re-territorialización de la
sociedad al trazar sus pendientes y fronteras y erigiendo sobre ésta un mapa de consistencia para homogeneizar y
sobrecodificar todos sus segmentos. En esta línea, a través
de las cartografías, mapas, cuadros, índices, y matrices, las
instituciones encargadas de la gestión de la información participan de esta sobrecodificación a través del procesamiento, análisis e interpretación de los datos; el punto no resulta
en invalidar la maquinaria y acciones que implican los sistemas de información, sino en poner de relieve su utilidad
social a través del reconocimiento de los límites y potencialidades que conlleva todo proceso de construcción de información.
Con relación a la construcción de un código. Los propósitos son: exponer el planteo de algunas discusiones conceptuales-metodológicos que atraviesan la codificación y la consecuente construcción de un instrumento de medición, mostrar la imbricación de decisiones que constituyen parte de la
práctica de investigación; y segundo, desde el supuesto que
la formación en investigación trata de transmitir un oficio,
se pretende, la aprehensión teórico-práctica del conocimiento
y de herramientas metodológicas.
El desarrollo gira en torno al primer objetivo señalado
y por ende el planteamiento de problemas teóricos y
metodológicos que implica la elaboración de códigos para
la lectura de datos agregados, en particular de información
de los periódicos, de sus potencialidades y limitaciones tanto de la fuente en sí como del instrumento que se construye;
110
a su vez, presentar un modelo de registro para la observación de estas señales. El segundo propósito está vinculado
en cierto sentido a una experiencia pedagógica centrada en
la práctica de investigación; con la participación de los alumnos, auxiliares en el proyecto de investigación, se busca, además de superar expectativas acerca del conocimiento
metodológico, que la relación de los contenidos de las asignaturas del área metodológica se establezca con la
cotidianeidad de la práctica, que lo que se predica como
conjunto de tareas por las cuales se trata de organizar la
evidencia empírica a partir de la teoría, encuentre un ámbito
de conjunción.
La tarea de la construcción de un instrumento de registro de información nos sitúa frente a diversas cuestiones teóricas y metodológicas que parten de una serie de supuestos
respecto de la observación, la medición, el tratamiento de
la evidencia empírica:
a) Los hechos, los objetos, los eventos, las imágenes,
los procesos no tienen una condición intrínseca
de relevancia o significación
b) La medición supone un proceso de observación;
medir es un procedimiento empírico que implica
la asignación metódica de símbolos a las características observadas de una dimensión determinada del objeto de estudio
c) El registro de información, la medición, es una de
las operaciones metodológicas que vincula lo no
observable con lo observable, niveles de mayor
abstracción con referentes empíricos
111
d) Codificar es también medir; en todo trabajo de
investigación, cuantitativa o cualitativa está presente la codificación e implica la transformación
de los datos obtenidos para procesarlos como
expresiones de lo empírico
e) Se considera al código como un instrumento que
se transforma y se enriquece en el proceso de su
construcción y que permite arribar a una condensación más enriquecida
f) Al trabajar con información no cuantificable, la
codificación sigue un proceso de lectura buscando marcas, huellas, señales; el lenguaje de medición se refiere a la lógica mientras que la aproximación estadística usaría el de la aritmética
g) Esta aprehensión de los objetos es sintética-cualitativa; la aplicación de códigos teoréticos sobre
datos empíricos se basa en una lógica del descubrimiento, ni inductiva ni deductiva
112
Capítulo 3
LA FORMULACIÓN
DE
HIPÓTESIS
E
l término hipótesis y su utilización dentro del proceso de investigación científica es de empleo reciente, es muy probable que a partir de la obra del fisiólogo y
médico francés Claude Bernard sea clásico distinguir en la
investigación experimental tres etapas: la observación, la
hipótesis y la comprobación, y que es a través del cual que
reconocemos que la hipótesis es la brújula que guía la generación de conocimiento científico. De tal manera que cualquier investigador está obligado a formular o plantear una
o varias hipótesis, que una vez contrastadas le permitirán
generar conocimiento científico.
Existen al menos dos etapas de trabajo por las que un
investigador pasa; la primera, cuando en sus trabajos iniciales está atento en torno a los hechos de la naturaleza y por lo
tanto, realiza observación, y la segunda, cuando con base en
ellos formula alguna hipótesis, que sometida a la comprobación pertinente, le proporciona los datos o información
suficiente para aceptarla o rechazarla; ambas etapas son importantes, pero la formulación y posterior comprobación
113
de hipótesis, es el punto culminante en la generación de conocimiento científico. Cuando hablamos de hipótesis, siempre estarán en torno a este tema cuatro preguntas básicas:
1) ¿Qué es una hipótesis?
2) ¿Cómo se formula?
3) ¿Para qué sirve?
4) ¿Cómo se contrasta?
El término formulación hace referencia al enunciado de
un principio, hecho o fenómeno en palabras o símbolos, sean
o no matemáticos. La formulación de una hipótesis es la
manera o los requisitos que deberán cumplirse para proceder a redactarla y entonces tener el enunciado conocido como
hipótesis; lo cual es diferente al concepto de hipótesis.
Problemas e Hipótesis
¿En qué consiste el buen planteamiento del problema? Si bien
los problemas de investigación difieren de manera considerable, es posible aprenden ciertas características de los problemas y la manera de enunciarlos para utilizarlas con provecho; el problema es, una oración interrogativa que pregunta: ¿qué relación existe entre dos o más variables? La investigación intenta dar respuesta a esta pregunta; si se trata de un
problema científico, casi siempre contendrá dos o más variables; se cuenta con criterios para reconocer problemas
adecuados y su acertada formulación. Primer criterio: el
problema ha de expresar una relación entre dos o más variables. En efecto se realizan preguntas como las siguientes:
114
¿se relaciona A con B, ¿cómo se relaciona A y B con C ?,
¿cómo se relaciona A con B en las condiciones C y D? Segundo criterio: indican claramente la necesidad de verificar
las relaciones expresadas; ambos criterios significan que las
formulaciones de hipótesis contienen dos o más variables
que son mensurables o potencialmente mensurables y que
especifican cómo se relacionan las variables. Una formulación que carezca de una u otra de las características o de
ambas no es una hipótesis en el sentido científico de la palabra.
Nadie duda que las hipótesis son instrumentos importantes e indispensables en la investigación científica; esta
convicción se basa en varios motivos: El primero lo constituyen los instrumentos de trabajo de la teoría: las hipótesis
se pueden deducir de una teoría y de otras hipótesis; el segundo motivo es que las hipótesis son comprobables y puede demostrarse que probablemente son ciertas o falsas; sólo
se someten a prueba las relaciones, no los hechos aislados.
Dado que las hipótesis son proposiciones de carácter
relacional, ésta es quizá la principal razón de que se usen en
la investigación científica; en esencia se trata de predicciones en la forma: si A es cierto, también lo será B, dejando
que los hechos establezcan la probable verdad o falsedad de
la hipótesis.
Un tercer motivo es que las hipótesis son poderosos instrumentos que contribuyen al progreso de la ciencia; aunque construídas por el hombre, existen y prescindiendo de
sus valores y opiniones, puede demostrarse que son probablemente correctos o incorrectas. Tan importante como las
hipótesis son los problemas ocultos en ellas; la investiga115
ción normalmente comienza con un problema, con una situación problemática; los problemas y las hipótesis ofrecen
notables ventajas; en primer lugar, dirigen la investigación;
las relaciones expresadas en las hipótesis le indican al investigador qué cosa ha de hacer. En segundo lugar, como suelen ser afirmaciones relacionales generalizadas, le permiten
deducir manifestaciones empíricas, implícitas en dichos problemas e hipótesis.
Hay importantes problemas entre problemas e hipótesis; estas últimas son verificables si se formulan bien. La cuestión es que ni lo hechos ni las variables, se someten a comprobación como tales, sí en cambio las relaciones expresadas por las hipótesis; gracias a los problemas y las hipótesis
adquiere auge la ciencia, pues ayudan al investigador a confirmar o refutar una teoría; el investigador que no supone
por adelantado una relación, impide que los hechos demuestren o refuten algo; el punto principal, es que el objetivo de
la hipótesis estriba en dirigir la investigación. Como citara
Darwin: todas las observaciones han de ser a favor o en contra de
algún punto de vista si se quiere que sean útiles. Las hipótesis son el
instrumento más potente inventado por el hombre para alcanzar conocimientos fidedignos; el hombre observa un fenómeno y reflexiona sobre sus causas posibles. El hombre
de ciencia tiene la obligación de dudar de las explicaciones
dadas a los fenómenos de su campo; sus dudas son sistemáticas, e insiste en someter dichas explicaciones a una comprobación empírica controlada; para esto necesita formular
explicaciones susceptibles de comprobación empírica controlada que enuncia en forma de teorías e hipótesis. En realidad las explicaciones son hipótesis.
116
La hipótesis es una predicción, la cual establece que si
ocurre x, ocurrirá también y; es decir se predice a y a partir
de x. En consecuencia, si se hace que ocurra x y se observa
que ocurre también y, se confirmará la hipótesis. Aunque las
hipótesis no sean confirmadas, conservan su poder; los hallazgos negativos a veces son tan importantes como los positivos, y en ocasiones desembocan en otras hipótesis y líneas de investigación; pero el científico no puede distinguir
los datos positivos de los negativos si no se vale de hipótesis.
Construcciones Hipotéticas y Variables
El científico opera en dos niveles: el de teoría-construcción
hipotética y observación; en el nivel de observación, necesita recabar datos para probar sus hipótesis. La construcción
hipotética es un concepto, pero entraña la connotación adicional de haber sido inventado de manera deliberada; los
científicos designan con el término variable a las construcciones hipotéticas o propiedades que estudian; se puede afirmar que una variable es una propiedad que adquiere distintos valores. Variable es un símbolo al que se le asignan numerales o valores; la definición constitutiva define una construcción hipotética por medio de otras; la definición operacional asigna significado a una construcción hipotética o a
una variable mediante la especificación de las actividades
necesarias para medirla; en términos generales hay dos clases de definiciones operacionales: a) de medidas y b) experimentales. La definición operacional de medida describe
cómo se medirá una variable; una definición operacional
117
experimental explica en forma clara los detalles de las manipulaciones que efectúa el investigador con una variable;
los investigadores científicos deben enfrentarse a la necesidad de medir las variables de las relaciones que están estudiando. No puede haber investigación científica sin observaciones, y éstas son imposibles sin instrucciones claras y
específicas sobre qué y cómo observar; precisamente las definiciones operacionales proporcionan tales instrucciones;
aunque indispensables, esta clase de definiciones sólo confiere un significado limitado a las construcciones hipotéticas; ninguna puede expresar la totalidad de una variable.
¿Cómo se Formula una Hipótesis?
Para analizar la etapa correspondiente a la formulación
de una hipótesis, es necesario considerar como punto inicial
al proceso de percepción del entorno, que involucra la utilización de los sentidos. La comprensión de la evolución del
hombre es resultado del hecho de que entendemos dicho
proceso explorando la realidad física con nuestros cinco
sentidos; hasta el momento actual hemos sido seres humanos cinco-sensoriales.
Gracias a los sentidos, sabemos que cada acción es una
causa que provoca un efecto, y que cada efecto posee una
causa; de tal forma que el proceso de percepción involucra
a su vez cuatro etapas, conocidas como: formación de imágenes, establecimiento de sensaciones, esclarecimiento de
ideas y elaboración de conceptos. Estas etapas en conjunto
conducen al proceso de observación; de tal forma que la
observación es la utilización de los sentidos para la percep118
ción de hechos o fenómenos que nos rodean, o son de interés del investigador; la observación, permite abordar la totalidad de hechos existentes y concretos que rodean los fenómenos que se estudian. David Bohm, dice que la palabra
realidad está derivada de las raíces cosa y pensar; realidad,
por lo tanto, significa todo aquello en lo que se puede pensar; tal definición tiene la influencia de la física cuántica, que
está basada en la percepción de un nuevo orden en el universo.
Desde el punto de vista de la epistemología, existen tres
herramientas básicas para abordar a los hechos: observando, midiendo y experimentando. Lo cual puede realizarse
en una acción a la vez, o las tres de manera simultánea; esto
quiere decir que un fenómeno se está observando; por lo
que, la observación metódica y sistemática de los hechos,
permite a través del tiempo, generar información acerca de
su comportamiento; un hecho o fenómeno, podrá observarse en términos de fracciones de segundo, como en una
reacción química, o de manera perpetua, como en el movimiento de los planetas, o de alguna variable del clima; y la
disponibilidad de datos a su vez permite observar, medir o
experimentar en torno al fenómeno estudiado, todo en un
proceso dialéctico.
La Etapa Empírica para la Generación de Conocimiento
Científico
La etapa en la cual se está generando información referente a un hecho o fenómeno, se conoce como etapa empirica;
119
o de manera atinada, aquella etapa que proporciona experiencia; en esta etapa utilizamos como herramienta fundamental a la observación; resalta la importancia de la observación y su relación con la formulación de hipótesis. La observación se define como la utilización intencionada de nuestros sentidos para captar información; se considera que la
observación tiene un papel importante en la ciencia cuando
está guiada por una hipótesis, tal como lo mencionaba Claude
Bernard: todo el conocimiento humano se reduce a ascender de los
efectos observados, a su causa. Después de una observación, se presenta
al espíritu una idea relativa a la causa del fenómeno observado; luego
esta idea anticipada es introducida en un razonamiento en virtud del
cual se hacen experiencias para comprobarla; por el momento, es necesario hacer notar que la idea experimental no es arbitraria ni puramente imaginaria; debe tener siempre un punto de apoyo en la realidad
observada, es decir en la naturaleza. La hipótesis experimental, en
una palabra, debe estar siempre fundada en una observación anterior.
La observación científica se da a partir de la selección
de un fenómeno relevante de éste, mediante la guía del método científico; el evento que permite generar experiencia y
que está ampliamente relacionado con el de observación
puede ejemplificarse con la actividad de Tyge o Tico Brahe;
él nunca hizo grandes descubrimientos, salvo uno, que lo
convirtió en el padre de la astronomía moderna, fundada en
la observación; el descubrimiento estriba en que la astronomía tenía necesidad de datos observados, precisos y continuos. Tico, quien dedicó treinta y ocho años de su vida a la
observación del movimiento de los planetas.
Lichtenberg, afirmaba: que la observación y el conocimiento
del mundo son la base de todo, además hay que haber observado mu120
cho para poder usar las observaciones ajenas como si fueran propias,
de otro modo, sólo se leen y quedan en la memoria sin mezclarse con la
sangre. Hoy todos conocemos aquella teoría que nos dice
que el mecanismo de la evolución es la selección natural.
Charles Darwin y Alfred Wallace son sus creadores. Darwin
tuvo una gran ventaja al ser invitado a una expedición científica a América del Sur, en el famoso velero Beagle. Darwin
observó las grandes similitudes entre la flora y la fauna que
existían entre las comunidades bióticas de los continentes,
con aquellas comunidades de islas cercanas y dichos continentes; para Darwin, tales similitudes y diferencias tenían un
significado, una razón de ser. Con el apoyo de las obras de
Lyell y de Malthus, Darwin postula el mecanismo que rige el
proceso evolutivo de las formas de vida de nuestro planeta:
la selección natural. En ella se plantea que es el medio ambiente quien ejerce una fuerza adaptativa sobre los individuos, a la cual estos deben acostumbrarse, y por lo tanto
evolucionar. A diferencia de Darwin, Wallace realizó todas
sus observaciones en el Archipiélago Malayo, y de forma
separada postula el mismo mecanismo evolutivo para las
formas vivas existentes.
Tanto Darwin como Wallace utilizan a la observación
como herramienta principal para tener información; la
información anterior son ejemplos grandiosos que dejan
claro que la observación de los hechos constituye la etapa empírica para la generación de conocimiento científico, y puede ser en instantes o durante años. La observación de los hechos de la naturaleza aporta datos, producto de la medición de ciertos eventos, o por experimentación.
121
La Etapa Teórica para la Generación de Conocimiento
Científico
La siguiente etapa en la generación de conocimiento
es la etapa teórica. El investigador utiliza herramientas
tales como los principios, postulados, hipótesis y leyes;
aquí, el término hipótesis, deberá ser entendido desde
una doble perspectiva: a) como concepto y b) como enunciado o formulación; razón por la cual se requiere saber
cómo formular una hipótesis y cómo contrastarla; así sus
resultados pasan a formar parte de la etapa teórica de la
generación de conocimiento científico. La formulación
de cualquier hipótesis es sobre la base de determinados
hechos o fenómenos, que al conocerse generan datos de
su comportamiento; estos datos constituyen una descripción de la realidad; pero sin estos, carecemos de la materia inicial para tal formulación; ya que en la actualidad la
concepción de cómo se trabaja en la ciencia se conoce
como el modelo hipotético-deductivo, cuyo nombre se debe
a Hempel; y que con base en este enfoque se enlaza a la
teoría con la empiria.
La observación de la realidad conforma la gran experiencia que proporciona datos a partir de los cuales
se formulan las hipótesis, que contrastadas, contribuyen
a la creación de la teoría que sustenta o explica el comportamiento de cualquier hecho o fenómeno de la naturaleza. Es en esta fase cuando se genera conocimiento
científico.
122
La Formulación de Hipótesis
La formulación de cualquier hipótesis debe respetar
estándares establecidos por la epistemología. Las características para la formulación de hipótesis son:
a) No debe contener palabras ambiguas o no definidas
b) Los términos generales o abstractos deben ser
operacionalizables
c) Los términos abstractos, que no tienen referente
empírico, no son considerados
d) Los términos valorativos no se consideran por
no comprobarse objetivamente
e) Cuando sea posible, debe formularse en términos
cuantitativos
f) La forma sintáctica debe ser la de una proposición
simple; en ningún caso puede tener la forma de
interrogante o prescripción
g) La hipótesis causal o estadística debe considerar
sólo dos variables
h) Debe excluir tautologías
i) Debe evitar el uso de disyunciones; las que aparecen en proposiciones compuestas del tipo p o q,
donde p y q son proposiciones simples cualesquiera
j) Debe estar basada en el conocimiento científico ya
comprobado y tomarlo como punto de partida
123
k) Debe ser doblemente pertinente: en su referencia
al fenómeno real de investigación y en el apoyo
teórico que la sostiene
l) Debe referirse a aspectos de la realidad que no han
sido investigados aún, ya que un objetivo de la
actividad científica es la producción de nuevos
conocimientos
m)Una característica de la hipótesis científica es su
falibilidad; esto implica que una vez comprobada
puede perfeccionarse a través del tiempo
Los antecedentes modernos para la formulación de una
hipótesis están en la lógica matemática, y a la vez han sido
obtenidos de la lógica formal. La lógica tradicional se dedicaba a estudiar, desde el punto de vista formal, a los juicios,
los conceptos y los razonamientos; todas las formas
discursivas eran consideradas como modificaciones, bien del
juicio, bien del concepto o bien del razonamiento; por esta
razón, la hipótesis era comprendida por la lógica tradicional como forma específica del razonamiento o como juicio;
la hipótesis era estudiada en la sección de razonamientos
inductivos.
El juicio es un pensamiento en el que se afirma o se niega
algo de algo. El juicio tiene una estructura cuyos elementos
son: el sujeto; el predicado, y la cópula; tomando algunos
conceptos de la lógica matemática, se puede decir que la
forma sintáctica de una hipótesis es la de una proposición
simple. Las proposiciones son pensamientos en los que se
afirma algo, y que se expresan por ello mediante enunciados
u oraciones declarativas.
124
Las oraciones, se dividen en declarativas, imperativas,
interrogativas y exclamativas; reiterando, una proposición
es equivalente a una oración declarativa, y ésta será la forma
de redactar o formular una hipótesis, la cual tendrá sujeto:
la cosa de la que afirmamos o negamos algo; verbo: palabra
que en una oración, expresa la acción o el estado del sujeto;
predicado: lo que se afirma o niega del sujeto. Ejemplificando la redacción de algunas oraciones se tiene lo siguiente:
a) El universo está formado por átomos de hidrógeno
b) ¿Qué pasó con la iniciativa de reforestación?
En el ejemplo anterior, la oración es de mucha importancia por ser declarativa, ya que está afirmando algo que
puede ser falso o verdadero; sin embargo, una proposición
también se puede representar por una expresión matemática, como la siguiente: (x+y)2 =x2+2xy+y2; tal ecuación es
una proposición porque transmite algo que es verdadero;
entonces, sólo de las oraciones declarativas puede decirse
que transmiten una proposición, que por ser una afirmación, es verdadera o falsa; por lo que la formulación de cualquier hipótesis es equivalente a tener un enunciado que tiene
la presentación de una oración declarativa. El evento de formulación de las hipótesis permite plantear dos preguntas
básicas, antes de tener la redacción del enunciado:
a) ¿Cómo se originan las ideas básicas para su generación?, lo
cual lleva al contexto de descubrimiento, y, b) ¿Cómo se justifican?, lo
cual lleva al contexto de justificación; o en otras palabras,
cómo se comprueba la validez de una hipótesis; el contexto
de descubrimiento es el aspecto más relacionado con la formulación de las hipótesis, por lo que se debe saber cómo
125
llegar a una oración declarativa que se transforma en la hipótesis que guiará el trabajo de investigación. Este aspecto,
es la actividad más importante del trabajo científico, y se
realiza a través de la inducción; la inducción es un procedimiento del razonamiento que va de lo particular a lo general. Se parte de hechos particulares y se llega a conclusiones
generales acerca del tipo a que pertenecen los hechos particulares considerados.
¿Cómo se Formula cualquier Hipótesis?
Se tienen dos grandes vías a partir de las cuales se descubren hipótesis y por lo tanto se formulan o redactan: a partir de la razón y a partir de la experiencia, usando la inducción; en ambos casos es importante recalcar que el científico
ha tenido una etapa previa de observación y acumulación
de datos relacionados con el problema de la naturaleza que
está investigando; por lo que la tradición científica permite
desprender al menos cuatro procedimientos que llevan a la
formulación de hipótesis; se puede descubrir una hipótesis
a través de:
a) La información respecto a la observación de un
fenómeno es tan clara que conduce fácilmente a
una hipótesis
b) El científico tiene una serie de convicciones o prejuicios filosóficos, producto de una gran experiencia en torno al problema que aborda; lo cual lo
conduce fácilmente a una hipótesis
126
c) Un sueño en torno al problema de interés sugiere
una hipótesis y su redacción correspondiente
d) Una analogía, con relación al problema de interés
podrá conducir a la hipótesis buscada
En la construcción de una hipótesis ocupa un lugar la
formulación de la idea nueva, que hace las veces de proposición; la aparición de nuevas ideas es condición indispensable para la construcción de hipótesis; pero de ideas nuevas,
insólitas, que permitan edificar el sistema de conocimiento
sobre otra base, distinta por principio de las anteriores; sólo
a base de una idea nueva, como principio fundamental, se
crea una hipótesis.
¿Cómo iniciamos la formulación de cualquier hipótesis? La respuesta es sencilla: a) después de conocer los hechos, b) después de estar bien documentado en torno a los hechos que
nos interesen, y c) después de entender que para llegar al
punto b, podrán pasar varios años de observación y/o documentación. Sólo entonces, es posible formular alguna hipótesis.
¿Para qué Sirve una Hipótesis?
La formulación de cualquier hipótesis inicia con el análisis de los hechos; la hipótesis deberá explicar estos hechos;
cualquier hipótesis, se plantea con la finalidad de explicar
los hechos conocidos y pronosticar los desconocidos. Karl
Popper, afirma que mientras más fuerte sea la capacidad
lógica de una hipótesis, más fácil será de comprobar; enton-
127
ces, una hipótesis se constituye como la conclusión de un
razonamiento con cierta probabilidad o verosimilitud, que
se obtiene al estar analizando-sintetizando, en torno a los hechos o fenómenos, y en su formulación inducimos-deducimos a
partir de las observaciones respecto a tales hechos o fenómenos. La característica de la hipótesis radica en que
sistematiza el conocimiento científico, integrando un sistema de abstracciones de la realidad que se observa. En la
hipótesis, es una proposición lo que viene a ser el punto de
atracción de todo ese sistema de conocimientos y hacia la
cual convergen todos los restantes juicios. Los juicios que
integran la hipótesis argumentan esta proposición o se derivan de ella, es decir, conducen a ella, se infieren o se derivan
de esta.
La hipótesis es la forma de desarrollo del conocimiento
científico pero no por ser un juicio-proposición. La proposición por si sola, tomada aisladamente, no desarrolla el conocimiento acerca del objeto; cumple su función sólo si está
relacionada con el conocimiento anterior, de veracidad admitida, y con las conclusiones que de él se infieren. En la
hipótesis hay juicios fidedignos; una hipótesis privada de
todo conocimiento verídico y demostrado, carece de valor
científico; el conocimiento fidedigno constituye la base, el
fundamento; toda proposición tiene valor si está basada en
hechos y leyes sólidamente establecidas.
La hipótesis por su esencia, comprende juicios problemáticos, es decir, juicios cuya veracidad o falsedad no ha
sido demostrada aún; estos juicios problemáticos no han de
ser conjeturas arbitrarias, su probabilidad debe estar argumentada por conocimientos anteriores ya demostrados; una
128
hipótesis formada por proposiciones arbitrarias no deja ninguna huella importante en la ciencia. Una hipótesis de este
género no constituye una verdad objetiva. La hipótesis científica verdadera incluye una proposición que puede ser refutada, pero que posee, además una serie de juicios verídicos
que en el curso del desarrollo científico no sólo pasan de
una hipótesis a otra, sino que se van haciendo más completos. El juicio-proposición, en la hipótesis científica debe estar
argumentado con suficiente grado de probabilidad.
Si en los siglos XVII y XVIII los científicos miraban con
recelo a la hipótesis, pues consideraban que el pensamiento
verídico podía y debía evitarla de alguna manera, a fines del
siglo XIX y en el XX, comprendieron en cambio, que el
conocimiento se desarrolla por medio de esta. En el siglo
XXI es poco probable que un científico niegue la importancia de la hipótesis en el conocimiento. En la doctrina de la
hipótesis, lo principal no es ya el saber si desempeña un papel esencial en el conocimiento del mundo, sino lo que representa como forma de conocimiento científico, cuál es su
relación con el mundo objetivo y qué carácter tiene el conocimiento en ella contenido.
El Concepto de Hipótesis Científica
Existen varias definiciones que ayudan a establecer el
concepto de hipótesis. Etimológicamente es una explicación
supuesta que está bajo ciertos hechos a los que sirve de soporte; una definición que transmite el concepto de hipótesis, utilizando la información o datos de que dispone el in129
vestigador es la siguiente: un conjunto de datos que describen a un problema, donde se propone una reflexión y/o
explicación que plantea la solución a dicho problema.
Hipótesis: hipo = bajo, thesis = posición o situación
Etimológicamente es una explicación supuesta que está
bajo ciertos hechos a los que sirve de soporte, de esta manera:
a) Es una suposición que permite establecer relaciones entre hechos.
b) Es una afirmación sujeta a confirmación.
c) Es una explicación provisional del problema.
d) Es una solución teórica o tentativa del problema
e) Es una relación entre dos o más variables para
describir o explicar un problema
f) Es un raciocinio o una conclusión según la cual un
determinado conjunto de fenómenos, cuyo pensamiento forma el predicado del juicio
g) Es un juicio problemático mediatizado sobre el
vínculo sujeto a las leyes de los fenómenos, que se
obtiene como deducción de un raciocinio de probabilidad
h) Es una suposición acerca de la existencia de una
entidad, la cual permite la explicación de los fenómenos o del fenómeno estudiado
i) Es aquella formulación que se apoya en un sistema
de conocimientos organizados y sistematizados, y
que establece una relación entre dos o más varia130
bles para explicar y predecir en la medida de lo
posible, aquellos fenómenos de una parcela determinada de la realidad en caso de comprobarse la
relación establecida
j) Conjunto de datos que describen a un problema,
donde se propone una reflexión y/o explicación
que plantea la solución a dicho problema
k) Enunciado o proposición que sirve de antecedente para explicar cómo se produce un fenómeno o
conjunto de fenómenos relacionados entre sí
El concepto que se ajusta, porque utiliza la información
de la lógica matemática, es: aquel enunciado o proposición
que sirve como antecedente para explicar porqué o cómo
se produce un fenómeno o conjunto de fenómenos relacionados entre sí.
El Concepto de Hipótesis de Trabajo
Sin embargo entre los investigadores hay la tendencia a
considerar a la hipótesis tan sólo como una estructura de
trabajo, carente de todo contenido objetivo; algunos llegan
a declarar que todas las hipótesis son ficciones que sólo tienen valor práctico, pero que no reflejan de ningún modo el
mundo objetivo. El concepto de hipótesis de trabajo se introdujo para diferenciar el valor cognoscitivo de las diversas clases de hipótesis; suele calificarse de hipótesis de trabajo a las primeras explicaciones del fenómeno; cuando se
construye una hipótesis de trabajo lo importante no es que
explique el proceso, sino que proporcione datos que permi131
tan seguir analizando este proceso, que le ayude a encausar
el pensamiento hacia un estudio más detallado y profundo
del objeto observado. La hipótesis de trabajo es una estructura provisional, una de las armas necesarias del investigador, que puede admitirse y desecharse en consonancia con
las necesidades que presente la investigación del objeto.
Para que el proceso del descubrimiento y la descripción
de los fenómenos tengan carácter consciente, es preciso que
se atenga a una idea rectora y este es el papel, que en algunos
casos, cumple la hipótesis inicial; una vez construida esta
hipótesis, el investigador busca los hechos y los fenómenos
que han de existir si el contenido de la hipótesis corresponde a la realidad; pero si estos hechos no se demuestran y, en
cambio, se encuentran hechos que contradicen la hipótesis,
el investigador construye una hipótesis de trabajo. La finalidad de la hipótesis de trabajo es auxiliar, debe ayudar al
investigador a la acumulación de los datos y a su conocimiento previo.
La hipótesis de trabajo es una de las primeras suposiciones que se hacen al principio de la investigación científica; se
convierte en hipótesis real o científica después de su precisión, y sirve para explicar todos los hechos compilados de
la realidad, hechos que pretende demostrar; a manera de
reflexión en torno a la formulación de una hipótesis científica:
a) Es posible formular una hipótesis cuando se ha
tenido un período exhaustivo de observación y/
o documentación de determinado hecho o fenómeno
132
b) La formulación y posterior comprobación de alguna hipótesis, es un proceso que permite generar
conocimiento científico, el cual conforma la etapa
teórica de dicho proceso
c) Es necesario tener claridad respecto a la etapa de
trabajo en la cual se desempeña cada investigador,
ya sea, que esté desarrollando observaciones o que
las utilice para formular hipótesis
Prueba de Hipótesis y Error Estándar
El error estándar, es la medida con la cual se comparan
los resultados de los experimentos; de manera que para establecer si existe alguna diferencia entre las medias de grupos experimentales, se calcula el error estándar de las diferencias entre medias y se compara la diferencia obtenida con
dicho error; si excede demasiado del error estándar se establece que es una diferencia significativa. Puede aplicarse un
razonamiento similar a cualquier operación estadística; de
este modo hay varios errores estándar: de coeficientes de
correlación, de diferencias entre medias, de medias, de medianas, de proporciones y otros más.
En la literatura estadística aparecen con frecuencia diferencias estadísticas, en especial entre medias que se han sometido a prueba. El investigador tiene que emplear un criterio experto basados en conocimientos firmes, y hacer un
examen cuidadoso de la magnitud de la escala, el tamaño de
la muestra, pues cuanto mayor sea N, mayor será la probabilidad de significación estadística, la naturaleza de la varia133
ble y las circunstancias del estudio; en casi todos los casos, el
investigador debe asumir una actitud escéptica aun ante diferencias pequeñísimas, incluso si son estadísticamente significativas. En las revistas de investigación, con frecuencia
aparecen coeficientes de correlación; teóricamente la r debe
acercarse a cero entre conjuntos de números aleatorios; es
necesario evaluarla significación de los coeficientes de correlación, así como medias y deferencias, mediante la comparación con sus respectivos errores estándar. Las r, a semejanza de otros estadígrafos, deben ser sometidas a pruebas
para confirmar su significación estadística.
La finalidad básica de la estadística inferencial en la investigación, es someter a prueba las hipótesis de investigación, por medio de la prueba de hipótesis estadística; en
términos generales el científico usa dos tipos de hipótesis: la
substantiva y la estadística; la primera es el tipo normal de
hipótesis por la cual se crea una conjetura de la relación entre dos o más variables, como: cuanto mayor sea la cohesión de un grupo, mayor será su influencia entre sus miembros; la teoría del investigador enuncia que hay relación entre una variable y la otra; el enunciado de la relación es una
hipótesis substantiva.
En sentido estricto, la hipótesis sustantiva en sí no puede ser sometida a prueba; tiene que ser traducida a términos
operacionales y experimentales. Una forma de someter a
prueba las hipótesis substantivas es por medio de una hipótesis estadística, que es una proposición conjetural, en términos de relaciones estadísticas deducidas de las relaciones
de la hipótesis substantiva; la hipótesis estadística expresa
un aspecto de la hipótesis substantiva original, en términos
134
cuantitativos y estadísticos; la hipótesis estadística intenta
predecir cuál será el resultado cuantitativo de los estadígrafos
utilizados en el análisis de los datos de un problema de investigación, sin embargo, las hipótesis estadísticas deben ser
sometidas a prueba, comparándolas con algo; se ha de someter a prueba, comparándola con otra proposición o alternativa. La alternativa que suelo elegirse es la hipótesis de
nulidad, término creado por Sir Ronald Fisher, para denotar una proposición que declara esencialmente, que no existe relación entre las variables del problema.
Fisher señala: podemos decir que todo experimento se hace y
existe para que los hechos tengan una oportunidad de refutar la hipótesis de nulidad; lo cual es una afirmación perfectamente válida.
La hipótesis de nulidad o nula es una forma concreta y sucinta para expresar el hecho de haber sometido a verificación los datos obtenidos, contra la expectativa por azar y
expresa a esta última; el error estándares un instrumento
que se emplea para someter a verificación la hipótesis de
nulidad; siempre habrá errores por azar y en las investigaciones contribuyen en grado importante a la varianza total.
Los errores estándar son las medidas del error señalado
y se emplean como una especie de patrón con el cual se compara la varianza o experimental. El error estándar es la desviación estándar que la distribución de cualquier medida dada
tiene dentro de la muestra, en casi todos los casos se desconocen los valores de la población o del universo y deben
calcularse con base en medidas de la muestra; la fórmula
correspondiente al error estándar de la media, recibe el nombre de error de muestreo; en la misma forma en que la desviación estándar es una medida de la dispersión, el error
135
estándar de la media es una medida de la dispersión de la
distribución de medias de las muestras; una de las estrategias más frecuentes en la investigación es comparar las medias de las muestras; a partir de las diferencias en las medias podemos inferir los efectos de las variables independientes.
El teorema del límite central también rige a toda combinación lineal de medias, esto es, las diferencias de las medias
seguirán una distribución normal. El error estándar de las
diferencias entre las medias es una estimación de la dispersión de estas diferencias; es casi imposible imaginar la metodología de la investigación moderna ni las estadísticas modernas, sin el concepto de error estándar; gran parte de la
inferencia estadística gira alrededor de una familia de fracciones resumidas por la fracción: estadígrafo/error estándar del
estadígrafo.
Inferir es derivar o deducir una conclusión de premisas
o de hechos concretos; inferir estadísticamente es derivar
conclusiones probabilísticas, a partir de premisas
probabilísticas; se llega a conclusiones probabilísticamente,
esto es, a un nivel estadístico de significación; inferimos sobre bases probabilísticas si un resultado de experimentación se desvía de lo que cabría esperar por acción del azar,
si la hipótesis de nulidad no es verdadera, esto es, que actúa
una influencia real. La estadística permite al científico someter a verificación las hipótesis substantivas de manera indirecta al permitirle que ponga a prueba directamente las hipótesis estadísticas; en este proceso usa la hipótesis de nulidad que es una afirmación que se haría sobre la base del
azar.
136
Las Hipótesis y los Experimentos
No hay término científico que padezca mayor ambigüedad que la que aflige a la hipótesis: las hipótesis no son seguras, ni rápidamente solventables, su fuerza no reside en ser
decisivas, sino precisas, cosa que está vinculada al marco
dentro del cual se las formula; probablemente el enunciado
más conocido acerca de estas es el de Newton, aquel en que
pretendía no fingirlas: hipótesis non fingo, enunciado acerca
de cuyo sentido se sigue disputando, y quiere decir simplemente no hace hipótesis. Se entiende que una hipótesis es
una propuesta de que se admita como verdadero algo, y en
este sentido se encuentra teñida de provisionalidad; cabría
distinguir entre dos géneros de hipótesis denominadas hipótesis fácticas e hipótesis ideales.
Existen varios puntos de vista distintos: las hipótesis son
generalizaciones provenientes de la experiencia, es decir, toda
hipótesis sería una afirmación resumida que generalizaría
todo un conjunto de observaciones, apoyándose en algún
rasgo o relación que se hubiese advertido que era invariante
dentro de tal conjunto; otro punto de vista, es que las hipótesis son inferencias deductivas que realizamos a partir de
premisas de orden superior; se puede considerar cierta hipótesis como una ejemplificación de principio de orden superior o enunciado teorético, como una inferencia deductiva
a través de cierta premisa menor que conectase el principio
general con algún caso o ejemplo, y a estas hipótesis se les
denomina hipótesis ejemplificadora.
Las hipótesis son postulados creados por la inteligencia
para poder ordenar o derivar de ellos otros enunciados, este
137
punto de vista permite establecer que la función de estas
hipótesis sea, sistemática en lo formal y fértil en lo empírico
al hacer pensar en nuevas consecuencias fácticas; otro punto
de vista, es que las hipótesis son intuiciones referentes a lo
que parezca evidente o ineludible de creer, o bien a los que
se presente como plausible de alguna manera vaga pero insistente; también varía el alcance de las hipótesis, pues el
grado de generalidad que tengan es una medida de sus diferencias de alcance. Todos estos enfoques, concuerdan en
general en que las hipótesis se encuentran dentro del dominio del pensamiento científico.
Para definir hipótesis hay que coordinarla con el término de experimento: será un enunciado de un grado cualquiera de generalidad cuya validación o justificación esté
relacionada de una manera especificable con el método experimental de contrastación. El concepto mismo de experimento entraña una observación deliberada y controlada cuya
pertinencia e importancia estén parcialmente determinadas
por la hipótesis que se suponga se pone a prueba y que se
encuentre determinada, además por un marco más amplio:
el del sistema total de teorías que proporcionen bases para
interpretar los resultados experimentales; así como experimento caracteriza los aspectos empíricos de la ciencia y define la referencia concreta de una hipótesis dada; hipótesis
delimita de antemano lo científicamente pertinente de un
experimento cualquiera, la gama de su referencia significativa; así pues, el experimento es una observación controlada
o regida por un marco de las hipótesis científicas.
El lenguaje de observación, las medidas, la teoría que lo
encuadre, los instrumentos de que se disponga y que se se138
pan pertinentes, así como el decisivo aspecto de las expectativas del observador, son lo que rige y controla el experimento; se pueden enumerar varios tipos de controles: el sistema de medidas, existen varias formas por ordenar por
medio de medidas, la clasificación con arreglo a un esquema
clasificatorio, la ordenación de cualidades por grados siguiendo un esquema ordinal y la medida cuantitativa, que se apoya en deferencias de grado de cierta magnitud unitaria, y en
la invariancia de razones descubierta al efectuar tal ordenación. La medida cuantitativa asigna un número a una diferencia de grado de una magnitud, generando un sistema de
números concretos o dimensionales, pero la medida tiene
lugar de una cualquiera de estas formas; así, la determinación cualitativa de las propiedades de las cosas desempeña
un papel en el laboratorio antes de que empiecen a asignarse
números.
La cuestión de qué es lo que haya de medirse y dentro de
qué límites de precisión o error, excede el ámbito de las
cuestiones prácticas, pues cuando el lenguaje de las hipótesis es matemático, los hallazgos pertinentes pueden traducirse
al lenguaje de los números con lo cual valen para confirmar
o refutar ciertos enunciados matemáticos que serán consecuencia de la hipótesis de que se trate; con relación al marco
teorético, este marco tiene una vinculación con el sistema de
medida que se emplee, en efecto toda teoría, o se encuentra
ya montada con los términos de un lenguaje de medidas, o
es interpretable experimentalmente mediante tal lenguaje;
pero en un sentido más amplio, de carácter conceptual, toda
teoría es un aparato destinado a delimitar lo que sea pertinente en la experimentación. Todo experimento es una abs139
tracción de ciertos rasgos, y sólo ellos, tomados de la totalidad del campo de lo observable y mensurable.
El instrumental, este factor entra en la delimitación y
control de la observación experimental; se puede decir que
el instrumental encarna un sistema de medida, representando en un material palpable y en una técnica cierta estructura
conceptual en la que las magnitudes guardan entre sí una
ordenación teórica y en la que se fijan ciertos números concretos dentro de una red deductiva teórica. El instrumento
hace medibles ciertas propiedades que amplían la gama, la
precisión y la estabilidad de las observaciones; nuestro sentidos son también instrumentos de medida y sumamente
perfeccionados para ciertos usos, pero en lo que se refiere a
las magnitudes de la ciencia cuantitativa, la invención humana ha ampliado nuestras percepciones valiéndose de medios
físicos: la variación subjetiva de la percepción queda reducida radicalmente mediante instrumentos con un grado de
precisión elevado, y cuya normalización introduce una uniformidad imposible de lograr en la percepción corriente.
Pero no existen instrumentos infinitos: todo instrumento mide dentro de unos límites finitos de precisión, gama y
estabilidad, cosa que impone unos confines a los resultados
pertinentes obtenidos por experimentación, en cambio cuando se la concibe, una magnitud cualquiera expresada matemáticamente no es aproximada. Aproximado es un término que se introduce sólo al convertir unas magnitudes matemáticas en magnitudes medidas: es la medida la que fuerza a
la aproximación, pues la gama de números reales que las
matemáticas ponen a nuestra disposición no tiene límite alguno de precisión: la magnitud número, en su expresión
140
matemática, es infinitamente divisible hasta el extremo
de que hay más números reales, que nombres correspondientes a ellos; de modo que allí donde el número es continuo en este sentido, la medida es discontinua: sobrepasado cierto punto, una magnitud medida sólo puede proporcionarnos un valor aproximado al de una expresión
matemática.
En los procesos clásicos de medida los de cosas de
tamaño medio, los instrumentos también entran en
interacción con lo que se mida, pero sabemos como compensar la distorsión debida a ello o ésta es de magnitud
insignificante; en cualquier situación experimental contrastamos tanto el instrumento como cierta hipótesis con objeto de cerciorarnos de los límites de su precisión, y los
resultados que obtenemos se encuentran siempre
enmarcados por los límites de medida impuestos por el
instrumento que empleemos.
Con relación al observador, tenemos que, un punto de
vista típico acerca de los experimentos científicos y de las
tareas científicas en general es el que sostiene que en el caso
ideal el observador queda eliminado como factor variable;
es evidente que se requiere su presencia, así como su interpretación de los resultados experimentales. El observador
ideal sería pues, un observador patrón cuya presencia podría tomarse como una constante que no afectaría los resultados y constituiría, una presencia transparente en el
transfondo; los medios de alcanzar semejante ideal en las
tareas experimentales pueden caracterizarse como las condiciones epistemológicas de la objetividad científica, y la
principal de tales condiciones es que los resultados experi141
mentales sean reproducibles de una manera normal y prefijada, siempre la misma, de modo que pueda llegarse a un
consenso entre distintos observadores.
Con relación a los tipos de experimentos, observamos
que en cada uno de los aspectos de la experimentación, como
son: los referentes, respectivamente, al sistema de medida,
al marco de teorías e hipótesis, a los instrumentos y al observador, estos son decisivos para la interpretación del marco teorético e hipoteorético y el mundo experimental mismo; pero todo esto constituye los fundamentos de la función de los experimentos; con frecuencia, cuando se impone un sistema previo al análisis de los métodos experimentales empleados, se llega a una caracterización de esta función, que tiende a destacar una sola de todas las que posee
como la esencial; sería mejor hablar de las funciones de los
experimentos y distinguir entre la experimentación que atañe a la contrastación y confirmación de hipótesis y aquella
cuya función es la de descubrir. En los experimentos de descubrimiento o de sondeo, lo que se intenta es descubrir un
valor, no confirmar uno que se hubiera predicho.
Con relación a los experimentos para contrastar las consecuencias de hipótesis, lo más frecuente es que la
contrastación de las consecuencias de hipótesis se tome como
modelo de la finalidad de los experimentos. Un experimento mixto es uno en el cual el descubrimiento de ciertas propiedades lleva a incluirlas en algún marco sistemático ya establecido, el de una teoría, o sea, aquel en el que se hace ver
de qué manera la predicción de las propiedades que se acaben de descubrir pueden obtenerse deductivamente, dentro
de un marco hipotético-deductivo; así pues los experimentos
142
mixtos son aquellos en los que el descubrimiento de ciertas
propiedades aún no conocidas o predichas lleva a una clasificación que revela una relación sistemática entre ella y otros
problemas, de este modo queda confirmada una hipótesis
que aún no se habrá sometido a contraste, y la propiedad
recién descubierta encuentra un lugar dentro del esquema
hipotético correspondiente. La ciencia es una unidad coherente y orgánica, de la cual las hipótesis y los experimentos
son aspectos complementarios.
La Explicación como Producto Lógico
Cada acto de explicación científica implica poner en juego inferencias, conceptos, datos empíricos y una serie de
procesos que darán como producto, enunciados o proposiciones sujetas a procedimientos de validación. El empirismo
lógico asumió que puede considerarse como lenguaje con
sentido el que contiene enunciados empíricamente
verificables y que en esta resulten verdaderos. Wittgenstein,
sostiene que la estructura del lenguaje muestra la estructura
del mundo posible, y que fuera de esta los enunciados no
tienen sentido; acuerdan con los racionalistas en la existencia de conocimiento necesario, no reductible a la experiencia sensible, pero afirman que este conocimiento no dice
nada sobre la naturaleza de las cosas; de tal manera, las verdades necesarias son lingüísticas y, convencionales.
Una alternativa al empirismo fue el pragmatismo, para
el cual la reducibilidad a términos empíricos carece de importancia, poniendo énfasis en los procedimientos por los
que el sujeto fija o cambia sus creencias, y en el origen de los
143
significados asignados al fenómeno; a diferencia del
empirismo, en el que los términos teóricos no tienen verdad en sí, admite la validez de los conceptos y términos en
que se expresa, preguntándose cómo se establecen sus significados; una de las diferencias radica en que se confiere al
lenguaje teórico un status distinto o concibe la idea de comprensión del lenguaje en su sistema de relaciones, en lugar
de asimilar el lenguaje de la representación con el lenguaje
de la percepción. Para el pragmatismo, las teorías científicas expresan, en términos de representaciones, un potencial de acción sobre lo que se asume como real; de tal manera, una teoría será verdadera en tanto dé cuenta de los
vínculos establecidos entre los hombres y sus sistemas de
objetos; o también, satisfagan los objetivos de sus acciones.
En el marco del pragmatismo, el concepto de praxis
adquiere significativa importancia al fundar el conocimiento, concibiéndolo como fuente de toda ponderación o
denotación del fenómeno. En estos términos, la praxis se
construye, tanto de las imágenes percibidas como seres vivientes, como las del mundo de la cultura; una explicación
científica puede ser conceptualizada desde cualquiera de las
perspectivas nominadas, pero las diferencias el acto de explicar, y desde allí, en el status de dicha explicación.
La Explicación Científica: Leyes y Teorías
El concepto de explicación y el de entender presentan
problemas fundamentales que se encuentran en la propia base
144
del conocimiento humano, y cualquier intento de ocuparse
de la explicación científica en el que se eluda esta compleja
cuestión presupone que el sentido del término explicación
constituye de un modo primario e indefinible, una propiedad común de la comunidad hablante y pensante; por tanto
lo más que puede hacerse es presentar paradigmas de lo que
significa explicar algo y trabajar a partir del consenso, tácito
o explícito, de que estos paradigmas se entienden. Si el sistema de la ciencia es un medio de explicar lo que se entiende,
el análisis de los fundamentos conceptuales del pensamiento científico, es un intento de entender la ciencia misma o de
llegar a entender lo que es el entender científico. El problema de la explicación no es en absoluto problema profundo
alguno, lo que hay que hacer es mostrar cómo se relacionan
los paradigmas de la explicación de sentido común. El concepto de explicación científica no puede entenderse a base
de reducirlo de algún modo a un significado primario del
explicar y el entender: no existe tal significado primario aparte
de la reconstrucción teorética de los hechos del entendimiento o de la práctica de la explicación: a la filosofía de la ciencia le corresponde la tarea adicional de explicar el concepto
mismo de explicación científica, de ver en lo que la ciencia
entiende, las mismas características que constituyen las condiciones para que haya un entender científico; la investigación reflexiva requiere algo más que un mero examen de
casos de explicación científica, como si se tratase de objetos
externos de investigación y constituye un examen de la investigación misma: la tarea aparentemente paradójica y que
se refiere a sí misma, de entender el entender y explicar la
explicación.
145
Aprender algo significa, conseguir uno u otro tipo de
actuación aprobada o llegara entender el marco cuyas razones permitan comprender la aprobación; el llegar a entender pudiera no significar, más que adquirir cierta destreza
perceptivomotora, o hábito y pudiera significar adquirir
todo lo que se requiera para la justificación teorética o conceptual de determinada cosa. Se puede decir que se aprende
en varios sentidos:
a) Aprendiendo a actuar de acuerdo con una norma
mediante el ejemplo y la práctica
b) Aprendiendo a entender por qué algo constituye
una actuación adecuada sobre la base de entender
la relación entre la norma y algún caso particular
de esta
Las relaciones entre aprender, entender y explicar constituye el marco en el que consideramos los distintos tipos de
explicación. En los tipos precientíficos de explicación, cabe
hacer las distinciones siguientes:
1) Reglas; las reglas son instrucciones prescriptas o
reguladoras en cuanto a la actuación correcta a
desarrollar, estas pueden darse mediante ejemplos,
mostrando el paradigma o caso que sirve de modelo o criticando una actuación
2) Leyes; la noción de ley se encuentra estrechamente ligada al apartado uno, pero con la salvedad de
que tales leyes se toman como generalizaciones
empíricas de tipo descriptivo
146
3) Teorías; las teorías metafísicas aducen algún principio general y abstracto desprovisto de alusiones
antropomórficas, así el principio en función en
función de la cual se decía que estaba ordenada la
gran variedad de la naturaleza era el logos, y cuando tales principios metafísicos se interpretaron en
términos físicos, se dijo que la gran variedad de
fenómenos era reducible a combinaciones de los
cuatro elementos: tierra, aire, fuego y agua
En las teorías metafísicas y físicas de este tipo, al igual
que en las teorías antropomórficas o mitipoéticas, se da la
explicación en función de una entidad, sustancia o principio,
de cuya naturaleza pueden deducirse manifestaciones individuales. La explicación que se da es una razón distinta en
cada uno de estos casos: la regla dice cómo se debiera actuar basándose en cierta razón, que propiedades de algún
suceso natural, y también se observa que las leyes que valen
para ordenar los acontecimientos naturales se explican en
virtud de la naturaleza de estas entidades. Las leyes serían las
reglas o pautas de comportamiento de tales entidades se
expresa implícitamente en forma de caso ejemplar o explícitamente en forma de precepto; en los casos en que los que
la ciencia es una actividad, el papel que tales reglas desempeñan en la explicación queda claro: proporcionan normas
para realizar las observaciones adecuadas, reunir las pruebas adecuadas, emplear las técnicas experimentales adecuadas, realizar las inferencias inductivas adecuadas, dar la forma adecuada a las representaciones deductivas o formales
de las relaciones entre los hechos y hacer las hipótesis adecuadas; en este sentido, las reglas no explican los procesos
147
naturales ni las cuestiones de hecho, pero explican por qué
de debe admitir o aprobar las conclusiones de la investigación científica, y sirven también de guía de conducta en cuanto
a tales investigaciones. Tales reglas proporcionan los criterios de los que se considerará como explicación adecuada:
son explicaciones de la explicación, o normas acerca de lo
que constituiría las condiciones para que haya explicación
científica.
Toda ley expresa una relación de invariancia entre todos
los miembros de una clase dada, y esta relación puede darse
en forma de condición universal, o en forma de condicional
subjuntivo o contrafáctico: Para cualquier x, si ocurriera que
Fx, ocurriría que Gx. Un enunciado legaliforme es la expresión de una ley de la naturaleza si es, de hecho cierto en cualesquiera casos subsumidos en la ley. Toda ley científica es
un enunciado del que no se sabe si es cierto en todos los
casos, pero tal que haya motivos para creerlo racional o
justificadamente; el punto de vista realista acerca de las leyes
es realista en el sentido técnico que este término tiene en
epistemología y en ontología: según él toda ley es universal,
y las relaciones de invariancia que expresa existen en la naturaleza, independientemente de si se conocen o no y de las
condiciones en que se conozcan. El conocimiento de este
universal, es por tanto un descubrimiento del mismo, y la
creencia de que tal ley universal existe de hecho, está justificada por la validez del presunto conocimiento sobre la base
de ciertas normas; en este sentido, las leyes que prevalecen
en cualquier etapa de la ciencia expresan creencias justificadas acerca de las leyes de la naturaleza o acerca de la verdad
de las proposiciones que sirvan para expresarlas.
148
La postura realista acerca de las leyes supone, que hay
enunciados ciertos que son expresión suya, y que las leyes
científicas se aproximan constantemente, conforme van eliminándose posibles hipótesis o conforme aumenta el número de elementos de juicio y progresan la crítica y el refinamiento de los métodos; mientras que el realista supone,
que las leyes de la naturaleza existen en realidad, el nominalista
impugna la opinión de que los universales existan en absoluto; la distinción de nombres proviene de una controversia
filosófica medieval acerca de la naturaleza de los universales, en la que los realistas mantenían que universalia sunt
realia, o sea que los universales son reales, y los nominalistas
arguían que universalia sunt nomina, o sea los universales
son nombre.
Explicación y Empirismo
Es imposible una concepción formal de la reducción y
la explicación para las teorías generales, o como se las denomina teorías no-instanciales; en particular, se muestra que
donde tales teorías desempeñan un papel decisivo, tanto la
teoría de la reducción como la teoría de la explicación de
Hempel y Oppenheim se alejan de la práctica científica real
y de un empirismo razonable. Lo que ocurre cuando se pasa
de una teoría T* a una teoría T más amplia es algo mucho
más radical que la incorporación al contexto de T, de la teoría T* inalterada, esto es, inalterada respecto a los significados de sus principales términos descriptivos, así como respecto a los significados de los términos de su lenguaje
observacional. Lo que tiene lugar es una sustitución de la
149
ontología de T* por la ontología de T, y el correspondiente
cambio de los significados de los elementos descriptivos
del formalismo de T*; dicha sustitución afecta no sólo a los
términos teóricos de T*, sino también, a algunos de los términos observacionales que aparecen en sus enunciados
contrastantes. Es decir, no sólo aparecerán infiltradas descripciones de cosas y procesos en el dominio en el que T* ha
sido aplicada, bien sea con el formalismo y los términos de
T o bien, si los términos de T* aún se utilizan, con los significados de los términos de T, sino que las sentencias que
expresan lo accesible a la observación directa dentro de este
dominio significarán ahora algo diferente; introducir una
nueva teoría implica cambios de perspectiva tanto respecto
a los rasgos observables como a los rasgos no observables
del mundo, y cambios correspondientes en el significado de
los términos del lenguaje empleado.
La teoría de la reducción de Nagel se basa en dos supuestos: el primer supuesto concierne a la relación entre la
ciencia secundaria, la disciplina a reducir, por un lado y la
ciencia primaria, la disciplina a la que se practica la reducción, por el otro. Según Ángel: el objetivo de la reducción es mostrar que las leyes o los principios generales dela ciencia secundaria, son
simplemente consecuencias lógicas de los supuestos de la ciencia primaria. El segundo supuesto concierne a la relación entre los
significados de los términos descriptivos primitivos de la
ciencia secundaria y los significados de los términos descriptivos primitivos de la ciencia primaria; se afirma que los
primeros no serán afectados por el proceso de reducción.
Este segundo supuesto es una consecuencia inmediata de,
dado que se supone que una derivación no influye en los
150
significados de los enunciados derivativos; sin embargo
Nagel manifiesta: es de la máxima importancia observar que las
expresiones peculiares de una ciencia poseen significados que se fijan
por sus propios procedimientos, y son por tanto inteligibles en términos
de sus propias reglas de uso, haya o no haya sido reducida la ciencia, o
lo sea alguna vez, a otras disciplinas. Por tanto, los significados
son invariantes respecto al proceso de reducción. Dos supuestos, muy similares juegan un papel decisivo en la teoría
de la explicación, la cual puede ser considerada como una
elaboración de sugerencias que fueron hechas anteriormente, por Popper; el primer supuesto concierne de nuevo a la
relación entre el explicándum, o los hechos a explicar, por
un lado y el explanans, la disciplina que funciona como base
de la explicación; se requiere que esta relación es la relación
de deducibilidad.
El explicandum debe ser una consecuencia lógica del
explanans, en otras palabras el explicándum debe ser lógicamente deducible de la información contenida en el
explanans, puesto que de otro modo el explanans no constituiría un fundamento adecuado para la explicación. Los
significados son invariantes respecto al proceso de explicación.
No es difícil observar que en lo que se refiere a los términos observacionales, es consistente con el positivismo
inicial del Círculo de Viena; su tesis, que todos los términos
descriptivos de una teoría científica pueden ser definidos
explícitamente en términos de observación, garantiza la estabilidad de los significados de los términos observacionales.
El empirismo lógico ha sido ampliamente modificado; los
cambios que tuvieron lugar fueron de dos tipos: por una
151
parte se introdujeron nuevas ideas concernientes a la relación entre términos observacionales y términos teóricos;
por otra parte los supuestos sobre el lenguaje observacional
mismo fueron modificados; los primeros positivistas asumieron que los términos observacionales hacen referencia a
impresiones subjetivas, sensaciones y percepciones de un ser
sentiente; el fiscalismo sostuvo durante algún tiempo la idea
de que una teoría científica debe basarse en experiencias, y
que sus constituyentes últimos son sensaciones, impresiones
y percepciones. Posteriormente se dio una explicación
conductista de estas percepciones para hacerlas accesibles a
la contrastación intersubjetiva; de acuerdo con Popper, debemos distinguir entre ciencia objetiva, por un lado y nuestro conocimiento por el otro; se concede que podemos llegar a ser conscientes de los hechos sólo mediante la observación, pero se niega que eso implique una interpretación
de las sentencias observacionales en términos de experiencia, tanto si éstas se explican subjetivamente como si se consideran rasgos del comportamiento objetivo.
La libertad de interpretación que admite la teoría pragmática, no existía en el primer positivismo; se pensaba que
las sensaciones eran los objetos de observación. De acuerdo con esto podía determinarse por análisis lógico si un
enunciado es o no es un enunciado de sense-datum y por
tanto, parte del lenguaje de observación; por el contrario, la
afirmación de que un determinado enunciado pertenece al
lenguaje observacional implicaba una afirmación sobre el
tipo de entidades descritas. Por consiguiente, la antología
del dominio observacional era establecida con independencia de la teorización; uno delos hechos más sorprendentes
152
del desarrollo del empirismo contemporáneo es que la formulación tan bien articulada de la concepción pragmática
de la observación no fue seguida a la vez, por una formulación igualmente articulada de una interpretación realista de
las teorías científicas. La teoría pragmática fue mantenida
durante algún tiempo pero prontamente fue combinada con
el instrumentalismo o con el reduccionismo. La labor científica, tal como la asumen quienes mantienen la teoría a criticar, es la explicación y la predicción de los hechos singulares
y regularidades conocidos con la ayuda de teorías más generales.
La Explicación como Cuestión Lógica
El discurso de la ciencia transita entre dos formas, la
descripción y la explicación; la primera orientada a referir
cómo ocurren los fenómenos, y la segunda, porqué o para
qué suceden. La escuela empirista en su versión más radical,
asumió como una imposibilidad la explicación de los hechos, conformándose con las descripciones; en este contexto, las determinaciones de los fenómenos, siendo no observables, no podían constituir parte del discurso científico.
Otras posturas, por el contrario, objetaron dicha tesis, argumentando que la ciencia no podía contentarse con enunciados descriptivos y, por ende, la explicación se tornaba en
necesidad si se quería comprender de manera cabal la naturaleza de los fenómenos.
Hempel, como representante de la concepción heredada, es uno de los que más se ha ocupado de discernir qué era
153
una explicación científica y en qué circunstancia se producía: cualquier explicación que se considere científica, consta de dos partes, una que refiere a condiciones que se manifiestan antes del fenómeno que se ha de explicar, y otras,
que expresan ciertas leyes generales; ambas clases de enunciados, formulados de manera completa y adecuada, explican el fenómeno que se estudia; así, la explicación se
constituye del explanandum y el explanans. El primer
tipo de enunciado es una oración que describe el fenómeno, más no el fenómeno mismo, y el segundo, refiere a la
clase de aquellas oraciones que se aducen para dilucidar el
fenómeno.
Para una explicación sólida, ambos componentes deben
satisfacer condiciones, tanto lógicas como empíricas; entre
las condiciones lógicas se citan, el explanandum debe ser
una consecuencia lógica del explanans. El explanans debe
contener leyes generales exigidas realmente para la derivación del explanandum; y el explanans debe tener contenido empírico, es decir que debe ser posible de comprobarse
mediante experimentos u observaciones. La condición empírica de adecuación señala que las oraciones que constituyen el explanans han de ser verdaderas.
En cuanto a las condiciones lógicas señaladas: para que
el explanandum sea una consecuencia lógica del explanans,
debe ser deducible de la información contenida en este último. Las explicaciones nomológico-deductivas, a las que Hempel
incluyó en el modelo de cobertura legal como explicaciones
sine qua non de la ciencia, satisfacen estrictamente este requisito, no así las inductivas que brindan razones más débiles.
154
En lo que respecta a las leyes generales del explanans,
éstas son necesarias, pues en virtud de ellas, las condiciones
antecedentes incluidas en el explanans adquieren atingencia
explicativa respecto del fenómeno explanandum. El requisito de contenido empírico surge de la necesidad de
contrastabilidad, condición que posibilita la validación de
los enunciados. La verdad de los enunciados del explanans
es un requisito que podría considerarse obvio, aunque ello
nunca puede ser establecido definitivamente. Hempel introduce una distinción entre explicaciones verdaderas y potenciales. Las últimas cumplen con todos los requisitos, salvo
en lo que refiere a la verdad del explanans; el abandono de
tal exigencia se compensa por la inclusión de otra condición
que establece que el explanans debe confirmarse
exhaustivamente en el momento de formular la explicación.
De la caracterización acerca de lo qué es una explicación
científica, surge con fuerza el término ley, pero ¿qué es una
ley? Si bien su significado parece intuitivamente claro, no lo
es en el intento de construir definiciones explícitas. Hempel
afirma que el concepto de ley se aplica sólo a los enunciados
verdaderos, lo que concuerda con la significación habitual
tanto en la ciencia, como en la investigación metodológica;
como dicho requisito adolece de ciertas dificultades, se agregan condiciones adicionales independientes del requisito fáctico de verdad. Goodman dice que una oración parece legal
si posee todas las características de una ley general con la
posible excepción de la verdad; de allí que toda ley sea una
oración legal, pero no viceversa. Una oración legal incluye
tanto enunciados analíticos generales como oraciones con
contenido empírico; son universales y, a veces, condiciona155
les. Tal vez uno que los requisitos más discutibles sea el de
universalidad, requisito que discurre entre leyes fundamentales y leyes derivadas.
Hempel propone definir el concepto de ley respecto de
un lenguaje formalizado, gobernado por un sistema bien
determinado de reglas lógicas, en el cual todo término es
primitivo o introducido por medio de una definición explícita en función de esos términos. En la sintaxis de dicho
lenguaje modelo L se señalan los siguientes supuestos: L
tiene la estructura sintáctica del cálculo funcional inferior,
sin signo de identidad. Además de los signos de negación,
disyunción, conjunción e implicación, y de los símbolos de
cuantificadores universales y existenciales respecto de variables individuales, el vocabulario de L posee constantes individuales, variables individuales, y predicados de cualquier
grado finito que se desee; éstos pueden incluir predicados
de grado que expresan propiedades de individuos, y predicados de grado que expresen relaciones diádicas entre individuos.
La caracterización precedente responde a lo que Hempel
ha denominado modelo de cobertura legal. En dicho modelo coexisten diferentes clases de explicaciones, una de ellas,
la explicación causal parece ser la más frecuente, al menos,
en las ciencias fácticas naturales. Se concibe a la explicación
causal como aquella cuyo explanans se halla constituido por
leyes de naturaleza causal; no cualquier explicación nomológicodeductiva de un suceso individual ha de ser una explicación
causal, pues existen otras leyes que si bien implican regularidades, no están determinadas por mecanismo causal.
156
Bunge, ya no en términos de explicación, sino en un sentido objetivo, no acepta que la causalidad sea la única forma
de determinación del fenómeno, toda vez que existen otras
clases de determinaciones, autodeterminación cuantitativa,
interdependencia funcional, estructural, teleológica, dialéctica. Por su parte, Hempel adhiere a la idea tradicional de
que la relación causal supone un orden temporal, y la imposibilidad de que causa y el efecto puedan permutarse. Las
discusiones acerca de la causalidad han llevado a algunos
filósofos de la ciencia a propiciar la idea de que la postura
hempeliana al respecto es insatisfactoria; así, Popper intenta
salirse de la cuestión, asimilando las explicaciones causales a
las explicaciones nomológico-deductivas de sucesos individuales; resulta evidente que todo concepto de explicación causal seguirá en discusión, en tanto no se eluciden los aspectos
fundamentales de la causalidad.
A menudo, la explicación hace referencia a metas u objetivos, donde la finalidad dirige las acciones en ese sentido;
dichas acciones no son propias del quehacer humano, sino
que con cierta frecuencia se hacen presentes también al intentar una explicación sobre fenómenos biológicos. Las explicaciones de esta clase, denominadas teleológicas, no requieren que los fines invocados persigan propósitos conscientes, lo cual la hace aplicable no tan sólo a los sucesos
sociales. Así, esta clase de explicación se invocaría para los
siguientes grupos de fenómenos: conductas intencionales,
comportamientos animales o vegetales dirigidos a un fin,
fenómenos psicológicos cuyas funciones no persiguen objetivos conscientes, actividades grupales sin motivaciones cons-
157
cientes, acciones de órganos o partes de organismos, y funciones de artefactos.
El término teleológico crea no pocas controversias dada
su excesiva ambigüedad, por lo que conviene alguna precisión conceptual; habitualmente se reserva el término teleológico para designar a la conducta humana intencional, y
teleológico-funcional, o simplemente funcional, para aquellos
sistemas o conductas sin propósitos conscientes, dirigidas a
un fin. Ambas clases de enunciados poseen expresiones como
la función de..., o con el fin de..... Un enunciado funcional es,
por ejemplo La función de la clorofila en las plantas verdes
es producir la fotosíntesis, donde el ítem a explicar es la
presencia de la clorofila, el sistema es el de las plantas verdes, y la función es la de producir fotosíntesis.
Las explicaciones funcionales, muy utilizadas en el ámbito de la antropología, sirvieron para dar cuenta de ciertas
acciones grupales o individuales cuya función manifiesta
enmascaraba otra clase de función, a las que Merton denominó, función latente; otras veces, la explicación por función alude al comportamiento de sistemas biológicos o
mecánicos autorregulados.
Los filósofos de la concepción heredada consideraban
que la única manera de otorgarle validez a las explicaciones
teleológicas y funcionales, era reducirlas al modelo de cobertura legal. Hempel considera que las explicaciones
teleológicas pueden ser subsumidas a las explicaciones
nomológico-deductivas, tesis difícil de sostener; en cuanto a las
explicaciones funcionales, el mismo autor admite que poseen un núcleo empírico y que su desarrollo refiere a leyes o
correlaciones empíricas generales. El problema que se pre158
senta con esta clase de explicación es: ¿cuál es su estructura
lógica? Si se intenta organizarla en el marco nomológico-deductivo, nos hallamos ante una falacia de la afirmación del consecuente; dicha dificultad puede salvarse si se considera a la
estructura que cumple la función como condición necesaria,
en vez de suficiente. Adoptar una postura como la precedente tampoco logra resolver la situación ya que uno de los
principios del funcionalismo, el de equivalencias funcionales, dice explícitamente que ninguna parte, órgano, institución o estructura es irremplazable, sólo las funciones que
cumple.
La Explicación y la Comprensión como Cuestiones Compatibles
La caracterización que hace Hempel de las explicaciones en la ciencia están centradas en su estructura lógica. La
polémica acerca de las explicaciones teleológicas y funcionales se inscribe en un marco más amplio, cual es el de la
discusión entre quienes sustentan el monismo metodológico
y quienes, por el contrario, sustentan el pluralismo; algunos
filósofos de la ciencia creen que no existe diferencias, o al
menos no debiera existir, entre los métodos y esquemas de
explicación propios de las ciencias duras y los de las ciencias
sociales. En la posición opuesta se hallan quienes asumen
que los fenómenos humanos no pueden asimilarse a los fenómenos naturales y, por ende, reclaman para sí una forma
diferente de conceptualización de la realidad. Esta forma es
la comprensión. El medio típico de las ciencias humanas es
una clase especial de comprensión, equivalente a la explicación en las ciencias naturales. Comprender significa apre159
hender los aspectos psíquicos humanos en lo que refiere a
sus dimensiones espirituales; comprender es una situación
empática a través de la cual el sujeto puede llegar a imaginar
cómo se vivencian determinadas situaciones o cómo se significan hechos donde el hombre es protagonista.
Morín, no supone que la comprensión y la explicación
pertenezcan a diferentes dominios, sino más bien que aluden a instancias metodológicas y procesos cognitivos distintos; concibe a la explicación como un proceso abstracto
de demostraciones lógicamente efectuadas a partir de datos
objetivos, en virtud de necesidades causales materiales o
formales, y de una adecuación a estructuras o modelos. La
comprensión se mueve en las esferas de lo concreto, lo
analógico, la intuición global, lo subjetivo, por referencia a
la explicación, que lo hace en las esferas de lo abstracto, lo
lógico, lo analítico, lo objetivo.
Para Schlanger, mientras que comprender es captar las
significaciones existenciales de una situación o de un fenómeno, explicar es situar un objeto o un evento en relación
con su origen o modo de producción, sus partes o componentes constitutivos, su constitución, su utilidad, su finalidad. Se pregunta Morín si el recurso o la finalidad es explicativo o comprensivo. El pensamiento científico clásico, de
cual se hizo breve referencia, asoció la causa eficiente con la
explicación científica y la causa final con la comprensión de
las ciencias del espíritu. ¿Es lícita tal asociación? Morín afirma
que, la causalidad finalitaria es rehabilitada científicamente
con la idea de programa que, aún cuando prescribe el funcionamiento de las máquinas cibernéticas, sigue siendo una
causalidad determinista de carácter físico; de la misma ma160
nera, la biología incorpora las metas y objetivos a sus procesos, de tal modo que la explicación como la comprensión
puede concebir la finalidad, pero desde los programas y
genes, una, y desde los sujetos, otra. Afirma Morín que no
hay comprensión sin explicación. Las representaciones no
pueden ser comprendidas sin antes haber sido organizada
de manera coherente en virtud de principios que restablezcan la constancia de los objetos percibidos; así, a través de
un dispositivo pre-explicativo, experimenta los procesos
explicativos del espíritu que la estudia y analiza.
La Explicación y la Praxis del Observador
Bateson afirma que los seres humanos valoran tanto la
descripción como la explicación, pero esta última no contiene ninguna información diferente que no estuviese ya en
la descripción. Si esto es así, ¿qué aporta la explicación? Al parecer, la explicación ofrece una intelección adicional, agregada a la contenida en la descripción. Este componente tiene que ver con la combinación de los dos lenguajes operantes en la ciencia, el formal por una parte, y los enunciados
empíricos por el otro; una descripción abarcaría todos los
hechos de los fenómenos, pero no indicaría ninguna clase de
conexión entre ellos que los tornara más comprensibles.
Bateson vincula a la descripción con la explicación a través de una tautología. Las tautologías muestran conexiones
entre proposiciones, conexiones que se suponen válidas, pero
no contienen información alguna, y la explicación sólo contiene la información presente en la descripción. La explica161
ción consiste, entonces, en construir una tautología asegurándose la validez de sus nexos, de modo tal que parezca
evidente en sí misma, lo cual es nunca satisfactorio; esta asociación de componentes formales con empíricos no es mera
adición. No es adición, porque de la relación entre ambas
nace un nuevo producto de índole multiplicativa o de fraccionamiento, cual es la explicación; a pesar de la aparente
objetividad de los procesos explicativos, no debe dejarse
de lado la postura del observador. Descartar la objetividad
a ultranza, permite replantear las preguntas acerca del mundo. ¿Qué estoy tratando de descubrir? ¿Qué se supone que sé? La
modalidad de búsqueda se torna así en el eje del proceso
científico.
Maturana da cuenta de las relaciones entre la objetividad y el observador, afirmando que a los miembros de la
tradición greco-judeo-cristiana nos gusta explicar y formular
preguntas que nos demandan respuestas, nos conformaremos sólo cuando encontremos algo que satisfaga nuestra
pregunta. ¿Cuándo decimos que la pregunta ha sido explicada? Según este autor, se explica cuando a) se propone una
reformulación de una situación particular de nuestra praxis
del vivir con otros elementos de nuestra praxis del vivir; y
b) nuestra reformulación es aceptada por el oyente como
una reformulación de su praxis del vivir.
Es el observador quien acepta o rechaza una afirmación
como una reformulación de una situación particular de su
praxis del vivir con elementos de otras situaciones de su
praxis del vivir, y lo hace cuando satisface o no un criterio
de aceptación explícito o implícito; si se satisface el criterio,
la reformulación es aceptada y constituye una explicación,
162
por lo tanto, la emoción o el estado de ánimo del observador cambia de incertidumbre a certidumbre, y con ello deja
de hacerse la pregunta. Aceptar esta forma de explicación
requiere, implícitamente, aceptar también que se opera en el
mismo dominio de praxis del vivir.
Existen dos modos fundamentales que un observador
puede adoptar en caso de una explicación, estas dos maneras determinan dos caminos explicativos, el de la objetividad trascendental y el de la objetividad constitutiva. En la
primera, el observador acepta implícita o explícitamente que
la existencia de las cosas son independientes de él; así, asume la presencia de alguna entidad a la que referirá en su argumento a los fines de validar, o dicho de otro modo, para
aceptar una reformulación de la praxis del vivir como una
explicación de ella.
En este camino explicativo, se requiere un único dominio de explicación, un universo o una referencia trascendental como último recurso de validación; reduciendo así todos los aspectos de su praxis del vivir a ese esquema; la suposición por diferentes observadores de distintas clases de
entidades que permitan validar, implica también distintos
universos o dominios de explicaciones objetivas. La adopción de esta vía supone un acceso privilegiado a la realidad
objetiva por parte de quien explica, aunque, vale aclarar,
que el observador no se hace cargo de las divergencias entre
sus explicaciones y las ajenas, pues el argumento que las valida no depende de él.
En la objetividad constitutiva se asume que el observador es un ser viviente y que por lo tanto sus habilidades
163
cognitivas son fenómenos biológicos teñidos de vivencias
particulares, que no siempre permiten discriminar percepción de ilusión. Así, un observador no tiene base operacional para hacer afirmaciones sobre los objetos, y ni siquiera
una comunidad de observadores está en mejor posición. La
convención no valida operacionalmente aquello que ninguno de ellos está en condiciones de afirmar individualmente;
en este camino la existencia es constituida con lo que observador hace, con sus operaciones de distinción, acciones éstas producidas en el dominio de la praxis del vivir. Aquí se
asume que el observador sabe que no puede referir a objetos que existen como entidades independientes, como argumentos para fundar su explicación.
La constitución de existencia por parte del observador
tiene consecuencias fundamentales: a) cada configuración de
operaciones de distinciones que ejecuta, especifica un dominio de la praxis; b) que cada dominio de la realidad constituye un dominio de explicaciones; y c) que aun cuando todos los dominios de la realidad son diferentes, son todos
igualmente legítimos como dominios de existencia, porque
surgen de la misma manera al ser generados a través de la
aplicación de operaciones de distinción, en la praxis del vivir; las explicaciones no son reduccionistas ni trascendentales al no ser subsumidas a verdades últimas y universales;
por tanto, el desacuerdo entre observadores no implica diferentes explicaciones para una misma situación, sino distintos dominios de la realidad y la presencia de un multiverso
por oposición a un universo. Los dos caminos de la objetividad implican dos ontologías o formas de interpretación,
una, la ontología trascendental subyacente en la objetividad
164
universal, y otra, la ontología constitutiva en la objetividad
multiversal. Dado que cada dominio define sus propios criterios de validación, existen tantos dominios de explicación
como reformulaciones de la praxis. Cada dominio de explicación especifica un dominio de acciones legítimas en la
praxis del vivir, y un dominio cognitivo; todos los que hacen uso de un mismo criterio de validación operan en dominios cognitivos que interceptan en aquellos aspectos de la
praxis del vivir que le son propios.
Para Maturana, a los científicos les gusta explicar la praxis
del vivir, y la pasión de explicarlo es lo que sostiene la actividad científica como tal. La pregunta aquí es, qué es una
reformulación aceptable; la respuesta es que lo será en tanto
describa un mecanismo que produzca una situación o fenómeno como consecuencia de su operación; como una de las
cuatro condiciones operacionales que el observador puede
satisfacer conjuntamente en su praxis del vivir. Esas condiciones son:
a) Especificación del fenómeno que ha de ser explicado
b) Proposición en la praxis del vivir del observador
de un mecanismo que, como consecuencia de su
operación, produzca en él, la experiencia del fenómeno por explicar
c)Deducción desde el mecanismo propuesto, de
otros fenómenos, así como de las operaciones que
el observador debe hacer en su praxis para experimentarlo
165
d)Experimentación por parte del observador de
aquellos fenómenos deducidos, como asimismo
las operaciones implicadas en dicho proceso
A estas cuatro condiciones operacionales Maturana las
concibe como criterios de validación de la explicación científica, criterios que surgen de la praxis científica misma; si es
que la ciencia surge como un dominio explicativo a través
de la aplicación de criterios de validación, ésta es válida
solamente en la comunidad científica. Así, la ciencia es
constitutivamente un dominio de reformulaciones de la
praxis del vivir con elementos de la praxis del vivir en una
comunidad de observadores estándares, y como tal es un
dominio consensual de coordinación de acciones entre los
miembros de tal comunidad; el criterio da validación no es
aplicable tan sólo a la explicación producida, sino al mecanismo que genera el fenómeno, aunque ambos pertenecen a
dominios fenoménicos diferentes no interceptados; una explicación científica no consiste en una reducción fenoménica.
Las operaciones constituyentes de la explicación científica en nada se diferencian de las utilizadas en la vida cotidiana; de tal manera entonces lo que diferencia, en un sentido operacional estricto, a un observador común de un científico, es la orientación emocional de este último a hacer uso
de explicaciones en un dominio particular del saber, el quehacer científico.
La ciencia, en tanto estructura, no deviene de factores
externos a ella, sino que está determinada por agente
endógeno. La ciencia como estructura que es, se constituye
de explicaciones que suponen proposiciones referentes al
166
mecanismo que genera el fenómeno; lo que implica que el
observador puede proponer explicaciones sólo en esos dominios de coherencias operacionales de su praxis del vivir;
aunque la praxis científica supone la aplicación de criterios
de validación, la mayoría de los científicos no son conscientes de tales operaciones, pues ésta corresponde al dominio
de la praxis, y no de la reflexión; algo parecido ocurre con
los filósofos, quienes no entienden lo que acontece en la ciencia, pues para ellos ésta se comprende en el dominio de la
reflexión, y no de la praxis. Como resultado de ello, existe
una marcada tendencia a aceptar las explicaciones científicas como reduccionistas, y a no ver el carácter generativo,
pues creen ver en ellas, referencias a una realidad objetiva e
independiente del observador.
El supuesto señalado no resuelve los fenómenos psíquicos y espirituales, precisamente debido a la naturaleza mecánica de las explicaciones y a su carácter reduccionista; dicho carácter mecanicista especifica que para explicar fenómenos psíquicos y espirituales como fenómenos biológicos,
debe proponerse un mecanismo generativo que se le aplique a él como sistema viviente y que dé origen a tal fenómeno como una consecuencia de su operación. Un mecanismo
de esa naturaleza no negaría su carácter experiencial peculiar, porque constituiría un dominio fenoménico que no se
mezcla con el dominio fenoménico del mecanismo
generativo.
El fenómeno por explicar y el mecanismo generativo,
son propuestos por el observador en el fluir de su praxis
del vivir. En la vida cotidiana, el científico opera con dicha
praxis, a priori, aunque después elabore justificaciones ra167
cionales para ellas. Las explicaciones científicas no explican
un mundo independiente sino la experiencia del observador, y ésta es el mundo en que vive. El observador surge en
la praxis del vivir en el lenguaje, y él se encuentra en sí mismo en la experiencia de ocurrir como un hecho, anterior a
cualquier reflexión o explicación. El observador forma parte
de la experiencia observacional como condición inicial constitutiva; todas las experiencias acontecen de hecho y como
tales no pueden ser discutidas; otra cosa son las explicaciones, pues ocurren en la praxis del vivir del observador, y
ellas son también experiencias, aunque de segundo orden,
dado que ellas son reflexiones del observador en su praxis
del vivir en el lenguaje acerca de su praxis del vivir.
Por su parte, Klimovsky, ubica la perspectiva del observador, en la base empírica epistemológica y metodológica,
entendiéndose la primera como aquella que reinterpreta la
experiencia cotidiana con el auxilio del lenguaje ordinario, y
supone una cierta base conceptual. La base empírica
metodológica va más allá, pues implica la aceptación de las
teorías que dan cuenta del funcionamiento de los instrumentos de observación, de tal manera que cada vez que se haga
uso de ellos, se estará aplicando principios y leyes.
La explicación como producto lógico no se pregunta
por la génesis de las leyes, sino que las valida por referencia
a otras leyes más generales, proceso que lleva a una regresión al infinito. La explicación es válida por sus mecanismos
formales, pero su verdad acontece en los hechos, la primera
como requisito lógico de adecuación, y la segunda, como
requisito empírico. La explicación como producto lógico
no se ocupa del papel que cumple el sujeto en el acto de
168
explicar, o en todo caso, éste es un reservorio de conocimiento cuyo origen no está en cuestión. El sujeto carece de
historia, no es protagónico ni gestor de su propio quehacer,
o sea, es un producto de las contingencias externas, o bien,
todo en él está dado y predeterminado.
La explicación sin sujeto que explica pasa a ser un enunciado sin hablante; un enunciado puesto a andar que adquiere dimensión propia independientemente de su fuente. Si
bien el conocimiento científico no pertenece a nadie en particular, sino a la sociedad toda, no es menos cierto que sólo
puede entenderse el papel de la ciencia en un momento histórico determinado por referencia al autor de las explicaciones y su contexto. La explicación en este marco carece de
toda subjetividad constituyéndose en proposiciones desprovistas de toda axiología.
Hempel, como heredero del positivismo, se cuida de no
confundir leyes en sentido lingüístico con leyes en sentido
ontológico al señalar que la explicación se constituye de oraciones respecto del fenómeno, no al fenómeno mismo. La
incorporación de la praxis a la explicación le aporta un ingrediente de subjetividad, ingrediente que se asume ya presente en la comprensión; si la comprensión precede a la explicación, a través de lo holístico, lo subjetivo, lo intuitivo,
lo concreto, lo analógico; es de esperar que la explicación
que de allí surja, supere esos atributos y los ponga en un
nivel más elevado. Desde una perspectiva histórico-genética, una
explicación transita de lo subjetivo a lo objetivo, de lo concreto a la abstracto, de lo holístico a lo analítico, y en ese
devenir se descentra de su yo subjetivo en búsqueda de una
objetividad social.
169
La praxis en la explicación le quita a ésta la pesada carga
de la lógica como quintaesencia del saber científico y la transforma en enunciados con validez, sólo en ciertos dominios;
ya no hay una única lógica, sino muchas lógicas en diferentes
dominios de realidad. Cada realidad es un mundo construido por el sujeto en su praxis, replicada una y otra vez en
cada acto de conocimiento; así, el sujeto se construye en la
praxis, y ella se encarna en el sujeto de ciencia. La praxis
social es causa de la praxis del sujeto, y ésta a su vez, es
determinante de la praxis social. Praxis del sujeto y praxis
social se retroalimentan dinámicamente al interior del quehacer científico, configurando modos y relaciones que explícita o implícitamente estarán presentes en la explicación.
¿Qué trae como consecuencia la aceptación de que existen muchos
dominios de realidad? ¿Cómo se posiciona la ciencia ante esta contingencia? ¿Cuál es el status del saber científico en este contexto? Asumir
que no existe un único dominio de realidad implica aceptar
que la ciencia es una creencia más, y que como tal habrá de
someterse a sus prescripciones, pero que éstas sólo son validas para ella y no para otros dominios; esto aleja a la ciencia
de la concepción de conocimiento científico como saber
último, pero la dota de la virtud de saberse parte de un mundo operante, el mundo del sujeto, el mundo de la praxis.
Abducción: La Inferencia del Descubrimiento
La abducción es descrita por primea vez por Aristóteles
en los Primeros Analíticos, quien considera como la inferencia que se realiza cuando es evidente que el primer térmi170
no se predica del término medio; pero no es evidente que el
término medio se predique del último término, aunque sea
más o menos probable que la conclusión. A fines del siglo
XIX, Peirce cree ver en sus afirmaciones la descripción de
dos clases de inferencia, la hipótesis y la abducción, concibiendo a la primera como la identificación de una regla ya
codificada en relación con un caso; y a la segunda, como la
adopción provisional de una inferencia explicativa con el
objeto de someterla a contrastación, aunque a posteriori,
ambos se funden en un único concepto de abducción.
En la tradición epistemológica, tanto la deducción como
la inducción fueron las únicas inferencias a la cuales se le ha
prestado atención; la primera ligada a las escuelas
racionalistas, y la segunda, a las empiristas. Desde los trabajos de Aristóteles, la abducción queda olvidada hasta su
redescubrimiento por parte de Peirce, quien la liga al acto
del descubrimiento y producción de explicaciones científicas; es en este marco donde la abducción adquiere un verdadero status epistemológico, al otorgar fundamento a todos
los procesos heurísticos, independientemente de su ámbito
de aplicación; la pragmática va a concebir al conocimiento
como una creencia que se irá fijando a través de métodos,
de los cuales, el método científico, se construirá sobre la
base de los anteriores pero sin suprimir sus procesos de génesis; la tarea principal del lógico es la de clasificar argumentos; pues toda comprobación depende claramente de
una clasificación. La premisa mayor formula la regla; la menor, el caso sometido a la regla; la conclusión aplica la regla
al caso y establece el resultado. Toda deducción es básicamente la aplicación de reglas generales a casos particulares.
171
En la inducción, el caso es el punto de partida, y la conclusión es la regla, la que se obtiene desde la observación de un
resultado; si en presencia de ciertos elementos observables
de un fenómeno no manifiesto en toda su dimensión, se concluye que éstos pertenecen a una clase particular de objetos, se
estará en presencia de otra clase de inferencia a la que Peirce
denominó abducción o hipótesis, la que se presenta como la
inferencia de un caso a partir de la regla y el resultado.
En la inducción se infiere que, si los enunciados que describen lo observado en el caso es verdadero, entonces, la
misma cosa es verdad en la clase entera; o bien, si se observa algo en cierta proporción, es de esperar que esa proporción de casos también esté presente en el universo. En la
hipótesis, por el contrario, se supone que el caso inferido
corresponde a una cierta regla; si bien la abducción se presenta como un argumento débil, no es menos cierto que,
desde una perspectiva heurística, opera como un esquema
propicio para dar cuenta de situaciones o hechos insuficientemente explicados; la adopción de una cierta hipótesis no
implica sólo la explicación de un hecho sino, además, sostener que la hipótesis contraria, llevará a resultados incompatibles con lo que se pretende explicar; en la inducción, cuando se acepta la regla, no significa sólo aceptar que las distribuciones halladas en la muestra son representativas de la
realidad, sino que una regla diferente se habría seguido probablemente de muestras diferentes de las obtenidas. En la
abducción, una hipótesis es la subsunción de un caso bajo
una clase; la negación de esa subsunción es admitir la
subsunción bajo otra clase. En la inducción, negar una regla
es aceptar otra regla contradictoria con la primera.
172
En Peirce, no puede advertirse más que intuitivamente,
en qué consisten la regla, el resultado y el caso. La regla no
alude a leyes empíricas sino a hipótesis explicativas, hipótesis que se asumen como conjeturas verosímiles en función
de elementos indiciales que, directa o indirectamente, refieren al fenómeno. Cuál es la ley que debe invocarse para explicar el hecho no resulta del todo fácil. Thagard supone
que existen tres casos de abducción a las que él denomina
hipercodificada, hipocodificada, y creativa. En la primera,
existe algún o algunos elementos indiciales que refieren a
una única regla; en la segunda, dichos elementos son equívocos y, por ende, pueden evocar diferentes reglas. La abducción creativa es aquella cuyas señales o referentes del fenómeno no denotan ninguna regla conocida. Samaja, cree ver
en esta última categoría de la clasificación de Ecco, un caso
donde la regla se produce por analogía; la abducción es tan
útil para descubrir hechos particulares, como para descubrir verdaderas leyes científicas.
En la abducción, el resultado, se constituye de una serie
de elementos que hacen referencia al caso; dichos elementos
configuran lo que podría denominarse, los rastros del fenómeno, aquello que ha quedado como consecuencia o secuelas del caso ya transcurrido, o como señales del caso que
está ocurriendo; dichas señales siempre son fragmentarias,
debido a que el caso ya ha sucedido o está sucediendo. El
caso abductivo, a diferencia del caso de la deducción o la
inducción, permanece oculto, como algo que debe ser
develado. El caso, ya pasado o presente, pero críptico, sólo
se manifiesta a través de signos observables, el resultado; la
conclusión de la abducción es el caso; un caso que, resume
173
en sí las propiedades del universal; un caso que expresa configuraciones, vínculos entre variables, modos de funcionamiento. En la inferencia de hipótesis, los caracteres no son
susceptibles de enumeración como los objetos, a la vez que,
éstos se insertan en categorías; todo lo cual la convierte en
temeraria, a menos que se someta a las siguientes reglas:
a) La hipótesis ha de presentarse como una conjetura sujeta a validación empírica
b) Deberán ponerse a prueba, todas y cada una de
las predicciones que se produzcan en función de
esa hipótesis
c) Se tendrán en cuenta, tanto los éxitos como los
fracasos, a fin de su evaluación
Peirce, en su examen de las diferencias entre inducción y
abducción, agrega otros elementos divergentes en ambas
inferencias, el primero es un razonamiento que clasifica, y va
de lo particular a lo general; el segundo, explica, y transita
del efecto a la causa. La inducción parte de lo observable,
aunque esto se halle denotado por la teoría, en tanto que la
abducción refiere a algo que no es posible que sea directamente observado; la inducción alude a la similitud entre lo
observado, con lo que habrá de observarse a futuro; la abducción relaciona lo observable con algo distinto de ello,
algo que posiblemente nunca será observado.
Si bien el acto de observar está abonado por presupuestos metafísicos, mas aún el proceso de abducir, que conecta
dos planos y los liga por nexos causales, el del efecto que se
muestra en la observación, y el de la causa, que permanece
oculta; así, se concibe a la inferencia de hipótesis como el
174
componente emotivo del pensamiento, y la inducción, como
el habitual. La abducción transita del efecto a la causa, pero:
¿es ésta una condición sine qua non de dicha inferencia?; se concibe a
la abducción como una inferencia que transcurre desde los
consecuentes a los antecedentes, pero no necesariamente
éstos deben asimilarse al efecto y a la causa. Samaja cree que
las hipótesis no se infieren inductivamente de la observación y la sucesiva adición de observaciones particulares, sino
mediante el descubrimiento de un patrón observable; este
proceder permitiría reducir el espacio de búsqueda en términos realizables, reducción que no es posible por vía
inductiva, y que implica evitar la explosión combinatoria, o
combinación de todas los valores de cada variable con todos y cada uno de los valores de las demás variables.
La abducción es la única operación lógica que introduce
alguna idea nueva, pues la deducción sólo deriva conocimiento de aquel ya validado, y la inducción sólo se limita a
comprobar; cuando Samaja asimila la abducción con la sustancia quiere mostrar que los rasgos, o el resultado como lo
denomina Peirce, son los elementos sustanciales de la cosa y
no meros accidentes. Es importante señalar que el ejercicio
más complejo está en discriminar lo sustancial de lo accidental.
Samaja identifica a la regla con la especie y al caso con el
espécimen, es decir, la ocurrencia de la regla en un particular. El espécimen se caracteriza por mostrar una cierta configuración que es común a los demás miembros de la especie, y en cuya reproducción la especie existe como totalidad
relacional. Klimovsky al referirse a la abducción lo hace considerándola como una inferencia que posibilita una clase de
175
explicación, la explicación potencial; esta es una explicación
provisoria dado que no hay manera de contar con los datos
que permitan construirla. Cuando los hechos dan cuenta de
lo que se ha explicado potencialmente, la explicación potencial deja de ser tal para convertirse en una explicación verdadera.
Desde la perspectiva peirceana, la deducción sólo es
posible cuando el caso está plenamente identificado, lo que
significa que se conocen los antecedentes y, por lo tanto, se
puede predecir el consecuente. Hempel en su exposición
sobre el modelo nomológico-deductivo, señala explícitamente que
el explanans de la explicación se constituye de leyes.
176
Capítulo 4
LAS BASES MATERIALES DE LAS CAPACIDADES
EPISTÉMICAS
La Transición de la Epistemología Pura, Analítica, a la
Epistemología Sintética
Las concepciones de la epistemología tradicional, sobre
todo las del racionalismo clásico y las del empirismo clásico
y moderno, fracasan en su proyecto de una fundamentación
segura y definitiva de nuestro conocimiento. Los ideales de
la justificación y de la certidumbre del conocimiento humano, predominantes en la epistemología tradicional, no puede afirmarse que se hayan cumplido en sus últimas consecuencias. La última fase de este fracaso se manifiesta claramente en el empirismo del siglo XX, pues la fundamentación
lógico-empirista del conocimiento en el proyecto del Círculo
de Viena, con el mantenimiento de la justificación completa
y de la certeza cognoscitiva, fracasa especialmente por razón del problema de la inducción, que ya Hume había señalado siglos antes.
177
En efecto, el problema reside en que no se puede justificar por razones lógicas la inducción desde una cantidad finita de datos empíricos a una proposición universal que sea válida para una cantidad infinita de casos; en
el contexto del empirismo lógico, esta cuestión se manifiesta en la insuficiente certeza inductiva de las proposiciones universales con relevancia empírica, de ahí que el
inductivismo a base de datos empíricos y relaciones lógicas no culmine su cometido fundacional. No es posible,
mediante tal método inductivo, llegar a una descripción
científico-natural del mundo; así, lo que denominamos leyes científico-naturales son proposiciones universales válidas
para una cantidad infinita de instancias empíricas, pero dichas proposiciones no pueden reconstruirse dentro del marco del empirismo lógico.
La corrección oportuna que se deriva de este problema,
el cambio del inductivismo al deductivismo, se realiza con
el falibilismo de Popper. Este acepta los datos empíricos
como instancias de control, pero abandona el ideal de certidumbre para nuestro conocimiento, reemplazándose el ideal
tradicional de la justificación por la comprobación indirecta a través de la experiencia.
Con este cambio de estrategia desde el inductivismo puro,
empirista y radical, al procedimiento hipotético-deductivo de las
ciencias empíricas, se hizo manifiesto que la búsqueda de un
conocimiento seguro y una descripción igualmente segura
de la naturaleza constituía una meta sin esperanza, ya que
una descripción efectiva de la naturaleza y un conocimiento
multiforme del mundo aparecían como algo hipotético por
principio.
178
Además, la comprobación falibilista indirecta, que llegaba a la conclusión de que una hipótesis individual era por
el momento empíricamente adecuada, originaba problemas;
si se toma la tesis de Duhem y Quine, según la cual es siempre un contexto de hipótesis empíricas el que se enfrenta a
sus instancias de control, resulta que no se trata de hipótesis
individuales las que cuentan, sino que siempre se ha de hacer
referencia a un conjunto de hipótesis, y, en último término, a
la totalidad de la ciencia. En el caso de inconsistencias entre
las predicciones teóricas y los datos empíricos no sería posible identificar de manera unívoca la hipótesis o teoría que
fuera la causa de la inconsistencia.
Esta dificultad trajo como consecuencia otra modificación de la fundamentación empirista de nuestro conocimiento, la cual se desarrolló en el marco de la epistemología holista
de Quine. En principio preserva el contexto empirista dado
que no hay otra alternativa, o sea, toma los datos empíricos
como instancia de control respecto de las hipótesis de la
ciencia, pero duda de que la comprobación aislada de las
hipótesis empíricas pueda llevarse a buen puerto, y reemplaza esta comprobación aislada por un contexto global y
holista de las hipótesis empíricas; no existe una línea clara
de demarcación entre la filosofía y las ciencias empíricas. La
ciencia, se enfrentaría con la totalidad de los datos empíricos que forman su instancia de control.
Si se mantiene la posición acerca de la relación entre ciencia y datos empíricos, y se quiere evitar al mismo tiempo
una posición de escepticismo respecto de nuestro conocimiento, será preciso asumir algunas consecuencias para la
orientación general de la epistemología. Quine ofrece una
179
visión en la que la adquisición de conocimiento, y sobre todo
su justificación, se realiza como un proceso dentro de un
contexto holista que incluye todas las hipótesis empíricas;
esto apunta a la posibilidad de una apertura de la epistemología pura, analítica, hacia la integración en esta de argumentos y resultados procedentes de las ciencias empíricas,
lo cual quiere decir que propondría la integración de elementos científico-empíricos al menos en el campo de la epistemología descriptiva.
En el marco de una concepción sintética de la epistemología, tal integración es necesaria; si los componentes filosóficos, lógicos, y aquellos que tienen su origen en las ciencias
empíricas sólo son gradaciones dentro de un contexto holista
y total de nuestra concepción de la naturaleza y de la realidad, no es posible trazar una línea de demarcación entre las
modalidades de argumentación analítica y de argumentación
sintética.
En este caso, la epistemología no sería una metadisciplina
filosófica que tuviera una prioridad lógica ante las ciencias
empíricas y naturales, pues la evaluación modificada de la
relación entre epistemología y ciencias empíricas, que estamos refiriendo, incluye de una parte la imposibilidad de una
fundamentación epistemológica segura, y de otra parte la
imposibilidad de una demarcación entre instancias de carácter analítico-filosófico y de carácter científico-empírico. Esto no
significa que no existan diferencias y cierta graduación y orden que han de ser subrayados; así, habría que conservar la
prioridad lógica de los argumentos analíticos en el contexto
sintético; y si surgieran dificultades para la compatibilidad
entre los componentes analíticos y sintéticos, habría que re180
visar las implicaciones problemáticas derivadas de los resultados de las ciencias empíricas, no abandonando sin motivos componentes analíticos de cuya consistencia se esté
convencido por razones intrínsecas o por su fecundidad histórica ya mostrada.
Exigencias Analíticas y Conceptuales del Procedimiento
Sintético.
Según la teoría de la correspondencia, la verdad de una
proposición consiste en la concordancia entre el contenido
de la misma y el hecho objetivo al que se refiere la proposición; tal concepto adolece de dificultades que hasta ahora
no han encontrado una solución. Estas dificultades sugieren
que es preciso reemplazar las tesis particulares de las diferentes concepciones realistas referidas a esta teoría por concepciones menos exigentes. Putnam muestra la inconsistencia del concepto de verdad mantenido por la teoría de la
correspondencia; una teoría ideal que se halle de acuerdo
con todos los datos empíricos no tiene por qué ser una teoría verdadera, si se tiene en cuenta un concepto metafísico
de realidad y la verdad como correspondencia con esta realidad; tal concepto metafísico es el concepto externalista de
una realidad definida, objetiva, sin ninguna relación necesaria a ningún contexto de teorías empíricas.
A pesar de las dificultades del concepto de verdad, existen argumentos a favor de los componentes ontológicos
básicos del realismo; uno de los más importantes de estos
argumentos se refiere a las coincidencias entre elementos
181
que pertenecen a diferentes contextos de hipótesis y teorías,
pudiéndose concebir tales coincidencias como una indicación de la existencia de invariantes ópticos.
Los argumentos que limitan el realismo sugieren un campo posible para una concepción epistemológica aceptable;
uno de los representantes más consistentes de este campo
sea el llamado realismo interno; los atributos y estructuras
de la realidad existen, pero no de una manera unívoca, sino
con relación a un contexto teórico de la descripción
cognoscitiva; esto significa que existen internamente, o
internalistamente; así, los atributos y estructuras que la realidad posee son dependientes del lenguaje y de la teoría en
que se describe esa realidad.
La imposibilidad de una asignación de estructuras, libre
de elementos conceptuales, no implica que los registros conceptuales de aspectos de la realidad no sean objetivos, pues
lo son, pero solamente con relación a una correspondiente
base conceptual como punto de partida epistémico; no serían absolutos ni independientes, en sentido externalista, del
sistema conceptual; desde el punto de vista del realismo interno el mundo tendría una multitud de estructuras posibles
que se manifestarían en el contexto de los diferentes sistemas de descripción, los cuales no serían equivalentes. En
definitiva, sólo cuando se elige una perspectiva, una teoría,
un lenguaje o cualquiera otra base conceptual, se manifestaría una estructura de la realidad; todo esto es relevante si se
trata de ampliar la epistemología en dirección a una concepción sintética, pues las concepciones externalistas no serían
aceptables dentro de un proyecto que trata de integrar componentes analíticos y científico-empíricos de manera coherente,
182
ya que serían incompatibles con las exigencias analíticas del
procedimiento sintético.
Las argumentaciones que integran elementos de las ciencias empíricas en la epistemología, no tienen la finalidad de
una justificación definitiva; estos elementos científico-empíricos
sirven, en una epistemología sintética, como instancias adicionales en las que se puede comprobar la consistencia de
las concepciones epistemológicas, o sea, la consistencia de
posibles soluciones para los problemas de la epistemología;
de la misma forma que en un discurso analítico, la consistencia lógica y conceptual de una concepción epistemológica
es un punto de capital importancia. La integración sintética
de elementos procedentes de las ciencias naturales ofrece la
posibilidad de comprobar la compatibilidad de concepciones epistemológicas en un contexto más amplio que abarca
también componentes científicos; los elementos analíticos y
los derivados de las ciencias empíricas habrán de mostrar
necesariamente dicha compatibilidad. Por eso, las consideraciones sintéticas acerca de la consistencia contextual de
una concepción epistemológica, de una solución posible, han
de tomar en cuenta las exigencias analíticas que provienen
de la epistemología pura.
Desde una perspectiva analítica la epistemología sintética podría parecer una estratagema circular de una concepción puramente descriptiva y naturalista de la epistemología, pero adquiere su justo sentido como comienzo de una
serie de instancias para la comprobación contextual de la
consistencia a fin de proceder a un enlace entre la epistemología y las ciencias naturales. Estas instancias se llevan a cabo
en un contexto al que pertenecen estructuras argumentativas
183
que poseen un origen científico-natural y componentes de origen analítico. En el transcurso de la comprobación
contextual, las concepciones epistemológicas y las posibles
soluciones a las cuestiones que se planteen pasan ciertamente por un desarrollo dinámico.
La serie de comprobaciones contextuales constituye un
proceso discursivo donde se aprecia la modificación sucesiva de las concepciones epistemológicas y de las posibles
soluciones; este proceso se realiza según un esquema
alternante: en primer lugar, la consistencia lógica y conceptual de los componentes analíticos, y, en segundo término,
de su compatibilidad con el contexto de las ciencias empíricas.
La dinámica iterativa y recursiva en que se hallan inmersas
las estructuras de argumentación durante la comprobación
de la consistencia contextual no reemplaza en ningún caso la
discusión analítica en la epistemología, sino que sirve para
completar esta discusión analítica con elementos
argumentativos de procedencia sintética; el objetivo del procedimiento sintético no es la justificación o fundamentación
del conocimiento, sino que uno de sus objetivos centrales es
el establecimiento de una vía que sirva para una integración
consistente, procesual y dinámica, del desarrollo temporal
de las concepciones epistemológicas; sus posibles soluciones a problemas planteados se originarán recíprocamente
en este proceso; los objetivos son, en primer lugar, su integración en la estructura argumentativa reiterada de la consistencia lógica y analítica, y, en segundo lugar, su integración en la estructura de un proceso iterativo de la comprobación contextual y sintética.
184
Lo que se produce en el paso de una epistemología pura
y tradicional a una epistemología sintética, que incluye la figura discursiva de la comprobación de la consistencia
contextual y su correspondiente dinámica iterativa, es, sobre todo, la transición desde una perspectiva estática de la
epistemología a una perspectiva dinámica del desarrollo de
sus concepciones. Se puede objetar, que este proceso
iterativo no tiene por qué terminar en una convergencia, que
no ha de aparecer sucesivamente soluciones respecto de las
cuestiones fundamentales de la epistemología. Pero no es
menos cierto que es imposible de evitar, incluso en el campo de epistemologías más restrictivas: así, en la epistemología pura no se dispone de otros métodos más aceptables
que obvien la cuestión planteada; la epistemología pura, en
cuanto al contenido, y por razón de sus métodos, tiene limitaciones que pueden superarse dentro de la concepción sintética.
Las Neurociencias y la Neuroepistemología
Durante las últimas décadas la neurofisiología empírica
ha logrado revelar mecanismos de una modificación
adaptativa que estr ucturan durante el desarrollo
ontogenético individual las áreas cerebrales que son competentes para el análisis sensorial. La estructuración resultante
de la red neuronal se realiza mediante una adaptación sucesiva; si se tiene presente la importancia de estos mecanismos
para las funciones cerebrales realizadas se conforma una
perspectiva que difiere en ciertos puntos esenciales de la
perspectiva de la epistemología evolutiva.
185
Pues no solamente es la evolución filogenética de una
especie sino también el desarrollo ontogenético de un individuo situado en un ambiente específico, lo que forma el
aparato orgánico y cerebral que lleva a cabo el conocimiento de este individuo, con lo que el desarrollo ontogenético
individual se torna decisivo para la diferenciación funcional
de su aparato epistémico. La estructuración adaptativa realizada durante la ontogénesis tiene relevancia sobre todo
para las áreas corticales del análisis sensorial.
La base operacional de esta estructuración adaptativa es
la cooperación de un algoritmo selectivo de la modificación sináptica con un principio de coherencia de las actividades neuronales; este algoritmo, que se conoce también
como el Principio de Hebb, es el responsable de la aptitud
de las conexiones sinápticas para modificarse
dinámicamente. Las neuronas, que obedecen al Principio
de Hebb, se encuentran en todas las áreas funcionales del
cerebro; tales conexiones sinápticas de Hebb disponen de
la capacidad de modificar su fuerza conectiva según la actividad en la que participan y conforme a la sincronía de
esta actividad; por ejemplo, el algoritmo selectivo es indispensable en el desarrollo de la visión estereoscópica
durante la primera fase de la adaptación del sistema visual;
dentro de la estructura de las conexiones neuronales se
refuerzan estos conductos de actividad neuronal en los
canales introductores del sentido visual, que con diferente
origen lateral se corresponden. La correspondencia de los
dos conductos que vienen de diferentes ojos significa que
se refieren, a pesar de su distinto origen lateral, al mismo
punto común del campo visual.
186
La estructuración adaptativa resultante de la modificación dinámica de las conexiones sinápticas se muestra
operacionalmente adecuada y también eficiente, a causa de
la cooperación entre este algoritmo selectivo y el principio
de coherencia de las actividades neuronales; este principio
se manifiesta en el hecho de que las neuronas siempre funcionan como detectores de coherencia y correlaciones; así,
la generación activa de impulsos neuronales depende del
potencial actual de la membrana neural: si este potencial se
halla por encima de cierto valor, la neurona produce un impulso; si se encuentra por debajo de este valor específico,
no ocurre nada; son solamente los impulsos simultáneos los
que tienen relevancia para la actividad neuronal, y el sistema
trata impulsos simultáneos que convergen en la misma neurona común operativamente como acontecimientos correlativos.
El principio de coherencia de las actividades neuronales
y el algoritmo selectivo de la modificación sináptica no solamente constituyen los componentes operacionales básicos
de la estructuración adaptativa de las áreas corticales que
realizan el análisis sensorial durante la ontogénesis, sino que
son igualmente importantes para la realización y el mantenimiento relacional de representaciones mentales fundadas en
la estructura y actividad neuronales. La dinámica neuronal,
que es la base material del proceso de la representación mental
flexible, posee dos componentes estructurales: primero, la
estructura de las conexiones neuronales, y, segundo, la estructura de los impulsos neuronales.
La estructura espacial de las conexiones entre las diferentes neuronas cooperantes constituye el sustrato material
187
de la actividad neuronal, y dispone de la capacidad de
modificarse durante intervalos temporales extensos conforme a su incorporación y coordinación operativa en la actividad neuronal; y el algoritmo selectivo de la modificación
sináptica es el responsable de la determinación específica de
la estructura de las conexiones neuronales.
La estructura de impulsos neuronales se puede describir
como sigue: la actividad que se produce dentro de la estructura de conexiones neuronales en un momento específico es
el resultado de la dinámica de la estructura de impulsos eléctricos, la cual es compleja y está distribuida espacialmente,
siendo uno de sus determinantes más importantes el principio de coherencia de las actividades neuronales; así, se puede concebir la estructura de conexiones neuronales como el
código espacial del cerebro; su dinámica se despliega durante intervalos temporales mucho más largos que el código temporal de las estructuras de impulsos y actividades
neuronales. La realización del código espacial de estructuras neuronales depende, por un lado, de las determinaciones filogenéticas heredadas, y, por otro lado, de todas las
experiencias en las que el individuo emplea su cerebro como
instrumento que garantiza su supervivencia; esto significa
que las estructuras neuronales dependen del transcurso total de la estructuración adaptativa del cerebro que se lleva a
cabo en el desarrollo ontogenético; la determinación
filogenética de las conexiones neuronales es menos importante que el proceso adaptativo ontogenético.
Los resultados de la filogenia incluyen especialmente la
arquitectura gruesa del cerebro y las estructuras básicas de
los canales de análisis sensorial, y toda la estructura espacial
188
de las conexiones neuronales resultan de los mecanismos
adaptativos; estos, durante la primera fase de la ontogenia,
producen la interacción entre impulsos de origen sensorial,
y la existente estructura gruesa de las conexiones neuronales;
solamente tales mecanismos adaptativos posibilitan la realización de las complicadas funciones del cerebro adulto, que
son las que tienen relevancia para los problemas de la epistemología; un papel importante, tanto para el cerebro en
fase de desarrollo como para el cerebro adulto, es el de todas las experiencias sensoriales ya completadas, en la medida en que influyeron en la estructura neuronal; un resultado
de estas experiencias ya completadas son las huellas de la
memoria.
De qué modo los componentes operacionales de la dinámica neuronal cooperan en el mantenimiento relacional
de representaciones mentales, se puede entender según el
modelo neuroinformático de Christoph von der Malsburg.
El modelo de Malsburg trata ciertos estados cerebrales físicos como símbolos dinámicos, siendo estados correlativos
materiales de representaciones mentales; son correlativos
materiales de estados mentales que representan, por ejemplo, objetos y situaciones percibidas. La dinámica de estructuras representacionales realizadas con base neuronal implica dos diferentes niveles de codificación dinámica y temporal, correspondiéndose estos dos niveles a los componentes
espaciales y temporales de la actividad neuronal: corresponden así a la estructura de conexiones neuronales y a la de
impulsos neuronales.
Tales niveles son, de un lado, la formación de símbolos,
y, de otro, la activación de símbolos. La formación de sím189
bolos mentales se lleva a cabo con la formación material de
estructuras específicas dentro de las conexiones neuronales,
y, en el modelo de Malsburg, reciben el nombre de conjuntos neuronales; estos conjuntos se forman a base de la modificación dinámica de las conexiones sinápticas y su fundamento operacional es la plasticidad sináptica, esto es, el algoritmo selectivo de la modificación sináptica. La activación de símbolos mentales se produce a base de la activación sincronizada de las neuronas de un conjunto neuronal;
tal conjunto ya se había formado en el proceso anterior de
formación de símbolos. La activación de un conjunto
neuronal, que es correlativo material de la activación de un
símbolo mental, consiste en una sincronización rápida de la
actividad dentro del conjunto, funcionando esta
sincronización mediante una modulación eléctrica de los
impulsos neuronales, y, a su vez, la modulación eléctrica opera
con frecuencias específicas que definen el conjunto activado.
Dentro del modelo de Malsburg, un símbolo
representacional es una estructura dinámica de conexiones
neuronales que puede ser activada; se trata de un conjunto
de neuronas interconectadas de una manera específica. El
modelo permite la integración operativa de diferentes símbolos parciales en un símbolo común, lo cual funciona por
la sincronización de la las actividades pertenecientes a distintos conjuntos; así, antes de la integración, las actividades
no habían mostrado sincronicidad alguna entre sí, realizándose la integración con dicha sincronización; ésta conforma
un conjunto global y activo, produciéndose de diferentes
símbolos parciales un símbolo común.
190
De forma parecida, el modelo de Malsburg permite la
activación separada de símbolos diversos en la misma área
cerebral y al mismo tiempo. La separación operacional se
realiza por la falta de sincronicidad entre los diferentes conjuntos que representan los diferentes símbolos, valiendo sólo
la sincronicidad para las neuronas de un conjunto; el modelo de Malsburg garantiza igualmente la flexibilidad de las
representaciones mentales, la posibilidad de integrarlas recíprocamente, la integración procesual misma, y la activación relacional; se puede decir que los resultados más recientes de la neurofisiología sugieren que las condiciones
operativas del funcionamiento cerebral no solamente definen la forma específica de la dinámica relacional de los conjuntos neuronales, y con esto, el proceso de la representación mental, sino que también la cooperación entre el algoritmo selectivo de la modificación sináptica y el principio
de coherencia de las actividades neuronales es la causa de la
realización de nuestra percepción visual de objetos.
El proceso adaptativo de la formación autodiferenciante
de la red neuronal de conexiones entre los receptores sensoriales y la estructura interna del cerebro lleva a un refuerzo
de los conjuntos de neuronas con la misma selección de elementos diferenciados; estos conjuntos se forman en las áreas
del análisis sensorial de la corteza cerebral; en el caso del
sentido visual, la selectividad de elementos distintos se manifiesta por ejemplo en la sensitividad de ciertas neuronas a
los contrastes específicos entre partes claras y obscuras del
campo visual, a las orientaciones de objetos en él y a las
direcciones del movimiento de los objetos. En este caso visual, los diferentes receptores cerebrales de distintivos igua191
les a menudo reciben simultáneamente la transmisión de
impulsos que proceden de los puntos correspondientes de
la retina, lo cual trae como consecuencia la formación de
conjuntos de neuronas con la misma selectividad; tal formación se realiza por el refuerzo de las conexiones sinápticas
correspondientes. En el modelo de Malsburg esto correspondería al proceso de formación de símbolos.
De acuerdo a lo que la neurociencia empírica ha mostrado, las neuronas de un conjunto tal de detectores de distintivos iguales se comunicarían entre sí por impulsos de una
frecuencia específica para el conjunto, llevándose a cabo
mediante estas oscilaciones la sincronización de las actividades de las neuronas de un conjunto neuronal; así, en el modelo de Malsburg, la sincronización se corresponde con el
proceso de la activación de símbolos. La dinámica de conjuntos neuronales, sincronizados por la oscilación de una
frecuencia específica y con la misma fase, hace posible que el
cerebro pueda activar al mismo tiempo diferentes conjuntos de detectores neuronales relevantes para distintivos diversos.
Esto facilita el análisis paralelo de complicadas imágenes visuales realizado por el aparato epistémico neuronal
estructurado durante el proceso de desarrollo ontogenético;
así la dinámica de conjuntos neuronales es, respecto de las
funciones llevadas a cabo en cada caso, el correlativo material de la percepción visual de objetos. Los objetos visuales
se seleccionan, a nivel del análisis neuronal, por el movimiento común y unidireccional de un grupo de puntos visuales. La representación de tales grupos de puntos se realiza entonces mediante la activación sincronizada de conjun192
tos de detectores con la misma selectividad de distintivos.
La base operacional del concepto de objeto visual es idéntica a los principios operativos fundamentales del cerebro;
son el algoritmo selectivo de la modificación sináptica y el
principio de coherencia de las actividades neuronales los
causantes del concepto de objeto como filtro del análisis
sensorial visual. Las condiciones operativas específicas del
funcionamiento de nuestras capacidades epistémicas poseen
un carácter contingente desde la perspectiva de la epistemología, todo lo cual tiene finalmente consecuencias de gran
alcance para la evaluación concreta de nuestra situación
epistémica.
Las Condiciones Materiales de las Capacidades Epistémicas
De importancia para la evaluación epistemológica de
nuestras facultades epistémicas son las condiciones orgánicas de su realización; esto concierne especialmente al
modo específico de tratamiento de las experiencias sensoriales en el cerebro, refiriéndose sus principios
operacionales al concepto de objeto como filtro
epistémico; teniendo en cuenta las condiciones materiales
de la realización de nuestras capacidades epistémicas no es
ciertamente razonable quedarse en una perspectiva
externalista con relación a dichas capacidades; pues existen pocos argumentos a favor de que la formación de las
facultades cognoscitivas sean una consecuencia causal derivada de la estructura de una realidad material, objetiva y
transcontextual; mucho más plausible es suponer que nuestra realidad está constituida en la forma en la que la per193
cibimos porque nuestro aparato epistémico dispone de rasgos específicos y contingentes, tales como el algoritmo selectivo de modificación sináptica y el principio de coherencia de las actividades neuronales.
Una realidad, con estructuras unívocas, que se forma
basándose en actividades neuronales, no puede ser un indicio para una estructura unívoca o para la determinación
unívoca de atributos, ni tampoco para la simplicidad de una
realidad objetiva o una realidad noumenal en el sentido
kantiano; ciertamente el paso de nuestra realidad noumenal
a sus determinantes externos ha de ser mucho más indirecto; un argumento a favor de una concepción internalista resulta también de la comparación de las capacidades
epistémicas de diferentes especies; inicialmente nuestras capacidades epistémicas no se distinguen de las de otras especies, sino que se distinguen de manera gradual. En las diferentes especies se aplican solamente diferentes filtros de complejidad, los cuales se realizan a base de diferentes capacidades de análisis sensorial y de diferentes facultades cognitivas,
sujetas a condiciones contingentes.
La ciencia tampoco podría trascender todo lo que quisiera las limitaciones contingentes de nuestras capacidades
epistémicas; con sus medios sólo puede alcanzar grados de
abstracción correspondientes a nuestras facultades
cognitivas; existe al menos una continuidad parcial entre facultades epistémicas precientíficas, que se realizan con base
orgánica, y las capacidades de la ciencia. En cada rama de la
ciencia se hallan elementos que provienen de nuestra condición orgánica y de sus implicaciones.
194
La ciencia no ha formulado teoría alguna que no implicara de alguna manera el concepto de objeto. Pero tal concepto no es un artificio o un elemento de un filtro arbitrariamente elegido, sino que, se trata del producto de un modo
específico y contingente de la operación neuronal, todo lo
cual posee una importancia grande para la situación
epistémica. Existen limitaciones específicas para el nuestras
capacidades epistémicas, derivadas del alcance operacional
de nuestro sistema neuronal. La base material de la cognición no hay que entenderla de modo universal y necesario,
constituido para siempre, y aplicable a cualquier exigencia
en abstracto, sino que se determina contingentemente y se
acomoda a las exigencias de un organismo biológico. Si se
toma en serio el naturalismo, esto implica limitaciones propias de las funciones epistémicas del cerebro y de su alcance. Por lo que los resultados del conocimiento humano no
han de entenderse como plenamente objetivos en el sentido
tradicional de este término. En realidad, el aparato neuronal
es un filtro epistémico contingente que permite percibir solamente ciertos aspectos de las posibles estructuras externas del mundo.
La Objetividad como Logro Práctico
La importancia que el análisis de la práctica científica ha
cobrado en los últimos tiempos en los estudios de
epistemólogos, sociólogos, científicos puede interpretarse
no solo como signo de un interés meramente descriptivo,
sino también como una necesidad de detenerse en sus funciones e implicancias a la hora de evaluar la producción del
195
conocimiento científico. La práctica reviste un alto grado
de complejidad por la cantidad de aspectos que se entretejen en su configuración.
El punto de atención se ha centrado especialmente en la
objetividad atribuida a la base observacional que, en la perspectiva neopositivista es considerada como sustentación de
la ciencia, y por otro lado en el carácter falible de los enunciados dependientes de la teoría. Los argumentos propuestos ponen en tela de juicio aspectos inherentes a los fundamentos mismos del conocimiento en cuanto cuestionan el
valor del aporte de los sentidos en su estructuración y el
condicionamiento a priori de las características psicológicas
del sujeto así como su marco conceptual. Estas críticas favorecen la consolidación de las posiciones relativistas y
subjetivistas, desde las cuales se condiciona la objetividad
del conocimiento científico. Este riesgo ha motivado una
reacción desde propuestas que, admitiendo la validez de las
observaciones aportadas por epistemólogos, Hanson,
Polanyi, Popper, Khun, Feyerabend, intentan rescatar aspectos de la objetividad que permiten sustentar su vigencia. En
esta línea se inscriben los aportes que ofrecen Chalmers y
Hacking en el ámbito de la filosofía de la ciencia.
Las objeciones al carácter fundamental otorgado a la
percepción científica en la visión tradicional de la ciencia,
expresada por el neopositivismo, resultan sustentadas pero,
para Chalmers no implican la pérdida del carácter objetivo
del conocimiento; y propone una estrategia superadora de
las dificultades señaladas:
196
No deseo negar que la adecuación y significado de los
enunciados observacionales dependen de supuestos teóricos de diverso tipo y por lo tanto son falibles y revisables.
La ciencia ha desarrollado técnicas poderosas para obviar
esos problemas, en la medida en que puede contrastar las
teorías científicas mediante procedimientos normalizados
que pueden minimizar los problemas que surgen del carácter subjetivo de la percepción humana.
A través del análisis que se implementa desde esta perspectiva, se pone en evidencia que cualquier observador, traduce un conjunto de experiencias mentales relativas a las
percepciones que se expresan a través del lenguaje
observacional. Estas constituyen las interpretaciones del
sujeto, obtenidas en el proceso de aprendizaje de su lenguaje natural, las cuales, una vez incorporada a la cultura a la
que pertenece cada individuo, comienzan a formar parte del
proceso correspondiente a cada generación. Así por ejemplo, cuando un observador del Siglo XVII sostiene que el
movimiento de una piedra que cae es recto, su descripción
supone la interpretación natural de su época, la cual involucra
las nociones de espacio y movimiento absolutos en un sistema planetario con la tierra inmóvil en su centro; esa interpretación natural, se modifica con la introducción de la teoría copernicana. Esto significa que se ha producido:
a) Un cambio en las experiencias del sujeto
b) Un cambio en su lenguaje empírico
c) Una transformación relevante en la base
observacional
197
Los dos primeros puntos tienen que ver con la estructura perceptiva del sujeto y las condiciones en las que éstas se
producen. El tercer punto en cambio, se relaciona con la
introducción de procedimientos tales como la experimentación controlada y también de instrumentos. El cambio que
Galileo instaura supone pasar de percepción a la medición,
acción verificada a través de experimentos en condiciones
estandarizadas. En este sentido, ideó un procedimiento para
medir la separación de los satélites de Júpiter.
Las técnicas empleadas por los antiguos para establecer
generalidades explicativas de los fenómenos, resultaban apropiadas. Galileo en este proceso de la relación teoría-mundo
introduce un criterio cual es el de validar las generalizaciones mediante el diseño de situaciones experimentales idealizadas, como el caso de los experimentos del plano inclinado. Su estrategia consiste en introducir técnicas para reducir
al mínimo los obstáculos del mundo natural en el proceso
de contrastación de las teorías. Chalmers destaca con respecto a estos procedimientos:
Según mi interpretación, Galileo transformó la problemática finalidad de la ciencia de conseguir generalidad en
otra que en cierto grado se podía conseguir en la práctica:
Identificar generalidades de tipo legal en situaciones simples, y si es necesario artificialmente ideadas, y asumir que
esas generalidades se siguen aplicando en todas las situaciones, por complejas que sean.
No puede negarse que el ideal euclidiano de derivar generalidades de principios atraía al pensamiento galileano;
pero las evidencias de la inadecuación teoría-experimento le
198
impedían sostenerla como tesis. La intervención experimental le permitió:
a) Considerar en forma aislada los casos individuales
b) Identificar las tendencias individuales observables
c) Elucidar las leyes que podían gobernarlas
Se trata de generalidades obtenidas por la vía de excepción que luego serían aplicadas. Las modificaciones en la
explicación del universo introducen también transformaciones en los criterios de selección de métodos para adquirir
conocimientos. De este modo, mientras en el marco del pensamiento antiguo y medieval importaba la coherencia del
sistema demostrativo basado en principios establecidos, los
investigadores de la época moderna concentran su atención
en la fuerza del experimento.
Estas consideraciones ponen de relieve la necesidad de
que se efectúe un verdadero cambio en la actitud del sujeto
que aborda la descripción del objeto, tal actitud debe asumir el carácter de intervención; a partir de ella, se elaboran
los enunciados observacionales descriptivos de estados de
cosas que a su vez, serán aceptados en la medida en que
superen un conjunto de pruebas diseñadas a tal fin; la intervención práctica, no sólo se limita a la creación de procedimientos; en efecto, consiste en el uso de los sentidos para
realizar las observaciones. Hacking, recupera desde un enfoque particular la relevancia de la experimentación a la que
caracteriza como una dimensión de la actividad científica
que tiene vida propia; desde ese contexto, le otorga a la ob-
199
servación el carácter de una habilidad particular que el investigador debe desarrollar; como situación paradigmática
de este análisis, rescata el caso de Herschel, quien descubrió,
en un año, más cometas que ninguna otro astrónomo;. tal
logro es considerado como resultado de la confluencia de
un fuerte entrenamiento. Tanto Chalmers como Hacking
coinciden en afirmar que el investigador, en la realización
de su tarea, es un sujeto entrenado en el uso de los sentidos
y en la manipulación de instrumentos de modo tal que es
capaz de:
a) Ser consciente de que asume un compromiso activo con el mundo que implica posibilidades de intervención
b) Jerarquizar el entrenamiento que garantice el desarrollo de su destreza
c) Seleccionar, sobre la base de la capacitación lograda, las percepciones que posean significatividad
para cada caso
En este contexto, el investigador se convierte en un observador experto que interviene en la constitución de la
base de la ciencia mediante el diseño de aparatos y pruebas capaces de contrastar empíricamente los enunciados;
de este modo, constituye un soporte para mantener la objetividad como cualidad posible de alcanzar en la producción del conocimiento científico; cabe destacar que esta
pretensión no compromete el carácter provisional y falible que la epistemología actual reconoce a las teorías científicas.
200
Uno de los representantes de la sociología actual es
Bourdieu, quien ha desarrollado una línea conceptual a través de las nociones de habitus y de campo. Bourdieu enfatiza
la necesidad de resolver la dicotomía planteada en las ciencias sociales entre las perspectivas objetivistas y subjetivistas
y lo fundamenta en el nivel ontológico: lo social existe de
doble manera, como estructuras sociales externas, es decir
la historia hecha cosas y como estructuras sociales incorporadas.
El hacer referencia al objetivismo y al subjetivismo, en
Bourdieu se puede interpretar como dos momentos analíticos: un primer momento objetivista, en el cual el investigador reconstruye la estructura de relaciones que son independientes de la conciencia y de la voluntad de los agentes y
un segundo momento, donde se intenta captar representaciones, percepciones y vivencias de los protagonistas de las
prácticas. Se toman como pasos lógicos en el análisis sociológico que permitirían mayores posibilidades de explicar y
comprender la realidad social. Objetivar al sujeto objetivante,
implica un doble sistema de relaciones, el primero alude a: el
sentido de las prácticas y reflexiona sobre las posibilidades de aprender
la lógica que ponen en marcha los agentes. El segundo alude a un
tema central dentro de la sociología del conocimiento: el de
los condicionamientos sociales que afectan la práctica del
investigador. Para poder dar cuenta de las prácticas sociales, es necesario reconocer los sentidos de las mismas:
a) El sentido objetivo, el sentido de las estructuras
sociales externas e independientes de la conciencia y de la voluntad de los agentes
201
b) El sentido vivido, lo que los agentes se representan, sienten, piensan, creen, viven. Los habitus
como esquemas de percepción, de apreciación y
de acción interiorizados; sistemas de disposiciones a actuar, a pensar, a percibir, a sentir más de
cierta manera que de otra, ligados a definiciones
de tipo lo posible y lo no posible, lo pensable y lo
no pensable, lo que es para nosotros y lo que no es
para nosotros
La noción de habitus, no puede ir más allá de una descripción de la experiencia del mundo social, al no tener en
cuenta las condiciones de posibilidad de esa experiencia, es
decir, la relación que existe entre las estructuras objetivas y
las estructuras incorporadas que las generan. Esta constituido por principios generadores capaces de aportar distintas
respuestas en las diversas situaciones a partir de un conjunto
limitado de pautas de pensamiento y de acción; así tiende a
reproducir ante situaciones habituales y puede conducir a
innovaciones cuando se halla frente a situaciones insólitas;
según Corcuff.
El objetivismo por su parte, se propone establecer regularidades objetivas, estructuras, leyes, sistemas de relaciones, que son independientes de las conciencias y de las voluntades individuales. Pero, al no tener en cuenta las representaciones, las percepciones, la experiencia vivida, tampoco puede dar cuenta del sentido del juego social, que se explica por la relación dialéctica entre esas regularidades objetivas plasmadas en estructuras, instituciones, y esas mismas
realidades incorporadas a los individuos.
202
Objetivismo y subjetivismo son perspectivas parciales:
la primera puede aprehender sólo el sentido objetivo de las
prácticas, y la segunda sólo el sentido vivido de las mismas,
y ninguna de ellas puede captar el sentido práctico, el sentido del juego social, resultado dialéctico de ambos sentidos.
Para Bourdieu las interacciones, que procuran una satisfacción a las disposiciones empiristas esconden las estructuras
que en ellas se realizan. Es uno de los casos, donde lo visible, lo que es dado, esconde lo invisible que lo determina. Se
olvida así que la verdad de la interacción no está nunca toda entera en
la interacción tal como ella se ofrece a la observación.
Tanto el objetivismo como el subjetivismo comparten
el hecho de ser modos de conocimiento teórico, es decir,
modos de conocimiento de sujetos de conocimiento que
analizan una problemática determinada, que son opuestos
al modo de conocimiento práctico, que es aquél que tienen
los individuos, que ponen en marcha casi como si fuera en
su vida cotidiana.
Resulta de interés la apreciación de Bourdieu de la
formalización en cuanto factor conducente a la objetivación;
la misma es entendida tanto en el sentido de la lógica o de la
matemática como en el sentido jurídico; es lo que permite
pasar de una lógica que esta inmersa en el caso particular a
una lógica independiente del caso particular. Reconoce que
una de las virtudes de la formalización es la de permitir, una
economía de invención, de improvisación y de creación destacando también que el formalismo no actúa por su eficacia
específica, técnica, de clarificación y de racionalización.
203
Bunge aporta precisiones relacionadas a la objetividad
científica; delimita la diferencia entre datos científicos y los
informes sobre la experiencia, los primeros suponen que el
experimentador informa acerca de hechos objetivos, que sus
informes deben ser controlables, que los datos del científico
van cargados de interpretación y hasta que están formulados, al menos, en un lenguaje teorético. Si no se exigiera de
los datos científicos una referencia objetiva, un control y un
mínimo de interpretación basándose en teorías aceptadas,
podrían inventarse arbitrariamente y serían irrelevantes para
las ideas que se supone sostienen. En tanto en el caso de los
informes, las experiencias son irrelevantes para esos hechos
objetivos, pueden ser de interés para la psicología en la medida en que puedan relacionarse con y controlarse por hechos objetivos del comportamiento fisiológico.
La ciencia se interesa por datos impersonales que se refieren a hechos objetivos y además, sólo por aquellos que
puedan tener sentido en algún cuerpo de conocimiento; lo
que quiere decir, que la ciencia sólo se interesa por datos
sistematizables. Los aspectos considerados nos permiten
destacar como rasgo significativo, el hecho de que la objetividad científica se constituye desde el polo de lo abstracto;
si bien las diversas estructuras de la experiencia aportan contenido a los conceptos y relaciones elaborados por la razón,
el carácter de universalidad que la objetividad reclama no
pertenece a los datos empíricos sino a la dimensión
estructurante del intelecto. Si contamos como supuesto, con
que el objeto ofrece invariancias posibles de ser validadas
por todos, las mismas no pueden configurarse como tales
sin la construcción intelectual; estas apreciaciones no exclu204
yen la dimensión empírico y/o experimental de la ciencia ya
que ella es precisamente la que nos pone en contacto con la
realidad física, accesible al registro de datos; si mantenemos
las entidades, fenómenos o procesos de los que se ocupa la
ciencia en el nivel de la percepción sensible, quedan excluidos del ámbito de la cientificidad, es decir, no se constituyen en objetos científicos. Tal conversión requiere la
implementación de operaciones que posibiliten su traducción al complejo de relaciones adecuadas para ser expresadas en el discurso técnico-formal.
Este concepto ha obligado a relacionar lo empírico con
lo abstracto y formal, lo invariable con lo cambiante, con la
intención de comprender, desde las tensiones no excluyentes
de las correlaciones, cómo la ciencia puede ser considerado
como un saber falible, provisional, no incontrovertible e
inclusive, no absolutamente cierta o verdadera y sin embargo, objetiva.
Epistemografías: La Escritura de los Resultados de Investigación
El objetivo, es desplegar un conjunto de reflexiones que
pueden ser de utilidad para exponer los resultados de investigación. En ese sentido, se puede distinguir, en principio,
dos tipos de prácticas discursivas: a) la escritura que va diseñando los diversos componentes de una investigación y b)
la escritura destinada a elaborar un producto para ser expuesto públicamente; y este último es un punto no menor,
porque está asociado a la comunicación y el intercambio de
205
los productos de investigación. A aquello que podríamos
denominar el proceso de su publificación.
Rabotnikof distingue tres criterios heterogéneos para el
trazado de la distinción entre lo público y lo privado, o, lo
que ella llama tres sentidos tradicionalmente adheridos a la
distinción público-privado. El primer criterio es el que opone
lo colectivo a lo individual, en esa oposición lo público asumiría el sentido del interés general y se deslizaría hacia su
asociación sinonímica con lo político. El segundo criterio
haría hincapié en la oposición entre lo visible y lo oculto,
entre lo manifiesto y lo secreto; un criterio que pone en el
tapete la dimensión espacial de lo público; por último, el
tercero, es el que opone apertura a clausura y define lo público por las condiciones de accesibilidad y como contrapartida establece las condiciones de apropiación de los objetos culturales; entre ellos, el conocimiento.
La distinción entre discurso de investigación y discurso
de exposición, puede entonces delinearse sobre la base de
estas nociones de lo público, o de las relaciones entre lo
público y lo privado. Es obvio que entre ambos tipos de
discurso hay una relación quiasmática. Los libros los compramos en librerías, y los informes de investigación deben
estar escritos en lenguaje científico.
Se espera del conocimiento científico que sea público;
que sirva al interés general, sus fundamentos sean visibles y
manifiestos y, en tanto bien común, esté garantizada su accesibilidad. Sin embargo, desde la constitución del campo científico social en el siglo XIX, la publificación del conocimiento
ha basculado históricamente entre, por lo menos, dos con206
juntos de imágenes sobre la ciencia cuyos rasgos principales
han sido y aún siguen siendo esquemáticamente:
a) Una ciencia independiente de la política capaz de
descubrir un mundo, es decir con acceso a la verdad como correspondencia y/o adecuación, cuya
expresión más ordinaria es el dogma de la neutralidad valorativa de cuño positivista
b) Una ciencia altamente politizada dónde su especificidad como práctica social se ve desdibujada en
provecho de los proyectos político-ideológicos
que le otorgan su razón de ser
Lo más destacable de ambas opciones epistemológicas
es el modo en que se traman la una con la otra. El panorama
quedaría incompleto si eludiéramos una tercer concepción
que juega sus cartas en los campos del antagonismo entre
del saber disyunto del poder y el saber acoplado al poder.
Esa concepción es la del impolítico nietzscheano que compartiera con Weber el ideal de una ciencia independiente de
la filosofía pro estatal, en definitiva, una práctica científica
capaz de distanciarse de los proyectos gubernamentales
dominantes y por lo tanto devenir en ciertos contextos
institucionales grupo sujeto en la construcción de relaciones democratizantes entre la sociedad y el estado; y es en
este punto que el conocimiento, puede, y necesita, ser pensado como factor constituyente de la esfera pública. Es decir, los tres criterios heterogéneos para definir lo público
señalados por Rabotnikof, tienen que articular los conceptos de estado, mercado y sociedad civil mediante un
anudamiento que dé cuenta de los modos históricos y de las
207
especificidades institucionales en que la escritura científica
es producida y apropiada. Ahora bien, pensar el informe de
investigación puede ser una tarea vasta, de modo tal que es
pertinente establecer tres aspectos que a grandes trazos constituyen los problemas de toda escritura pública:
a) El aspecto epistémico de la producción y el consumo de conocimiento, que como toda epistemología es necesariamente política ya que fija las condiciones de la eficacia del discurso y regula por
tanto los aspectos metodológicos y técnicos que
participan en su construcción
b) El aspecto metódico, que en tanto práctica, lo es
de un proceso de investigación particular y da cuenta de las relaciones entre la teoría, el método y la
técnica en el proceso de construcción de un objeto de investigación
c) El aspecto técnico que apela a ciertas figuras de la
escritura y de la gráfica que permiten exponer la
información como datos y que ayudan al lector a
aproximarse al informe
El Aspecto Epistémico: El Encuadre Político de la Escritura
¿Qué sentidos soporta la palabra escritura? Si nos desplazamos por el sesgo etimológico del título se impone la representación de una inscripción. Inscripción de lo circunscripto
mediante una práctica de investigación, es decir, lo que ha
podido ser construido como conjunto mediante un diseño,
cuyo proceso de elaboración ha dejado su huella.
208
Si pensamos el informe de investigación como un instrumento para la comunicación, es inevitable desensillar en
la comunicabilidad del texto que soporta la letra. En ese
punto podemos acordar en que los discursos de investigación aspiran a ser comunicados y lo hacen en la medida que
hagan signo; esto es, que la actividad del lector produzca un
efecto de sentido que se aproxime al que quiso imprimirle el
escritor. El discurso oficiará de lazo y habilitará la comprensión si se inscribe en una formación social que oficie de
interpretante. Cuestión que rebasa la suposición de un marco cultural común a investigadores y lectores, y por lo tanto
invita a sondear como operan esas formaciones sociales, en
tanto creadoras de demanda, en los procesos de producción de significación en los campos académicos, intelectuales y profesionales.
¿Qué pasa entre las estrategias de comunicación de los investigadores, mediante actos de escritura y las apropiaciones plurales, móviles de
los lectores? ¿Cómo se transforman los documentos de investigación
mediante las operaciones de los usuarios? ¿Cómo se trama la relación
entre la comunicabilidad y la transmisibilidad en una práctica discursiva
como es la de producir un texto escrito?
La eficacia relativa de cualquier escritura se asienta en
su capacidad de coadyuvar a producir un acto de
subjetivación. Es en la práctica de lectura, que el discurso
hace signo y produce enlace; allí donde se bordean los contornos de un objeto de conocimiento, adviene el sujeto.
Sujeto y objeto de conocimiento se co-constituyen simultáneamente, a lo cual agregaría sujeto y sujeto se co-constituyen simultáneamente.
209
El problema está precisamente en la simultaneidad. Una
perspectiva dialéctico-subjetiva, daría cuenta de la compenetración de los opuestos, pensaría al objeto como acuerdo
intersubjetivo, en fin, suturaría la falta, mediante la postulación
de la realidad hecha objeto mediante el colapso del campo
mismo de la subjetividad qua vehículo de la verdad en el
capitalismo y rompería el carácter colectivo de la construcción de la verdad faccionándola, es decir volviéndola facciosa mediante su desintegración en los dos polos del conocimiento y la verdad, según Zizek. O bien cerrando la discusión como un derivado del criterio de autoridad propio del
discurso experto o cayendo en el perspectivismo ingenuo
de las verdades privadas que eleva la experiencia personal a
la categoría de absoluto rompiendo desde el relativismo que
niega toda certidumbre, la construcción misma de la
relatividad que permite formular problemas sobre la base
de criterios de verdad pero sin absolutizarlos; no sería abusivo decir que hay escritura científica, cuando se acoplan el
escrito y la lectura produciendo ese efecto de sentido que
permite bordear los contornos de un problema. Eso es un
objeto de investigación, lo que produce un problema, un
objectum.
En las analogías de los itinerarios, el pensamiento científico está hecho de la misma sustancia que la metáfora; que la
es para un determinado público, aquel capaz de construir la
equivalencia entre un significante y otro significante. Entre
los cuales media una distancia, que como la letra en el papel
es la que marca que esa equivalencia se asienta en una ruptura con el mundo inmediato o la naturalización de ese mundo por la experiencia cotidiana.
210
El informe de investigación, al igual que el proyecto de
investigación es un documento de gestión; la eficacia de la
gestión dependerá en mucho del discurso de exposición, es
decir de cómo está escrito, una pregunta que comienza a
contestarse a partir de la demanda de investigación: para
qué y para quién se escribe.
El Aspecto Metódico: La Construcción del Objeto-la
Deconstrucción del Sujeto-la Construcción del Sujeto-la
Deconstrucción del Objeto
El consumo científico es también una cuestión de estilo,
y no en el sentido vulgar que identifica estilo con distorsión
culterana, tal como sucede con aquellos trabajos dónde la
teoría muestra a las claras su distancia respecto de las descripciones, trasuntando de ese modo lo que podríamos denominar la debilidad metodológica del trabajo. ¿En qué sentido puede pensarse la debilidad metodológica de una investigación en
relación con la escritura de los resultados? Caben varias posibilidades. Sin embargo, pensemos en dos tipos de problemas:
Si, es inadecuado partir del supuesto de que la escritura
es la puesta en página de una delgada laminilla llamada lenguaje científico que expresaría uno a uno el núcleo de la realidad, sino que por el contrario el lenguaje realiza un arduo
trabajo en la reconstrucción siempre inacabada de esa realidad y por lo tanto, aceptamos que entre la investigación como
práctica y su escritura hay una distancia; una de las posibilidades es que se produzcan aquellos obstáculos de los que
hablaba Bachelard: el formalismo y el empirismo.
211
Afirmar que la práctica científica y el consumo de los
productos que manufactura es una cuestión de estilo vuelve
relevante la relación entre el mercado, el estado y la sociedad en la constitución de los sujetos y objetos de consumo.
Según Panofsky estilizar previamente la realidad antes de
abordarla es lo mismo que eludir el problema. El problema
radica en manipular y filmar la realidad no estilizada de tal
modo que el resultado cree estilo. La investigación social no
está al margen de ello, sin embargo la distancia dialéctica
respecto de su propia estructura de funcionamiento debe
impulsar su propia economía política y colaborar en el
develamiento de las relaciones sociales que ayuda a producir.
El método crea estilo. Una determinada forma de exponer los resultados que permita leer a la letra el modo en
que la teoría orientó la producción de la información, es
decir ver como permitió un uso satisfactorio de la técnica
haciendo de la entrevista o de la encuesta un instrumento
para apropiarse de un aspecto de lo real y viceversa. No se
trata entonces de la coherencia interna de una teoría, como
la que puede expresarse en el desarrollo argumental de los
supuestos manejamos como investigadores o a la coherencia de la descripción de una realidad cualquiera, sino de un
cierto croché que teje la teoría con lo real mediante un efecto interpretativo que posibilita una coherencia en la que el
rigor del discurso no pasa ni por la aguja ni por la hebra.
Ese es el punto en que el método crea realidad como efecto
de discurso. Una realidad que rebasa la postulación o el carácter externo cuando el discurso ha desarrollado las determinaciones de lo real.
212
La exposición o las técnicas expositivas son algo más
que instrumentos de una política. Allí se juega la identidad.
Es en el juego de las filiaciones dónde la escritura en su dimensión expositiva desnuda que no hay meta discurso, que
lo dicho es el soporte de lo que quiere decirse. Lo escrito
finalmente se dice así mismo en el acto de la apropiación.
Cuando concurren las apropiaciones de los autores con las
de los lectores, estamos frente a la frontera de la comunicación sin cuya línea no habría comunicabilidad; simplemente
estaríamos allí como un real que no cesa de existir pero que
nada sabe de eso. El conocimiento tiene que ver con la distancia entre la cosa y la imagen, entre la imagen y el nombre.
Como afirma Agamben: la exposición es el lugar de la política. Si
no hay, probablemente, una política animal, es sólo porque los animales, que viven permanentemente en lo abierto, no tratan de apropiarse
de sus exposición, moran sencillamente en ella sin preocuparse. Por eso
no les interesan los espejos, las imágenes en cuanto imágenes. El hombre, por el contrario, al querer reconocerse separa las imágenes de las
cosas, les da un nombre. Así transforma lo abierto en un mundo, en el
campo de una lucha política sin cuartel.
213
214
Capítulo 5
EL
IMPACTO
DE LA
EPISTEMOLÓGICO
TECNOLOGÍA
S
e propone una definición de tecnología. Existen idiomas como el inglés, en donde se utiliza technology y no
se emplea, estrictamente hablando, la palabra técnica, salvo
en un sentido poco usual; en español e italiano, así como en
otros idiomas, al contrario, se utilizan ambos términos con
significado similar. Se puede entender la técnica como un
conjunto de conocimientos eficaces que el hombre ha desarrollado para mejorar su manera de vivir prácticamente. Bajo
esta perspectiva, la técnica es tan antigua como la humanidad misma, y, desde el punto de vista de la antropología
filosófica, resulta una característica específica del hombre,
por cuanto que, si se considera que los animales sobreviven
adaptándose al medio ambiente, el hombre, por el contrario, sobrevive adaptando el medio ambiente a sí mismo. No
es cierto que los seres humanos puedan adaptarse a cualquier medio ambiente, pero sí es verdad que el hombre ha
ideado miles de formas para adaptar el medio ambiente a
sus necesidades: la técnica es precisamente esto y consiste
215
básicamente en la construcción por parte del hombre de un
entorno artificial para su vida.
La manera típica de vivir del hombre es la manera técnica, no hay vida que pueda considerarse humana en un sentido específico que no posea los primeros rudimentos de la
técnica; además, la técnica no se limita a asegurar al hombre
este mínimo para sobrevivir, pues cada necesidad típica de
éste lo impulsa a producir otros aspectos artificiales que
ensanchan el dominio técnico. Todas las dimensiones culturales, entendidas en un sentido sociológico, se encuentran
condicionadas por la técnica, y que el mundo del hombre,
en su conjunto, es una cierta articulación de la técnica.
La técnica constituye un proceso acumulativo, siendo
también el resultado de la experiencia de generaciones. Si el
descubrimiento de una pequeña variación respecto a lo que
se hacía hasta hace poco resulta ser un cambio útil, entonces
tal variación será transmitida a través de generaciones,
adoptándose de manera general hasta que se descubra otra
variación más útil.
¿Por qué, por ejemplo, es ésta la mejor manera de cortar la madera para construir un determinado instrumento? La respuesta será
que así nos lo han enseñado y se ha comprobado que así es
mejor. El uso de la técnica no va acompañado del conocimiento de las razones justificadoras de la eficacia de ciertas
prácticas que se realizan; pero, en el desarrollo de la civilización occidental, llegó el momento en el que a la dimensión
simplemente práctica se añadió la preocupación de saber
por qué es mejor hacer las cosas de una determinada forma.
Es el gran momento de la téchne griega; esta palabra se
216
traduce modernamente por el vocablo arte, pero esta forma de traducir no clarifica hoy día el significado del término griego. El arte se refiere a las denominadas bellas artes y
se conecta con la esfera estética; pero no era así la significación de la téchne griega. Como se puede leer en Platón,
Aristóteles y muchos otros, la téchne era esto: un conjunto
de conocimientos eficaces que se acompaña además con el
conocimiento de las razones o causas por las cuales el procedimiento es eficaz. En el primer libro de la Metafísica
Aristotélica, el filósofo examina las causas de modo general, no en el sentido de la denominada causa eficiente, sino
según un sentido muy amplio que podríamos expresar mediante el concepto de razón por la cual algo acontece o se
afirma.
Aristóteles se sirve de este análisis para precisar en qué
consiste el saber, la epistéme; sin embargo no sucede de
esa forma, prefiere referirse a la téchne: en el caso del conocimiento en cuanto tal se nos dirá que hay que llegar a la
plenitud de la verdad a través del conocimiento de las causas, y en el caso de la téchne, que hay que fundamentar la
opinión práctica por el conocimiento de sus causas o razones. Esto muestra que en la civilización griega existía algo
más que la mera acumulación, a veces simplemente casual,
de experiencias que se transmitían de una generación a otra.
Cuando aparece el sufijo logía se quiere indicar la existencia de una cierta doctrina elaborada, una teoría acerca
del asunto en cuestión; así, en lugar de hablar de técnica hablamos de tecnología, añadiéndose algo más a la pura y simple técnica. La tecnología puede entenderse como aquello
que acontece en el interior de la trayectoria de la técnica
217
cuando surge, dentro de la civilización occidental, un conjunto de conocimientos teóricos que permiten explicar o
dar razón de lo que es eficaz en concreto. Este paso fundamental se cumple dentro de la civilización en el momento
histórico del descubrimiento y construcción de la ciencia
natural moderna. Es esta ciencia la que permite ofrecer las
razones teóricas que justifican por qué ciertas prácticas concretas son eficaces y permiten proyectar nuevas prácticas
sin necesidad de basarse en una experiencia previa. Tecnología, pues, es algo distinta a técnica.
El Impacto Epistemológico
La técnica tuvo siempre un gran impacto sobre la vida
del hombre, pero no es fácil hablar de un impacto
epistemológico, en el sentido de un influjo directo sobre la
manera de concebir al conocimiento humano. Desde este
punto de vista la misma noción griega de téchne, refleja la
visión general del saber que encuentra su teorización específica en la noción de epistéme y depende por tanto de ésta;
por lo contrario, en la época moderna la tecnología proporcionará unos modelos muy influyentes para la concepción
del conocimiento en cuanto tal.
Según Heidegger, la técnica es típicamente un fenómeno moderno, en el cual se realiza la actitud del hombre occidental de manipular a la naturaleza, de hacer violencia al ser.
Lejos de ser una consecuencia o aplicación de la ciencia natural, la técnica ha modelado la esencia de dicha ciencia, llevándola a proponer de la naturaleza una visión distorsionada,
218
basada en pretensiones de matematización que puedan permitir los cálculos necesarios para manipularla. Heidegger
llega a afirmar que la verdadera esencia de la téchne no consistía en una finalidad práctica de producción, sino en una
actitud contemplativa que trataba de desocultar la verdad
del ser según un procedimiento de tipo artístico y poético.
Se deduce que la tecnología como tal no es algo modernísimo, pues su raíz se encuentra ya en el pensamiento griego, correspondiendo al espíritu de la civilización occidental, es decir, a la necesidad de dar razón. Esta es una exigencia del logos que es diferente, aunque está en conexión, con la
exigencia de conocer la verdad de las cosas.
La Tecnología y el Conocimiento Científico Moderno.
Es conocida la manera de presentar a la ciencia natural
antigua como basada en la especulación y el principio de
autoridad y careciendo de actividad observacional. Esto es
falso. Recuérdese, la historia del aristotélico Cremonini, profesor de la Universidad de Padua en la época en que Galileo
también se encontraba allí; éste último había observado los
satélites de Júpiter y comenzado a desarrollar un primer esbozo de astronomía que preparaba el camino para aceptar
científicamente la teoría copernicana. Son conocidas las dificultades suscitadas al respecto, al colisionar tal propuesta
con el espíritu de la física aristotélica aceptada entonces.
Galileo invitó a Cremonini a mirar por el telescopio asegurándole que vería lo que él había visto, pero éste le dio una
respuesta negativa, lo que se acostumbra a ridiculizar so219
bremanera, alegando que no quería hacerlo porque no deseaba confundirse en sus ideas. Un principio fundamental
de la metodología científica de toda la tradición clásica
era el siguiente: non fit scientia per visum solum, no
hay ciencia, o saber, sólo a través de la vista u observación.
Este caso nos previene de que la observación científica
no es una simple observación, sino que es una observación
que pasa a través de instrumentos. ¿Por qué éstos? Porque la
ciencia natural moderna se basa en una decisión tomada conscientemente por Galileo y seguida por Newton y los nuevos
científicos.
Cuando nos proponemos conocer las substancias naturales se presentan dos posibilidades: la primera es la pretensión de tratar de sacar especulando la esencia intrínseca de
las cosas. La segunda posibilidad es contentarse con conocer ciertas afecciones de dichas substancias. Este es un término técnico del lenguaje escolástico de la época, que se
puede entender en el sentido de cualidades o propiedades.
Además, entre tales cualidades, podemos limitarnos a considerar las que sean matematizables, ya que, como afirma el
mismo Galileo en otra página famosa de su Saggiatore, estas
son las que pertenecen a los cuerpos físicos y reflejan estructuras matemáticas. No es mediante la simple observación
como se obtienen esos aspectos. Hay que llevar a cabo una
construcción ideal, crear una situación experimental, en la
cual los factores matematizables puedan revelarse de manera aislada, porque la experiencia no proporciona ninguna de
estas situaciones ideales o puras.
220
¿Cómo se puede sacar esto de la experiencia? Es imposible. En
la práctica, si se empuja un cuerpo terminará por pararse sin
permanecer en movimiento rectilíneo y uniforme. Así ocurrirá con cualquier situación concreta que podamos observar. Por tanto, se trata en realidad de una idealización: si no
hubiera resistencia del medio, entonces no habría ninguna
razón por la cual el movimiento tuviera que detenerse. Esta
idealización teórica puede recibir un soporte experimental,
ya que se puede constatar que, cuanto más se llegue a eliminar fricciones y resistencias del medio, tanto más el cuerpo
sigue continuando en su movimiento rectilíneo.
Como nos explica Galileo en varias ocasiones, el procedimiento que propone consiste en formular una hipótesis
matemática obtenida por idealización, concerniente a los
aspectos que se están investigando. Luego hay que construir
artificialmente una situación experimental en la cual de pueda constatar si la hipótesis ideal se realiza. Es lo que, Galileo
hizo para determinar la ley de caída de los graves, formulando una hipótesis matemática sugerida por la idea de proponer, en primer lugar, la expresión más simple, y construyendo planos inclinados según características precisas que le
permitieron concluir que dicha hipótesis expresaba la naturaleza de dicho movimiento.
La ciencia moderna se revela conectada a la tecnología,
pues, en primer lugar, es necesario inventar, construir un
instrumento para observar la naturaleza; en segundo lugar,
el experimento científico consiste en la realización de una
situación artificial, porque sólo dentro de una situación artificial se podrá poner a la vista lo que nunca se aprecia en una
221
observación natural. Así, la ciencia experimental es una ciencia que, lleva escrita la tecnología en sus raíces.
El Cambio de Perspectiva Epistemológico.
No es correcto afirmar que la diferencia entre ciencia
antigua y ciencia moderna consiste en el hecho de que la
primera ignoraba la observación y la segunda la apreciaba.
En realidad, la ciencia moderna aprecia mucho a la observación, pero a condición de que sea exacta, es decir, instrumental, y la amplía cuando incluye en lo observado la consideración de los resultados de los experimentos. De esta
manera la observación alcanza tal importancia que llega a
subvertir el orden de prioridad epistemológica característico de la visión clásica: entre empiria y logos, la prioridad pasa
a la empiricidad.
La ciencia experimental moderna se caracteriza por el
hecho de que, cuando se afirma algo, hay que averiguarlo.
Son los neopositivistas, los que han expresado en grado
máximo esta caracterización. En cambio, Popper dijo que
nunca se puede averiguar una afirmación científica, sino tan
sólo falsarla: averiguar o falsar consisten de todas maneras
en someter las afirmaciones científicas a un control experimental y admitir sólo las que son compatibles con esto y
rechazar las que no lo son. El tribunal último es el tribunal
de la experiencia, de la constatación empírica. Este es un
punto de vista diferente del punto de vista clásico, en el que
se consideraba que los principios metaempíricos gozaban
de validez, que tenían que permitirnos explicar el contenido
222
de la experiencia, pero sin ninguna posibilidad de ser refutados. En particular existía una regla metodológica: abducere
inconveniens non est solvere argumentum, lo cual significa que lo más decisivo no es el resultado de la observación
empírica, el cual, aunque pueda parecer contrario a un principio teórico, no puede negarlo, se trata de un inconveniens,
de una dificultad que no soluciona el asunto sino que hay
que ser capaz de explicar, y con eso solucionar la dificultad
misma.
La ciencia moderna cambia el acento, pero no fue desde
luego un cambio pacífico. Cuando Descartes recibió de parte
de Mersenne un ejemplar de la única obra científica de
Galileo, los Diálogos sobre dos nuevas ciencias, expresó en
una carta a su amigo, un juicio que tal vez no hubiera escrito
si hubiera imaginado que la posteridad le leería también.
Afirma de Galileo que razona mejor que la mayoría de los
geómetras y matemáticos y concuerda con él en que el conocimiento de la naturaleza tiene que pasar a través del instrumento matemático.
No se trataba, de una idea aceptable. Galileo, en cambio, la acepta explícitamente, pero es Newton quien desarrolla todas las consecuencias. En el tercer libro de la Óptica, en sus consideraciones metodológicas, afirmará que en
la filosofía natural hay que contentarse con generalizaciones
obtenidas de los fenómenos; ya no se habla de principios
universales que puedan poseer una solidez más garantizada
que los fenómenos. Se trate de falsación o de confirmación,
la epistemología actual sigue permaneciendo dentro de este
mismo surco: el tribunal experimental es decisivo, por lo
que la tecnología es un elemento básico de la estructura
223
noética de la ciencia, dado que los experimentos dependen
de y se construyen con tecnología. Es decir, en la estructura
noética de esta nueva manera de conocimiento se incluye a
la tecnología. Por ello, la tecnología es algo más que ciencia
aplicada: es también eso, pero además entra, a través de caminos muy profundos, dentro de la estructura misma del
conocimiento científico.
Tecnología y Objetividad Científica.
El conocimiento científico se construye como conocimiento objetivo en el siguiente sentido: ninguna ciencia se
ocupa de lo real en su totalidad sino solamente de sus objetos específicos, y esos objetos resultan del hecho de considerar la realidad, bajo determinados conceptos. Por ejemplo, en mecánica, masa, espacio, tiempo, fuerza, y nada más;
ni el color, ni el precio de una cosa entran dentro de ella.
Otras ciencias consideran la realidad según otras perspectivas y conceptos, y dichos conceptos han de acompañarse de
operaciones de observación y medición, para poder realizar una referencia a lo real. Para conocer algo en cualquier
ciencia natural es preciso que, después de una cierta cadena
de razonamientos y de cálculos, se pueda llegar a un nivel en
el cual se lleva a cabo un experimento, y es entonces cuando
se constituye el objeto. Así, el objeto físico es físico en el
sentido de que hablamos de él con predicados y criterios de
referencia que se utilizan en física, el objeto biológico es tal
porque lo determinamos a través de otros criterios diversos que son los de la biología, el objeto histórico remite
siempre a operaciones de consulta de archivos, documen224
tos. Siempre existen operaciones concretas para poder llegar
a afirmar que tal cosa es o no verdad en el discurso de una
ciencia determinada; la importancia de la tecnología es fundamental, ya que la intervención de la tecnología permite a
cualquier ciencia empírica constituir su ámbito de objetos.
La verdad científica se constituye sobre todo como consecuencia de muchas confirmaciones. Las teorías científicas
se pueden considerar verdaderas o falsas en un sentido un
poco especial; en el mundo actual, los resultados fácticos de
las confirmaciones de las teorías científicas son los productos tecnológicos, y éste es el punto fundamental. ¿Qué son
tales productos? Todos son previsiones que tienen éxito. En las
obras de epistemología se dice que hay un momento en el
que se formula una hipótesis, y después, con ella se explican
los hechos que han provocado el planteamiento de la cuestión. Unos se refieren a este proceso como grado de confirmación de la hipótesis, otros, los popperianos dirán que no
se puede concluir la verdad de la hipótesis y hablan de grado de corroboración, aunque todos remiten a la misma idea,
a saber, que no tenemos certeza pero que se puede alcanzar
una situación de fiabilidad. Tal situación consiste en el hecho de que poseemos muchas previsiones que tienen éxito;
los productos tecnológicos son las realizaciones de las previsiones de éxito de las teorías científicas.
La Máquina como Criterio de Inteligibilidad.
Es procedente destacar otro aspecto que muestra asimismo el impacto epistemológico de la tecnología. Se trata
225
de cómo la tecnología ha transformado nuestra forma de
concebir la ciencia. Desterremos, en primer lugar, la ilusión
de que la ciencia ha permitido al hombre dominar a la naturaleza. Esa es una utopía que se halla en Francis Bacon, que
se veía a sí mismo como el gran anunciador que proclamaba
que con la ciencia se podría instaurar el reino del hombre, el
regnum hominis, que consistía en dominar a la naturaleza a
través del conocimiento de los secretos de la naturaleza misma. Estas ideas se encuentran también en el racionalista Descartes, constituyendo el sueño que debía permitir al hombre
dominar la naturaleza, asegurar su bienestar y su progreso.
Pero fue una utopía. ¿Por qué? ¿Cuál es el típico producto de
la aplicación de la ciencia moderna? La máquina. Pero la maquina
no es algo que subyugue a la naturaleza sino que la sustituye.
Se piensa además que bajo un cierto punto de vista la máquina realiza mejor y más rápidamente que la propia naturaleza los cometidos correspondientes; lo que de hecho aconteció no fue un dominio de la naturaleza para ponerla al
servicio del hombre, y aquí se puede ver cuán lejos estaba
Heidegger de interpretar el sentido de la técnica, pues lo
que ha ocurrido en la construcción de otro mundo al lado
del mundo de la naturaleza, el cual se considera mejor en un
cierto sentido y bajo ciertos puntos de vista.
¿Qué representa la máquina? La máquina posee una enorme
ventaja: dentro de ella no hay secretos, todo es conocido
para el técnico o el especialista; está construida según un
proyecto que permite saber cómo funciona y devolverla a
su funcionamiento; antes de construirla sabemos cómo funcionará y por qué funcionará así y esto no se conoce por la
experiencia, sino que se sabe antes de que exista. A partir de
226
este momento histórico, la máquina vuelve a ser un modelo
teórico; la mayoría de ellas se pueden transformar en experimentos mentales, o sea, se interpreta una situación compleja según mecanismos, y hablamos así de los mecanismos
psíquicos, de los mecanismos del mercado. La máquina se
presenta como un ideal. La interpretación del animal y del
hombre como máquinas es una concepción típica del siglo
XVIII. Pero ¿qué tipo de máquina? El que proporcionaba la
ciencia de la época, es decir, la mecánica. La tecnología ha
cambiado la manera de entender la explicación científica;
esta consiste en elaborar un modelo máquina para todas las
cosas. También ha variado la manera de entender la noción
de observación y de inobservable. En física, por ejemplo,
son continuas las discusiones acerca de la realidad de las
partículas elementales y de su observabilidad.
¿Qué significa observación? La observación no se puede reducir a percepción, porque la observación consiste en atribuir a algo el resultado de lo percibido, de los perceptos.
Cuando se afirma que se está viendo alguna cosa es porque
hemos incluido los detalles que han afectado a los sentidos
dentro de un constructo que depende de las cosas que ya
conocemos. La observación requiere, una integración de
conjunto de nuestras facultades. Lo mismo ocurre cuando
se observan las fotos tomadas dentro de una cámara de
Wilson: el científico es el que sabe cómo interpretar esas
fotos, y, entonces, afirma que ha visto la trayectoria de un
electrón.
Se aprecia así cómo la tecnología ha cambiado el concepto de observable e inobservable. Observable es siempre aquello observable a través de instrumentos, y lo que se
227
observa a través de éstos es observable aunque no corresponda a nada cuyas propiedades sean perceptibles por los
sentidos; se atribuye al objeto científico propiedades que
dependen indirectamente de los resultados de observación
y de medición, pero no se ven. Si atribuimos a algo una masa
o una carga eléctrica, tales cosas no se pueden ver sino que
se calculan; el objeto científico resulta como un conjunto de
todos estos predicados, ninguno de los cuales es visible, pero
a cada uno de ellos se puede considerar como causa de efectos percibibles revelados a través de los instrumentos.
La tecnología es la condición generalizada para la
construcción de los objetos científicos y para su conocimiento. Se ha visto que de la realidad se realiza una especie de
corte que selecciona ciertos aspectos a fin de someterlos a
los procesos cognoscitivos, y tales aspectos son hoy los que
tan sólo mediante instrumentos de tecnología muy avanzada se pueden poner en evidencia. Se necesitan conceptos, y
de otro son precisas tecnologías capaces de poner en contacto estos conceptos con sus referentes. Por eso, es gracias
a la tecnología que hoy día puede seguir afirmándose el alcance realista de la ciencia, pues tal alcance depende del uso
de instrumentos, y de la tecnología.
La Dominación Tecnológica según la Teoría Crítica
En la actualidad, la influencia que ejercen ciertas tecnologías sobre la vida a partir de la incorporación de la computadora, invita a desarrollar un sentido crítico que se enfrente a los imperativos tecnológicos; una manera de llevar
228
a cabo esta inquietud es reconociendo cuáles son las interpretaciones antecedentes de esta mirada crítica sobre el proceso de innovación técnica. Con tal objeto, se establece la
necesidad de reconstruir los lineamientos originales del diagnóstico surgido de los aportes de la teoría crítica.
Para alcanzar dicho objetivo, se recuperan las obras de:
Horkheimer, Adorno y Marcuse, que mediante las apreciaciones salientes de un revisionismo que cuestiona muchas de
sus afirmaciones, simbolizado en la figura de Jürgen
Habermas. Según Marcuse, la ideología dominante se sirve
de la función operacional de la tecnología para reforzar distintas formas de alineación y aislamiento en detrimento de
la libertad humana. Los desafíos teóricos promovidos por
esta afirmación son hoy un horizonte de reflexión categórico.
Marcuse y la Política de la Tecnología
Según Habermas, los hombres del círculo interno de la
Escuela de Frankfurt compartían una filosofía de la historia,
que supone el proceso de racionalización técnica de la vida
social, y, que alcanza su fin en un sistema cerrado de dominación tecnológica; más allá de esta interpretación, advierte
la actitud distintiva de Marcuse, cuando reacciona al diagnóstico de la época y recupera la idea de resistencia, al llevar
a la razón al ámbito de la naturaleza libidinal.
Más allá de Habermas, aquí vemos como las potencialidades emancipatorias se hallan en Marcuse, y, por lo cual,
no había necesidad de rediseñar su interpretación, sino que
229
era preciso permanecer en los supuestos e indicadores analizados para el diagnóstico del hombre unidimensional para
encontrar una salida. En dicha obra se observan tres niveles
analíticos, que expresan los cambios operados en la forma
de dominación de la sociedad industrial avanzada. El primero de ellos pone el acento en el pasaje de la dominación
caracterizada por la fuerza hacia una forma menos violenta.
La novedad la centra en una forma de dominación técnica
que se sostiene sobre la base de una eficacia de los resultados alcanzados por el progreso, y un adoctrinamiento promovido por las mejorías del nivel de vida. En su lugar había
quedado una parodia cruel del sueño de la libertad positiva. La Ilustración, que había tratado de liberar al hombre, irónicamente había
servido para esclavizarlo con medios mucho más eficaces que nunca.
Sin un mandato claro para la acción, el único curso abierto para quienes todavía podrían escapar al poder embrutecedor de la industria cultural consistía en preservar y cultivar los vestigios de negación que aún
quedaban. Según Jay.
Esta primera suposición insiste en que: en la sociedad
industrial avanzada el progreso técnico se ha extendido hasta convertirse en el eje de la dominación y la coordinación.
Con esa función mediadora crea formas de vida y reproduce un poder, que reconcilia a las siempre sensibles fuerzas;
por ende, el centro de los análisis críticos sobre esta formación social tiene que centrarse en el diseño totalizante del
aparato técnico y científico. En palabras de Marcuse, esto se
observa cuando: el aparato técnico de producción y distribución funciona, no como la suma total de meros instrumentos que pueden ser
aislados de sus efectos sociales y políticos, sino más bien como un sistema que determina a priori el producto del aparato, tanto como las
operaciones realizadas para servirlo y extenderlo.
230
Marcuse pone en dudas el supuesto tradicional sobre la
neutralidad tecnológica. Admitiendo que, el dispositivo de
control y coordinación no puede ser separado de la forma
cómo se emplea; su operatividad es omnipresente. La intromisión del recurso técnico en todos los aspectos sociales se
justifica en vista de su instrumentalidad, en el sentido de
productividad y crecimiento potencial; dichos indicadores
son empleados como principios para la estabilidad de su
permanencia, es decir, para profundizar su carácter omnipresente, sin dar lugar a otras alternativas sobre su
funcionalidad. Esta función ideológica hace del accionar técnico un accionar político: el impacto del progreso convierte a la
razón en sumisión a los hechos de la vida y a la capacidad dinámica de
producir más y mayores hechos de la misma especie de vida. La eficacia del sistema impide que los individuos reconozcan que el mismo no
contiene hechos que no comuniquen el poder represivo de la totalidad.
Si los individuos se encuentran a sí mismos en las cosas que dan forma
a sus vidas, lo hacen no al dar, sino al aceptar la ley de las cosas; no las
leyes de la física, sino las leyes de la sociedad. Según Marcuse.
El segundo nivel analítico es el reconocimiento de los
impactos de la sociedad tecnológica sobre la libertad y, con
su recorte, descubre las contradicciones de esta conformación social y los espacios de la resistencia; frente a su fortaleza, promovida por una reproducción de riqueza, que conforma las necesidades de todos los individuos la oposición
a este orden de cosas se nos presenta como una expresión
del grado de beneficio alcanzado por el progreso social.
Esta novedad también, puede revertirse, y advertirse: debido a que el poder de la máquina no es más que la expresión
manifiesta del poder del hombre, almacenado en los apara231
tos y proyectado en su eficacia; esta forma de poder, omnipresente, eficaz y permanente puede encontrar, a pesar suyo,
un cambio: cuando más racional, productiva, técnica y total deviene
la administración represiva de la sociedad, más inimaginables resultan
los medios y modos mediante los cuales los individuos administrados
pueden romper su servidumbre y alcanzar su propia liberación. El
proceso siempre reemplaza un sistema de precondicionamiento por otro;
el objetivo óptimo es la sustitución de las necesidades falsas por otras
verdaderas, el abandono de la satisfacción represiva.
Encontramos un tercer nivel analítico, el cual indica una
paradoja en esta dominación, y la ubicación de los potenciales críticos de la dominación tecnológica. Si bien la libertad
se ha convertido en un medio de dominación existe una salida para esta reproducción del poder: el recurso está en
liberarnos de aquello que es tolerable. En este estado de
complejidad del dominio de la sociedad, el camino es intensificar la contradicción del poder. Demostrando que no
poseemos la capacidad de determinar un grado de libertad,
y que el abanico de posibilidad para escoger, no nos provee
de la facultad para ser libres. Parafraseando al autor: la sociedad que proyecta y realiza la transformación tecnológica de la naturaleza, altera la base de la dominación, reemplazando gradualmente la
dependencia personal por la dependencia al orden objetivo de las cosas.
Los límites de esta racionalidad, y su siniestra fuerza, aparecen en la
progresiva esclavitud del hombre por parte de un aparato productivo
que perpetúa la lucha por la existencia y la extiende a una lucha
internacional total que arruina las vidas de aquellos que construyen y
usan este aparato.
En esta potencialidad se instala Marcuse para cuestionar
la racionalidad unidimensional. El modelo de pensamiento
232
y conducta unidimensional de las ideas y sus contenidos sólo
son reducibles para el universo: la política tecnológica y sus
justificaciones. Es necesario evaluar las razones de su irracionalidad, siendo necesario indagar el conjunto de hipótesis autovalidades que promueven este universo ideológico,
más allá de descubrir que su eficacia está en la repetición
práctica de sus principios.
La Política de la Tecnología
A pesar de su aparente instrumentalismo, la teoría crítica rechaza una actitud neutral frente a la tecnología. En su
lugar supone un complejo racional de índole técnica que se
convierte en un universo. Tanto los diseños como las aplicaciones de los dispositivos tecnológicos se inscriben a partir
de los valores del poder. Los objetivos y objetos de la tecnología no pueden considerarse como pura ideología, no es
una expresión del interés de la clase dominante, ni son un
requerimiento del desarrollo técnico independiente de la
evolución de la sociedad. Habría que admitirlos como en
una intersección entre la ideología y la técnica, como articulación funcional al servicio del control de los hombres y los
recursos. Son dispositivos técno-ideológicos que contienen valores materializados en reglas y procedimientos de los artefactos que ponen en marcha la eficacia y la eficiencia de su
control. La teoría crítica la dominación tecnológica supone
no una instrumentalidad, mediada por artefactos, sino un
proceso ambivalente de posibilidad prácticas, que se distingue del supuesto neutral de su intervención.
233
Hace más de cincuenta años que Th. Adorno y Max
Horkheimer publicaron un trabajo en el que sometían a juicio todo el proceso de racionalización occidental que, arrancando del mundo griego, llega hasta nuestros días. Este tiempo que nos separa de la publicación de Dialéctica de la Ilustración bien podría brindarnos la ocasión de retomar las
cuestiones abordadas y hacer un balance sobre la oportunidad de sus diagnósticos, al objeto de comprobar si siguen
manteniendo una fertilidad teórica, a saber, la comprensión
teórica de la actualidad.
Desde muy antiguo, el hombre, ha hecho de su debilidad física su mejor aliada, desarrollando capacidades y destrezas que le han permitido sobrevivir frente a las amenazas
del entorno. Es así como se pone en marcha todo un proceso de lucha por la existencia, o, por decirlo con Habermas,
de reproducción material del mundo, del que no podremos
prescindir mientras seamos seres naturales con necesidades
materiales. Esta lucha por la existencia nos acompaña, pues,
como la sombra al cuerpo, haciéndose más visible unas veces que otras; pero en esta interacción con el entorno, la
razón ha tenido siempre un papel importante. La relación
del hombre con su mundo ha estado presidida por una reflexión sobre los fines de la existencia, por un discurso que
servía de marco de referencia para la acción; la reproducción material del mundo se enmarcaba en una reproducción
simbólica que podía ser cambiada, pero que hacía las veces
de plataforma teórica para justificar la acción del hombre
en el mundo. Pues bien, es esa reproducción simbólica del
mundo como horizonte, como marco para la acción, y, en
definitiva, como rectora de la praxis; y lo está porque se ha
234
disparado cualitativa y cuantitativamente esa lucha por la
existencia. De manera que pueda ser éste el rasgo distintivo
de nuestro tiempo: como decía Kant, una razón que sabe
cómo obrar pero no hacia dónde, no puede bastarse.
El diagnóstico frankfurtiano sobre los procesos de
racionalización modernos, sobre los avances de la ciencia y
la técnica apuntan a este peligro: por una parte, la pérdida
de reflexividad de la praxis; por otra, la absolutización de
esa dinámica que la reproducción material del mundo incorpora, de esa lucha por la existencia, de esa
autoconservación. Así, la pérdida del carácter reflexivo de
la praxis conduce a un desafío para nuestro presente.
Los efectos que la dinámica del capitalismo incorpora
no pueden medirse sólo en términos de rentabilidad económica, como si fueran los únicos que se producen. Desde
siempre, el hombre ha tenido que dar una respuesta a los
problemas que sus necesidades y el entorno natural y social
le han planteado. Para ello ha organizado y desarrollado dispositivos de investigación y de intervención en el mundo.
La razón se desplegaba, así, bajo una doble forma teóricoreflexiva e instrumental-estratégica, orientada esta última al dominio técnico de la naturaleza. Los componentes reflexivo e
instrumental de la razón han convivido durante siglos. Pues
bien, para los autores de Dialéctica de la Ilustración los problemas que presentan un desafío proceden de la escisión de
estos dos momentos de la compleja razón humana, hasta el
punto de que se ha producido una instrumentalización de la
razón. Dicho con otros términos: cuando más avanzó el
proceso de racionalización que arranca con los mitos en su
intento de explicar el mundo y la praxis; cuando la ciencia y
235
la técnica llegan a su punto más alto, se hace más cuestionable la racionalidad de este proceso. ¿Hasta qué punto hemos
construido un mundo más racional en unos tiempos en los que el desarrollo científico-técnico ha alcanzado unos niveles difícilmente
imaginables? ¿Podemos decir que se han hecho realidad las esperanzas
que la Aufklärung depositó en el desarrollo de aquélla? Ni que
decir tiene que estas preguntas pueden incomodar a quienes
se encuentren entre las filas del universo científico-técnico. Pero
no es este el propósito de Adorno y Horkheimer, ni tampoco lo es el de proponer una vuelta a la naturaleza. Lo que
Adorno y Horkheimer se proponen con su crítica de los
procesos de racionalización modernos no es sino una revisión, una crítica en el sentido kantiano de indagación de los
límites de la ciencia y de la técnica. No se trata, de creer que
en la crítica frankfurtiana hay un rechazo del progreso científico-técnico; más que un rechazo de la ciencia y de la técnica en
sí hay en ellos un cuestionamiento de su utilización al servicio del sistema productivo; denuncian que la ciencia y la técnica, lejos de ser una instancia crítica empeñada en la emancipación del hombre, es utilizada con miras productivas; así,
al eclipsarse la dimensión crítica que en otro tiempo tuvo, el
discurso científico-técnico coopera en la perpetuación de lo
existente, desempeñando una función conservadora.
Pero en esta vertiginosa carrera, nuestra racionalidad se
cobra sus víctimas: ahí está esa naturaleza extenuada; pero
junto a esta naturaleza externa también está esa otra naturaleza interna, la de todos y cada uno de nosotros, que se ve
sometida, a un esfuerzo para lograr la mera supervivencia.
Pero no son sólo la naturaleza externa o el equilibrio
psicofísico los que están amenazados. También asistimos a
236
una crisis de fines práctico-morales como consecuencia de
la demanda de satisfacción de imperativos técnicos. La lucha por la existencia se ha radicalizado hasta el extremo de
que cada vez hay menos lugar para la reflexión crítica sobre
los fines de la praxis. Las cuestiones prácticas, sobre lo justo
y lo injusto corre el peligro de disolverse en cuestiones técnicas. La desmoralización de la sociedad, el sentimiento de
impotencia y de aislamiento de los individuos es un resultado de un proceso deshumanizador. Los sujetos experimentan el peligro que se cierne sobre la supervivencia. Y mientras tanto, la vida de los hombres se estructura en torno a
una categoría central, que es consecuencia lógica de esta
radicalización de la autoconservación. Esta categoría que se
ha hecho central en nuestras vidas es la de trabajo. Pero como
apuntaron Adorno, Horkheimer y Marcuse, lo patético de
nuestro modo de entender la vida en términos de trabajo es
que, una mayoría no es feliz en él. La vida no vive, subscribirá Adorno en su Minima moralia. ¿Cómo es posible que la naturaleza no se rebele, cómo es posible que todo siga intacto, como si todo
fuera normal?
La Racionalidad de la Ciencia
La comunidad científica se ve a sí misma, como el auténtico paradigma de la racionalidad institucionalizada. Según
Popper: la ciencia es una de las pocas actividades humanas, en la
cual los errores se critican sistemáticamente y muy a menudo, se corrigen con el tiempo. Si se desea analizar hasta qué punto la imagen
que la comunidad científica tiene de sí misma corresponde a
los hechos. Vistos sub specie aeternitatis, los científicos
237
son un conjunto muy voluble; la historia de la ciencia es el
relato de los múltiples cambios de lealtad de una teoría a
otra; gran parte del de la actividad científica consiste en explicar el cambio. Este cambio de lealtades de una teoría a
otra, se refiere a un cambio científico, es un cambio que requiere explicación. Lo que se encuentra en realidad es tipos
radicalmente divergentes de esquemas explicativos; las diferencias entre los proponentes de estos esquemas son tan
profundas como son siempre las divergencias intelectuales,
y conciernen a la objetividad de la verdad, la posibilidad de
discurso racional, la naturaleza de los valores, el lenguaje, el
significado y la explicación.
Los modelos de explicación del cambio científico son
de dos tipos: modelos racionales de cambio científico y
modelos no racionales. Un modelo racional comprende dos
elementos; en primer lugar se estipula algo como finalidad
de la ciencia; se considera que el objetivo de los científicos
es producir teorías de un tipo especial. En segundo lugar, se
enuncia algún principio que permita comparar teorías rivales sobre un marco de evidencia dado de antemano. Los
racionalistas, entre los que se encuentran Popper, Lakatos y
Laudan presentan entre sí, grandes diferencias en sus especificaciones respectivas tanto de las metas de la ciencia como
de los principios de comparación. La mejor explicación del
comportamiento de la ciencia es la que se obtiene a través
de un modelo teórico de juego en el cual se considere que
los científicos están dedicados a maximizar su prestigio en
el seno de la comunidad científica.
Se podría tratar de impugnar un modelo racional demostrando que no se ajusta a la historia de la ciencia; un
238
modelo particular podría obligarnos a interpretar todo cambio como no racional. Si se advierte que un modelo no resulta aplicable, este argumento exige su desestimación a favor de otro modelo racional; como el racionalista se compromete con un programa de investigación diseñado para
reinvindicar un modelo cualquiera pero no uno en particular, la impugnación que se le formula es la de que en todo
modelo racional hay presupuestos implícitos que no se pueden satisfacer. Ningún modelo racional puede servir como
ideal defendible con el cual pueda confrontarse la práctica
científica real.
El racionalista se ocupa de articular un conjunto de principios que proporcionan el criterio objetivo de los méritos
relativos de teorías rivales al margen de toda referencia a la
evidencia; la condición de utilidad, es que las teorías puedan
compararse. La posición de los no racionalistas como Kuhn
y Feyerabend es la afirmación de que tal cosa es imposible,
de que las teorías son inconmensurables. El ejemplo detal
inconmensurabilidad lo representa el encuentro entreun defensor de la mecánica newtoniana y un defensor de la
mecánicarelativista; según Kuhn, el cambio de significado
ha sido tan grande que los conceptos de una teoría no se
pueden expresar en la otra; su conclusión es que las teorías
no admiten comparación. Para Feyerabend, la
inconmensurabilidad sólo surge en ciertas condiciones.
Kuhn, sobre la base de la inconmensurabilidad manifiesta que: la tradición científica einsteiana que surge de esta revolución científica no sólo es incompatible con lo que existía anteriormente,
sino realmente inconmensurable con ello. Feyerabend sostiene que
los defensores de teorías inconmensurables interpretan los
239
hechos de maneras diferentes. La doctrina de la
inconmensurabilidad tiene un buen número de fuentes. Se
dice, que el significado de un término teórico está determinado por todo el conjunto de proposiciones de la teoría
que contenga el término, en consecuencia, todo cambio en
los postulados que contengan un término teórico dado, produce un cambio en el significado de dicho término.
Para el positivista y el neopositivista, el enfoque de postulado significante y el enfoque holístico sólo son aplicables
a términos teóricos; de los términos observacionales pensaban que eran directamente aplicables a la experiencia. Su
significado quedaba especificado en términos de las condiciones de verificación con referencia a la experiencia posible; se consideró que mientras el cambio teórico entrañaba
cambios en el significado de los términos teóricos, el significado de los términos observacionales permanecía sin variación a pesar del cambio teórico.
En la era pospositivista los críticos del positivismo, atacaron la concepción de una dicotomía entre teoría y observación. Pero toda observación está cargada de teoría, esto
quiere decir, que no hay lenguaje observacional neutro desde el punto de vista teórico. En consecuencia, tanto los llamados términos teóricos como los llamados términos
observacionales, son tratados como si fueran implícitamente definidos por la teoría en la cual aparecen. El programa
racionalista no puede dar siquiera el primer paso a menos
que se resuelva el problema de la inconmensurabilidad.
Los racionalistas han tendido al realismo, y el punto de
vista realista de la ciencia tiene como partes:
240
a) La afirmación de que las teorías son verdaderas o
falsas en virtud de cómo sea el mundo
b) La afirmación de que el objetivo científico reside
en el descubrimiento de verdades explicativas acerca del mundo
La primera reacción que se produce ante la explicitación
de esta afirmación que es de considerarla axiomática. Pensar que las teorías son inconmensurables es pensar que no se
las puede comparar entre sí, y que en consecuencia no puede haber ninguna razón racionalmente justificable para pensar que una teoría sea mejor que otra. Manifiesta Kuhn: la
tradición científica normal que surge de una revolución científica no
sólo es incompatible, sino a menudo realmente inconmensurable, con la
que le precediera. Kuhn propone dos afirmaciones, que si se
las aceptara darían lugar a una cierta inconmensurabilidad,
entendiendo por inconmensurabilidad una limitación de la
posibilidad de producir elecciones racionalmente justificables entre teorías; la primera tesis sostiene que al justificar
preferencias por una teoría se tiene que recurrir a juicios de
valor. La segunda sostiene que los juicios de valor son autónomos en el sentido en que es imposible aducir ninguna consideración para preferir un juicio de valor sobre otro.
Si Einstein y Newton discurren acerca de masa y fuerza,
no pueden discrepar, pero no porque estén de acuerdo; tampoco pueden concordar. Simplemente hablan de cosas diferentes. Desde este punto de vista, la afirmación de Newton:
la masa es invariable, y la afirmación de Einstein: la masa no es
invariable, no son lógicamente incompatibles, puesto que el
significado de masa, no es constante en ambas teorías. Esto
241
quiere decir que Einstein y Newton podían auténticamente
concordar o discordar en caso de que discurrieran en el plano observacional; lo cual significaba que las teorías respectivas se podrían comparar objetivamente recurriendo al nivel observacional.
242
BIBLIOGRAFÍA
1) Conde, Fernando; (1999) Las Perspectivas Metodológicas
Cualitativa y Cuantitativa en el Contexto de la Historia
de las Ciencias. En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación
en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 55-68
2) Conde, Fernando; (1999) Procesos e Instancias de Reducción/Formalización de la Multidimensionalidad de
lo Real: Procesos de Institucionalización /Reificación
Social en la praxis de la Investigación Social. En J.
Gutiérrez, M. Delgado (Coordinadores), Métodos y
Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 55-68
3) Davila, Andrés (1999) Las Perspectivas Metodológicas
Cualitativa y Cuantitativa en las Ciencias Sociales: Debate Teórico e implicaciones praxeológicas. En J. Gutiérrez,
M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.).
Síntesis Psicológica, España. pp: 69-83
243
4) Gutiérrez, Juan y Juan Manuel Delgado, (1999). Introducción. En J. Gutiérrez, M. Delgado (Coordinadores),
Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp:
25-50
5) Olabuenaga, Ruiz José I. (1999). Metodología de la Investigación Cualitativa, Serie Ciencias Sociales No. 15 (2ª.
Ed.). Universidad de Deusto, Bilbao.
6) Ortí, Alfonso (1999). «La Confrontación de Modelos y
Niveles Epistemológicos en la Génesis e Historia de la
Investigación Social». En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 85-95
7) Zemelman, Hugo; (2000a). «Conocimiento y Sujeto Sociales, Contribución al Estudio del Presente», Jornadas
111 (2a. Ed.). Centro de Estudios Sociológicos, El Colegio de México.
8) Zemelman, Hugo; (2000b). Problemas Antropológicos
y Utópicos del Conocimiento, Jornadas 126 (2a. Ed.).
Centro de Estudios Sociológicos, El Colegio de México.
9) Covarrubias V, F. (1995, a) Las herramientas de la Razón.
La teorización potenciadora intencional de procesos
sociales, ed. SEP - UPN, México, Col. Textos, N0. 3.
10) Covarrubias V, F. (1995, b). La teorización de procesos
histórico - sociales. Volición, ontología y cognición científica, ed. SEP - UPN, México, Col. Textos No. 4.
244
11) Covarrubias V, F. (1998). Manual de técnicas y procedimientos de investigación social desde la epistemología
dialéctica crítica, ed. UPN-Oaxaca, Colegio de Investigadores en Educación de Oaxaca, S. C., México; Colec.
Teoría 1.
12) Gutiérrez, P. J. G. (1998). Metodología de las ciencias
sociales II, ed Oxford University Press, México.
13) Agamben, Giorgio (2001) Medios sin fin. Notas sobre
la política, Valencia, Pre-Textos.
14) Besse, Juan (2000) «Las prácticas de escritura y diseño
en la investigación social» en Cora Escolar (comp.) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires, Eudeba.
15) Bourdieu, Pierre (1995) La práctica de la antropología reflexiva en Bourdieu, Pierre y Loïc Wacquant Respuestas por una antropología reflexiva, México,
Grijalbo.
16) Cacciari, Massimo (1994) Lo impolítico nietzscheano
en Desde Nietzsche. Tiempo, arte y política, Buenos
Aires, Biblos.
17) Certeau, Michel de (1996) La invención de lo cotidiano.
I Artes de hacer, México, UIA Ediciones.
18) Chartier, Roger (1997) Pluma de ganso, libro de letras,
ojo viajero, México, Universidad Iberoamericana-Departamento de Historia.
19) Eagleton, Terry (1996) La función de la crítica, Buenos
Aires.Paidós.
245
20) Escolar, Cora (2000) Palabras introductorias en Cora
Escolar (comp.) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires,
Eudeba.
21) Herf, Jeffrey (1984) El modernismo reaccionario. Tecnología, cultura y política en Weimar, México/Buenos
Aires,
FCE.
Ibáñez, Jesús ; Más allá de la sociología. El grupo de
discusión: técnica y crítica, Madrid, Siglo XXI de España.
22) Le Gaufey, Guy (1993) La evicción del origen, Buenos
Aires, Edelp
23) Milner, Jean-Claude (1995) La obra clara, Buenos Aires,
Bordes Manantial, 1996.
24) Panofsky, Erwin (1936) El estilo y el medio en la imagen
cinematográfica en Sobre el estilo. Tres ensayos inéditos, Barcelona, Paidós.
25) Rabotnikof, Nora (1998) Lo público, lo privado en
Debate Feminista. Público-Privado, Año 9, Vol. 18,
México, octubre.
26) Zizek, Slavoj (1994) En su mirada insolente está escrita
mi ruina en Zizek, Slavoj (comp.), Buenos Aires, Manantial.
27) Engel A.K. et al.(1992) Correlated Neuronal Firing: A
Clue to the Integrative Functions of Cortex? In J.G.
Taylor et al.: Neural Network Dynamics, London, 125139.
246
28) Engel A.K. et al.: Temporal Coding in the Visual Cortex,
Trends in Neuroscience 15/6, 218-225.
29) Malsburg, C.v.d./Singer, W.(1988) Principles of Cortical
Network Organization, in P. Rakic/W. Singer (eds.):
Neurobiology of Neocortex, Chichester.+
30) Popper, K.R.: (1935) Logik der Forschung. Wien.
31) Putnam, H.:(1981) Reason, Truth and History,
Cambridge, Cambridge University Press.
32) Vollmer, G.: (1987) On Supposed Circularities in an
Empirically Oriented Epuistemology, in G. Radnitzky/
W.W. Bartley III: Evolutionary Epistemology, Rationality
and the Sociology of Knowledge, Lasalle (Ill.), 163-200.
33) Chalmers, Alan, (1996) Qué es esa cosa llamada ciencia:
una valoración de la naturaleza y el estatuto de la ciencia
y sus métodos, México, Siglo xxi Editores.
34) Conde, Fernando, (1995) Las perspectivas metodológicas
cualitativa y cuantitativa en el contexto de la historia de
las ciencias y Procesos e instancias de reducción/
formalización de la multidimensionalidad de lo real: procesos de institucionalización/reificación social en la praxis
de la investigación social, en Juan Manuel Delgado y Juan
Gutiérrez (eds.), Métodos y técnicas cualitativas de investigación en ciencias sociales, Madrid, Síntesis Psicológica.
35) Fried Schnitman, Dora, (1996) Ciencia, cultura y subjetividad, en Dora Fried Schnitman (coord.), Nuevos
paradigmas, cultura y subjetividad, Barcelona, Paidós.
247
36) Glaserfeld, Ernst, (1996) La construcción del conocimiento, en Dora Fried Schnitman (coord.) Nuevos
paradigmas, cultura y subjetividad, Barcelona, Paidós.
37) Martínez, Sergio, (1997), De los efectos a las causas: sobre la historia de los patrones de explicación científica,
México, Seminario de Problemas Científicos y Filosóficos unam/Instituto de Investigaciones Filosóficas unam/
Piados
38) Ortí, Alfonso, (1995), La confrontación de modelos y
niveles epistemológicos en la génesis e historia de la investigación social, en Juan Manuel Delgado y Juan
Gutiérrez (eds.), Métodos y técnicas cualitativas de investigación en ciencias sociales, Madrid, Síntesis Psicológica
39) Cajiao, Francisco. (1996) La piel del alma. Cuerpo, Educación y Cultura. Santafé de Bogotá: Mesa Redonda.
363p. ISBN: 958-20-0302-2.
40) De La Cuesta, B. Carmen. (1998) Taller de investigación
cualitativa. En: Memorias del seminario taller de Investigación Cualitativa, Universidad de Caldas. Facultad de
Ciencias para la Salud. Programa de Enfermería. ( Abril
24-25-26 y Mayo 8-9-10. Manizales).
41) Habermas , (1999) J. Teoría de la Acción Comunicativa,
Tomo I: Racionalidad de la Acción y Racionalización
Social; y Tomo II: Crítica de la Razón Funcionalista. 4º
Edición. España: Taurus. 517 y 618p. ISBN T.1: 84-3060339-5. Y T.2: 84-306-0340-9.
248
42) Husserl Edmund. (1997) Filosofía Contemporánea. Ideas
Relativas a una Fenomenología Pura y a una Filosofía
Fenomenológica. Libro Segundo. Investigaciones
Fenomenológicas Sobre Institución. Universidad Nacional Autónoma de México. México. 512p. ISBN: 968-365-978-0.
43) Jaramillo E. Luis Guillermo. Et.al.(1999) Sentido cultural que le encuentran los estudiantes de primero y octavo semestre al programa de Educación Física De La Universidad de Caldas. Manizales. Trabajo de grado (Educación física): Universidad de Caldas. facultad de Ciencias para la salud. Departamento de Acción física Humana.
44) Arnaz, Jr. A. (1997). Iniciación a la Lógica Simbólica.
Trillas. México
45) Escolar, C. (2000) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires,
EUDEBA.
46) Ibañez, J. (1990) (Coord.) Nuevos avances en la investigación social I. Barcelona, Proyecto A. Ediciones.
47) Lazarsfeld, P. y M. Rosenberg (eds.) 1955 The language
of social research, New York, The Free Press.
48) Bunge, M (1998) La sociología de la ciencia. Bs. As.
Editorial Sudamericana.
49) Bunge, M(1985) La investigación científica. Ed. Ariel
Methodos , Barcelona.
249
50) Rodríguez, D. & M. Arnold.(1991) Sociedad y Teoría
de Sistemas. Editorial Universitaria. Santiago. Chile.
51) Feenberg, Andrew (1996a) Marcuse or Habermas: Two
Critiques of Technology, Inquiry 39, 1996, pp. 45-70.]
52) Feenberg, Andrew (1996b) Heidegger, Habermas and
the Essence of Technology, International Institute for
Advanced Study, Kyoto.
53) Fernández, Rafael (2001) Metacrítica de la Teoría Crítica», Metapolítica, Volumen 5, n. 19, septiembre
54) Fernández, Sergio (1997) Habermas y la Teoría Crítica
de la Sociedad. Legado y Diferencias en la Teoría de la
Comunicación, en Cinta de Moebio Nº1. Septiembre.
55) Wolfgang Cruz Rivero, Juan (1999) El triunfo de la razón tecnocrática. Revista Razón y Palabra, Número 14,
Año 4, Mayo - Julio
56) Horkheimer, Max, Adorno, Theodor W.(1994) Dialéctica de la Ilustración. Fragmentos filosóficos. Introducción y traducción de Juan José Sánchez, Madrid, Trotta.
57) Horkheimer, M.(1989) La imaginación dialéctica. Una
historia de la Escuela de Frankfurt. Madrid, Taurus, 3ª
reimp., p. 9.
58) J. Habermas (1987) Teoría de la acción comunicativa II,
cap. VIII, Madrid, Taurus.
59)Kant, I., La religión dentro de los límites de la mera razón. Madrid, Alianza ed. 2ª ed. p. 20.
250
60)Bunge M. (1997). La Causalidad. El Principio de
Causalidad en la Ciencia Moderna. Edit. Sudamericana.
Bs. As.
61) Bateson G. (1997). Espíritu y Naturaleza. Amorrortu.
Bs. As.
62) Gaeta R. et al. (1996). Modelos de Explicación Científica. Problemas epistemológicos de las Ciencias Naturales y Sociales. Eudeba. Bs. As.
63) A. Przeworski y H. Teune, (1990)La medición en investigación comparativa”, en F. Cortés, R.M.Rubalcava y
R. Yocelevsky, (comp..) Metodología, Volumen IV. Programa Nacional de Formación de profesores Universitarios, México.
64) Bello Díaz, R (1989) Teoría y origen del conocimiento.
Acta Médica Dominicana Vol. 11 No. 6
65) Bello Díaz, R (1992) Ciencia e investigación
científica.Acta Médica Dominicana, Vol. 14 No. 6
66) Bello Díaz, R (2001) Universidades, ciencia y tecnología. Revista Conciencia y Educación Superior, Publicación del Consejo Nacional de Educación Superior
(CONES)
67) Bello Díaz, R (2002) Virtualización de la Educación.
Ediciones Unicaribe
251
252
Esta primera edición de
Epistemología en la Ciencia y la Tecnología
de la autoría del Dr. Rafael Emilio Bello Díaz
se terminó de imprimir en los talleres gráficos de
Editora, Somos Artes Gráficas
en el mes de marzo del 2003,
en Santo Domingo, República Dominicana
253
View publication stats