[go: up one dir, main page]

Academia.eduAcademia.edu
Epistemología de la Ciencia y la Tecnología DR. RAFAEL EMILIO BELLO DÍAZ Epistemología de la Ciencia y la Tecnología Santo Domingo 2003 Título de la obra: Epistemología de la Ciencia y la Tecnología Autor: Dr. Rafael Emilio Bello Díaz Edición: Marzo, 2003 Composición y diagramación: Eric Simó Impresión: Somos Artes Gráficas, Tel.: (809) 596-8239 • Fax: 699-2993 E-mail: somos.grafina@codetel.net.do Santo Domingo, República Dominicana Impreso en República Dominicana Printed in Dominican Republic INDICE Capítulo 1 LA COMPLEJIDAD DE LA COMPLEJIDAD ......................... 7 Capítulo 2 PENSAMIENTO EPISTEMOLÓGICO .................................. 57 Capítulo 3 LA FORMULACIÓN DE HIPÓTESIS ................................ 113 Capítulo 4 LAS BASES MATERIALES DE LAS CAPACIDADES EPISTÉMICAS ........................................................... 177 Capítulo 5 EL IMPACTO EPISTEMOLÓGICO DE LA TECNOLOGÍA .. 215 BIBLIOGRAFÍA ............................................................... 243 Capítulo 1 LA COMPLEJIDAD DE LA COMPLEJIDAD E l Mundo es Complejo. La primera verdad que surge del examen de la naturaleza es una verdad para el hombre: es que debe colocarse él mismo en la clase de los animales a los que se les parece y probablemente sus instintos le parecerán más seguros que la razón humana y sus quehaceres más admirables que las artes humanas. Recorriendo sucesivamente y por orden los diferentes objetos que componen el universo, y poniéndose a la cabeza de todos los seres creados, verá con sorpresa que se puede descender, por grados casi imperceptibles, de la criatura más perfecta hasta la materia más informe, del animal más organizado al mineral más bruto; reconocerá que sus detalles más finos son la gran obra de la naturaleza. La filosofía y la ciencia surgen de una misma fuente: los intentos del hombre por comprender el mundo. Antes de intentar comprender el sutil funcionamiento de los múltiples fenómenos que se despliegan ante sus ojos, el hombre considera las grandes y generales preguntas sobre la estructura del mundo y sus cosas. ¿Es el mundo simple o complejo? ¿Es el mundo ordenado o caótico? 7 La filosofía griega, revela la influencia de una serie de dualismos. En la base se encuentra la distinción de lo que es falso o verdadero. Pero también están los problemas del bien y el mal, de la armonía y la confusión, los problemas cosmológicos de la simplicidad o complejidad del mundo, del orden o el caos del universo. El mundo no es sencillo y no hay una explicación universal para todos los fenómenos; sin embargo, los filósofos griegos se dieron cuenta pronto que algunos fenómenos podían entenderse y por lo tanto predecirse; descubrieron que ésta comprensión de los fenómenos se logra por medio de números. Para entender el mundo alrededor de nosotros, se debe encontrar los números en las cosas; una vez que se comprende la estructura numérica, se controla al mundo. A lo largo de los siglos los científicos desarrollaron estrategias para entender los problemas que plantea la naturaleza y quedar seguros de que las respuestas eran correctas. ¿Cómo podía decidirse si la respuesta propuesta era correcta? Al menos desde el Renacimiento esta decisión se toma por medio de la experimentación, esto es, del contraste de la teoría con los sucesos naturales; para que un problema planteado sobre la naturaleza fuera atacado por los científicos debía tener dos cualidades: ser simple para poder ser entendido y ser manipulable para poder experimentar. La ciencia fue prosperando y sus objetos de estudio se fueron haciendo más variados; física, biología, geología, astronomía, química y muchas otras ramas de la ciencia surgen y se dividen de acuerdo a los problemas que se quieren resolver. La estrategia general del descubrimiento científico 8 es la determinación de la secuencia de los problemas por resolver; en cada momento histórico, el número de problemas científicos reconocidos como importante es limitado. Los esfuerzos de los científicos de cada generación se concentran en estos problemas y, se producen avances en la solución. No es de extrañar que el estudio científico de los problemas sociales haya aparecido tarde; la sociología moderna comienza con Comte a mediados del siglo XIX y desde entonces la idea de utilizar matemáticas ha sido considerada. Un primer esfuerzo notable en esa dirección lo realiza Quantelet con su propuesta de una física social, que evolucionó más tarde hacia el análisis estadístico. Pero se ausentó mucho tiempo; la razón principal de esta ausencia es la dificultad de comprender todas las variables involucradas en los fenómenos y crear modelos de esta realidad; se argumenta, así que los fenómenos sociales son complejos. La complejidad de la vida social se refleja también en la dificultad de medir las variables relevantes ya definidas. De la Complejidad del Conocimiento Antes del Caos En la décadas de los 60´s y 70´s del siglo XX un grupo de filósofos intentan una comprensión integral del conocimiento, tomando en cuenta los fenómenos naturales, al observador humano y el contexto cultural y social; pensadores franceses como Bachelard, Jacob, Morin y Serres, postulan la necesidad de crear una epistemología con un punto de vista antropológico y social; a esta concepción integral de la naturaleza y el conocimiento se le llama compleja. 9 La línea de pensamiento de estos filósofos se encuentra influenciada por los avances científicos de los siglos XIX y XX. En particular, la termodinámica y la teoría de la información que permiten comprender, por medio de variables macroscópicas, el mundo microscópico y la mecánica cuántica que involucra al observador en la teoría; en sus ensayos integradores intentan explicar el camino de la organización del conocimiento con el mismo esquema de los procesos naturales. Así, Morin dice: El caos es la desintegración organizadora. Es la unidad antagonista de la explosión, de la dispersión, la división del cosmos y de sus nucleaciones, sus organizaciones y sus ordenamientos. Los procesos de orden y de organización no se consiguieron un camino como un ratón a través de los agujeros del queso gruyère cósmico, se constituyeron en y a partir del caos, este es el funcionamiento del bucle tetralógico: desorden => interacciones => orden => organización => desorden Heráclito identificó el camino inferior, o la desintegración dispersiva y el camino superior o la evolución progresiva hacia la organización y la complejidad. Mandelbrot introdujo la terminología del Caos, en el sentido matemático, en el estudio de los fenómenos de la naturaleza; sin embargo, conceptos científicos bien definidos provenientes de la física tales como entropía y el Segundo Principio de la Termodinámica son frecuentemente usados en las explicaciones de la evolución del conocimiento. Así el Segundo Principio de la Termodinámica es mucho más que un útil estadístico y la entropía mucho más que una cantidad mesurable. Sin embargo, la Segundo Principio 10 no es la llave del universo, y la entropía no es la única ley que rige la organización. El Segundo Principio y la idea de entropía deben ser asociados, siempre de manera compleja, al nuevo concepto de physis y de cosmos. Así estamos en posición de articular el Segundo Principio: Organización/orden => desorden Sobre el principio cosmo-físico formulado así: Desorden => interacciones (asociativas) => orden/ organización Ninguna cosa organizada, ningún ser organizado no puede escapar a la degradación, la desorganización, la dispersión. Ningún ser vivo puede escapar a la muerte. Los perfumes se evaporan, los vinos se avinagran, las montañas se aplanan, las flores se marchitan, los seres vivos y los soles regresan a ser polvo. Alrededor del bucle tetralógico se dispone una constelación policéntrica de nociones de interdependencia. Esta constelación conceptual no es más que valor general. Marca con su presencia todos los fenómenos, toda realidad que será estudiada. Esta constituye el primer fundamento de la complejidad de la naturaleza de la naturaleza. La investigación de la naturaleza de la Naturaleza no puede abstenerse de investigar el método para sujetar las articulaciones claves: Objeto/Sujeto, Naturaleza/Cultura, Physis/Sociedad que ocultan y rompen los conocimientos simples. Lo desconocido, lo incierto, lo complejo se sitúan justamente en estas articulaciones. Se intenta crear una teoría general del conocimiento que tome en cuenta tanto los objetos físicos como a los observadores humanos en su contexto cultural y social. Una teoría que comprenda la complejidad del mundo externo y el interno del hombre, que conteste las grandes interrogantes cosmológicas griegas: el mundo es complejo, el mundo debe ser 11 comprendido en su unidad; para este propósito, se hace uso de los conocimientos científicos establecidos en la época, y de su lenguaje: la Segunda Ley de la Termodinámica, la mecánica cuántica; la teoría de la evolución, la organización molecular de la vida; el teorema de Gödel y la cibernética. El Caos llega al Mundo En 1908 el matemático Poincaré y el físico Maxwell daban cuentan que había fenómenos tan sensibles a los cambios de condiciones iniciales, que era más fácil pensar que las consecuencias visibles eran producto del azar. La investigación matemática indicaba, por el contrario, que sistemas gobernados por leyes físicas pueden manifestar cambios difíciles de predecir, una situación que ahora se denomina de Caos. La Teoría del Caos estudia fenómenos regidos por leyes matemáticas perfectamente definidas. Los fenómenos estudiados por el Caos son deterministas y ordenados, pero difíciles de predecir. Lorenz, estudió un sistema de ecuaciones diferenciales que describen flujos de aire en la atmósfera. El sistema en tres dimensiones tomaría el siguiente aspecto: dx/dt =-ax+ay dy/dt =bx-y-xz dz/dt =z+xy Dada una solución de la ecuación para el tiempo t=0, podemos seguir la trayectoria de la solución en el tiempo. Típicamente lo que resulta se conoce como un atractor de 12 Lorenz; aquí tenemos toda la fenomenología del problema del estudio del clima. Antes del advenimiento de las computadoras, para estudiar un sistema de ecuaciones como los que describen la dinámica de un fluido, se tenían algunos métodos, que resultaban laboriosos de aplicar; para visualizar el desarrollo del sistema en el tiempo, podían obtenerse soluciones parciales que sólo son válidas en intervalos pequeños de tiempo; con la llegada de las computadoras fue posible comenzar a resolver las ecuaciones por métodos numéricos. La consideración de los fenómenos y su estudio con la ayuda de las computadoras, llevó a la definición de los llamados sistemas caóticos y a la teoría de fractales. Mandelbrot realiza la observación de que los fenómenos naturales son en su gran mayoría caóticos. El estudio de sistemas físicos de comportamiento caótico reveló que estos tenían las mismas características que ciertos sistemas sociales: exhiben análogas relaciones matemáticas, las llamadas matemáticas de sistemas complejos; se les conoce como matemáticas de sistemas adaptativos complejos, que exhiben mecanismos de retroalimentación negativos y positivos e incluyen sistemas naturales tales como el inmunológico, el desarrollo embrionario, los sistemas ecológicos y los mercados económicos. La complejidad surge así de una combinación de tendencias cooperativas y competitivas, pues tales sistemas están en continuo estado de equilibrio dinámico caótico. Estos sistemas operan de acuerdo a reglas simples y los modelos complicados se derivan de la interacción de estructuras regidas por reglas simples. De esta manera, resulta que la complejidad es un fenómeno emergente. Si bien, los siste13 mas sociales exhiben, un comportamiento caótico de sistema complejo, el terreno no estaba preparado para que muchos científicos sociales manejaran la complejidad matemática; se producen así una serie de excesos y simplificaciones provenientes de los filósofos posmodernos y hermenéutas. Modelos Matemáticos A principios del siglo XX, el enfoque axiomático cobró fuerza dentro de las matemáticas y hacía confiar en la posibilidad de axiomatizar todas las matemáticas, esto es, derivar todas las verdades matemáticas a partir de un número finito de postulados aceptados a priori como verdaderos. Gödel se encarga de acabar con la esperanza formalista: demuestra que no puede encontrase un conjunto finito de axiomas que implique todos los resultados verdaderos de las matemáticas. Gödel demuestra que cualquier conjunto finito de axiomas que impliquen los axiomas para la aritmética de Peano y que sean consistentes determina un sistema formal que no es completo, esto es, siempre se podrán encontrar afirmaciones cuya verdad o falsedad no puede ser demostrada usando sólo los axiomas y las reglas de inferencia lógica. Las matemáticas siguieron progresando sin preocuparse por las cuestiones de fundamentos. La lista de implicaciones del resultado es impresionante; algunas de ellas son: la verdad matemática objetiva se opone a la mera demostrabilidad; no existe ningún algoritmo posible al que se pueda reducir la matemática, de manera que la mente hu14 mana sobrepasa cualquier formalismo; el teorema de Gödel marca los límites del conocimiento de los objetos matemáticos en la misma forma que el principio de Heisenberg los marca para los objetos físicos. Hay teóricos que emplean matemáticas elementales de una manera correcta y útil para sus fines: construir modelos matemáticos sobre la base de las variables numéricas que permitan predecir, lo que ocurrirá en alguna situación del futuro. ¿Porqué se habrían de construir modelos matemáticos en ciencias humanas? Tal vez, por el notable éxito que han tenido las matemáticas en áreas de las ciencias naturales. Wigner se refiere a este fenómeno como la irrazonable efectividad de las matemáticas; los físicos encuentran sorprendente la habilidad de los matemáticos de desarrollar herramientas que después serán necesitadas en modelos físicos de la realidad. El Camino de la Complejidad .Según Russell sólo la civilización griega dio luz a un movimiento filosófico que va mano en mano con la tradición científica, y es esta tradición dual la que ha dado forma a la civilización occidental. El estudio de los cánones del método científico, es un estudio filosófico; para marcar las diferencias; si bien uno de los problemas que siempre ha interesado a los filósofos es el tratar de describir al mundo en general, no es un problema filosófico el dar una descripción de hechos en el modo en que lo hace la ciencia; lo que la filosofía le puede dar a la ciencia es un marco general, un orden para guardar sus descubrimientos. 15 Los filósofos-científicos a lo largo de la historia han marcado rutas por donde la ciencia ha progresado; un ejemplo se tiene en matemáticas. El linaje de los matemáticos-filósofos es muy ilustre. Puede remontarse a Pitágoras y Platón e incluye los nombres de Leibniz, Descartes, Pascal, Pierce, Russell, Whitehead y Poincaré entre otros; muchos matemáticos, contaban con una posición filosófica sólida desde la cual enfocaban su trabajo matemático. En este segundo grupo podríamos ubicar fácilmente a Newton, Gauss, y Hilbert; muchos de estos matemáticos se distinguieron por su capacidad de comprensión global del papel de las matemáticas en las ciencias y en el mundo, lo que les permitió guiar el desarrollo de las matemáticas en su tiempo. En física, la tradición filosófica es también muy distinguida. En la física moderna la doctrina epistemológica del positivismo jugó un papel en el desarrollo de las teorías de la relatividad por Einstein y de la mecánica cuántica por Heisenberg; sin embargo, el positivismo también ha tenido un impacto negativo en algunos aspectos; una de las características más marcadas de las matemáticas, en la segunda mitad del siglo XX ha sido la ausencia de filósofos-científicos que indiquen direcciones para el progreso de las ciencias. En este sentido, el físico Weinberg nos indica: no conozco a nadie que haya participado activamente en el avance de la física después de la segunda guerra mundial cuyo trabajo de investigación haya sido significativamente apoyado por el trabajo de filósofos. Resalté antes el problema de lo que Wigner llama la irrazonable efectividad de las matemáticas; aquí quiero enfatizar otro fenómeno igualmente inquietante, el de la irrazonable inefectividad de la filosofía. La tarea de los filósofos de la ciencia es una tarea importante: esta16 blecer el marco general de la ciencia, su metodología y su validez. Epistemología Dialéctica Crítica como Método de Investigación Científica Hace años, a nadie se le ocurría en nuestras universidades, que la división del conocimiento, que surge con la primera división social del trabajo, hace nacer al conocimiento fragmentado; no es casual que los caminos definitorios del estatuto científico de los campos disciplinarios de lo social, están preñados de posturas epistemológicas y escuelas de pensamiento disímil, dada la variedad y amplitud de los problemas de la realidad social; se debe pensar en que las varias disciplinas poseen sus propios cuerpos conceptuales y, o teóricos; también hay que considerar que, los estudiosos de las diversas disciplinas detentan, epistemes, o fundamentos de conocimiento no claros. Desde la comunidad primitiva hasta el tránsito del feudalismo al capitalismo el conocimiento tuvo un carácter totalizador; a partir del surgimiento de ésta formación social, que implicó la división técnica, social y territorial del trabajo, alcanzando a la producción científica; las ciencias fueron primeramente divididas en fácticas y formales; después, las ciencias fácticas en físico-naturales y sociales; éstas en disciplinas especializadas; se ha manejado que la especialización científica permite la profundización en el conocimiento de regiones de la realidad; el argumento se apoya en un criterio de productividad cognitiva. Farrington, reprocha a Darwin 17 su escasa cultura de la filosofía de la ciencia, lo cual le impidió percibir con precisión los alcances y limitaciones de sus descubrimientos. Mendel descubrió las leyes básicas de la genética, desconocidas por Darwin. Cordón, biólogo defensor del darwinismo, muestra cómo el conocimiento fragmentario impide el entendimiento profundo de lo que se estudia; se puede desprender que: a El conocimiento disciplinario amplio permite la apropiación científica profunda de objetos específicos de estudio b)El encerrarse en un conocimiento disciplinario limita la apropiación científica y empobrece la existencia misma del científico En un texto escrito por científicos físico-naturales, y denominado: crítica de la ciencia, físicos, químicos, biólogos y matemáticos, señalan cómo en sus ámbitos investigativos se ha llegado a una enajenación causada por la fragmentación cognitiva, resultante de la división técnica del trabajo de investigación. El conocimiento enfrenta otro problema, frecuentemente se convoca a huir de la teoría y a enfrentar problemas concretos, como si los problemas no fuesen el objeto de estudio de la teoría y como si la teoría fuera algo abstracto. A diferencia de algunas visiones que caracterizan a la teoría de las siguientes formas: como referida al deber ser de los objetos, o al de los sujetos; o la que la identifica con sistemas filosóficos abstractos y que hipotéticamente asume que, los discursos racionales explicativos concretos no son teóricos; aquí se asume que, la teoría no es más que el producto de un modo específico de apropiarse de lo real: el modo teórico; 18 manifestaba Covarrubias. A causa de la compartimentalizaciónfragmentalización del conocimiento, en ocasiones encontramos un fuerte escepticismo contra la utilidad de la teoría, pero: los constructos teóricos sirven de base para generar múltiples satisfactores de necesidades de todo tipo, generan múltiples prácticas empíricas y artísticas, resuelven misterios y explican los productos y las prácticas de los demás modos de apropiación. Por cierto que, la teoría, es la única capaz de comprender y explicar las condiciones en las que se dan los procesos de construcción de conocimiento en los otros modos de apropiación. Lo que está en cuestión, es ¿cómo se constituye la conciencia científica y por qué predomina la concepción fraccionaria de la realidad entre los científicos y entre quienes no lo son, si ambos son constituidos por la sociedad? Es decir, por la multiplicidad de referentes que se incorporan a la conciencia individual; de esta multiplicidad, los pertenecientes a un determinado modo de apropiación predominan en una conciencia. Aunque existe una alternancia de referentes en un mismo individuo, en cuanto al modo de apropiarse de la realidad, las prácticas están signadas por los demás referentes y en especial por los que dominan la forma constituida de la conciencia. Así, el sociólogo construye objetos de conocimiento sociales; el economista dice que los construye económicos, el físico los construye con base en experimentos; y ambos aún pueden teorizar sobre su relación de conocimiento con la realidad, al igual que los sociólogos y los politólogos. La influencia de la base de dichos campos arrastra tras de sí todas las limitaciones del empirismo implícito en el positivismo como paradigma predominante en la historia 19 de las ciencias; desde la época de Hegel, se criticaba al individuo del llamado sentido común, el cual posee una actitud que toma las cosas como se supone que son; la necesidad de tranquilizar la conciencia, hace que quienes así se sitúen ante los problemas los enfoquen con perspectivas particulares asignándole de positivismo. Esta actitud hace estragos, en países sin tradición filosófica propia; sus orígenes, hay que buscarlos en Inglaterra, sobre todo en la personalidad de Hume. Señalaba Bloch. Esa humildad del agnosticismo, es decir, la de que nos está vedado el conocimiento de las cosas realmente importantes pueden aprehender de estos autores. En esa verdad, entonces, el mismo mundo se convierte en su opuesto, es decir, en una pluralidad infinita de datos particulares. La reducción de todas las relaciones objetivas a disposición guiadas más o menos por la economía del pensamiento, este desprecio del entendimiento disuelve en un caos agnóstico la cohesión de las cosas. Así que a la aparente exactitud del positivismo le corresponde el correlato de un nomundo cuya única calidad objetual es el delirio pluralista. El pensamiento tiene que arrancar de hechos, pero no se detiene en estos por contenidos sensibles; tampoco para sumarlos, incapaz de descubrir en ellos las vinculaciones efectivas, actuantes; conexiones que no son hechos, ni son tampoco una descripción de ellos, sino un producto de aquella función del pensar que llamamos conocimiento de los hechos. La certeza sensible hegeliana es una universalidad plena de lógica, y el concepto aparece también como algo intuitivamente concreto. El concepto hegeliano se distingue de la teoría de la abstracción precisamente en que pretende ser la unidad de lo universal y lo particular; ahí esta, según Hegel, la totalidad: en20 tre la verdadera extensión de un concepto y su verdadero contenido no hay en absoluto relación inversa, sino proporción directa; en el juicio concreto se combinan, el concepto y la intuición, lo universal y lo individual. Todo concreto es algo que existe de hecho y por tanto, individual y empírico, y envuelve, a la par, la universalidad y el concepto. Lo puramente empírico-individual es una simple ficción, tan poco documentable como el concepto puro. Una limitante de origen del empirismo es su concepción estática de la realidad y de los hechos en esa realidad así concebida; para el pensar dialéctico, que piensa a la realidad como proceso en donde tienen concreción un número infinito de procesos, no se puede concebir a los hechos como dados, sino como ocurriendo, como dándose. La empiria está en movimiento, y el pensamiento tiene la función de aprehenderlos, no sólo para explicarlos, sino para incidir en dichos procesos. El presente, es un proceso dinámico que no cesa; el presente se aparece como un haz de acontecimientos aislados sin una supuesta relación de necesidad existencial; pero el presente es contingente y sólo mediante un pensamiento abierto y crítico, es decir científico, se pueden desentrañar las relaciones necesarias entre esos acontecimientos; la respuesta a esta representación del movimiento está en encontrar la relación entre lo que está dado y lo que está dándose. En dicha relación entre los momentos de la realidad, se encuentra la potencialidad que orienta la dirección de un campo de acción entre actores, pero esta no es manifiesta: sin embargo, es un contenido emergente; lo que Hegel llamaría el lugar de las transformaciones cualitativas; lo que para Bloch sería lo novum. 21 Esta dimensión está fuera de los alcances del paradigma disciplinario y del empirismo, toda vez que, topos es el objetivo empírico. Pensar la realidad como un topos, como un dato objetivo o con una perspectiva objetivista; diagnosticarlo y pronosticarlo a partir de la objetividad; para demostrar que este problema se extiende hasta nuestros días, he aquí la opinión de un epistemólogo contemporáneo: vivimos bajo el imperio de los principios de disyunción, reducción y abstracción, cuyo conjunto constituye lo que llamo el paradigma de simplificación. Descartes formuló ese paradigma maestro de Occidente, desarticulando al sujeto pensante (ego cogitans) y a la cosa extensa (res extensa), es decir, filosofía y ciencia, y postulando como principio de verdad a las ideas claras y distintas, es decir, al pensamiento disyuntor mismo. Este paradigma, que controla la aventura del pensamiento occidental desde el siglo XVII, ha permitido, los enormes progresos del conocimiento científico y de la reflexión filosófica; sus consecuencias nocivas ulteriores no se comienzan a revelar hasta el siglo XX. señalaba Morín. La única solución que occidente encontró para remediar la disyunción fue, a través de reducir lo complejo a lo simple; dicho conocimiento fundó su rigor y operacionalidad en la base de la medida y el cálculo; sin embargo, la matematización y la formalización han desintegrado, a los seres por considerar realidades sólo a las fórmulas. El pensamiento simplificante es incapaz de concebir la conjunción de lo uno y lo múltiple (unitas multiplex). La metodología dominante produce oscurantismo porque no hay más asociación entre los elementos disjuntos del saber, y por lo tanto, tampoco posibilidad de engranarlos y de reflexionar sobre ellos. Occidente funda a partir del siglo XVII a la física y a la metafísica 22 al mismo tiempo que las opone irreductiblemente: en efecto, la ciencia occidental se fundó sobre la eliminación positivista del sujeto a partir de la idea de que los objetos, al existir independientemente del sujeto, podían ser observados y explicados en tanto tales. La idea de universo de hechos objetivos, liberados de todo juicio de valor, de toda deformación subjetiva, gracias al método experimental y a los procedimientos de verificación. Dentro de ese marco de referencia, el sujeto es, o bien el ruido, es decir, la perturbación, la deformación, el error, que hace falta eliminar a fin de lograr el conocimiento objetivo, o bien el espejo, simple reflejo del universo objetivo. La idea de universo objetivo se priva no solamente del sujeto sino también del ambiente. La Cuestión Interdisciplinaria En adición al macro problema estructural del conocimiento occidental, se debe pensar en la dificultad que implica unir diferentes hábeas-teórico-epistemológicos para implementar una relación de conocimiento interdisciplinaria; si por ésta se entiende a priori, un conjunto de disciplinas que después de haber desglosado sus fundamentos de conocimiento, intentaran la forma en que dichas disciplinas articularían, dichos supuestos. La tendencia hacia la labor interdisciplinaria, ha sido impulsada por grupos de trabajo, cuya finalidad es encontrar las bases metodológicas de tal labor. Según Piaget, la epistemología forma cada vez más un campo de investigaciones a la vez científicas y autónomas, que vienen a constituir una disciplina reconocida. Todas las disciplinas sociales y humanas se ocupan más o menos directamente, en 23 sus aspectos diacrónicos, del desarrollo de los conocimientos. La historia económica de las sociedades humanas no podría ser completa sin una historia de las técnicas, y ésta es fundamental desde el punto de vista de la formación de la ciencia. En cuanto a las dos ramas más importantes del punto de vista de la formación de los instrumentos cognoscitivos, la sociología del conocimiento y la psicología genética, puede decirse que se prestan servicios complementarios; la epistemología genética es, por una parte, una nueva rama nacida de la hibridación de la epistemología y de la epistemología genética, que es útil a las dos a la vez. La situación de estas dos nuevas ramas de naturaleza fundamentalmente interdisciplinaria confirma, las situaciones en que el poner en relación un dominio superior y otro inferior no supone una reducción del primero al segundo, ni un refuerzo de la heterogeneidad del primero, sino una asimilación recíproca tal que el segundo explica al primero, pero enriqueciéndose con propiedades no percibidas hasta entonces y que aseguraran la unión buscada. Pero, independientemente de las divergencias en cuanto a formación universitaria, que constituyen sin duda el principal obstáculo que hay que superar, las técnicas lógicomatemáticas comunes, cuyo empleo tiende a generalizarse, constituyen a la vez el mejor índice de la confluencia que se impone y el mejor instrumento de unión. Otro trabajo lo constituye, Ensayos en Interciencia de Yankelevich y Méndez: en todas las contribuciones subyace un propósito común: el de explorar las potencialidades que ofrece una visión intercientífica en las investigaciones; aquí se muestra, cómo en un grupo de investigación se genera una idea. La idea, de que una concepción unificada acerca del hombre y de su sociedad podría adquirirse a través de un pensamiento y una investigación intercientífica-socionatural. La posición epistemológica implícita en esta postulación difiere de la contenida en los estudios interdisciplinarios; en éstos, el tér24 mino lo estipula, convergen, un conjunto de áreas de conocimiento que pertenecen al mismo universo científico ya sea ciencia natural o ciencia social. Lo que podría denominarse propiamente interciencia está aún por constituirse. Ambos conjuntos de áreas, las sociales y las naturales, Han interaccionado habitualmente al nivel de la exploración de aquellos parámetros que pudieran afectar la dinámica de los fenómenos, de un ámbito, en el otro. Los límites a los territorios entre las disciplinas que constituyen las ciencias naturales han empezado a resquebrajarse; su objeto de estudio ya no es distinguible entre cada una de ellas; lo vivo y lo no vivo no son ya mundos binariamente separables; ahora es posible intercambiar metodología de investigación y un cúmulo de principios teóricos que son válidos para los varios temas; de nuevo, se detecta un desvanecimiento de los límites entre los campos de conocimiento, pero esta vez a un nivel intercientífico, entre las clásicamente denominadas ciencias naturales y ciencias sociales. La sociedad y el individuo, son sin lugar a dudas un objeto de estudio compartido. ¿Qué relación guardan entonces, los principios teóricos de organización que para los mismos fenómenos han generado las ciencias naturales y las sociales? Se precisa una vasta investigación intercientífica con objeto de confrontar aspectos metodológicos y teóricos para avanzar hacia una propuesta. El Conocimiento como Función del Concepto de Ciencia Karl Popper señalaba, que no existe ni puede existir un verdadero espíritu crítico en la ciencia por medio de la in25 ducción y por medio de una o dos hipótesis sujetas a comprobación. Este paradigma se entrampa en el hecho de que, el investigador sólo busca y recoge aquélla información que le permitirá probar sus hipótesis, pudiendo dejar fuera hechos de la experiencia que pudiesen derrumbar su planteamiento; para este, el espíritu crítico radica en buscar elementos de la experiencia con los que se pueda falsear y no probar subjetivamente las hipótesis; mientras más pruebas soporte una teoría, se asegura que con ello, se está más cerca de la verdad científica. Pero este planteamiento no escaparía a una crítica que le preguntaría: ¿cómo asegurar que quien busca dichos hechos, actúe honestamente? La perspectiva dialéctica crítica no discute sobre el problema de la prueba, porque no se ciñe a esta visión de la ciencia cuyos fines son la explicación y predicción de fenómenos dados; su concepto de ciencia aspira a ir más allá. Para el racionalismo crítico sólo son conocimientos científicos aquellos planteamientos que pasan la prueba del ensayo y error. Esta demarcación cumple la función del parámetro para evaluar la capacidad científica de las teorías; a este criterio se añaden otros como la acumulación de conocimiento y el progreso de la ciencia, con el fin de explicar la realidad. A diferencia de este planteamiento lógico inmanente, la dialéctica crítica pone mayor énfasis en el objeto de estudio: la realidad objetiva; critica el trabajo de la filosofía clásica, inaugurando la historia como elemento fundamental del análisis y orientándose a traspasar el velo de la apariencia que cubre la realidad. Estamos en presencia de un conocimiento histórico político, el cual sale de la lógica de las ciencias físicas como lógica de descubrimiento, sin ignorar la fisicalidad del mundo, 26 tiene referentes empíricos cambiantes y no sujetos a regularidades. Por lo tanto, asume que el conocimiento no puede ser comprendido solamente como la verificación de hipótesis, sino como una reconstrucción articulada de la realidad multimensional, apoyada en categorías y conceptos provenientes de las diversas disciplinas pero, sin asumir las explicaciones teóricas de éstas, sino haciendo un uso crítico de ellas para el tratamiento del objeto que nos ocupa, señalaba Zemelman. El ¿para qué?, más que una pregunta de investigación. El objeto de estudio es la construcción del conocimiento a partir de la relación dialéctica entre el objeto y el sujeto mismo. La relación de conocimiento es lo que define al objeto, el cual parte de una configuración problemática que incorpora elementos no sólo provenientes de alguna teoría. La relación de conocimiento entre sujeto y objeto implica la conciencia racional del sujeto que quiere construir conocimiento, pues supone haber pasado por un proceso en el cual el despliegue del objeto permite al sujeto identificar con nitidez el campo de opciones posibles a desarrollar; entre otras cosas, la viabilidad o no de un proyecto de futuro en un campo articulado por elementos y el papel que el sujeto juega en su relación con el objeto. Así, el objeto de estudio es un producto articulado entre niveles de la realidad, corresponde a una situación histórica y se define en razón del ¿para qué? ¿Para qué? un sujeto quiere estudiar una parcela de la realidad. El para qué es, en la dialéctica crítica, un criterio de selección de opciones que involucra la subjetividad del investigador en esta fase de construcción del objeto; como función definitoria de la relación de conocimiento entre sujeto y objeto, así como el traslado a éste, de la conciencia racional de la subjetividad del investigador. La función del 27 para qué en la construcción del conocimiento objetivo de la realidad social, reside en el manejo problemático que haga el sujeto investigador de su propia ideología, incorporándolo como uno de los aspectos de esa realidad y definiendo la orientación de su estudio. De este modo, la ideología da a la relación sujeto objeto el elemento que precisa la historicidad del conocimiento construido, por ser parte de un determinado contexto histórico, en donde el investigador refleja en sus intereses científicos la realidad concreta que quiere potenciar a través de sus proyectos, transformando la ideología en conocimiento, el que debe, ser conocido. Al mismo tiempo, el para qué constituye un cierre lógico en la problematización de un tema, ya que después del momento de apertura inicial a la realidad, el para qué concentra los elementos vinculados directamente con su opción, excluyendo otros de menor relevancia. El Conocimiento Científico La lógica, estudia la estructura del conocimiento científico, investigando los modos de pensamiento, por medio de los cuales se elaboran y se constituyen las ciencias, la lógica formula la teoría de los métodos y de las funciones utilizadas en el trabajo de investigación de la ciencia; únicamente ante el hecho ya presente de la ciencia, inició la lógica su estudio sobre las leyes de la investigación científica. Esta clase de reflexión es la que se denomina lógica. El universo no es un conjunto de cosas determinadas por completo, sino un conjunto de procesos en el cual los objetos, pasan por un cambio ininterrumpido de devenir y de ca28 ducidad, que a pesar de todas las contingencias aparentes y de los retrocesos transitorios, termina por producir un desarrollo progresivo. El conocimiento adquirido tiene un carácter limitado, depende de las condiciones en las cuales ha sido logrado. Sin embargo, para penetrar en los elementos del universo, es indispensable desarticularlos de su entronque histórico y natural, para investigarlos por separado, cada uno de por sí, en su estructura particular y en sus relaciones parciales de causalidad. El análisis de las diferentes partes de la naturaleza, la clasificación de los diversos procesos y objetos naturales en categorías definidas, el estudio interno de los organismos según su diferente estructura anatómica, son las condiciones fundamentales que hacen posible el progreso en el conocimiento científico de la naturaleza. La investigación científica puede caracterizarse como un proceso en el cual se parte de ciertos supuestos, que son las hipótesis, para obtener consecuencias. La validez de los nuevos conocimientos adquiridos, y la de las hipótesis se encuentran ligadas en una relación de condicionante a condicionado, en sentido recíproco: tanto resulta condicionada a la consecuencia por la hipótesis, como esta viene a ser determinada, por aquella, dando lugar a una hipótesis más caracterizada, desde un punto de vista más elevado; este proceso de conocimiento no tiene término, ya que no existe principio absoluto ni final definitivo. La ciencia trata de indagar la conexión sistemática de la naturaleza en todas sus partes, al propio tiempo que avanza el conocimiento de la investigación de conjunto del universo, encontrando sus nexos y sus concatenaciones, encontrando que a 29 cada nuevo desarrollo, se dilata en todos los sentidos la perspectiva, mostrando una profundidad y amplitud, mayores. Con la capacidad finita del pensamiento, alcanzamos a abarcar un intercalo finito de la materia del conocimiento, pero eso no es suficiente para conocer en dicho intervalo, de manera más aproximada y completa, la ley que gobierna a todo el proceso, la relación que determina el término general de la serie del conocimiento; a esta realidad del proceso infinito del conocimiento, de la infinidad de su problema mismo, es a lo que se denomina logos, esto es dialéctica. El conocimiento científico tiene su origen en las actividades que el hombre realiza, en la técnica que emplea; su fuente se encuentra en la experiencia, sus resultados se aplican en la práctica y la estimación que se le guarda radica en la utilidad que presta en la satisfacción de las necesidades humanas; la ciencia no existe por sí misma, sino que es siempre la ciencia de una sociedad determinada, en un lugar y en una época definida; como desarrollo histórico que es, la ciencia sólo puede estudiarse en función del conjunto de la vida social, de esa manera la dialéctica es la ciencia de las leyes generales del cambio, no únicamente en el pensamiento humano, sino también en la sociedad y en la naturaleza. El conocimiento no emerge de las profundidades del entendimiento, ni es tampoco el espectador de sí mismo; el pensamiento es pura y simplemente, el reflejo de los procesos de la naturaleza y de la vida social; el proceso de determinaciones sucesivas que sigue toda ciencia, también se opera dentro de la lógica; las propias leyes del pensamiento tienen el carácter relativo y mudable para el conocimiento científico; el desarrollo constante que ocurre en el conocimiento 30 de la naturaleza y de la sociedad, impele al mismo tiempo el avance del conocimiento lógico. Las transformaciones incesantes que se operan en el seno de la naturaleza y la sociedad, se reflejan en el pensamiento que las interpreta; del mismo modo que las leyes científicas tienen que cumplir la condición de ser susceptibles de comprobarse, modificarse o refutarse en un experimento posible, los principios lógicos tienen que sujetarse a la prueba de su aplicación en el proceso del conocimiento. Las leyes lógicas constituyen el fundamento de la construcción sistemática de la ciencia, porque en ellas se apoya su estructura interior; además el avance ulterior dela investigación se basa en el conjunto de conocimientos logrados, vinculados entre sí, por sus relaciones lógicas; todo nuevo conocimiento, produce un ajuste, un afinamiento de las relaciones establecidas con anterioridad, y con el nuevo arreglo de la estructuración lógica del estado del desarrollo científico en un momento determinado, se parte para la prosecución del trabajo de investigación. El propósito más elevado del conocimiento, consiste en determinar al universo en su totalidad, al objeto en su integridad. Pero ese conocimiento general se logra dividiendo el dominio completo en campos separados, para estudiar en particular grupos especiales de relaciones y de propiedades. El conocimiento metódico requiere la determinación precisa del punto de vista desde el cual se va a fijar la perspectiva dela consideración; entre el infinito número de relaciones que se pueden establecer en el conjunto de objetos en movimiento, de procesos y de acontecimientos que componen el universo, se practica una selección para prestar aten31 ción a aquellas conexiones que cumplen con las condiciones escogidas; de esta manera se toma el dominio específico de conocimientos de una disciplina científica. El universo como objeto general del conocimiento, es susceptible de infinitas consideraciones, ya que no existe limitación para el establecimiento de nuevos puntos de vista, sino que estos se reproducen sin cesar, ante la interminable sucesión de manifestaciones de los procesos. Los conceptos científicos no se forman arbitrariamente, sino que reflejan las conexiones y las interacciones objetivas que existen en le universo; lo genérico que se expresa en el concepto, existe objetivamente en los procesos del universo; los conceptos científicos se forman en el proceso de la evolución histórica del conocimiento y con fundamento en la práctica social, a pesar de la abstracción de sus estructuras, los conceptos se constituyen en un desarrollo histórico y experimental. Con relación a la formulación del concepto, el concepto se determina a través de una sucesión de juicios, es decir, por medio de su relación con otros conceptos. En un nivel determinado de la investigación científica, el concepto constituye su formación más estable, puesto que comprende a todo el conocimiento adquirido en una dirección; pero, al mismo tiempo, el concepto es también el elemento más inestable, ya que es el más susceptible de variación ante las nuevas aportaciones ofrecidas por el avance del conocimiento, en su tarea de determinar la existencia del universo. La cantidad infinita de los procesos existentes en el universo y la enorme multiplicidad de sus manifestaciones, hacen necesaria la práctica de una selección dentro de estos; la conceptualización comprende así, tres operaciones importantes: la 32 primera es esa selección de los procesos y de sus aspectos; la segunda, es la formulación de un concepto que los vincule unos con otros, y la tercera es la comprobación o la refutación, experimental de que el concepto formulado expresa las conexiones mostradas en los procesos. El proceso de investigación está formado por una serie de conceptos improvisados, de hipótesis de trabajo, entremezcladas con demostraciones imperfectas y provisionales; aun cuando el concepto representa la reflexión del universo objetivo en el conocimiento, se distingue de la percepción sensible; en la percepción se refleja la existencia de las manifestaciones individuales y aisladas de los procesos objetivos, en tanto que en los conceptos se expresan las relaciones entre los procesos y las regularidades de los movimientos y los cambios del universo. La lógica formal contrapone lo genérico a lo particular, pero en sentido abstracto; pero la abstracción científica no consiste en eliminar la diversidad concreta del universo, sino en reflejarla en una forma fundamental; por esta razón, el concepto primario y más general que existe: el concepto del universo objetivo, es el más rico en contenido entre todos los conceptos, ya que sus propiedades se manifiestan en todos los procesos y en consecuencia, en todos los conceptos correspondientes a dichos procesos. En el concepto se encuentran reunidos sus tres momentos: universalidad, particularidad y singularidad, de tal manera que nunca se pueden separar de una manera completa. El proceso de investigación científica consiste precisamente en desarrollar la determinación del concepto; en este desenvolvimiento de su definición, es que la noción general se 33 convierte en concepto científico definido. La definición del concepto refleja así, los resultados y el nivel de generalización alcanzados por la ciencia; el concepto no es el registro de la existencia de los procesos, sino que debe responder a la exigencia científica fundamental de suministrar una explicación de ellos, de descubrir sus fundamentos y sus interrelaciones con los otros procesos del universo. Con relación a la clasificación de los conceptos, tenemos que cuando se expresa un grupo de procesos existentes, por medio de un concepto, se establece una división relativa entre ese grupo de procesos y los demás; se tiene así en cada concepto a la representación de una clase definida; en esta característica radica la posibilidad de ordenar los distintos grupos de procesos determinados, mediante la clasificación de sus correspondientes conceptos; tomando como punto de partida a un concepto determinado, se establece una división del universo en dos clases: una denominada clase positiva, formada por todos los procesos expresados en el contenido del concepto; en tanto que en la otra clase, denominada clase negativa, está constituída por todos los otros procesos del universo cuyas propiedades manifiestas no se encuentran incluídas en dicho contenido. Las clases positivas que quedan determinadas en esta forma, son las que se ordenan atendiendo a la relación que guardan entre sí, según constituyan géneros, especies, subespecies o clases coordinadas como rangos equiparables de un mismo orden superior, obteniendo como resultado, una clasificación sistemática de un dominio determinado del conocimiento. Sin embargo, toda clasificación se encuentra superditada al nivel alcanzado por la investigación científica, en el tiempo en que 34 dicha clasificación se formule; por lo tanto, el avance del conocimiento provoca continuamente transformaciones en el sistema de clasificación, introduciendo variaciones de grado; en algunas ocasiones se llega a producir la sustitución completa del ordenamiento establecido, por otro enteramente distinto. El Marco Teórico de la Investigación Cuando se menciona a la formulación del marco teórico, por regla general se está aludiendo a ese conjunto de explicitaciones de la doctrina o teoría a la que se adhieren los investigadores y a un cierto número de definiciones de los términos involucrados en el problema; además lo que se entiende como marco teórico variará en relación con el tipo de investigación de que se trate. La delimitación y carácter unitario de una teoría están determinados por la delimitación y la unicidad y conjunto de fenómenos sobre los que trata dicha teoría, pero puesto que los fenómenos se encuentran interconectados de múltiples maneras, el deslinde absoluto de una teoría no es factible y se debe tomar conciencia de que las teorías no constituyen sistemas cerrados; las teorías tanto se incluyen unas u otras cuando se intersectan o vinculan lateralmente. Se llama teoría a una vasta esfera de conocimientos que describe y explica el conjunto de los fenómenos que da a conocer las bases reales de todas las tesis enunciadas y que circunscribe las leyes descubiertas en dicha esfera a un principio unificador único; el conocimiento científico entendido como conjunto de generalizaciones que proporcionan 35 descripciones e interpretaciones de clases determinadas de fenómenos, presenta una definida organización, sistema de vinculaciones entre sus componentes que se podría, traducir a articulaciones lógicas; para que un conjunto de conocimientos de un objeto llegue a ser teoría de ese objeto deberá tender a exponerse mediante un sistema de juicios y razonamientos en cuyas transiciones aspire a reflejarse el movimiento del objeto mismo, es decir deberá exponerse conceptualmente. La teoría científica de un cierto objeto deberá reflejar en sus términos y en su red de vinculaciones el sistema mismo que organiza y dirige el movimiento del objeto real, y esto no se consigue haciendo una lista de definiciones, sino en la exacta medida en que las mismas definiciones, explicitaciones, determinaciones del contenido de los términos, impulsen más allá del mecanismo de la definición intelectual, y obligue a desarrollar un sistema de transiciones en el que en definitiva consiste la forma conceptual del conocimiento propio de la teoría. La deducción de la ley que hay que explicar, a partir del sistema de las leyes que la explican, no es simplemente ideal o lógica, sino que se aplica a un sustrato real o modelo que se supone se adapta a tal deducción y representa sus diversas relaciones. Causa seu ratio, decía Descartes: la causa es una coordinación lógica proyectada sobre una coordinación real. Para los griegos teorizar significa mirar, observar con inteligencia; desde esta etimología deriva el sentido amplio del término teoría es decir, el sentido de criterio o principio de observación. Formal o informal, el conocimiento es siempre contemplación de algo a través de un principio; en su 36 máxima abstracción puede sostenerse que el funcionamiento de una teoría se agota en proporcionar los principios que permiten una contemplación inteligente de los hechos. La teoría es una abstracción vacía de verdad y de contenido real. El primer paso dela teoría consistirá en delimitar su objeto; determinar una perspectiva de observación de ese conjunto de fenómenos, aislando entre la infinitud de atributos que podrían observarse aquellos que son relevantes, que tienen que ver con la naturaleza o esencia del asunto; en segundo lugar, la construcción de la teoría tendrá que ir produciendo y organizando los juicios que describen al objeto: a) Descripción y clasificación de las manifestaciones y características b) Las transformaciones de las cualidades conforme varían la amplitud o intensidad de las cualidades, estableciendo criterios para apreciar esos cambios Una teoría cualquiera estaría compuesta por una red abigarrada de proposiciones de distinto nivel de abstracción y generalidad, referidas a diversos órdenes de fenómenos, orientadas a describir, explicar y exponer al conjunto de fenómenos delimitados como objeto de la teoría. En esa red de afirmaciones se podrán distinguir ciertos subconjuntos de afirmaciones a partir de las funciones que cumplan en la teoría: a) Conjunto de proposiciones que describan manifestaciones o sistemas de manifestaciones y que exponen las regularidades encontradas, mediante la generalización de aquellas observaciones 37 b) Exposición de las relaciones lógicas que se establecen entre otros hechos o leyes de diferentes niveles y/o dominios de fenómenos, hasta aislar algunos principios generales que confieren unidad y coherencia lógica a todos los subconjuntos de proposiciones c) Afirmaciones que explicitan cuáles son las correspondencias que hay entre la teoría y el objeto que confiere a la teoría el carácter de un reflejo o modelo conceptual del campo de la realidad cubierto por el objeto El funcionamiento de una teoría estará cifrado en todo el proceso de articulación dialéctica entre los hechos y los principios, los cuales funcionan como el contexto que da sentido a los juicios que describen los comportamientos singulares del objeto y a las reglas de correspondencia entre el sistema teórico y el sistema real. El elemento básico de la teoría científica es el esfuerzo de conceptualización, de transformación delos sistemas de percepciones, de representaciones y de pensamientos intelectivos en estructuras y movimientos conceptuales, que reflejen lo concreto real en lo concreto pensado; las teorías no surgen en un espacio vacío de conocimiento o de donde previamente se ha barrido con las percepciones, representaciones y esquematismos previos; sólo desde el conocimiento anterior el esfuerzo conceptual puede avanzar hacia la teoría. Las teorías científicas no surgen por acumulación milenaria de sedimentación de conocimientos, surgen por un mecanismo más semejante a la embriogénesis en donde la acumulación, por segmentación produce en momentos 38 definidos, reconfiguraciones, en las cuales las estructuras anteriores han quedado conservadas como contenidos incorporados en un nuevo contexto de desarrollo y transformación. Una ciencia inicia su historia cuando ha logrado aislar un objeto propio y desde ese momento a partir de una elaboración metódica congruente con ese nuevo objeto, se construye el edificio del conocimiento hasta alcanzar la plenitud teórica. Tomas Kuhn, sostiene que cuando reina entre los científicos un grado elevado de confianza y acuerdo en torno a cierto paradigma, los investigadores pueden dedicarse a avanzar en la resolución de detalles de los problemas que aquél permite formular, pero cuando no es así, los científicos se encuentran enzarzados en interminables disputas sobre la legitimidad de los supuestos y métodos fundamentales. La investigación científica exige una gran seriedad, rigor, profundidad y también, ductilidad para trabajar, elaborar, analizar y articular las nociones, los conceptos con los cuales se organiza, se le da coherencia y sentido al conocimiento que se obtiene sobre una cierta problemática; cada uno de los hechos de la realidad es lo que es en virtud de las infinitas interrelaciones, conexiones, oposiciones con el resto de los hechos y que en esa trama de procesos se van configurando distintos niveles de especies cuyo principio de identidad no procede de una convención subjetiva sino del propio sistema de relaciones; un momento esencial en la constitución de una cierta teoría era, el de la delimitación de su objeto o conjunto de fenómenos a estudiar; este esfuerzo no es otro que el de explicitar cuál es la identidad del objeto. 39 La tarea de trabajar con los conceptos, es tarea difícil de la ciencia, ya que la identidad de cada especie de fenómenos existentes en la naturaleza, en la sociedad o en la cultura es un resultado de un proceso de infinitas interrelaciones, conexiones, oposiciones, configuraciones y transformaciones. Formal o informalmente, todo marco teórico de una investigación alcanza su madurez cuando ha tenido decisiones suficientes en torno a los elementos básicos de su matriz de datos central: a las unidades de análisis; a las variables y a los valores. Galtung manifestaba: la elección probablemente es la primera elección de la unidad decisiva que se hace en muchas investigaciones; una vez hecha es difícil volver atrás porque todo el procedimiento de la investigación habrá sido edificado alrededor de esta elección. Por esta razón es esencial tener una clara representación del espectro de todas las unidades posibles, de tal manera que la elección basada en el problema por investigar pueda ser no sólo una elección tradicional, sino también una elección fructífera. Galtung propone una tipología para clasificar unidades y superunidades de análisis; a partir de un primer nivel tendríamos los siguientes tipos de unidades: a) Una categoría: sería todo conjunto de individuos considerando con prescindencia de toda estructura entre ellos; de relativa permanencia e influjo mutuo b) Un sistema: serían los individuos cuando son tomados por parte de una interacción binaria, débilmente conectados c) Un grupo: sería un sistema con una relación de interacción binaria fuertemente conectada y en la que todos los individuos están fuertemente vinculados entre sí 40 La unidad de análisis de una investigación puede ser, el individuo, pero también puede ser una unidad compuesta por individuos cuyo mayor o menor grado de integración determinará el tipo de propiedades emergentes o nuevas variables que puedan surgir; cuando ese conjunto se transforma en una totalidad la que no sólo es enunciada como tal sino que se comporta como tal, de manera que las propiedades no pueden ser reducidas a la suma de las propiedades anteriores, se habla de un salto de calidad en la unidad de análisis y de un mayor nivel de integración. El aporte de la presentación orgánica de las categorías de la ciencia consiste, en que introduce junto con la cuestión de la articulación estructural entre series de categorías en la ubicación de los valores, de las variables y de las unidades de análisis, la cuestión de las vías analíticas de transformación de un sistema categorial en otro, lo que abre la posibilidad de descubrir las vías de comunicación entre sistemas teóricos distintos. Una investigación que se inicia con una fase descriptiva de las manifestaciones de un problema, aún cuando comienza atendiendo solamente a cualidades, la misma selección de los tipos de atributos presupone la existencia de cualidades características, quedando la serie completamente involucrada en dicha búsqueda, aunque no haya sido explicitada: cualidad-esencia-sujeto. El hecho de que la selección de cualidades relevantes presuponga o señale hacia el lugar de la esencia y del sujeto, no obstante la propia investigación no podría pasar hacia la determinación de la esencia, sin antes haber profundizado la descripción alcanzando la cuantificación y la medición. 41 Según Bavhelard: en su formación individual, un espíritu científico pasaría pues necesariamente por los tres estados siguientes, mucho más precisos y particulares que las formas comptianas: a) Estado concreto: en el que el espíritu se recrea con las primeras imágenes del fenómeno y se apoya sobre la literatura filosófica que glorifica la naturaleza, y que extrañamente, canta al mismo tiempo a la unidad del mundo y a la diversidad de las cosas b) Estado concreto-abstracto: en que el espíritu adjunta a la experiencia física esquemas geométricas y se apoya sobre la filosofía de la simplicidad: el espíritu se mantiene todavía en una situación paradójica: está tanto más seguro de su abstracción cuanto más claramente esta abstracción está representada por una intuición sensible c) Estado abstracto: en el que el espíritu emprende informaciones voluntariamente sustraídas a la intuición del espacio real, voluntariamente desligadas de la experiencia inmediata y hasta polemizando abiertamente con la realidad básica, siempre impura, siempre informe La posición bachelardiana se instala decisivamente en el puesto del sistema categorial de la medida y desde allí señala hacia el resto de una estructura completa: medida-realidad-praxis, pero por lo mismo que presupone los otros dos lugares, en lugar de acceder a ellos desde el sistema de las categorías de la esencia y del fenómeno, y desde el sujeto y el objeto, proyecta el contenido del sistema de los valores-medida tanto a la realidad cuanto a la praxis 42 La Experimentación como Proceso La ciencia, es fundamentalmente conocimiento; y por convencionalismo es un conocimiento de cierta clase: conocimiento que busca leyes generales que reúnen cierto número de hechos particulares; poco a poco, el aspecto de ciencia como conocimiento, va resultando relegado al olvido al prevalecer el concepto de ciencia como capacidad de manipular la naturaleza. La palabra research (investigación), tiene su origen en un término que significa explorar o moverse alrededor de, el cual a su vez se deriva de una palabra que significa círculo. Experimentar significa ensayar o poner a prueba y se refiere a los procedimientos utilizados al tratar de descubrir hechos y procesos desconocidos. La investigación y la experimentación se refieren a los procesos de exploración y prueba utilizados para lograr una comprensión mayor de la naturaleza del mundo; existen razones específicas por los cuales un experimentador realiza un trabajo particular: una razón básica por la cual se llevan a cabo experimentos, es la necesidad de determinar la relación entre dos o más variables; la segunda razón es la ampliación del campo de estudio de una variable, la realización de cualquier experimento presenta problemas nuevos para explorar. Otra razón para experimentar es el aumento de confiabilidad de los hallazgos logrados; esto implica la repetición de experimentos ya realizados; la repetición es una función importante de la experimentación; si diferentes investigadores que utilizan muestras distintas, logran verificar un hallazgo publicado, se incrementa la confianza en ese des43 cubrimiento. Una cuarta razón general para experimentar, es la de someter a prueba una teoría. Se ha realizado una gran cantidad de estudios con la ayuda de los métodos de correlación, esto significa que el investigador trata de medir las relaciones que existen entre dos o más fenómenos ya observados. Una segunda característica de los estudios de correlación es que la secuencia de tiempo no tiene repercusión particular; en un experimento los valores de la variable independiente se establecen y se miden antes de determinar los valores de la variable dependiente. Un tercer punto de diferenciación es el hecho de que un estudio de correlación no implica causalidad, mientras sí la involucra un estudio experimental; por ser posible un gran número de hipótesis, ninguna correlación permite hacer una afirmación directa de la causa; en un buen experimento, es posible afirmar que las condiciones manipuladas por el experimentador fueron la causa de las reacciones que se obtuvieron. Esto da lugar a un cuarto punto de distinción: si la correlación entre dos variables resulta ser alta y confiable, entonces podemos utilizarla con propósitos de predicción. Mientras un experimentador, más logra controlar las condiciones de un fenómeno, más preparado está para realizar observaciones precisas, a diferencia del observador que simplemente registra los fenómenos cuando éstos se presentan; siendo conocidas las condiciones controladas, el experimentador puede montar de nuevo su experimento y repetir las observaciones. Dos conceptos son usados frecuentemente: el de variable independientes y el de variable dependiente. La variable independiente se define, como el factor o variable que manipula el experimentador. La variable 44 dependiente se define como los cambios medidos en el sujeto, con base a sus respuestas de evitación, o de rapidez de aprendizaje de una tarea. La variable independiente es tan sólo una condición apta entre muchas que pueden afectar el fenómeno que se estudia; en cualquier experimento, es posible manipular más de una variable a la vez, y en tal caso tendríamos dos o más variables independientes; los experimentos requieren también que ciertas condiciones se mantengan constantes, esto se hace precisamente porque dichas condiciones podrían afectar, las respuestas que se intentan medir. En la mayoría de los experimentos, el tiempo se mantiene constante, los aparatos controlados o calibrados, las condiciones medioambientales uniformes y las variables conocidas, a diferencia de aquellas que están en estudio, se mantienen fijas en algún valor; debe ser evidente que todos los valores se mantengan constantes, estén en potencia de cambiar eventualmente la respuesta que se va a medir, y por eso se los puede considerar como variables independientes potenciales; a estos factores que se mantienen constantes se les denomina parámetros. Otros autores amplían el concepto de variable: a) variables independientes y dependientes, b) variables activas y atributivas, c) variables continuas y categóricas; la forma más útil de clasificarlas es dividirlas en independientes y dependientes. La variable independiente es la supuesta causa de la variable dependiente, que sería su efecto. La primera es el antecedente; la segunda el consecuente; cuando decimos: si ocurre A, también se realizará B, tenemos la unión condicional de una variable independiente (A) y una variable dependiente (B). 45 Ambas designaciones provienen de las matemáticas, donde X es la variable independiente y Y, la variable dependiente; de manera que en la investigación científica se persiguen incesantemente las relaciones entre X y Y. En los experimentos se manipula la variable independiente; la variable dependiente es aquella que se predice, mientras que la variable independiente es aquella a partir de la cual se predice. La variable dependiente Y, es el supuesto efecto que varía con los cambios o variaciones de la variable independiente X, y no se manipula, sino que es observada por si se produce alguna variación atribuible al cambio de la variable independiente; para predecir la Y a partir de la X, podemos tomar cualquier valor y asignarlo a X, mientras que el valor de Y que predecimos depende del valor de X que hayamos escogido. La variable dependiente suele ser la situación que intentamos explicar. La relación entre una variable independiente y una variable dependiente se podría comprender mejor, si se trazan dos ejes perpendiculares entre sí, unos de los cuales representa a la primera y el otro a la segunda; cuando dos ejes son perpendiculares entre sí, se denominan ejes ortogonales; conforme a la costumbre de las matemáticas, X es la variable independiente o eje horizontal. Y, la variable dependiente, o eje vertical, la X se conoce con el nombre de abscisa y la Y con el nombre de ordenada. Una clasificación útil en el diseño de investigaciones se funda en la distinción que existe entre variables experimentales y medidas; es importante al planear y ejecutar la investigación, distinguir entre ambas; las variables manipuladas se denominan variables activas, las variables medidas se denominan variables atributivas; 46 cualquier variable susceptible de manipulación es una variable activa; cualquiera que no se pueda manipular es una variable atributiva. Con relación a las variables continuas y categóricas, esta distinción es importante en lo que respecta al planeamiento de la investigación y en el análisis de datos. Una variable continua puede influir en un conjunto ordenado de valores dentro de cierto intervalo; esta definición significa, que sus valores reflejan, un orden jerárquico y que un valor mayor de la variable indica que la propiedad en cuestión se posee en un grado superior; las variables categóricas, pertenecen a una clase de medición llamada nominal, en ella hay dos o más subconjuntos del conjunto de objetos que se mide; los individuos son clasificados de acuerdo a la posesión de una característica que define a cualquier subconjunto. Las construcciones hipotéticas se han denominado también variables intermedias. La variable intermedia es una variable imaginada, no puede ser vista, oída, ni tocada. El Sistema de las Funciones Lógicas El pensamiento constituye la formulación de una pregunta o la respuesta a una interrogación; cuando se piensa en un objeto, en un proceso o en una situación, se plantea un problema por resolver acerca del objeto, del proceso o de la situación; o se expresa la solución a la indagación que se haya formulado. El procedimiento científico consiste en una sucesión de problemas que se plantean a partir de los datos contenidos en las investigaciones anteriores y por los cuales 47 se llega a su solución, a través del desarrollo teórico y de la experimentación. El contenido de la lógica es el pensamiento y sus funciones que son al mismo tempo, las más simples y las más elementales; a la existencia le sigue la determinación; esta es la característica fundamental del pensamiento; en sentido estrito pensar es determinar. La determinación tiene su expresión más caracterizada en el juicio; porque el juicio es la forma del pensamiento que establece la relación determinante, y por medio de esa función en el juicio se fijan los puntos de referencia que indican los momentos del devenir dialéctico del conocimiento. En la reconstrucción de los procesos seguidos para la adquisición del conocimiento, la lógica tiene una función importante; por medio de esta es que se pueden repetir, todos los pasos que conducen ala conclusión ya alcanzada anteriormente. En este sentido, la técnica de la transmisión del conocimiento científico se apoya en las leyes y en los métodos desarrollados por la lógica, esta se ocupa de encontrar en el proceso mismo del trabajo científico, las formas en el que este procede para desarrollarlas y convertirlas, en eficaces instrumentos para la propia investigación de la ciencia. El juicio, como expresión más caracterizada de la determinación, establece la relación entre dos o más conceptos. La función del juicio condiciona a los dos elementos que la constituyen, a los conceptos que intervienen en ella; el concepto tiene como elementos primordiales a los juicios que lo constituyen. 48 Capacidad de Objetividad de la Razón El racionalismo crítico propone una racionalidad específica con el criterio de demarcación: sólo será científico un conocimiento anclado al método hipotético deductivo, en el que la objetividad se asienta en la contrastabilidad intersubjetiva de los enunciados a probarse; en esta perspectiva solamente se consideran los enunciados con sentido y los principios racionales de la lógica formal, transformados en la única lógica de razonamiento. La alternativa a esta óptica que pone a la lógica por encima del objeto, ubicando a la realidad en un recorte parametral; estará diferenciada y definida por una nueva racionalidad que no niega los principios racionales de la lógica formal, pero que los asume como instrumentos de la razón con los que se lleva a cabo su relación con la realidad. En esta perspectiva el mecanismo de apropiación de la realidad es la totalidad, entendida como un modo de organizar la apertura de la razón hacia la realidad que se quiere estudiar, sin limitarse al encierro en determinados límites teóricos de discursos disciplinarios, pues expresa un concepto de realidad como articulación de niveles que tienen la exigencia de ser analizados en sus relaciones con otros de ellos. Esto es así, porque el vínculo entre la razón y la realidad no queda determinada por la relación teórica, sino por la necesidad de construir objetos en función de un razonamiento articulado por niveles. Según Zemelman, es posible definir un campo problemático, si dirigimos la crítica a mantener la construcción de conocimiento lejos del referente teórico que determina la 49 explicación. Porque la relación de conocimiento subordina el cómo-ver y el qué-ver a la organización de un campo de observación que no se supedite a las exigencias de tal o cual teoría proveniente de tal o cual disciplina. Debe romperse por el contrario con la tendencia del investigador que, pudiendo saber lo que está viendo, intenta que sus observaciones sean coherentes con la base de su conocimiento preestablecido, es decir, teórico-disciplinario. La apertura de la razón a lo real deberá abrirse a la objetividad, en vez de ser una función de la postura teórica del especialista; tal capacidad de abrirse a la realidad objetiva lleva a un campo de opciones y permite asegurar el predominio de lo objetivo sobre el pensamiento; con esto se enriquece el concepto de realidad; se puede entender ahora, como proceso, como producto y como potencialidad. La apertura de la razón tiene una constante transformación de referentes empíricos y la ruptura de límites teóricos en el plano del conocimiento; también se precisa de una exigencia de objetividad que trascienda el contenido de estructuras teóricas, permita reconocer campos de objetos, y opciones de construcción del objeto. El razonamiento teórico se abre respecto a la realidad para reconocer una amplitud de concreciones posibles. Reconocer la articulación de los distintos niveles de un fenómeno social implica construir el concepto de realidad considerando a esta en movimiento. En la perspectiva del racionalismo crítico, la relación con la realidad debe llevar a la explicación y de ahí la exigencia de refutabilidad en su criterio de falsación. Si a la inversa, se le otorga primacía al objeto construyéndolo articuladamente por niveles de lo real: el nivel eco50 nómico, el político, el social y el psico-cultural, se pueden descubrir opciones al hallar al mismo tiempo una multiplicidad de objetos posibles en los que, el poder de explicación, es la capacidad de organizar relaciones entre ellos, pero al interior de una delimitación que consiste en un campo de objetos; es aquí en donde el reconocer la especificidad se hace imprescindible, para garantizar el no partir de estructuras predeterminadas con fines explicativos, sino mediante la articulación de niveles de lo real y de procesos temporales y espaciales para lograr la aprehensión del objeto. Así, la necesidad de reconocer la especificidad de un fenómeno social, se convierte en una exigencia analítica indispensable para el reconocimiento de un campo de opciones desde donde pueda vislumbrarse lo posible de ser incidido o potenciado; con ello el razonamiento toma en cuenta la exigencia de adecuación a lo concreto específico. El problema del conocimiento en este nivel estriba en reconocer planos de la realidad y niveles de abstracción. Lo específico resulta de la articulación entre el avance a lo particular y concreto, en donde ésta exige que cada nivel sea analizado en su relación con otros niveles, en donde es necesario el corte temporal presente. Ahora bien, la capacidad de reconocimiento de la especificidad de un fenómeno implica de hecho romper con las ataduras del esquema hipotético deductivo, aquel que parte de un marco teórico preestablecido para sólo explicar, a partir de una o dos causas, la gran complejidad de un fenómeno social. Reconocer opciones permite romper con cualquier intención de partir de una estructura teórica previa; ya que el objetivo en la perspectiva dialéctica crítica, el recono51 cer la especificidad de procesos se relaciona con construir la realidad y la búsqueda de opciones teóricas o de acción. Significa no iniciar el razonamiento enmarcado en una teoría, sino reconocer campos de objetos, es decir, opciones para la construcción del objeto. La relación de la razón con la realidad no queda determinada por la relación teórica y de contenido, sino por la necesidad de construir objetos y en estos términos, permite ubicar qué categorías o conceptos de la teoría son pertinentes como herramientas analíticas, según Zemelman. La Totalidad: Recurso Epistemológico para la Articulación Transdisciplinaria La articulación transdisciplinaria significa en sentido simple, construir el conocimiento por articulación de niveles multidimensionales de lo real; lo transdisciplinar se refiere en este planteamiento, al hecho de relevar la cosa, el objeto, la realidad pues, por encima de cualquier discurso sustantivo disciplinario. Transdisciplinario es eso, abrir el pensamiento mas allá de los límites de estructuras teóricas preestablecidas, pero, sin desechar a priori, las posibilidades de captación de lo real por las categorías y conceptos de constructos teóricos ya construidos, se trata de actuar, con una actitud crítica en su uso. Se debe pensar por analogía en la similitud que existe entre un individuo y una disciplina, así como el individuo está constituido por diferentes referentes de lo real; una disciplina está también constituida por diferentes fundamentos epistemológicos: su concepción de la 52 ciencia, su concepción ontológica, su concepto de realidad y su método o, su forma de aprehensión de lo real. En su origen las disciplinas deambulan y se esfuerzan por constituirse con el estatuto de ciencia, para poder autopresentarse. Es decir, para lograr consenso de su legitimidad como disciplina científica. No se trata de rehacer la historia de las disciplinas científicas, se intenta problematizar el significado profundo de la totalidad como recurso epistemológico para el conocimiento, para tratar de dar validez a una propuesta: es decir, para proponer a la transdisciplina, como articulación disciplinaria vía la totalidad. Lo dicho implica que la totalidad no es todos los hechos, sino que es una óptica epistemológica desde la que se delimitan campos de observación de la realidad, los cuales permiten reconocer la articulación en que los hechos asumen su significación específica. En este sentido se puede hablar de la totalidad como exigencia epistemológica del razonamiento analítico. En este sentido, la perspectiva de Morín como transdiciplinaria para la propuesta de un modelo viene a ser más abstracta que su propio planteamiento, toda vez que aspira a explicar la complejidad del mundo, del universo; a la inversa, la propuesta de la totalidad en su nivel epistemológico, es una propuesta para captar objetos concretos, sin pretensiones de visión del mundo, cosmogonía. Paradójicamente, la propuesta de Morin es más totalizadora, más holista que la de la propia dialéctica crítica. La totalidad es un recurso para organizar el razonamiento analíti53 co, no intenta formar un objeto total que incluya el todo de todo, pues se centra en definir la base de la teorización, sin ser una teoría en sí misma; ni mucho menos pretende ser un objeto real. Por eso el concepto todo constituye un modo de recortar la realidad para construir el objeto de estudio que sin partir de exigencias a priori de todas las propiedades o aspectos de una cosa, permita dar soluciones sobre ciertas propiedades o aspectos especiales de la cosa en cuestión, que le hacen aparecer como una estructura organizada. Por esto también consideramos que la totalidad representa una solución al asunto de la preeminencia del problema por sobre cualquier ideal metodológico, esto es, sus mecanismos de adecuación a la cosa concreta. Explicaba Zemelman. Es su capacidad de apertura hacia lo real lo que permite profundizar mayormente en la realidad con el objetivo de dar prioridad a la construcción del objeto. La totalidad así concebida deviene como un método que hace posible el recorte o construcción del objeto; este último, plantea una pregunta. ¿Cuáles son los fundamentos de conocimiento implícitos que están en conexión con un concepto de totalidad de la forma que se plantea? a) La necesidad de una apertura de la razón como actitud abierta a la especificidad de lo real, para el entendimiento de la interacción que existe entre la multiplicidad de objetos posibles en el mundo real b) Control de los condicionamientos de la razón que impiden la objetividad del conocimiento, imprimiendo sesgos en los análisis 54 c) Para ello se esbozan los mecanismos metodológicos para la construcción del objeto como reconstrucción articulada e histórica; aprehendiendo su especificidad con base en la articulación transdisciplinaria para el descubrimiento de las conexiones determinadoras del objeto, con otras dimensiones de lo real Se debe considerar suficiente el señalamiento de las limitaciones que están inmersas en el paradigma disciplinario, así como el consenso sobre las mismas, en los bastiones más avanzados en la producción de conocimiento teórico; no ocurre lo mismo, con la incesante búsqueda de la creación de paradigmas alternativos al primer acercamiento interdisciplinario. Los esfuerzos del paradigma de lo complejo, sustentados en la vinculación entre ciencias naturales y ciencias sociales es una muestra de que la teoría del conocimiento es un nicho de investigaciones inagotable dada la comprobada limitación racional frente a la complejidad del universo; por esto se insiste en el error en que se cae al concebir a la dialéctica y a la totalidad en su aspecto ontológico sin intentar pensarlo como Zemelman, como recurso epistemológico; con ello, la razón se abre a las potencialidades de lo real, para que se construyan totalidades específicas sobre campos delimitados. Una premisa en esta perspectiva es el reconocimiento implícito y explícito de que la complejidad de la realidad no puede ser captada en términos de todo de todo, sino en el acotamiento que hace posible la construcción de objetos específico concretos. Es importante considerar, que una diferencia que distingue cualitativamente a la articulación transdisciplinaria como 55 totalidad concreta del paradigma disciplinario fragmentario, es el hecho de que en el asunto de la explicación, como determinación de las relaciones entre los elementos de un objeto, es para los partidarios del método hipotético deductivo o esquema sustantivo disciplinario uno de los principales fines de la ciencia. En la articulación interdisciplinaria como lógica de aprehensión-apropiación de lo real, al construir relaciones de conocimiento interesa dar cuenta de la realidad. La lógica explicativa depende subjetivamente de los supuestos que el investigador de esta práctica piensa que están determinando al conjunto de las relaciones y determinaciones de un objeto, a partir de teorizaciones sobre objetos similares. 56 Capítulo 2 PENSAMIENTO EPISTEMOLÓGICO C on el auge de la computación, la práctica de la investigación social aplicada se ha diversificado tanto en sus métodos como en las técnicas de análisis que utiliza; dentro de éstas se encuentran dos metodologías de uso frecuente en la actualidad, la denominada cuantitativa con una mayor tradición y la cualitativa. Se plantea una discusión en torno a un debate, la posición respecto al par cuantitativocualitativo en un entorno epistemológico en cuanto al planteamiento del problema a investigar. Se parte del pensar epistémico como una forma de razonamiento del sentido común para acercarse a la realidad, sin ligarla a un enfoque teórico particular previamente establecido. En este sentido la discusión epistémica es tomada como una reflexión predisciplinaria en el planteamiento del problema a estudiar sobre una realidad concreta; bajo este esquema, la propuesta es mantener una postura epistemológica que per mita una for ma abierta y problematizadora de pensamiento en términos de las categorías que rodean al objeto de estudio, a partir del cual se 57 enfrentan dos métodos posibles para la construcción y análisis de los datos y dos dimensiones: el par cualitativo-cuantitativo y el contexto micro y macrosocial. Teoría y realidad Uno de los objetivos principales de la investigación aplicada es conocer la realidad con el propósito fundamental de modificarla. En este sentido bajo un planteamiento epistemológico la realidad debe ser pensada como lo objetivamente posible, sin el establecimiento previo de encuadres teórico, ni supuestos basados en la experiencia acumulada, cuidando de no reducir el recorte de observación de las metas preestablecidas. Captar la realidad como presente permite potenciar una situación que se anticipe a los múltiples cursos que puede seguir, la apropiación del presente abre múltiples opciones para la construcción del futuro. Desde la perspectiva epistemológica el problema es encontrar un método que permita ver la realidad y describirla, sin reducir el recorte a lo previamente establecido, ni a estructuras conceptuales especificas que supongan un conjunto de relaciones a priori; es buscar una forma de razonamiento que no se limite a organizar el pensamiento con base en contenidos de información estructurados, sino que, parta de la concepción de la realidad como totalidad dinámica entre niveles. A partir de esto mantener un pensamiento abierto y problematizador de una realidad concreta que permita hacer una elaboración conceptual que articule sus procesos. En este sentido el diagnóstico se convierte en la expresión de las potencialidades de una realidad concreta, entendi58 da ésta como una articulación dinámica de procesos que se desenvuelven en diferentes niveles y diversas dimensiones espacio temporales en los ámbitos micro y macrosociales. En este contexto el uso de la teoría no debe partir del planteamiento de hipótesis y de razonamientos apriorísticos, sino de problematizar el fenómeno y sus diversas conceptualizaciones de modo que en lugar de cerrar las relaciones del mundo real a contenidos y jerarquizaciones teóricas, abra un campo de múltiples posibilidades de estas relaciones. Cuanto menos atado está un investigador a un modelo teórico concreto, tanto mejor será su condición para encontrar datos ideales; ubicarse en un momento preteórico le permitirá establecer categorías y concepto que lo lleven a un análisis de la realidad menos prejuiciado y con ello a la construcción de nuevas teorías. En este sentido hay una búsqueda por alcanzar lo que sería la totalidad, es decir la intención de encontrar una hipotética completes, porque ahí se encuentra el horizonte de las interpretaciones disciplinarias y transdisciplinarias, perspectiva que le debe permitir contemplar elementos políticos, culturales y psicosociales articulados con las estructuras productivas, la dinámica poblacional y los contextos macro y microespaciales. El Par Cualitativo Cuantitativo Si bien el software computacional de análisis de datos favoreció en un principio a los métodos cuantitativos, el desarrollo alcanzado en esta materia para el análisis cualita59 tivo ha reanimado el entusiasmo por su utilización; en este contexto la polémica por el uso de uno u otro método se acrecienta cada día más, donde se plantea el predominio de una técnica sobre otra. Los partidarios del análisis cuantitativo afirman que el cualitativo carece de fiabilidad y validez; por el contrario los que defienden a los segundos, aseguran que la supuesta neutralidad y precisión de los primeros es sólo una afirmación ideológica, argumentando que sus modelos distan mucho de representar lo complejo de la realidad social. Sobre esto los metodólogos cualitativos conceden a sus análisis una perspectiva Emica (fonémica) frente a su contrapartida la perspectiva Etica (fonética) concedida a los métodos cuantitativos. Aquí la perspectiva ética se refiere a las afirmaciones generalizadas sobre los datos, que el investigador establece en función de un conocimiento transcultural; mientras que la émica se refiere a los modelos y patrones que se observan en una cultura particular concreta. Lo ético es externo y lo émico es interno, en el primero el investigador se coloca fuera de las culturas, comparando unas con otras; en lo segundo el investigador descubre desde dentro lo específico de una cultura particular. Entre las diferencias de ambas técnicas se pueden mencionar la forma de recolección de datos, los tipos de análisis que se pueden hacer, las inferencias y las maneras de sistematizar y representar la información; mientras que los métodos cuantitativos se ubican dentro del positivismo del análisis estadístico, los cualitativos en el campo del interaccionismo simbólico y la hermenéutica. Los primeros expresan sus resultados a través de indicadores y modelos 60 estadístico-matemáticos y los segundos explican las relaciones causales utilizando procesos interpretativos personales de la realidad, basados en experiencias previas; en este contexto, los significados son productos sociales elaborados a través de la interacción que llevan a cabo las personas en sus actividades, convirtiéndose de esta manera la acción humana en la fuente de los datos. Métodos Cualitativos Los métodos cualitativos se han venido aplicando de manera creciente entre investigadores de diferentes áreas de las ciencias sociales; consecuencia de esto ha sido las diferentes denominaciones con las que se le ha calificado: método etnográfico, método de observación participante, estudio de casos, método de interaccionismo simbólico fenomenológico, interpretativo o constructivista; pero la más utilizada es de métodos o técnicas cualitativas. Esto puede ser visto, como un término que cubre una serie de técnicas interpretativas que pretende describir, descodificar, traducir y sintetizar el significado, no la frecuencia, de hechos que acaecen naturalmente en el mundo social. Investigar de manera cualitativa es operar símbolos lingüísticos y, al hacerlo así, intentar reducir la distancia entre indicado e indicador, entre teoría y dato, entre contexto y acción. Una de las características de estas técnicas es de utilizar múltiples fuentes de información. En este sentido se puede decir que el trabajo cualitativo comienza con una observación detallada y próxima a los hechos, buscando lo específi61 co y local con el fin de descubrir posibles patrones de comportamiento; se da importancia a la observación de casos concretos y a la conducta de los individuos en sus actividades de interés; en este marco del mundo cotidiano de la vida es donde se encuentran los problemas de investigación, en lugar de los que alteran la rutina social. El orden social se explica en términos de las costumbres, las circunstancias concretas y la interacción social. Los núcleos de interés son los fenómenos recurrentes en tiempos y espacios concretos. El descubrimiento y la exposición son más importantes en la investigación que la explicación y la predicción; aquí las generalizaciones se elaboran en función de la capacidad específica que cada investigador tiene para interpretar los datos, los cuales reconocen a los fenómenos como particulares y ambiguos en lugar de replicables y claramente definidos. En el análisis cualitativo se aplica una metodología específica para captar el origen, el proceso y la naturaleza de los significados que surgen en la interacción simbólica de los individuos. Su objetivo es la captación y reconstrucción de significados, su lenguaje es básicamente conceptual y metafórico, su método de captar información es flexible y no estructurado, su procedimiento es más inductivo que deductivo y su orientación es holística y concretizadora. Con esta metodología los datos son extraídos a través de observaciones lentas, prolongadas y sistemáticas, con base en notas, libros de registros y grabaciones entre otros, en un diálogo constante con la unidad de información observada; en este contexto se habla de una flexibilidad completa en el trabajo de investigación, es decir, se puede cambiar en cual62 quier momento la hipótesis de trabajo, la fuente de información y la línea de interpretación. Métodos Cuantitativos Estos métodos identificados dentro de la filosofía científica positivista, que tuvieron como antecedentes las ciencias naturales y que caen de manera particular en la metodología estadística, la cual se apoya en la matemática y la probabilidad, funcionan principalmente basándose en indicadores y modelos que busca explicar los fenómenos a través de generalizaciones objetivas. La generalización de sus resultados, apoyados en evidencia empírica, genera cuatro tipos básicos de explicación: deductiva, inductiva, teleológica y genética, los cuales se basan en la reproducción y replica de los fenómenos, a través de las cuales es posible investigar su regularidad con el fin de expresarla en forma de leyes y relaciones empíricas. La información es recabada a través de experimentos controlados, sondeos masivos y recolección de cifras históricas, sobre las cuales es posible medir sus niveles de error, lo que permite hablar de representatividad de las unidades analizadas así como de la confiabilidad y validez de sus resultados en términos probabilísticos; dentro de estos métodos que funcionan a base de variables individuales o conjuntos de ellas, se encuentran las técnicas descriptivas, la estimación de parámetros, las pruebas de hipótesis, la estadística univariada y multivariada, las técnicas paramétricas y las no paramétricas, así como los métodos de muestreo probabilístico. 63 La Complementariedad como Estructuración de Diseños de Investigación Al considerar las investigaciones denominadas cualitativas, su fundamento está dado por la visión holística de las realidades, lo cual implica comprender una realidad desde la relación que hay en cada uno de sus elementos y no desde la mirada aislada de estos. Según Martínez: cada parte al formar una nueva realidad, toma en si misma algo de la sustancia de otras, cede algo de sí misma y en definitiva queda modificada. Si bien, se reconoce que existen diferentes tendencias cualitativas como: La etnografía, la teoría fundada, la fenomenología, la hermenéutica, la investigación acción participativa, la etnometodología, las historias de vida, e incluso las investigaciones históricas; todas estas presentan elementos importantes en el análisis en la comprensión de las realidades culturales; sin embargo, cada una de ellas desconoce el aporte de las otras, al centrar su análisis de comprensión en fracciones de la realidad; caso de la etnometodología que centra su análisis en las acciones de los sujetos y no en su esencia como lo propone la fenomenología; o de la etnografía que busca la descripción de rasgos culturales, distinto a la teoría fundada que pretende construir teoría a partir de la comparación constante. En un proceso de investigación social, lo que se busca es comprender el fenómeno, lo más cerca posible a la realidad que viven los sujetos inmersos en este, y esa comprensión no se logra en su totalidad si se percibe desde pequeñas miradas del investigador; se hace necesario reconocer cada uno de los aportes de las tendencias expuestas para lograr una 64 mayor y mejor aproximación a la realidad estudiada, por ello se acude al principio de complementariedad como una posibilidad de articulación respecto a las opciones que brinda cada tendencia; por tanto, para estructurar una propuesta desde la complementariedad, es necesario entre otras, que esta se sustente en: Las teorías de la complejización de las ciencias, según las cuales, una ciencia se desarrolla cuando busca su complejización; esto es, cuando se analiza desde las relaciones internas y externas, o sea, en función de sus posibilidades de relación con el todo y sus partes. El principio sistémico ecológico expuesto por Martínez como una posibilidad de comprensión de un texto cultural y la consideración de las relaciones que se dan permanentemente en dicho texto: nuestra mente no sigue sólo una vía causal, lineal, unidireccional; sino también, y a veces sobre todo, un enfoque modular estructural, dialéctico, gestáltico, donde todo afecta e interactúa con todo, donde cada elemento no sólo se define por lo que es o representa en sí mismo, sino y especialmente, por su red de relaciones con todos los demás. En la teoría de la acción comunicativa de Habermas; según la cual, todo acto de habla implica una acción de comunicarse, y esa comunicación se desarrolla mediante las señales o emisiones emitidas en un contexto de intencionalidad que desencadena una acción, la cual es la base en los acuerdos entre participantes del proceso comunicativo; lo anterior implica que para comprender la comunicación es necesario reconocer la intencionalidad de los actos de habla. Si este acto de habla se analiza en el referente de contexto sociocultural y desde el proceso global que implica comunicarse, se puede realizar una aproximación a la va65 lidez de la información recolectada; pues es en el marco de los procesos comunicativos, que el sujeto expresa ese cúmulo de acciones e interacciones que determinan su percepción del mundo y de su realidad. En el acto comunicativo, existen hablantes y oyentes que se refieren a algo en el mundo, y en esa relación buscan entenderse; lo anterior, se logra mediante unos contratos implícitos entre el hablante y oyente. De este acuerdo, puede surgir la acción. Una acción comunicativa se basa en tres aspectos: el primero está dado por la intención de los comunicantes al manifestar sus actos comunicativos; es decir, el aspecto teleológico de ejecución de un plan de acción. El segundo es el aspecto comunicativo, que implica la interpretación de la situación y el pacto de comunicación; y el tercero es el acuerdo logrado en la interacción. Garfinkel considera que: la mayoría de las interacciones que fundamentan la estructura y el orden social, toman la forma de intercambios y transacciones lingüísticas entre los miembros de una sociedad. La posibilidad de conocer el mundo desde la perspectiva de los sujetos, en tanto este es una representación de las vivencias que se van logrando durante la historia cultural; lo anterior recogiendo la posibilidad de emprender miradas del mundo subjetivo a partir de la búsqueda de posibles estructuras que lo configuran, para llegar a la comprensión de las esencias de esas estructuras; esto, apoyados en las tendencias flexibles del estructuralismo que asumen la estructura como algo dinámico y que representan la intencionalidad de los sujetos mediadas por las acciones e interacciones, y el rechazo al funcionalismo estructural. Considera que la reali66 dad debe ser complementada con las múltiples miradas, lo que constituye la necesidad de entender que la percepción se da con relación a los sujetos. Mockus considera: que es necesario realizar la comprensión de los textos culturales desde el análisis e interpretación de los contratos de habla. Este elemento de la complementariedad, es denominado por los investigadores cualitativos como triangulación, que a decir de Atkinson: es la que conlleva a la comprobación de información referente a un mismo fenómeno obtenida en diferentes fases del trabajo de campo, desde diferentes puntos o ciclos temporales existentes en el lugar, o comparando los relatos de los diferentes participantes. La triangulación se refiere a la utilización de distintos métodos o fuentes de datos. Sandoval asocia la triangulación con el proceso de verificación de resultados, y con la contrastación en diferentes fuentes y localización. Esta estrategia metodológica facilita el desarrollo del principio de complementariedad, toda vez que permite ver que tipo de acciones e interacciones forman pautas culturales; es lo que Velazco denomina: acceder al espacio público de la cultura, según una multiplicidad de perspectivas y datos multirreferenciales; desde esta perspectiva, se considera la cultura como una estructura compleja que sería imposible de captar desde una sola mirada; por eso, los datos recolectados sobre ella, deben ofrecer múltiples facetas o matices remitiendo a una gran variedad de aspectos y niveles de la realidad. La triangulación que contempla este punto desde las múltiples miradas desde el principio de complementariedad tiene en cuenta: 1) Los diferentes sujetos informantes que tengan relación con el fenómeno en la observación de este 67 2) La observación del fenómeno desde diferentes ángulos geográficos e históricos 3) Los diferentes contextos internos y externos que intervienen en el fenómeno a estudiar 4) Comprender la realidad cultural desde la confrontación entre el sujeto protagonista del fenómeno, la interpretación del investigador y las teorías formales desarrolladas sobre el fenómeno Los estudios deben realizarse donde tiene objeto la cotidianidad sin perder de vista lo externo. Esta pretensión trae una doble connotación para un estudio desde el principio de complementariedad: en primer lugar, la necesidad de tener en cuenta los contextos interno y externo que están relacionados con el fenómeno de investigación, lo que hace posible una visión histórica del mismo; en segundo lugar, la necesidad de realizar los estudios desde dentro; es decir, desde la propia percepción de los sujetos implicados. En el proceso de conocimiento social es necesario tener en cuenta que el extraer el fenómeno del medio natural donde se genera el acontecimiento es negativo para la comprensión, toda vez que el comportamiento de los sujetos cambia y de acuerdo a las características del contexto donde se están generando. En la hermenéutica como base en los procesos de comprensión de sentidos y significados de los escenarios sociales y de los sujetos que intervienen en ellos; las realidades de los sujetos desde las teorías del lenguaje, no sólo son objetivadas por medio de los procesos comunicativos, sino que son incorporadas a través de dichos procesos. 68 El lenguaje, es asumido como la posibilidad natural que tiene el individuo para expresar sus acciones y conciencia sobre el mundo; el investigador y el investigado en un proceso de relación directa con el fenómeno, dejan entrever mediante el lenguaje, la forma como ellos están interpretando el mundo; en tal razón, es la hermenéutica del lenguaje, la que propicia ese acercamiento entre la realidad y el acto comunicativo, entre el dato descrito y la posibilidad interpretativa, entre el saber lo observado y la comprensión de ese fenómeno. Searle considera que: el significado de un texto sólo puede aprehenderse sobre el trasfondo de una precomprensión, que desarrollamos al crecer en nuestra cultura. En este mismo sentido Piaget considera que el mundo es configurado y reconfigurado por los individuos; así mismo otras teorías psicológicas como la desarrollada por Gallart, consideran que: las competencias cognoscitivas se hallan fuertemente ligadas al tipo de aprendizaje cognitivo con relación a las prácticas sociales dominantes. Se han desarrollado diversas investigaciones entre las que se encuentran las de Parra Sandoval; y De la Cuesta; todos coinciden en que la estructura de un texto cultural, inicia con los elementos que la propia cultura le otorga al investigador, presentados en el lenguaje ordinario y en general en los procesos de comunicación que los sujetos utilizan; en un enfoque desde el principio de complementariedad es necesario tener en cuenta: a) Realizar los estudios sociales en su medio natural, tal y como lo enuncia el naturalismo 69 b) La posibilidad de comprender la esencia de los fenómenos a partir del reconocimiento de las acciones y experiencias de los sujetos, y su consolidación en estructuras socioculturales; propuestas impulsadas por la fenomenología, la etnometodología y el estructuralismo c) La importancia de comprender las redes de sentido y significado socioculturales desde los procesos comunicativos en un contexto determinado, propias de la hermenéutica d) El apoyo en un paradigma teórico científico que reconozca la trascendencia de la comunicación, la tradición y la historia, tal y como lo propone la teoría crítica e) La importancia de poder construir teoría a partir de la comparación constante, propuesta por la teoría fundada f) La necesidad de reconocer los rasgos culturales y poder reflexionar sobre ellos a partir de la propuesta de la etnografía reflexiva g) La posibilidad de apoyar los análisis de tipo individual y colectivo en historias orales y de vida h) La posibilidad de utilizar algunos diseños previos de tipo flexible, que se puedan ir reconfigurando en el proceso mismo de investigación i) La opción de utilizar algunas técnicas estadísticas, siempre que sean un medio en esa búsqueda teórica para ayudar a comprender mejor la realidad 70 j) La posibilidad de extender las propuestas comprensivas hacia la reflexión y cambio de estructuras socioculturales mediante la crítica emancipadora de la comunidad, propia de la investigación acción participativa Se propone un diseño metodológico que tenga en cuenta los elementos de cada una de las tendencias de investigación complementándolas entre sí; se asume que la forma de percepción del universo por el sujeto se hace manifiesta a través de las acciones e interacciones que dicho sujeto expresa en una realidad determinada; en tal sentido, es necesario estudiarlas en el escenario de relaciones sociales de esa realidad con la menor influencia posible de un marco de inferencias apriorísticas. El diseño consta de tres momentos, los cuales interactúan a lo largo de todo el proceso de investigación y trabajo de campo, con el objetivo de ir configurando la estructura sociocultural: 1) Primer momento (preconfiguración) En este momento, se hace una aproximación a la realidad sociocultural desde un acercamiento a la teoría formal y a la teoría sustantiva, con el fin de focalizar un problema de investigación respecto a la realidad que se desea comprender. Como se delimita la temática desde lo inductivo; para delimitar y definir la dimensión temática desde lo inductivo es necesario iniciar el acceso al escenario de investigación; es decir, comenzar los contactos con los diferentes sujetos involucrados en el fenómeno social, para posibilitar una negociación de relaciones, esto es la iniciación del traba71 jo de campo, teniendo en cuenta la mirada interna y externa de la realidad. Este primer momento, es el que permite al investigador asumir una dirección inicial en la selección del tema, para irla condensando y delimitando de forma progresiva; el investigador, apoyado en un plan de acción inicial, debe asumir procesos de interacción con el grupo en estudio, del que surgirán los primeros elementos preconfiguradores de esa realidad, los cuales serán enriquecidos con procesos de búsqueda teórica que se desarrolla de forma paralela. Como delimitar el área desde lo deductivo. En la preconfiguración, debe existir una estrecha relación entre la teoría y la práctica cultural, pues existe la necesidad de comprender el fenómeno y en muchas ocasiones la sola descripción de la realidad no nos permite dicha interpretación; por tanto, el proceso deductivo implica la búsqueda teórica de los elementos que configuran la temática de estudio, la cual debe realizarse en forma paralela a la búsqueda empírica, para evitar en lo posible, juicios sesgados sobre la estructura que la realidad nos va mostrando. Una vez clarificado el escenario desde el proceso inductivo y deductivo, se procede a establecer una pre-estructura que represente de manera articulada los elementos encontrados en la realidad; recordando que los elementos de una estructura no tienen significado por sí solos, sino que estos se deben a las relaciones que poseen entre sí, es posible representar esa estructura inicialmente encontrada, en un ideograma o mapa conceptual. 72 2) Segundo momento: plan de configuración A partir de la pre-estructura encontrada, se elabora una segunda guía que nos ayuda a buscar la estructura propiamente dicha de la realidad investigada, mediante un proceso profundo de trabajo de campo. Elementos posibles de guía de configuración: a) La indagación central a solucionar b) Las preguntas de investigación c) La metodología de la investigación d) Población e informantes claves: hacia la representatividad sociocultural e) Métodos de recolección de información: entrevista a profundidad; la observación participante f) Desarrollo de la guía de investigación El trabajo de campo inicia cuando se pone en marcha el diseño hasta aquí elaborado; lo más importante es lograr la saturación total o teórica de los datos a través de la relación constante y permanente que se establece con los informantes claves, a tal punto de alcanzar un alto nivel de empatía y que posibilite la veracidad de la información recolectada. 3) En el tercer momento o reconfiguración Se exponen los hallazgos de la investigación, donde se redimensiona la estructura sociocultural, a partir de la relación: elementos teóricos, interpretación del investigador y 73 datos culturales; es decir, se inicia la comprensión de sentido a una estructura sociocultural. ¿Qué pretende el análisis en un proceso de complementariedad? La propuesta, busca la complementariedad entre las tendencias de investigación, por eso el procesamiento de la información se mueve entre aquellos estudios considerados descriptivos y aquellos considerados teóricos o conceptuales. ¿Qué es reconfigurar la realidad? La reconfiguración de la estructura ciertamente no es un momento independiente del momento anterior, aunque ningún momento lo es, pero el paso de la configuración a la reconfiguración, podría decirse que es paralelo, en tanto una vez los elementos de la estructura van emergiendo, estos se van analizando y articulando con la teoría formal; y desde esta relación se construye la comprensión con sentido del fenómeno; es decir, se redimensiona la estructura desde la comprensión que la teoría nos aporta sobre las categorías culturales; se asume así mismo el proceso de reconfiguración, como un momento de confrontación, logrado desde la realidad empírica y contrastada con la realidad conceptual. En términos generales, en una investigación etnográfica cuyo interés está fundamentado en la comprensión de las acciones e interacciones de un escenario sociocultural, los datos deben analizarse permanentemente, para desde ese análisis, poder reorientar el proceso, e ir comprendiendo esa realidad. Un informe escrito debe contener: el modo como se recogieron e interpretaron los datos, tiempo y extensión del estudio, naturaleza y número de escenarios e informantes y encuadre mental del investigador; o sea, su ubicación epistemológica en torno a la investigación. 74 La Recuperación del Observador en la Construcción del Dato Pocas cosas que hayan suscitado tantos debates en las ciencias sociales como el asunto de la medición. Desde su inicio, la cuestión sobre la pertinencia y las posibilidades de la cuantificación como forma de conocimiento de la realidad se gestó en medio de la exigencia en la adquisición del status de cientificidad; en la actualidad, esta reflexión adquiere nuevas dimensiones: por un lado, existe mayor consenso entre las comunidades epistémicas sobre la especificidad del objeto de estudio de las ciencias socioculturales, así como acerca de la necesidad de considerarlas como ciencias interpretativas, lo que se ha traducido en una proliferación de investigaciones de corte cualitativo en oposición a las cuantitativas; a pesar de la expansión y maduración de las metodologías y técnicas de corte interpretativo; reconocer a los datos no sólo como una mera convención, o como un elemento que complementa o sustenta una investigación, sino, advertirlos en su vertiente de construcciones analíticas, tan abstractas como las cualitativas, permite reconocer la relevancia de esta reflexión como uno de los temas cruciales en los estudios de filosofía de la ciencia, donde la construcción del dato pocas veces se analiza en su vertiente de problema u obstáculo epistemológico. Las reflexiones parten del reconocimiento de la participación del sujeto en la construcción del conocimiento, con el énfasis sobre todo en que el acto de medir y cuantificar no excluye al sujeto de conocimiento; estas premisas se sitúan frente a aquellas que postulan al sujeto cognoscente como el encargado de recoger los datos que se supone corresponde 75 a hechos observables. Se debe reconocer cómo todos estos supuestos no son más que formas particulares de abordaje que le otorgan al sujeto formas específicas de intervención; con esto se busca ubicar la discusión sobre la construcción del dato en un plano epistemológico, con un particular énfasis en el problema de la construcción-correspondencia, frente a aquellas posturas que lo han reducido a su vertiente técnica, que advierte el problema como una mera correspondencia entre precisión-exactitud. Las Categorías y la Medición De la correlación entre juicio y concepto, resulta que los conceptos constituyen los elementos del juicio; puesto que desempeñan, con respecto al juicio, la función de ser los componentes primarios, a partir de los cuales se hace posible efectuar su formulación. Un concepto es susceptible de un número infinito de determinaciones, y que puede formar parte de una infinidad de juicios, en general ningún concepto deja de implicar, a otros; no existe concepto alguno que se pueda considerar aislado o separado de los demás; en todo juicio se encuentra contenida la implicación de otros conceptos más generales que aquellos que constituyen sus elementos; pero esos conceptos que son más generales que los constituyentes del juicio en cuestión, implican a su vez otros conceptos, todavía más generales; como el conocimiento se encuentra en un movimiento continuo, sin tener nada de estable en sentido absoluto, esa doble implicación que existe entre los conceptos que se relacionan por generalización y por particularización, siempre está en actividad. 76 En ese juicio dialéctico de los conceptos, la ciencia encuentra definido su dominio por algunos conceptos, que estarán implicados en todo juicio que se establezca científicamente; dentro del campo de una ciencia también se definen dominios, caracterizados por otros conceptos que desempeñan en ellos dicha función fundamental, así de esta manera se constituyen las diferentes ramas de una misma ciencia; todavía se llegan a practicar nuevas divisiones y subdivisiones, para estudiar aspectos más particulares de los procesos del universo, definidos siempre por conceptos característicos. A los conceptos que cumplen estas funciones, se les denominan categorías; algunas están implicadas en todo conocimiento; podemos definir a las categorías como aquellos conceptos más generales que todo juicio implica. Las categorías más generales del conocimiento científico, pueden agruparse dentro de cuatro clases: la cualidad, la cantidad, la relación y la modalidad; a su vez estas clases se pueden dividir en grupos o subclases, que comprendan los momentos dialécticos fundamentales; con relación a la cualidad: el análisis de la unidad y la determinación de sus partes contradictorias, constituye la operación más elemental y el fundamento de la dialéctica; en la identidad de los opuestos se expresa la existencia de aspectos contradictorios que se excluyen mutuamente, se exponen las tendencias contrarias y antagónicas que se manifiestan en los procesos de la naturaleza, lo mismo que de la sociedad y del pensamiento; por tanto también la diferencia entre lo relativo y lo absoluto, es relativa; porque lo absoluto se encuentra contenido en lo relativo, de la misma manera en que lo relativo forma parte de lo que es absoluto; el estado del universo en su 77 totalidad y en su particularidad, es siempre de contradicción, si bien la contradicción misma se encuentra también en vías de superación. El conflicto se manifiesta de diversos modos; en primer término, toda determinación implica una determinación de su opuesto, porque la existencia de un proceso implica también, la existencia de un opuesto; cualquier proceso concreto es siempre la unidad de determinaciones opuestas; cualquier manifestación concreta implica la abstracción de otras. Todo proceso se encuentra determinado por fuerzas que se oponen; con relación a la determinación cualitativa, primordialmente se tiene a la existencia como idéntica a sí misma, en una indiferenciación absoluta; esta mera existencia es también, mera abstracción y es absolutamente negativa, como indeterminación que es. La existencia determinada es la unidad de la existente con la indeterminación, y en su relación, que es a la vez su contradicción, se tienen tan sólo como momentos; tal existencia determinada con el carácter que le es inmediato, es la cualidad; así como todo proceso, por cualidad, es finito y mudable; la finitud y la mutabilidad pertenecen a su existencia; la relación de lo negativo, consigo mismo, es relación negativa, distinción de lo uno de sí mismo, repulsión de lo uno, posición de muchos; la repulsión de los unos que existen, se convierte en su repulsión recíproca, en un mutuo excluirse; la repulsión en sí misma es, por el comportamiento negativo de los unos entre sí, la relación fundamental de los unos con los otros. La determinación cualitativa, que ha llegado en el uno a existencia determinada en y por sí misma, se convierte así en la determinación suprimida, esto es, en la existencia como cantidad. 78 Con relación a la cantidad y sus grados, tenemos que la determinación cualitativa de un proceso lleva a su consideración cuantitativa; después de identificar a un proceso consigo mismo, entonces surge la necesidad de establecer la determinación cuantitativa de ese proceso; en la coincidencia de sus propiedades comunes a las del resto de los elementos de la clase, el proceso se diferencia de los otros miembros por su cantidad. La cantidad es así, una distinción que se establece en el propio seno de la conexión cualitativa; las diferencias de cantidad se manifiestan desde un punto de vista cualitativo unitario e invariable, aun cuanto esto último sea siempre relativo; todo proceso del universo se convierte en objeto particular de la consideración de la ciencia, cuando el conocimiento llega a ser capaz de cuantificarlo, después de haber descubierto sus propiedades o cualidades; toda cualidad que el universo exhibe, se explica por medio de su determinación cuantitativa, cuando esta llega a su existencia determinada en y por sí misma, se transforma en la existencia como cantidad. La cantidad es la existencia en la cual se ha superado la determinación, haciéndose indiferente; la cantidad constituye la determinación fundamental del universo, cuando se considera que en este, como absolutamente indiferente, toda diferencia es únicamente cuantitativa. La cantidad es primitivamente, como determinación exclusiva que se tiene en sí misma, cantidad limitada; todo proceso determinado cualitativamente es susceptible de aumento o de disminución, sin que por ello se suprima la cantidad. La medición es aplicable a todas las series que pertenecen a una cierta clase; la medición incluye, algunos entes que no son cantidades y 79 por otro lado, excluye a algunas cantidades; así, se define la cantidad como todo aquello que es susceptible de igualarse cuantitativamente con algo; y esa igualdad cuantitativa posee las siguientes propiedades: es reflexiva, A es igual a A, es simétrica, si A es igual a B, entonces B es igual a A; es consistente, ya que puede darse el caso de que A es igual a B, y es transitiva, si A es igual a B, y B es igual a C, entonces, A es igual a C. Las magnitudes son irreflexivas, puesto que ninguna magnitud es mayor o menor que sí misma; son asimétricas; la medida de magnitudes es el procedimiento por el cual se establece una correspondencia biunívoca, es decir unívoca y recíproca, entre todas o algunas de las magnitudes de una clase y todos o algunos de los números de una cierta clase. Si todos los acontecimientos se encuentran correlacionados con la serie dinámica determinada, entonces, todas sus magnitudes son susceptibles de medirse Reconocer y conservar el orden, es una condición que han de cumplir, en general todos los organismos vivos, y un organismo es un sistema de actividades que se conserva mediante un aparato de medida o mediante un mecanismo que se regula a sí mismo basándose en medidas; el hombre lleva a cabo medidas conscientes en el espectro completo de actividades que lo distinguen como ser pensante; una vez que la formación de conceptos y el lenguaje ganan acceso a las ideas de cosa igual y diferente, el discurso revela ya la idea de clase como concepto ordenador; y en este proceso de identificación, comparación y clasificación se encuentran ya los fundamentos de la medida. El proceso de medida surge de las necesidades de la existencia práctica, siendo el 80 perfeccionamiento de los conceptos básicos de la medida una de las mayores realizaciones humanas. Al realizar una observación, se realiza una clasificación: lo que se selecciona son rasgos de las cosas, que según las circunstancias o las convenciones; reciben el nombre de propiedades, atributos o cualidades; en el lenguaje clásico de la clasificación se hace la distinción entre género y diferencia: género es la clase a la que pertenecen cualesquiera dos cosas que se hayan comparado y diferencia, connota las subclases adecuadas de esta clase, que señalan diferencias dentro de esta. El resultado de esta manera de clasificar es, diagramáticamente, un árbol o diagrama ramificado y salen ala luz relaciones entre las cosas identificadas, en forma de relaciones de clase; esto da lugar a un sistema formal de clasificación; y el desarrollo de este sistema formal, en la lógica silogística de Aristóteles, fue una explicación del carácter clasificatorio del lenguaje corriente y de la medida en la propia forma de las proposiciones descriptivas sujeto-predicado, que es un primer instrumento de clasificación. El desarrollo más completo de este análisis formal de la clasificación tuvo lugar en forma de matematización de las relaciones de clase, como la desarrollada por Boole; el álgebra de Boole o lógica de Boole, formalizó las relaciones de clase y el concepto de pertenencia a una clase, de modo que pudiera desarrollarse el cálculo en términos formales. Los conceptos fundamentales de dicha lógica de clase, o teoría elemental de conjuntos, son pertenencia a una clase, inclusión de clases e intersección de clases y las relaciones que se dan entre las subclases del dominio. La notación empleada para representar esta operación de asignar individuos 81 a las clases no es siempre la misma; cuando se trata de individuos en cuanto miembros de ciertas clases, estos individuos se toman como elementos de la clase o conjunto, y la relación de pertenencia a una clase se denota mediante el símbolo Î. Para representar los elementos se emplean minúsculas: convencionalmente x, y, z, para variables individuales y A, B, C para constantes individuales. Así, la expresión x Î B, significa x es miembro de la clase B, o x pertenece a B. Para representar una clase o conjunto se emplea el símbolo íý, que recoge los nombres de los miembros entre los corchetes. La unión de dos conjuntos se representa simbólicamente, mediante È, y es el conjunto de todas las cosas que son miembros de al menos uno de los conjuntos que quedan unidos mediante esta relación; la intersección de dos conjuntos, se define como el conjunto de todas las cosas que pertenecen a ambos conjuntos, y se simboliza mediante Ç, o también mediante el punto algebraico de multiplicación. y la relación de intersección se denomina producto de los dos conjuntos. Cuando dos conjuntos se excluyen mutuamente, o cuando no hay nada que pertenezca a ambos, la intersección de estos recibe el nombre de conjunto vacío, es decir el conjunto que no posee miembro alguno: el conjunto vacío se representa mediante Ù , y se considera como subconjunto de cualquier conjunto; además si A es un conjunto sin ningún miembro y B es un conjunto sin ningún miembro, cualquier cosa que sea miembro de A también será miembro de B, y viceversa, de tal modo que A=B, y en consecuencia, hay un conjunto vacío y sólo uno; por el contrario, el conjunto universal es el conjunto de todos los individuos del dominio, o del universo de discurso, de la lógica. 82 El conjunto universal se representa mediante Ú ; y la notación que se emplea para subconjuntos propios es É. Con este sistema formal de representación de las relaciones de clase se ponen de manifiesto relaciones de orden entre las clases, tales como asimetría y transitividad. Puede verse que la relación que existe entre una clase y una subclase propia de ella es asimétrica, si AÉB, no BÉA, y transitiva, si AÉB y BÉC, AÉC. Cualesquiera dos cosas que se comparen, si se consideran como miembros en común de cierta clase, se consideran por tanto equivalentes en cuanto a determinada propiedad, que constituye la condición para pertenecer a esa clase. Con respecto a la propiedad, cualquier cosa es equivalente a sí misma, y como cualquier miembro de una equivalencia guarda la relación de equivalencia con cualquier otro miembro, se dice que la relación es reflexiva y conexa. Según estas definiciones: a) Una relación R es reflexiva en un conjunto A, si y sólo sí (x) (x Î A ® x R x) b) Una relación R es irreflexiva en un conjunto A, si y sólo si (x) (x Î A ® no x R x) c) Una relación R es fuertemente conexa en un conjunto A, sí y sólo sí (x) (y) (x Î A. y Î A ® x R y V y R x) d) Una relación R es conexa en un conjunto A, sí y sólo sí (x) (y) (x Î A . y Î A. x ¹ y ® x R y V y R x) Las relaciones de grado de una propiedad y de inclusión en una clase poseen, las mismas características formales, a saber: asimetría, transitividad, irreflexividad y conectividad; también pueden definirse cualesquiera dos miembros de una 83 equivalencia que posean la propiedad que sea en el mismo grado diciendo que son aquellos y sólo aquellos que no posean de ella ni más ni menos; así, con respecto a la relación mayor que, en el sistema de los números naturales, dos números a y b serán iguales, o sea poseerán la misma posición ordinal; si no-(a > b) y, también, no-(b > a). Introduciendo la conectiva lógica, la igualdad puede definirse mediante: (x) (y) [(x = y) ¬® ((x > y) ¯ (y > x)) ] No todas las equivalencias pueden ordenarse de esta manera, pero algunas sí; se denomina pues, clase de todas las clases de magnitud a aquella subclase de la clase de las clases de equivalencia que pueden ordenarse así, y se define clase de magnitud como toda clase de equivalencia que admita una ordenación de sus miembros. Con relación a las magnitudes y cantidades, tenemos que las magnitudes son propiedades que admiten ordenación por grado o cantidad; a menudo se refieren como cualidades variables, y en el desarrollo del concepto de movimiento las nociones de grado de una cualidad, intensidades y latitudes de forma fueron intentos de tratar las magnitudes de modo formal; históricamente las cualidades o propiedades que podían ordenarse así pasaron a denominarse cualidades intensivas, por contraste con las cualidades extensivas o dimensivas, que podían ordenarse sobre la base de diferencias unitarias de grado o cantidad, y esta distinción es la que suele hacerse entre cualidad y cantidad, pues una diferencia cualitativa implica identidad y diferencia, es decir, diferencia de más o menos de alguna propiedad que se distingue por la mera percepción sensorial, mientras que una diferencia cuantitativa implica cuánto, en más o en menos y suele exigir medidas cuan84 titativas; sin embargo, no todas las magnitudes son cuantitativas; las propiedades pueden ordenarse por grados, pero se considera que estas magnitudes no son ni precisas ni medibles con precisión, pero la precisión no es una propiedad intrínseca y medible de las cosas ni de las relaciones entre estas, sino que depende de lo que se persiga con la medida. Si la precisión que se requiere no es superior a la de una ordenación por rango que pueda establecerse cualitativamente, lo único que hace falta es una propiedad que pueda describirse de modo inequívoco sobre la base de grados comparativos. La especificación de una cantidad patrón de una magnitud es, una operación físicamente definida; se puede determinar formalmente qué propiedades deba tener tal cantidad, pero las cantidades que gozan de tales propiedades las descubrimos mediante la investigación empírica. El requisito previo es que se establezca una unidad de magnitud como patrón, y que se utilice esta unidad para generar un conjunto de tales unidades patrón, todas ellas iguales por lo que se refiere a dicha magnitud; operacionalmente pueden compararse dos longitudes superponiéndolas una junto a otra, en todos sus puntos; son pues, las condiciones de congruencia, superposición y coincidencia las que definen los requisitos empíricos que han de cumplirse; pero este no es sino uno de los pasos a dar para que se cumpla la condición de aditividad. Lo que se quiere decir con el término aditivo no se define, por tanto mediante la operación de sumar cosas o magnitudes; la aditividad se define más bien en relación con la operación aritmética de la adición, se define a base de la propiedad numérica denominada cardinalidad, en términos 85 de la cual se interpreta la adición de la magnitud física: el número; ahora, en la práctica un conjunto cardinal, es una colección de unidades de una magnitud que se consideran invariantes con respecto a esta magnitud y que pueden numerarse contando, y los conjuntos de este tipo son tales que se corresponden, en cuanto a cardinalidad, con un conjunto patrón mediante un proceso de asignación biunívoca de unidades. Otras propiedades como la longitud, el peso o la configuración no cuentan: lo que cuenta es lo que pueda contarse uno a uno postulando la invariancia de sus unidades; si denominamos a esto magnitud porque puede ordenarse y definimos cantidad como aquello que es mensurable, en función de esta posibilidad de poder contar unidades invariantes y de su correspondencia con otros conjuntos de tales unidades, entonces esta magnitud no es que sea como un número: es número; pero no es un número ordinal, no se encuentra meramente ordenado de acuerdo con un rango; se encuentra ordenado sobre la base de unidades patrón que señalan diferencias iguales entre distintos grados de una magnitud. El peso es una magnitud aditiva; se necesita una unidad patrón y una interpretación empírica de su aditividad; establecer una unidad patrón, en tanto en cuanto suponga algo más que la pura convención de elegir un determinado grado de una magnitud como representación suya, exige establecer todo un sistema de correspondencias; estas correspondencias no se eligen de modo convencional: se descubren empíricamente en forma de relaciones entre magnitudes, o en forma de isomorfismos entre clases de magnitudes. La medida cuantitativa presenta varios aspectos: primero, im86 plica el descubrimiento empírico de relaciones aditivas entre los grados de una magnitud, lo cual no implica una matemática formal, sino los procesos reales en los que se empleen unidades patrón empíricas, y el descubrimiento de correspondencias estructurales entre sistemas de tales unidades; segundo, implica la asignación de numerales a los grados de magnitud, poniendo las relaciones entre magnitudes en correspondencia con relaciones numéricas; el conjunto patrón de todas las clases de magnitud que poseen estas propiedades es el conjunto de los números cardinales. Todas serían clases numéricas, y cualquier clase numérica podrá ponerse en correspondencia con cualquier otra clase numérica. El proceso de medida implica la utilización de conjuntos normalizados como escalas; cualquier ordenación ya sea por identidades y diferencias, por grados de una magnitud o por diferencias entre los grados de una magnitud referidas a una unidad patrón, implica una correspondencia de algo con alguna otra cosa, y lo que se establece la correspondencia se toma como escala. La utilización de una escala implica la determinación de dichas igualdades entre razones o proporcionalidades, de cantidades de ciertas magnitudes, y un instrumento de medida es, aquel en el que las variaciones en el grado de una magnitud se relacionan con las variaciones en el grado de alguna otra que se toma como escala; el calibrado de una escala depende de correspondencias entre tales variaciones de grado que se expresan en unidades empíricas normalizadas que se descubren mediante la investigación empírica. 87 No existe una magnitud que sea fundamental sino sólo relaciones y correspondencias fundamentales entre los distintos grados de las magnitudes, y que el proceso de medida depende el descubrimiento de invariancias empíricas de estas relaciones. El orden que se emplea en el calibrado es el numérico, pero una vez que se haya determinado que hay isomorfismo, cualquier magnitud que posea propiedades numéricas puede emplearse como escala; en ningún caso resulta tan evidente la continuidad que existe entre la ciencia teórica y la práctica corriente como en el desarrollo de las técnicas y la teoría de la medida; la racionalización de la práctica corriente es la matriz en la que se forman los conceptos de la medida, y a la que estos han de referirse para poner a prueba su adecuación. En la ciencia, el objeto de la medida es servir a la teoría, en sus dos vertientes de descubrimiento y justificación; el experimento típico se plasma en una medida o en un conjunto de estas; la hipótesis típica puede ponerse aprueba sobre la base de predicciones en forma de enunciados acerca de determinadas medidas, y la formulación teorética típica, en aquellas ciencias que han avanzado en la utilización de las matemáticas. Métodos Cuantitativos frente a Métodos Cualitativos Los científicos sociales se dedican a producir sistemas de creencia de su sociedad; es decir, estos personajes tienen un papel fundamental en la conformación de las maneras de conocer, que incluso han llegado a calificarse de correctas, legítimas, científicas, verdaderas; cabe entonces preguntarse por las formas en que proceden las comunidades epistémicos 88 para legitimar ciertos sistemas de creencia, dentro de los cuales se ubica también una forma de hacer ciencia; resulta de gran ayuda rastrear las formas de pensamiento que han llevado a lo que hoy se considera el problema epistemológico en la construcción del dato, aunque antes de proceder a ello es preciso reconocer que las formas y estrategias de validación de lo que puede considerarse, o no, conocimiento científico se han modificado con el tiempo. A mediados del siglo XIX se enarbolaba una concepción empirista de la ciencia, donde la validación científica se cimentaba en la recopilación de leyes que expresaran regularidades entre fenómenos observables. Esta concepción empirista radical no fue, sin embargo, la concepción predominante de ciencia en el siglo XVIII, cuando Descartes apoyaba una concepción mecanicista del mundo frente a la propuesta de Newton de intentar explicar la regularidad de fenómenos en términos de leyes de aplicación universal que permiten modelar matemáticamente los fenómenos. La concepción dominante de la ciencia en el siglo XIX consideró que no había diferencias lógicas fundamentales entre ciencias naturales y sociales; con ello, la forma de hacer ciencia social empezó a impregnarse de los principios de las ciencias naturales: monismo metodológico; conocimiento nomotético; correspondencia entre conceptos, observaciones empíricas y hechos u objetos; la experiencia como criterio último de verdad; la demarcación del conocimiento científico de aquel que no lo es y la neutralidad de las aseveraciones. De esta manera la precisión, la exactitud, el control, la predicción y la contrastación con la realidad se convirtieron en factores imprescindibles en la definición de 89 la verdad. Comte, en su física social, define con claridad lo que consideraba criterio de demarcación entre lo que es científico y lo que no lo es; así, convierte al dato empírico en criterio de verdad, donde toda proposición que no pudiera reducirse a los hechos sería metafísica; es decir, no científica; asumir lo empírico como lo eminentemente observable se constituyó en lo dominante en la ciencia moderna. A partir de ello puede entenderse la propagación de la medición en la actividad científica. El interés por la medición es antigua. Se podría ubicar su relevancia desde los orígenes de la ciencia moderna, cuando la posibilidad de traducir proposiciones cognitivas al lenguaje matemático empezó a constituirse en signo de madurez y objetividad; así, cuantificar los procesos sociales y culturales se erigió en una particularidad del procedimiento científico. Bunge considera que: si bien la medición no es una condición indispensable para que el conocimiento sea científico, la ciencia procura siempre medir y registrar los fenómenos; de igual forma afirma que: si bien las ciencias sociales estudian cuestiones culturales en lugar de naturales, ello no impide que sean matematizables. De esta manera, intenta formalizar y cuantificar diversos conceptos provenientes de la sociología, y ante las críticas a este proceder argumenta que: Es preferible un concepto simple y claro a una palabra que no designa ningún concepto preciso; la insistencia en que la realidad es demasiado compleja para ser apresada en fórmulas matemáticas no es sino una forma de oscurantismo. De oscurantismo y a veces también de defensa de la ignorancia. 90 No todo aquel que utilice datos debe ser considerado seguidor de los métodos cuantitativos; es importante diferenciar los objetivos y los sistemas de notación en que se producen y exponen las observaciones e indagaciones acerca de la realidad. Como lo plantea Schwartz, la diferencia entre la sociología cualitativa y la cuantitativa puede reconocerse a partir de los sistemas de notación utilizados para describir el mundo. Los que utilizan los métodos cuantitativos asignan números a las observaciones cualitativas; en este sentido, producen datos al contar y medir cosas. Las cosas medidas pueden ser individuos, grupos, sociedades enteras, actos de lenguaje y así sucesivamente; los investigadores que proceden mediante métodos cualitativos, en cambio, describen sus observaciones en lenguaje natural; la aplicación de sistemas de notación corresponde a grandes diferencias en cuanto a valores, metas y procedimientos para realizar investigaciones e interrogar a la realidad. En las últimas décadas ha tenido lugar un cambio en la concepción tradicional de la ciencia. Ha surgido una nueva filosofía de la ciencia; en esta nueva concepción se rechaza la idea de que puede haber observaciones teóricamente neutrales; ya no se canonizan como ideal de la investigación científica los sistemas de leyes conectadas de forma deductiva; sin embargo, el reconocimiento más importante es la consideración de la ciencia como una empresa interpretativa, de modo que los problemas de significado, comunicación y traducción adquieren una relevancia inmediata y central para las teorías científicas. Este cambio en los principios del proceder científico se encuentra relacionado con la discusión sobre los objetivos asignados al conocimiento; es decir, la 91 disputa entre una tradición explicativa y comprensiva, polémica. La disputa entre metodologías cuantitativas y cualitativas se ha presentado de una forma excluyente. Esta apertura exige superar la estructura binaria en que se ha construido el pensamiento y que sólo admite una posibilidad, una sola elección entre dos opciones: a) Verdadero/no verdadero (falso) b) Exacto/inexacto (ambiguo) c) Científico/acientífico (común, ordinario) e) Objetivo/no objetivo (subjetivo). La estructura dual que reclama todo para sí, que al reconocer elimina lo distinto, lo diverso, ha sido la forma en que se ha arribado a la discusión cuantitativo/cualitativo: f) Empírico/crítico g) Consenso/disenso h) Estático/dinámico i) Cerrado/abierto j) Determinado/indeterminado k) Homogéneo/heterogéneo Una estructura conceptual ya no dual, sino triangular permitiría superar este reduccionismo y reconocer el intermedio; permitiría matizar posturas, reconocer universos de realidad no incluidos en perspectivas que adquieren especificidad por oposición. Según Ortí, la recuperación de la dimensión cualitativa frente a la absolutización metodológica cuantitativista obedece a lo siguiente: 92 a) Desde el punto de vista teórico: fue una reacción crítica frente a la negación cuantitativista del universo social y frente a la carencia de sentido de la producción masiva de datos cada vez más precisos y menos relevantes b) Desde el punto de vista ideológico: fue una reacción crítica frente al conservadurismo de las representaciones sociales a partir del canal de la encuesta precodificada como forma privilegiada de análisis de lo social c) Desde el punto de vista sustantivo: reacción crítica frente al desconocimiento de la especificidad, riqueza, profundidad y complejidad del orden simbólico y de sus formaciones de las formas lingüísticas y los discursos sociales El eje de la discusión, implica modificar el centro problemático y plantear un horizonte de conocimiento a través de la identificación/problematización de las formas en que la cuantificación permite aprehender la realidad, pero sin calificarla de válida o no, lo que se inserta en un discurso autoritario de corte académico. En los últimos años se ha asistido a un viraje en los planteamientos científicos, cuyo resultado ha sido poner en tela de juicio el discurso tradicional de la ciencia como sistema legal, unificado y objetivo. Sin embargo, más allá de la pertinencia o no de cada una de las formas de hacer y validar la actividad científica, lo cierto que es que esa polémica permite considerar nuevas dimensiones o espacios de la realidad. 93 La identificación del papel que juega la incertidumbre no elimina la certeza, sino que le exige nuevas formas de constitución y fundamentación al reconocer los nuevos planos o niveles de la realidad; el reconocimiento del azar no elimina la determinación; la aceptación de la diferencia de lo heterogéneo no elimina la posibilidad de la homogeneidad. La verdad es polisémica, con una dimensión autorreferencial que implica la adquisición de sentido en función de su propio espacio de referencia en el cual tiene validez propia; es decir, tiene campos de validación en un contexto particular en el cual esa misma verdad es construida de manera particular; así, los diferentes conceptos de verdad nos trasladan a la necesidad de reconocer diversos sistemas de veridicción, los cuales tienen estrategias de construcción-desconstrucción de la realidad. Esta perspectiva permite plantear la necesidad de renunciar a la pureza de los géneros o perspectivas, sobre todo si se reconoce que hay una dimensión cualitativa en lo cuantitativo y viceversa. Siguiendo a Gutiérrez, podría proponerse un modelo como espacio continuo, cuyos extremos no están definidos por lo cuantitativo de un lado y lo cualitativo por el otro, oponiéndose y excluyéndose: sino por una gradación que va desde el énfasis en la técnica y la ausencia de una reflexión epistemológica, hasta el énfasis precisamente en la reflexión metodológica y epistemológica. Si se acepta que en ningún ámbito de la actividad humana existe una realidad dada, independiente del sujeto, es necesario considerar la totalidad de las técnicas y prácticas de investigación como configuraciones históricas destinadas a la invención o construcción de realidades, dinámicas, y actores; los datos, los textos, los procedimientos de análisis 94 no constituyen intuiciones del proceso de investigación o derivaciones naturales del método científico, sino, efectos de significado, juegos de lenguaje, ámbitos semióticos de circulación; no son objetos dados sino construidos. Las técnicas no recogen después de rastrear algo que estaba al principio, sino que seleccionan, escogen, captan, construyen un resultado, un producto, un sentido en el contexto de la lingüisticidad de lo social; si se parte de que el conocimiento debe atender a todos los niveles de la realidad, los cuales tienen distinta naturaleza epistemológica, pueden distinguirse: a) El nivel o campo de los hechos: conformado por relaciones de indicación o designación de la proposición, en cuanto puesta en evidencia de lo que acontece o se hace en un espacio-tiempo determinado b) El nivel o campo de la significación: de la proposición, donde las significaciones son referidas a sí mismas, a un sistema de signos c) El nivel o campo de las motivaciones; referido a las fuerzas motoras, pulsiones, deseos, que corresponden a la interacción social; es decir, a la intencionalidad y sentido El reconocimiento de niveles o campos de la realidad no implica desconocer las limitaciones de cada enfoque; en este sentido, la perspectiva analítica por la que se opte permitirá definir, pero al mismo tiempo limitar el nivel de realidad con el cual se trabaja. Cada estrategia contiene sus propios límites para captar, reflejar, traducir e interpretar la realidad. La perspectiva de complementariedad se ha fortaleci95 do, así lo muestran los estudios coordinados por Delgado y Gutiérrez, que reúnen diversas reflexiones en las que se privilegian los métodos cualitativos, pero no se desconocen los cuantitativos. Se plantea un proceso inverso en la discusión, en cierto sentido de desconstrucción; es decir, analizar las propiedades asignadas a la cuantificación a partir de los descubrimientos y consensos alcanzados sobre la conformación del conocimiento. La Recuperación del Olvido Moderno: El Observador Si bien la ciencia moderna consideró que no había diferencias lógicas fundamentales entre la ciencia natural y la social, en etapas posteriores del desarrollo científico se advirtió la urgencia de establecer esa diferencia; fue precisamente por esta coyuntura que las ciencias del hombre se enfrentaron a la discusión en torno a su estatuto epistemológico, reflexión en la cual ha sido crucial el papel de la interpretación de la acción humana y la forma en que ésta puede diferenciarse de los objetos y los acontecimientos naturales. Al respecto, Wilson, Cohen, Alexander y Giddens, entre otros, afirman sin ambivalencias que: la ciencia social es fundamentalmente diferente a la ciencia natural. De esto se deriva el reconocimiento de la ciencia social como fundamentalmente interpretativa; lo que interesa resaltar es la incorporación del sujeto en el proceso de conocimiento, que para el caso de las ciencias sociales se traduce en el paradigma del observador implicado, y que en términos de la física cuántica hace referencia a la lógica del principio de incertidumbre, el cual consiste en reconocer que todo observador modifica lo que 96 observa por el solo hecho de observarlo, y con su presencia. Al respecto, Fried, Latour y Morin coinciden en afirmar que: Dentro de la concepción clásica de la ciencia, la idea del sujeto ha perturbado el conocimiento. La objetividad sólo puede ser alcanzada si se le excluía; el mundo de la cientificidad es el mundo del objeto, el mundo de la rigurosidad científica, mientras que el mundo de la subjetividad es el mundo de la filosofía, de la reflexión y la especulación; ambos dominios se consideran legítimos pero mutuamente excluyentes. Desde esta perspectiva de construcción/interpretación puede resignificarse el criterio de verdad, el cual descansa en el principio de objetividad como factor inherente del uso del método científico. En la ciencia clásica la subjetividad aparece como contingencia, fuente de errores; por eso la ciencia clásica excluyó siempre al observador de su observación y al pensador, el que construye conceptos, de su concepción, como si fuera inexistente o se encontrara en la sede de la verdad suprema y absoluta; más tarde, en el siglo XXI, se ha asistido a la invasión de la cientificidad clásica en las ciencias humanas y sociales. Se ha expulsado al sujeto de la psicología y se lo ha reemplazado por estímulos, respuestas, comportamientos; se ha expulsado al sujeto de la historia, se han eliminado las decisiones, las personalidades, para sólo ver determinismos sociales; se ha expulsado al sujeto de la antropología, para ver sólo estructuras, y también se lo ha expulsado de la sociología. El método científico era el garante de la no participación del sujeto; al reconocer el proceso de traducción e interpretación como factores inherentes al conocimiento, la 97 concepción de los procesos cognitivos como reflejo del mundo externo aparece como obstáculo para la comprensión de la complejidad del mundo. Latour realiza aportaciones sustantivas al proponer la unificación de ciencia y política. Plantea, como programa de investigación, reunir lo desunido, el conocimiento exacto y el poder; es decir, la naturaleza y la cultura; considera que la división entre ciencia y poder se remonta al siglo XVII, cuando los filósofos Boyle y Hobbes discuten y se distribuyen los poderes científicos y políticos. Boyle construía sus argumentos desde una ciencia y una teoría política; mientras Hobbes hacía lo mismo pero desde una teoría política y una ciencia; de esta forma, el hecho científico y los ciudadanos son sólo una invención histórica y política; sin embargo, se distribuyen los poderes científicos y políticos. Pues si bien la constitución moderna inventa una separación entre el poder científico y un poder político, ello no implica que a partir de ese momento los sujetos se mantengan apartados de las cosas: a) Por un lado, los seguidores de Boyle argumentan que no son los hombres los que hacen la naturaleza, ésta ha existido desde siempre y también desde siempre ha estado allí b) Por otro lado, los seguidores de Hobbes dirían que son los hombres y únicamente los hombres quienes construyen la sociedad y quienes libremente deciden su destino c) Una tercera garantía de solidez para ambos sistemas argumentativos advierte una separación completa entre el mundo natural y el mundo social 98 El Proceso de Construcción del Dato Si se define como una cuestión epistemológica; ¿en qué medida nuestras teorías pueden ser concebidas como una búsqueda de descripciones verdaderas de lo que es el mundo real? Interpelar el papel que tiene el dato, las técnicas cuantitativas y el uso de las matemáticas en este proceso permite situar la discusión en este orden. La cuestión de la cuantificación se traslada al plano epistémico cuando se busca discernir sobre la relación y/o correspondencia entre concepto/dato y la realidad; es decir, remite al tradicional debate epistemológico sobre la relación pensamiento/realidad, donde la cuestión de la correspondencia entre datos y hechos implica preguntarse sobre la forma en que dicho proceso refleja o traduce a la realidad. Si se considera que el dato forma parte de las más diversas producciones conceptuales, entonces es también parte constitutiva del conocimiento, el cual es una construcción, pero una construcción que expresa propiedades reales; analizar el proceso de producción del dato es interrogarse sobre uno de los momentos teóricos en la construcción del conocimiento, el cual se encuentra circunscrito por mediaciones prácticas y culturales; todo esto nos lleva a considerar al dato como una reducción formal de lo dado, que privilegia los aspectos regulares de lo percibido; permite considerar que el desarrollo de una epistemología del dato equivale a considerar los espacios perdidos de la percepción tanto como las sugerencias conceptuales para su constitución. Estos espacios perdidos de la percepción se generan en el traslado de lo observado al dato; de aquí se desprende 99 una pregunta: ¿qué posibilidades existen de recuperar universos excluidos si se reconocieran los diversos momentos teóricos en su constitución? A este respecto, Prada plantea que rescatar los espacios perceptuales perdidos exige replantearse la relación del sujeto cognoscitivo con la realidad y concebir dicho proceso dirigido desde la teoría: el dato contiene teoría y la teoría contiene datos. La generación de datos es un momento teórico que permite organizar la percepción. ¿Cómo puede construirse el dato sino mediante la teoría? ¿Cuál es el papel del dato en la aprehensión/reconstrucción? ¿Cuál es la correspondencia entre concepto e indicador? ¿Qué criterios se utilizan en la definición de las dimensiones del concepto? ¿Qué criterios sustentan la concreción de una dimensión en indicador ? ¿En qué medida es posible incorporar la cuantificación a estrategias de corte más cualitativo? La Ilusión de la Objetividad En el momento en que ya no es posible sostener la correspondencia directa entre datos y realidad se asiste a la fractura del fundamento y exposición discursiva de la ciencia tradicional, empírica y positiva. Dicha falta de correspondencia desde los indicadores como referentes implica una forma de traducción/interpretación no claramente definida y acotada, donde se reconoce la intervención del sujeto, el cual deja de ser ese ente pasivo que capta, recoge y registra la realidad sin intervención, para transformarse en un ente activo, donde el conocimiento se constituye en objeto/sujeto, 100 lo que reivindica el papel de la teoría en el proceso de recorte/construcción de la realidad. Al respecto, cabe preguntar: ¿cómo se gesta la fractura de los pilares de la ciencia empírica? En este punto resulta pertinente recordar que la ciencia empírica exige que tanto las teorías como las hipótesis se califiquen de verdaderas o falsas en función de su contrastación con la experiencia; y es en este punto donde surge la polémica ya que, como destacan Piaget, Glasersfeld, Foerster y Watzlawick, no hay sensaciones puras, es decir, independientes de la reflexión de los sujetos. Todo conocimiento es una selección/traducción/interpretación. Si bien el dato empírico tiene la misión de verificar, siempre se tratará de un dato contaminado de valores, prejuicios, intereses; por eso la sensación pura no existe, pues la percepción nunca es la suma de sensaciones puras, sino que ellas aparecen como percepciones totalizantes en las que siempre hay un componente de construcción conceptual por parte del conocimiento. Las percepciones siempre son históricas. El dato empírico estará determinado por la conceptualización teórica y el recorte de realidad externa que lleva a la generación de datos estará normado por los propios conceptos que se quiere verificar. Si se parte de reconocer que no hay construcciones cognitivas independientes de los sujetos, surge una pregunta: ¿cómo se expresa el problema de la correspondencia en el dato reflejado por los indicadores? En tanto eso permite sostener el rescate del sujeto y definir los ámbitos problemáticos de discusión; al respecto. El paso de los conceptos a indicadores sigue tres etapas: 101 a) Descomposición, delimitación de las dimensiones, propiedades, elementos b) Búsqueda de los indicadores adecuados a las dimensiones definidas c) Combinación de los indicadores escogidos en un índice Mayntz, antes de fijar su posición respecto a la operacionalización de conceptos, define límites al problema de la correspondencia entre concepto y realidad; considera que el concepto no es nunca idéntico a los fenómenos a los que se refiere su contenido figurativo. Propone tres fases de los datos en el proceso de investigación; lo que importa destacar es el rescate de la teoría en la generación del dato, pues afirman que los empiristas han puesto en duda la dependencia teórica de la investigación debido a un concepto muy estrecho de teoría. Textualmente establecen: Importa destacar que la obtención y el análisis de los datos, en todas sus fases, dependen de una teoría sobre la realidad social. Sobre todo, los datos mismos sólo pueden obtenerse recurriendo a conclusiones teóricamente fundadas. De esta forma, se establece una diferencia entre validez y fiabilidad del indicador, pues mientras la primera incluye todo aquello a lo que su contenido significativo remite, la fiabilidad se refiere a la producción de los mismos resultados bajo las mismas circunstancias y que sean independientes del investigador que los utiliza. Tanto Boudon y Lazarfeld mencionan continuamente la dificultad en la definición de dimensiones y la búsqueda de indicadores, debido a la característica polisémica de los conceptos. Uno de los problemas del papel de la interpretación en este proceso es que nunca se hace explícito en la investigación; se enuncia, 102 pero es poco usual que se hagan explícitas y se argumenten las razones, teóricas o prácticas, del procedimiento en el cual descansarán las aseveraciones. Al respecto, Zemelman muestra dos problemas: a) La descontextualización del indicador, pues en el momento en que se registra una magnitud, se han excluido las características específicas que permitieron que el fenómeno adquiriera esa magnitud y característica b) La falta de vigilancia epistemológica en su construcción, pues considerar que las dimensiones están ahí, y no reconocer la participación del investigador en la generación del indicador, hace imposible una relación crítica o vigilancia epistemológica, que le otorgue un papel más adecuado al indicador en la actividad de reconstrucción de la realidad Hay que distinguir entre indicatum e indicador. Es evidente que el indicatum puede encontrar otras formas de expresión a través de otros indicadores. Un recorte permite incluir algunas dimensiones, pero es inevitable la exclusión de otras; es este momento de construcción el que requiere una vigilancia que implique la reconstrucción epistémica del indicador donde se muestren, se hagan evidentes y se argumenten los universos excluidos e incluidos. La Vigilancia Epistemológica La finalidad es poner de manifiesto la necesidad de recurrir a una constante vigilancia epistemológica en todo pro103 ceso de investigación, y hacer particular énfasis en lo apremiante de esta labor para el caso de los estudios de base empírica. Identificar las dimensiones de un concepto es un problema teórico que acaso sólo puede ser resuelto en este plano; el momento teórico está en la determinación, como construcción conceptual, de ¿cuáles son los elementos básicos? El segundo momento, el empírico, trata de responder a las preguntas de ¿cómo determinar la presencia y la ausencia de los elementos básicos? y ¿qué efectos tendrá la medición en el concepto?, es decir, ¿el instrumento medirá, captará, la plenitud del fenómeno? ¿Cuáles son las dimensiones del fenómeno que expresa el concepto? Al analizar las dimensiones que incluyen las investigaciones se manifiesta la diferencia, la cual se intensifica al momento de escoger los indicadores que representen o reflejen la dimensión seleccionada; pareciera evidente que las razones de uno u otro procedimiento son de orden teórico, de recorte y acercamiento a la realidad; no sólo hay diferencias significativas en el número y tipo de indicadores considerados, sino que no pareciera haber justificaciones para recoger o no tomar en cuenta una u otra dimensión. Por ejemplo, cuando nos acercamos a la manera en que diversas investigaciones cortan una línea de la pobreza, veríamos tal heterogeneidad que difícilmente podría sostenerse y seguir refiriéndose al mismo fenómeno ¿Dónde está la objetividad y la neutralidad en la medición? ¿De qué manera el fenómeno se impone? ¿Quién y cómo se definen los universos incluidos? y ¿por qué razón? ¿Con qué argumentos se sustentará la exclusión de otros universos analíticos? Todas estas preguntas tendrían respuestas rela104 cionadas con la participación del sujeto en el proceso de conocimiento; es importante destacar la importancia que reviste la vigilancia epistemológica en los procesos de construcción del dato, así como la necesidad de construir procesos cognitivos que tiendan hacia la recuperación de universos excluidos; la idea más importante tiene que ver con la necesidad de considerar a la vigilancia epistemológica como una labor imprescindible en el uso de la cuantificación. Esta constante atención que debe prestarse durante el proceso de construcción del dato podría contribuir a diferenciar entre objetividad y exactitud. El hecho de reconocer que toda cuantificación parte de un recorte del objeto, a partir de ciertas formas regulares que presenta, lleva a pensar en la vigilancia epistemológica como este reconocimiento de la existencia de diversos universos incluidos y excluidos en el análisis, lo que permite plantear la discusión sobre su relevancia. La correspondencia que la ciencia manifiesta no es entre conceptos y hechos, sino entre enunciados y hechos interpretados, lo que se contrasta con las diferentes interpretaciones de la realidad. El Proceso de Gestión de Datos El proceso de gestión de datos como tarea político-administrativa y de investigación supone el reconocimiento previo de un complejo proceso de construcción de la información; desde esta perspectiva resulta fundamental entender que los datos no están dados en la realidad y que solo resta recopilarlos, sino que son fruto de una acción creadora y 105 por tanto condicionada por las perspectivas teóricometodológicas desde las cuales se los construye; aunada a esta afirmación la gestión de información debe recurrir a datos que deben ser susceptibles de ser contados, medidos, pesados y para ello se apoya en una metodología cuantitativa. Con relación a los indicadores. La medida, construcción de índices y de indicadores, de manejo estadístico de masas de datos carecen en general de fronteras. Los indicadores son utilizados como puros instrumentos de conocimiento; no existe una correspondencia directa entre teoría y realidad, entre conceptos y observaciones: por lo que se requiere la existencia de una teoría auxiliar como intermediaria entre ambos planos, que especifique en cada caso el modo de relación de un indicador determinado con una variable teórica determinada. Esta preocupación subyace en todo sistema de información que funciona como gestión de datos sin problematizar la estandarización de esquemas conceptuales y teóricos que tienden a homogeneizar la información en una progresiva organización de la misma. La Construcción de los Datos como Perspectiva Teóricometodológica Los datos empíricos en sí no dicen nada, se deben analizar en función de identificar el lugar desde el cual fueron construidos; desde esta línea el proceso de gestión de datos implica, por un lado de construir aquellos parámetros y variables desde los cuales fue elaborada la información y por el otro, re-construir la misma a partir de este reconocimien106 to de singularidad; singularidad que se vuelve necesaria al relacionarla metódicamente con las causas y razones que la explican y le dan sentido. La idea es facilitar los medios para la comprensión, es decir instrumentar los dispositivos necesarios para aprehender la realidad como necesaria e insertarla en el contexto que la hace ser lo que es; para superar el estigma de que el proceso de gestión de información se constituya en una suma de técnicas o un sistema nacional de contabilidad social, la propuesta es subordinar estas técnicas y conceptos e indicadores a un examen sobre sus condiciones y límites de validez. La vigilancia epistemológica debe estar presente tanto en el procesamiento de la información como en el análisis de la misma ya que se vuelve una fuente de información ad hoc al hablar de los fenómenos bajo análisis. Esto exige estar atento a la diversidad de subjetividades que intervienen en todo el proceso que recorre una y otra vez la construcción de distintas matrices de datos que se constituyen en fuentes de información básica para el trabajo de sistemas de información; no se trata de la aplicación correcta de un manual de procedimientos, que se presupone neutral, objetivo y paradigmático, sino de cómo hacer para preservar el entorno de objetos a los que se atiende o a los que se supone que se atiende para generar algo llamado dato; así se elaboran múltiples tablas, estadísticas, indicadores y cuadros que aparecen como datos objetivados y que de alguna manera encubren el núcleo de procedimientos que pretenden verificar y justificar supuestos e hipótesis que son en definitiva decisiones teórico-políticas, por tanto sustancialmente ideológicas. Los consultores-investigadores se enfrentan a problemas teóricos y 107 prácticos que ponen de relieve la relación social entre los primeros y su objeto de investigación-gestión. El Procesamiento e Interpretación de la Información Otro ítem significativo refiere a las interpretaciones que de ellos se hacen sobre lo que sucedió pretendiendo presentar argumentos como condición para decidir los diferentes resultados que se están mostrando; aquí nos encontramos con la estadística. La estadística ha sostenido siempre metodológicamente el paradigma del control; ha servido a un poder que se reserva el azar y atribuye la pauta. La estadística descriptiva permite al Estado hacer el recuento de sus recursos materiales y humanos. La estadística inferencial le permite reducir a pauta el comportamiento de las personas y el movimiento de las cosas. Con relación a este punto Foucault sostuvo, que toda práctica social engendra necesariamente dominios de saber; estos a su vez conllevan dominios de verdad en el sentido de que implican construcción de subjetividad en términos de prácticas y discursos sociales que se constituirán en mecanismos, dispositivos y tecnologías de control y vigilancia. Estos dispositivos de información son dispositivos de acción. Ellos enuncian una compleja red de relaciones que quedará sujetada a sistemas totalmente sistémicos; cada elemento o parte está sujetado por esa red de relaciones por lo que no existen elementos autónomos; tampoco estructuras estables ya que para que exista lo instituido debe existir lo instituyente, el sistema social reproduce su estructura cambiando. Desde este lugar, los sistemas de información conjugan elementos 108 y estructuras que permiten una cara visible: observación y una cara invisible: acción; estos son un modo de tomar medidas de la sociedad en el doble sentido de tomar medidas a y tomar medidas sobre. Las medidas que se toman son según niveles de cuantificación, del tipo clasificación, del tipo ordenación, o del tipo medición; sólo es posible y necesario clasificar, ordenar y medir cuando hay más de una alternativa. La condición de existencia de la alternativa es la reflexividad sobre los procesos de construcción de conocimiento; una reflexividad que se vuelve una distancia necesaria al develar las posiciones desde las cuales hablamos y significamos el mundo en que vivimos; significa ser rigurosos sin ser rígidos, comprensivos sin justificar y vigilar sin controlar; por esto resulta fundamental recuperar el concepto de vigilancia en las dos acepciones que se trabajan en esta ponencia. Una como práctica de develamiento de la propia subjetividad en el proceso de investigación y la otra como proceso de control panóptico de las operaciones y prácticas de gestión en una institución; es decir, una propone una autoreflexión sobre las propias condiciones de producción de conocimiento, lo que conlleva la exposición de la singularidad de los puntos de vista; la otra, por su parte, pretende la regulación y normalización de las prácticas con total indiferencia de las condiciones y condicionamientos. Proceso de Gestión de Información Las condiciones de existencia se conforman a partir múltiples líneas segmentarizadas y planificadas que nos atra109 viesan y permean; estas forman parte indisociable del complejo entramado de instituciones que regulan la vida social produciendo en su operatoria una re-territorialización de la sociedad al trazar sus pendientes y fronteras y erigiendo sobre ésta un mapa de consistencia para homogeneizar y sobrecodificar todos sus segmentos. En esta línea, a través de las cartografías, mapas, cuadros, índices, y matrices, las instituciones encargadas de la gestión de la información participan de esta sobrecodificación a través del procesamiento, análisis e interpretación de los datos; el punto no resulta en invalidar la maquinaria y acciones que implican los sistemas de información, sino en poner de relieve su utilidad social a través del reconocimiento de los límites y potencialidades que conlleva todo proceso de construcción de información. Con relación a la construcción de un código. Los propósitos son: exponer el planteo de algunas discusiones conceptuales-metodológicos que atraviesan la codificación y la consecuente construcción de un instrumento de medición, mostrar la imbricación de decisiones que constituyen parte de la práctica de investigación; y segundo, desde el supuesto que la formación en investigación trata de transmitir un oficio, se pretende, la aprehensión teórico-práctica del conocimiento y de herramientas metodológicas. El desarrollo gira en torno al primer objetivo señalado y por ende el planteamiento de problemas teóricos y metodológicos que implica la elaboración de códigos para la lectura de datos agregados, en particular de información de los periódicos, de sus potencialidades y limitaciones tanto de la fuente en sí como del instrumento que se construye; 110 a su vez, presentar un modelo de registro para la observación de estas señales. El segundo propósito está vinculado en cierto sentido a una experiencia pedagógica centrada en la práctica de investigación; con la participación de los alumnos, auxiliares en el proyecto de investigación, se busca, además de superar expectativas acerca del conocimiento metodológico, que la relación de los contenidos de las asignaturas del área metodológica se establezca con la cotidianeidad de la práctica, que lo que se predica como conjunto de tareas por las cuales se trata de organizar la evidencia empírica a partir de la teoría, encuentre un ámbito de conjunción. La tarea de la construcción de un instrumento de registro de información nos sitúa frente a diversas cuestiones teóricas y metodológicas que parten de una serie de supuestos respecto de la observación, la medición, el tratamiento de la evidencia empírica: a) Los hechos, los objetos, los eventos, las imágenes, los procesos no tienen una condición intrínseca de relevancia o significación b) La medición supone un proceso de observación; medir es un procedimiento empírico que implica la asignación metódica de símbolos a las características observadas de una dimensión determinada del objeto de estudio c) El registro de información, la medición, es una de las operaciones metodológicas que vincula lo no observable con lo observable, niveles de mayor abstracción con referentes empíricos 111 d) Codificar es también medir; en todo trabajo de investigación, cuantitativa o cualitativa está presente la codificación e implica la transformación de los datos obtenidos para procesarlos como expresiones de lo empírico e) Se considera al código como un instrumento que se transforma y se enriquece en el proceso de su construcción y que permite arribar a una condensación más enriquecida f) Al trabajar con información no cuantificable, la codificación sigue un proceso de lectura buscando marcas, huellas, señales; el lenguaje de medición se refiere a la lógica mientras que la aproximación estadística usaría el de la aritmética g) Esta aprehensión de los objetos es sintética-cualitativa; la aplicación de códigos teoréticos sobre datos empíricos se basa en una lógica del descubrimiento, ni inductiva ni deductiva 112 Capítulo 3 LA FORMULACIÓN DE HIPÓTESIS E l término hipótesis y su utilización dentro del proceso de investigación científica es de empleo reciente, es muy probable que a partir de la obra del fisiólogo y médico francés Claude Bernard sea clásico distinguir en la investigación experimental tres etapas: la observación, la hipótesis y la comprobación, y que es a través del cual que reconocemos que la hipótesis es la brújula que guía la generación de conocimiento científico. De tal manera que cualquier investigador está obligado a formular o plantear una o varias hipótesis, que una vez contrastadas le permitirán generar conocimiento científico. Existen al menos dos etapas de trabajo por las que un investigador pasa; la primera, cuando en sus trabajos iniciales está atento en torno a los hechos de la naturaleza y por lo tanto, realiza observación, y la segunda, cuando con base en ellos formula alguna hipótesis, que sometida a la comprobación pertinente, le proporciona los datos o información suficiente para aceptarla o rechazarla; ambas etapas son importantes, pero la formulación y posterior comprobación 113 de hipótesis, es el punto culminante en la generación de conocimiento científico. Cuando hablamos de hipótesis, siempre estarán en torno a este tema cuatro preguntas básicas: 1) ¿Qué es una hipótesis? 2) ¿Cómo se formula? 3) ¿Para qué sirve? 4) ¿Cómo se contrasta? El término formulación hace referencia al enunciado de un principio, hecho o fenómeno en palabras o símbolos, sean o no matemáticos. La formulación de una hipótesis es la manera o los requisitos que deberán cumplirse para proceder a redactarla y entonces tener el enunciado conocido como hipótesis; lo cual es diferente al concepto de hipótesis. Problemas e Hipótesis ¿En qué consiste el buen planteamiento del problema? Si bien los problemas de investigación difieren de manera considerable, es posible aprenden ciertas características de los problemas y la manera de enunciarlos para utilizarlas con provecho; el problema es, una oración interrogativa que pregunta: ¿qué relación existe entre dos o más variables? La investigación intenta dar respuesta a esta pregunta; si se trata de un problema científico, casi siempre contendrá dos o más variables; se cuenta con criterios para reconocer problemas adecuados y su acertada formulación. Primer criterio: el problema ha de expresar una relación entre dos o más variables. En efecto se realizan preguntas como las siguientes: 114 ¿se relaciona A con B, ¿cómo se relaciona A y B con C ?, ¿cómo se relaciona A con B en las condiciones C y D? Segundo criterio: indican claramente la necesidad de verificar las relaciones expresadas; ambos criterios significan que las formulaciones de hipótesis contienen dos o más variables que son mensurables o potencialmente mensurables y que especifican cómo se relacionan las variables. Una formulación que carezca de una u otra de las características o de ambas no es una hipótesis en el sentido científico de la palabra. Nadie duda que las hipótesis son instrumentos importantes e indispensables en la investigación científica; esta convicción se basa en varios motivos: El primero lo constituyen los instrumentos de trabajo de la teoría: las hipótesis se pueden deducir de una teoría y de otras hipótesis; el segundo motivo es que las hipótesis son comprobables y puede demostrarse que probablemente son ciertas o falsas; sólo se someten a prueba las relaciones, no los hechos aislados. Dado que las hipótesis son proposiciones de carácter relacional, ésta es quizá la principal razón de que se usen en la investigación científica; en esencia se trata de predicciones en la forma: si A es cierto, también lo será B, dejando que los hechos establezcan la probable verdad o falsedad de la hipótesis. Un tercer motivo es que las hipótesis son poderosos instrumentos que contribuyen al progreso de la ciencia; aunque construídas por el hombre, existen y prescindiendo de sus valores y opiniones, puede demostrarse que son probablemente correctos o incorrectas. Tan importante como las hipótesis son los problemas ocultos en ellas; la investiga115 ción normalmente comienza con un problema, con una situación problemática; los problemas y las hipótesis ofrecen notables ventajas; en primer lugar, dirigen la investigación; las relaciones expresadas en las hipótesis le indican al investigador qué cosa ha de hacer. En segundo lugar, como suelen ser afirmaciones relacionales generalizadas, le permiten deducir manifestaciones empíricas, implícitas en dichos problemas e hipótesis. Hay importantes problemas entre problemas e hipótesis; estas últimas son verificables si se formulan bien. La cuestión es que ni lo hechos ni las variables, se someten a comprobación como tales, sí en cambio las relaciones expresadas por las hipótesis; gracias a los problemas y las hipótesis adquiere auge la ciencia, pues ayudan al investigador a confirmar o refutar una teoría; el investigador que no supone por adelantado una relación, impide que los hechos demuestren o refuten algo; el punto principal, es que el objetivo de la hipótesis estriba en dirigir la investigación. Como citara Darwin: todas las observaciones han de ser a favor o en contra de algún punto de vista si se quiere que sean útiles. Las hipótesis son el instrumento más potente inventado por el hombre para alcanzar conocimientos fidedignos; el hombre observa un fenómeno y reflexiona sobre sus causas posibles. El hombre de ciencia tiene la obligación de dudar de las explicaciones dadas a los fenómenos de su campo; sus dudas son sistemáticas, e insiste en someter dichas explicaciones a una comprobación empírica controlada; para esto necesita formular explicaciones susceptibles de comprobación empírica controlada que enuncia en forma de teorías e hipótesis. En realidad las explicaciones son hipótesis. 116 La hipótesis es una predicción, la cual establece que si ocurre x, ocurrirá también y; es decir se predice a y a partir de x. En consecuencia, si se hace que ocurra x y se observa que ocurre también y, se confirmará la hipótesis. Aunque las hipótesis no sean confirmadas, conservan su poder; los hallazgos negativos a veces son tan importantes como los positivos, y en ocasiones desembocan en otras hipótesis y líneas de investigación; pero el científico no puede distinguir los datos positivos de los negativos si no se vale de hipótesis. Construcciones Hipotéticas y Variables El científico opera en dos niveles: el de teoría-construcción hipotética y observación; en el nivel de observación, necesita recabar datos para probar sus hipótesis. La construcción hipotética es un concepto, pero entraña la connotación adicional de haber sido inventado de manera deliberada; los científicos designan con el término variable a las construcciones hipotéticas o propiedades que estudian; se puede afirmar que una variable es una propiedad que adquiere distintos valores. Variable es un símbolo al que se le asignan numerales o valores; la definición constitutiva define una construcción hipotética por medio de otras; la definición operacional asigna significado a una construcción hipotética o a una variable mediante la especificación de las actividades necesarias para medirla; en términos generales hay dos clases de definiciones operacionales: a) de medidas y b) experimentales. La definición operacional de medida describe cómo se medirá una variable; una definición operacional 117 experimental explica en forma clara los detalles de las manipulaciones que efectúa el investigador con una variable; los investigadores científicos deben enfrentarse a la necesidad de medir las variables de las relaciones que están estudiando. No puede haber investigación científica sin observaciones, y éstas son imposibles sin instrucciones claras y específicas sobre qué y cómo observar; precisamente las definiciones operacionales proporcionan tales instrucciones; aunque indispensables, esta clase de definiciones sólo confiere un significado limitado a las construcciones hipotéticas; ninguna puede expresar la totalidad de una variable. ¿Cómo se Formula una Hipótesis? Para analizar la etapa correspondiente a la formulación de una hipótesis, es necesario considerar como punto inicial al proceso de percepción del entorno, que involucra la utilización de los sentidos. La comprensión de la evolución del hombre es resultado del hecho de que entendemos dicho proceso explorando la realidad física con nuestros cinco sentidos; hasta el momento actual hemos sido seres humanos cinco-sensoriales. Gracias a los sentidos, sabemos que cada acción es una causa que provoca un efecto, y que cada efecto posee una causa; de tal forma que el proceso de percepción involucra a su vez cuatro etapas, conocidas como: formación de imágenes, establecimiento de sensaciones, esclarecimiento de ideas y elaboración de conceptos. Estas etapas en conjunto conducen al proceso de observación; de tal forma que la observación es la utilización de los sentidos para la percep118 ción de hechos o fenómenos que nos rodean, o son de interés del investigador; la observación, permite abordar la totalidad de hechos existentes y concretos que rodean los fenómenos que se estudian. David Bohm, dice que la palabra realidad está derivada de las raíces cosa y pensar; realidad, por lo tanto, significa todo aquello en lo que se puede pensar; tal definición tiene la influencia de la física cuántica, que está basada en la percepción de un nuevo orden en el universo. Desde el punto de vista de la epistemología, existen tres herramientas básicas para abordar a los hechos: observando, midiendo y experimentando. Lo cual puede realizarse en una acción a la vez, o las tres de manera simultánea; esto quiere decir que un fenómeno se está observando; por lo que, la observación metódica y sistemática de los hechos, permite a través del tiempo, generar información acerca de su comportamiento; un hecho o fenómeno, podrá observarse en términos de fracciones de segundo, como en una reacción química, o de manera perpetua, como en el movimiento de los planetas, o de alguna variable del clima; y la disponibilidad de datos a su vez permite observar, medir o experimentar en torno al fenómeno estudiado, todo en un proceso dialéctico. La Etapa Empírica para la Generación de Conocimiento Científico La etapa en la cual se está generando información referente a un hecho o fenómeno, se conoce como etapa empirica; 119 o de manera atinada, aquella etapa que proporciona experiencia; en esta etapa utilizamos como herramienta fundamental a la observación; resalta la importancia de la observación y su relación con la formulación de hipótesis. La observación se define como la utilización intencionada de nuestros sentidos para captar información; se considera que la observación tiene un papel importante en la ciencia cuando está guiada por una hipótesis, tal como lo mencionaba Claude Bernard: todo el conocimiento humano se reduce a ascender de los efectos observados, a su causa. Después de una observación, se presenta al espíritu una idea relativa a la causa del fenómeno observado; luego esta idea anticipada es introducida en un razonamiento en virtud del cual se hacen experiencias para comprobarla; por el momento, es necesario hacer notar que la idea experimental no es arbitraria ni puramente imaginaria; debe tener siempre un punto de apoyo en la realidad observada, es decir en la naturaleza. La hipótesis experimental, en una palabra, debe estar siempre fundada en una observación anterior. La observación científica se da a partir de la selección de un fenómeno relevante de éste, mediante la guía del método científico; el evento que permite generar experiencia y que está ampliamente relacionado con el de observación puede ejemplificarse con la actividad de Tyge o Tico Brahe; él nunca hizo grandes descubrimientos, salvo uno, que lo convirtió en el padre de la astronomía moderna, fundada en la observación; el descubrimiento estriba en que la astronomía tenía necesidad de datos observados, precisos y continuos. Tico, quien dedicó treinta y ocho años de su vida a la observación del movimiento de los planetas. Lichtenberg, afirmaba: que la observación y el conocimiento del mundo son la base de todo, además hay que haber observado mu120 cho para poder usar las observaciones ajenas como si fueran propias, de otro modo, sólo se leen y quedan en la memoria sin mezclarse con la sangre. Hoy todos conocemos aquella teoría que nos dice que el mecanismo de la evolución es la selección natural. Charles Darwin y Alfred Wallace son sus creadores. Darwin tuvo una gran ventaja al ser invitado a una expedición científica a América del Sur, en el famoso velero Beagle. Darwin observó las grandes similitudes entre la flora y la fauna que existían entre las comunidades bióticas de los continentes, con aquellas comunidades de islas cercanas y dichos continentes; para Darwin, tales similitudes y diferencias tenían un significado, una razón de ser. Con el apoyo de las obras de Lyell y de Malthus, Darwin postula el mecanismo que rige el proceso evolutivo de las formas de vida de nuestro planeta: la selección natural. En ella se plantea que es el medio ambiente quien ejerce una fuerza adaptativa sobre los individuos, a la cual estos deben acostumbrarse, y por lo tanto evolucionar. A diferencia de Darwin, Wallace realizó todas sus observaciones en el Archipiélago Malayo, y de forma separada postula el mismo mecanismo evolutivo para las formas vivas existentes. Tanto Darwin como Wallace utilizan a la observación como herramienta principal para tener información; la información anterior son ejemplos grandiosos que dejan claro que la observación de los hechos constituye la etapa empírica para la generación de conocimiento científico, y puede ser en instantes o durante años. La observación de los hechos de la naturaleza aporta datos, producto de la medición de ciertos eventos, o por experimentación. 121 La Etapa Teórica para la Generación de Conocimiento Científico La siguiente etapa en la generación de conocimiento es la etapa teórica. El investigador utiliza herramientas tales como los principios, postulados, hipótesis y leyes; aquí, el término hipótesis, deberá ser entendido desde una doble perspectiva: a) como concepto y b) como enunciado o formulación; razón por la cual se requiere saber cómo formular una hipótesis y cómo contrastarla; así sus resultados pasan a formar parte de la etapa teórica de la generación de conocimiento científico. La formulación de cualquier hipótesis es sobre la base de determinados hechos o fenómenos, que al conocerse generan datos de su comportamiento; estos datos constituyen una descripción de la realidad; pero sin estos, carecemos de la materia inicial para tal formulación; ya que en la actualidad la concepción de cómo se trabaja en la ciencia se conoce como el modelo hipotético-deductivo, cuyo nombre se debe a Hempel; y que con base en este enfoque se enlaza a la teoría con la empiria. La observación de la realidad conforma la gran experiencia que proporciona datos a partir de los cuales se formulan las hipótesis, que contrastadas, contribuyen a la creación de la teoría que sustenta o explica el comportamiento de cualquier hecho o fenómeno de la naturaleza. Es en esta fase cuando se genera conocimiento científico. 122 La Formulación de Hipótesis La formulación de cualquier hipótesis debe respetar estándares establecidos por la epistemología. Las características para la formulación de hipótesis son: a) No debe contener palabras ambiguas o no definidas b) Los términos generales o abstractos deben ser operacionalizables c) Los términos abstractos, que no tienen referente empírico, no son considerados d) Los términos valorativos no se consideran por no comprobarse objetivamente e) Cuando sea posible, debe formularse en términos cuantitativos f) La forma sintáctica debe ser la de una proposición simple; en ningún caso puede tener la forma de interrogante o prescripción g) La hipótesis causal o estadística debe considerar sólo dos variables h) Debe excluir tautologías i) Debe evitar el uso de disyunciones; las que aparecen en proposiciones compuestas del tipo p o q, donde p y q son proposiciones simples cualesquiera j) Debe estar basada en el conocimiento científico ya comprobado y tomarlo como punto de partida 123 k) Debe ser doblemente pertinente: en su referencia al fenómeno real de investigación y en el apoyo teórico que la sostiene l) Debe referirse a aspectos de la realidad que no han sido investigados aún, ya que un objetivo de la actividad científica es la producción de nuevos conocimientos m)Una característica de la hipótesis científica es su falibilidad; esto implica que una vez comprobada puede perfeccionarse a través del tiempo Los antecedentes modernos para la formulación de una hipótesis están en la lógica matemática, y a la vez han sido obtenidos de la lógica formal. La lógica tradicional se dedicaba a estudiar, desde el punto de vista formal, a los juicios, los conceptos y los razonamientos; todas las formas discursivas eran consideradas como modificaciones, bien del juicio, bien del concepto o bien del razonamiento; por esta razón, la hipótesis era comprendida por la lógica tradicional como forma específica del razonamiento o como juicio; la hipótesis era estudiada en la sección de razonamientos inductivos. El juicio es un pensamiento en el que se afirma o se niega algo de algo. El juicio tiene una estructura cuyos elementos son: el sujeto; el predicado, y la cópula; tomando algunos conceptos de la lógica matemática, se puede decir que la forma sintáctica de una hipótesis es la de una proposición simple. Las proposiciones son pensamientos en los que se afirma algo, y que se expresan por ello mediante enunciados u oraciones declarativas. 124 Las oraciones, se dividen en declarativas, imperativas, interrogativas y exclamativas; reiterando, una proposición es equivalente a una oración declarativa, y ésta será la forma de redactar o formular una hipótesis, la cual tendrá sujeto: la cosa de la que afirmamos o negamos algo; verbo: palabra que en una oración, expresa la acción o el estado del sujeto; predicado: lo que se afirma o niega del sujeto. Ejemplificando la redacción de algunas oraciones se tiene lo siguiente: a) El universo está formado por átomos de hidrógeno b) ¿Qué pasó con la iniciativa de reforestación? En el ejemplo anterior, la oración es de mucha importancia por ser declarativa, ya que está afirmando algo que puede ser falso o verdadero; sin embargo, una proposición también se puede representar por una expresión matemática, como la siguiente: (x+y)2 =x2+2xy+y2; tal ecuación es una proposición porque transmite algo que es verdadero; entonces, sólo de las oraciones declarativas puede decirse que transmiten una proposición, que por ser una afirmación, es verdadera o falsa; por lo que la formulación de cualquier hipótesis es equivalente a tener un enunciado que tiene la presentación de una oración declarativa. El evento de formulación de las hipótesis permite plantear dos preguntas básicas, antes de tener la redacción del enunciado: a) ¿Cómo se originan las ideas básicas para su generación?, lo cual lleva al contexto de descubrimiento, y, b) ¿Cómo se justifican?, lo cual lleva al contexto de justificación; o en otras palabras, cómo se comprueba la validez de una hipótesis; el contexto de descubrimiento es el aspecto más relacionado con la formulación de las hipótesis, por lo que se debe saber cómo 125 llegar a una oración declarativa que se transforma en la hipótesis que guiará el trabajo de investigación. Este aspecto, es la actividad más importante del trabajo científico, y se realiza a través de la inducción; la inducción es un procedimiento del razonamiento que va de lo particular a lo general. Se parte de hechos particulares y se llega a conclusiones generales acerca del tipo a que pertenecen los hechos particulares considerados. ¿Cómo se Formula cualquier Hipótesis? Se tienen dos grandes vías a partir de las cuales se descubren hipótesis y por lo tanto se formulan o redactan: a partir de la razón y a partir de la experiencia, usando la inducción; en ambos casos es importante recalcar que el científico ha tenido una etapa previa de observación y acumulación de datos relacionados con el problema de la naturaleza que está investigando; por lo que la tradición científica permite desprender al menos cuatro procedimientos que llevan a la formulación de hipótesis; se puede descubrir una hipótesis a través de: a) La información respecto a la observación de un fenómeno es tan clara que conduce fácilmente a una hipótesis b) El científico tiene una serie de convicciones o prejuicios filosóficos, producto de una gran experiencia en torno al problema que aborda; lo cual lo conduce fácilmente a una hipótesis 126 c) Un sueño en torno al problema de interés sugiere una hipótesis y su redacción correspondiente d) Una analogía, con relación al problema de interés podrá conducir a la hipótesis buscada En la construcción de una hipótesis ocupa un lugar la formulación de la idea nueva, que hace las veces de proposición; la aparición de nuevas ideas es condición indispensable para la construcción de hipótesis; pero de ideas nuevas, insólitas, que permitan edificar el sistema de conocimiento sobre otra base, distinta por principio de las anteriores; sólo a base de una idea nueva, como principio fundamental, se crea una hipótesis. ¿Cómo iniciamos la formulación de cualquier hipótesis? La respuesta es sencilla: a) después de conocer los hechos, b) después de estar bien documentado en torno a los hechos que nos interesen, y c) después de entender que para llegar al punto b, podrán pasar varios años de observación y/o documentación. Sólo entonces, es posible formular alguna hipótesis. ¿Para qué Sirve una Hipótesis? La formulación de cualquier hipótesis inicia con el análisis de los hechos; la hipótesis deberá explicar estos hechos; cualquier hipótesis, se plantea con la finalidad de explicar los hechos conocidos y pronosticar los desconocidos. Karl Popper, afirma que mientras más fuerte sea la capacidad lógica de una hipótesis, más fácil será de comprobar; enton- 127 ces, una hipótesis se constituye como la conclusión de un razonamiento con cierta probabilidad o verosimilitud, que se obtiene al estar analizando-sintetizando, en torno a los hechos o fenómenos, y en su formulación inducimos-deducimos a partir de las observaciones respecto a tales hechos o fenómenos. La característica de la hipótesis radica en que sistematiza el conocimiento científico, integrando un sistema de abstracciones de la realidad que se observa. En la hipótesis, es una proposición lo que viene a ser el punto de atracción de todo ese sistema de conocimientos y hacia la cual convergen todos los restantes juicios. Los juicios que integran la hipótesis argumentan esta proposición o se derivan de ella, es decir, conducen a ella, se infieren o se derivan de esta. La hipótesis es la forma de desarrollo del conocimiento científico pero no por ser un juicio-proposición. La proposición por si sola, tomada aisladamente, no desarrolla el conocimiento acerca del objeto; cumple su función sólo si está relacionada con el conocimiento anterior, de veracidad admitida, y con las conclusiones que de él se infieren. En la hipótesis hay juicios fidedignos; una hipótesis privada de todo conocimiento verídico y demostrado, carece de valor científico; el conocimiento fidedigno constituye la base, el fundamento; toda proposición tiene valor si está basada en hechos y leyes sólidamente establecidas. La hipótesis por su esencia, comprende juicios problemáticos, es decir, juicios cuya veracidad o falsedad no ha sido demostrada aún; estos juicios problemáticos no han de ser conjeturas arbitrarias, su probabilidad debe estar argumentada por conocimientos anteriores ya demostrados; una 128 hipótesis formada por proposiciones arbitrarias no deja ninguna huella importante en la ciencia. Una hipótesis de este género no constituye una verdad objetiva. La hipótesis científica verdadera incluye una proposición que puede ser refutada, pero que posee, además una serie de juicios verídicos que en el curso del desarrollo científico no sólo pasan de una hipótesis a otra, sino que se van haciendo más completos. El juicio-proposición, en la hipótesis científica debe estar argumentado con suficiente grado de probabilidad. Si en los siglos XVII y XVIII los científicos miraban con recelo a la hipótesis, pues consideraban que el pensamiento verídico podía y debía evitarla de alguna manera, a fines del siglo XIX y en el XX, comprendieron en cambio, que el conocimiento se desarrolla por medio de esta. En el siglo XXI es poco probable que un científico niegue la importancia de la hipótesis en el conocimiento. En la doctrina de la hipótesis, lo principal no es ya el saber si desempeña un papel esencial en el conocimiento del mundo, sino lo que representa como forma de conocimiento científico, cuál es su relación con el mundo objetivo y qué carácter tiene el conocimiento en ella contenido. El Concepto de Hipótesis Científica Existen varias definiciones que ayudan a establecer el concepto de hipótesis. Etimológicamente es una explicación supuesta que está bajo ciertos hechos a los que sirve de soporte; una definición que transmite el concepto de hipótesis, utilizando la información o datos de que dispone el in129 vestigador es la siguiente: un conjunto de datos que describen a un problema, donde se propone una reflexión y/o explicación que plantea la solución a dicho problema. Hipótesis: hipo = bajo, thesis = posición o situación Etimológicamente es una explicación supuesta que está bajo ciertos hechos a los que sirve de soporte, de esta manera: a) Es una suposición que permite establecer relaciones entre hechos. b) Es una afirmación sujeta a confirmación. c) Es una explicación provisional del problema. d) Es una solución teórica o tentativa del problema e) Es una relación entre dos o más variables para describir o explicar un problema f) Es un raciocinio o una conclusión según la cual un determinado conjunto de fenómenos, cuyo pensamiento forma el predicado del juicio g) Es un juicio problemático mediatizado sobre el vínculo sujeto a las leyes de los fenómenos, que se obtiene como deducción de un raciocinio de probabilidad h) Es una suposición acerca de la existencia de una entidad, la cual permite la explicación de los fenómenos o del fenómeno estudiado i) Es aquella formulación que se apoya en un sistema de conocimientos organizados y sistematizados, y que establece una relación entre dos o más varia130 bles para explicar y predecir en la medida de lo posible, aquellos fenómenos de una parcela determinada de la realidad en caso de comprobarse la relación establecida j) Conjunto de datos que describen a un problema, donde se propone una reflexión y/o explicación que plantea la solución a dicho problema k) Enunciado o proposición que sirve de antecedente para explicar cómo se produce un fenómeno o conjunto de fenómenos relacionados entre sí El concepto que se ajusta, porque utiliza la información de la lógica matemática, es: aquel enunciado o proposición que sirve como antecedente para explicar porqué o cómo se produce un fenómeno o conjunto de fenómenos relacionados entre sí. El Concepto de Hipótesis de Trabajo Sin embargo entre los investigadores hay la tendencia a considerar a la hipótesis tan sólo como una estructura de trabajo, carente de todo contenido objetivo; algunos llegan a declarar que todas las hipótesis son ficciones que sólo tienen valor práctico, pero que no reflejan de ningún modo el mundo objetivo. El concepto de hipótesis de trabajo se introdujo para diferenciar el valor cognoscitivo de las diversas clases de hipótesis; suele calificarse de hipótesis de trabajo a las primeras explicaciones del fenómeno; cuando se construye una hipótesis de trabajo lo importante no es que explique el proceso, sino que proporcione datos que permi131 tan seguir analizando este proceso, que le ayude a encausar el pensamiento hacia un estudio más detallado y profundo del objeto observado. La hipótesis de trabajo es una estructura provisional, una de las armas necesarias del investigador, que puede admitirse y desecharse en consonancia con las necesidades que presente la investigación del objeto. Para que el proceso del descubrimiento y la descripción de los fenómenos tengan carácter consciente, es preciso que se atenga a una idea rectora y este es el papel, que en algunos casos, cumple la hipótesis inicial; una vez construida esta hipótesis, el investigador busca los hechos y los fenómenos que han de existir si el contenido de la hipótesis corresponde a la realidad; pero si estos hechos no se demuestran y, en cambio, se encuentran hechos que contradicen la hipótesis, el investigador construye una hipótesis de trabajo. La finalidad de la hipótesis de trabajo es auxiliar, debe ayudar al investigador a la acumulación de los datos y a su conocimiento previo. La hipótesis de trabajo es una de las primeras suposiciones que se hacen al principio de la investigación científica; se convierte en hipótesis real o científica después de su precisión, y sirve para explicar todos los hechos compilados de la realidad, hechos que pretende demostrar; a manera de reflexión en torno a la formulación de una hipótesis científica: a) Es posible formular una hipótesis cuando se ha tenido un período exhaustivo de observación y/ o documentación de determinado hecho o fenómeno 132 b) La formulación y posterior comprobación de alguna hipótesis, es un proceso que permite generar conocimiento científico, el cual conforma la etapa teórica de dicho proceso c) Es necesario tener claridad respecto a la etapa de trabajo en la cual se desempeña cada investigador, ya sea, que esté desarrollando observaciones o que las utilice para formular hipótesis Prueba de Hipótesis y Error Estándar El error estándar, es la medida con la cual se comparan los resultados de los experimentos; de manera que para establecer si existe alguna diferencia entre las medias de grupos experimentales, se calcula el error estándar de las diferencias entre medias y se compara la diferencia obtenida con dicho error; si excede demasiado del error estándar se establece que es una diferencia significativa. Puede aplicarse un razonamiento similar a cualquier operación estadística; de este modo hay varios errores estándar: de coeficientes de correlación, de diferencias entre medias, de medias, de medianas, de proporciones y otros más. En la literatura estadística aparecen con frecuencia diferencias estadísticas, en especial entre medias que se han sometido a prueba. El investigador tiene que emplear un criterio experto basados en conocimientos firmes, y hacer un examen cuidadoso de la magnitud de la escala, el tamaño de la muestra, pues cuanto mayor sea N, mayor será la probabilidad de significación estadística, la naturaleza de la varia133 ble y las circunstancias del estudio; en casi todos los casos, el investigador debe asumir una actitud escéptica aun ante diferencias pequeñísimas, incluso si son estadísticamente significativas. En las revistas de investigación, con frecuencia aparecen coeficientes de correlación; teóricamente la r debe acercarse a cero entre conjuntos de números aleatorios; es necesario evaluarla significación de los coeficientes de correlación, así como medias y deferencias, mediante la comparación con sus respectivos errores estándar. Las r, a semejanza de otros estadígrafos, deben ser sometidas a pruebas para confirmar su significación estadística. La finalidad básica de la estadística inferencial en la investigación, es someter a prueba las hipótesis de investigación, por medio de la prueba de hipótesis estadística; en términos generales el científico usa dos tipos de hipótesis: la substantiva y la estadística; la primera es el tipo normal de hipótesis por la cual se crea una conjetura de la relación entre dos o más variables, como: cuanto mayor sea la cohesión de un grupo, mayor será su influencia entre sus miembros; la teoría del investigador enuncia que hay relación entre una variable y la otra; el enunciado de la relación es una hipótesis substantiva. En sentido estricto, la hipótesis sustantiva en sí no puede ser sometida a prueba; tiene que ser traducida a términos operacionales y experimentales. Una forma de someter a prueba las hipótesis substantivas es por medio de una hipótesis estadística, que es una proposición conjetural, en términos de relaciones estadísticas deducidas de las relaciones de la hipótesis substantiva; la hipótesis estadística expresa un aspecto de la hipótesis substantiva original, en términos 134 cuantitativos y estadísticos; la hipótesis estadística intenta predecir cuál será el resultado cuantitativo de los estadígrafos utilizados en el análisis de los datos de un problema de investigación, sin embargo, las hipótesis estadísticas deben ser sometidas a prueba, comparándolas con algo; se ha de someter a prueba, comparándola con otra proposición o alternativa. La alternativa que suelo elegirse es la hipótesis de nulidad, término creado por Sir Ronald Fisher, para denotar una proposición que declara esencialmente, que no existe relación entre las variables del problema. Fisher señala: podemos decir que todo experimento se hace y existe para que los hechos tengan una oportunidad de refutar la hipótesis de nulidad; lo cual es una afirmación perfectamente válida. La hipótesis de nulidad o nula es una forma concreta y sucinta para expresar el hecho de haber sometido a verificación los datos obtenidos, contra la expectativa por azar y expresa a esta última; el error estándares un instrumento que se emplea para someter a verificación la hipótesis de nulidad; siempre habrá errores por azar y en las investigaciones contribuyen en grado importante a la varianza total. Los errores estándar son las medidas del error señalado y se emplean como una especie de patrón con el cual se compara la varianza o experimental. El error estándar es la desviación estándar que la distribución de cualquier medida dada tiene dentro de la muestra, en casi todos los casos se desconocen los valores de la población o del universo y deben calcularse con base en medidas de la muestra; la fórmula correspondiente al error estándar de la media, recibe el nombre de error de muestreo; en la misma forma en que la desviación estándar es una medida de la dispersión, el error 135 estándar de la media es una medida de la dispersión de la distribución de medias de las muestras; una de las estrategias más frecuentes en la investigación es comparar las medias de las muestras; a partir de las diferencias en las medias podemos inferir los efectos de las variables independientes. El teorema del límite central también rige a toda combinación lineal de medias, esto es, las diferencias de las medias seguirán una distribución normal. El error estándar de las diferencias entre las medias es una estimación de la dispersión de estas diferencias; es casi imposible imaginar la metodología de la investigación moderna ni las estadísticas modernas, sin el concepto de error estándar; gran parte de la inferencia estadística gira alrededor de una familia de fracciones resumidas por la fracción: estadígrafo/error estándar del estadígrafo. Inferir es derivar o deducir una conclusión de premisas o de hechos concretos; inferir estadísticamente es derivar conclusiones probabilísticas, a partir de premisas probabilísticas; se llega a conclusiones probabilísticamente, esto es, a un nivel estadístico de significación; inferimos sobre bases probabilísticas si un resultado de experimentación se desvía de lo que cabría esperar por acción del azar, si la hipótesis de nulidad no es verdadera, esto es, que actúa una influencia real. La estadística permite al científico someter a verificación las hipótesis substantivas de manera indirecta al permitirle que ponga a prueba directamente las hipótesis estadísticas; en este proceso usa la hipótesis de nulidad que es una afirmación que se haría sobre la base del azar. 136 Las Hipótesis y los Experimentos No hay término científico que padezca mayor ambigüedad que la que aflige a la hipótesis: las hipótesis no son seguras, ni rápidamente solventables, su fuerza no reside en ser decisivas, sino precisas, cosa que está vinculada al marco dentro del cual se las formula; probablemente el enunciado más conocido acerca de estas es el de Newton, aquel en que pretendía no fingirlas: hipótesis non fingo, enunciado acerca de cuyo sentido se sigue disputando, y quiere decir simplemente no hace hipótesis. Se entiende que una hipótesis es una propuesta de que se admita como verdadero algo, y en este sentido se encuentra teñida de provisionalidad; cabría distinguir entre dos géneros de hipótesis denominadas hipótesis fácticas e hipótesis ideales. Existen varios puntos de vista distintos: las hipótesis son generalizaciones provenientes de la experiencia, es decir, toda hipótesis sería una afirmación resumida que generalizaría todo un conjunto de observaciones, apoyándose en algún rasgo o relación que se hubiese advertido que era invariante dentro de tal conjunto; otro punto de vista, es que las hipótesis son inferencias deductivas que realizamos a partir de premisas de orden superior; se puede considerar cierta hipótesis como una ejemplificación de principio de orden superior o enunciado teorético, como una inferencia deductiva a través de cierta premisa menor que conectase el principio general con algún caso o ejemplo, y a estas hipótesis se les denomina hipótesis ejemplificadora. Las hipótesis son postulados creados por la inteligencia para poder ordenar o derivar de ellos otros enunciados, este 137 punto de vista permite establecer que la función de estas hipótesis sea, sistemática en lo formal y fértil en lo empírico al hacer pensar en nuevas consecuencias fácticas; otro punto de vista, es que las hipótesis son intuiciones referentes a lo que parezca evidente o ineludible de creer, o bien a los que se presente como plausible de alguna manera vaga pero insistente; también varía el alcance de las hipótesis, pues el grado de generalidad que tengan es una medida de sus diferencias de alcance. Todos estos enfoques, concuerdan en general en que las hipótesis se encuentran dentro del dominio del pensamiento científico. Para definir hipótesis hay que coordinarla con el término de experimento: será un enunciado de un grado cualquiera de generalidad cuya validación o justificación esté relacionada de una manera especificable con el método experimental de contrastación. El concepto mismo de experimento entraña una observación deliberada y controlada cuya pertinencia e importancia estén parcialmente determinadas por la hipótesis que se suponga se pone a prueba y que se encuentre determinada, además por un marco más amplio: el del sistema total de teorías que proporcionen bases para interpretar los resultados experimentales; así como experimento caracteriza los aspectos empíricos de la ciencia y define la referencia concreta de una hipótesis dada; hipótesis delimita de antemano lo científicamente pertinente de un experimento cualquiera, la gama de su referencia significativa; así pues, el experimento es una observación controlada o regida por un marco de las hipótesis científicas. El lenguaje de observación, las medidas, la teoría que lo encuadre, los instrumentos de que se disponga y que se se138 pan pertinentes, así como el decisivo aspecto de las expectativas del observador, son lo que rige y controla el experimento; se pueden enumerar varios tipos de controles: el sistema de medidas, existen varias formas por ordenar por medio de medidas, la clasificación con arreglo a un esquema clasificatorio, la ordenación de cualidades por grados siguiendo un esquema ordinal y la medida cuantitativa, que se apoya en deferencias de grado de cierta magnitud unitaria, y en la invariancia de razones descubierta al efectuar tal ordenación. La medida cuantitativa asigna un número a una diferencia de grado de una magnitud, generando un sistema de números concretos o dimensionales, pero la medida tiene lugar de una cualquiera de estas formas; así, la determinación cualitativa de las propiedades de las cosas desempeña un papel en el laboratorio antes de que empiecen a asignarse números. La cuestión de qué es lo que haya de medirse y dentro de qué límites de precisión o error, excede el ámbito de las cuestiones prácticas, pues cuando el lenguaje de las hipótesis es matemático, los hallazgos pertinentes pueden traducirse al lenguaje de los números con lo cual valen para confirmar o refutar ciertos enunciados matemáticos que serán consecuencia de la hipótesis de que se trate; con relación al marco teorético, este marco tiene una vinculación con el sistema de medida que se emplee, en efecto toda teoría, o se encuentra ya montada con los términos de un lenguaje de medidas, o es interpretable experimentalmente mediante tal lenguaje; pero en un sentido más amplio, de carácter conceptual, toda teoría es un aparato destinado a delimitar lo que sea pertinente en la experimentación. Todo experimento es una abs139 tracción de ciertos rasgos, y sólo ellos, tomados de la totalidad del campo de lo observable y mensurable. El instrumental, este factor entra en la delimitación y control de la observación experimental; se puede decir que el instrumental encarna un sistema de medida, representando en un material palpable y en una técnica cierta estructura conceptual en la que las magnitudes guardan entre sí una ordenación teórica y en la que se fijan ciertos números concretos dentro de una red deductiva teórica. El instrumento hace medibles ciertas propiedades que amplían la gama, la precisión y la estabilidad de las observaciones; nuestro sentidos son también instrumentos de medida y sumamente perfeccionados para ciertos usos, pero en lo que se refiere a las magnitudes de la ciencia cuantitativa, la invención humana ha ampliado nuestras percepciones valiéndose de medios físicos: la variación subjetiva de la percepción queda reducida radicalmente mediante instrumentos con un grado de precisión elevado, y cuya normalización introduce una uniformidad imposible de lograr en la percepción corriente. Pero no existen instrumentos infinitos: todo instrumento mide dentro de unos límites finitos de precisión, gama y estabilidad, cosa que impone unos confines a los resultados pertinentes obtenidos por experimentación, en cambio cuando se la concibe, una magnitud cualquiera expresada matemáticamente no es aproximada. Aproximado es un término que se introduce sólo al convertir unas magnitudes matemáticas en magnitudes medidas: es la medida la que fuerza a la aproximación, pues la gama de números reales que las matemáticas ponen a nuestra disposición no tiene límite alguno de precisión: la magnitud número, en su expresión 140 matemática, es infinitamente divisible hasta el extremo de que hay más números reales, que nombres correspondientes a ellos; de modo que allí donde el número es continuo en este sentido, la medida es discontinua: sobrepasado cierto punto, una magnitud medida sólo puede proporcionarnos un valor aproximado al de una expresión matemática. En los procesos clásicos de medida los de cosas de tamaño medio, los instrumentos también entran en interacción con lo que se mida, pero sabemos como compensar la distorsión debida a ello o ésta es de magnitud insignificante; en cualquier situación experimental contrastamos tanto el instrumento como cierta hipótesis con objeto de cerciorarnos de los límites de su precisión, y los resultados que obtenemos se encuentran siempre enmarcados por los límites de medida impuestos por el instrumento que empleemos. Con relación al observador, tenemos que, un punto de vista típico acerca de los experimentos científicos y de las tareas científicas en general es el que sostiene que en el caso ideal el observador queda eliminado como factor variable; es evidente que se requiere su presencia, así como su interpretación de los resultados experimentales. El observador ideal sería pues, un observador patrón cuya presencia podría tomarse como una constante que no afectaría los resultados y constituiría, una presencia transparente en el transfondo; los medios de alcanzar semejante ideal en las tareas experimentales pueden caracterizarse como las condiciones epistemológicas de la objetividad científica, y la principal de tales condiciones es que los resultados experi141 mentales sean reproducibles de una manera normal y prefijada, siempre la misma, de modo que pueda llegarse a un consenso entre distintos observadores. Con relación a los tipos de experimentos, observamos que en cada uno de los aspectos de la experimentación, como son: los referentes, respectivamente, al sistema de medida, al marco de teorías e hipótesis, a los instrumentos y al observador, estos son decisivos para la interpretación del marco teorético e hipoteorético y el mundo experimental mismo; pero todo esto constituye los fundamentos de la función de los experimentos; con frecuencia, cuando se impone un sistema previo al análisis de los métodos experimentales empleados, se llega a una caracterización de esta función, que tiende a destacar una sola de todas las que posee como la esencial; sería mejor hablar de las funciones de los experimentos y distinguir entre la experimentación que atañe a la contrastación y confirmación de hipótesis y aquella cuya función es la de descubrir. En los experimentos de descubrimiento o de sondeo, lo que se intenta es descubrir un valor, no confirmar uno que se hubiera predicho. Con relación a los experimentos para contrastar las consecuencias de hipótesis, lo más frecuente es que la contrastación de las consecuencias de hipótesis se tome como modelo de la finalidad de los experimentos. Un experimento mixto es uno en el cual el descubrimiento de ciertas propiedades lleva a incluirlas en algún marco sistemático ya establecido, el de una teoría, o sea, aquel en el que se hace ver de qué manera la predicción de las propiedades que se acaben de descubrir pueden obtenerse deductivamente, dentro de un marco hipotético-deductivo; así pues los experimentos 142 mixtos son aquellos en los que el descubrimiento de ciertas propiedades aún no conocidas o predichas lleva a una clasificación que revela una relación sistemática entre ella y otros problemas, de este modo queda confirmada una hipótesis que aún no se habrá sometido a contraste, y la propiedad recién descubierta encuentra un lugar dentro del esquema hipotético correspondiente. La ciencia es una unidad coherente y orgánica, de la cual las hipótesis y los experimentos son aspectos complementarios. La Explicación como Producto Lógico Cada acto de explicación científica implica poner en juego inferencias, conceptos, datos empíricos y una serie de procesos que darán como producto, enunciados o proposiciones sujetas a procedimientos de validación. El empirismo lógico asumió que puede considerarse como lenguaje con sentido el que contiene enunciados empíricamente verificables y que en esta resulten verdaderos. Wittgenstein, sostiene que la estructura del lenguaje muestra la estructura del mundo posible, y que fuera de esta los enunciados no tienen sentido; acuerdan con los racionalistas en la existencia de conocimiento necesario, no reductible a la experiencia sensible, pero afirman que este conocimiento no dice nada sobre la naturaleza de las cosas; de tal manera, las verdades necesarias son lingüísticas y, convencionales. Una alternativa al empirismo fue el pragmatismo, para el cual la reducibilidad a términos empíricos carece de importancia, poniendo énfasis en los procedimientos por los que el sujeto fija o cambia sus creencias, y en el origen de los 143 significados asignados al fenómeno; a diferencia del empirismo, en el que los términos teóricos no tienen verdad en sí, admite la validez de los conceptos y términos en que se expresa, preguntándose cómo se establecen sus significados; una de las diferencias radica en que se confiere al lenguaje teórico un status distinto o concibe la idea de comprensión del lenguaje en su sistema de relaciones, en lugar de asimilar el lenguaje de la representación con el lenguaje de la percepción. Para el pragmatismo, las teorías científicas expresan, en términos de representaciones, un potencial de acción sobre lo que se asume como real; de tal manera, una teoría será verdadera en tanto dé cuenta de los vínculos establecidos entre los hombres y sus sistemas de objetos; o también, satisfagan los objetivos de sus acciones. En el marco del pragmatismo, el concepto de praxis adquiere significativa importancia al fundar el conocimiento, concibiéndolo como fuente de toda ponderación o denotación del fenómeno. En estos términos, la praxis se construye, tanto de las imágenes percibidas como seres vivientes, como las del mundo de la cultura; una explicación científica puede ser conceptualizada desde cualquiera de las perspectivas nominadas, pero las diferencias el acto de explicar, y desde allí, en el status de dicha explicación. La Explicación Científica: Leyes y Teorías El concepto de explicación y el de entender presentan problemas fundamentales que se encuentran en la propia base 144 del conocimiento humano, y cualquier intento de ocuparse de la explicación científica en el que se eluda esta compleja cuestión presupone que el sentido del término explicación constituye de un modo primario e indefinible, una propiedad común de la comunidad hablante y pensante; por tanto lo más que puede hacerse es presentar paradigmas de lo que significa explicar algo y trabajar a partir del consenso, tácito o explícito, de que estos paradigmas se entienden. Si el sistema de la ciencia es un medio de explicar lo que se entiende, el análisis de los fundamentos conceptuales del pensamiento científico, es un intento de entender la ciencia misma o de llegar a entender lo que es el entender científico. El problema de la explicación no es en absoluto problema profundo alguno, lo que hay que hacer es mostrar cómo se relacionan los paradigmas de la explicación de sentido común. El concepto de explicación científica no puede entenderse a base de reducirlo de algún modo a un significado primario del explicar y el entender: no existe tal significado primario aparte de la reconstrucción teorética de los hechos del entendimiento o de la práctica de la explicación: a la filosofía de la ciencia le corresponde la tarea adicional de explicar el concepto mismo de explicación científica, de ver en lo que la ciencia entiende, las mismas características que constituyen las condiciones para que haya un entender científico; la investigación reflexiva requiere algo más que un mero examen de casos de explicación científica, como si se tratase de objetos externos de investigación y constituye un examen de la investigación misma: la tarea aparentemente paradójica y que se refiere a sí misma, de entender el entender y explicar la explicación. 145 Aprender algo significa, conseguir uno u otro tipo de actuación aprobada o llegara entender el marco cuyas razones permitan comprender la aprobación; el llegar a entender pudiera no significar, más que adquirir cierta destreza perceptivomotora, o hábito y pudiera significar adquirir todo lo que se requiera para la justificación teorética o conceptual de determinada cosa. Se puede decir que se aprende en varios sentidos: a) Aprendiendo a actuar de acuerdo con una norma mediante el ejemplo y la práctica b) Aprendiendo a entender por qué algo constituye una actuación adecuada sobre la base de entender la relación entre la norma y algún caso particular de esta Las relaciones entre aprender, entender y explicar constituye el marco en el que consideramos los distintos tipos de explicación. En los tipos precientíficos de explicación, cabe hacer las distinciones siguientes: 1) Reglas; las reglas son instrucciones prescriptas o reguladoras en cuanto a la actuación correcta a desarrollar, estas pueden darse mediante ejemplos, mostrando el paradigma o caso que sirve de modelo o criticando una actuación 2) Leyes; la noción de ley se encuentra estrechamente ligada al apartado uno, pero con la salvedad de que tales leyes se toman como generalizaciones empíricas de tipo descriptivo 146 3) Teorías; las teorías metafísicas aducen algún principio general y abstracto desprovisto de alusiones antropomórficas, así el principio en función en función de la cual se decía que estaba ordenada la gran variedad de la naturaleza era el logos, y cuando tales principios metafísicos se interpretaron en términos físicos, se dijo que la gran variedad de fenómenos era reducible a combinaciones de los cuatro elementos: tierra, aire, fuego y agua En las teorías metafísicas y físicas de este tipo, al igual que en las teorías antropomórficas o mitipoéticas, se da la explicación en función de una entidad, sustancia o principio, de cuya naturaleza pueden deducirse manifestaciones individuales. La explicación que se da es una razón distinta en cada uno de estos casos: la regla dice cómo se debiera actuar basándose en cierta razón, que propiedades de algún suceso natural, y también se observa que las leyes que valen para ordenar los acontecimientos naturales se explican en virtud de la naturaleza de estas entidades. Las leyes serían las reglas o pautas de comportamiento de tales entidades se expresa implícitamente en forma de caso ejemplar o explícitamente en forma de precepto; en los casos en que los que la ciencia es una actividad, el papel que tales reglas desempeñan en la explicación queda claro: proporcionan normas para realizar las observaciones adecuadas, reunir las pruebas adecuadas, emplear las técnicas experimentales adecuadas, realizar las inferencias inductivas adecuadas, dar la forma adecuada a las representaciones deductivas o formales de las relaciones entre los hechos y hacer las hipótesis adecuadas; en este sentido, las reglas no explican los procesos 147 naturales ni las cuestiones de hecho, pero explican por qué de debe admitir o aprobar las conclusiones de la investigación científica, y sirven también de guía de conducta en cuanto a tales investigaciones. Tales reglas proporcionan los criterios de los que se considerará como explicación adecuada: son explicaciones de la explicación, o normas acerca de lo que constituiría las condiciones para que haya explicación científica. Toda ley expresa una relación de invariancia entre todos los miembros de una clase dada, y esta relación puede darse en forma de condición universal, o en forma de condicional subjuntivo o contrafáctico: Para cualquier x, si ocurriera que Fx, ocurriría que Gx. Un enunciado legaliforme es la expresión de una ley de la naturaleza si es, de hecho cierto en cualesquiera casos subsumidos en la ley. Toda ley científica es un enunciado del que no se sabe si es cierto en todos los casos, pero tal que haya motivos para creerlo racional o justificadamente; el punto de vista realista acerca de las leyes es realista en el sentido técnico que este término tiene en epistemología y en ontología: según él toda ley es universal, y las relaciones de invariancia que expresa existen en la naturaleza, independientemente de si se conocen o no y de las condiciones en que se conozcan. El conocimiento de este universal, es por tanto un descubrimiento del mismo, y la creencia de que tal ley universal existe de hecho, está justificada por la validez del presunto conocimiento sobre la base de ciertas normas; en este sentido, las leyes que prevalecen en cualquier etapa de la ciencia expresan creencias justificadas acerca de las leyes de la naturaleza o acerca de la verdad de las proposiciones que sirvan para expresarlas. 148 La postura realista acerca de las leyes supone, que hay enunciados ciertos que son expresión suya, y que las leyes científicas se aproximan constantemente, conforme van eliminándose posibles hipótesis o conforme aumenta el número de elementos de juicio y progresan la crítica y el refinamiento de los métodos; mientras que el realista supone, que las leyes de la naturaleza existen en realidad, el nominalista impugna la opinión de que los universales existan en absoluto; la distinción de nombres proviene de una controversia filosófica medieval acerca de la naturaleza de los universales, en la que los realistas mantenían que universalia sunt realia, o sea que los universales son reales, y los nominalistas arguían que universalia sunt nomina, o sea los universales son nombre. Explicación y Empirismo Es imposible una concepción formal de la reducción y la explicación para las teorías generales, o como se las denomina teorías no-instanciales; en particular, se muestra que donde tales teorías desempeñan un papel decisivo, tanto la teoría de la reducción como la teoría de la explicación de Hempel y Oppenheim se alejan de la práctica científica real y de un empirismo razonable. Lo que ocurre cuando se pasa de una teoría T* a una teoría T más amplia es algo mucho más radical que la incorporación al contexto de T, de la teoría T* inalterada, esto es, inalterada respecto a los significados de sus principales términos descriptivos, así como respecto a los significados de los términos de su lenguaje observacional. Lo que tiene lugar es una sustitución de la 149 ontología de T* por la ontología de T, y el correspondiente cambio de los significados de los elementos descriptivos del formalismo de T*; dicha sustitución afecta no sólo a los términos teóricos de T*, sino también, a algunos de los términos observacionales que aparecen en sus enunciados contrastantes. Es decir, no sólo aparecerán infiltradas descripciones de cosas y procesos en el dominio en el que T* ha sido aplicada, bien sea con el formalismo y los términos de T o bien, si los términos de T* aún se utilizan, con los significados de los términos de T, sino que las sentencias que expresan lo accesible a la observación directa dentro de este dominio significarán ahora algo diferente; introducir una nueva teoría implica cambios de perspectiva tanto respecto a los rasgos observables como a los rasgos no observables del mundo, y cambios correspondientes en el significado de los términos del lenguaje empleado. La teoría de la reducción de Nagel se basa en dos supuestos: el primer supuesto concierne a la relación entre la ciencia secundaria, la disciplina a reducir, por un lado y la ciencia primaria, la disciplina a la que se practica la reducción, por el otro. Según Ángel: el objetivo de la reducción es mostrar que las leyes o los principios generales dela ciencia secundaria, son simplemente consecuencias lógicas de los supuestos de la ciencia primaria. El segundo supuesto concierne a la relación entre los significados de los términos descriptivos primitivos de la ciencia secundaria y los significados de los términos descriptivos primitivos de la ciencia primaria; se afirma que los primeros no serán afectados por el proceso de reducción. Este segundo supuesto es una consecuencia inmediata de, dado que se supone que una derivación no influye en los 150 significados de los enunciados derivativos; sin embargo Nagel manifiesta: es de la máxima importancia observar que las expresiones peculiares de una ciencia poseen significados que se fijan por sus propios procedimientos, y son por tanto inteligibles en términos de sus propias reglas de uso, haya o no haya sido reducida la ciencia, o lo sea alguna vez, a otras disciplinas. Por tanto, los significados son invariantes respecto al proceso de reducción. Dos supuestos, muy similares juegan un papel decisivo en la teoría de la explicación, la cual puede ser considerada como una elaboración de sugerencias que fueron hechas anteriormente, por Popper; el primer supuesto concierne de nuevo a la relación entre el explicándum, o los hechos a explicar, por un lado y el explanans, la disciplina que funciona como base de la explicación; se requiere que esta relación es la relación de deducibilidad. El explicandum debe ser una consecuencia lógica del explanans, en otras palabras el explicándum debe ser lógicamente deducible de la información contenida en el explanans, puesto que de otro modo el explanans no constituiría un fundamento adecuado para la explicación. Los significados son invariantes respecto al proceso de explicación. No es difícil observar que en lo que se refiere a los términos observacionales, es consistente con el positivismo inicial del Círculo de Viena; su tesis, que todos los términos descriptivos de una teoría científica pueden ser definidos explícitamente en términos de observación, garantiza la estabilidad de los significados de los términos observacionales. El empirismo lógico ha sido ampliamente modificado; los cambios que tuvieron lugar fueron de dos tipos: por una 151 parte se introdujeron nuevas ideas concernientes a la relación entre términos observacionales y términos teóricos; por otra parte los supuestos sobre el lenguaje observacional mismo fueron modificados; los primeros positivistas asumieron que los términos observacionales hacen referencia a impresiones subjetivas, sensaciones y percepciones de un ser sentiente; el fiscalismo sostuvo durante algún tiempo la idea de que una teoría científica debe basarse en experiencias, y que sus constituyentes últimos son sensaciones, impresiones y percepciones. Posteriormente se dio una explicación conductista de estas percepciones para hacerlas accesibles a la contrastación intersubjetiva; de acuerdo con Popper, debemos distinguir entre ciencia objetiva, por un lado y nuestro conocimiento por el otro; se concede que podemos llegar a ser conscientes de los hechos sólo mediante la observación, pero se niega que eso implique una interpretación de las sentencias observacionales en términos de experiencia, tanto si éstas se explican subjetivamente como si se consideran rasgos del comportamiento objetivo. La libertad de interpretación que admite la teoría pragmática, no existía en el primer positivismo; se pensaba que las sensaciones eran los objetos de observación. De acuerdo con esto podía determinarse por análisis lógico si un enunciado es o no es un enunciado de sense-datum y por tanto, parte del lenguaje de observación; por el contrario, la afirmación de que un determinado enunciado pertenece al lenguaje observacional implicaba una afirmación sobre el tipo de entidades descritas. Por consiguiente, la antología del dominio observacional era establecida con independencia de la teorización; uno delos hechos más sorprendentes 152 del desarrollo del empirismo contemporáneo es que la formulación tan bien articulada de la concepción pragmática de la observación no fue seguida a la vez, por una formulación igualmente articulada de una interpretación realista de las teorías científicas. La teoría pragmática fue mantenida durante algún tiempo pero prontamente fue combinada con el instrumentalismo o con el reduccionismo. La labor científica, tal como la asumen quienes mantienen la teoría a criticar, es la explicación y la predicción de los hechos singulares y regularidades conocidos con la ayuda de teorías más generales. La Explicación como Cuestión Lógica El discurso de la ciencia transita entre dos formas, la descripción y la explicación; la primera orientada a referir cómo ocurren los fenómenos, y la segunda, porqué o para qué suceden. La escuela empirista en su versión más radical, asumió como una imposibilidad la explicación de los hechos, conformándose con las descripciones; en este contexto, las determinaciones de los fenómenos, siendo no observables, no podían constituir parte del discurso científico. Otras posturas, por el contrario, objetaron dicha tesis, argumentando que la ciencia no podía contentarse con enunciados descriptivos y, por ende, la explicación se tornaba en necesidad si se quería comprender de manera cabal la naturaleza de los fenómenos. Hempel, como representante de la concepción heredada, es uno de los que más se ha ocupado de discernir qué era 153 una explicación científica y en qué circunstancia se producía: cualquier explicación que se considere científica, consta de dos partes, una que refiere a condiciones que se manifiestan antes del fenómeno que se ha de explicar, y otras, que expresan ciertas leyes generales; ambas clases de enunciados, formulados de manera completa y adecuada, explican el fenómeno que se estudia; así, la explicación se constituye del explanandum y el explanans. El primer tipo de enunciado es una oración que describe el fenómeno, más no el fenómeno mismo, y el segundo, refiere a la clase de aquellas oraciones que se aducen para dilucidar el fenómeno. Para una explicación sólida, ambos componentes deben satisfacer condiciones, tanto lógicas como empíricas; entre las condiciones lógicas se citan, el explanandum debe ser una consecuencia lógica del explanans. El explanans debe contener leyes generales exigidas realmente para la derivación del explanandum; y el explanans debe tener contenido empírico, es decir que debe ser posible de comprobarse mediante experimentos u observaciones. La condición empírica de adecuación señala que las oraciones que constituyen el explanans han de ser verdaderas. En cuanto a las condiciones lógicas señaladas: para que el explanandum sea una consecuencia lógica del explanans, debe ser deducible de la información contenida en este último. Las explicaciones nomológico-deductivas, a las que Hempel incluyó en el modelo de cobertura legal como explicaciones sine qua non de la ciencia, satisfacen estrictamente este requisito, no así las inductivas que brindan razones más débiles. 154 En lo que respecta a las leyes generales del explanans, éstas son necesarias, pues en virtud de ellas, las condiciones antecedentes incluidas en el explanans adquieren atingencia explicativa respecto del fenómeno explanandum. El requisito de contenido empírico surge de la necesidad de contrastabilidad, condición que posibilita la validación de los enunciados. La verdad de los enunciados del explanans es un requisito que podría considerarse obvio, aunque ello nunca puede ser establecido definitivamente. Hempel introduce una distinción entre explicaciones verdaderas y potenciales. Las últimas cumplen con todos los requisitos, salvo en lo que refiere a la verdad del explanans; el abandono de tal exigencia se compensa por la inclusión de otra condición que establece que el explanans debe confirmarse exhaustivamente en el momento de formular la explicación. De la caracterización acerca de lo qué es una explicación científica, surge con fuerza el término ley, pero ¿qué es una ley? Si bien su significado parece intuitivamente claro, no lo es en el intento de construir definiciones explícitas. Hempel afirma que el concepto de ley se aplica sólo a los enunciados verdaderos, lo que concuerda con la significación habitual tanto en la ciencia, como en la investigación metodológica; como dicho requisito adolece de ciertas dificultades, se agregan condiciones adicionales independientes del requisito fáctico de verdad. Goodman dice que una oración parece legal si posee todas las características de una ley general con la posible excepción de la verdad; de allí que toda ley sea una oración legal, pero no viceversa. Una oración legal incluye tanto enunciados analíticos generales como oraciones con contenido empírico; son universales y, a veces, condiciona155 les. Tal vez uno que los requisitos más discutibles sea el de universalidad, requisito que discurre entre leyes fundamentales y leyes derivadas. Hempel propone definir el concepto de ley respecto de un lenguaje formalizado, gobernado por un sistema bien determinado de reglas lógicas, en el cual todo término es primitivo o introducido por medio de una definición explícita en función de esos términos. En la sintaxis de dicho lenguaje modelo L se señalan los siguientes supuestos: L tiene la estructura sintáctica del cálculo funcional inferior, sin signo de identidad. Además de los signos de negación, disyunción, conjunción e implicación, y de los símbolos de cuantificadores universales y existenciales respecto de variables individuales, el vocabulario de L posee constantes individuales, variables individuales, y predicados de cualquier grado finito que se desee; éstos pueden incluir predicados de grado que expresan propiedades de individuos, y predicados de grado que expresen relaciones diádicas entre individuos. La caracterización precedente responde a lo que Hempel ha denominado modelo de cobertura legal. En dicho modelo coexisten diferentes clases de explicaciones, una de ellas, la explicación causal parece ser la más frecuente, al menos, en las ciencias fácticas naturales. Se concibe a la explicación causal como aquella cuyo explanans se halla constituido por leyes de naturaleza causal; no cualquier explicación nomológicodeductiva de un suceso individual ha de ser una explicación causal, pues existen otras leyes que si bien implican regularidades, no están determinadas por mecanismo causal. 156 Bunge, ya no en términos de explicación, sino en un sentido objetivo, no acepta que la causalidad sea la única forma de determinación del fenómeno, toda vez que existen otras clases de determinaciones, autodeterminación cuantitativa, interdependencia funcional, estructural, teleológica, dialéctica. Por su parte, Hempel adhiere a la idea tradicional de que la relación causal supone un orden temporal, y la imposibilidad de que causa y el efecto puedan permutarse. Las discusiones acerca de la causalidad han llevado a algunos filósofos de la ciencia a propiciar la idea de que la postura hempeliana al respecto es insatisfactoria; así, Popper intenta salirse de la cuestión, asimilando las explicaciones causales a las explicaciones nomológico-deductivas de sucesos individuales; resulta evidente que todo concepto de explicación causal seguirá en discusión, en tanto no se eluciden los aspectos fundamentales de la causalidad. A menudo, la explicación hace referencia a metas u objetivos, donde la finalidad dirige las acciones en ese sentido; dichas acciones no son propias del quehacer humano, sino que con cierta frecuencia se hacen presentes también al intentar una explicación sobre fenómenos biológicos. Las explicaciones de esta clase, denominadas teleológicas, no requieren que los fines invocados persigan propósitos conscientes, lo cual la hace aplicable no tan sólo a los sucesos sociales. Así, esta clase de explicación se invocaría para los siguientes grupos de fenómenos: conductas intencionales, comportamientos animales o vegetales dirigidos a un fin, fenómenos psicológicos cuyas funciones no persiguen objetivos conscientes, actividades grupales sin motivaciones cons- 157 cientes, acciones de órganos o partes de organismos, y funciones de artefactos. El término teleológico crea no pocas controversias dada su excesiva ambigüedad, por lo que conviene alguna precisión conceptual; habitualmente se reserva el término teleológico para designar a la conducta humana intencional, y teleológico-funcional, o simplemente funcional, para aquellos sistemas o conductas sin propósitos conscientes, dirigidas a un fin. Ambas clases de enunciados poseen expresiones como la función de..., o con el fin de..... Un enunciado funcional es, por ejemplo La función de la clorofila en las plantas verdes es producir la fotosíntesis, donde el ítem a explicar es la presencia de la clorofila, el sistema es el de las plantas verdes, y la función es la de producir fotosíntesis. Las explicaciones funcionales, muy utilizadas en el ámbito de la antropología, sirvieron para dar cuenta de ciertas acciones grupales o individuales cuya función manifiesta enmascaraba otra clase de función, a las que Merton denominó, función latente; otras veces, la explicación por función alude al comportamiento de sistemas biológicos o mecánicos autorregulados. Los filósofos de la concepción heredada consideraban que la única manera de otorgarle validez a las explicaciones teleológicas y funcionales, era reducirlas al modelo de cobertura legal. Hempel considera que las explicaciones teleológicas pueden ser subsumidas a las explicaciones nomológico-deductivas, tesis difícil de sostener; en cuanto a las explicaciones funcionales, el mismo autor admite que poseen un núcleo empírico y que su desarrollo refiere a leyes o correlaciones empíricas generales. El problema que se pre158 senta con esta clase de explicación es: ¿cuál es su estructura lógica? Si se intenta organizarla en el marco nomológico-deductivo, nos hallamos ante una falacia de la afirmación del consecuente; dicha dificultad puede salvarse si se considera a la estructura que cumple la función como condición necesaria, en vez de suficiente. Adoptar una postura como la precedente tampoco logra resolver la situación ya que uno de los principios del funcionalismo, el de equivalencias funcionales, dice explícitamente que ninguna parte, órgano, institución o estructura es irremplazable, sólo las funciones que cumple. La Explicación y la Comprensión como Cuestiones Compatibles La caracterización que hace Hempel de las explicaciones en la ciencia están centradas en su estructura lógica. La polémica acerca de las explicaciones teleológicas y funcionales se inscribe en un marco más amplio, cual es el de la discusión entre quienes sustentan el monismo metodológico y quienes, por el contrario, sustentan el pluralismo; algunos filósofos de la ciencia creen que no existe diferencias, o al menos no debiera existir, entre los métodos y esquemas de explicación propios de las ciencias duras y los de las ciencias sociales. En la posición opuesta se hallan quienes asumen que los fenómenos humanos no pueden asimilarse a los fenómenos naturales y, por ende, reclaman para sí una forma diferente de conceptualización de la realidad. Esta forma es la comprensión. El medio típico de las ciencias humanas es una clase especial de comprensión, equivalente a la explicación en las ciencias naturales. Comprender significa apre159 hender los aspectos psíquicos humanos en lo que refiere a sus dimensiones espirituales; comprender es una situación empática a través de la cual el sujeto puede llegar a imaginar cómo se vivencian determinadas situaciones o cómo se significan hechos donde el hombre es protagonista. Morín, no supone que la comprensión y la explicación pertenezcan a diferentes dominios, sino más bien que aluden a instancias metodológicas y procesos cognitivos distintos; concibe a la explicación como un proceso abstracto de demostraciones lógicamente efectuadas a partir de datos objetivos, en virtud de necesidades causales materiales o formales, y de una adecuación a estructuras o modelos. La comprensión se mueve en las esferas de lo concreto, lo analógico, la intuición global, lo subjetivo, por referencia a la explicación, que lo hace en las esferas de lo abstracto, lo lógico, lo analítico, lo objetivo. Para Schlanger, mientras que comprender es captar las significaciones existenciales de una situación o de un fenómeno, explicar es situar un objeto o un evento en relación con su origen o modo de producción, sus partes o componentes constitutivos, su constitución, su utilidad, su finalidad. Se pregunta Morín si el recurso o la finalidad es explicativo o comprensivo. El pensamiento científico clásico, de cual se hizo breve referencia, asoció la causa eficiente con la explicación científica y la causa final con la comprensión de las ciencias del espíritu. ¿Es lícita tal asociación? Morín afirma que, la causalidad finalitaria es rehabilitada científicamente con la idea de programa que, aún cuando prescribe el funcionamiento de las máquinas cibernéticas, sigue siendo una causalidad determinista de carácter físico; de la misma ma160 nera, la biología incorpora las metas y objetivos a sus procesos, de tal modo que la explicación como la comprensión puede concebir la finalidad, pero desde los programas y genes, una, y desde los sujetos, otra. Afirma Morín que no hay comprensión sin explicación. Las representaciones no pueden ser comprendidas sin antes haber sido organizada de manera coherente en virtud de principios que restablezcan la constancia de los objetos percibidos; así, a través de un dispositivo pre-explicativo, experimenta los procesos explicativos del espíritu que la estudia y analiza. La Explicación y la Praxis del Observador Bateson afirma que los seres humanos valoran tanto la descripción como la explicación, pero esta última no contiene ninguna información diferente que no estuviese ya en la descripción. Si esto es así, ¿qué aporta la explicación? Al parecer, la explicación ofrece una intelección adicional, agregada a la contenida en la descripción. Este componente tiene que ver con la combinación de los dos lenguajes operantes en la ciencia, el formal por una parte, y los enunciados empíricos por el otro; una descripción abarcaría todos los hechos de los fenómenos, pero no indicaría ninguna clase de conexión entre ellos que los tornara más comprensibles. Bateson vincula a la descripción con la explicación a través de una tautología. Las tautologías muestran conexiones entre proposiciones, conexiones que se suponen válidas, pero no contienen información alguna, y la explicación sólo contiene la información presente en la descripción. La explica161 ción consiste, entonces, en construir una tautología asegurándose la validez de sus nexos, de modo tal que parezca evidente en sí misma, lo cual es nunca satisfactorio; esta asociación de componentes formales con empíricos no es mera adición. No es adición, porque de la relación entre ambas nace un nuevo producto de índole multiplicativa o de fraccionamiento, cual es la explicación; a pesar de la aparente objetividad de los procesos explicativos, no debe dejarse de lado la postura del observador. Descartar la objetividad a ultranza, permite replantear las preguntas acerca del mundo. ¿Qué estoy tratando de descubrir? ¿Qué se supone que sé? La modalidad de búsqueda se torna así en el eje del proceso científico. Maturana da cuenta de las relaciones entre la objetividad y el observador, afirmando que a los miembros de la tradición greco-judeo-cristiana nos gusta explicar y formular preguntas que nos demandan respuestas, nos conformaremos sólo cuando encontremos algo que satisfaga nuestra pregunta. ¿Cuándo decimos que la pregunta ha sido explicada? Según este autor, se explica cuando a) se propone una reformulación de una situación particular de nuestra praxis del vivir con otros elementos de nuestra praxis del vivir; y b) nuestra reformulación es aceptada por el oyente como una reformulación de su praxis del vivir. Es el observador quien acepta o rechaza una afirmación como una reformulación de una situación particular de su praxis del vivir con elementos de otras situaciones de su praxis del vivir, y lo hace cuando satisface o no un criterio de aceptación explícito o implícito; si se satisface el criterio, la reformulación es aceptada y constituye una explicación, 162 por lo tanto, la emoción o el estado de ánimo del observador cambia de incertidumbre a certidumbre, y con ello deja de hacerse la pregunta. Aceptar esta forma de explicación requiere, implícitamente, aceptar también que se opera en el mismo dominio de praxis del vivir. Existen dos modos fundamentales que un observador puede adoptar en caso de una explicación, estas dos maneras determinan dos caminos explicativos, el de la objetividad trascendental y el de la objetividad constitutiva. En la primera, el observador acepta implícita o explícitamente que la existencia de las cosas son independientes de él; así, asume la presencia de alguna entidad a la que referirá en su argumento a los fines de validar, o dicho de otro modo, para aceptar una reformulación de la praxis del vivir como una explicación de ella. En este camino explicativo, se requiere un único dominio de explicación, un universo o una referencia trascendental como último recurso de validación; reduciendo así todos los aspectos de su praxis del vivir a ese esquema; la suposición por diferentes observadores de distintas clases de entidades que permitan validar, implica también distintos universos o dominios de explicaciones objetivas. La adopción de esta vía supone un acceso privilegiado a la realidad objetiva por parte de quien explica, aunque, vale aclarar, que el observador no se hace cargo de las divergencias entre sus explicaciones y las ajenas, pues el argumento que las valida no depende de él. En la objetividad constitutiva se asume que el observador es un ser viviente y que por lo tanto sus habilidades 163 cognitivas son fenómenos biológicos teñidos de vivencias particulares, que no siempre permiten discriminar percepción de ilusión. Así, un observador no tiene base operacional para hacer afirmaciones sobre los objetos, y ni siquiera una comunidad de observadores está en mejor posición. La convención no valida operacionalmente aquello que ninguno de ellos está en condiciones de afirmar individualmente; en este camino la existencia es constituida con lo que observador hace, con sus operaciones de distinción, acciones éstas producidas en el dominio de la praxis del vivir. Aquí se asume que el observador sabe que no puede referir a objetos que existen como entidades independientes, como argumentos para fundar su explicación. La constitución de existencia por parte del observador tiene consecuencias fundamentales: a) cada configuración de operaciones de distinciones que ejecuta, especifica un dominio de la praxis; b) que cada dominio de la realidad constituye un dominio de explicaciones; y c) que aun cuando todos los dominios de la realidad son diferentes, son todos igualmente legítimos como dominios de existencia, porque surgen de la misma manera al ser generados a través de la aplicación de operaciones de distinción, en la praxis del vivir; las explicaciones no son reduccionistas ni trascendentales al no ser subsumidas a verdades últimas y universales; por tanto, el desacuerdo entre observadores no implica diferentes explicaciones para una misma situación, sino distintos dominios de la realidad y la presencia de un multiverso por oposición a un universo. Los dos caminos de la objetividad implican dos ontologías o formas de interpretación, una, la ontología trascendental subyacente en la objetividad 164 universal, y otra, la ontología constitutiva en la objetividad multiversal. Dado que cada dominio define sus propios criterios de validación, existen tantos dominios de explicación como reformulaciones de la praxis. Cada dominio de explicación especifica un dominio de acciones legítimas en la praxis del vivir, y un dominio cognitivo; todos los que hacen uso de un mismo criterio de validación operan en dominios cognitivos que interceptan en aquellos aspectos de la praxis del vivir que le son propios. Para Maturana, a los científicos les gusta explicar la praxis del vivir, y la pasión de explicarlo es lo que sostiene la actividad científica como tal. La pregunta aquí es, qué es una reformulación aceptable; la respuesta es que lo será en tanto describa un mecanismo que produzca una situación o fenómeno como consecuencia de su operación; como una de las cuatro condiciones operacionales que el observador puede satisfacer conjuntamente en su praxis del vivir. Esas condiciones son: a) Especificación del fenómeno que ha de ser explicado b) Proposición en la praxis del vivir del observador de un mecanismo que, como consecuencia de su operación, produzca en él, la experiencia del fenómeno por explicar c)Deducción desde el mecanismo propuesto, de otros fenómenos, así como de las operaciones que el observador debe hacer en su praxis para experimentarlo 165 d)Experimentación por parte del observador de aquellos fenómenos deducidos, como asimismo las operaciones implicadas en dicho proceso A estas cuatro condiciones operacionales Maturana las concibe como criterios de validación de la explicación científica, criterios que surgen de la praxis científica misma; si es que la ciencia surge como un dominio explicativo a través de la aplicación de criterios de validación, ésta es válida solamente en la comunidad científica. Así, la ciencia es constitutivamente un dominio de reformulaciones de la praxis del vivir con elementos de la praxis del vivir en una comunidad de observadores estándares, y como tal es un dominio consensual de coordinación de acciones entre los miembros de tal comunidad; el criterio da validación no es aplicable tan sólo a la explicación producida, sino al mecanismo que genera el fenómeno, aunque ambos pertenecen a dominios fenoménicos diferentes no interceptados; una explicación científica no consiste en una reducción fenoménica. Las operaciones constituyentes de la explicación científica en nada se diferencian de las utilizadas en la vida cotidiana; de tal manera entonces lo que diferencia, en un sentido operacional estricto, a un observador común de un científico, es la orientación emocional de este último a hacer uso de explicaciones en un dominio particular del saber, el quehacer científico. La ciencia, en tanto estructura, no deviene de factores externos a ella, sino que está determinada por agente endógeno. La ciencia como estructura que es, se constituye de explicaciones que suponen proposiciones referentes al 166 mecanismo que genera el fenómeno; lo que implica que el observador puede proponer explicaciones sólo en esos dominios de coherencias operacionales de su praxis del vivir; aunque la praxis científica supone la aplicación de criterios de validación, la mayoría de los científicos no son conscientes de tales operaciones, pues ésta corresponde al dominio de la praxis, y no de la reflexión; algo parecido ocurre con los filósofos, quienes no entienden lo que acontece en la ciencia, pues para ellos ésta se comprende en el dominio de la reflexión, y no de la praxis. Como resultado de ello, existe una marcada tendencia a aceptar las explicaciones científicas como reduccionistas, y a no ver el carácter generativo, pues creen ver en ellas, referencias a una realidad objetiva e independiente del observador. El supuesto señalado no resuelve los fenómenos psíquicos y espirituales, precisamente debido a la naturaleza mecánica de las explicaciones y a su carácter reduccionista; dicho carácter mecanicista especifica que para explicar fenómenos psíquicos y espirituales como fenómenos biológicos, debe proponerse un mecanismo generativo que se le aplique a él como sistema viviente y que dé origen a tal fenómeno como una consecuencia de su operación. Un mecanismo de esa naturaleza no negaría su carácter experiencial peculiar, porque constituiría un dominio fenoménico que no se mezcla con el dominio fenoménico del mecanismo generativo. El fenómeno por explicar y el mecanismo generativo, son propuestos por el observador en el fluir de su praxis del vivir. En la vida cotidiana, el científico opera con dicha praxis, a priori, aunque después elabore justificaciones ra167 cionales para ellas. Las explicaciones científicas no explican un mundo independiente sino la experiencia del observador, y ésta es el mundo en que vive. El observador surge en la praxis del vivir en el lenguaje, y él se encuentra en sí mismo en la experiencia de ocurrir como un hecho, anterior a cualquier reflexión o explicación. El observador forma parte de la experiencia observacional como condición inicial constitutiva; todas las experiencias acontecen de hecho y como tales no pueden ser discutidas; otra cosa son las explicaciones, pues ocurren en la praxis del vivir del observador, y ellas son también experiencias, aunque de segundo orden, dado que ellas son reflexiones del observador en su praxis del vivir en el lenguaje acerca de su praxis del vivir. Por su parte, Klimovsky, ubica la perspectiva del observador, en la base empírica epistemológica y metodológica, entendiéndose la primera como aquella que reinterpreta la experiencia cotidiana con el auxilio del lenguaje ordinario, y supone una cierta base conceptual. La base empírica metodológica va más allá, pues implica la aceptación de las teorías que dan cuenta del funcionamiento de los instrumentos de observación, de tal manera que cada vez que se haga uso de ellos, se estará aplicando principios y leyes. La explicación como producto lógico no se pregunta por la génesis de las leyes, sino que las valida por referencia a otras leyes más generales, proceso que lleva a una regresión al infinito. La explicación es válida por sus mecanismos formales, pero su verdad acontece en los hechos, la primera como requisito lógico de adecuación, y la segunda, como requisito empírico. La explicación como producto lógico no se ocupa del papel que cumple el sujeto en el acto de 168 explicar, o en todo caso, éste es un reservorio de conocimiento cuyo origen no está en cuestión. El sujeto carece de historia, no es protagónico ni gestor de su propio quehacer, o sea, es un producto de las contingencias externas, o bien, todo en él está dado y predeterminado. La explicación sin sujeto que explica pasa a ser un enunciado sin hablante; un enunciado puesto a andar que adquiere dimensión propia independientemente de su fuente. Si bien el conocimiento científico no pertenece a nadie en particular, sino a la sociedad toda, no es menos cierto que sólo puede entenderse el papel de la ciencia en un momento histórico determinado por referencia al autor de las explicaciones y su contexto. La explicación en este marco carece de toda subjetividad constituyéndose en proposiciones desprovistas de toda axiología. Hempel, como heredero del positivismo, se cuida de no confundir leyes en sentido lingüístico con leyes en sentido ontológico al señalar que la explicación se constituye de oraciones respecto del fenómeno, no al fenómeno mismo. La incorporación de la praxis a la explicación le aporta un ingrediente de subjetividad, ingrediente que se asume ya presente en la comprensión; si la comprensión precede a la explicación, a través de lo holístico, lo subjetivo, lo intuitivo, lo concreto, lo analógico; es de esperar que la explicación que de allí surja, supere esos atributos y los ponga en un nivel más elevado. Desde una perspectiva histórico-genética, una explicación transita de lo subjetivo a lo objetivo, de lo concreto a la abstracto, de lo holístico a lo analítico, y en ese devenir se descentra de su yo subjetivo en búsqueda de una objetividad social. 169 La praxis en la explicación le quita a ésta la pesada carga de la lógica como quintaesencia del saber científico y la transforma en enunciados con validez, sólo en ciertos dominios; ya no hay una única lógica, sino muchas lógicas en diferentes dominios de realidad. Cada realidad es un mundo construido por el sujeto en su praxis, replicada una y otra vez en cada acto de conocimiento; así, el sujeto se construye en la praxis, y ella se encarna en el sujeto de ciencia. La praxis social es causa de la praxis del sujeto, y ésta a su vez, es determinante de la praxis social. Praxis del sujeto y praxis social se retroalimentan dinámicamente al interior del quehacer científico, configurando modos y relaciones que explícita o implícitamente estarán presentes en la explicación. ¿Qué trae como consecuencia la aceptación de que existen muchos dominios de realidad? ¿Cómo se posiciona la ciencia ante esta contingencia? ¿Cuál es el status del saber científico en este contexto? Asumir que no existe un único dominio de realidad implica aceptar que la ciencia es una creencia más, y que como tal habrá de someterse a sus prescripciones, pero que éstas sólo son validas para ella y no para otros dominios; esto aleja a la ciencia de la concepción de conocimiento científico como saber último, pero la dota de la virtud de saberse parte de un mundo operante, el mundo del sujeto, el mundo de la praxis. Abducción: La Inferencia del Descubrimiento La abducción es descrita por primea vez por Aristóteles en los Primeros Analíticos, quien considera como la inferencia que se realiza cuando es evidente que el primer térmi170 no se predica del término medio; pero no es evidente que el término medio se predique del último término, aunque sea más o menos probable que la conclusión. A fines del siglo XIX, Peirce cree ver en sus afirmaciones la descripción de dos clases de inferencia, la hipótesis y la abducción, concibiendo a la primera como la identificación de una regla ya codificada en relación con un caso; y a la segunda, como la adopción provisional de una inferencia explicativa con el objeto de someterla a contrastación, aunque a posteriori, ambos se funden en un único concepto de abducción. En la tradición epistemológica, tanto la deducción como la inducción fueron las únicas inferencias a la cuales se le ha prestado atención; la primera ligada a las escuelas racionalistas, y la segunda, a las empiristas. Desde los trabajos de Aristóteles, la abducción queda olvidada hasta su redescubrimiento por parte de Peirce, quien la liga al acto del descubrimiento y producción de explicaciones científicas; es en este marco donde la abducción adquiere un verdadero status epistemológico, al otorgar fundamento a todos los procesos heurísticos, independientemente de su ámbito de aplicación; la pragmática va a concebir al conocimiento como una creencia que se irá fijando a través de métodos, de los cuales, el método científico, se construirá sobre la base de los anteriores pero sin suprimir sus procesos de génesis; la tarea principal del lógico es la de clasificar argumentos; pues toda comprobación depende claramente de una clasificación. La premisa mayor formula la regla; la menor, el caso sometido a la regla; la conclusión aplica la regla al caso y establece el resultado. Toda deducción es básicamente la aplicación de reglas generales a casos particulares. 171 En la inducción, el caso es el punto de partida, y la conclusión es la regla, la que se obtiene desde la observación de un resultado; si en presencia de ciertos elementos observables de un fenómeno no manifiesto en toda su dimensión, se concluye que éstos pertenecen a una clase particular de objetos, se estará en presencia de otra clase de inferencia a la que Peirce denominó abducción o hipótesis, la que se presenta como la inferencia de un caso a partir de la regla y el resultado. En la inducción se infiere que, si los enunciados que describen lo observado en el caso es verdadero, entonces, la misma cosa es verdad en la clase entera; o bien, si se observa algo en cierta proporción, es de esperar que esa proporción de casos también esté presente en el universo. En la hipótesis, por el contrario, se supone que el caso inferido corresponde a una cierta regla; si bien la abducción se presenta como un argumento débil, no es menos cierto que, desde una perspectiva heurística, opera como un esquema propicio para dar cuenta de situaciones o hechos insuficientemente explicados; la adopción de una cierta hipótesis no implica sólo la explicación de un hecho sino, además, sostener que la hipótesis contraria, llevará a resultados incompatibles con lo que se pretende explicar; en la inducción, cuando se acepta la regla, no significa sólo aceptar que las distribuciones halladas en la muestra son representativas de la realidad, sino que una regla diferente se habría seguido probablemente de muestras diferentes de las obtenidas. En la abducción, una hipótesis es la subsunción de un caso bajo una clase; la negación de esa subsunción es admitir la subsunción bajo otra clase. En la inducción, negar una regla es aceptar otra regla contradictoria con la primera. 172 En Peirce, no puede advertirse más que intuitivamente, en qué consisten la regla, el resultado y el caso. La regla no alude a leyes empíricas sino a hipótesis explicativas, hipótesis que se asumen como conjeturas verosímiles en función de elementos indiciales que, directa o indirectamente, refieren al fenómeno. Cuál es la ley que debe invocarse para explicar el hecho no resulta del todo fácil. Thagard supone que existen tres casos de abducción a las que él denomina hipercodificada, hipocodificada, y creativa. En la primera, existe algún o algunos elementos indiciales que refieren a una única regla; en la segunda, dichos elementos son equívocos y, por ende, pueden evocar diferentes reglas. La abducción creativa es aquella cuyas señales o referentes del fenómeno no denotan ninguna regla conocida. Samaja, cree ver en esta última categoría de la clasificación de Ecco, un caso donde la regla se produce por analogía; la abducción es tan útil para descubrir hechos particulares, como para descubrir verdaderas leyes científicas. En la abducción, el resultado, se constituye de una serie de elementos que hacen referencia al caso; dichos elementos configuran lo que podría denominarse, los rastros del fenómeno, aquello que ha quedado como consecuencia o secuelas del caso ya transcurrido, o como señales del caso que está ocurriendo; dichas señales siempre son fragmentarias, debido a que el caso ya ha sucedido o está sucediendo. El caso abductivo, a diferencia del caso de la deducción o la inducción, permanece oculto, como algo que debe ser develado. El caso, ya pasado o presente, pero críptico, sólo se manifiesta a través de signos observables, el resultado; la conclusión de la abducción es el caso; un caso que, resume 173 en sí las propiedades del universal; un caso que expresa configuraciones, vínculos entre variables, modos de funcionamiento. En la inferencia de hipótesis, los caracteres no son susceptibles de enumeración como los objetos, a la vez que, éstos se insertan en categorías; todo lo cual la convierte en temeraria, a menos que se someta a las siguientes reglas: a) La hipótesis ha de presentarse como una conjetura sujeta a validación empírica b) Deberán ponerse a prueba, todas y cada una de las predicciones que se produzcan en función de esa hipótesis c) Se tendrán en cuenta, tanto los éxitos como los fracasos, a fin de su evaluación Peirce, en su examen de las diferencias entre inducción y abducción, agrega otros elementos divergentes en ambas inferencias, el primero es un razonamiento que clasifica, y va de lo particular a lo general; el segundo, explica, y transita del efecto a la causa. La inducción parte de lo observable, aunque esto se halle denotado por la teoría, en tanto que la abducción refiere a algo que no es posible que sea directamente observado; la inducción alude a la similitud entre lo observado, con lo que habrá de observarse a futuro; la abducción relaciona lo observable con algo distinto de ello, algo que posiblemente nunca será observado. Si bien el acto de observar está abonado por presupuestos metafísicos, mas aún el proceso de abducir, que conecta dos planos y los liga por nexos causales, el del efecto que se muestra en la observación, y el de la causa, que permanece oculta; así, se concibe a la inferencia de hipótesis como el 174 componente emotivo del pensamiento, y la inducción, como el habitual. La abducción transita del efecto a la causa, pero: ¿es ésta una condición sine qua non de dicha inferencia?; se concibe a la abducción como una inferencia que transcurre desde los consecuentes a los antecedentes, pero no necesariamente éstos deben asimilarse al efecto y a la causa. Samaja cree que las hipótesis no se infieren inductivamente de la observación y la sucesiva adición de observaciones particulares, sino mediante el descubrimiento de un patrón observable; este proceder permitiría reducir el espacio de búsqueda en términos realizables, reducción que no es posible por vía inductiva, y que implica evitar la explosión combinatoria, o combinación de todas los valores de cada variable con todos y cada uno de los valores de las demás variables. La abducción es la única operación lógica que introduce alguna idea nueva, pues la deducción sólo deriva conocimiento de aquel ya validado, y la inducción sólo se limita a comprobar; cuando Samaja asimila la abducción con la sustancia quiere mostrar que los rasgos, o el resultado como lo denomina Peirce, son los elementos sustanciales de la cosa y no meros accidentes. Es importante señalar que el ejercicio más complejo está en discriminar lo sustancial de lo accidental. Samaja identifica a la regla con la especie y al caso con el espécimen, es decir, la ocurrencia de la regla en un particular. El espécimen se caracteriza por mostrar una cierta configuración que es común a los demás miembros de la especie, y en cuya reproducción la especie existe como totalidad relacional. Klimovsky al referirse a la abducción lo hace considerándola como una inferencia que posibilita una clase de 175 explicación, la explicación potencial; esta es una explicación provisoria dado que no hay manera de contar con los datos que permitan construirla. Cuando los hechos dan cuenta de lo que se ha explicado potencialmente, la explicación potencial deja de ser tal para convertirse en una explicación verdadera. Desde la perspectiva peirceana, la deducción sólo es posible cuando el caso está plenamente identificado, lo que significa que se conocen los antecedentes y, por lo tanto, se puede predecir el consecuente. Hempel en su exposición sobre el modelo nomológico-deductivo, señala explícitamente que el explanans de la explicación se constituye de leyes. 176 Capítulo 4 LAS BASES MATERIALES DE LAS CAPACIDADES EPISTÉMICAS La Transición de la Epistemología Pura, Analítica, a la Epistemología Sintética Las concepciones de la epistemología tradicional, sobre todo las del racionalismo clásico y las del empirismo clásico y moderno, fracasan en su proyecto de una fundamentación segura y definitiva de nuestro conocimiento. Los ideales de la justificación y de la certidumbre del conocimiento humano, predominantes en la epistemología tradicional, no puede afirmarse que se hayan cumplido en sus últimas consecuencias. La última fase de este fracaso se manifiesta claramente en el empirismo del siglo XX, pues la fundamentación lógico-empirista del conocimiento en el proyecto del Círculo de Viena, con el mantenimiento de la justificación completa y de la certeza cognoscitiva, fracasa especialmente por razón del problema de la inducción, que ya Hume había señalado siglos antes. 177 En efecto, el problema reside en que no se puede justificar por razones lógicas la inducción desde una cantidad finita de datos empíricos a una proposición universal que sea válida para una cantidad infinita de casos; en el contexto del empirismo lógico, esta cuestión se manifiesta en la insuficiente certeza inductiva de las proposiciones universales con relevancia empírica, de ahí que el inductivismo a base de datos empíricos y relaciones lógicas no culmine su cometido fundacional. No es posible, mediante tal método inductivo, llegar a una descripción científico-natural del mundo; así, lo que denominamos leyes científico-naturales son proposiciones universales válidas para una cantidad infinita de instancias empíricas, pero dichas proposiciones no pueden reconstruirse dentro del marco del empirismo lógico. La corrección oportuna que se deriva de este problema, el cambio del inductivismo al deductivismo, se realiza con el falibilismo de Popper. Este acepta los datos empíricos como instancias de control, pero abandona el ideal de certidumbre para nuestro conocimiento, reemplazándose el ideal tradicional de la justificación por la comprobación indirecta a través de la experiencia. Con este cambio de estrategia desde el inductivismo puro, empirista y radical, al procedimiento hipotético-deductivo de las ciencias empíricas, se hizo manifiesto que la búsqueda de un conocimiento seguro y una descripción igualmente segura de la naturaleza constituía una meta sin esperanza, ya que una descripción efectiva de la naturaleza y un conocimiento multiforme del mundo aparecían como algo hipotético por principio. 178 Además, la comprobación falibilista indirecta, que llegaba a la conclusión de que una hipótesis individual era por el momento empíricamente adecuada, originaba problemas; si se toma la tesis de Duhem y Quine, según la cual es siempre un contexto de hipótesis empíricas el que se enfrenta a sus instancias de control, resulta que no se trata de hipótesis individuales las que cuentan, sino que siempre se ha de hacer referencia a un conjunto de hipótesis, y, en último término, a la totalidad de la ciencia. En el caso de inconsistencias entre las predicciones teóricas y los datos empíricos no sería posible identificar de manera unívoca la hipótesis o teoría que fuera la causa de la inconsistencia. Esta dificultad trajo como consecuencia otra modificación de la fundamentación empirista de nuestro conocimiento, la cual se desarrolló en el marco de la epistemología holista de Quine. En principio preserva el contexto empirista dado que no hay otra alternativa, o sea, toma los datos empíricos como instancia de control respecto de las hipótesis de la ciencia, pero duda de que la comprobación aislada de las hipótesis empíricas pueda llevarse a buen puerto, y reemplaza esta comprobación aislada por un contexto global y holista de las hipótesis empíricas; no existe una línea clara de demarcación entre la filosofía y las ciencias empíricas. La ciencia, se enfrentaría con la totalidad de los datos empíricos que forman su instancia de control. Si se mantiene la posición acerca de la relación entre ciencia y datos empíricos, y se quiere evitar al mismo tiempo una posición de escepticismo respecto de nuestro conocimiento, será preciso asumir algunas consecuencias para la orientación general de la epistemología. Quine ofrece una 179 visión en la que la adquisición de conocimiento, y sobre todo su justificación, se realiza como un proceso dentro de un contexto holista que incluye todas las hipótesis empíricas; esto apunta a la posibilidad de una apertura de la epistemología pura, analítica, hacia la integración en esta de argumentos y resultados procedentes de las ciencias empíricas, lo cual quiere decir que propondría la integración de elementos científico-empíricos al menos en el campo de la epistemología descriptiva. En el marco de una concepción sintética de la epistemología, tal integración es necesaria; si los componentes filosóficos, lógicos, y aquellos que tienen su origen en las ciencias empíricas sólo son gradaciones dentro de un contexto holista y total de nuestra concepción de la naturaleza y de la realidad, no es posible trazar una línea de demarcación entre las modalidades de argumentación analítica y de argumentación sintética. En este caso, la epistemología no sería una metadisciplina filosófica que tuviera una prioridad lógica ante las ciencias empíricas y naturales, pues la evaluación modificada de la relación entre epistemología y ciencias empíricas, que estamos refiriendo, incluye de una parte la imposibilidad de una fundamentación epistemológica segura, y de otra parte la imposibilidad de una demarcación entre instancias de carácter analítico-filosófico y de carácter científico-empírico. Esto no significa que no existan diferencias y cierta graduación y orden que han de ser subrayados; así, habría que conservar la prioridad lógica de los argumentos analíticos en el contexto sintético; y si surgieran dificultades para la compatibilidad entre los componentes analíticos y sintéticos, habría que re180 visar las implicaciones problemáticas derivadas de los resultados de las ciencias empíricas, no abandonando sin motivos componentes analíticos de cuya consistencia se esté convencido por razones intrínsecas o por su fecundidad histórica ya mostrada. Exigencias Analíticas y Conceptuales del Procedimiento Sintético. Según la teoría de la correspondencia, la verdad de una proposición consiste en la concordancia entre el contenido de la misma y el hecho objetivo al que se refiere la proposición; tal concepto adolece de dificultades que hasta ahora no han encontrado una solución. Estas dificultades sugieren que es preciso reemplazar las tesis particulares de las diferentes concepciones realistas referidas a esta teoría por concepciones menos exigentes. Putnam muestra la inconsistencia del concepto de verdad mantenido por la teoría de la correspondencia; una teoría ideal que se halle de acuerdo con todos los datos empíricos no tiene por qué ser una teoría verdadera, si se tiene en cuenta un concepto metafísico de realidad y la verdad como correspondencia con esta realidad; tal concepto metafísico es el concepto externalista de una realidad definida, objetiva, sin ninguna relación necesaria a ningún contexto de teorías empíricas. A pesar de las dificultades del concepto de verdad, existen argumentos a favor de los componentes ontológicos básicos del realismo; uno de los más importantes de estos argumentos se refiere a las coincidencias entre elementos 181 que pertenecen a diferentes contextos de hipótesis y teorías, pudiéndose concebir tales coincidencias como una indicación de la existencia de invariantes ópticos. Los argumentos que limitan el realismo sugieren un campo posible para una concepción epistemológica aceptable; uno de los representantes más consistentes de este campo sea el llamado realismo interno; los atributos y estructuras de la realidad existen, pero no de una manera unívoca, sino con relación a un contexto teórico de la descripción cognoscitiva; esto significa que existen internamente, o internalistamente; así, los atributos y estructuras que la realidad posee son dependientes del lenguaje y de la teoría en que se describe esa realidad. La imposibilidad de una asignación de estructuras, libre de elementos conceptuales, no implica que los registros conceptuales de aspectos de la realidad no sean objetivos, pues lo son, pero solamente con relación a una correspondiente base conceptual como punto de partida epistémico; no serían absolutos ni independientes, en sentido externalista, del sistema conceptual; desde el punto de vista del realismo interno el mundo tendría una multitud de estructuras posibles que se manifestarían en el contexto de los diferentes sistemas de descripción, los cuales no serían equivalentes. En definitiva, sólo cuando se elige una perspectiva, una teoría, un lenguaje o cualquiera otra base conceptual, se manifestaría una estructura de la realidad; todo esto es relevante si se trata de ampliar la epistemología en dirección a una concepción sintética, pues las concepciones externalistas no serían aceptables dentro de un proyecto que trata de integrar componentes analíticos y científico-empíricos de manera coherente, 182 ya que serían incompatibles con las exigencias analíticas del procedimiento sintético. Las argumentaciones que integran elementos de las ciencias empíricas en la epistemología, no tienen la finalidad de una justificación definitiva; estos elementos científico-empíricos sirven, en una epistemología sintética, como instancias adicionales en las que se puede comprobar la consistencia de las concepciones epistemológicas, o sea, la consistencia de posibles soluciones para los problemas de la epistemología; de la misma forma que en un discurso analítico, la consistencia lógica y conceptual de una concepción epistemológica es un punto de capital importancia. La integración sintética de elementos procedentes de las ciencias naturales ofrece la posibilidad de comprobar la compatibilidad de concepciones epistemológicas en un contexto más amplio que abarca también componentes científicos; los elementos analíticos y los derivados de las ciencias empíricas habrán de mostrar necesariamente dicha compatibilidad. Por eso, las consideraciones sintéticas acerca de la consistencia contextual de una concepción epistemológica, de una solución posible, han de tomar en cuenta las exigencias analíticas que provienen de la epistemología pura. Desde una perspectiva analítica la epistemología sintética podría parecer una estratagema circular de una concepción puramente descriptiva y naturalista de la epistemología, pero adquiere su justo sentido como comienzo de una serie de instancias para la comprobación contextual de la consistencia a fin de proceder a un enlace entre la epistemología y las ciencias naturales. Estas instancias se llevan a cabo en un contexto al que pertenecen estructuras argumentativas 183 que poseen un origen científico-natural y componentes de origen analítico. En el transcurso de la comprobación contextual, las concepciones epistemológicas y las posibles soluciones a las cuestiones que se planteen pasan ciertamente por un desarrollo dinámico. La serie de comprobaciones contextuales constituye un proceso discursivo donde se aprecia la modificación sucesiva de las concepciones epistemológicas y de las posibles soluciones; este proceso se realiza según un esquema alternante: en primer lugar, la consistencia lógica y conceptual de los componentes analíticos, y, en segundo término, de su compatibilidad con el contexto de las ciencias empíricas. La dinámica iterativa y recursiva en que se hallan inmersas las estructuras de argumentación durante la comprobación de la consistencia contextual no reemplaza en ningún caso la discusión analítica en la epistemología, sino que sirve para completar esta discusión analítica con elementos argumentativos de procedencia sintética; el objetivo del procedimiento sintético no es la justificación o fundamentación del conocimiento, sino que uno de sus objetivos centrales es el establecimiento de una vía que sirva para una integración consistente, procesual y dinámica, del desarrollo temporal de las concepciones epistemológicas; sus posibles soluciones a problemas planteados se originarán recíprocamente en este proceso; los objetivos son, en primer lugar, su integración en la estructura argumentativa reiterada de la consistencia lógica y analítica, y, en segundo lugar, su integración en la estructura de un proceso iterativo de la comprobación contextual y sintética. 184 Lo que se produce en el paso de una epistemología pura y tradicional a una epistemología sintética, que incluye la figura discursiva de la comprobación de la consistencia contextual y su correspondiente dinámica iterativa, es, sobre todo, la transición desde una perspectiva estática de la epistemología a una perspectiva dinámica del desarrollo de sus concepciones. Se puede objetar, que este proceso iterativo no tiene por qué terminar en una convergencia, que no ha de aparecer sucesivamente soluciones respecto de las cuestiones fundamentales de la epistemología. Pero no es menos cierto que es imposible de evitar, incluso en el campo de epistemologías más restrictivas: así, en la epistemología pura no se dispone de otros métodos más aceptables que obvien la cuestión planteada; la epistemología pura, en cuanto al contenido, y por razón de sus métodos, tiene limitaciones que pueden superarse dentro de la concepción sintética. Las Neurociencias y la Neuroepistemología Durante las últimas décadas la neurofisiología empírica ha logrado revelar mecanismos de una modificación adaptativa que estr ucturan durante el desarrollo ontogenético individual las áreas cerebrales que son competentes para el análisis sensorial. La estructuración resultante de la red neuronal se realiza mediante una adaptación sucesiva; si se tiene presente la importancia de estos mecanismos para las funciones cerebrales realizadas se conforma una perspectiva que difiere en ciertos puntos esenciales de la perspectiva de la epistemología evolutiva. 185 Pues no solamente es la evolución filogenética de una especie sino también el desarrollo ontogenético de un individuo situado en un ambiente específico, lo que forma el aparato orgánico y cerebral que lleva a cabo el conocimiento de este individuo, con lo que el desarrollo ontogenético individual se torna decisivo para la diferenciación funcional de su aparato epistémico. La estructuración adaptativa realizada durante la ontogénesis tiene relevancia sobre todo para las áreas corticales del análisis sensorial. La base operacional de esta estructuración adaptativa es la cooperación de un algoritmo selectivo de la modificación sináptica con un principio de coherencia de las actividades neuronales; este algoritmo, que se conoce también como el Principio de Hebb, es el responsable de la aptitud de las conexiones sinápticas para modificarse dinámicamente. Las neuronas, que obedecen al Principio de Hebb, se encuentran en todas las áreas funcionales del cerebro; tales conexiones sinápticas de Hebb disponen de la capacidad de modificar su fuerza conectiva según la actividad en la que participan y conforme a la sincronía de esta actividad; por ejemplo, el algoritmo selectivo es indispensable en el desarrollo de la visión estereoscópica durante la primera fase de la adaptación del sistema visual; dentro de la estructura de las conexiones neuronales se refuerzan estos conductos de actividad neuronal en los canales introductores del sentido visual, que con diferente origen lateral se corresponden. La correspondencia de los dos conductos que vienen de diferentes ojos significa que se refieren, a pesar de su distinto origen lateral, al mismo punto común del campo visual. 186 La estructuración adaptativa resultante de la modificación dinámica de las conexiones sinápticas se muestra operacionalmente adecuada y también eficiente, a causa de la cooperación entre este algoritmo selectivo y el principio de coherencia de las actividades neuronales; este principio se manifiesta en el hecho de que las neuronas siempre funcionan como detectores de coherencia y correlaciones; así, la generación activa de impulsos neuronales depende del potencial actual de la membrana neural: si este potencial se halla por encima de cierto valor, la neurona produce un impulso; si se encuentra por debajo de este valor específico, no ocurre nada; son solamente los impulsos simultáneos los que tienen relevancia para la actividad neuronal, y el sistema trata impulsos simultáneos que convergen en la misma neurona común operativamente como acontecimientos correlativos. El principio de coherencia de las actividades neuronales y el algoritmo selectivo de la modificación sináptica no solamente constituyen los componentes operacionales básicos de la estructuración adaptativa de las áreas corticales que realizan el análisis sensorial durante la ontogénesis, sino que son igualmente importantes para la realización y el mantenimiento relacional de representaciones mentales fundadas en la estructura y actividad neuronales. La dinámica neuronal, que es la base material del proceso de la representación mental flexible, posee dos componentes estructurales: primero, la estructura de las conexiones neuronales, y, segundo, la estructura de los impulsos neuronales. La estructura espacial de las conexiones entre las diferentes neuronas cooperantes constituye el sustrato material 187 de la actividad neuronal, y dispone de la capacidad de modificarse durante intervalos temporales extensos conforme a su incorporación y coordinación operativa en la actividad neuronal; y el algoritmo selectivo de la modificación sináptica es el responsable de la determinación específica de la estructura de las conexiones neuronales. La estructura de impulsos neuronales se puede describir como sigue: la actividad que se produce dentro de la estructura de conexiones neuronales en un momento específico es el resultado de la dinámica de la estructura de impulsos eléctricos, la cual es compleja y está distribuida espacialmente, siendo uno de sus determinantes más importantes el principio de coherencia de las actividades neuronales; así, se puede concebir la estructura de conexiones neuronales como el código espacial del cerebro; su dinámica se despliega durante intervalos temporales mucho más largos que el código temporal de las estructuras de impulsos y actividades neuronales. La realización del código espacial de estructuras neuronales depende, por un lado, de las determinaciones filogenéticas heredadas, y, por otro lado, de todas las experiencias en las que el individuo emplea su cerebro como instrumento que garantiza su supervivencia; esto significa que las estructuras neuronales dependen del transcurso total de la estructuración adaptativa del cerebro que se lleva a cabo en el desarrollo ontogenético; la determinación filogenética de las conexiones neuronales es menos importante que el proceso adaptativo ontogenético. Los resultados de la filogenia incluyen especialmente la arquitectura gruesa del cerebro y las estructuras básicas de los canales de análisis sensorial, y toda la estructura espacial 188 de las conexiones neuronales resultan de los mecanismos adaptativos; estos, durante la primera fase de la ontogenia, producen la interacción entre impulsos de origen sensorial, y la existente estructura gruesa de las conexiones neuronales; solamente tales mecanismos adaptativos posibilitan la realización de las complicadas funciones del cerebro adulto, que son las que tienen relevancia para los problemas de la epistemología; un papel importante, tanto para el cerebro en fase de desarrollo como para el cerebro adulto, es el de todas las experiencias sensoriales ya completadas, en la medida en que influyeron en la estructura neuronal; un resultado de estas experiencias ya completadas son las huellas de la memoria. De qué modo los componentes operacionales de la dinámica neuronal cooperan en el mantenimiento relacional de representaciones mentales, se puede entender según el modelo neuroinformático de Christoph von der Malsburg. El modelo de Malsburg trata ciertos estados cerebrales físicos como símbolos dinámicos, siendo estados correlativos materiales de representaciones mentales; son correlativos materiales de estados mentales que representan, por ejemplo, objetos y situaciones percibidas. La dinámica de estructuras representacionales realizadas con base neuronal implica dos diferentes niveles de codificación dinámica y temporal, correspondiéndose estos dos niveles a los componentes espaciales y temporales de la actividad neuronal: corresponden así a la estructura de conexiones neuronales y a la de impulsos neuronales. Tales niveles son, de un lado, la formación de símbolos, y, de otro, la activación de símbolos. La formación de sím189 bolos mentales se lleva a cabo con la formación material de estructuras específicas dentro de las conexiones neuronales, y, en el modelo de Malsburg, reciben el nombre de conjuntos neuronales; estos conjuntos se forman a base de la modificación dinámica de las conexiones sinápticas y su fundamento operacional es la plasticidad sináptica, esto es, el algoritmo selectivo de la modificación sináptica. La activación de símbolos mentales se produce a base de la activación sincronizada de las neuronas de un conjunto neuronal; tal conjunto ya se había formado en el proceso anterior de formación de símbolos. La activación de un conjunto neuronal, que es correlativo material de la activación de un símbolo mental, consiste en una sincronización rápida de la actividad dentro del conjunto, funcionando esta sincronización mediante una modulación eléctrica de los impulsos neuronales, y, a su vez, la modulación eléctrica opera con frecuencias específicas que definen el conjunto activado. Dentro del modelo de Malsburg, un símbolo representacional es una estructura dinámica de conexiones neuronales que puede ser activada; se trata de un conjunto de neuronas interconectadas de una manera específica. El modelo permite la integración operativa de diferentes símbolos parciales en un símbolo común, lo cual funciona por la sincronización de la las actividades pertenecientes a distintos conjuntos; así, antes de la integración, las actividades no habían mostrado sincronicidad alguna entre sí, realizándose la integración con dicha sincronización; ésta conforma un conjunto global y activo, produciéndose de diferentes símbolos parciales un símbolo común. 190 De forma parecida, el modelo de Malsburg permite la activación separada de símbolos diversos en la misma área cerebral y al mismo tiempo. La separación operacional se realiza por la falta de sincronicidad entre los diferentes conjuntos que representan los diferentes símbolos, valiendo sólo la sincronicidad para las neuronas de un conjunto; el modelo de Malsburg garantiza igualmente la flexibilidad de las representaciones mentales, la posibilidad de integrarlas recíprocamente, la integración procesual misma, y la activación relacional; se puede decir que los resultados más recientes de la neurofisiología sugieren que las condiciones operativas del funcionamiento cerebral no solamente definen la forma específica de la dinámica relacional de los conjuntos neuronales, y con esto, el proceso de la representación mental, sino que también la cooperación entre el algoritmo selectivo de la modificación sináptica y el principio de coherencia de las actividades neuronales es la causa de la realización de nuestra percepción visual de objetos. El proceso adaptativo de la formación autodiferenciante de la red neuronal de conexiones entre los receptores sensoriales y la estructura interna del cerebro lleva a un refuerzo de los conjuntos de neuronas con la misma selección de elementos diferenciados; estos conjuntos se forman en las áreas del análisis sensorial de la corteza cerebral; en el caso del sentido visual, la selectividad de elementos distintos se manifiesta por ejemplo en la sensitividad de ciertas neuronas a los contrastes específicos entre partes claras y obscuras del campo visual, a las orientaciones de objetos en él y a las direcciones del movimiento de los objetos. En este caso visual, los diferentes receptores cerebrales de distintivos igua191 les a menudo reciben simultáneamente la transmisión de impulsos que proceden de los puntos correspondientes de la retina, lo cual trae como consecuencia la formación de conjuntos de neuronas con la misma selectividad; tal formación se realiza por el refuerzo de las conexiones sinápticas correspondientes. En el modelo de Malsburg esto correspondería al proceso de formación de símbolos. De acuerdo a lo que la neurociencia empírica ha mostrado, las neuronas de un conjunto tal de detectores de distintivos iguales se comunicarían entre sí por impulsos de una frecuencia específica para el conjunto, llevándose a cabo mediante estas oscilaciones la sincronización de las actividades de las neuronas de un conjunto neuronal; así, en el modelo de Malsburg, la sincronización se corresponde con el proceso de la activación de símbolos. La dinámica de conjuntos neuronales, sincronizados por la oscilación de una frecuencia específica y con la misma fase, hace posible que el cerebro pueda activar al mismo tiempo diferentes conjuntos de detectores neuronales relevantes para distintivos diversos. Esto facilita el análisis paralelo de complicadas imágenes visuales realizado por el aparato epistémico neuronal estructurado durante el proceso de desarrollo ontogenético; así la dinámica de conjuntos neuronales es, respecto de las funciones llevadas a cabo en cada caso, el correlativo material de la percepción visual de objetos. Los objetos visuales se seleccionan, a nivel del análisis neuronal, por el movimiento común y unidireccional de un grupo de puntos visuales. La representación de tales grupos de puntos se realiza entonces mediante la activación sincronizada de conjun192 tos de detectores con la misma selectividad de distintivos. La base operacional del concepto de objeto visual es idéntica a los principios operativos fundamentales del cerebro; son el algoritmo selectivo de la modificación sináptica y el principio de coherencia de las actividades neuronales los causantes del concepto de objeto como filtro del análisis sensorial visual. Las condiciones operativas específicas del funcionamiento de nuestras capacidades epistémicas poseen un carácter contingente desde la perspectiva de la epistemología, todo lo cual tiene finalmente consecuencias de gran alcance para la evaluación concreta de nuestra situación epistémica. Las Condiciones Materiales de las Capacidades Epistémicas De importancia para la evaluación epistemológica de nuestras facultades epistémicas son las condiciones orgánicas de su realización; esto concierne especialmente al modo específico de tratamiento de las experiencias sensoriales en el cerebro, refiriéndose sus principios operacionales al concepto de objeto como filtro epistémico; teniendo en cuenta las condiciones materiales de la realización de nuestras capacidades epistémicas no es ciertamente razonable quedarse en una perspectiva externalista con relación a dichas capacidades; pues existen pocos argumentos a favor de que la formación de las facultades cognoscitivas sean una consecuencia causal derivada de la estructura de una realidad material, objetiva y transcontextual; mucho más plausible es suponer que nuestra realidad está constituida en la forma en la que la per193 cibimos porque nuestro aparato epistémico dispone de rasgos específicos y contingentes, tales como el algoritmo selectivo de modificación sináptica y el principio de coherencia de las actividades neuronales. Una realidad, con estructuras unívocas, que se forma basándose en actividades neuronales, no puede ser un indicio para una estructura unívoca o para la determinación unívoca de atributos, ni tampoco para la simplicidad de una realidad objetiva o una realidad noumenal en el sentido kantiano; ciertamente el paso de nuestra realidad noumenal a sus determinantes externos ha de ser mucho más indirecto; un argumento a favor de una concepción internalista resulta también de la comparación de las capacidades epistémicas de diferentes especies; inicialmente nuestras capacidades epistémicas no se distinguen de las de otras especies, sino que se distinguen de manera gradual. En las diferentes especies se aplican solamente diferentes filtros de complejidad, los cuales se realizan a base de diferentes capacidades de análisis sensorial y de diferentes facultades cognitivas, sujetas a condiciones contingentes. La ciencia tampoco podría trascender todo lo que quisiera las limitaciones contingentes de nuestras capacidades epistémicas; con sus medios sólo puede alcanzar grados de abstracción correspondientes a nuestras facultades cognitivas; existe al menos una continuidad parcial entre facultades epistémicas precientíficas, que se realizan con base orgánica, y las capacidades de la ciencia. En cada rama de la ciencia se hallan elementos que provienen de nuestra condición orgánica y de sus implicaciones. 194 La ciencia no ha formulado teoría alguna que no implicara de alguna manera el concepto de objeto. Pero tal concepto no es un artificio o un elemento de un filtro arbitrariamente elegido, sino que, se trata del producto de un modo específico y contingente de la operación neuronal, todo lo cual posee una importancia grande para la situación epistémica. Existen limitaciones específicas para el nuestras capacidades epistémicas, derivadas del alcance operacional de nuestro sistema neuronal. La base material de la cognición no hay que entenderla de modo universal y necesario, constituido para siempre, y aplicable a cualquier exigencia en abstracto, sino que se determina contingentemente y se acomoda a las exigencias de un organismo biológico. Si se toma en serio el naturalismo, esto implica limitaciones propias de las funciones epistémicas del cerebro y de su alcance. Por lo que los resultados del conocimiento humano no han de entenderse como plenamente objetivos en el sentido tradicional de este término. En realidad, el aparato neuronal es un filtro epistémico contingente que permite percibir solamente ciertos aspectos de las posibles estructuras externas del mundo. La Objetividad como Logro Práctico La importancia que el análisis de la práctica científica ha cobrado en los últimos tiempos en los estudios de epistemólogos, sociólogos, científicos puede interpretarse no solo como signo de un interés meramente descriptivo, sino también como una necesidad de detenerse en sus funciones e implicancias a la hora de evaluar la producción del 195 conocimiento científico. La práctica reviste un alto grado de complejidad por la cantidad de aspectos que se entretejen en su configuración. El punto de atención se ha centrado especialmente en la objetividad atribuida a la base observacional que, en la perspectiva neopositivista es considerada como sustentación de la ciencia, y por otro lado en el carácter falible de los enunciados dependientes de la teoría. Los argumentos propuestos ponen en tela de juicio aspectos inherentes a los fundamentos mismos del conocimiento en cuanto cuestionan el valor del aporte de los sentidos en su estructuración y el condicionamiento a priori de las características psicológicas del sujeto así como su marco conceptual. Estas críticas favorecen la consolidación de las posiciones relativistas y subjetivistas, desde las cuales se condiciona la objetividad del conocimiento científico. Este riesgo ha motivado una reacción desde propuestas que, admitiendo la validez de las observaciones aportadas por epistemólogos, Hanson, Polanyi, Popper, Khun, Feyerabend, intentan rescatar aspectos de la objetividad que permiten sustentar su vigencia. En esta línea se inscriben los aportes que ofrecen Chalmers y Hacking en el ámbito de la filosofía de la ciencia. Las objeciones al carácter fundamental otorgado a la percepción científica en la visión tradicional de la ciencia, expresada por el neopositivismo, resultan sustentadas pero, para Chalmers no implican la pérdida del carácter objetivo del conocimiento; y propone una estrategia superadora de las dificultades señaladas: 196 No deseo negar que la adecuación y significado de los enunciados observacionales dependen de supuestos teóricos de diverso tipo y por lo tanto son falibles y revisables. La ciencia ha desarrollado técnicas poderosas para obviar esos problemas, en la medida en que puede contrastar las teorías científicas mediante procedimientos normalizados que pueden minimizar los problemas que surgen del carácter subjetivo de la percepción humana. A través del análisis que se implementa desde esta perspectiva, se pone en evidencia que cualquier observador, traduce un conjunto de experiencias mentales relativas a las percepciones que se expresan a través del lenguaje observacional. Estas constituyen las interpretaciones del sujeto, obtenidas en el proceso de aprendizaje de su lenguaje natural, las cuales, una vez incorporada a la cultura a la que pertenece cada individuo, comienzan a formar parte del proceso correspondiente a cada generación. Así por ejemplo, cuando un observador del Siglo XVII sostiene que el movimiento de una piedra que cae es recto, su descripción supone la interpretación natural de su época, la cual involucra las nociones de espacio y movimiento absolutos en un sistema planetario con la tierra inmóvil en su centro; esa interpretación natural, se modifica con la introducción de la teoría copernicana. Esto significa que se ha producido: a) Un cambio en las experiencias del sujeto b) Un cambio en su lenguaje empírico c) Una transformación relevante en la base observacional 197 Los dos primeros puntos tienen que ver con la estructura perceptiva del sujeto y las condiciones en las que éstas se producen. El tercer punto en cambio, se relaciona con la introducción de procedimientos tales como la experimentación controlada y también de instrumentos. El cambio que Galileo instaura supone pasar de percepción a la medición, acción verificada a través de experimentos en condiciones estandarizadas. En este sentido, ideó un procedimiento para medir la separación de los satélites de Júpiter. Las técnicas empleadas por los antiguos para establecer generalidades explicativas de los fenómenos, resultaban apropiadas. Galileo en este proceso de la relación teoría-mundo introduce un criterio cual es el de validar las generalizaciones mediante el diseño de situaciones experimentales idealizadas, como el caso de los experimentos del plano inclinado. Su estrategia consiste en introducir técnicas para reducir al mínimo los obstáculos del mundo natural en el proceso de contrastación de las teorías. Chalmers destaca con respecto a estos procedimientos: Según mi interpretación, Galileo transformó la problemática finalidad de la ciencia de conseguir generalidad en otra que en cierto grado se podía conseguir en la práctica: Identificar generalidades de tipo legal en situaciones simples, y si es necesario artificialmente ideadas, y asumir que esas generalidades se siguen aplicando en todas las situaciones, por complejas que sean. No puede negarse que el ideal euclidiano de derivar generalidades de principios atraía al pensamiento galileano; pero las evidencias de la inadecuación teoría-experimento le 198 impedían sostenerla como tesis. La intervención experimental le permitió: a) Considerar en forma aislada los casos individuales b) Identificar las tendencias individuales observables c) Elucidar las leyes que podían gobernarlas Se trata de generalidades obtenidas por la vía de excepción que luego serían aplicadas. Las modificaciones en la explicación del universo introducen también transformaciones en los criterios de selección de métodos para adquirir conocimientos. De este modo, mientras en el marco del pensamiento antiguo y medieval importaba la coherencia del sistema demostrativo basado en principios establecidos, los investigadores de la época moderna concentran su atención en la fuerza del experimento. Estas consideraciones ponen de relieve la necesidad de que se efectúe un verdadero cambio en la actitud del sujeto que aborda la descripción del objeto, tal actitud debe asumir el carácter de intervención; a partir de ella, se elaboran los enunciados observacionales descriptivos de estados de cosas que a su vez, serán aceptados en la medida en que superen un conjunto de pruebas diseñadas a tal fin; la intervención práctica, no sólo se limita a la creación de procedimientos; en efecto, consiste en el uso de los sentidos para realizar las observaciones. Hacking, recupera desde un enfoque particular la relevancia de la experimentación a la que caracteriza como una dimensión de la actividad científica que tiene vida propia; desde ese contexto, le otorga a la ob- 199 servación el carácter de una habilidad particular que el investigador debe desarrollar; como situación paradigmática de este análisis, rescata el caso de Herschel, quien descubrió, en un año, más cometas que ninguna otro astrónomo;. tal logro es considerado como resultado de la confluencia de un fuerte entrenamiento. Tanto Chalmers como Hacking coinciden en afirmar que el investigador, en la realización de su tarea, es un sujeto entrenado en el uso de los sentidos y en la manipulación de instrumentos de modo tal que es capaz de: a) Ser consciente de que asume un compromiso activo con el mundo que implica posibilidades de intervención b) Jerarquizar el entrenamiento que garantice el desarrollo de su destreza c) Seleccionar, sobre la base de la capacitación lograda, las percepciones que posean significatividad para cada caso En este contexto, el investigador se convierte en un observador experto que interviene en la constitución de la base de la ciencia mediante el diseño de aparatos y pruebas capaces de contrastar empíricamente los enunciados; de este modo, constituye un soporte para mantener la objetividad como cualidad posible de alcanzar en la producción del conocimiento científico; cabe destacar que esta pretensión no compromete el carácter provisional y falible que la epistemología actual reconoce a las teorías científicas. 200 Uno de los representantes de la sociología actual es Bourdieu, quien ha desarrollado una línea conceptual a través de las nociones de habitus y de campo. Bourdieu enfatiza la necesidad de resolver la dicotomía planteada en las ciencias sociales entre las perspectivas objetivistas y subjetivistas y lo fundamenta en el nivel ontológico: lo social existe de doble manera, como estructuras sociales externas, es decir la historia hecha cosas y como estructuras sociales incorporadas. El hacer referencia al objetivismo y al subjetivismo, en Bourdieu se puede interpretar como dos momentos analíticos: un primer momento objetivista, en el cual el investigador reconstruye la estructura de relaciones que son independientes de la conciencia y de la voluntad de los agentes y un segundo momento, donde se intenta captar representaciones, percepciones y vivencias de los protagonistas de las prácticas. Se toman como pasos lógicos en el análisis sociológico que permitirían mayores posibilidades de explicar y comprender la realidad social. Objetivar al sujeto objetivante, implica un doble sistema de relaciones, el primero alude a: el sentido de las prácticas y reflexiona sobre las posibilidades de aprender la lógica que ponen en marcha los agentes. El segundo alude a un tema central dentro de la sociología del conocimiento: el de los condicionamientos sociales que afectan la práctica del investigador. Para poder dar cuenta de las prácticas sociales, es necesario reconocer los sentidos de las mismas: a) El sentido objetivo, el sentido de las estructuras sociales externas e independientes de la conciencia y de la voluntad de los agentes 201 b) El sentido vivido, lo que los agentes se representan, sienten, piensan, creen, viven. Los habitus como esquemas de percepción, de apreciación y de acción interiorizados; sistemas de disposiciones a actuar, a pensar, a percibir, a sentir más de cierta manera que de otra, ligados a definiciones de tipo lo posible y lo no posible, lo pensable y lo no pensable, lo que es para nosotros y lo que no es para nosotros La noción de habitus, no puede ir más allá de una descripción de la experiencia del mundo social, al no tener en cuenta las condiciones de posibilidad de esa experiencia, es decir, la relación que existe entre las estructuras objetivas y las estructuras incorporadas que las generan. Esta constituido por principios generadores capaces de aportar distintas respuestas en las diversas situaciones a partir de un conjunto limitado de pautas de pensamiento y de acción; así tiende a reproducir ante situaciones habituales y puede conducir a innovaciones cuando se halla frente a situaciones insólitas; según Corcuff. El objetivismo por su parte, se propone establecer regularidades objetivas, estructuras, leyes, sistemas de relaciones, que son independientes de las conciencias y de las voluntades individuales. Pero, al no tener en cuenta las representaciones, las percepciones, la experiencia vivida, tampoco puede dar cuenta del sentido del juego social, que se explica por la relación dialéctica entre esas regularidades objetivas plasmadas en estructuras, instituciones, y esas mismas realidades incorporadas a los individuos. 202 Objetivismo y subjetivismo son perspectivas parciales: la primera puede aprehender sólo el sentido objetivo de las prácticas, y la segunda sólo el sentido vivido de las mismas, y ninguna de ellas puede captar el sentido práctico, el sentido del juego social, resultado dialéctico de ambos sentidos. Para Bourdieu las interacciones, que procuran una satisfacción a las disposiciones empiristas esconden las estructuras que en ellas se realizan. Es uno de los casos, donde lo visible, lo que es dado, esconde lo invisible que lo determina. Se olvida así que la verdad de la interacción no está nunca toda entera en la interacción tal como ella se ofrece a la observación. Tanto el objetivismo como el subjetivismo comparten el hecho de ser modos de conocimiento teórico, es decir, modos de conocimiento de sujetos de conocimiento que analizan una problemática determinada, que son opuestos al modo de conocimiento práctico, que es aquél que tienen los individuos, que ponen en marcha casi como si fuera en su vida cotidiana. Resulta de interés la apreciación de Bourdieu de la formalización en cuanto factor conducente a la objetivación; la misma es entendida tanto en el sentido de la lógica o de la matemática como en el sentido jurídico; es lo que permite pasar de una lógica que esta inmersa en el caso particular a una lógica independiente del caso particular. Reconoce que una de las virtudes de la formalización es la de permitir, una economía de invención, de improvisación y de creación destacando también que el formalismo no actúa por su eficacia específica, técnica, de clarificación y de racionalización. 203 Bunge aporta precisiones relacionadas a la objetividad científica; delimita la diferencia entre datos científicos y los informes sobre la experiencia, los primeros suponen que el experimentador informa acerca de hechos objetivos, que sus informes deben ser controlables, que los datos del científico van cargados de interpretación y hasta que están formulados, al menos, en un lenguaje teorético. Si no se exigiera de los datos científicos una referencia objetiva, un control y un mínimo de interpretación basándose en teorías aceptadas, podrían inventarse arbitrariamente y serían irrelevantes para las ideas que se supone sostienen. En tanto en el caso de los informes, las experiencias son irrelevantes para esos hechos objetivos, pueden ser de interés para la psicología en la medida en que puedan relacionarse con y controlarse por hechos objetivos del comportamiento fisiológico. La ciencia se interesa por datos impersonales que se refieren a hechos objetivos y además, sólo por aquellos que puedan tener sentido en algún cuerpo de conocimiento; lo que quiere decir, que la ciencia sólo se interesa por datos sistematizables. Los aspectos considerados nos permiten destacar como rasgo significativo, el hecho de que la objetividad científica se constituye desde el polo de lo abstracto; si bien las diversas estructuras de la experiencia aportan contenido a los conceptos y relaciones elaborados por la razón, el carácter de universalidad que la objetividad reclama no pertenece a los datos empíricos sino a la dimensión estructurante del intelecto. Si contamos como supuesto, con que el objeto ofrece invariancias posibles de ser validadas por todos, las mismas no pueden configurarse como tales sin la construcción intelectual; estas apreciaciones no exclu204 yen la dimensión empírico y/o experimental de la ciencia ya que ella es precisamente la que nos pone en contacto con la realidad física, accesible al registro de datos; si mantenemos las entidades, fenómenos o procesos de los que se ocupa la ciencia en el nivel de la percepción sensible, quedan excluidos del ámbito de la cientificidad, es decir, no se constituyen en objetos científicos. Tal conversión requiere la implementación de operaciones que posibiliten su traducción al complejo de relaciones adecuadas para ser expresadas en el discurso técnico-formal. Este concepto ha obligado a relacionar lo empírico con lo abstracto y formal, lo invariable con lo cambiante, con la intención de comprender, desde las tensiones no excluyentes de las correlaciones, cómo la ciencia puede ser considerado como un saber falible, provisional, no incontrovertible e inclusive, no absolutamente cierta o verdadera y sin embargo, objetiva. Epistemografías: La Escritura de los Resultados de Investigación El objetivo, es desplegar un conjunto de reflexiones que pueden ser de utilidad para exponer los resultados de investigación. En ese sentido, se puede distinguir, en principio, dos tipos de prácticas discursivas: a) la escritura que va diseñando los diversos componentes de una investigación y b) la escritura destinada a elaborar un producto para ser expuesto públicamente; y este último es un punto no menor, porque está asociado a la comunicación y el intercambio de 205 los productos de investigación. A aquello que podríamos denominar el proceso de su publificación. Rabotnikof distingue tres criterios heterogéneos para el trazado de la distinción entre lo público y lo privado, o, lo que ella llama tres sentidos tradicionalmente adheridos a la distinción público-privado. El primer criterio es el que opone lo colectivo a lo individual, en esa oposición lo público asumiría el sentido del interés general y se deslizaría hacia su asociación sinonímica con lo político. El segundo criterio haría hincapié en la oposición entre lo visible y lo oculto, entre lo manifiesto y lo secreto; un criterio que pone en el tapete la dimensión espacial de lo público; por último, el tercero, es el que opone apertura a clausura y define lo público por las condiciones de accesibilidad y como contrapartida establece las condiciones de apropiación de los objetos culturales; entre ellos, el conocimiento. La distinción entre discurso de investigación y discurso de exposición, puede entonces delinearse sobre la base de estas nociones de lo público, o de las relaciones entre lo público y lo privado. Es obvio que entre ambos tipos de discurso hay una relación quiasmática. Los libros los compramos en librerías, y los informes de investigación deben estar escritos en lenguaje científico. Se espera del conocimiento científico que sea público; que sirva al interés general, sus fundamentos sean visibles y manifiestos y, en tanto bien común, esté garantizada su accesibilidad. Sin embargo, desde la constitución del campo científico social en el siglo XIX, la publificación del conocimiento ha basculado históricamente entre, por lo menos, dos con206 juntos de imágenes sobre la ciencia cuyos rasgos principales han sido y aún siguen siendo esquemáticamente: a) Una ciencia independiente de la política capaz de descubrir un mundo, es decir con acceso a la verdad como correspondencia y/o adecuación, cuya expresión más ordinaria es el dogma de la neutralidad valorativa de cuño positivista b) Una ciencia altamente politizada dónde su especificidad como práctica social se ve desdibujada en provecho de los proyectos político-ideológicos que le otorgan su razón de ser Lo más destacable de ambas opciones epistemológicas es el modo en que se traman la una con la otra. El panorama quedaría incompleto si eludiéramos una tercer concepción que juega sus cartas en los campos del antagonismo entre del saber disyunto del poder y el saber acoplado al poder. Esa concepción es la del impolítico nietzscheano que compartiera con Weber el ideal de una ciencia independiente de la filosofía pro estatal, en definitiva, una práctica científica capaz de distanciarse de los proyectos gubernamentales dominantes y por lo tanto devenir en ciertos contextos institucionales grupo sujeto en la construcción de relaciones democratizantes entre la sociedad y el estado; y es en este punto que el conocimiento, puede, y necesita, ser pensado como factor constituyente de la esfera pública. Es decir, los tres criterios heterogéneos para definir lo público señalados por Rabotnikof, tienen que articular los conceptos de estado, mercado y sociedad civil mediante un anudamiento que dé cuenta de los modos históricos y de las 207 especificidades institucionales en que la escritura científica es producida y apropiada. Ahora bien, pensar el informe de investigación puede ser una tarea vasta, de modo tal que es pertinente establecer tres aspectos que a grandes trazos constituyen los problemas de toda escritura pública: a) El aspecto epistémico de la producción y el consumo de conocimiento, que como toda epistemología es necesariamente política ya que fija las condiciones de la eficacia del discurso y regula por tanto los aspectos metodológicos y técnicos que participan en su construcción b) El aspecto metódico, que en tanto práctica, lo es de un proceso de investigación particular y da cuenta de las relaciones entre la teoría, el método y la técnica en el proceso de construcción de un objeto de investigación c) El aspecto técnico que apela a ciertas figuras de la escritura y de la gráfica que permiten exponer la información como datos y que ayudan al lector a aproximarse al informe El Aspecto Epistémico: El Encuadre Político de la Escritura ¿Qué sentidos soporta la palabra escritura? Si nos desplazamos por el sesgo etimológico del título se impone la representación de una inscripción. Inscripción de lo circunscripto mediante una práctica de investigación, es decir, lo que ha podido ser construido como conjunto mediante un diseño, cuyo proceso de elaboración ha dejado su huella. 208 Si pensamos el informe de investigación como un instrumento para la comunicación, es inevitable desensillar en la comunicabilidad del texto que soporta la letra. En ese punto podemos acordar en que los discursos de investigación aspiran a ser comunicados y lo hacen en la medida que hagan signo; esto es, que la actividad del lector produzca un efecto de sentido que se aproxime al que quiso imprimirle el escritor. El discurso oficiará de lazo y habilitará la comprensión si se inscribe en una formación social que oficie de interpretante. Cuestión que rebasa la suposición de un marco cultural común a investigadores y lectores, y por lo tanto invita a sondear como operan esas formaciones sociales, en tanto creadoras de demanda, en los procesos de producción de significación en los campos académicos, intelectuales y profesionales. ¿Qué pasa entre las estrategias de comunicación de los investigadores, mediante actos de escritura y las apropiaciones plurales, móviles de los lectores? ¿Cómo se transforman los documentos de investigación mediante las operaciones de los usuarios? ¿Cómo se trama la relación entre la comunicabilidad y la transmisibilidad en una práctica discursiva como es la de producir un texto escrito? La eficacia relativa de cualquier escritura se asienta en su capacidad de coadyuvar a producir un acto de subjetivación. Es en la práctica de lectura, que el discurso hace signo y produce enlace; allí donde se bordean los contornos de un objeto de conocimiento, adviene el sujeto. Sujeto y objeto de conocimiento se co-constituyen simultáneamente, a lo cual agregaría sujeto y sujeto se co-constituyen simultáneamente. 209 El problema está precisamente en la simultaneidad. Una perspectiva dialéctico-subjetiva, daría cuenta de la compenetración de los opuestos, pensaría al objeto como acuerdo intersubjetivo, en fin, suturaría la falta, mediante la postulación de la realidad hecha objeto mediante el colapso del campo mismo de la subjetividad qua vehículo de la verdad en el capitalismo y rompería el carácter colectivo de la construcción de la verdad faccionándola, es decir volviéndola facciosa mediante su desintegración en los dos polos del conocimiento y la verdad, según Zizek. O bien cerrando la discusión como un derivado del criterio de autoridad propio del discurso experto o cayendo en el perspectivismo ingenuo de las verdades privadas que eleva la experiencia personal a la categoría de absoluto rompiendo desde el relativismo que niega toda certidumbre, la construcción misma de la relatividad que permite formular problemas sobre la base de criterios de verdad pero sin absolutizarlos; no sería abusivo decir que hay escritura científica, cuando se acoplan el escrito y la lectura produciendo ese efecto de sentido que permite bordear los contornos de un problema. Eso es un objeto de investigación, lo que produce un problema, un objectum. En las analogías de los itinerarios, el pensamiento científico está hecho de la misma sustancia que la metáfora; que la es para un determinado público, aquel capaz de construir la equivalencia entre un significante y otro significante. Entre los cuales media una distancia, que como la letra en el papel es la que marca que esa equivalencia se asienta en una ruptura con el mundo inmediato o la naturalización de ese mundo por la experiencia cotidiana. 210 El informe de investigación, al igual que el proyecto de investigación es un documento de gestión; la eficacia de la gestión dependerá en mucho del discurso de exposición, es decir de cómo está escrito, una pregunta que comienza a contestarse a partir de la demanda de investigación: para qué y para quién se escribe. El Aspecto Metódico: La Construcción del Objeto-la Deconstrucción del Sujeto-la Construcción del Sujeto-la Deconstrucción del Objeto El consumo científico es también una cuestión de estilo, y no en el sentido vulgar que identifica estilo con distorsión culterana, tal como sucede con aquellos trabajos dónde la teoría muestra a las claras su distancia respecto de las descripciones, trasuntando de ese modo lo que podríamos denominar la debilidad metodológica del trabajo. ¿En qué sentido puede pensarse la debilidad metodológica de una investigación en relación con la escritura de los resultados? Caben varias posibilidades. Sin embargo, pensemos en dos tipos de problemas: Si, es inadecuado partir del supuesto de que la escritura es la puesta en página de una delgada laminilla llamada lenguaje científico que expresaría uno a uno el núcleo de la realidad, sino que por el contrario el lenguaje realiza un arduo trabajo en la reconstrucción siempre inacabada de esa realidad y por lo tanto, aceptamos que entre la investigación como práctica y su escritura hay una distancia; una de las posibilidades es que se produzcan aquellos obstáculos de los que hablaba Bachelard: el formalismo y el empirismo. 211 Afirmar que la práctica científica y el consumo de los productos que manufactura es una cuestión de estilo vuelve relevante la relación entre el mercado, el estado y la sociedad en la constitución de los sujetos y objetos de consumo. Según Panofsky estilizar previamente la realidad antes de abordarla es lo mismo que eludir el problema. El problema radica en manipular y filmar la realidad no estilizada de tal modo que el resultado cree estilo. La investigación social no está al margen de ello, sin embargo la distancia dialéctica respecto de su propia estructura de funcionamiento debe impulsar su propia economía política y colaborar en el develamiento de las relaciones sociales que ayuda a producir. El método crea estilo. Una determinada forma de exponer los resultados que permita leer a la letra el modo en que la teoría orientó la producción de la información, es decir ver como permitió un uso satisfactorio de la técnica haciendo de la entrevista o de la encuesta un instrumento para apropiarse de un aspecto de lo real y viceversa. No se trata entonces de la coherencia interna de una teoría, como la que puede expresarse en el desarrollo argumental de los supuestos manejamos como investigadores o a la coherencia de la descripción de una realidad cualquiera, sino de un cierto croché que teje la teoría con lo real mediante un efecto interpretativo que posibilita una coherencia en la que el rigor del discurso no pasa ni por la aguja ni por la hebra. Ese es el punto en que el método crea realidad como efecto de discurso. Una realidad que rebasa la postulación o el carácter externo cuando el discurso ha desarrollado las determinaciones de lo real. 212 La exposición o las técnicas expositivas son algo más que instrumentos de una política. Allí se juega la identidad. Es en el juego de las filiaciones dónde la escritura en su dimensión expositiva desnuda que no hay meta discurso, que lo dicho es el soporte de lo que quiere decirse. Lo escrito finalmente se dice así mismo en el acto de la apropiación. Cuando concurren las apropiaciones de los autores con las de los lectores, estamos frente a la frontera de la comunicación sin cuya línea no habría comunicabilidad; simplemente estaríamos allí como un real que no cesa de existir pero que nada sabe de eso. El conocimiento tiene que ver con la distancia entre la cosa y la imagen, entre la imagen y el nombre. Como afirma Agamben: la exposición es el lugar de la política. Si no hay, probablemente, una política animal, es sólo porque los animales, que viven permanentemente en lo abierto, no tratan de apropiarse de sus exposición, moran sencillamente en ella sin preocuparse. Por eso no les interesan los espejos, las imágenes en cuanto imágenes. El hombre, por el contrario, al querer reconocerse separa las imágenes de las cosas, les da un nombre. Así transforma lo abierto en un mundo, en el campo de una lucha política sin cuartel. 213 214 Capítulo 5 EL IMPACTO DE LA EPISTEMOLÓGICO TECNOLOGÍA S e propone una definición de tecnología. Existen idiomas como el inglés, en donde se utiliza technology y no se emplea, estrictamente hablando, la palabra técnica, salvo en un sentido poco usual; en español e italiano, así como en otros idiomas, al contrario, se utilizan ambos términos con significado similar. Se puede entender la técnica como un conjunto de conocimientos eficaces que el hombre ha desarrollado para mejorar su manera de vivir prácticamente. Bajo esta perspectiva, la técnica es tan antigua como la humanidad misma, y, desde el punto de vista de la antropología filosófica, resulta una característica específica del hombre, por cuanto que, si se considera que los animales sobreviven adaptándose al medio ambiente, el hombre, por el contrario, sobrevive adaptando el medio ambiente a sí mismo. No es cierto que los seres humanos puedan adaptarse a cualquier medio ambiente, pero sí es verdad que el hombre ha ideado miles de formas para adaptar el medio ambiente a sus necesidades: la técnica es precisamente esto y consiste 215 básicamente en la construcción por parte del hombre de un entorno artificial para su vida. La manera típica de vivir del hombre es la manera técnica, no hay vida que pueda considerarse humana en un sentido específico que no posea los primeros rudimentos de la técnica; además, la técnica no se limita a asegurar al hombre este mínimo para sobrevivir, pues cada necesidad típica de éste lo impulsa a producir otros aspectos artificiales que ensanchan el dominio técnico. Todas las dimensiones culturales, entendidas en un sentido sociológico, se encuentran condicionadas por la técnica, y que el mundo del hombre, en su conjunto, es una cierta articulación de la técnica. La técnica constituye un proceso acumulativo, siendo también el resultado de la experiencia de generaciones. Si el descubrimiento de una pequeña variación respecto a lo que se hacía hasta hace poco resulta ser un cambio útil, entonces tal variación será transmitida a través de generaciones, adoptándose de manera general hasta que se descubra otra variación más útil. ¿Por qué, por ejemplo, es ésta la mejor manera de cortar la madera para construir un determinado instrumento? La respuesta será que así nos lo han enseñado y se ha comprobado que así es mejor. El uso de la técnica no va acompañado del conocimiento de las razones justificadoras de la eficacia de ciertas prácticas que se realizan; pero, en el desarrollo de la civilización occidental, llegó el momento en el que a la dimensión simplemente práctica se añadió la preocupación de saber por qué es mejor hacer las cosas de una determinada forma. Es el gran momento de la téchne griega; esta palabra se 216 traduce modernamente por el vocablo arte, pero esta forma de traducir no clarifica hoy día el significado del término griego. El arte se refiere a las denominadas bellas artes y se conecta con la esfera estética; pero no era así la significación de la téchne griega. Como se puede leer en Platón, Aristóteles y muchos otros, la téchne era esto: un conjunto de conocimientos eficaces que se acompaña además con el conocimiento de las razones o causas por las cuales el procedimiento es eficaz. En el primer libro de la Metafísica Aristotélica, el filósofo examina las causas de modo general, no en el sentido de la denominada causa eficiente, sino según un sentido muy amplio que podríamos expresar mediante el concepto de razón por la cual algo acontece o se afirma. Aristóteles se sirve de este análisis para precisar en qué consiste el saber, la epistéme; sin embargo no sucede de esa forma, prefiere referirse a la téchne: en el caso del conocimiento en cuanto tal se nos dirá que hay que llegar a la plenitud de la verdad a través del conocimiento de las causas, y en el caso de la téchne, que hay que fundamentar la opinión práctica por el conocimiento de sus causas o razones. Esto muestra que en la civilización griega existía algo más que la mera acumulación, a veces simplemente casual, de experiencias que se transmitían de una generación a otra. Cuando aparece el sufijo logía se quiere indicar la existencia de una cierta doctrina elaborada, una teoría acerca del asunto en cuestión; así, en lugar de hablar de técnica hablamos de tecnología, añadiéndose algo más a la pura y simple técnica. La tecnología puede entenderse como aquello que acontece en el interior de la trayectoria de la técnica 217 cuando surge, dentro de la civilización occidental, un conjunto de conocimientos teóricos que permiten explicar o dar razón de lo que es eficaz en concreto. Este paso fundamental se cumple dentro de la civilización en el momento histórico del descubrimiento y construcción de la ciencia natural moderna. Es esta ciencia la que permite ofrecer las razones teóricas que justifican por qué ciertas prácticas concretas son eficaces y permiten proyectar nuevas prácticas sin necesidad de basarse en una experiencia previa. Tecnología, pues, es algo distinta a técnica. El Impacto Epistemológico La técnica tuvo siempre un gran impacto sobre la vida del hombre, pero no es fácil hablar de un impacto epistemológico, en el sentido de un influjo directo sobre la manera de concebir al conocimiento humano. Desde este punto de vista la misma noción griega de téchne, refleja la visión general del saber que encuentra su teorización específica en la noción de epistéme y depende por tanto de ésta; por lo contrario, en la época moderna la tecnología proporcionará unos modelos muy influyentes para la concepción del conocimiento en cuanto tal. Según Heidegger, la técnica es típicamente un fenómeno moderno, en el cual se realiza la actitud del hombre occidental de manipular a la naturaleza, de hacer violencia al ser. Lejos de ser una consecuencia o aplicación de la ciencia natural, la técnica ha modelado la esencia de dicha ciencia, llevándola a proponer de la naturaleza una visión distorsionada, 218 basada en pretensiones de matematización que puedan permitir los cálculos necesarios para manipularla. Heidegger llega a afirmar que la verdadera esencia de la téchne no consistía en una finalidad práctica de producción, sino en una actitud contemplativa que trataba de desocultar la verdad del ser según un procedimiento de tipo artístico y poético. Se deduce que la tecnología como tal no es algo modernísimo, pues su raíz se encuentra ya en el pensamiento griego, correspondiendo al espíritu de la civilización occidental, es decir, a la necesidad de dar razón. Esta es una exigencia del logos que es diferente, aunque está en conexión, con la exigencia de conocer la verdad de las cosas. La Tecnología y el Conocimiento Científico Moderno. Es conocida la manera de presentar a la ciencia natural antigua como basada en la especulación y el principio de autoridad y careciendo de actividad observacional. Esto es falso. Recuérdese, la historia del aristotélico Cremonini, profesor de la Universidad de Padua en la época en que Galileo también se encontraba allí; éste último había observado los satélites de Júpiter y comenzado a desarrollar un primer esbozo de astronomía que preparaba el camino para aceptar científicamente la teoría copernicana. Son conocidas las dificultades suscitadas al respecto, al colisionar tal propuesta con el espíritu de la física aristotélica aceptada entonces. Galileo invitó a Cremonini a mirar por el telescopio asegurándole que vería lo que él había visto, pero éste le dio una respuesta negativa, lo que se acostumbra a ridiculizar so219 bremanera, alegando que no quería hacerlo porque no deseaba confundirse en sus ideas. Un principio fundamental de la metodología científica de toda la tradición clásica era el siguiente: non fit scientia per visum solum, no hay ciencia, o saber, sólo a través de la vista u observación. Este caso nos previene de que la observación científica no es una simple observación, sino que es una observación que pasa a través de instrumentos. ¿Por qué éstos? Porque la ciencia natural moderna se basa en una decisión tomada conscientemente por Galileo y seguida por Newton y los nuevos científicos. Cuando nos proponemos conocer las substancias naturales se presentan dos posibilidades: la primera es la pretensión de tratar de sacar especulando la esencia intrínseca de las cosas. La segunda posibilidad es contentarse con conocer ciertas afecciones de dichas substancias. Este es un término técnico del lenguaje escolástico de la época, que se puede entender en el sentido de cualidades o propiedades. Además, entre tales cualidades, podemos limitarnos a considerar las que sean matematizables, ya que, como afirma el mismo Galileo en otra página famosa de su Saggiatore, estas son las que pertenecen a los cuerpos físicos y reflejan estructuras matemáticas. No es mediante la simple observación como se obtienen esos aspectos. Hay que llevar a cabo una construcción ideal, crear una situación experimental, en la cual los factores matematizables puedan revelarse de manera aislada, porque la experiencia no proporciona ninguna de estas situaciones ideales o puras. 220 ¿Cómo se puede sacar esto de la experiencia? Es imposible. En la práctica, si se empuja un cuerpo terminará por pararse sin permanecer en movimiento rectilíneo y uniforme. Así ocurrirá con cualquier situación concreta que podamos observar. Por tanto, se trata en realidad de una idealización: si no hubiera resistencia del medio, entonces no habría ninguna razón por la cual el movimiento tuviera que detenerse. Esta idealización teórica puede recibir un soporte experimental, ya que se puede constatar que, cuanto más se llegue a eliminar fricciones y resistencias del medio, tanto más el cuerpo sigue continuando en su movimiento rectilíneo. Como nos explica Galileo en varias ocasiones, el procedimiento que propone consiste en formular una hipótesis matemática obtenida por idealización, concerniente a los aspectos que se están investigando. Luego hay que construir artificialmente una situación experimental en la cual de pueda constatar si la hipótesis ideal se realiza. Es lo que, Galileo hizo para determinar la ley de caída de los graves, formulando una hipótesis matemática sugerida por la idea de proponer, en primer lugar, la expresión más simple, y construyendo planos inclinados según características precisas que le permitieron concluir que dicha hipótesis expresaba la naturaleza de dicho movimiento. La ciencia moderna se revela conectada a la tecnología, pues, en primer lugar, es necesario inventar, construir un instrumento para observar la naturaleza; en segundo lugar, el experimento científico consiste en la realización de una situación artificial, porque sólo dentro de una situación artificial se podrá poner a la vista lo que nunca se aprecia en una 221 observación natural. Así, la ciencia experimental es una ciencia que, lleva escrita la tecnología en sus raíces. El Cambio de Perspectiva Epistemológico. No es correcto afirmar que la diferencia entre ciencia antigua y ciencia moderna consiste en el hecho de que la primera ignoraba la observación y la segunda la apreciaba. En realidad, la ciencia moderna aprecia mucho a la observación, pero a condición de que sea exacta, es decir, instrumental, y la amplía cuando incluye en lo observado la consideración de los resultados de los experimentos. De esta manera la observación alcanza tal importancia que llega a subvertir el orden de prioridad epistemológica característico de la visión clásica: entre empiria y logos, la prioridad pasa a la empiricidad. La ciencia experimental moderna se caracteriza por el hecho de que, cuando se afirma algo, hay que averiguarlo. Son los neopositivistas, los que han expresado en grado máximo esta caracterización. En cambio, Popper dijo que nunca se puede averiguar una afirmación científica, sino tan sólo falsarla: averiguar o falsar consisten de todas maneras en someter las afirmaciones científicas a un control experimental y admitir sólo las que son compatibles con esto y rechazar las que no lo son. El tribunal último es el tribunal de la experiencia, de la constatación empírica. Este es un punto de vista diferente del punto de vista clásico, en el que se consideraba que los principios metaempíricos gozaban de validez, que tenían que permitirnos explicar el contenido 222 de la experiencia, pero sin ninguna posibilidad de ser refutados. En particular existía una regla metodológica: abducere inconveniens non est solvere argumentum, lo cual significa que lo más decisivo no es el resultado de la observación empírica, el cual, aunque pueda parecer contrario a un principio teórico, no puede negarlo, se trata de un inconveniens, de una dificultad que no soluciona el asunto sino que hay que ser capaz de explicar, y con eso solucionar la dificultad misma. La ciencia moderna cambia el acento, pero no fue desde luego un cambio pacífico. Cuando Descartes recibió de parte de Mersenne un ejemplar de la única obra científica de Galileo, los Diálogos sobre dos nuevas ciencias, expresó en una carta a su amigo, un juicio que tal vez no hubiera escrito si hubiera imaginado que la posteridad le leería también. Afirma de Galileo que razona mejor que la mayoría de los geómetras y matemáticos y concuerda con él en que el conocimiento de la naturaleza tiene que pasar a través del instrumento matemático. No se trataba, de una idea aceptable. Galileo, en cambio, la acepta explícitamente, pero es Newton quien desarrolla todas las consecuencias. En el tercer libro de la Óptica, en sus consideraciones metodológicas, afirmará que en la filosofía natural hay que contentarse con generalizaciones obtenidas de los fenómenos; ya no se habla de principios universales que puedan poseer una solidez más garantizada que los fenómenos. Se trate de falsación o de confirmación, la epistemología actual sigue permaneciendo dentro de este mismo surco: el tribunal experimental es decisivo, por lo que la tecnología es un elemento básico de la estructura 223 noética de la ciencia, dado que los experimentos dependen de y se construyen con tecnología. Es decir, en la estructura noética de esta nueva manera de conocimiento se incluye a la tecnología. Por ello, la tecnología es algo más que ciencia aplicada: es también eso, pero además entra, a través de caminos muy profundos, dentro de la estructura misma del conocimiento científico. Tecnología y Objetividad Científica. El conocimiento científico se construye como conocimiento objetivo en el siguiente sentido: ninguna ciencia se ocupa de lo real en su totalidad sino solamente de sus objetos específicos, y esos objetos resultan del hecho de considerar la realidad, bajo determinados conceptos. Por ejemplo, en mecánica, masa, espacio, tiempo, fuerza, y nada más; ni el color, ni el precio de una cosa entran dentro de ella. Otras ciencias consideran la realidad según otras perspectivas y conceptos, y dichos conceptos han de acompañarse de operaciones de observación y medición, para poder realizar una referencia a lo real. Para conocer algo en cualquier ciencia natural es preciso que, después de una cierta cadena de razonamientos y de cálculos, se pueda llegar a un nivel en el cual se lleva a cabo un experimento, y es entonces cuando se constituye el objeto. Así, el objeto físico es físico en el sentido de que hablamos de él con predicados y criterios de referencia que se utilizan en física, el objeto biológico es tal porque lo determinamos a través de otros criterios diversos que son los de la biología, el objeto histórico remite siempre a operaciones de consulta de archivos, documen224 tos. Siempre existen operaciones concretas para poder llegar a afirmar que tal cosa es o no verdad en el discurso de una ciencia determinada; la importancia de la tecnología es fundamental, ya que la intervención de la tecnología permite a cualquier ciencia empírica constituir su ámbito de objetos. La verdad científica se constituye sobre todo como consecuencia de muchas confirmaciones. Las teorías científicas se pueden considerar verdaderas o falsas en un sentido un poco especial; en el mundo actual, los resultados fácticos de las confirmaciones de las teorías científicas son los productos tecnológicos, y éste es el punto fundamental. ¿Qué son tales productos? Todos son previsiones que tienen éxito. En las obras de epistemología se dice que hay un momento en el que se formula una hipótesis, y después, con ella se explican los hechos que han provocado el planteamiento de la cuestión. Unos se refieren a este proceso como grado de confirmación de la hipótesis, otros, los popperianos dirán que no se puede concluir la verdad de la hipótesis y hablan de grado de corroboración, aunque todos remiten a la misma idea, a saber, que no tenemos certeza pero que se puede alcanzar una situación de fiabilidad. Tal situación consiste en el hecho de que poseemos muchas previsiones que tienen éxito; los productos tecnológicos son las realizaciones de las previsiones de éxito de las teorías científicas. La Máquina como Criterio de Inteligibilidad. Es procedente destacar otro aspecto que muestra asimismo el impacto epistemológico de la tecnología. Se trata 225 de cómo la tecnología ha transformado nuestra forma de concebir la ciencia. Desterremos, en primer lugar, la ilusión de que la ciencia ha permitido al hombre dominar a la naturaleza. Esa es una utopía que se halla en Francis Bacon, que se veía a sí mismo como el gran anunciador que proclamaba que con la ciencia se podría instaurar el reino del hombre, el regnum hominis, que consistía en dominar a la naturaleza a través del conocimiento de los secretos de la naturaleza misma. Estas ideas se encuentran también en el racionalista Descartes, constituyendo el sueño que debía permitir al hombre dominar la naturaleza, asegurar su bienestar y su progreso. Pero fue una utopía. ¿Por qué? ¿Cuál es el típico producto de la aplicación de la ciencia moderna? La máquina. Pero la maquina no es algo que subyugue a la naturaleza sino que la sustituye. Se piensa además que bajo un cierto punto de vista la máquina realiza mejor y más rápidamente que la propia naturaleza los cometidos correspondientes; lo que de hecho aconteció no fue un dominio de la naturaleza para ponerla al servicio del hombre, y aquí se puede ver cuán lejos estaba Heidegger de interpretar el sentido de la técnica, pues lo que ha ocurrido en la construcción de otro mundo al lado del mundo de la naturaleza, el cual se considera mejor en un cierto sentido y bajo ciertos puntos de vista. ¿Qué representa la máquina? La máquina posee una enorme ventaja: dentro de ella no hay secretos, todo es conocido para el técnico o el especialista; está construida según un proyecto que permite saber cómo funciona y devolverla a su funcionamiento; antes de construirla sabemos cómo funcionará y por qué funcionará así y esto no se conoce por la experiencia, sino que se sabe antes de que exista. A partir de 226 este momento histórico, la máquina vuelve a ser un modelo teórico; la mayoría de ellas se pueden transformar en experimentos mentales, o sea, se interpreta una situación compleja según mecanismos, y hablamos así de los mecanismos psíquicos, de los mecanismos del mercado. La máquina se presenta como un ideal. La interpretación del animal y del hombre como máquinas es una concepción típica del siglo XVIII. Pero ¿qué tipo de máquina? El que proporcionaba la ciencia de la época, es decir, la mecánica. La tecnología ha cambiado la manera de entender la explicación científica; esta consiste en elaborar un modelo máquina para todas las cosas. También ha variado la manera de entender la noción de observación y de inobservable. En física, por ejemplo, son continuas las discusiones acerca de la realidad de las partículas elementales y de su observabilidad. ¿Qué significa observación? La observación no se puede reducir a percepción, porque la observación consiste en atribuir a algo el resultado de lo percibido, de los perceptos. Cuando se afirma que se está viendo alguna cosa es porque hemos incluido los detalles que han afectado a los sentidos dentro de un constructo que depende de las cosas que ya conocemos. La observación requiere, una integración de conjunto de nuestras facultades. Lo mismo ocurre cuando se observan las fotos tomadas dentro de una cámara de Wilson: el científico es el que sabe cómo interpretar esas fotos, y, entonces, afirma que ha visto la trayectoria de un electrón. Se aprecia así cómo la tecnología ha cambiado el concepto de observable e inobservable. Observable es siempre aquello observable a través de instrumentos, y lo que se 227 observa a través de éstos es observable aunque no corresponda a nada cuyas propiedades sean perceptibles por los sentidos; se atribuye al objeto científico propiedades que dependen indirectamente de los resultados de observación y de medición, pero no se ven. Si atribuimos a algo una masa o una carga eléctrica, tales cosas no se pueden ver sino que se calculan; el objeto científico resulta como un conjunto de todos estos predicados, ninguno de los cuales es visible, pero a cada uno de ellos se puede considerar como causa de efectos percibibles revelados a través de los instrumentos. La tecnología es la condición generalizada para la construcción de los objetos científicos y para su conocimiento. Se ha visto que de la realidad se realiza una especie de corte que selecciona ciertos aspectos a fin de someterlos a los procesos cognoscitivos, y tales aspectos son hoy los que tan sólo mediante instrumentos de tecnología muy avanzada se pueden poner en evidencia. Se necesitan conceptos, y de otro son precisas tecnologías capaces de poner en contacto estos conceptos con sus referentes. Por eso, es gracias a la tecnología que hoy día puede seguir afirmándose el alcance realista de la ciencia, pues tal alcance depende del uso de instrumentos, y de la tecnología. La Dominación Tecnológica según la Teoría Crítica En la actualidad, la influencia que ejercen ciertas tecnologías sobre la vida a partir de la incorporación de la computadora, invita a desarrollar un sentido crítico que se enfrente a los imperativos tecnológicos; una manera de llevar 228 a cabo esta inquietud es reconociendo cuáles son las interpretaciones antecedentes de esta mirada crítica sobre el proceso de innovación técnica. Con tal objeto, se establece la necesidad de reconstruir los lineamientos originales del diagnóstico surgido de los aportes de la teoría crítica. Para alcanzar dicho objetivo, se recuperan las obras de: Horkheimer, Adorno y Marcuse, que mediante las apreciaciones salientes de un revisionismo que cuestiona muchas de sus afirmaciones, simbolizado en la figura de Jürgen Habermas. Según Marcuse, la ideología dominante se sirve de la función operacional de la tecnología para reforzar distintas formas de alineación y aislamiento en detrimento de la libertad humana. Los desafíos teóricos promovidos por esta afirmación son hoy un horizonte de reflexión categórico. Marcuse y la Política de la Tecnología Según Habermas, los hombres del círculo interno de la Escuela de Frankfurt compartían una filosofía de la historia, que supone el proceso de racionalización técnica de la vida social, y, que alcanza su fin en un sistema cerrado de dominación tecnológica; más allá de esta interpretación, advierte la actitud distintiva de Marcuse, cuando reacciona al diagnóstico de la época y recupera la idea de resistencia, al llevar a la razón al ámbito de la naturaleza libidinal. Más allá de Habermas, aquí vemos como las potencialidades emancipatorias se hallan en Marcuse, y, por lo cual, no había necesidad de rediseñar su interpretación, sino que 229 era preciso permanecer en los supuestos e indicadores analizados para el diagnóstico del hombre unidimensional para encontrar una salida. En dicha obra se observan tres niveles analíticos, que expresan los cambios operados en la forma de dominación de la sociedad industrial avanzada. El primero de ellos pone el acento en el pasaje de la dominación caracterizada por la fuerza hacia una forma menos violenta. La novedad la centra en una forma de dominación técnica que se sostiene sobre la base de una eficacia de los resultados alcanzados por el progreso, y un adoctrinamiento promovido por las mejorías del nivel de vida. En su lugar había quedado una parodia cruel del sueño de la libertad positiva. La Ilustración, que había tratado de liberar al hombre, irónicamente había servido para esclavizarlo con medios mucho más eficaces que nunca. Sin un mandato claro para la acción, el único curso abierto para quienes todavía podrían escapar al poder embrutecedor de la industria cultural consistía en preservar y cultivar los vestigios de negación que aún quedaban. Según Jay. Esta primera suposición insiste en que: en la sociedad industrial avanzada el progreso técnico se ha extendido hasta convertirse en el eje de la dominación y la coordinación. Con esa función mediadora crea formas de vida y reproduce un poder, que reconcilia a las siempre sensibles fuerzas; por ende, el centro de los análisis críticos sobre esta formación social tiene que centrarse en el diseño totalizante del aparato técnico y científico. En palabras de Marcuse, esto se observa cuando: el aparato técnico de producción y distribución funciona, no como la suma total de meros instrumentos que pueden ser aislados de sus efectos sociales y políticos, sino más bien como un sistema que determina a priori el producto del aparato, tanto como las operaciones realizadas para servirlo y extenderlo. 230 Marcuse pone en dudas el supuesto tradicional sobre la neutralidad tecnológica. Admitiendo que, el dispositivo de control y coordinación no puede ser separado de la forma cómo se emplea; su operatividad es omnipresente. La intromisión del recurso técnico en todos los aspectos sociales se justifica en vista de su instrumentalidad, en el sentido de productividad y crecimiento potencial; dichos indicadores son empleados como principios para la estabilidad de su permanencia, es decir, para profundizar su carácter omnipresente, sin dar lugar a otras alternativas sobre su funcionalidad. Esta función ideológica hace del accionar técnico un accionar político: el impacto del progreso convierte a la razón en sumisión a los hechos de la vida y a la capacidad dinámica de producir más y mayores hechos de la misma especie de vida. La eficacia del sistema impide que los individuos reconozcan que el mismo no contiene hechos que no comuniquen el poder represivo de la totalidad. Si los individuos se encuentran a sí mismos en las cosas que dan forma a sus vidas, lo hacen no al dar, sino al aceptar la ley de las cosas; no las leyes de la física, sino las leyes de la sociedad. Según Marcuse. El segundo nivel analítico es el reconocimiento de los impactos de la sociedad tecnológica sobre la libertad y, con su recorte, descubre las contradicciones de esta conformación social y los espacios de la resistencia; frente a su fortaleza, promovida por una reproducción de riqueza, que conforma las necesidades de todos los individuos la oposición a este orden de cosas se nos presenta como una expresión del grado de beneficio alcanzado por el progreso social. Esta novedad también, puede revertirse, y advertirse: debido a que el poder de la máquina no es más que la expresión manifiesta del poder del hombre, almacenado en los apara231 tos y proyectado en su eficacia; esta forma de poder, omnipresente, eficaz y permanente puede encontrar, a pesar suyo, un cambio: cuando más racional, productiva, técnica y total deviene la administración represiva de la sociedad, más inimaginables resultan los medios y modos mediante los cuales los individuos administrados pueden romper su servidumbre y alcanzar su propia liberación. El proceso siempre reemplaza un sistema de precondicionamiento por otro; el objetivo óptimo es la sustitución de las necesidades falsas por otras verdaderas, el abandono de la satisfacción represiva. Encontramos un tercer nivel analítico, el cual indica una paradoja en esta dominación, y la ubicación de los potenciales críticos de la dominación tecnológica. Si bien la libertad se ha convertido en un medio de dominación existe una salida para esta reproducción del poder: el recurso está en liberarnos de aquello que es tolerable. En este estado de complejidad del dominio de la sociedad, el camino es intensificar la contradicción del poder. Demostrando que no poseemos la capacidad de determinar un grado de libertad, y que el abanico de posibilidad para escoger, no nos provee de la facultad para ser libres. Parafraseando al autor: la sociedad que proyecta y realiza la transformación tecnológica de la naturaleza, altera la base de la dominación, reemplazando gradualmente la dependencia personal por la dependencia al orden objetivo de las cosas. Los límites de esta racionalidad, y su siniestra fuerza, aparecen en la progresiva esclavitud del hombre por parte de un aparato productivo que perpetúa la lucha por la existencia y la extiende a una lucha internacional total que arruina las vidas de aquellos que construyen y usan este aparato. En esta potencialidad se instala Marcuse para cuestionar la racionalidad unidimensional. El modelo de pensamiento 232 y conducta unidimensional de las ideas y sus contenidos sólo son reducibles para el universo: la política tecnológica y sus justificaciones. Es necesario evaluar las razones de su irracionalidad, siendo necesario indagar el conjunto de hipótesis autovalidades que promueven este universo ideológico, más allá de descubrir que su eficacia está en la repetición práctica de sus principios. La Política de la Tecnología A pesar de su aparente instrumentalismo, la teoría crítica rechaza una actitud neutral frente a la tecnología. En su lugar supone un complejo racional de índole técnica que se convierte en un universo. Tanto los diseños como las aplicaciones de los dispositivos tecnológicos se inscriben a partir de los valores del poder. Los objetivos y objetos de la tecnología no pueden considerarse como pura ideología, no es una expresión del interés de la clase dominante, ni son un requerimiento del desarrollo técnico independiente de la evolución de la sociedad. Habría que admitirlos como en una intersección entre la ideología y la técnica, como articulación funcional al servicio del control de los hombres y los recursos. Son dispositivos técno-ideológicos que contienen valores materializados en reglas y procedimientos de los artefactos que ponen en marcha la eficacia y la eficiencia de su control. La teoría crítica la dominación tecnológica supone no una instrumentalidad, mediada por artefactos, sino un proceso ambivalente de posibilidad prácticas, que se distingue del supuesto neutral de su intervención. 233 Hace más de cincuenta años que Th. Adorno y Max Horkheimer publicaron un trabajo en el que sometían a juicio todo el proceso de racionalización occidental que, arrancando del mundo griego, llega hasta nuestros días. Este tiempo que nos separa de la publicación de Dialéctica de la Ilustración bien podría brindarnos la ocasión de retomar las cuestiones abordadas y hacer un balance sobre la oportunidad de sus diagnósticos, al objeto de comprobar si siguen manteniendo una fertilidad teórica, a saber, la comprensión teórica de la actualidad. Desde muy antiguo, el hombre, ha hecho de su debilidad física su mejor aliada, desarrollando capacidades y destrezas que le han permitido sobrevivir frente a las amenazas del entorno. Es así como se pone en marcha todo un proceso de lucha por la existencia, o, por decirlo con Habermas, de reproducción material del mundo, del que no podremos prescindir mientras seamos seres naturales con necesidades materiales. Esta lucha por la existencia nos acompaña, pues, como la sombra al cuerpo, haciéndose más visible unas veces que otras; pero en esta interacción con el entorno, la razón ha tenido siempre un papel importante. La relación del hombre con su mundo ha estado presidida por una reflexión sobre los fines de la existencia, por un discurso que servía de marco de referencia para la acción; la reproducción material del mundo se enmarcaba en una reproducción simbólica que podía ser cambiada, pero que hacía las veces de plataforma teórica para justificar la acción del hombre en el mundo. Pues bien, es esa reproducción simbólica del mundo como horizonte, como marco para la acción, y, en definitiva, como rectora de la praxis; y lo está porque se ha 234 disparado cualitativa y cuantitativamente esa lucha por la existencia. De manera que pueda ser éste el rasgo distintivo de nuestro tiempo: como decía Kant, una razón que sabe cómo obrar pero no hacia dónde, no puede bastarse. El diagnóstico frankfurtiano sobre los procesos de racionalización modernos, sobre los avances de la ciencia y la técnica apuntan a este peligro: por una parte, la pérdida de reflexividad de la praxis; por otra, la absolutización de esa dinámica que la reproducción material del mundo incorpora, de esa lucha por la existencia, de esa autoconservación. Así, la pérdida del carácter reflexivo de la praxis conduce a un desafío para nuestro presente. Los efectos que la dinámica del capitalismo incorpora no pueden medirse sólo en términos de rentabilidad económica, como si fueran los únicos que se producen. Desde siempre, el hombre ha tenido que dar una respuesta a los problemas que sus necesidades y el entorno natural y social le han planteado. Para ello ha organizado y desarrollado dispositivos de investigación y de intervención en el mundo. La razón se desplegaba, así, bajo una doble forma teóricoreflexiva e instrumental-estratégica, orientada esta última al dominio técnico de la naturaleza. Los componentes reflexivo e instrumental de la razón han convivido durante siglos. Pues bien, para los autores de Dialéctica de la Ilustración los problemas que presentan un desafío proceden de la escisión de estos dos momentos de la compleja razón humana, hasta el punto de que se ha producido una instrumentalización de la razón. Dicho con otros términos: cuando más avanzó el proceso de racionalización que arranca con los mitos en su intento de explicar el mundo y la praxis; cuando la ciencia y 235 la técnica llegan a su punto más alto, se hace más cuestionable la racionalidad de este proceso. ¿Hasta qué punto hemos construido un mundo más racional en unos tiempos en los que el desarrollo científico-técnico ha alcanzado unos niveles difícilmente imaginables? ¿Podemos decir que se han hecho realidad las esperanzas que la Aufklärung depositó en el desarrollo de aquélla? Ni que decir tiene que estas preguntas pueden incomodar a quienes se encuentren entre las filas del universo científico-técnico. Pero no es este el propósito de Adorno y Horkheimer, ni tampoco lo es el de proponer una vuelta a la naturaleza. Lo que Adorno y Horkheimer se proponen con su crítica de los procesos de racionalización modernos no es sino una revisión, una crítica en el sentido kantiano de indagación de los límites de la ciencia y de la técnica. No se trata, de creer que en la crítica frankfurtiana hay un rechazo del progreso científico-técnico; más que un rechazo de la ciencia y de la técnica en sí hay en ellos un cuestionamiento de su utilización al servicio del sistema productivo; denuncian que la ciencia y la técnica, lejos de ser una instancia crítica empeñada en la emancipación del hombre, es utilizada con miras productivas; así, al eclipsarse la dimensión crítica que en otro tiempo tuvo, el discurso científico-técnico coopera en la perpetuación de lo existente, desempeñando una función conservadora. Pero en esta vertiginosa carrera, nuestra racionalidad se cobra sus víctimas: ahí está esa naturaleza extenuada; pero junto a esta naturaleza externa también está esa otra naturaleza interna, la de todos y cada uno de nosotros, que se ve sometida, a un esfuerzo para lograr la mera supervivencia. Pero no son sólo la naturaleza externa o el equilibrio psicofísico los que están amenazados. También asistimos a 236 una crisis de fines práctico-morales como consecuencia de la demanda de satisfacción de imperativos técnicos. La lucha por la existencia se ha radicalizado hasta el extremo de que cada vez hay menos lugar para la reflexión crítica sobre los fines de la praxis. Las cuestiones prácticas, sobre lo justo y lo injusto corre el peligro de disolverse en cuestiones técnicas. La desmoralización de la sociedad, el sentimiento de impotencia y de aislamiento de los individuos es un resultado de un proceso deshumanizador. Los sujetos experimentan el peligro que se cierne sobre la supervivencia. Y mientras tanto, la vida de los hombres se estructura en torno a una categoría central, que es consecuencia lógica de esta radicalización de la autoconservación. Esta categoría que se ha hecho central en nuestras vidas es la de trabajo. Pero como apuntaron Adorno, Horkheimer y Marcuse, lo patético de nuestro modo de entender la vida en términos de trabajo es que, una mayoría no es feliz en él. La vida no vive, subscribirá Adorno en su Minima moralia. ¿Cómo es posible que la naturaleza no se rebele, cómo es posible que todo siga intacto, como si todo fuera normal? La Racionalidad de la Ciencia La comunidad científica se ve a sí misma, como el auténtico paradigma de la racionalidad institucionalizada. Según Popper: la ciencia es una de las pocas actividades humanas, en la cual los errores se critican sistemáticamente y muy a menudo, se corrigen con el tiempo. Si se desea analizar hasta qué punto la imagen que la comunidad científica tiene de sí misma corresponde a los hechos. Vistos sub specie aeternitatis, los científicos 237 son un conjunto muy voluble; la historia de la ciencia es el relato de los múltiples cambios de lealtad de una teoría a otra; gran parte del de la actividad científica consiste en explicar el cambio. Este cambio de lealtades de una teoría a otra, se refiere a un cambio científico, es un cambio que requiere explicación. Lo que se encuentra en realidad es tipos radicalmente divergentes de esquemas explicativos; las diferencias entre los proponentes de estos esquemas son tan profundas como son siempre las divergencias intelectuales, y conciernen a la objetividad de la verdad, la posibilidad de discurso racional, la naturaleza de los valores, el lenguaje, el significado y la explicación. Los modelos de explicación del cambio científico son de dos tipos: modelos racionales de cambio científico y modelos no racionales. Un modelo racional comprende dos elementos; en primer lugar se estipula algo como finalidad de la ciencia; se considera que el objetivo de los científicos es producir teorías de un tipo especial. En segundo lugar, se enuncia algún principio que permita comparar teorías rivales sobre un marco de evidencia dado de antemano. Los racionalistas, entre los que se encuentran Popper, Lakatos y Laudan presentan entre sí, grandes diferencias en sus especificaciones respectivas tanto de las metas de la ciencia como de los principios de comparación. La mejor explicación del comportamiento de la ciencia es la que se obtiene a través de un modelo teórico de juego en el cual se considere que los científicos están dedicados a maximizar su prestigio en el seno de la comunidad científica. Se podría tratar de impugnar un modelo racional demostrando que no se ajusta a la historia de la ciencia; un 238 modelo particular podría obligarnos a interpretar todo cambio como no racional. Si se advierte que un modelo no resulta aplicable, este argumento exige su desestimación a favor de otro modelo racional; como el racionalista se compromete con un programa de investigación diseñado para reinvindicar un modelo cualquiera pero no uno en particular, la impugnación que se le formula es la de que en todo modelo racional hay presupuestos implícitos que no se pueden satisfacer. Ningún modelo racional puede servir como ideal defendible con el cual pueda confrontarse la práctica científica real. El racionalista se ocupa de articular un conjunto de principios que proporcionan el criterio objetivo de los méritos relativos de teorías rivales al margen de toda referencia a la evidencia; la condición de utilidad, es que las teorías puedan compararse. La posición de los no racionalistas como Kuhn y Feyerabend es la afirmación de que tal cosa es imposible, de que las teorías son inconmensurables. El ejemplo detal inconmensurabilidad lo representa el encuentro entreun defensor de la mecánica newtoniana y un defensor de la mecánicarelativista; según Kuhn, el cambio de significado ha sido tan grande que los conceptos de una teoría no se pueden expresar en la otra; su conclusión es que las teorías no admiten comparación. Para Feyerabend, la inconmensurabilidad sólo surge en ciertas condiciones. Kuhn, sobre la base de la inconmensurabilidad manifiesta que: la tradición científica einsteiana que surge de esta revolución científica no sólo es incompatible con lo que existía anteriormente, sino realmente inconmensurable con ello. Feyerabend sostiene que los defensores de teorías inconmensurables interpretan los 239 hechos de maneras diferentes. La doctrina de la inconmensurabilidad tiene un buen número de fuentes. Se dice, que el significado de un término teórico está determinado por todo el conjunto de proposiciones de la teoría que contenga el término, en consecuencia, todo cambio en los postulados que contengan un término teórico dado, produce un cambio en el significado de dicho término. Para el positivista y el neopositivista, el enfoque de postulado significante y el enfoque holístico sólo son aplicables a términos teóricos; de los términos observacionales pensaban que eran directamente aplicables a la experiencia. Su significado quedaba especificado en términos de las condiciones de verificación con referencia a la experiencia posible; se consideró que mientras el cambio teórico entrañaba cambios en el significado de los términos teóricos, el significado de los términos observacionales permanecía sin variación a pesar del cambio teórico. En la era pospositivista los críticos del positivismo, atacaron la concepción de una dicotomía entre teoría y observación. Pero toda observación está cargada de teoría, esto quiere decir, que no hay lenguaje observacional neutro desde el punto de vista teórico. En consecuencia, tanto los llamados términos teóricos como los llamados términos observacionales, son tratados como si fueran implícitamente definidos por la teoría en la cual aparecen. El programa racionalista no puede dar siquiera el primer paso a menos que se resuelva el problema de la inconmensurabilidad. Los racionalistas han tendido al realismo, y el punto de vista realista de la ciencia tiene como partes: 240 a) La afirmación de que las teorías son verdaderas o falsas en virtud de cómo sea el mundo b) La afirmación de que el objetivo científico reside en el descubrimiento de verdades explicativas acerca del mundo La primera reacción que se produce ante la explicitación de esta afirmación que es de considerarla axiomática. Pensar que las teorías son inconmensurables es pensar que no se las puede comparar entre sí, y que en consecuencia no puede haber ninguna razón racionalmente justificable para pensar que una teoría sea mejor que otra. Manifiesta Kuhn: la tradición científica normal que surge de una revolución científica no sólo es incompatible, sino a menudo realmente inconmensurable, con la que le precediera. Kuhn propone dos afirmaciones, que si se las aceptara darían lugar a una cierta inconmensurabilidad, entendiendo por inconmensurabilidad una limitación de la posibilidad de producir elecciones racionalmente justificables entre teorías; la primera tesis sostiene que al justificar preferencias por una teoría se tiene que recurrir a juicios de valor. La segunda sostiene que los juicios de valor son autónomos en el sentido en que es imposible aducir ninguna consideración para preferir un juicio de valor sobre otro. Si Einstein y Newton discurren acerca de masa y fuerza, no pueden discrepar, pero no porque estén de acuerdo; tampoco pueden concordar. Simplemente hablan de cosas diferentes. Desde este punto de vista, la afirmación de Newton: la masa es invariable, y la afirmación de Einstein: la masa no es invariable, no son lógicamente incompatibles, puesto que el significado de masa, no es constante en ambas teorías. Esto 241 quiere decir que Einstein y Newton podían auténticamente concordar o discordar en caso de que discurrieran en el plano observacional; lo cual significaba que las teorías respectivas se podrían comparar objetivamente recurriendo al nivel observacional. 242 BIBLIOGRAFÍA 1) Conde, Fernando; (1999) Las Perspectivas Metodológicas Cualitativa y Cuantitativa en el Contexto de la Historia de las Ciencias. En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 55-68 2) Conde, Fernando; (1999) Procesos e Instancias de Reducción/Formalización de la Multidimensionalidad de lo Real: Procesos de Institucionalización /Reificación Social en la praxis de la Investigación Social. En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 55-68 3) Davila, Andrés (1999) Las Perspectivas Metodológicas Cualitativa y Cuantitativa en las Ciencias Sociales: Debate Teórico e implicaciones praxeológicas. En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 69-83 243 4) Gutiérrez, Juan y Juan Manuel Delgado, (1999). Introducción. En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 25-50 5) Olabuenaga, Ruiz José I. (1999). Metodología de la Investigación Cualitativa, Serie Ciencias Sociales No. 15 (2ª. Ed.). Universidad de Deusto, Bilbao. 6) Ortí, Alfonso (1999). «La Confrontación de Modelos y Niveles Epistemológicos en la Génesis e Historia de la Investigación Social». En J. Gutiérrez, M. Delgado (Coordinadores), Métodos y Técnicas Cualitativas de Investigación en Ciencias Sociales, (3ª. Ed.). Síntesis Psicológica, España. pp: 85-95 7) Zemelman, Hugo; (2000a). «Conocimiento y Sujeto Sociales, Contribución al Estudio del Presente», Jornadas 111 (2a. Ed.). Centro de Estudios Sociológicos, El Colegio de México. 8) Zemelman, Hugo; (2000b). Problemas Antropológicos y Utópicos del Conocimiento, Jornadas 126 (2a. Ed.). Centro de Estudios Sociológicos, El Colegio de México. 9) Covarrubias V, F. (1995, a) Las herramientas de la Razón. La teorización potenciadora intencional de procesos sociales, ed. SEP - UPN, México, Col. Textos, N0. 3. 10) Covarrubias V, F. (1995, b). La teorización de procesos histórico - sociales. Volición, ontología y cognición científica, ed. SEP - UPN, México, Col. Textos No. 4. 244 11) Covarrubias V, F. (1998). Manual de técnicas y procedimientos de investigación social desde la epistemología dialéctica crítica, ed. UPN-Oaxaca, Colegio de Investigadores en Educación de Oaxaca, S. C., México; Colec. Teoría 1. 12) Gutiérrez, P. J. G. (1998). Metodología de las ciencias sociales II, ed Oxford University Press, México. 13) Agamben, Giorgio (2001) Medios sin fin. Notas sobre la política, Valencia, Pre-Textos. 14) Besse, Juan (2000) «Las prácticas de escritura y diseño en la investigación social» en Cora Escolar (comp.) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires, Eudeba. 15) Bourdieu, Pierre (1995) La práctica de la antropología reflexiva en Bourdieu, Pierre y Loïc Wacquant Respuestas por una antropología reflexiva, México, Grijalbo. 16) Cacciari, Massimo (1994) Lo impolítico nietzscheano en Desde Nietzsche. Tiempo, arte y política, Buenos Aires, Biblos. 17) Certeau, Michel de (1996) La invención de lo cotidiano. I Artes de hacer, México, UIA Ediciones. 18) Chartier, Roger (1997) Pluma de ganso, libro de letras, ojo viajero, México, Universidad Iberoamericana-Departamento de Historia. 19) Eagleton, Terry (1996) La función de la crítica, Buenos Aires.Paidós. 245 20) Escolar, Cora (2000) Palabras introductorias en Cora Escolar (comp.) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires, Eudeba. 21) Herf, Jeffrey (1984) El modernismo reaccionario. Tecnología, cultura y política en Weimar, México/Buenos Aires, FCE. Ibáñez, Jesús ; Más allá de la sociología. El grupo de discusión: técnica y crítica, Madrid, Siglo XXI de España. 22) Le Gaufey, Guy (1993) La evicción del origen, Buenos Aires, Edelp 23) Milner, Jean-Claude (1995) La obra clara, Buenos Aires, Bordes Manantial, 1996. 24) Panofsky, Erwin (1936) El estilo y el medio en la imagen cinematográfica en Sobre el estilo. Tres ensayos inéditos, Barcelona, Paidós. 25) Rabotnikof, Nora (1998) Lo público, lo privado en Debate Feminista. Público-Privado, Año 9, Vol. 18, México, octubre. 26) Zizek, Slavoj (1994) En su mirada insolente está escrita mi ruina en Zizek, Slavoj (comp.), Buenos Aires, Manantial. 27) Engel A.K. et al.(1992) Correlated Neuronal Firing: A Clue to the Integrative Functions of Cortex? In J.G. Taylor et al.: Neural Network Dynamics, London, 125139. 246 28) Engel A.K. et al.: Temporal Coding in the Visual Cortex, Trends in Neuroscience 15/6, 218-225. 29) Malsburg, C.v.d./Singer, W.(1988) Principles of Cortical Network Organization, in P. Rakic/W. Singer (eds.): Neurobiology of Neocortex, Chichester.+ 30) Popper, K.R.: (1935) Logik der Forschung. Wien. 31) Putnam, H.:(1981) Reason, Truth and History, Cambridge, Cambridge University Press. 32) Vollmer, G.: (1987) On Supposed Circularities in an Empirically Oriented Epuistemology, in G. Radnitzky/ W.W. Bartley III: Evolutionary Epistemology, Rationality and the Sociology of Knowledge, Lasalle (Ill.), 163-200. 33) Chalmers, Alan, (1996) Qué es esa cosa llamada ciencia: una valoración de la naturaleza y el estatuto de la ciencia y sus métodos, México, Siglo xxi Editores. 34) Conde, Fernando, (1995) Las perspectivas metodológicas cualitativa y cuantitativa en el contexto de la historia de las ciencias y Procesos e instancias de reducción/ formalización de la multidimensionalidad de lo real: procesos de institucionalización/reificación social en la praxis de la investigación social, en Juan Manuel Delgado y Juan Gutiérrez (eds.), Métodos y técnicas cualitativas de investigación en ciencias sociales, Madrid, Síntesis Psicológica. 35) Fried Schnitman, Dora, (1996) Ciencia, cultura y subjetividad, en Dora Fried Schnitman (coord.), Nuevos paradigmas, cultura y subjetividad, Barcelona, Paidós. 247 36) Glaserfeld, Ernst, (1996) La construcción del conocimiento, en Dora Fried Schnitman (coord.) Nuevos paradigmas, cultura y subjetividad, Barcelona, Paidós. 37) Martínez, Sergio, (1997), De los efectos a las causas: sobre la historia de los patrones de explicación científica, México, Seminario de Problemas Científicos y Filosóficos unam/Instituto de Investigaciones Filosóficas unam/ Piados 38) Ortí, Alfonso, (1995), La confrontación de modelos y niveles epistemológicos en la génesis e historia de la investigación social, en Juan Manuel Delgado y Juan Gutiérrez (eds.), Métodos y técnicas cualitativas de investigación en ciencias sociales, Madrid, Síntesis Psicológica 39) Cajiao, Francisco. (1996) La piel del alma. Cuerpo, Educación y Cultura. Santafé de Bogotá: Mesa Redonda. 363p. ISBN: 958-20-0302-2. 40) De La Cuesta, B. Carmen. (1998) Taller de investigación cualitativa. En: Memorias del seminario taller de Investigación Cualitativa, Universidad de Caldas. Facultad de Ciencias para la Salud. Programa de Enfermería. ( Abril 24-25-26 y Mayo 8-9-10. Manizales). 41) Habermas , (1999) J. Teoría de la Acción Comunicativa, Tomo I: Racionalidad de la Acción y Racionalización Social; y Tomo II: Crítica de la Razón Funcionalista. 4º Edición. España: Taurus. 517 y 618p. ISBN T.1: 84-3060339-5. Y T.2: 84-306-0340-9. 248 42) Husserl Edmund. (1997) Filosofía Contemporánea. Ideas Relativas a una Fenomenología Pura y a una Filosofía Fenomenológica. Libro Segundo. Investigaciones Fenomenológicas Sobre Institución. Universidad Nacional Autónoma de México. México. 512p. ISBN: 968-365-978-0. 43) Jaramillo E. Luis Guillermo. Et.al.(1999) Sentido cultural que le encuentran los estudiantes de primero y octavo semestre al programa de Educación Física De La Universidad de Caldas. Manizales. Trabajo de grado (Educación física): Universidad de Caldas. facultad de Ciencias para la salud. Departamento de Acción física Humana. 44) Arnaz, Jr. A. (1997). Iniciación a la Lógica Simbólica. Trillas. México 45) Escolar, C. (2000) Topografías de la investigación. Métodos, espacios y prácticas profesionales, Buenos Aires, EUDEBA. 46) Ibañez, J. (1990) (Coord.) Nuevos avances en la investigación social I. Barcelona, Proyecto A. Ediciones. 47) Lazarsfeld, P. y M. Rosenberg (eds.) 1955 The language of social research, New York, The Free Press. 48) Bunge, M (1998) La sociología de la ciencia. Bs. As. Editorial Sudamericana. 49) Bunge, M(1985) La investigación científica. Ed. Ariel Methodos , Barcelona. 249 50) Rodríguez, D. & M. Arnold.(1991) Sociedad y Teoría de Sistemas. Editorial Universitaria. Santiago. Chile. 51) Feenberg, Andrew (1996a) Marcuse or Habermas: Two Critiques of Technology, Inquiry 39, 1996, pp. 45-70.] 52) Feenberg, Andrew (1996b) Heidegger, Habermas and the Essence of Technology, International Institute for Advanced Study, Kyoto. 53) Fernández, Rafael (2001) Metacrítica de la Teoría Crítica», Metapolítica, Volumen 5, n. 19, septiembre 54) Fernández, Sergio (1997) Habermas y la Teoría Crítica de la Sociedad. Legado y Diferencias en la Teoría de la Comunicación, en Cinta de Moebio Nº1. Septiembre. 55) Wolfgang Cruz Rivero, Juan (1999) El triunfo de la razón tecnocrática. Revista Razón y Palabra, Número 14, Año 4, Mayo - Julio 56) Horkheimer, Max, Adorno, Theodor W.(1994) Dialéctica de la Ilustración. Fragmentos filosóficos. Introducción y traducción de Juan José Sánchez, Madrid, Trotta. 57) Horkheimer, M.(1989) La imaginación dialéctica. Una historia de la Escuela de Frankfurt. Madrid, Taurus, 3ª reimp., p. 9. 58) J. Habermas (1987) Teoría de la acción comunicativa II, cap. VIII, Madrid, Taurus. 59)Kant, I., La religión dentro de los límites de la mera razón. Madrid, Alianza ed. 2ª ed. p. 20. 250 60)Bunge M. (1997). La Causalidad. El Principio de Causalidad en la Ciencia Moderna. Edit. Sudamericana. Bs. As. 61) Bateson G. (1997). Espíritu y Naturaleza. Amorrortu. Bs. As. 62) Gaeta R. et al. (1996). Modelos de Explicación Científica. Problemas epistemológicos de las Ciencias Naturales y Sociales. Eudeba. Bs. As. 63) A. Przeworski y H. Teune, (1990)La medición en investigación comparativa”, en F. Cortés, R.M.Rubalcava y R. Yocelevsky, (comp..) Metodología, Volumen IV. Programa Nacional de Formación de profesores Universitarios, México. 64) Bello Díaz, R (1989) Teoría y origen del conocimiento. Acta Médica Dominicana Vol. 11 No. 6 65) Bello Díaz, R (1992) Ciencia e investigación científica.Acta Médica Dominicana, Vol. 14 No. 6 66) Bello Díaz, R (2001) Universidades, ciencia y tecnología. Revista Conciencia y Educación Superior, Publicación del Consejo Nacional de Educación Superior (CONES) 67) Bello Díaz, R (2002) Virtualización de la Educación. Ediciones Unicaribe 251 252 Esta primera edición de Epistemología en la Ciencia y la Tecnología de la autoría del Dr. Rafael Emilio Bello Díaz se terminó de imprimir en los talleres gráficos de Editora, Somos Artes Gráficas en el mes de marzo del 2003, en Santo Domingo, República Dominicana 253 View publication stats