https://doi.org/10.34024/prometeica.2021.23.11087


ALEGATO POR EL CONTROL DEL RAZONAMIENTO


A PLEA FOR THE CONTROL OF REASONING


UM APELO A FAVOR DO CONTROLE DO RACIOCÍNIO


Enric Trillas

(Universidad de Oviedo)
etrillasetrillas@gmail.com


Alejandro Sobrino Cerdeiriña

(Universidad de Santiago de Compostela)

alejandro.sobrino@usc.es

Recibido: 18/08/2020
Aprobado: 05/02/2021

 

RESUMEN

El objetivo de este trabajo es mostrar que la falsación popperiana es un tipo extremo de control del razonamiento. Para ello se muestra el ‘esqueleto del razonamiento ordinario’, que parte de la consideración de que un enunciado q puede ser una consecuencia de otro p si cabe afirmar el enunciado condicional ‘Si p, entonces q’, abreviadamente, p < q, denotando < la relación de inferencia, una relación que, al no ser entendido el enunciado condicional de la misma forma en todos los contextos que abarca el lenguaje, se supondrá primitiva y que, en cada caso, deberá explicitarse en la forma que corresponda. Ello permitirá examinar el falsacionismo desde los conceptos formales de refutación y especulación, permitiendo una nueva mirada sobre lo que pretende ser un criterio de demarcación entre lo que es científico y lo que no lo es, así como arrojar dudas sobre la identificación entre ‘conjetura’ e ‘hipótesis’, al mostrar que hay varios tipos de conjeturas.

Palabras clave: falsacionismo. conjetura. hipótesis. especulación.


ABSTRACT

The objective of this work is to show that Popperian falsification is an extreme type of reasoning control. The ‘skeleton of ordinary reasoning’ is shown to approach that purpose, starting from the consideration that a statement q can be a consequence of another p ‘If p, then q’, abbreviated, p <q, denoting < the inference relation, a relation that. Since the conditional statement is not understood in the same way in all the contexts covered by the language, it will be assumed primitive and, therefore, must be approached correspondingly in each case. This standpoint will allow examining falsifiability from the formal concepts of refutation and speculation, allowing a new look at the demarcation criterion and cast doubt on the identification between ‘conjecture’ and ‘hypothesis’ by showing various kinds of conjecture.

Keywords: falsationism. conjecture. hypothesis. speculation.

RESUMO

O objetivo deste trabalho é mostrar que a falseabilidade popperiana é um tipo extremo de controle do raciocínio. Para isso, é mostrado o 'esqueleto do raciocínio ordinário', que parte da consideração de que um enunciado q pode ser consequência de outro p se o enunciado condicional 'Se p, então q', abreviadamente, p <q, denotando < a relação de inferência, relação que, uma vez que o enunciado condicional não é entendido da mesma forma em todos os contextos que a linguagem abrange, será assumida como primitiva e que, em cada caso, deve ser explicitada da forma adequada. Isso nos permitirá examinar o falsificacionismo a partir dos conceitos formais de refutação e especulação, permitindo um novo olhar sobre o que se pretende ser um critério de demarcação entre o que é científico e o que não é, bem como lançar dúvidas sobre a identificação entre 'conjectura'. e 'hipótese', por mostrar que existem vários tipos de conjecturas.

Palavras-chave: falsificacionismo. conjectura. hipótese. especulação.


Introducción

Este artículo no trata directa, específica y únicamente del ‘racionalismo crítico’, como Karl R. Popper denominó (Popper, 1934, 1963) y su seguidor David Miller aún denomina (Miller, 1994) la doctrina filosófica también conocida por falsacionismo o refutacionismo. No se intentará más que ofrecer una visión previa de cuánto y en relación con esa doctrina se refiere a la refutación, desde el punto de vista del modelo matemático que el primer autor ha llamado el esqueleto formal del razonamiento ordinario, de sentido común o de cada día y que se efectúa en y con un lenguaje natural que domine cada pensador (Trillas, 2017, 2018, 2020, en prensa).

Se trata de un modelo que, siendo un marco formal y muy general de ese razonamiento, permite establecer resultados válidos en cualquier otro tipo de razonamiento que no acepte ni como premisas ni como conclusiones enunciados auto-contradictorios. Tal esqueleto formal soporta, se encuentra, en muchos de los modelos que desarrolla la Lógica’ la cual y desde siempre, se ha entendido como el estudio de las condiciones que hacen correcto al razonamiento deductivo; un claro antecedente de control del razonamiento. El ‘esqueleto’ conduce a una interpretación de las palabras de Albert Einstein, La ciencia proviene de refinar el pensamiento ordinario.

Contemplar el falsacionismo desde los conceptos formales de refutación y especulación podrá, tal vez, echar algo de luz acerca de una visión filosófica que nada menos pretende ser un doble criterio de demarcación entre lo que es científico y lo que no lo es, así como entre la inducción y lo que no lo es y negando, a la vez, que la inducción sirva para alcanzar el conocimiento científico, para lo cual sólo aceptan la deducción. Repensar la visión de Popper desde aquel esqueleto significa hacerlo con una perspectiva que, no coincidente con lo que aportan sus escritos y los de Miller, ofrece, sin embargo, un punto de vista nuevo que permite, a la vez, considerarla de manera ‘naïve’ y más amplia, al no afectar únicamente al razonamiento científico. Tanto Popper como Miller, por ejemplo, identifican ‘conjetura’ con ‘hipótesis’ pero, como se verá, hay otros tipos de conjeturas.

Originalmente, se trató de un tema íntimamente relacionado con los debates sobre el método científico que, básicamente mantenidos en una parte de la Filosofía de la Ciencia tienen, no obstante, y razonablemente, escaso eco en los ámbitos científicos.

En todo caso, este artículo no pretende ser conclusivo, es únicamente una reflexión en favor del ‘control del razonamiento’ y considerando pernicioso su descontrol; es bien sabido que algo descontrolado ofrece peligro y una de sus pretensiones reside en mostrar que la falsación popperiana es un tipo extremo de control del razonamiento. Es gracias al razonamiento cómo, finalmente y de la manera que sea, se obtiene el conocimiento científico.

El esqueleto del razonamiento ordinario

Se debe, ante todo, exponer el modelo matemático llamado ‘esqueleto formal’ del razonamiento ordinario (Trillas, 2020) que se ha citado. Tal modelo parte de observar, en el lenguaje, que un enunciado q puede ser una consecuencia de otro p, si cabe afirmar el enunciado condicional ‘Si p, entonces q’, abreviadamente, p < q, y llamando a la relación binaria < así definida la relación de inferencia.

Una relación que, al no ser entendido el enunciado condicional de la misma forma en todos los contextos que abarca el lenguaje, se supondrá primitiva y que, en cada caso, deberá explicitarse en la forma que corresponda; por ejemplo y entre otras, se entiende como el enunciado incondicional ‘no p o q’, abreviado por p’ + q, o como ‘no p o (p y q)’ , abreviado por p’ + p · q, e incluso, cuando carece de sentido considerar no-p, por ‘p y q’, abreviado p · q.

El razonamiento ordinario es contextual, cuanto maneja se refiere a situaciones concretas; por ello, los enunciados deben ser tratados mediante su significado local, especificándolos por lo que indican en la concreta situación del discurso y del contexto que lo circunda (Trillas, 2017, 2018).

    1. Con ello, una consecuencia de p es toda q tal que p < q, una hipótesis o explicación para p es toda h tal que h < p, en tanto que una especulación desde p, es toda e que ni sea consecuencia ni hipótesis y bien verifique e’< p, o bien e’ y p no sean comparables entre sí por la relación de inferencia, lo cual se abreviará p ◊ e’. En el primer caso, p ◊ e y e’ < p, se dice que e es una especulación débil y en el segundo, p ◊ e y p ◊ e’, que es una especulación fuerte.

      En cuanto a la relación <, sólo se le supondrán dos propiedades universales:

      1. La ley reflexiva, p < p, para toda p;

      2. La regla del Modus Ponens, (p · (p < q)) < q.

      La primera garantiza que < no es vacía y la segunda (o regla MP) que < es efectiva, es decir, que dados p y p < q, q es alcanzado. Sin ellas, la relación < podría no existir o ser inútil. Nótese que si (1) garantiza que el conjunto de las consecuencias de p, p↑ = {q; p < q}, no es vacío ya que por lo menos es p p↑,

      1. garantiza que los demás elementos de p↑ puedan ser alcanzados. Nótese que si la fórmula (2) del Modus Ponens, puede ser resuelta como una inecuación, entonces cabe encontrar todas las expresiones para la relación <; ello es el caso en las álgebras de Boole (Birkhoff, 1948), puesto que la inecuación p

        • (p < q) < q es, en ellas e identificando < con su orden reticular, equivalente a (p < q) < p’ + q; es decir, en las álgebras de Boole cualquier expresión menor o coincidente con p’ + q (no p o q), verifica MP y por tanto puede representar p < q. Es el caso, por ejemplo, de p · q (p y q) puesto que, en esas álgebras, es p · q < q < p’ + q.


          En cuanto a la negación ‘no’, sólo se supondrá que satisface la ley universal llamada de contraposición:

          Si p < q, entonces q’ < p’. Abreviadamente, (p < q) < (q’ < p’).

          A la vez, se excluirá a cualquier enunciado p tal que verifique p < p’, que sea auto-contradictorio. Tal denominación proviene de definir que r contradice o refuta a p, si es p < r’ y con lo cual p < p’ indica que p se refuta o contradice a sí mismo, se auto-refuta o auto-contradice; es formalmente imposible.

          Nótese que si es p < p’, entonces y en virtud de la ley de contraposición, es (p’)’ < p’. Cuando un enunciado s es tal que verifica s’’ = (s’)’ < s’, también verifica s’’ < s’’’, siv < s’’’, etc., y se dice que es una tautología. Por tanto, la negación de un enunciado auto-contradictorio es una tautología, es tautológico.

          La negación se clasifica según su comportamiento en cada enunciado q respecto de <; de hecho, ello es una propiedad local y no universal como lo es la reversibilidad que, en realidad, es la definición de una

          negación como aplicación que asigna a cada enunciado q el no-q = q’. Algo que, además, debe comprobarse en cada caso; es decir, comprobar, dado q, la existencia real de un q’ sólo sometido a cumplir la ley de contraposición. Pues bien, la negación se llama:

          1. Intuicionista en q, si es q’’ < q.

          2. Débil en q, si es q < q’’;

            obviamente se trata de dos definiciones no incompatibles y, por ello, la negación también se llama:

          3. Fuerte en q de ser q’’ < q y q < q’’, abreviadamente, q q’’,

          4. Salvaje en q cuando ni es q’’ < q, ni q < q’’, es decir, cuando q y q’’ no son comparables por la relación de inferencia, abreviadamente q ◊ q’’.


      Fuerte significa a la vez intuicionista y débil en q, en tanto que salvaje significa ni intuicionista ni débil en q.

      Con independencia del carácter de la negación, la ley de contraposición permite probar que la relación

      < de inferencia verifica la llamada Regla Modus Tollens, o regla MT:

      Si dado p < q se conoce q’, entonces también se conoce p’.


      En efecto, [q’ · (p < q)] implica [q’ · (q’ < p’)] que, por la regla MP, lleva a p’; en particular, [q p↑ => p’ q↑].

      Debe notarse que ambas reglas MP y MT sólo son efectivamente aplicables si las respectivas premisas, p · (p < q) y q’ · (p < q) no son auto-contradictorias. Por ejemplo, en un álgebra de Boole (Birkhoff, 1948) e interpretando el enunciado condicional p < q por el enunciado incondicional p · q, no puede aplicarse la regla MT: q’ · (p < q) = q’ · (p · q) = p · (q’ · q) = p · 0 = 0, lo cual asegura, como se verá a continuación, que la premisa q’ · (p < q) es auto-contradictoria. No sucede lo mismo de interpretar p < q como p’ + q, ya que: p · (p’ + q) = p · p’ + p · q = 0 + p · q = p · q < q. Nótese que, de prescindir del último paso anterior, la ecuación p · (p < q) = p · q puede permitir encontrar más fácilmente algunas expresiones para p < q; así, como de ella se sigue

      p’ + p · (p < q) = p’ + p · q => (p’ + p) · (p’ + (p < q)) = (p’ + p) · (p’ + q) => p’ + (p < q) = p’ + q, cualquier expresión de p < q que la satisfaga será una solución, como es el caso, por ejemplo, de q + p’

      • q’, ya que es inmediato comprobar p’ + q + p’ · q’ = p’ + q.

        Los nombres de ambas reglas provienen, respectivamente, de abreviar las expresiones latinas Modus Ponendo Ponens, el modo de ‘poner’ la conclusión tras poner la premisa, y Modus Tollendo Tollens, el modo de ‘quitar’ la negación de la premisa tras quitar la negación de la conclusión.


    2. Definida la contradicción, el nombre auto-contradictorio no requiere explicación adicional, pero lo requiere el de tautología que, originalmente, se refirió a aquellos enunciados que se verifican para todos los elementos a los que se apliquen; por ejemplo, el enunciado ‘n es par’ es una tautología si n es cualquier número par y no lo es si n es cualquier número natural aunque lo es el enunciado ‘n = n’, todo número natural es igual a sí mismo.

      En las álgebras de Boole (Birkhoff, 1948), donde la relación < se considera igual al orden reticular subyacente: p < q p + q = q p · q = p, la fórmula p < q’ implica la p · q < q’ · q = 0 que, a su vez implica p · q = 0; es decir, si q contradice p, ambos son incompatibles. Recíprocamente, si p q = 0, en virtud de la ley booleana del reparto perfecto, p = p · q + p · q’, es p = 0 + p · q’ = p · q’ p < q’. Por

      lo tanto, en las álgebras de Boole es p < q’ p · q = 0, sus muchas leyes no permiten distinguir entre contradicción e incompatibilidad.

      En esas álgebras, la negación es fuerte en todos sus elementos; el carácter fuerte de la negación es universal en ellas. Además, la anterior relación es la igualdad, ya que p < q y q < p significa, en ellas, p = q, puesto que p < q p = p · q, q < p q = q · p y, al ser la conjunción (·) conmutativa, sigue p = p · q = q · p = q.

      Con ello, es p < p’ p · p = 0 p = 0; el único elemento auto-contradictorio es el mínimo 0. Nótese que, p’ < p p’ < p’’ p’ = 0 p = 1, es decir, p es el máximo y en el cual ‘están contenidos’ todos los elementos del álgebra, todos la verifican: es la tautología de la misma. Por ejemplo, en el álgebra de Boole 24 con cuatro átomos a, b, c, d, y 16 elementos obtenidos con todas las disyunciones posibles de los átomos más el mínimo 0 = a · b = a · c = … = c · d, el elemento máximo es a + b + c + d = 1 y, obviamente, es: a < 1, b < 1, c < 1, d < 1, a + b < 1, etc. De darse 1 se dan, automáticamente, todos los elementos del álgebra de Boole. De ahí que, pese a las muchísimas leyes universales de que gozan esas álgebras, se haya extrapolado el nombre tautología para designar a los p tales que p’ < p.


      Debe observarse que, en el lenguaje en y con el cual se desarrolla el razonamiento ordinario, la existencia de enunciados mínimo o máximo, 0 y 1, es decir que para cualquier otro enunciado q sea 0 < q o q < 1, no es evidente en todos los contextos. Su existencia no puede considerarse más que una propiedad local; sin embargo, en poco se retomará el asunto.

    3. De hecho, dos enunciados u y v se llaman equivalentes por inferencia, cuando valen simultáneamente u < v y v < u, lo cual, y como se dijo, se abrevia u v. Una relación que es, evidentemente, reflexiva y simétrica, pero que, en general, no es transitiva; en general, no es una relación de equivalencia algebraica (Trillas, 2020), (Birkhoff, 1948). Sin embargo, una condición suficiente para ello es que < sea por lo menos localmente transitiva, es decir, que verifique [p < q, q < r => p < r]. En efecto, de ser < transitiva localmente en la terna (p, q, r), entonces:

      p q & q r ((p < q) & (q < p)) & ((q < r) & (r < q)) ((p < q) & (q < r)) & ((r < q) & (q < p)) => (p < r) & (r < p) p r.

      Cuando la transitividad de < es universal, como es el caso de las álgebras de Boole, la relación es una equivalencia algebraica o igualdad; como se mostró, en esas álgebras es p q p = q.

      En cualquier fórmula involucrando la relación de inferencia <, puede substituirse todo enunciado q por otro r equivalente a él y obteniéndose un resultado también equivalente. Así, en la fórmula booleana p

      + q · q’ puede substituirse q · q’ por 0 y obtenerse p + q · q’ = p + 0 = p; los enunciados p + q · q’ y p

      son equivalentes en las álgebras de Boole y aunque en general sólo verifiquen p < p +q · q’.

      En el lenguaje no siempre puede asegurarse que una terna sea transitiva (Trillas, 2020) y el fallo de la transitividad provoca que, por ejemplo, no pueda asegurarse que, como se probará de inmediato, una consecuencia o una hipótesis sean conjeturas.

      Si una refutación de p es un enunciado r tal que p < r’, una conjetura q es un enunciado que no refuta a p, es decir, tal que p </ q’, no es p < q’; obviamente, dado p no hay más que refutaciones y conjeturas. En particular, las especulaciones son conjeturas ya que tanto e’ < p como e’ ◊ p implican p </ e’. Con todo ello y en presencia de transitividad local:

      1. Si es p < q, con p </p’ (p no auto-contradictorio), también es p </q’.

        En efecto, si fuese p < q’, como sea que p < q => q’ < p’, la transitividad asegura que vale el absurdo p < p’; por lo tanto, es p </q’. Es decir, bajo transitividad local (en la terna (p, q’, p’) por lo menos), toda consecuencia de una premisa no auto-contradictoria es una conjetura.

      2. Si es h < p y h </h’, también es h </ p’.


        En efecto, de ser h < p’, a causa de que h < p => p’ < h’, seguiría el absurdo h < h’; por lo tanto, es h </ p’. Es decir, bajo transitividad local (en la terna (h, p’, h’) por lo menos), toda hipótesis no auto- contradictoria es una conjetura.

        Nótese que si es p < q, no puede ser q < q’. De ser así, la transitividad local en la terna (p, q, q’) llevaría a p < q’, que es absurdo por (1). Por lo tanto, bajo transitividad local no hay consecuencias auto- contradictorias de una premisa no auto-contradictoria. Es más, dos consecuencias cualesquiera no pueden ser contradictorias: De ser p < q y p < u, si fuese u < q’, al ser también q’ < p’, la transitividad local implicaría el absurdo p < p’.

        Sin embargo, esos resultados no pueden deducirse en el caso de las hipótesis, en el cual la experiencia enseña que, muchas veces, se presentan hipótesis contradictorias de las cuales, por tanto, sólo una de ellas podrá aceptarse. Nada garantiza, a la vez, que una hipótesis deba ser no auto-contradictoria; por ello, una tal hipótesis se excluye y, realmente, las hipótesis que se consideran son aquellos enunciados h tales que h </ h’, h < p pero sin que sea p < h, es decir, sin que sea h p, que equivaldría a explicar p con p.

        Así pues, bajo transitividad local en las ternas que corresponda y dada una premisa p no auto- contradictoria, no hay más que refutaciones, consecuencias, hipótesis y especulaciones. Bajo transitividad, las conjeturas se clasifican perfectamente en consecuencias, hipótesis y especulaciones débiles y fuertes.

    4. Por todo lo dicho, el razonamiento ordinario sólo consiste en buscar como conclusiones, refutaciones, consecuencias, hipótesis y especulaciones. Además, bajo condiciones de transitividad local adecuadas, las tres últimas conclusiones son las únicas conjeturas posibles. En resumen, razonar es bien refutar, o bien deducir o abducir, o bien especular; abducir no es más que deducir hacia atrás y se considera que la Lógica es el estudio de la deducción correcta. Ciertamente, razonar equivale a conjeturar y refutar.

      Al modelo ‘esqueleto’ le faltan aún las leyes universales de la conjunción (·) y la disyunción (+). Son

      las siguientes,

      1. Conjunción: p · q < p, p · q < q

      2. Disyunción: p < p + q, q < p + q. De ellas se sigue que también vale:

      q · p < p, q · p < p, q < q + p, p < q + p,

      sin suponer que se trate de operaciones conmutativas.

      El hecho que tanto p como q estén por encima de p · q y por debajo de p + q, respecto de la relación < de inferencia, tampoco significa que p · q sea el menor de todos los enunciado que están por encima de ambos p y q, ni que p + q sea el mayor de cuantos están por debajo, como sucede en los retículos (Birkhoff, 1948); enunciados que, por otra parte, sería muy difícil describir en forma lingüística explícita. Nótese que, si las anteriores leyes no llevan a un retículo; sin embargo, no son incompatibles con esa estructura tan rígida; la toleran.

      Cuanto cabe afirmar es que tanto p como q están ‘entre’ p · q y p + q: p · q < p y p < p + q, indican que es p · q < p < p + q, así como p · q < q < p + q, fórmulas que, bajo transitividad, muestran p · q < p + q, así como que de ser p · q el menor de los de encima y p + q el mayor de los de debajo (es decir, de generar un retículo), entonces p y q son los únicos enunciados entre su conjunción y su disyunción que,

      además y necesariamente, son ambas conmutativas y asociativas aunque sin, también necesariamente, contar con máximo y mínimo.

      Es posible, en cambio y aunque tampoco sea necesario, que existan minimales o maximales, es decir, enunciados u tales que no exista ningún z verificando z < u, y enunciados v tales que no exista ningún z verificando v < z, respectivamente. Obviamente, si hay un único minimal es el mínimo y si hay un único maximal es el máximo y, en tal caso, ambos son únicos en el sentido de ser equivalentes por inferencia.

      En efecto, de haber dos mínimos 01 y 02, se verificarían simultáneamente 01 < 02 y 02 < 01, con lo cual sería 01 02. Y análogamente de existir dos máximos: 11 < 12 y 12 < 11 => 11 12.

      Cuando la relación < es transitiva y, por ello, también lo es la relación , entonces las clases [u] = {v; v

      u} son clases de equivalencia algebraica y, por tanto, son una clasificación perfecta o partición del conjunto de todos los enunciados involucrados. Tales clases reciben el nombre de proposiciones; sin embargo, el lenguaje no maneja siempre proposiciones sino enunciados. Además, y en el mismo, aunque esas clases existan, pueden no ser disjuntas entre sí.

      La transitividad, por lo menos local, hace más seguro el razonamiento ordinario; por ello, cuando la transitividad falla, se dice que el razonamiento ordinario es irregular y, en él, pueden existir consecuencias o hipótesis que no sean conjeturas, así como pares de consecuencias contradictorias y proposiciones con elementos comunes. El irregular es un tipo de razonamiento ordinario muy poco seguro; por ello es conveniente asegurarse de que haya transitividad en las ternas de enunciados que corresponda, que el razonamiento sea regular.

    5. En el esqueleto regular se verifican los dos teoremas siguientes,

      1. No Contradicción. Cualquiera que sea p, es p · p’ auto-contradictorio, imposible.

        En efecto, p · p’ < p => p’ < (p · p’)’ y como también es p · p’ < p’, la transitividad en la terna

        (p · p’, p’, (p · p’)’) conduce a p · p’ < (p · p’)’.

        Se trata de un resultado que garantiza el ‘principio’ de No Contradicción enunciado por

        Aristóteles como tal al ser, según él, no susceptible de prueba.

      2. Tercero Excluido. Cualquiera que sea p, p + p’ es una tautología.

        En efecto, p < p + p’ => (p + p’)’ < p’ y como también es p’ < p + p’, la transitividad en la terna ((p + p’)’, p’, p + p’) conduce a p + p’ < (p + p’)’.

        Se trata de un resultado que Aristóteles también enunció como un ‘principio’, si bien lo hizo de una

        manera menos clara que el de No-Contradicción.

        La prueba de estos antiguos principios aristotélicos, ahora teoremas y siempre vistos a lo largo de la historia como una garantía de razonamiento correcto, representa un soporte intelectual al modelo ‘esqueleto’. Es por ello que los seis principios en los que se basa, dos para la relación de inferencia, uno para la negación, los dos para la conjunción y la disyunción, más la transitividad local, pueden llamarse ‘principios formales del razonamiento ordinario’. Unos principios que, formalmente, son anteriores a los dos principios de Aristóteles.

    6. Con cuanto se ha expuesto surge una ‘regimentación’ del razonamiento ordinario que, básicamente, lo clasifica en dos categorías distintas, es más, disjuntas: Conjeturar y refutar. Con ello, deductivamente y sea hacia adelante o hacia atrás, surge la pregunta, ¿Qué representan las conclusiones respectivas?

Por lo que respecta a las conjeturas, p </c’, negar la relación < obliga a considerar las distintas posibilidades que contiene. Si c es una consecuencia, p < c, la regla MP indica que conocida la premisa, también se conoce la consecuencia por inferencia

Si c es una hipótesis, c < p, y si es aplicable la regla MT, conocido p’ también se conoce c’ y, negándola a (c’)’ si la negación no es salvaje en c, bien de c < (c’)’ se abduce c, bien de (c’)’ < c se deduce c. Es decir, si la negación no es salvaje, conocida la premisa también se conoce la hipótesis por inferencia.

Si c es una especulación, p ◊ c, nada puede asegurarse deductivamente excepto si se trata de una especulación débil cuando, como se mostrará en el siguiente apartado, se obtiene deductivamente y resulta efectivamente alcanzable. La gran diferencia con las especulaciones fuertes es su alcance que, no obstante, y como se verá, puede lograrse por medio de aplicar sucesivamente la regla MP.

En cuanto a las refutaciones, p < r’ implica (r’)’< p’ y entonces, supuesta la transitividad de < y que la negación es débil o intuicionista en r, r < (r’)’, sigue r < p’, se llega a no-p deductivamente. La refutación lleva a la negación de la premisa.

Debe notarse que, en varios de los casos, se acaba en un enunciado negativo que coexiste con su original, con lo cual se llega al absurdo de su conjunción; así es en el de las refutaciones donde se llega a p · p’. En el caso de las consecuencias, p < c => c’ < p’ y la regla MP muestra que se dispone tanto de p como de p’. En el caso de las hipótesis, c < p => p’ < c’ y coexisten c y c’. En el siguiente apartado se verá qué tiene todo ello que ver con la presunta ‘verdad’ tanto de la premisa como de la conclusión.


Especular, abducir y refutar

    1. El razonamiento ordinario se produce, real y efectivamente, mediante procesos secuenciales que alternan deducción hacia adelante y hacia atrás o abducción (Trillas, 2020, en prensa). La deducción lleva a consecuencias, la abducción a hipótesis y, cuando el camino mezcla deducción y abducción, cuando es mixto, puede llevar a especulaciones.

      Por ejemplo, en un álgebra de Boole finita 24, y cuyos cuatro átomos sean a, b, c, d, de la premisa p = a

      + b se llega, añadiendo otros átomos, a todas sus consecuencias {a + b + c, a + b + d, a + b + c + d = 1}, en tanto que quitando átomos se llega a todas sus hipótesis {a, b}. Si se quitan y añaden simultáneamente átomos, se llega a elementos ortogonales a p, que pueden ser especulaciones:

      • El camino mixto: p = a + b > a < a + c = e, lleva a e que ni es una consecuencia ni una hipótesis de p,

        le es ortogonal y al ser e’ = b + d también ortogonal a p, es una especulación fuerte. Por su parte,

      • El camino mixto p > a < a + c + d = e lleva a una especulación débil puesto que valen p ◊ e y e’ = b <

      p.

      Nótese que el camino mixto p = a + b > a < a + b +c lleva, sin embargo, a una consecuencia y el p = a + b < a + b + d > b a una hipótesis. Cabe, por tanto, llegar a consecuencias, hipótesis y especulaciones por caminos mixtos. Si es obvio que en las álgebras de Boole finitas todas las conclusiones pueden encontrarse así, no lo es en cuanto la estructura es distinta.

      Sin embargo, en el caso de una especulación débil, p ◊ e y e’ < p, el modelo esqueleto permite observar lo que sigue: 1) e’ se obtiene desde p mediante abducción y, negando e’, se obtiene e’’; 2) Si la negación es débil en e, e < e’’, entonces y de nuevo por abducción se llega a e; 3) Si la negación es intuicionista en e, e’’ < e, entonces por deducción se llega a e. En el primer caso, se trata del camino: p > e’ e’’ > e, que es abductivo. En el segundo, el camino es mixto: p > e’ e’’ < e. Obviamente, si la negación es fuerte, el proceso se abrevia así: p > e’ e’’ e; pero, si la negación es salvaje en e, nada cabe concluir.

      En el caso de una especulación fuerte lo anterior no es reproducible puesto que también es p ◊ e’; sólo resta la posibilidad de llegar desde p a e por otro camino mixto, como se ha mostrado en la anterior álgebra de Boole atómica.

      Es, por tanto, razonable ver el razonamiento como la realización de esos caminos mixtos, una especie de zigzag browniano a partir de la premisa. Unos caminos que se siguen hasta llegar a una conclusión que se considere suficiente para aquello que se busca y que, muchas veces, obliga a parar y volver a empezar. Se trata de procesos de prueba y error hasta encontrar una solución satisfactoria y por más que ésta no reste garantizada al efectuarlos.

      Tan propio del razonamiento ordinario es deducir y abducir, como lo es especular y por más que quepa considerar a la deducción como la principal operación intelectual, al permitir probar las conclusiones con la mayor seguridad posible en el razonamiento.

    2. Una vez en posesión de una especulación e desde p, entonces (Trillas, 2018, 2019, en prensa).

      1) p + e, es una consecuencia de p; 2) p · e es una hipótesis de p, supuesto que no es auto-contradictoria ni equivalente a p; 3) Si < es transitiva localmente donde convenga y la negación es intuicionista o fuerte en p, p’ · e es una refutación de p.

      En efecto: La primera sigue de p < p + e: la segunda de p · e < p, y la tercera de p’ · e < p’ => p’’ < (p’

      • e)’ que, al ser p < p’’ y por la transitividad en la terna (p, p’’, (p’· e)’), lleva hasta p < (p’ · e)’.

      Por lo tanto, la especulación ayuda a deducir, abducir y refutar. Especular es parte importante en la reflexión sobre p, sobre repensar p y cuanto de p se conozca. Especular permite llegar a prever y explicar, hallar consecuencias e hipótesis; reflexionar sobre algo comporta, en buena medida, especular.

      Como sea, además, que las especulaciones son las conjeturas que no son consecuencias, ni hipótesis, cabe identificar la especulación con la inducción que, entonces y de probarse universal la manera de llegar a ellas mediante un zigzag por caminos mixtos de inferencia, dejaría de ser el ‘misterio’ con el cual se la ha visto siempre.

      De momento, sabemos que si la información sobre la premisa p, objeto de la reflexión, puede organizarse como un álgebra de Boole finita, especular no es sino tal zigzag. Aunque ello puede dejar de lado a muchas especulaciones, tampoco parece que cuando alguien reflexiona efectúe todas las inducciones posibles; de ordinario, sólo se llega a algunas de ellas, las que resulten de combinar por negación, conjunción y disyunción cuanto se recuerde. En cuanto a quienes se niegan a aceptar que la inducción exista realmente, lo que niegan es la especulación y cabe preguntarles si, con independencia de su verdad o falsedad, niegan la existencia de enunciados ortogonales a uno dado. En todo caso, es una visión con la cual inducir es tan parte del razonamiento como lo es deducir; el razonamiento no sería posible sin ambas operaciones intelectuales.

    3. En cuanto a los grados de verdad, realmente sobre cuán verdadero es un enunciado, se definen como las aplicaciones que a cada enunciado u asignan un número entre 0 y 1, t (u) [0, 1], de manera que la verdad no retroceda por deducción y cambie simétricamente por negación, es decir, sometido a verificar los dos axiomas:

      1) p < q => t (p) ≤ t (q), y 2) t (p’) = 1 – t (p).

      Está claro que una consecuencia nunca será menos verdadera que la premisa y que, de ser ésta completamente verdadera, t (p) = 1, de 1 ≤ t (q) seguirá t (q) = 1: Toda consecuencia de una premisa completamente verdadera es completamente verdadera. En cuanto a las hipótesis, h < p, de t (h) ≤ t (p) sigue que nunca serán más verdaderas que la premisa y que, de ser ésta completamente verdadera, las hipótesis no tienen por qué serlo, pero de ser una hipótesis completamente verdadera también lo será la premisa y, de ser ésta completamente falsa, también lo será la hipótesis.

      La definición aportada por los dos axiomas anteriores está, además, en consonancia con la ley de contraposición de la negación [p < q => q’ < p’], puesto que si vale la segunda sigue t (q’) = 1 – t (q) ≤ t (p’) = 1 – t (p) t (p) ≤ t (q), como corresponde a la primera.

      Nótese que siendo

      p · p’ < (p · p’)’, es t (p · p’) ≤ 1 – t (p · p’) t (p · p’) ≤ ½,

      si t sólo toma los valores 0 y 1 y, en el caso de únicamente considerar enunciados completamente verdaderos o completamente falsos, necesariamente es t (p · p’) = 0: Los enunciados p · p’ son completamente falsos. Análogamente, de (p + p’)’ < p + p’, sigue ½ ≤ t (p + p’) que implica t (p + p’) = 1: Los enunciados p + p’ son completamente verdaderos. Los grados de verdad permiten un ‘control numérico’ de la validez de las conclusiones a las que se llega razonando.


    4. En cuanto al grado de verdad de las especulaciones, nada cabe decir de las fuertes, pero las débiles y a causa de

      e’ < p => 1 – t (e) ≤ t (p) 1 – t (p) ≤ t (e),

      son verdaderas si la premisa es falsa y, de ser ésta verdadera, tanto pueden ser verdaderas como falsas. No pudiendo establecerse relación alguna entre t (p) y t (e) cuando e es una especulación fuerte, sólo éstas son ‘salvajes’ frente a la verdad.


      En el caso de una refutación, p < r’ implica t (p) ≤ 1 – t (r): Si la premisa es completamente verdadera, la refutación será completamente falsa y, de ser ésta verdadera, será falsa la premisa.

      Nótese que de ser t (p) = 0.7, las consecuencias tendrían sus valores de verdad en el intervalo [0.7, 1], las hipótesis en [0, 0.7], las especulaciones débiles en [0.3, 1], las refutaciones en [0, 0.3] y sin poder asegurar nada respecto de los valores de verdad de las especulaciones fuertes. Así, en los ejemplos del apartado 3.1 con p = a + b y las especulaciones a + c (fuerte) y a + c + d (débil), supuesto que los grados de verdad de los cuatro átomos fuesen t (a) = 0.6, t (b) = 0.7, t (c) = 0.3 y t (d) = 0.9, con los cuales es t

      (p) = 0.7, se obtendrían los valores t (a + c + d) = 0.9 [0.3, 1] y t (a + c) = 0.6 también en ese intervalo.

      De llegar a la conclusión a través de una especulación e y como se ha visto, h = p · e, o a q = p + e, seguirían:

      t (h) = min (t (p), t (e)), y t (q) = max (t (p), t (e)),

      de aceptar esas fórmulas. Con ello, si t (p) = 0. 7, serían t (h) = min (0.7, t (e)), y t (q) = max (0.7, t (e)); entonces,

      • Si es t (e) ≤ 0.7, serían t (h) = t (e) y t (q) = 0.7,

        en tanto que,

      • Si es 0.7 < t (e), serían t (h) = 0.7 y t (q) = t (e). Nótese que

      • De ser t (h) = 1 nada puede decirse del valor t (e), pero

      • Si fuese t (q) = 1, entonces sería t (e) = 1;

      • De ser t (e) = 0, serían t (h) = 0 y t (q) = 0.7.

      Además, si en el caso de una consecuencia q = p + e, fuese p · e = 0, se tendría la ecuación max (t (p), t (e)) = 0, obligando a que ambos grados de verdad fuesen nulos.

      Tales fórmulas permiten un cierto control numérico del grado de verdad de la conclusión en función de los de la premisa y la especulación. Un grado de verdad que, usualmente, será empírico y, por tanto, más cercano al concepto popperiano de verosimilitud que a la idea lógica de verdad total.

    5. Los dos axiomas con los que, en el apartado 3.3 se han definido los grados de verdad, se refieren a su relación con < y, por ello, pueden considerarse ‘sintácticos’, pero la verdad de un enunciado es un asunto semántico, tiene qué ver con su significado (Trillas, 2017, 2018, en prensa). Se supone que, en los enunciados con grado de verdad, éste se refiere a la adecuación del enunciado con la realidad, es decir, con lo que signifique el enunciado en relación con aquello a lo cual se refiera.

      Por ello es por lo que se supone que cada enunciado considerado p, tiene significado medible, es decir, su significado está descrito por una magnitud escalar, o conjunto borroso (Trillas, 2018, 2020), (X, <p, mp), donde <p es la relación binaria y empírica ‘menos p que’ traduciendo el significado cualitativo, primario, de p, en tanto que mp es una ‘medida’ en el intervalo [0, 1] de la misma (Trillas, 2020, en prensa). Con ello, una forma de calcular un grado de verdad t (p) es igualándolo al valor numérico, entre 0 y 1, que corresponda a la medida de p. Por ejemplo, el enunciado p en el universo del discurso [0, 10], tal que p (x) = ‘x es grande’ o (‘x no es grande y x es 1’, representado por la fórmula

      medida de p (x) = max (mgrande (x), min (1 – mgrande (x), m1 (x)) =max (x/10, min (1 – x/10, 1)) = max (x/10, 1 – x/10),

      con lo cual la medida total o grado de verdad de p, puede definirse como el número t (p) = Sup x [0, 10] max (x/10, 1 - x/10) = ½.

      Así, en cierta forma y como se apuntó en el anterior apartado 3.4, t (p) puede asemejarse a cuán verosímil es p en el universo del discurso correspondiente; por lo menos y de acuerdo con la teoría de la posibilidad de Lotfi A. Zadeh (Zadeh, 1978), a su medida de posibilidad, de cuán posible es.

    6. Una vez conocida una hipótesis h para p, la teoría que h permite desarrollar es el conjunto de sus consecuencias, h↑ = {u; h < u}, en tanto que la premisa permite desarrollar la teoría p↑ = {q; p < q}. Ambas teorías están relacionadas, de ser < transitiva, por medio de h < p, p < q => h < q, es decir, p↑ h↑. La hipótesis genera una teoría más amplia que la premisa, va más allá de ella; lo que se deduce de la hipótesis, de explicar los hechos si se quiere, no siempre se sigue de la premisa, de los hechos. La hipótesis introduce más conceptos de los que se siguen de los hechos.

Por otra parte, si r refuta a la hipótesis, h < r’, no puede concluirse que, necesariamente, refute a la premisa, pero si r refuta a ésta y < es transitiva, entonces también refuta a la hipótesis: p < r’ y h < p => h < r’; la mejor refutación es la que afecta a los hechos y, por lo tanto, de aceptar que la refutación de cualquier u obliga a rechazar su teoría u↑, la refutación de h obligaría a rechazar h↑ y también p↑, pero la de p sólo obligaría a rechazar la de p↑ y restaría la puerta abierta a conservar cuanto en h↑ no esté en p↑, es decir, h↑ - p↑: La refutación de una premisa no comporta necesariamente el rechazo de toda la teoría generada por una de sus hipótesis. Cuanto es contra-factual, contra los hechos, no elimina cuanto pueda seguirse de una hipótesis al respecto.

Todo lo anterior permite pensar que el control del razonamiento basado en hipótesis sobre hechos puede alcanzar un cierto nivel de ‘control’ formal. Sin embargo, el control formal del razonamiento ordinario sólo es posible cuando éste se explicita simbólicamente y en alguna estructura con el substrato del

‘esqueleto’; por ello, también debe pensarse en el control más ‘ingenuo’ de la crítica a la que cada

pensador puede someterlo al repensarlo sin antes someterlo a formalización alguna.

No hay más racionalidad que la que surge de repensar críticamente lo antes pensado o razonado; repensar el común razonamiento ordinario cómo se pueda (Trillas, en prensa). Por eso y en buena medida, todo sirve, como Paul K. Feyerabend señaló en su (anarquista) tratado contra el método (Feyerabend, 1986). De existir un tal método no podría ir más allá del razonamiento ordinario y debería ser una organización situacional resultante del zigzag de la inferencia adecuada a cada caso.


El falsacionismo

La doctrina filosófica llamada falsacionismo, se refiere a rechazar la teoría generada por una hipótesis h sobre unos hechos, expresados por una premisa p que puede ser la conjunción de enunciados recogiendo los aspectos relevantes de aquellos hechos. De lo acabado de exponer, se sigue que refutar p no obliga a rechazar cuanto se deduzca de h, sólo la refutación de h lleva a ello. Refutar la hipótesis aparece, así, más fuerte que refutar algún hecho. Refutar una posible explicación es ‘más fuerte’ que encontrar aspectos contra-factuales.

De otra parte, tanto h como una de sus refutaciones r, pueden constar de varias partes cuyos grados de verdad hagan que rechazar totalmente ambas pueda ser excesivo.

Si, por ejemplo, es h = u + v, de h = u + v < r’, al ser u < u + v y v < u + v, de ser < transitiva se siguen u < r’ y v < r’. Es decir, una refutación de h refuta todas sus partes, pero sin que la refutación de una de ellas implique la de h: u < r’ no implica u + v < r’. Sin embargo, de ser t (h) = 0.7 = max (t (u), t (v)) y si fuese t (v) = 0.3 resultaría t (u) = 0.7, lo que podría llevar a sólo considerar como completamente refutada u y a ‘olvidar’ v. Ello podría dejar ‘libre’ aquello de h que estuviese afectado por v.

Análogamente, de ser r = s + x una refutación de h, h < (s + x)’, de s <s + x y x < s + x, siguen (s + x)’

< s’ y (s + x)’ < x’; por tanto, h < s’ y h < x’, cada parte de la refutación también refuta h. De nuevo, t

(r) = max (t (s), t(x)) con, por ejemplo, t (r) = 0.7 y de ser t (x) = 0.3, llevaría a t (s) = 0.7 y, tal vez, a sólo considerar como refutación a s y dejar de lado, libre, lo de p afectado por x.

Es obvio que, de ser todos los valores de verdad 0 o 1, la cosa es distinta. En efecto, si t (h) = 0, entonces es t (u) = t (v) = 0 y, si t (h) = 1, entonces es t (u) = 1 o t (v) = 1 con la posibilidad de que sean t (u) = 1 y t (v) = 0. Análogamente, si t (r) = 0, es t (s) = t (x) = 0, pero si t (r) = 1 por lo menos uno de los números t (s), t (x) será 1.

Obsérvese que, de ser las dos partes contradictorias, s < x’, de t (s) ≤ 1 – t (x), t (x) = 0.4 implicaría t (s)

≤ 0.6, no podría llegar al valor 0.7, valor al cual tampoco podría llegar r. De estar en un álgebra de Boole, donde es s < x’ s · x = 0, de t (s.x) = min (t (s), t (x)) = 0, resultaría t (s) = 0 y esa parte no contribuiría en nada a la verdad de r.

Resumiendo, siempre es posible efectuar un control de la verdad de las hipótesis o las refutaciones a partir de las partes que las constituyan.

En conclusión, en una ciencia formal, como es el caso de las matemáticas, donde los enunciados sólo se aceptan si son completamente verdaderos, la refutación es un criterio suficiente de rechazo. No obstante, en las ciencias no formales donde los enunciados pueden ser parcialmente verdaderos y parcialmente falsos, el rechazo de una teoría empírica por la refutación de una de sus hipótesis debería ser ‘tomada con pinzas’. De hecho, tanto las hipótesis como las refutaciones no suelen ser enunciados ‘monolíticos’, sino que suelen constar de diversas partes con distinta influencia en la hipótesis o la refutación; el análisis de ambas en cada caso es relevante.

Por ejemplo, detectar la llamada ‘anomalía del perihelio’ del planeta Mercurio no llevó a refutar la teoría, la hipótesis básica de Newton, sino que, más adelante, sirvió para encontrar el planeta Neptuno cuya existencia fue predicha por una parte de aquella hipótesis que explica la anomalía, la cual provenía de aceptar la teoría newtoniana.

Otro ejemplo lo ofrece el ‘perceptrón’ o neurona artificial, introducido para el aprendizaje automático y que, rechazado a causa de la refutación implicada por su imposibilidad de representar una importante operación lógica (la llamada ‘Barra de Sheffer’ o ‘Nand’, p q, ni p ni q), luego y aumentando el número de esas neuronas artificiales, conectándolas y distribuyéndolas en varias capas, se llegó a la teoría de las redes neuronales cuya eficacia en el aprendizaje automático es manifiesta en la Inteligencia Artificial. Si una neurona artificial aislada, un perceptrón aislado, no podía hacer gran cosa, una ‘sociedad’ de neuronas artificiales organizada de cierta forma, permite muchísimo más. Fue una refutación que llevó a repensar todo el problema; fue una refutación fértil.


Conclusión

Decía Nietzsche que siempre hay que dudar de la forma más meticulosa. Repensar los razonamientos es una necesidad permanente; poco, si algo, de lo que alcanza la razón humana es definitivo, casi todo tiene una ‘fecha de caducidad’ y por más sea desconocida (Trillas, en prensa). Una duda que no debe ser ‘contemplativa’ sino ‘activa’, buscando formas de mejorar aquello que se considere sabido, sea a través de más datos de observación o experimentación, sea a través de posibles contradicciones con otros conocimientos, sea reconsiderando el problema correspondiente.

Siempre hay que intentar encontrar un ‘punto flaco’, un detalle que permita, poniendo atención en él, ver algún aspecto que hasta entonces había pasado desapercibido. Como lo fue para el primer autor darse cuenta que la transitividad permitía probar, como William Whewell ya había enunciado sin demostrarlo, que las consecuencias debían ser conjeturas; algo que luego le llevó hasta la primera prueba formal de los antiguos principios aristotélicos de No Contradicción y Tercero Excluido, a las que llegó tras probarlos, sucesivamente, en las álgebras de Boole, las de De Morgan y las llamadas ‘estándar’ de conjuntos borrosos (Trillas, 2017).

Fue precisamente la observación de las poquísimas propiedades que esas pruebas requerían, y la atención a ello prestada, lo que le sugirió especular acerca de una posible estructura del ‘esqueleto’ que, de acuerdo con la regla metodológica llamada la ‘Navaja’ de William of Ockham (siglo XIV), resultó en un mínimo de hipótesis independientes entre sí y que permiten un cálculo incipiente con el cual y no obstante ya cabe, por ejemplo, probar aquellos principios una vez añadida la transitividad local. Es un añadido, como para obtener otros resultados lo es el carácter de la negación o la existencia de mínimo o máximo de inferencia y que, conforme a la Adenda de Karl Menger (siglo XX) a la Navaja de Ockham, permite enunciarla así:

No sólo no trabajar con más hipótesis de las estrictamente necesarias para establecer algo, sino tampoco con menos de las estrictamente suficientes para su continuación.

Es una sabia regla metodológica que Albert Einstein enunció, en libre paráfrasis, como ‘Hacer las cosas

tan simples como sea posible, pero no más simples que lo necesario’.

Es una regla que, además, autoriza ver aquellas leyes que no figuran en el esqueleto formal como no universales sino locales en el razonamiento ordinario; son leyes que aparecen en determinadas situaciones que las permiten. Situaciones en las cuales, con esas leyes, el razonamiento correspondiente se traduce por un cálculo más específico y como, desde el alemán Wilhelm Leibniz (siglo XVIII) y, tal vez, desde el mallorquín Ramon Llull (siglo XIII), en quien se inspiró el primero, se ve a la Lógica tras el famoso No discutamos, ¡Calculemos! de Leibniz.

Con respecto a la insistencia popperiana sobre el razonamiento deductivo y como ya se ha dicho, éste no basta para obtener conocimiento, no es suficiente. A tal respecto, merece la pena tener en cuenta, como las de una ‘autoridad’, las palabras del Premio Nobel de Biología, Patrick B. Medawar, en su libro (Medawar, 1984) sobre los límites de la ciencia:

Ningún proceso de razonamiento lógico permite ampliar el contenido informacional de los axiomas, premisas o enunciados observacionales de los que se parte.

Es decir, para ello se requiere más que deducir y abducir, por tanto, se necesita conjeturar especulaciones, inducir para mejor captar aquello que los enunciados iniciales, sean premisas reflejando hechos observados o sean hipótesis explicativas, puedan indicar. En el razonamiento conducente al conocimiento científico, como a cualquier tipo de razonamiento, deducir es insuficiente; usualmente se acaba en conjeturas con una inferencia desde la premisa que no es sino un zigzag que no permite establecer su grado de verdad dependiente del de aquella. Por ello y siempre, debe intentarse, por seguridad, controlar el razonamiento, cualquiera que éste sea.

Tal control es una operación intelectual que forma parte de repensar y que tanto puede llevar a un rechazo total, a la completa falsación, de aquello bajo reconsideración, como sólo a una modificación parcial de ello e, incluso, a dejarlo tal cual estaba y hasta que nuevas observaciones o un nuevo repensar, tal vez a la luz de otros conocimientos, vuelvan a llevar a ello; unas veces para acabar restringiéndolo y otras ampliándolo. Es un camino que sólo en el caso extremo de rechazo total lleva al falsacionismo popperiano; un camino que, recorrido por los científicos gracias al razonamiento ordinario refinado como sea, no les aparta del razonamiento del común de los mortales más que en determinados ‘tecnicismos’ y, por ello mismo, no es insensato el antes citado todo sirve de Paul K. Feyerabend.

Con San Francisco de Asís, Un rayo de sol ahuyenta muchas sombras. Repensar, que es realmente la base de la racionalidad, ofrece ese rayo de luz.

Por lo tanto y antes de un pretendido criterio único de falsificación, aparece el principio que aconseja repensar críticamente especulando para controlar cuanto se cree conocido. Algo que, cómo poco, será una muestra de humildad intelectual y que a un pensador nunca le sobrará; algo que marginará todo ‘autoritarismo’ como aquel al que puede asemejarse el falsacionismo absoluto.


De ahí el título de este artículo que no pretende ser sino un humilde alegato a favor del control del razonamiento a través de repensarlo de manera crítica<, un alegato que, a su vez, debería ser repensado, criticado, controlado.

Un alegato que, en realidad, es una defensa del razonamiento ordinario como el camino que, con su crítica, el pensamiento ofrece a las personas para cuanto logran. Un razonamiento, el ordinario, que es al fin cuanto comparten intelectualmente quienes, por ejemplo, se sitúan en posiciones muy apartadas entre sí y que, por ello y por cuánto a partir del mismo se ha conseguido, debería declararse ‘patrimonio de la humanidad’ con independencia de cualquier posición ideológica. Ni Popper, ni Miller, ni Medawar, ni los autores de este artículo, podrían haber escrito lo que han escrito sin, por lo menos, especular previamente, inducir, sobre ello. Como cualquier hijo de vecino piensa con un objetivo y poseyendo una formación previa adecuada.

Un patrimonio universal que sugiere, de nuevo con Feyerabend (Feyerabend, 1986), pensar seriamente en la ‘separación entre la ciencia y el Estado’; en lo que se refiere al razonamiento. ¿Es que, por lo que se refiere a razonar, hay alguna diferencia esencial entre un científico y cualquier otro ciudadano, o entre éste y un filósofo?


Referencias

Birkhoff, G. (1948). “Lattice Theory”. American Mathematical Society Colloquium Publications. 25.

Feyerabend, P. K. (1976). Tratado contra el método. Tecnos. 1986. Medawar, P. B. (1984). The Limits of Science. Harper & Row.

Miller, D. (1994). Critical Rationalism. A Restatement and Defense. Open Court. Popper, K. R. (1934). La lógica de la investigación científica. Tecnos. 1973.

Popper, K. R. (1963). Conjeturas y refutaciones: el crecimiento del conocimiento científico. Paidós. 1983.

Trillas, E. (2017). On the Logos: A Naïve View on Ordinary Reasoning and Fuzzy Logic. Springer. Trillas, E. (2018). El desafío de la creatividad. Publicacións da USC.

Trillas, E. (2020). Narrar, conjeturar y computar: El pensamiento. EUGR (en prensa).

Trillas, E. (en prensa). Reflexiones sobre la lógica y su génesis. (manuscrito aún no publicado)

Zadeh, L. A. (1978). “Fuzzy Sets as a Basis for a Theory of Possibility”. Fuzzy Sets and Systems. 1/1. 3-28.