martes, 29 de mayo de 2012

Conexiones lógicas

La lógica no siempre fue tomada como un cálculo. Por ejemplo, Aristóteles en su organon la presenta de otra manera, más vinculada con el oficio común de hablantes que los hombres solemos tener. En el cuarto capítulo de los Primeros Analíticos, por poner un ejemplo cualquiera, dice: "digámos con qué elementos, en qué ocasión y bajo qué forma se produce todo silogismo...". Está hablando de (refiriéndose a) ocasiones concretas en las que cualquiera puede encontrarse al discurrir. O, a lo sumo, que cualquiera podría representarse como habiendo ocurrido o pudiendo ocurrir.

Nada de eso pasa en el cálculo lógico. Lo tratados al respecto suelen tener claro que hay una diferencia esencial entre dos niveles en el lenguaje que se usa. Uno de ellos, el que usamos además en conversaciones mundanales, y el otro, no menos mundanal por otra parte, pero que no es apto, al menos por sí solo, para conversar. Ejemplo de éste son las fórmulas: p, q, Fx, ∀y(Fy ⊃ Gy), ∃F∀x(Fx), etc.

Esto hace que lo que en Aristóteles eran referencias a lugares en la experiencia discursiva, se haya trocado en otra cosa, a saber, un lenguaje objeto.


Así, ocurre que con las conexiones lógicas puede optarse por maneras de presentarlas. Una de ellas es refiriéndose al lenguaje y su uso común: usamos la palabra «y» cuando queremos ... etc.

Otra es introducir una definición 'sintáctica' y nada más. Es cierto que suele ser poco frecuente permanecer en una mera sintaxis. Y cuando esto es así, tal vez se deba a que se presupone cierto conocimiento semántico en el lector.

Independientemente de como sean las cosas, lo cierto es que suelen usarse determinadas 'conectivas lógicas'. En realidad no se usan todas las que podrían usarse. Por ejemplo, que yo sepa no existe una que tenga el significado de '¬p ∧ q'. El lector dirá: ¿Y para qué habría de existir si, justamente, puede escribirse '¬p ∧ q'?

Puede que tenga razón, pero si con ello expresa la idea general de que  no debe introducirse en el cálculo lógico una conectiva que pueda suplirse con otras (combinándolas), entonces tendría que decir que la misma suerte podrían correr las habituales: ∧, ∨, ⊃. No conjuntamente, pero sí es cierto que todas juntas son, por así decir, redundantes.

En efecto, Frege basó solamente en «¬» y «⊃» su sistema. Russell y Whitehead en «∨» y «¬». Tal vez sea incluso más común servirse meramente de «∧» y «¬» como Brentano. Sheffer basó todas las conexiones lógicas en el que de únicamente la barra que lleva su nombre.

Para terminar el post, un ejercicio: ¿es posible representar todas las conexiones con el solo uso de «¬» y «↔»?

martes, 15 de mayo de 2012

Orden de los cuantificadores. Esquemas poliádicos.


Hablamos ya de prenexitud y pureza de esquemas cuantificacionames monádicos. Veamos los dos siguientes:

1. ∀x∃y(Fx → Gx ∨ Fy)
2. ∃y∀x(Fx → Gx ∨ Fy)

Puede verse en ellos que en todo son iguales, excepto por el lugar que tienen los cuantificadores. Trasformemos (1):

∀x(Fx → Gx ∨ ∃yFy)
∀x[¬Fx v (Gx ∨ ∃yFy)]
∀x(¬Fx v Gx) ∨ ∃yFy

A partir de (2) se llega al mismo resultado.

Cuando se introducen letras de predicados de más de una variable, ocurre lo siguiente:

3.  ∀x∃y Fxy
4.  ∃y∀x Fxy

Las fórmulas de arriba no afirman lo mismo. Interpretemos 'F' como que 'x' imita a 'y' en el dominio de personas y obtenemos que una fórmula afirma "todos imitan a alguien" mientras que la otra "hay alguien que es imitado por todos".

Para ver esta diferencia (que se la escucha directamente por otra parte) podemos transformar (3) y (4) de la forma siguiente:

Demos a nuestro universo de personas y cosas nombres, suponiendo que alcanza con las letras a, b, c, ..., n. Entonces, (3) puede expresrse así:

∃yFay ∧ ∃yFby ∧ ... ∧ ∃yFny

Lo cual significa que 'a imita a alguien', 'b imita a alguien', etc.

(Faa ∨ Fab ∨ ... ∨ Fan) ∧ (Fba ∨ Fbb ∨ ... ∨ Fbn) ∧ ... ∧ (Fna ∨ Fnb ∨ ... ∨ Fnn)

Esta última fórmula está compuesta de n conjunciones. La primera, a su vez, de n disyunciones que expresan que "a se imita a sí", "a imita a b", etc.; la segunda "b imita a a", "b se imita a sí", etc.

En cuanto a (4):

∀xFxa ∨ ∀xFxb ∨ ... ∨ ∀xFxn

Esto afirma: "todos imitan a a, o todos imitan a b, ..." etc. Luego:

Faa ∧ Fba ∧ ... Fna ∨ Fab ∧ Fbb ∧ ... Fnb ∨ ... ∨ Fan ∧ Fbn ∧ ... Fnn

O sea la disyunción de n conjunciones, cada una de las cuales afirma uno que es imitado por cada uno de los demás.

martes, 1 de mayo de 2012

La implicación, la deducción y la completitud

Considérese las fórmulas siguientes:

(1) ¬ ( p1 ∧ ... ∧ pn → ¬ q)     →     (p1 ∧ ... ∧ pn → q)

(2)        K1, ..., Kn ⊬ ¬X,   entonces:    K1, ..., Kn ⊢ X

Lo que se asevera en la primera de ellas es una implicación cuyo antecedente es la negación de otra implicación que afirma que una conjunción de n proposiciones 'p' implican '¬q'; y cuyo consecuente que esa misma conjunción de proposiciones implica 'q'.

Dicho de otro modo: si no se da el caso de que la clase de proposiciones p implica la negación de q, entonces implica q. Esto es un esquema válido, es decir, verdadero para cualesquiera interpretaciones de las proposiciones p y de q. Veámoslo:

Si la conjunción "p1 ∧ ... ∧ pn" tiene algún miembro cuyo calor de verdad sea lo falso, toda la conjunción lo tiene, por lo tanto el antecedente de (1) es falso, y así, (1) es necesariamente (lógicamente) verdadero, sea cual sea la valuación de q.

Si la conjunción denota lo verdadero, (1) equivale a:

   ¬(¬q) → q

que a su vez puede, en virtud de la ley de la doble negación, transformase en

(3)   q → q

cuya validez puede parecer manifiesta. Para el lector a quien no le parezca así, hay una demostración de (3) a partir de los axiomas:

p → (q → p)

y

[p → (q → r)] → [(p → q) → (p → r)]

en el libro de Ivorra Castillo* (por el enfoque de las tablas de verdad llegar a su validez puede parecer más simple).

La fórmula (2) tiene alguna semejanza, quizá, con (1). En ella se afirma que si no se deduce de la clase de enunciados K el enunciado ¬X, entonces se deduce de ellos X. Sin embargo hay quedecir que no se trata de algo tan similar.

Ahora bien, es preciso distinguir '→' de '⊢'  y '¬(... →...)' de '... ⊬ ...'.

Por ejemplo, si → conecta dos proposiciones, lo que tenemos es una nueva proposición, del mismo nivel que las dos primeras, la cual será verdadera siempre que no lo sea también la primera de aquellas a la vez que falsa la segunda. Este símbolo → también puede vincular dos proposiiones variables, en cuyo caso ocurre de la misma manera.

En cambio, si ⊢ vincula dos fórmulas, lo que afirma es que hay una derivación de la segunda, llamada entonces concusión, a partir de la primera, que se llama premisa. Tal relación es posible en virtud de la reglas de inferencia. Veamos por ejemplo una demostración de 'p ⊢ p':

1. p    premisa
2. p    Rep., 1

Lo que esto significa es que en dos pasos es posible demostrar 'p ⊢ p'. En 1 tenemos expresada la premisa de nuestro argumento y en 2 tenemos expresada la conclusión en virtud de la regla de repetición que nos permite repetir cualquier línea de la derivación (siempre y cuando, como es evidente, no se trate de un supuesto cancelado).

Ahora veamos lo siguiente:

(4) (p → q) ∨ (p → ¬q)

tenemos aquí una fórmula válida universalmente. Siempre es verdadero que se da alguno de los dos casos: una proposición arbitraria implica otra proposición arbitraria o implica su negación.

En cambio:

(5) 'p ⊢ q' o 'p ⊢ ¬q'

¿es una fórmula válida? Lo que (5) afirma es que de una premisa puede demostrarse una fórmula y si no su negación.

El lector seguramente haya pensado que eso dependerá sin duda de las posibilidades que ofrezca el sistema deductivo a que refiera ⊢. Esto lleva a otra pregunta. A saber: ¿existe uno en el cual (5) pueda ser considerado una verdad lógica?

_______
*nota: Ivorra Castillo, C. Lógica y teoría de  conjuntos.