El procesamiento de la “ley” por parte del ordenador requiere un mecanismo bidireccional, necesita una herramienta capaz de traducir simultáneamente el cálculo en lógica y viceversa. Especialmente relevantes son los estudios y pensamientos de mentes brillantes que, aquí, con perdón, sólo pueden ser mencionados: Gottfried Wilhelm von Leibniz y George Boole, Konrad Zuse, Claude Elwood Shannon, Herbert Alexander Simon, John von Neumann, Alan Mathison Turing y muchos otros.
La contribución de Leibniz, aunque de importancia capital para el tema, no alcanza el nivel de una verdadera representación algebraica del “razonamiento”.
La viabilidad concreta de transformar el pensamiento lógico en cálculo pertenece al matemático inglés George Boole. Boole consiguió trasladar al estudio de la lógica el rigor científico de las metodologías subyacentes a la investigación algebraica. Boole creó un nuevo y revolucionario lenguaje a través del cual crear algoritmos que pudieran aplicarse a un número infinito de hipótesis. La suerte del álgebra de Boole está inextricablemente ligada al pensamiento del matemático británico Alan Mathison Turing. Turing imaginó una “máquina” capaz de ejecutar cualquier algoritmo. El sueño de Leibniz (un cálculo simbólico con el que se pudieran resolver automáticamente todo tipo de problemas) “…se materializó en calculadoras ya no de carne y hueso, sino de cobre silicio”[1].
1] La base del sistema lógico-matemático de Boole es la adopción del sistema binario como medio de representación de las operaciones aritméticas y de los procesos típicos del razonamiento humano. La tarea de Boole fue disfrazar la lógica con un vestido matemático[2] y mantener separadas las operaciones mentales de las algebraicas[3].
Los pasos históricos y culturales necesarios para situar el álgebra de Boole en la base de la informática y los ordenadores pueden resumirse simbólicamente como sigue:
(a) la adopción del sistema binario como esquema básico de los ordenadores[4];
b) la intuición del uso del ordenador para procesar no sólo operaciones numéricas sino también lógicas[5];
c) la aparición de un ordenador universal[6].
Boole, en efecto, “…ideó un sistema de lógica formal hipotética que, gracias a la adopción de la BIT (de origen árabe), servía igualmente para realizar operaciones aritméticas con la velocidad del rayo y, al mismo tiempo… para reproducir el mecanismo del razonamiento”[7].
[1] M. Davis, Il calcolatore universale. Da Leibniz a Turing, Adelphi, 2012 (Traduttori G. Rigamonti e A. La Rana).
[2] G. Boole, L’analisi matematica della logica, Bollati Boringhieri, 1993. La versione in inglese è disponibile nella edizione del 1847 su Google Libri. A.Albertelli, Il pensiero logico di George Boole, in Le Scienze (Scientific American), n.146, ottobre 1980.
[3] In materia di rapporti tra matematica, logica e diritto si rinvia a quanto scritto da G. Danzi, Sull’evoluzione del diritto: un lungo cammino tra logica e matematica fino alla “giustizia predittiva” del Prof. Luigi Viola, in L.Viola (a cura di), Giustizia Predittiva e Interpretazione della Legge con Modelli Matematici, op. cit., 68 e ss.
[4] Nel 1939 Konrad Zuse costruì, facendo perno sugli studi dei suoi predecessori, lo Z1, primo di un’innovativa serie di calcolatori elettromeccanici basati sul sistema binario e programmabili, funzionanti prima a memorie meccaniche e poi a relè (Z2, Z3). Successivamente, nel 1939 John Vincent Atanasoff e Clifford E. Berry, dell’Iowa State University, idearono e realizzarono l’“Atanasoff Berry Computer” (denominato ABC). Si trattava del primo computer digitale totalmente elettronico. L’Atanasoff-Berry Computer rappresentava una novità nel campo dei calcolatori in quanto adottava i numeri binari. Tuttavia, il primo computer basato sul sistema numerico binario e totalmente programmabile fu lo Z3 di Konrad Zuse, che lo realizzò nel 1941.
[5] Ya en 1938, Claude Elwood Shannon consiguió demostrar con su tesis “A symbolic analysis of relays and circuits” (MIT Libraries https://dspace.mit.edu/handle/1721.1/11173)que el flujo de una señal eléctrica a través de una red de interruptores (cuyas únicas variables posibles pueden ser On/Off) puede reproducir las reglas del álgebra de Boole, que también se basa en los valores dicotómicos (True y False) de la lógica simbólica. Unas décadas más tarde, a las conclusiones de Shannon se unió la intuición de Herbert Alexander Simon, economista e informático estadounidense, que obtuvo el Premio Nobel de Economía “por sus investigaciones pioneras sobre la toma de decisiones en las organizaciones económicas” (1978). Simon, refiriéndose a una idea y al pensamiento de los estudiosos del pasado, redescubrió, llevándolo a una nueva luz, “…lo que Boole y Babbage ya habían vislumbrado casi un siglo antes y que, es decir, el ordenador es capaz de elaborar no sólo números, sino también símbolos (aunque estén expresados en BIT) y, por tanto, de realizar no sólo operaciones aritméticas, sino también lógicas” (tomado de R. Borruso, S. Russo, C. Tiberi, L’informatica per il giurista, op.cit, 84).
Neumann y Turing fueron los responsables de contribuciones históricas en campos como la teoría de conjuntos, el análisis funcional, el criptoanálisis, la topología, la física cuántica, la economía, la informática, la teoría de juegos, la dinámica de fluidos y muchas otras áreas de las matemáticas. Se suponía que el ordenador “aprendía” del software, como había intuido brillantemente Alan Turing con el diseño de la llamada “máquina universal”.: A. M. Turing, Computing machinery and intelligence, Volume LIX, Issue 236, October 1950, Pages 433–460.
[7] R. Borruso, S. Russo, C. Tiberi, L’informatica per il giurista, Dal Bit ad Internet, III ed., Milano, 2009,84.