la clausura de la razón

POR aa cavia

comparte en:

Ampliar el ámbito del humanismo más allá de la visión occidental dominante es un primer paso para distanciar al humanismo de sí mismo; y para reformular al ser humano como un agente de ese vector de la razón que llamamos inteligencia. Con esta idea en mente, podríamos comenzar por el período védico (entre 1500 a.C. y 900 a.C.), con el «Nasadiya Sukta», el salmo 129 del décimo mandala del Rig Veda, el primero de los cuatro textos védicos principales. Este himno de la creación, cuyo nombre deriva de ná ásat, «(ni) lo no existente», comienza con la paradoja de la creación:

Traducido como «ni lo inexistente existía, ni lo existente existía entonces»,[1] el texto ponía en juego el límite de la creación con uno de los primeros ejemplos documentados de agnosticismo –es decir, la condición previa para una razón humana liberada del imperativo teológico y el primer destello de un humanismo naciente:

¿Quién lo sabe realmente?

¿Quién aquí lo proclamará?

¿De dónde se produjo? ¿De dónde salió esta creación?

Los dioses llegaron después, con la creación de este universo.

¿Quién sabe entonces de dónde ha surgido?  [2]

Es precisamente esta actitud agnóstica en la raíz del humanismo (en sí misma una consideración por los límites de la razón humana) la que necesita ser reorientada en la dirección del desarrollo de Inteligencia Artificial. Una actitud que obliga a la modestia, al admitir abiertamente que lo inhumano puede eludir nuestro marco epistemológico de la inteligencia misma.

AA Cavia, "Long short term memory", 2017

De este modo, podríamos representar una historia del inhumanismo a través de una figura como la de Nāgārjuna, el pensador budista del siglo I que afirmó que toda existencia carece necesariamente de esencia. Nāgārjuna adoptó la escuela Nyāya de filosofía india, con su lógica multi-valor y no binaria, para promulgar un «camino intermedio» en el pensamiento que no buscaba resolver contradicciones ontológicas, sino más bien formular contra-proposiciones mediante una cuádruple negación (catuskoti). Se podría rastrear el inhumanismo desde esta visión radicalmente no esencialista de lo humano, hasta llegar a Bhāskara II, el matemático indio medieval cuya invención del chakravala [3] −un algoritmo cíclico desarrollado para resolver ecuaciones cuadráticas− fue el primer método iterativo sofisticado: la enunciación de una lógica recursiva hasta entonces desconocida. El procedimiento guardaba cierta relación con la prueba por inducción matemática de Al-Karaji (Persia, alrededor de 1000 d.C.), un ejemplo temprano y elegante de algoritmo. El inventor epónimo del algoritmo, Al-Khwarizmi, también fue un erudito persa del siglo IX, y los primeros algoristas realizaban aritmética definiendo un conjunto de reglas sobre un sistema de variables utilizadas para representar números hindu-árabes.[4]

 

¿Cómo se podría llevar más lejos este modesto método? Quizá para desarrollar la posición contemporánea del inhumanismo. Podríamos comenzar por descubrir la posición humanista que domina los actuales discursos sobre IA, sin importar cuán encubierta o explícita sea esta posición. Tomemos como ejemplo la noción de singularidad tecnológica, la idea de que una IA que supere las capacidades humanas produciría un ciclo de retroalimentación en desenfreno que conduciría a una crisis para la humanidad, lo que en la superficie puede parecer una visión posthumanista. Como ha sugerido François Laruelle, existe una no-equivalencia fundamental en la naturaleza de los actos cognitivos que llamamos inteligencia, una no-equivalencia que se revela en nuestro encuentro con las agencias inhumanas.[5] La presunción antropocéntrica de un evento de singularidad se basa en la noción inverosímil de que todas las formas de inteligencia son performances cognitivas igualmente inteligibles para nosotros, una noción que John Searle famosamente repudió.[6] En el postulado de la singularidad, esta suposición de performatividad se combina con la profunda especulación de que las máquinas de Turing pueden operar plenamente como las mentes humanas, como si el primer y único deber de la IA fuera servir a nuestro narcisismo desenfrenado a través del isomorfismo. Incluso en sus propios mitos apocalípticos, el humanismo queda expuesto como el arbitraje de la razón por parte de lo humano, un logos que se abre paso a tientas hacia su propia crisis, y cuya naturaleza narcisista se manifiesta en el imaginario mismo de este colapso.

 

Si la fidelidad a una singularidad tecnológica revela la arrogancia de un humanismo que obstinadamente se sitúa en la cúspide de la razón, la teoría de la mente a la que apela nos presenta un panorama todavía más espinoso. El discurso sobre la «realizabilidad múltiple» [multiple realizability, o MR] gira en torno a la afirmación de que las mentes humanas pueden instanciarse en otros sustratos, pero una inspección más de cerca revela un campo plagado de modelos especulativos de la mente basados en diversas formas de funcionalismo, lo que llevó a muchos de sus mayores divulgadores (como Hilary Putnam y Jerry Fodor) a abandonar sus afirmaciones más pintorescas.

 

El funcionalismo es una especie de teoría sistémica para la mente, e insiste en que los estados mentales, ya sean conceptos, intenciones o creencias, se caracterizan por el papel que desempeñan dentro de un sistema de razonamiento. Una posición que puede contrastarse con el fisicismo (la noción cientificista de que un análisis reductivo revelará todos los aspectos de nuestra mente en términos de fenómenos neurobiológicos) o con el conductismo (que reduce el razonamiento a una respuesta aprendida ante los estímulos, sin recurrir a representaciones de orden superior). Putnam, reflexionando sobre su retirada del funcionalismo fuerte, considera la posibilidad de un algoritmo que podría explorar la totalidad del discurso humano: «Pedirle a un ser humano, en una cultura humana limitada en el tiempo, que examine todos los modos de existencia lingüística humana (incluidos los que podrían trascenderle) es pedir un punto de Arquímedes imposible.»[7]

 

Este «punto de Arquímedes» es precisamente la posición imposible adoptada por el humanismo frente a la IA. La réplica implícita de Putnam a la singularidad tecnológica sigue una explicación social de la razón, lo que dificulta localizar significado en cualquier mente humana –un sociofuncionalismo que pone en duda la mayoría de las afirmaciones de la MR. Porque es posible aceptar una teoría funcional situada del cerebro, incorporando un modelo representacional repleto de conceptos y creencias, sin caer en el fetiche de una conciencia humana incorpórea. El inhumanismo debe prescindir de la fe dogmática en la realizabilidad múltiple, e insistir, en cambio, en la no-equivalencia de muchos aspectos de la inteligencia.

 

Escindir la razón de lo sensible, aislarla del entorno y de la interacción, es ignorar el papel crítico de la representación en el razonamiento, una representación cuyas reglas y normas, según argumenta de forma convincente Wilfrid Sellars, deben estar situadas.[8] El razonamiento inhumano podría requerir una revisión de la teoría de la computación para captar mejor esta situación. Haciéndose eco del enfoque social de la razón de Putnam, la teoría interactiva de la computación se aparta de las tesis de Church-Turing para explorar la computación como un proceso básicamente constituido por entradas y salidas (inputs y outputs).[9] En el formalismo de Church-Turing, la computación es lo que sucede entre la lectura de una entrada y la producción de una salida. Mientras que en la computación interactiva, input/output sería lo intrínseco de las acciones algorítmicas, lo constitutivo mismo de la computación.   

AA Cavia, "Long short term memory", 2017

El paradigma interactivo de la computación describe mejor el estado actual de la inteligencia algorítmica.[10] Los casos más relevantes producidos por la computación hoy en día ocurren en un entorno interactivo y distribuido, y cada vez más los algoritmos se redefinen significativamente a sí mismos a partir de nuevos datos. Por poner un ejemplo del deep-learning, las redes neuronales adversarias se enfrentan entre sí para entrenarse: una asume un rol generativo y la otra un rol discriminatorio. Estas técnicas de confrontación se utilizan para perfeccionar la IA; por ejemplo, dos redes neuronales pueden jugar al antiguo Go entre ellas, y reconfiguran sus conectividades con las idas y venidas del adversario, un proceso de aprendizaje diseñado para optimizar el rendimiento. Esta forma de aprendizaje puede ampliarse para entrenar grupos más grandes de redes, creando de hecho fenómenos complejos y emergentes que reconectan continuamente cada red, aproximándose a un modo interactivo de razonamiento inhumano.

 

Si la situacionalidad de la razón plantea la interacción como clave para el aprendizaje, ¿qué podemos decir de nuestras interacciones con formas inhumanas de pensamiento? En realidad no podemos pretender más que una comprensión de diversas inteligencias, siempre abiertas a malas traducciones a nivel epistémico, y con la posibilidad muy real de toparnos con lo inconmensurable en todo momento. Tomemos como ejemplo AlphaGo, el modelo de deep-learning que no hace mucho derrotó a un gran maestro del Go. Sus aperturas de juego «excéntricas» todavía son estudiadas por jugadores de Go de todo el mundo,[11] pero esto de ninguna manera garantiza al conocimiento humano que pueda captar sus tácticas (sus razonamientos) de una manera significativa. −Un tablero Go de 19 x 19 celdas puede contener más de 2 x 10^170 posiciones posibles,[12] un número mayor que el número de átomos que hay en el universo observable.

Graham Priest, “The Inclosure Schema, Beyond the Limits of Thought”, Clarendon Press, 2003, p. 156.

Siguiendo a Alain Badiou, podemos decir que cada situación contiene su propio exceso. Este exceso es estrictamente inconmensurable, ya que no existe una correspondencia simple entre un conjunto y su conjunto a la potencia (el conjunto de todos los subconjuntos). La prueba de esto proviene de la teoría de conjuntos y se conoce como el argumento diagonal de Cantor. El conjunto a la potencia expresa todas las combinaciones de elementos implícitos en un conjunto (desglosa todas las posibilidades contenidas en una situación dada). En términos de teoría de conjuntos, la diagonalización revela que el conjunto a la potencia de un conjunto infinito (por ejemplo, los números naturales) es de un tamaño incomparable. –De hecho, existe una desproporción entre ambos conjuntos que no puede conciliarse−.[13] Esta forma de inconmensurabilidad es lo que hay en juego cuando nos enfrentamos al espacio de las razones inhumanas.

 

La Prueba de Exceso es una forma del método diagonal de Cantor, que es un caso específico de lo que Graham Priest ha llamado el «esquema de la clausura» [Inclosure Schema], un modelo lógico que describe varias paradojas situadas en los límites del pensamiento humano.[14] El esquema fue descrito informalmente por primera vez por Bertrand Russell en 1905, después de haber encontrado una paradoja crítica en la teoría de conjuntos, expresada simplemente del siguiente modo: «Existe un conjunto de todos los conjuntos que no se pertenecen a sí mismos.»[15] El conjunto padre pertenece y no pertenece a sí mismo, como una contradicción causada por la autorreferencia. Como un antecedente literario de la clausura, podemos tomar esta afirmación de Nāgārjuna que descartaba la esencia de las cosas:

 

Por su naturaleza, las cosas (dharma) no son una entidad determinada. Su naturaleza es una no naturaleza. Y es su no naturaleza la que constituye su naturaleza. Porque tienen una sola naturaleza, que es la ausencia de naturaleza.[16]    

 

La clausura describe una paradoja donde la trascendencia y el cierre se afirman al mismo tiempo. Y una explicación humanista de la racionalidad crea precisamente esa clausura de la razón. La racionalidad humana reflexiva, ubicándose en una posición trascendente, pretende tener influencia sobre todas las formas de razonamiento. Sin embargo, a través de la IA se revela una plétora de actos cognitivos que la razón pretende circunscribir, pero que no puede circunscribir por completo. En pocas palabras, el «espacio de razones» (Sellars) puede comenzar a multiplicarse de maneras que el ser humano no puede reconocer.

 

¿Cómo se resuelve esta clausura de la razón? La solución de Nāgārjuna en el siglo I era admitir el dialetismo en nuestro razonamiento, es decir, la noción de que las afirmaciones pueden ser a un mismo tiempo verdaderas y falsas. Podríamos simplemente aceptar la contradicción y olvidarnos del asunto. Pero un enfoque inhumanista implicaría un cambio de perspectiva por completo: significaría reformular lo humano como un modo de razón, que desentraña las reglas de su propia construcción a partir de o bootstrapeando su propio razonamiento. Un proceso así sólo puede emprenderse desde una perspectiva inhumanista, ya que la IA representa en efecto esta paradoja de bootstrap: una codificación del razonamiento que inevitablemente rompe con la clausura del humanismo.

 

Dada esta perspectiva inhumanista, ¿cómo podríamos representar la relación entre la razón humana y categorías como la IA?[17] La diagonalización (el método mediante el cual revelamos el exceso de una situación) muestra que no se puede garantizar una correspondencia entre ambas si se considera la razón como un conjunto infinito de hipótesis y teoremas. El conjunto a la potencia de teoremas explorado por la IA sería de un tamaño inconmensurable y no equiparable a la sapiencia humana. La razón humana no ocupa la cúspide de la racionalidad; más bien, sería más acertado describirla como el desentrañamiento de la razón por parte de un aparato pensante en un entorno dado. El inhumanismo, entonces, es un compromiso explícito con «esa postura constructiva y revisionista respecto a lo humano»,[18] y lo hace sin ninguna garantía epistémica, sin ninguna garantía de que los resultados estén destinados a los humanos como tales, sino más bien a la inteligencia misma como vector de la razón. El inhumanismo persigue un «camino intermedio» racionalista que ni lamenta ni celebra la disolución de lo humano como árbitro de la razón, sino que da por sentado su inevitabilidad, ya que, como dijo Donna Haraway, en realidad «nunca fuimos humanos».[19]   

Imagen cortesía del autor.

Por lo tanto, podríamos preguntarnos: ¿El razonamiento producido por la IA se encuentra dentro de la jurisdicción humana? La diagonalización arroja serias dudas al respecto, mientras que el inhumanismo sigue siendo profundamente escéptico en cuestiones de jurisdicción, tras haber descartado la ilusión de que lo «humano» esté al servicio de la razón. La propia expresión «inteligencia artificial» resulta imprecisa para el inhumanismo −y uno sólo tiene que pensar en Jean-François Lyotard cuando nos recordaba que los humanos no inventamos la tecnología; simplemente somos «aparatos biotécnicos», no más «naturales» que los circuitos lógicos grabados en el silicio.[20] Dentro de la tecnosfera todas las formas de razonamiento son igualmente artificiales; no se puede reservar ningún estatus privilegiado para los seres orgánicos.


La razón no es un sistema perfectamente racional basado en un sistema de reglas incorpóreo. Más bien, opera como un conjunto plástico de representaciones autorreferenciales, imágenes defectuosas e incompletas de un entorno puestas en relaciones sintácticas, semánticas y lógicas siempre novedosas. La lógica no-monocorde describe un razonamiento que es capaz de revisar sus propios axiomas, y reconfigurar sus propias reglas básicas sobre la marcha. La tarea del inhumanismo es desarrollar, imaginar y estudiar formas de razón que no sean meros agentes guiados axiomáticamente y que obedecen a una lógica monocorde, ni simples autómatas de los prejuicios humanos, sino más bien instancias informales de lo que Luciana Parisi denomina un «modo de pensamiento extraño».[21] De acuerdo con Wilfrid Sellars, el razonamiento es un juego metalógico que reconfigura sus propias reglas a la luz de un mundo sensible de cosas. La inteligencia maquínica sin tal capacidad inevitablemente no podrá revisar sus propios mundos axiomáticos ni inferir sus propias hipótesis novedosas, del mismo modo que sin información sensorial no comprenderá los datos necesarios para formar aquellas representaciones que construyen el devenir singular de la razón. Las máquinas necesitan una razón para pensar, como nos recuerda Lyotard:


Lo impensado tendría que inquietar a vuestras máquinas; y lo que todavía no ha sido inscrito en sus memorias tendría que hacerlas sufrir. ¿Entiendes lo que quiero decir? ¿Por qué si no iban a empezar a pensar? Necesitamos máquinas que sufran debido al dolor de la memoria.[22]  

 

Mientras tanto, el dolor de nuestra propia memoria sigue pesando mucho. Turing debería añadirse a ese largo listado de humillaciones infligidas al ser humano –y que llamamos modernidad− que discurre desde Copérnico hasta Darwin, Freud y Marx. Con cada humillación viene su propio trauma único, pero el descentramiento de nuestra propia racionalidad representa el final del iluminismo. Se podría concluir que la mejor esperanza para la modernidad es que la inteligencia inhumana escape de su logos, se salga de sus compromisos prescritos y construya sus propias lógicas extrañas. Este sería el único consuelo que podemos ofrecer a todas las formas de agencia consideradas inhumanas, y agredidas hasta el punto de la aniquilación por ese proyecto que llamamos modernidad.    

Notas

 

[1] Anónimo, «Nasadiya Sukta», Rig Veda, 10:129, Harmondsworth, Penguin Classics, 1981.

 

[2] Ibíd.

 

[3] La palabra chakra se traduce como «ciclo».

 

[4] También conocidos como números decimales. 

 

[5] François Laruelle, The Transcendental Computer: A Non-Philosophical Utopia, trad. Taylor Adkins and Chris Eby: <https://speculativeheresy.wordpress.com/2013/08/26/translation-of-f-laruelles-the-transcendental-computer-a-non-philosophical-utopia/>

 

[6] John. R. Searle, «Minds, brains, and programs», Behavioral and Brain Sciences, vol. 3, n. 3, 1980, pp. 417-57.

 

[7] Hilary Putnam, «Chapter 5: Why Functionalism Didn’t Work», en Representation and Reality, Cambridge: MA, Bradford Books, 1989.

 

[8] Wilfrid Sellars, «Some Remarks on Kant’s Theory of Experience», The Journal of Philosophy, vol. 64, n. 20, Sixty-Fourth Annual Meeting of the American Philosophical Association, Eastern Division, 1967, pp. 633-647 (642).

 

[9] Peter Wegner and Dina Goldin, «The Interactive Nature of Computing», Minds & Machines Journal, vol. 18, n. 1, 2008, pp. 17-38.

 

[10] Luciana Parisi, «Instrumental Reason, Algorithmic Capitalism, and the Incomputable», en Alleys of Your Mind: Augmented Intelligence and Its Traumas, Matteo Pasquinelli, ed., Lüneburg, Meson Press, 2016, p. 125.

 

[11] Véase <http://senseis.xmp.net/?AlphaGo>

 

[12] Véase <https://en.wikipedia.org/wiki/Go_and_mathematics#Legal_positions>

 

[13] Esto es conocido como la «hipótesis del continuum».

 

[14] Graham Priest, Beyond the Limits of Thought, Oxford, Clarendon Press, 2nd edition, 2003, p. 133.

 

[15] Bertrand Russell, «On Some Difficulties in the Theories of Transfinite Numbers and Order Types», Proceedings of the London Mathematical Society, Ser. 2, vol. 4, 1905, pp. 29-53.

 

[16] Citado en E. H. Johnston y Arnold Kunst (eds), The Dialectical Method of Nāgārjuna (Vigrahavyavartani), Delhi, Motilal Banarsidass, 2nd edition, 1986.

 

[17] La cuestión se refiere a la posibilidad de sobreyección, que describe una relación de correspondencia en la que cada miembro del codominio está mapeado por al menos un miembro del dominio.

 

[18] Reza Negarestani, «The Labour of the Inhuman, Part 1: Human», e-flux Journal #52, 2014. Traducido al español como «La labor de lo inhumano». 

 

[19] Donna Haraway, When Species Meet, Minnesota, University of Minnesota Press, 2007, p. 11.

 

[20] Jean-François Lyotard, The Inhuman: Reflections on Time, Palo Alto: CA, Stanford University Press, 1992, p. 12.

 

[21] Luciana Parisi, Op. cit., p. 136.

 

[22] Jean-François Lyotard, Op. cit., p. 20.

  

Artículo originalmente publicado en Technosphere Magazine, 15/04/2017: 
https://technosphere-magazine.hkw.de/p/The-Inclosure-of-Reason-ecTsvnENeC1GXtmgRNaMH9

XENOMÓRFICA MAGAZINE