En esta última sección, aclararemos cómo y en qué medida es posible abordar la lógica computacional sin reducir sus operaciones al tipo de gobernanza tecnocapitalista. (…) De forma importante, la articulación de una función computacional de la razón requiere un compromiso teórico con el problema del límite de la computabilidad, que también se ha discutido en términos de «aleatoriedad», «incomputabilidad», o el famoso «problema de la parada» [halting problem].[1]
Si bien esta cuestión clásica del límite de la computabilidad se ha abordado exhaustivamente en la historia de la teoría informática, en el «número Omega» de Gregory Chaitin, o en la búsqueda de un patrón algorítmico para la aleatoriedad, también parece ofrecernos uno de los puntos de vista más prometedores sobre la hipótesis de que los procedimientos algorítmicos no son simplemente instrumentos de elaboración de datos primarios;[2] en vez de ello, se podría argumentar que estos también pueden entenderse en términos de su actividad prehensible para registrar, almacenar, seleccionar y elaborar datos carentes de patrón. Las ideas de Chaitin contribuyeron sustancialmente al desarrollo de una teoría de la computación relacionada con la transformación de la lógica automatizada. En particular, su renovador compromiso con la teoría matemática de la información —especialmente su énfasis en la relación entre patrones de significado y ruido [noise]— y con el problema de la entropía (la mesura del caos) dentro de un sistema de información, nos brindaba la ocasión de considerar ante todo la cuestión del límite computacional como una culminación histórica del límite de la lógica. Asimismo, el estudio de Chaitin sobre el problema de la aleatoriedad en la teoría de la información se basaba en una noción específica de entropía, que él entendía como volúmenes de información en aumento irreversible que se generan en los niveles de entrada y salida [input-output] de la computación.[3] Aunando la cuestión del límite de la computabilidad de Alan Turing con la teoría de la información de Claude Shannon, Chaitin abordó el tema de la indeterminación en la computación por medio de demostrar cómo la aleatoriedad (ruido o cantidades incomprimibles de datos) es un factor muy importante para la computación.[4] Para Chaitin, la computación se corresponde con el procesamiento algorítmico de probabilidades incognoscibles. En todo proceso computacional, explica, la salida es siempre mayor que la entrada: algo sucede en el procesamiento de datos que rompe el equilibrio entre el input y el output. Chaitin llama a este fenómeno aleatoriedad algorítmica.[5]
La noción de aleatoriedad algorítmica implica que la información no se puede comprimir en un programa más pequeño, en la medida en que entre la salida y la entrada surge una tendencia entrópica de los datos a aumentar de tamaño (es decir, un aumento de la información carente de patrón dentro del sistema). Chaitin explicó este descubrimiento de la aleatoriedad algorítmica como un procesamiento basado en reglas que ya no seguía el enfoque de la lógica deductiva, para la cual los resultados estaban contenidos en las premisas. Durante las décadas de 1990 y 2000, Chaitin identificó este problema en términos de un límite para la razón deductiva, y afirmó que el problema característico de los resultados incomputables —que no pueden ser anticipados por el programa— deben ser explicados en términos de una «axiomática experimental»: una serie de decisiones o postulados que son inmanentes a los patrones evolutivos en el procesamiento algorítmico de datos primarios.[6] La creciente cantidad de información sin patrones que surge del procesamiento computacional apunta a una dinámica interna de las operaciones algorítmicas, por medio de la cual los patrones son consecuentes con la relación sintética que existe entre algoritmos y datos.
Sin embargo, esta dinámica no se deriva ni es inducida por las actividades biofísicas del entorno, sino que opera dentro del propio entorno de datos, según el cual la lógica automatizada no implica un razonamiento deductivo (reglas a priori) ni inductivo (impulsado biofísicamente). Esto también muestra que a fin de rechazar la Racionalidad Ecológica y su gobernanza tecnonaturalizada necesitamos desarrollar una nueva visión crítica de la computación. Un paso hacia la articulación de este punto de vista implica la ampliación de la cuestión de la lógica automatizada a través de la teorización de una función especulativa de la razón, que, como hemos visto, podría dar cuenta de la elaboración de reglas genéricas a partir de la elaboración prehensiva de datos materialmente incrustados. (…)
Este nivel de artificialidad medioambiental no puede explicarse en términos de los mecanismos afectivos de la comunicación tecnocapital. Estas relaciones automatizadas producen un excedente de información en el que los algoritmos han adquirido funciones inteligibles (o conceptuales), revelando un orden de decisión incompatible con el efectivo alud de respuestas afectivas. Más bien, este orden revela el establecimiento de patrones algorítmicos de patrones, elaborados a través de las prehensiones físicas y conceptuales de los entornos de datos computacionales.
Más allá de la Racionalidad Ecológica y el imaginario tecnocapitalista de un entorno holístico, se podría abogar por la «realidad» [actuality] de entornos de datos que explicarían la constitución de un mundo artificial equipado con sus propias notaciones y funciones, su propia fisicidad y su conceptualidad. Esto también implica la formación de una fase de producción epistemológica «post» o «neo» cibernética, donde los entornos de datos no representan meramente códigos de conducta socioculturales, sino que, todavía más importante, a través de un proceso de prehensión física estos adquieren un orden algorítmico de inteligibilidad desde el cual las reglas socioculturales son re-establecidas (y revisadas) dada su incrustación en el uso del lenguaje tecno-computacional.
A diferencia de la Racionalidad Ecológica, que apuesta por la tecnocapitalización del pensamiento afectivo, los entornos de datos no solo ejecutan instrucciones sino que también son prehendidos física y conceptualmente para elaborar patrones en los límites del procesamiento computacional. Un procesamiento de datos computacional que apunta de forma importante a la prehensión inteligible de datos físicos, que podrían crear conceptos o reglas a partir de una gran cantidad de datos carentes de patrón. Este proceso de transformación de datos en nuevas reglas es lo que puede caracterizar un entorno de datos que trasciende la lógica matemática de la deducción (esquema formal o representacional), así como el método empírico de la inducción (relatividad experimental de respuestas localizadas). Una teoría de la razón automatizada, por tanto, puede mostrarnos la inconsistencia de la Racionalidad Ecológica y de su factor tecnológico-mediático, lo que podría ofrecernos una oportunidad para re-inventar una crítica de la computación más allá de la historia holística del tecnocapitalismo. Desde esta perspectiva, la computación no es equivalente a la naturaleza natural [naturing nature], sino que tiene que ver con una forma de inteligibilidad capaz de utilizar el procesamiento algorítmico para agregar un orden genérico de axiomas, códigos e instrucciones a lo inicialmente programado. («Programación», aquí, equivale al cálculo de la complejidad por su complejidad, excediendo la programación misma).
Si los axiomas se están convirtiendo en verdades experimentales, capaces de postular incógnitas, es posible que la computación también deba concebirse en términos de determinaciones experimentales o inteligibilidad, prehendiendo lo desconocido y contribuyendo a un proceso de revisión de las condiciones iniciales.[7] Quiero proponer que este procesamiento experimental (es decir, en principio mejorable) de datos puede entenderse en términos de la prehensión de Whitehead porque involucra un proceso de elaboración de datos, lo que implica una finalidad consecuente añadida a lo que ya estaba previamente programado. De acuerdo con Whitehead, la prehensión conlleva los modos físicos y conceptuales de seleccionar y evaluar datos y, por tanto, de registrar, almacenar y procesar datos existentes. Esta noción de prehensión implica de manera crucial que la función de la razón no es mapear mentalmente los datos físicos, sino transformar, de maneras contra-intuitivas, los datos prehendidos físicamente, agregando un nivel de finalidad al orden físico. La prehensión, en otras palabras, corresponde no solo a la mecánica física de registrar datos y usar sus funciones existentes sino que, de forma todavía más importante, implica un proceso de abstracción o una elaboración conceptual de datos, desplegando un nuevo nivel de función capaz de establecer (o no) reglas generales y articular una lógica. Este proceso de prehensión explica que la función de la razón no consiste principalmente en representar lo que se percibe físicamente, o incluso en re-potencializar los datos sensibles; más importante aún, tiene que ver con la capacidad de restablecer y redirigir el alcance de los datos de entrada (de acuerdo con lo que se puede lograr conceptualmente mediante la conjunción y la divergencia de patrones), lo que conlleva a la construcción de hipótesis que concuerden (o no) con las condiciones previamente dadas.
A partir de aquí, la característica de la aleatoriedad o tendencia entrópica de la información a aumentar su tamaño —resultando en un output mayor que su input— quiere decir que la prehensión algorítmica implica la activación de un razonamiento que conduce a la creación experimental (es decir, no a priori) de las reglas. La generación de un output más grande que el input puede entenderse en términos de una inteligibilidad experimental que es inherente a la computación, y que es capaz de superar los límites de sus premisas deductivas. La teoría especulativa de la razón de Whitehead podría explicar el procesamiento computacional como una capacidad para superar y llevar más allá la deducción y la inducción, la verdad y los hechos, como partes de su axiomática experimental.[8] Esto requiere abordar la inteligibilidad algorítmica como una generación de hipótesis donde los entornos de datos constituyen el nivel material (pero no discursivo), el cual es prehendido física y conceptualmente por algoritmos, creando a su vez una función automatizada de la razón que se define por la propensión a la generación de reglas. La inteligibilidad algorítmica se puede explicar en términos de la función especulativa de la razón en la medida que implica el surgimiento de una forma genérica de proceso o abstracción algorítmica, el cual está incrustado en el entorno de datos que recupera, y a través del cual elabora un orden de reglas más allá del esquema deductivo.
(…) En otras palabras, los algoritmos no son simplemente una versión computacional de los axiomas matemáticos, sino que más bien deben concebirse como realidades [actualities], compuestos de datos auto-constituidos, que se registran y elaboran a sí mismos más allá de su condición primaria. Como argumenta Whitehead, en un nivel primario de realidad tan solo hay realidades y nexos de realidades.[9] Las realidades no son sujetos ni objetos, pero el proceso de anidación de datos se explica por la manera en que los datos objetivos adquieren una forma subjetiva, lo cual implica la tendencia hipotética hacia un nivel de finalidad en el que las realidades se completan mediante lo que Whitehead llama «concrescencia»: el crecimiento conjunto de muchos niveles de realidad.[10] Por tanto, lo que es fundamental para estas realidades no es simplemente su agregación material, o su co-causalidad biofísica, sino también la introducción de un nivel conceptual de causalidad que define el objetivo o la formación subjetiva de una realidad. Así pues, las realidades están constituidas por la compresión tanto física como conceptual de los datos.
En lugar de ser un simple conjunto de instrucciones para ejecutar en un entorno, la creciente concretización de los entornos de datos muestra más bien que los algoritmos son compuestos de datos y que podrían entenderse como realidades equipadas con su propio procedimiento de prehensión de datos. Su realidad, por tanto, no está definida por la sustancia, sino que implica el procesamiento de datos (secuenciación, ejecución, elaboración), que, dentro de la teoría de la información, se ha teorizado en términos de una lógica experimental cuyos resultados no pueden ser prescritos por sus inputs. Sin embargo, al mismo tiempo los algoritmos también son una forma de abstracción o esquema conceptual que, de acuerdo con Whitehead, está inevitablemente incrustado en las realidades. (…) Desde el punto de vista de la computación, este proceso de abstracción implica la emergencia de un orden genérico de finalidad o causalidad final realizada por los algoritmos mediante la elaboración conceptual de datos físicos; una especie de propósito algorítmico que es inmanente pero no reducible a la localidad de datos. Por otra parte, vale la pena señalar que el dominio de lo incomputable, en los sistemas interactivos paralelos y distribuidos de hoy, ha convertido estos entornos en cantidades incontables de espacios de búsqueda, expandiendo en lugar de limitarse a contener la capacidad de los algoritmos para formar patrones genéricos de información.
De manera importante, la función de la razón en la computación apunta a una transformación histórica de la lógica mecanizada, que, al contrario de lo que se defiende desde el punto de vista de la computación material, no puede explicarse en términos del comportamiento biofísico de los sustratos materiales. Por tanto, lo que se necesita no es otra tecnonaturalización de la computación (como corre el riesgo de hacer el acercamiento a la computación material en el diseño), sino un enfoque materialista de la abstracción, que pueda explicar la evolución desde la prehensión física hasta la prehensión conceptual. Dado que no existe ningún proceso real que no vaya acompañado de una prehensión conceptual (o abstracción) del mismo, la función especulativa de la razón muestra que la dinámica de la abstracción implica un proceso material de elaboración y revisión de reglas, que surge de y sin embargo se extiende más allá de las circunstancias locales de la configuración de la materia. Las prehensiones conceptuales constituyen una causa final que empuja a las condiciones iniciales de un hecho dado hacia acciones y planificaciones nuevas, abstrayendo los datos e ingresando en el territorio de lo genérico, para que así pueda permitir nuevamente otro nivel de procesamiento real. La causa final, por tanto, no coincide con objetivos preestablecidos como si estos contuvieran los resultados, sino con la tendencia especulativa de la razón a volverse genérica y re-determinar sus verdades.
Las prehensiones conceptuales definen el nivel de finalidad de cualquier contingencia porque permiten la elaboración inteligible de datos físicos, y la capacidad de estos últimos para transformar conceptos existentes más allá de sus premisas iniciales. Dicho de otro modo, la razón especulativa clarifica el propósito de las contingencias en términos de generación de hipótesis o de una determinación renovada de verdades: una abstracción experimental.[11]
Desde esta perspectiva, la función especulativa de la razón sirve para explicar el paso de la indeterminación a la determinación, definiendo la computación como una axiomática experimental donde las condiciones iniciales (ya sean conjuntos de ideas o hechos) pueden cambiar en el procesamiento de los datos. (…)
Una comprensión des-naturalizada de la razón computacional parte de la premisa de que las prehensiones implican operaciones no conscientes, pero no obstante inteligibles, de recopilación y selección de datos. Las prehensiones algorítmicas implican que no hay sensación corporal directa ni sentido de autoconciencia. Sin embargo, no son simplemente la reproducción de datos existentes que se reprocesan una y otra vez. En lugar de un inconsciente maquínico, que podría entenderse en términos de las cualidades afectivas del sentimiento (y del pensamiento), y antes incluso que la cognición y la decisión racional, esta noción de prehensión algorítmica aspira a definir una función inteligible de la automatización, capaz de re-conducir los datos previamente reunidos, seleccionados y evaluados.
(…) La función computacional de la razón, así pues, coincide con la discretización, la selección y la evaluación de datos cada vez más aleatorios (tanto externos como internos al propio entorno computacional), lo que apunta de manera notable a la generación de inferencias alien que avanzan en el procesamiento de datos y algoritmos (datos, metadatos y Big Data). Aquí, un enfoque materialista de la computación no puede interesarse únicamente por las potencialidades de la computación ya existentes en la naturaleza, sino que debe abordar la artificialidad de una elaboración automatizada de los datos, seguida de una producción epistemológica alien. Contra la naturalización tecnocapitalista de la computación, que se presenta como si fuera una extensión (o una suave prolongación) del potencial de la naturaleza, el entorno computacional de los algoritmos constituye el desarrollo de un modo semiautónomo de razón que implica un nivel de abstracción de los datos socioculturales, económicos o políticos: un entorno artificial que genera sus propias reglas mediante las prehensiones conceptuales. Sin embargo, la adaptación de esta concepción especulativa de la razón para explicar la transformación de la lógica automatizada tiene como objetivo principal argumentar contra la visión holística del capital y la tecnología, cuestionando la crítica dominante de la instrumentalización de la materia. Se considere o no que el capitalismo es uno con la computación, la articulación de la función especulativa de la razón podría permitirnos tanto cuestionar dicha equivalencia como teorizar sobre la actividad algorítmica que en nuestros días participa de (pero no representa a) la transformación histórica de la función genérica de la razón.
notas
[1] Alan M. Turing, «On Computable Numbers, with an Application to the Entscheidungsproblem», Proceedings of the London Mathematical Society, 42, 2nd series, 1936, pp. 230-65.
[2] Véase Gregory Chaitin, Meta Math! The Quest for Omega, Nueva York, Pantheon, 2005.
[3] La noción de Gregory Chaitin de un límite incomputable está influenciada por el físico del siglo XIX Ludwig Boltzmann, que definió la entropía como una medida del grado de desorden, caos y aleatoriedad en cualquier sistema físico. Véase Gregory, Op. cit., pp. 169-70.
[4] La Teoría de complejidad de Andrey Kolmogorov está considerada como una pionera del campo de la teoría algorítmica de la información. Véase An Introduction to Kolmogorov Complexity and Its Applications (Ming Li y Paul Vitanyi, eds., Tercera edición, Nueva York, Springer Verlag, 2008) y «Randomness and Mathematical Proof», Gregory J. Chaitin, Scientific American, 232, (5) (1975).
[5] Véase Christian S. Calude y Gregory Chaitin, «Randomness Everywhere» (Nature, 400, 1999). Gregory J. Chaitin, Exploring Randomness (Londres, Springer Verlag, 2001, 22); Chaitin, Meta Math!
[6] Gregory J. Chaitin, «The Limits of Reason», Scientific American, 294, 3, 2006.
[7] A diferencia de las teorías cognitivas de la computación (según las cuales calcular [compute] es conocer y, por tanto, producir un mapa mental de los datos recopilados por los sentidos) y a diferencia de las teorías informáticas de la computación (para las que pensar es un asunto binario determinado por secuencias preestablecidas de pasos lógicos), me he basado en la noción de prehensión de Whitehead. De acuerdo con Whitehead, las prehensiones son modalidades de relaciones tanto mentales como físicas, mediante las cuales los objetos se acoplan y responden entre sí. Cfr. Alfred North Whitehead, Process and Reality: An Essay in Cosmology, Nueva York, Free Press, 1978, pp. 23-6.
[8] Alfred North Whitehead, The Function of Reason (Boston: Beacon Press, 1929).
[9] Whitehead, Process and Reality, 230.
[10] Por tanto, el proceso de concrescencia [concrescence] de una entidad real se define por un objetivo subjetivo que impulsa a la entidad a convertirse en una unidad, a alcanzar la satisfacción y luego a perecer (es decir, la entidad real se convierte en datos objetivos que pueden ser prehendidos por otra entidad). Cfr. Whitehead, Process and Reality, p. 22 y p. 104.
[11] Se podría explicar este proceso tomando prestada la noción de «abducción» de Charles Sanders Pierce, para referirse a un tipo particular de inferencia no-deductiva que implica la generación y evaluación de hipótesis explicativas. Para un estudio reciente sobre la abducción de Pierce en el contexto de la computación, véase Abductive Cognition. The Epistemological and Eco-cognitive Dimensions of Hypothetical Reasoning (Berlín, Springer Verlag, 2009, 1-41). La computación material, apoyada principalmente en la lógica inductiva de las interconexiones físicas, omite problemáticamente las abstracciones llevadas a cabo por la prehensión conceptual, para las cuales no puede haber observación directa, intuición o experiencia inmediata. Cfr. Whitehead, The Function of Reason, p. 25.
*La versión completa del artículo de Parisi fue publicada en 2017 en General Ecology: The New Ecologial Paradigm, Erich Hörl y James Burton (eds).
Luciana Parisi es profesora de Teoría Cultural, presidenta del programa de doctorado en el Centre for Cultural Studies, y codirectora de la Unidad de Cultura Digital en la Universidad de Goldsmiths, Londres. Su investigación se basa en la filosofía continental para investigar las transformaciones ontológicas y epistemológicas impulsadas por la función de la tecnología en la cultura, la estética y la política. Sus trabajos abordan la biotecnología, la nanotecnología, la inversión tecnocapitalista en inteligencia artificial, la cibernética, la teoría de la información y la computación, y en la actualidad investiga la historia de la automatización y las consecuencias filosóficas del pensamiento lógico en las máquinas. Es autora de Abstract Sex: Philosophy, Biotechnology and the Mutations of Desire (Continuum Press, 2004) y Contagious Architecture: Computation, Aesthetics and Space (MIT Press, 2004).