- 22/03/2026 00:01
El desarrollo de la epistemología ha gravitado históricamente sobre una tesis central: el agente de conocimiento es el sujeto humano individual, que es quien a fin de cuentas razona, tiene experiencias perceptivas, interpreta y procesa información, etc. Recordemos, en ese sentido, la concepción clásica de conocimiento, según la cual “a sabe (o tiene conocimiento de) que p si y solo si a cree que p, p es verdadero y p está justificado”.
Queda claro que la creencia, la verdad y la justificación son condiciones necesarias para que un agente a sepa o tenga conocimiento de algo, específicamente, de una proposición. Nótese, además, que la definición se refiere al conocimiento en sentido proposicional, de modo que la concepción clásica no alcanza el ‘saber cómo’ (to know-how), un tópico históricamente descuidado, pero que la epistemología contemporánea ha empezado a dilucidar. (Véase, Harrison, B. The Epistemology of Know-how, 2012).
Desde hace algunas décadas, se ha puesto en cuestión esa tesis, explorando la posibilidad de “multiagencia epistémica” (epistemología grupal o colectiva) y discutiendo la posibilidad de que las máquinas sean agentes epistémicos. Históricamente, la pregunta de si las máquinas pueden pensar y –por extensión– conocer, constituyó una cuestión medular en la filosofía de la mente.
Dicho debate ha adquirido con el desarrollo de sistemas de inteligencia artificial (IA) un vívido interés, no solo en relación con la pregunta anterior, sino en relación con cómo estos sistemas moldean nuestros conocimientos, y la posibilidad misma de una epistemología híbrida en la que nuestros sistemas de conocimientos no son la expresión única de procesos cognitivos humanos. (Véase Wheeler, G. R. & Monis Pereira, L. ‘Epistemology and artificial intelligence’, Journal of Applied Logic, 2(4), 2004).
Pensemos en la siguiente situación: López es un estudiante sin mayor entrenamiento en lógica, que inicia sus estudios de filosofía, a quien se le pide que simbolice el siguiente argumento en lógica de primer orden y explique si es deductivamente válido, y si no lo es, crear un contramodelo: “todo número par es múltiplo de 2, el 4 es múltiplo de 2; luego, el 4 es número par”. López ‘consulta’ a una IA, la cual ‘responde’ impecable y correctamente, de modo que –ahora– ‘puede’ traducir el argumento al simbolismo y explicar si es deductivamente válido o no. ¿Podríamos imputar conocimiento a López?
La pregunta podría responderse negativamente: aun cuando López simbolice el argumento, explique y presente un contramodelo, no conoce realmente, puesto que:
no ha realizado ningún procedimiento por medio del cual el resultado ha sido obtenido,no hay garantías de que pueda transferir tal resultado a otros escenarios ni de que pueda corregir u ordenar la información, en caso de que el argumento fuese inválido.
Podríamos decir que López ha adquirido información, sin dudas, pero no hay que confundir información con conocimiento.
No obstante, desde el punto de vista de la concepción clásica del conocimiento, tal vez, podríamos imputar conocimiento a López, ya que:
posee la creencia acerca de si el argumento es válido o no, y –además– puede formalizarlo; dicha creencia es verdadera; tiene una justificación para ello.
Por supuesto, podría cuestionarse si efectivamente López cumple con la tercera condición; además, la propia idea de justificación podría cuestionarse de más de una manera (Gettier, E. Is Justified True Belief Knowledge?, Analysis 23, 1969).
Nótese que en la situación descrita nos estamos refiriendo a un individuo en particular: López; una manera algo tosca de entender el conocimiento desde esta perspectiva podría ser la siguiente: el conocimiento (K) es una función que asocia estados cognitivos de un individuo con proposiciones, en otras palabras, K1: M→P.
Pero se ha omitido una parte importante de la ecuación: la IA. Si se considera este componente, la función anterior tendría que reformularse: el conocimiento es una función que asocia “estados/procesos cognitivos” de un individuo y procesos de un agente externo, con proposiciones; algo como K2: M+E→P, donde E sería el ‘agente’ externo (la IA, la naturaleza, un software).
De esta manera, se pasa de una concepción del conocimiento basada en procesos/estados cognitivos individuales, a un sistema conformado por un agente humano y –digamos– una tecnología (IA). En este escenario, la pregunta no es si López conoce, más bien se debería preguntar si el sistema lo hace. En caso afirmativo, el conocimiento dejaría de ser algo constitutivo de un individuo y lo sería de un sistema acoplado.
Esta idea no es nueva. Remite a la pregunta planteada por A. Clark y D. Chalmers en su célebre texto ‘The extended mind’ (Analysis 58(1), 1998): ¿Dónde termina la mente y comienza el resto del mundo? Esta pregunta –sostienen– se suele responder de dos maneras:
todo lo que está fuera del cuerpo está fuera de la mente o, el significado de nuestras palabras no está en la cabeza (externalismo mental). A estas respuestas agregan una tercera: un externalismo activo basado en el papel activo del entorno en el impulso de los procesos cognitivos. De esta manera, mente y entorno constituyen un sistema acoplado que puede verse como un sistema cognitivo de propio derecho.
Visto así, se podría hablar de dos escenarios o procesos cognitivos que generan salidas epistémicas diferenciadas:
en primer lugar, los realizados de acuerdo con procedimientos ‘puramente internos’, como cuando realizamos un cálculo mental sobre aritmética básica; en segundo lugar, los realizados de manera acoplada en los que a dichos procedimientos se agregan componentes externos, como cuando observamos una célula en el microscopio o determinamos la temperatura usando un termómetro.
En el ejemplo comentado, López y la IA constituirían un sistema acoplado: aun cuando se sostenga que, tras interactuar con la IA, López de manera individual no posee realmente conocimiento, el sistema ‘López + IA’ sí (obviamente, tampoco lo tendría la IA de manera aislada). Esto tiene una consecuencia lógica inmediata: desde el punto de vista epistemológico, el agente epistémico no es, necesariamente, un sujeto humano individual, sino un sistema acoplado del cual dicho sujeto es parte.
Pero hay más. Pensemos en el matemático que prueba con la asistencia de una IA que una determinada conjetura es correcta. Tal conocimiento podría validarse de varias formas, ya sea a través de los razonamientos de los miembros de la comunidad matemática en calidad de especialistas (expertos), ya sea incorporando otras herramientas de IA que realizan dicha tarea en un tiempo menor al que tomaría hacerlo mediante simple razonamiento humano; de modo que se obtiene K3: G→P, en el primer caso, y K4: G+E→P, en el segundo (G designa el grupo o comunidad de expertos).
De acuerdo con K1 y K3 el conocimiento es algo estrictamente humano; mientras que K2, y K4 desbordan la idea tradicional de cómo se genera y valida el conocimiento, ya que contemplan condiciones epistémicas que no están sujetas a las limitaciones que condicionan nuestras habilidades cognitivas, integrando elementos externos a la(s) mente(s).
Esto, sin embargo, hay que tomarlo con cautela. ¿Lo que entendemos como IA es algo ajeno a lo humano? Definitivamente no. Con o sin IA el conocimiento es un fenómeno humano, con todo lo que ello implica; asimismo, aspectos como la autoría, la inventiva, e –incluso– la autonomía epistémica individual tendría que ser replanteadas.