Volumen 34 No. 3 (julio-septiembre) 2025, pp. 101-115

ISSN 1315-0006. Depósito legal pp 199202zu44

DOI: 10.5281/zenodo.15609201

Prototipo de simulación a partir de redes neuronales artificiales y su relación con epistemologías extra-racionalistas

Jimy Humpiri Núñez*, Paul Mamani Tisnado**, Juan Benites Noriega*** y Cristian Rodríguez Tupayachi****

Resumen

La búsqueda de la IA por hacer una máquina que solucione problemas intelectuales casi con la misma habilidad que lo hace un ser humano, tropieza con el debate iniciado por varias teorías acerca de la imposibilidad de los RNA en procesar epistemologías cuyos elementos proceden de campos extra-racionales, identificables en la experiencia emocional. El debate confronta algunas filosofías y teologías antiguas y modernas hoy preponderantes, y el racionalismo interaccionista. Sin embargo, se propone que la medición de estos campos solo presentan problemas para la ponderación. Intentando establecer conceptualmente las bases de la tensión entre lo racional y lo extra-racional, este artículo propone utilizar la noción de campo filosófico con el fin de integrar otras epistemologías a prototipos de simulación basados en redes neuronales artificiales. Para ello, se establece un experimento de simulación tradicional, aplicando la técnica de la red de propagación hacia atrás, para el reconocimiento óptico de caracteres, de patrones y la predicción de series de tiempo. Posteriormente, se debaten sus resultados para establecer especulativamente algunas posibilidades y limitaciones. Se concluye que la simulación sobre campos filosóficos es posible siempre que la tecnología pueda proveer de dispositivos de medición de otras realidades epistemológicas

Palabras clave: Campo filosófico; epistemología; IA; prototipo de sistema; RNA

*Universidad Andina Néstor Cáceres Velásquez. Puno, Perú . ORCID: 0000-0003-0655-8403

E-mail: jepistemologia@gmail.com

**Universidad Andina Néstor Cáceres Velásquez. Puno, Perú. ORCID: 0000-0002-0287-7143

E-mail: paulmamani@hotmail.com

***Universidad Andina Néstor Cáceres Velásquez. Puno, Perú. ORCID: 0000-0003-3842-8435

E-mail: juanbenitesnoriega30@gmail.com

****Universidad Andina Néstor Cáceres Velásquez. Puno, Perú. ORCID: 0000-0001-8889-9265

E-mail: chrisrodriguezh@hotmail.com

Recibido: 11/01/2025 Aceptado: 24/03/2025

Simulation prototype from artificial neural networks and its relation to extra-rationalist epistemologies

Abstract

AI’s quest to develop a machine that solves intellectual problems with almost the same skill as a human being runs into the debate sparked by various theories about the impossibility of ANNs to process epistemologies whose elements come from extra-rational fields, identifiable in emotional experience. The debate confronts some of the currently prevalent ancient and modern philosophies and theologies, as well as interactionist rationalism. However, it is proposed that measuring these fields only presents problems in terms of weighting. Attempting to conceptually establish the bases of the tension between the rational and the extra-rational, this article proposes using the notion of a philosophical field to integrate other epistemologies into simulation prototypes based on artificial neural networks. To this end, a traditional simulation experiment is established, applying the backpropagation network technique for optical character recognition, pattern recognition, and time series prediction. Its results are then discussed to speculatively establish some possibilities and limitations. It is concluded that simulation on philosophical fields is possible as long as technology can provide measurement devices for other epistemological realities

Keywords: Philosophical field; epistemology; AI, system prototype; RNA

Una pregunta sabia ya es la mitad de una respuesta.

El Talmud

Introducción

Desde el momento en que la computación superó el enfoque algorítmico tradicional, un objetivo central de la disciplina ha sido la emulación, más o menos inteligente, del comportamiento de los sistemas biológicos.

El uso de las Redes Neuronales Artificiales (RNA) ha permitido la solución a problemas complejos, no como una secuencia de pasos, sino como la evolución de unos sistemas de computación inspirados en el funcionamiento del cerebro humano y dotados por tanto de cierta inteligencia, los cuales no son sino la combinación de una gran cantidad de elementos simples de proceso (neuronas) interconectados que, operando de forma masivamente paralela, consiguen resolver problemas diferentes. En el caso que asiste a esta investigación, se trata de problemas relacionados al reconocimiento óptico de caracteres, reconocimiento de patrones y predicción de series de tiempo.

Debido a su constitución y a sus fundamentos, las redes neuronales artificiales presentan un gran número de características semejantes a las del cerebro humano. Por ejemplo, son capaces de aprender de la experiencia, de generalizar casos anteriores a nuevos casos, de abstraer características esenciales a partir de entradas que representan información irrelevante. Esto hace que ofrezcan numerosas ventajas las cuales incluyan el aprendizaje adaptativo, auto-organización, tolerancia a fallos, operación en tiempo real y fácil inserción dentro de la tecnología existente.

Todo el sistema se sostiene en la simulación del comportamiento de partes del cerebro humano mediante la réplica en pequeña escala de los patrones que éste desempeña para la formación de resultados a partir de los sucesos percibidos. De tal modo que, la constante normalmente inalterada en los estudios sobre IA es que siempre hay un hecho objetivamente percibido dentro del algoritmo inteligente.

La simulación del reconocimiento óptico de caracteres, reconocimiento de patrones y predicción de series de tiempo, hasta el momento, poseen un grado apreciable de inexactitud cuando el texto presenta ruido, es decir cuando el original contiene manchas (como las producidas al fotocopiar una página) o símbolos mezclados con el texto (un dibujo). Entonces, para solucionar éste problema se hizo uso de las redes neuronales artificiales, para la programación de la percepción del objeto, de manera similar a como el cerebro humano distingue con facilidad el texto con ruido. Ello revela que, desde la perspectiva de la ciencia computacional, el mayor obstáculo no es el proceso de simulación y predicción, sino del reconocimiento de la realidad, tal como la perciben los sistemas biológicos y, sobre todo, el cerebro humano.

Esta situación pone a los estudios sobre IA en la misma posición que las filosofías preponderante de la actualidad: El problema no consiste principalmente en el enorme esfuerzo de procesamiento de la data, sino en las preguntas que permiten identificar y legitimar la data en los sistemas filosóficos. De tal modo que es posible decir que cada aproximación filosófico-teórica consiste en una pregunta diferente y no en un procesamiento diferente de la data establecida.

El debate entre lo centralmente racional (el racionalismo) y lo centralmente extra-racional, es sustancial en el debate de las ciencias matemáticas que están en las bases de las ciencias computacionales. Este debate se sostiene, por un lado, en una idea de realidad completa, de total determinismo por los factores observable empíricamente, y el determinismo incompleto, que no puede explicar solamente la realidad con las materias conocidas, dejando lo arbitrario, a expensas de fuerzas desconocidas pero, de algún modo perceptibles, tal como dice Wiener, lo había enseñado San Agustín en la Edad Media:

“Reconocer la existencia de un determinismo incompleto, casi irracional, en el universo, es como admitir con Freud que hay una profunda componente irracional en la conducta y en el pensamiento del hombre. En el mundo actual de confusión, tanto política como intelectual, existe una tendencia natural a considerar que Gibbs, Freud y los que cultivan la moderna teoría de la probabilidad, son representantes de la misma tendencia. No deseo insistir sobre ello. La distancia que media entre el modo de pensar de Gibbs-Lebesgue y el método intuitivo y algo discursivo de Freud es demasiado grande. Sin embargo, al reconocer un elemento fundamental de probabilidad en la estructura del universo, esos hombres están íntimamente unidos entre sí y con la tradición de San Agustín: Pues ese arbitrario, esa carencia de totalidad orgánica, es algo que puede llevar el simbolismo verbal lejos, es el mal; el mal negativo que San Agustín caracteriza como una carencia de perfección, opuesto al principio maléfico positivo de los maniqueos.” (1988, 13)

A continuación, se mostrarán 4 alcances epistemológicos relevantes en la filosofía que se ubican dentro y fuera del campo de la percepción centralmente racionalista y que, por tanto, desafían los sistemas con base algorítmica inteligente.

1. La percepción racionalista-interaccionista

En la Edad Media, los empiristas como Hume y Bacon sentaron las bases de la experiencia como fuente de realidad. Ellos no negaron la posibilidad de experiencias extra-racionales, pero siempre se encontraron con los problemas de validación y ponderación estándar de este tipo de experiencias. De algún modo, la preponderancia de la teología y el poder religioso feudal en ese periodo histórico, protegió esta falencia, pues no era bien vista para la cultura la consideración negativa de la existencia de Dios. Ellos sirvieron de base al racionalismo cartesiano, que fue el que instituyó un principio de enorme importancia en las ciencias exactas del siglo XX por el cual solo la razón da cuenta de la existencia de las cosas, dejando al lado fuentes de comprensión de la realidad, como la literatura (Castro y Miranda, 2006). En los siglos XIX y XX, estos principios epistemológicos viajaron de la matemática, al cálculo informático, teniendo fundamentalmente efecto en tres instancias:

a) La lógica binaria

La base del cálculo de la realidad, incluyendo los sistemas biológicos y el cerebro humano, no parecían escapar del maniqueísmo conceptual de las partículas del mundo (todo/nada; conectado/desconectado; presencia/ausencia). Es una lógica que simplifica la realidad como lo hace la geometría y la matemática: limitar el número de opciones al mínimo posible, corresponde a la idea aristotélica de que la realidad se resume en lógicas simples y de origen.

b) La transmisión de señales

La invención de tecnologías de transmisión, hizo a la ciencia concentrarse en problemas como “Aumentar la velocidad de transmisión” y “Reducir las pérdidas de señal”. En este momento, la informática se convierte en una teoría de la comunicación.

c) La estadística

Dado que la realidad es compleja, se requiere seleccionar de sus partes para interpretarla (nuevamente a partir de la lógica aristotélica de que todo procede de partículas simples y de origen). Los sistemas de selección sucesiva de signos o palabras de una lista dada, trajeron la identificación de los significados con los significantes en las ciencias sociales, que llevó, a su vez, al método estadístico y al análisis de discurso, con lo que la información quedaba así relacionada con la frecuencia de aparición de las señales y sus probabilidades.

Esta idea redujo, dando valor a lo empíricamente ponderable y racional, la comunicación como un simple juego entre emisor y receptor, siendo éstos los componentes binarios de origen de la realidad. De tal modo que para el emisor la información equivale al grado de libertad en la selección de las señales, para el receptor, la información equivale al grado de novedad o sorpresa del mensaje. Todo esto, como era de esperar, dejaba por fuera la idea de significado.

La fórmula utilizada para entender la relación entre realidad y sistemas informáticos es:

H =-NΣpilog2pi

bits

Donde:

H = medida de la información

Σn i=1

pi = la probabilidad de cada señal i.

N = es el número de ocurrencias posibles

El impacto del empirismo racionalista, en términos de la teoría de la comunicación, sobre la antropología, y la epistemología, está lejos de ser superficial, por lo que el enfoque extra-racionalista (Agreda, Hinojo & Sola, 2016; Gisbert, González & Esteve, 2016) aunque sigue siendo crucial, se mantiene insuficiente.

Según la Escuela de Palo Alto, Aguado (2004) y Erwin Goffman (1986) incluyen en esta fórmula el poder constructivo que tienen las interacciones sociales sobre la cultura. Así la transmisión de data sólo puede ser comprensible en la realización de fondos o contextos de nuevos momentos epistémicos. Esto complica la relación entre el cálculo y la realidad, pues la data ahora debe entenderse desde esta relación figura/fondo. La antropología y, sobre todo, Goffman, han hecho enorme hincapié en la fuerza que tienen las micro relaciones sobre el cambio social estructural. Aunque esta escuela previene de los peligros de considerar al proceso comunicativo como mecánico o automático, los construccionistas actuales, muy de boga en este momento, han asumido que el cambio puede ser automático, puesto que la realidad depende de percepción situacional y es tan susceptible de construcción como la moda y los lenguajes (Berger & Luckmann, 1967).

En consecuencia, estas teorías consideran que los cambios en las competencias digitales son analogables a la comunicación humana y, por consecuencia, a la conducta y la cultura, mientras que sea posible transferir las transformaciones en el fondo contextual de la percepción del todo (Aguado, 2004, 26-30).

2. La inteligencia del cuerpo en el psico-analísis

Sigmund Freud tuvo graves problemas de aceptación en la academia de la psicología de su época. Quizás por ello, creó una nueva conceptualización, casi en todos aspectos de su pensamiento, para evitar un desgastante debate terminológico con la sicología positivista de su época (Maury, 1993). Su pecado fue proponer que las emociones constituyen una fuente de conocimiento. Así explica Freud el problema de la observación interior y la escucha flotante:

“Me preguntareis ahora -y muy justificadamente por cierto- cómo no existiendo criterios objetivos para juzgar el grado de veracidad del psicoanálisis, ni posibilidad alguna de demostración, puede hacerse el aprendizaje de nuestra disciplina y llegar a la convicción de la verdad de sus afirmaciones... El psicoanálisis se aprende, en primer lugar, por el estudio de la propia personalidad, estudio que, aunque no es lo que rigurosamente calificamos de autobservación, se aproxima bastante a este concepto. Existe toda una serie de fenómenos anímicos muy frecuentes y generalmente conocidos que, una vez iniciados en los principios de la técnica analítica, podemos convertir en objeto de interesantes autoanálisis, los cuales nos proporcionarán la deseada convicción de la realidad de los procesos descritos por el psicoanálisis y de la verdad de sus afirmaciones” (1967 [1916]:154).

De esta perspectiva, Freud, y luego todas sus escuelas, entiende que existe una realidad empática y simpática que da cuenta de realidades emocionales en el otro. No se trata de encontrar dispositivos de medición de comportamientos objetivos, sino de la revelación interior de la condición intelo-emocional del otro, y de toda la sociedad. Toda energía síquica puede verificarse y validarse en la pertinencia interpretativa del que hace el papel de analista.

Todo esto conlleva dos implicaciones, al menos: La legitimación de las verdad establecida emocionalmente por el cuerpo en unos, es verdad en todos. Esto cambia radicalmente la noción de verdad, tal como fue descrita en el epígrafe anterior. La verdad de esas emociones empáticas y simpáticas, son también la verdad de los sujetos. El yo es, como en Descartes, una categoría genética (un origen del conocimiento), cuya fuente ya no solo es la razón validable, sino esta esencia misteriosa que se identifica emocionalmente en el cuerpo interactivo de la cultura. Se trata de una nueva epistemología de la verdad, pero no de una verdad accesoria y marginal, sino de una constitutiva, fundadora y estructuradora de la percepción del todo.

3. La debilidad postmoderna de la realidad, y la debilidad del lenguaje racional

Cerca de los años 80 hasta la fecha se ha sucedido en la ciencia un cisma, no siempre aceptado por todos los pensadores, pero de enorme relieve en el pensamiento moderno, y que fue el prólogo de la actual moda construccionista: la crisis postmodenista. Se trata de un conjunto de críticas basadas en la decepción de la sociedad frente a la razón como recurso de transformación y mejoramiento de la vida, y que, en muchos casos, trataron de justificar la crisis de la razón en todas las esferas de la vida, por su mismo carácter totalitario y simplista. A partir del impacto del deconstruccionismo de Derrida, la ciencia empezó a dudar de absolutamente todo lo que hacía, por causa de que la epistemología racionalista era susceptible de falsación interior. Sobre todo, las ciencias sociales, empezaron a hacer aguas, al oponer a la realidad soluciones que nunca eran tales, y procedimientos que llevaban a otros caminos que los esperados. Esta vez la crítica no reposó en la selección del ángulo, el contexto o la pregunta, sino en el mismo carácter falsificador e ilusionista de la razón humana:

“Esto implica que el pensamiento social de los últimos años ha sometido a la realidad simbólica a un proceso de doble retorno: en la medida que ensambla sistemas y lo considera como esqueletos del hecho humano, el estructuralismo es un método, una epistemología que produce saberes sistemáticos, inferencias, resultantes totales; pero en la medida en que desensamblamos los esqueletos, en un proceso inverso y paralelo al que lo construyó, nos acercamos al procedimiento, pues las piezas de los esqueletos en el suelo, desordenadas u ordenadas dinámicamente, procuran un conocimiento fragmentado, epiléptico, múltiple que no infiere nada. Sólo a nosotros mismos. El objeto transparenta al sujeto. Ante eso, la postmodernidad (sobre todo el llamado posmodernismo “sin t” de Lanz) tiende a ver al pensamiento científico como un juego de palitos chinos. O como las monedas del I Ching que Jung describiese en un prefacio muy popular de ese libro. Los chinos otorgan al “desorden” creado enlanzar palitos o monedas, una resultante de las fuerzas que se “fotografían” en ese instante y que tiene la voracidad de interpretar elfuturo. Allí el presente está constituido por todos los tiempos. La imposibilidad de medir las infinitas marañas que los palitos hacen en el suelo, o remitir el número del azar a una respuesta del libro (que es más bien una nueva pregunta), equivale a ceder ante una realidad opuesta a las formaciones filosóficas, a los ahorros, a los sistemas infalibles de acción, a la acumulación de capital, al logro de prestigio. Nada que puedas “tener” sirve en la estrategia del presente eterno.” (Castro Aniyar, 2014, 16)

La crisis moderna niega la pertinencia de todo lo creado por la razón, pero no se trata solo de un nuevo jugo de palabras: sus principios han sido confirmados por la misma neurociencia, cuando se estableció que la fuente de la realidad primero es límbica (las emociones primigéneas) y solo después regulada por las funciones racionales del neo-córtex. De tal modo que el conocimiento humano no es racional sino artificial o, en el mejor de los casos, forzadamente racional (Damasio, 2005; 1995).

Esta crisis hizo las bases del construccionismo, y permitió establecer que la realidad surge de las relaciones intersubjetivas que lucen racionales pero que en realidad no los son. Toda realidad, a partir del impacto construccionista, basta con ser declarada para que exista. Esto dio un papel estructurante y formador al lenguaje y el habla. La realidad fáctica sería entonces secundaria al poder de los juegos lingüísticos (Berger y Luckmann, 1986; Lincoln y Cuba, 1985).

4. Definiciones necesarias en IA

4.1. Redes neuronales artificiales

La aparición de las computadoras digitales y el desarrollo de las modernas teorías acerca del aprendizaje y del procesamiento neuronal se produjeron aproximadamente al final de los años cuarenta. A partir de este momento, las computadoras digitales han sido utilizados como herramientas para modelar neuronas individuales, así como agrupaciones de neuronas que se denominan redes neuronales, desde entonces se ha acumulado una gran cantidad de investigación neurofisiológica.

Una red neuronal es una estructura computacional inspirada por el estudio del procesamiento de las neuronas biológicas. Las RNA fueron originalmente una simulación abstracta de los sistemas nerviosos biológicos, formados por un conjunto de unidades llamadas “neuronas” o “nodos” conectadas unas con otras. Estas conexiones tienen una gran semejanza con las dendritas y los axones en los sistemas nerviosos biológicos. Desde el punto de vista computacional puede verse como un método para representar funciones utilizando redes formadas por sencillos elementos del cálculo aritmético y como métodos para aprender tales representaciones a partir de ejemplos. Estas redes representan funciones de la misma forma que los circuitos que están formados por sencillas compuertas lógicas representan funciones booleanas. Tales representaciones resultan especialmente útiles en las funciones complejas cuyas salidas son valores continuos y grandes cantidades de entradas con ruido, casos que a veces resultan difíciles para las técnicas basadas en la lógica.

Desde el punto de vista biológico, se propone un modelo matemático acerca del funcionamiento del cerebro. Los sencillos elementos de cálculo aritmético equivalen a las neuronas, que son células que procesan la información en el cerebro y la red en general equivale a un conjunto de neuronas conectadas entre sí. Por lo anterior, a éstas redes se les conoce como redes neuronales artificiales (Rusell & Norvig, 1996). Además de sus útiles propiedades de cómputo, las RNA son idóneas para el estudio de diversos fenómenos psicológicos propios de la estructura y funcionamiento del cerebro. Las redes neuronales artificiales mediante un estilo de computación paralelo y adaptativo, son capaces de aprender a realizar determinadas tareas a partir de ejemplos de cómo realizarlas. Estos sistemas imitan esquemáticamente la estructura hardware del cerebro para tratar de reproducir algunas de sus capacidades. Así, una red neuronal artificial se compone de un conjunto de neuronas (o procesadores elementales), ampliamente interconectados y cuyas sinapsis (conexiones) son modificadas mediante un proceso de entrenamiento consistente en la presentación de un conjunto de patrones ejemplo, con la intención final de que el sistema aprenda a realizar por sí mismo determinadas tareas (cuya solución quizás desconozcamos).

Villada et al. (2016) las redes neuronales artificiales (RNA) son sistemas de aprendizaje inspirados en el funcionamiento del cerebro humano. De esta forma simulan e imitan sistemas permitiendo establecer relaciones no lineales entre las variables de entrada y salida. Su principal ventaja que consiste en procesar información en paralelo en tiempo real ha permitido su aplicación en la clasificación y reconocimiento de patrones en sistemas complejos (Martínez, 2014).

4.2. Redes neuronales

Una red neuronal es el intento de poder realizar una simulación computacional del comportamiento de partes del cerebro humano mediante la réplica en pequeña escala de los patrones que éste desempeña para la formación de resultados a partir de los sucesos percibidos. Concretamente, se trata de poder analizar y reproducir el mecanismo de aprendizaje y reconocimiento de sucesos que poseen los animales más evolucionados. También se puede definir como un modelo matemático compuesto por un gran número de elementos procesales organizados en niveles. En conclusión una red neuronal es un sistema que permite establecer una relación lineal o no lineal entre las salidas y las entradas (Villada et al., 2006).

Pérez & Fernández (2007) entre las definiciones más recientes de inteligencia artificial se expresa, en forma general, la inteligencia artificial como la capacidad que tienen las máquinas para realizar tareas que en el momento son realizadas por seres humanos; otros autores como Nebendah (1988) y Delgado (1998) dan definiciones más completas y las definen como el campo de estudio que se enfoca en la explicación y emulación de la conducta inteligente en función de procesos computacionales basados en la experiencia y el conocimiento continuo del ambiente. Autores como Marr (1977), Mompin (1987), Rolston (1992), en sus definiciones involucran los términos de soluciones a problemas muy complejos.

5. Experimento: una simulación a la luz de la necesidad de entender la inteligencia desde lo extra-racional

a. Material y métodos

Se utilizó el Modelo Incremental, el cual combina elementos del modelo lineal secuencial (aplicados repetitivamente) con la filosofía interactiva de la construcción de prototipos.

El dominio del presente trabajo de investigación se ubicó en el campo de la informática, enmarcada dentro de la Inteligencia Artificial, específicamente en el desarrollo de un prototipo de sistema para modelar y simular redes neuronales artificiales.

La muestra se determinó mediante el muestreo no probabilístico a criterio, considerando un número de 9 estudiantes, quienes después de usar el prototipo de sistema para el modelamiento y simulación de redes neuronales artificiales, resuelven un cuestionario para evaluar el software, mediante sus apreciaciones y sugerencias.

b. Resultados

Figura 1. Diagrama de clases

En éste diagrama se muestra las distintas operaciones que se esperan del SRNA y como se relaciona con su entorno (usuarios u otras aplicaciones).

Figura 2. Diagrama de casos de uso

Resultados y discusión

Al realizar la encuesta de aceptación del software se ha puesto énfasis en el diseño de la interfaz de ingreso de datos, salida del sistema y velocidad de procesamiento de datos. De ello podemos concluir que:

  1. De un total de 9 personas, el 22,2 % indica que es muy fácil el manejo del sistema, el 66,7% indica que el manejo del sistema es fácil y el 11,1% indica que el manejo del sistema es regular.
  2. De un total de 9 personas, el 33,3 % indica que el sistema le provee en forma completa las opciones que uno necesita, el 55,6% indica que el sistema le provee en su mayoría las opciones que uno necesita y el 11,1% indica que el sistema le provee medianamente las opciones que uno necesita.
  3. De un total de 9 personas, el 44,4 % indica que el interfaz del sistema es muy amigable, el 55,6% indica que el interfaz es amigable.
  4. De un total de 9 personas, el 44,4 % indica que el ingreso de datos para el reconocimiento de patrones es muy fácil, el 44,4 % indica que el ingreso de datos para el reconocimiento de patrones es fácil y el 11,1 % indica que el ingreso de datos para el reconocimiento de patrones es regular.
  5. De un total de 9 personas, el 77,8 % indica que el tiempo de respuesta es rápido, el 22,2% indica que el tiempo de respuesta es regular.
  6. De un total de 9 personas, el 77,8 % indica que la presentación de resultados es comprensible, el 22,2% indica que la presentación de resultados es poco comprensible.

Sin embargo, ninguno de los medidores permite identificar indicadore extra-racionales. Todo el ejercicio se resume en la codificación aristotélica por partículas simples del conocimiento que, como apunta la bibliografía utilizada, es insuficiente para entender la noción de inteligencia.

La simulación del cerebro humano a la luz de la filosofía extra-racional

El hombre se ha aplicado a sí mismo el nombre científico de homo sapiens como una valoración de la trascendencia de nuestras habilidades mentales en el control de la naturaleza y los conceptos. Los esfuerzos de la IA se enfocan a lograr la comprensión de entidades inteligentes, pero la definición de inteligencia no suele escapar de las delimitaciones del interaccionismo y el racionalismo, como se ha descrito. Por ello, una de las razones de este estudio es el aprender más acerca de nosotros mismos. Los esfuerzos de la IA están encaminados tanto a la construcción de entidades inteligentes como a su comprensión, pero una rápida revisión de las tradiciones filosóficas revela que requiere también de determinar cuál es el aporte de la filosofía y de la psicología para entender en qué consiste la inteligencia humana. La inteligencia artificial (IA) está referida al modo de simular las capacidades de inteligencia del cerebro humano, y ello supera la noción intelectualista, no cognitiva, no corporal, no intelo-emocional de estas capacidades (Badaró et al., 2013). El reconocimiento de la realidad objetiva en la relación fondo y figura, que el racionalismo acepta y las teorías cibernéticas de la comunicación aceptan, debería conllevar a que la noción de fondo también implica la fuente intelo-emocional que circunscribe o connota todos los conceptos.

La IA es “la interesante tarea de lograr que las computadoras piensen, máquinas con mente, en su amplio sentido literal” (Rusell & Norvig, 1996). Pero ¿Cómo encontrar las técnicas para diseñar y programar máquinas, computadoras que emulen y extiendan nuestras capacidades mentales, si no se resuelve aquel camino apuntado por los matemáticos en el camino de cibernética, como en el caso citado de las advertencias de Wiener (1988)? Para tomar en serio la manera cómo la IA se relaciona con otras áreas del conocimiento como la ciencia de la computación, la lingüística, la ingeniería, la medicina, y sobre todo, la filosofía, y la psicología, se hace necesario un nuevo cuerpo conceptual que permita la intersección transdisciplinaria entre estas disciplinas, como se propondrá en el epígrafe sobre “conclusiones”.

Miailhe & Lannquist (2018) mencionaron que la enorme masa de ciudadanos de la denominada “aldea mundo” se encuentran en una situación no muy privilegiada respecto a las tecnologías de IA y desconocen notoriamente los posibles efectos y por ende los riesgos a los que quedarían expuestos ante este avance ineluctable que se gesta cada vez a pasos más acelerados. Crear máquinas que reduzcan las posibilidades intelectuales de la sociedad, puede convertirse en una fuente de vulnerabilidades contra las culturas, contra la idea de trascendencia, la idea de belleza, la idea de arte, e ideas políticas cruciales como las de justicia o bienestar, de las que se esperan aportes fundamentales desde las IA.

Mariño & Primorac (2016) creen que la IA es concebida como parte de las Ciencia de la Computación para proporcionar “una diversidad de métodos, técnicas y herramientas para modelizar y resolver problemas simulando el proceder de los sujetos cognoscentes”.

A este aspecto han tenido a bien denominarlo la “cuarta revolución industrial” (Corvalán, 2017) o el “quinto dominio” (Saavedra, 2016). Lo anterior se pone de manifiesto en lo expuesto por Miailhe & Lannquist (2018) donde las corporaciones más poderosas del mercado recopilan más datos de los consumidores, contratan a profesionales más talentosos y tienen recursos para construir soft/hardwares dedicados y de gran envergadura, así como capacidades de supercomputación en la nube (Ocaña Fernandez et al., 2019): En otras palabras, no resolver estos aspectos reproducirían una idea empobrecida de la cognición humana a favor de la ciencia y la racionalidad pura, en el momento en que se produce un quiebre histórico de enormes proporciones y significación.

La reflexión sobre las IA está dejando por fuera debates aún más peligrosos que los mencionados en este texto, pero que adolecen de fuentes de validación suficientes en el mundo académico, al cual se debe este artículo. Este es el caso de la espiritualidad, la religiosidad y el esoterismo. “Como a un ciego de nacimiento al que se describen los colores, la espiritualidad que encierra la religiosidad es difícil de explicar, aunque es universal, como lo son los colores” (Díaz Troya, Jaramillo Argandoña y Loor Almeida, 2024). Sin embargo, la preocupación ha tocado la puerta de la ciencia. El reconocido historiador Yuval Harari ha reconocido este problema:

“La revolución humanista provocó que la cultura occidental moderna perdiera la fe y el interés en los estados mentales superiores, y que sacralizara las experiencias mundanas del ciudadano medio. Por lo tanto, la cultura occidental moderna es única por carecer de una clase especial de personas que busquen experimentar estados mentales extraordinarios. Considera que quienquiera que intente hacerlo es un drogadicto, un enfermo mental o un charlatán. En consecuencia, aunque tenemos un mapa detallado del paisaje mental de los estudiantes de Psicología de Harvard, sabemos mucho menos acerca de los paisajes mentales de los chamanes de los nativos norteamericanos, de los monjes budistas o de los místicos sufíes” (2015)

Conclusiones: La noción de “Campo Filosófico”.

La arquitectura o topología de la red backpropagation es adecuada para modelar y simular redes neuronales artificiales, organizando en forma gráfica la disposición de las neuronas en la red formando redes multicapa (tres capas). La implementación del prototipo de Sistema de Red Neuronal Artificial en el lenguaje de programación Borland Delphi, permite y facilita el rápido desarrollo de aplicaciones eficientes. Asimismo, el prototipo de Sistema de Red Neuronal Artificial, permite modelar y simular redes neuronales artificiales para el reconocimiento óptico de caracteres, reconocimiento de patrones y predicción de series de tiempo; en un entorno amigable para el usuario.

Sin embargo, ante el problema de las funciones cerebrales extra-racionales se requiere la construcción de un espacio de reflexión más sofisticado. En este sentido, este artículo sugiere utilizar la idea de campo, importada de la física (los campos suelen ser realidades que requieren de otros dispositivos de medición para reconocer su existencia, incluso si no es cotidianamente palpable en la física aparente de las cosas), y la idea de filosofía, para dar apertura al debate desde otras fuentes epistemológica, y crear el concepto de “Campo Filosófico”. La idea de este concepto consiste en advertir la existencia de otras fuentes de realidad y conocimiento, alcanzables por la más rigurosa filosofía, que permitan pensar integralmente en la inteligencia humana. El Campo Filosófico de una IA debe ser la data que se obtiene de un conjunto de dispositivos que cuestionen la realidad y obtengan resultados ponderables desde otras epistemologías a la racionalista-interaccionista y positivista.

Un recorrido por las fuentes de la semiología y el psicoanálisis parece indicar que aún no disponemos de máquinas de medición de las relaciones de simpatía y empatía, así como de la intelo-emocionalidad de los cuerpos en comunicación, y evolución en comunidad o cultura. Pero advierte la necesidad de hacerlo. En cambio, el recorrido por el postmodernismo, no parece prestar a la ciencia un recurso adecuado para medir la realidad, pues da preponderancia a la lengua sobre la razón, de manera nihilista. Sin embargo, incluso aquí en el postmodernismo, aprendemos de las advertencias que se hacen desde las neurociencias sobre la debilidad de la razón sobre el conocimiento límbico, lo cual debe ser atendido, medido y procesado, como parte del Campo Filosófico de la data de una IA.

Este artículo deja la puerta abierta este debate y espera del esfuerzo e iniciativa transdisciplinaria, sobre todo desde la epistemología del Sur Global, para su realización.

Referencias

BADARÓ, S., IBAÑEZ, L., & AGÜERO, M. (2013). Sistemas expertos: fundamentos, metodologías y aplicaciones. Ciencia y Tecnología, 13, 349–364. https://doi.org/http://dx.doi.org/10.18682/cyt.v1i13.122

BERGER, P. Y LUCKMANN, T. (1986) La construcción social de la realidad, Amorrortu, Buenos Aires.

CASTRO ANIYAR, D. (2014). Más acá de la razón. Utopía y Praxis Latinoamericana. 4 (7) Maracaibo: https://produccioncientificaluz.org/index.php/utopia/article/view/18284

CASTRO, D. Y MIRANDA, O. (2006). Ciencias Sociales y Literatura Latinoamericana: Del rigor científico que aprendimos a una teoría de las emociones. Cinta De Moebio. Revista De Epistemología De Ciencias Sociales, (25). Recuperado a partir de https://cintademoebio.uchile.cl/index.php/CDM/article/view/25957

CORVALÁN, J. (2017). Inteligencia Artificial y derechos humanos. Diario DPI Cuántico, Diario Constitucional y Derechos Humanos.

DAMASIO, A.R. (2005). En busca de Spinoza. Neurobiología de la emoción y los sentimientos. Crítica, S. L., Barcelona.

Damasio A. (1995). L’erreur de Descartes. La raison des émotions. Paris, Odile Jacob.

DELGADO, A. (1998). Inteligencia artificial y mini robots (Ecoe Ediciones (ed.); Segunda Ed).

DÍAZ TROYA, G., JARAMILLO ARGANDOÑA, M.A. Y LOOR ALMEIDA, R.A. (2024). El temor al Cielo en el cuento oral y la religiosidad popular ¿Control social o Subjetivación de redención?. Espacio Abierto. volumen 33, número 4 (octubre-diciembre 2024). Aceptado.

FREUD, S. (1967) [1916]. Introducción al Sicoanálisis”. Obras Completas. Madrid: Edit. Biblioteca Nueva. Vol I.

GOFFMAN, E. (1986). Frame Analysis: An Essay on the Organization of Experience. Northeastern University Press.

HARARI, Y. (2015). Homo Deus. Brief History of Tomorrow. Editor digital: Titivillus ePub base r1.2.

LINCOLN, Y. S. & CUBA, E. G. (1985). Naturalistic Inquiry. Newbury Park: CA: Sage.

MARIÑO, S., & PRIMORAC, C. (2016). Propuesta metodológica para desarrollo de modelos de redes neuronales artificiales supervisadas. IJERI: International Journal of Educational Research and Innovation, 231–245. https://www.upo.es/revistas/index.php/IJERI/article/view/1654/1569

MARR, D. C. (1977). Artificial Intelligence. In Artificial Intelligence: a Personal View.

MARTÍNEZ, M. (2014). Metodología basada en redes neuronales para interpretación de la resistividad del suelo en zonas urbanas. Ingeniería Energética, 1, 59–69.

MAURY, L. (1993). Les Emotions de Darwin à Freud. Paris: Presses Universitaires de France. Philosophies.

MIAILHE, N., & LANNQUIST, Y. (2018). Un desafío de gobernanza mundial. Integración & Comercio. https://intal-lab.iadb.org/algoritmolandia/10.php

MOMPIN, J. (1987). Inteligencia Artificial: Conceptos, Técnicas y aplicaciones. In Artificial Intelligence (Marcomobo.).

Nebendah, D. (1988). Sistemas expertos. In Marcombo (Ed.), Ingeniería y comunicación.

OCAÑA FERNANDEZ, Y., VALENZUELA FERNANDEZ, L., & GARRO ABURTo, L. (2019). Inteligencia artificial y sus implicaciones en la educación superior. Propósitos y Representaciones, 7(2), 536–568. https://doi.org/10.20511/PYR2019.V7N2.274

PÉREZ RAMÍREZ, F. O., & FERNÁNDEZ CASTAÑO, H. (2007). Las redes neuronales y la evaluación del riesgo de crédito. Ing. Univ. Medellin, 6(10).http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-33242007000100007

ROLSTON, D. (1992). Principios de inteligencia artificial y sistemas expertos (Mc Graw Hill (ed.)).

RUSELL, S., & NORVIG, P. (1996). Inteligencia Artificial: Un enfoque moderno (Prentice H).

SAAVEDRA, B. (2016). Inteligencia Estratégica en un mundo globalizado en Latinoamérica: Retos y desafíos en el siglo XXI. Revista Policía y Seguridad Pública, 5(2), 75–105. https://doi.org/https://doi.org/10.5377/rpsp.v5i2.2326

VILLADA, F., MUÑOZ, N., & GARCÍA-QUINTERO, E. (2016). Redes Neuronales Artificiales aplicadas a la Predicción del Precio del Oro. Información Tecnológica, 27(5), 143–150. https://doi.org/10.4067/S0718-07642016000500016

VILLADA, F., VALENCIA, J. A., & ORILLE, A. L. (2006). Aplicación de las Redes Neuronales en la Protección Diferencial de Generadores Sincrónicos. Información Tecnológica, 17(5), 83–90. https://doi.org/10.4067/S0718-07642006000500013

WIENER, N. (1988). Cibernética y Sociedad. Buenos Aires: Editorial Sudamericana