La valuación en la presencia de inventarios de mercancías Explorando la Interpretación Temporal y de Sistema Único de Marx

Tiempos Críticos

La valuación en la presencia de inventarios de mercancías

Explorando la Interpretación Temporal y de Sistema Único de Marx

Nick Potts[1]

Traducido por A. Sebastián Hdez. Solorza

Descarga el artículo completo en PDF


Resumen

Este artículo busca estimular el debate sobre cómo valuar las mercancías siguiendo la interpretación temporal y de sistema único (TSSI, por sus siglas en inglés) de la teoría del valor de Marx. Sugiero que, aun cuando Andrew Kliman y Alan Freeman siguen la TSSI de Marx, sus enfoques sobre el cálculo del valor de las mercancías son distintos. Para ilustrar esta diferencia considero un modelo simple de una economía con acervos de mercancías no vendidas que se acarrean de un periodo al otro. Concluyo que esta diferencia en el enfoque indica cuán interesante sigue siendo la investigación sobre la TSSI de Marx.

LEER EL ARTÍCULO COMPLETO AL DESCARGAR EN PDF

Notas

[1] Facultad de Negocios, Deportes…

View original post 13 more words

PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS EN MODELOS ESTADÍSTICOS

ISADORE NABI

# PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS
## Introducción: Sobre la necesidad de un proceso de selección de predictores
Usualmente se tiene interés en explicar los datos de la forma más simple, lo cual en el contexto de la teoría de las probabilidades (especialmente en la teoría bayesiana de probabilidades) se conoce como el *principio de parsimonia*, el cual está inspirado en el principio filosófico conocido como *navaja de Ockham*, la cual establece que en igualdad de condiciones la explicación más simple suele ser la más probable. El principio de parsimonia adopta diferentes formas según el área de estudio del análisis inferencial en el que se encuentre un investigador. Por ejemplo, una parametrización parsimoniosa es aquella que usa el número óptimo de parámetros para explicar el conjunto de datos de los que se dispone, pero "parsimonia" también puede referirse a modelos de regresión parsimoniosos, es decir, modelos que utilizan como criterio de optimización emplear la mínima cantidad de coeficientes de regresión para explicar una respuesta condicional Y. El principio de parsimonia, los procesos matemáticos de optimización regidos por el criterio de alcanzar un mínimo y la navaja de Ockham son un mismo tipo de lógica aplicado en escalas de la existencia (que podríamos llamar en general "materia", como lo hace Landau en sus curso de física teórica) cualitativamente diferentes. La historia de la Filosofía demuestra que el único sistema que podría ser aplicado así exitosamente es el sistema hegeliano (lo que obedece a que parcialmente sigue la lógica de la existencia misma, como han demostrado Marx, Engels, Lenin, Levins, Lewontin y el mismo Hegel en su extensa obra). ¿Cómo es posible la vinculación en distintas escalas cualitativas de la realidad del principio de la navaja de Ockham? A que todas esas ideas responden a la escuela filosófica de Ockham, que era la escuela nominalista. Retomando lo que señalan (Rosental & Iudin. Diccionario Filosófico, Editorial Tecolut, 1971. p.341; véase https://www.filosofia.org/enc/ros/nom.htm), el nominalismo fue una corriente de la filosofía medieval que consideraba (ya es una escuela extinta) que los conceptos generales tan sólo son nombres de los objetos singulares. Los nominalistas afirmaban que sólo poseen existencia real las cosas en sí, con sus cualidades individuales (es decir, las generalizaciones para ellos no tenían valor gnoseológico en sí mismas sino como recurso gnoseológico). Los nominalistas van más allá, planteando que las generalizaciones no sólo no existen con independencia de los objetos particulares (esta afirmación en correcta, lo que no es correcto es pensar que lo inverso sí es cierto), sino que ni siquiera reflejan las propiedades y cualidades de las cosas. El nominalisto se hallaba indisolublemente vinculado a las tendencias materialistas, ya que reconocía la prioridad de la cosa y el carácter secundario del concepto. Por supuesto, las generalizaciones aunque menos reales que los objetos particulares (y de ahí la sujeción de la teoría a la práctica en un concepto que las une conocido en la teoría marxista como *praxis*) no deja por ello de ser real en cuanto busca ser una representación aproximada (a largo plazo cada vez más aproximada a medida se desarrollan las fuerzas productivas) de la estructura general (interna y externa, métrica y topológica) común que tienen tales fenómenos naturales o sociales. Marx señaló que el nominalismo fue la primera expresión del materialismo de la Edad Media. Con todo, los nominalistas no comprendían que los conceptos generales reflejan cualidades reales de cosas que existen objetivamente y que las cosas singulares no pueden separarse de lo general, pues lo contienen en sí mismas (y esto no tiene un carácter únicamente marxista, sino que incluso el célebre formalista David Hilbert señaló, según la célebre biógrafa de matemáticos Constance Reid que "The art of doing mathematics consists in finding that special case which contains all the germs of generality"). Así, el defecto fundamental de la navaja de Ockham es el no considerar algún conjunto de restricciones que complementen al criterio de selección de la explicación basado en que sea la idea más simple. Como se señala en https://www.wikiwand.com/en/Occam%27s_razor, 
"En química, la navaja de Occam es a menudo una heurística importante al desarrollar un modelo de mecanismo de reacción (...) Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados (...) En este contexto, el propio Einstein expresó cautela cuando formuló la Restricción de Einstein: "Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreductibles sean tan simples y tan pocos como sea posible sin tener que renunciar a la representación adecuada de un dato único de experiencia"."
La clave en la expresión anterior de Einstein es "sin tener que renunciar a...", lo que se cristaliza nítidamente en una frase que señala la fuente citada es atribuida a Einstein, pero no ha sido posible su verificación: "Todo debe mantenerse lo más simple posible, pero no lo más simple". Como se verifica en https://www.statisticshowto.com/parsimonious-model/, en general, existe un *trade-off* entre la bondad de ajuste de un modelo y la parsimonia: los modelos de baja parsimonia (es decir, modelos con muchos parámetros) tienden a tener un mejor ajuste que los modelos de alta parsimonia, por lo que es necesario buscar un equilibrio.

La parsimonia estadística es deseada porque un mínimo de coeficientes de regresión implica un mínimo de variables y un mínimo de estos implica un mínimo de variables explicativas, lo que puede ser útil en casos de que exista colinealidad entre las variables explicativas, así como también permite ahorrar tiempo y dinero en lo relativo a la inversión de recursos destinada al estudio, aunque no necesariamente garantice que en general (considerando el impacto posterior de las decisiones tomadas con base en el estudio y otros factores) se ahorre tiempo y dinero.

## Modelos Jerárquicos
Existen diferentes tipos de modelos jerárquicos. Los hay de diferente tipo, algunos más complejos que otros (complejidad a nivel teórico, matemático y computacional); ejemplos de tales modelos son las mixturas de probabilidad y se pueden estudiar en https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf. Aquí se tratará con modelos jerárquicos más simples, como los abordados en (Kutner, Nachtsheim, Neter & Li. p.294-305).

Como señalan los autores referidos en la p.294., los modelos de regresión polinomial tienen dos tipos básicos de usos: 1. Cuando la verdadera función de respuesta curvilínea es de hecho una función polinomial. 2. Cuando la verdadera función de respuesta curvilínea es desconocida (o compleja), pero una función polinomial es una buena aproximación a la función verdadera. El segundo tipo de uso, donde la función polinomial se emplea como una aproximación cuando se desconoce la forma de la verdadera función de respuesta curvilínea, es muy común. Puede verse como un enfoque no paramétrico para obtener información sobre la forma de la función que modela la variable de respuesta. Un peligro principal en el uso de modelos de regresión polinomial es que las extrapolaciones pueden ser peligrosas con estos modelos, especialmente en aquellos con términos de orden superior, es decir, en aquellos cuyas potencias sean iguales o mayores a 2. Los modelos de regresión polinomial pueden proporcionar buenos ajustes para los datos disponibles, pero pueden girar en direcciones inesperadas cuando se extrapolan más allá del rango de los datos.

Así, como señalan los autores referidos en la p.305, el uso de modelos polinomiales no está exento de inconvenientes. Estos modelos pueden ser más costosos en grados de libertad que los modelos no-lineales alternativos o los modelos lineales con variables transformadas. Otro inconveniente potencial es que puede existir  multicolinealidad grave incluso cuando las variables predictoras están centradas. Una alternativa al uso de variables centradas en la regresión polinomial es usar polinomios ortogonales. Los polinomios ortogonales están no-correlacionados, puesto que la ortogonalidad de sus términos implica independencia lineal entre los mismos. Algunos paquetes de computadora usan polinomios ortogonales en sus rutinas de regresión polinomial y presentan los resultados ajustados finales en términos tanto de los polinomios ortogonales como de los polinomios originales. Los polinomios ortogonales se discuten en textos especializados como (Drapper & Smith, Applied Linear Regression). A veces, se ajusta una función de respuesta cuadrática con el fin de establecer la linealidad de la función de respuesta cuando no se dispone de observaciones repetidas para probar directamente la linealidad de la función de respuesta.

## Caso de Aplicación
### 1. Conversión de Matriz de Datos a Marco de Datos
La base ´Vida.Rdata´ contiene datos para los 50 estados de los Estados Unidos. Estos datos son proporcionados por U.S. Bureau of the Census. Se busca establecer las relaciones que existen entre ciertas variables del Estado que se analice y la esperanza de vida. A continuación, se presenta una descripción de las variables que aparecen en la base en el orden en que
aparecen:

  + **esper**: esperanza de vida en años (1969-71). 
  + **pob**: población al 1 de Julio de 1975.
  + **ingre**: ingreso per capita (1974).
  + **analf**: porcentaje de la población analfabeta (1970).
  + **crim**: tasa de criminalidad por 100000 (1976).
  + **grad**: porcentaje de graduados de secundaria (1970).
  + **temp**: número promedio de días con temperatura mínima por debajo de los 32 grados (1931-1960) en la capital del estado.
  + **area**: extensión en millas cuadradas.

Debe comenzarse leyendo el archivo de datos pertinente mediante la sintaxis `load("Vida.Rdata")`. Si se observa la estructura de la base de datos, se verifica que es simplemente una matriz. Por tanto, si se utiliza la sintaxis `names(base)` no se obtiene información alguna, mientras que si se trata de llamar a alguna de las variables por su nombre, como por ejemplo `base$esper`, R informa de un error y lo mismo ocurre si se usa `attach(base)`. Esto sucede porque la estructura de datos invocada no está definida como un marco de datos o `data.frame`. Por ello, debe comenzarse por convertir dicha matriz de datos en un marco de datos o  `data.frame`y posteriormente puede verificarse si las sintaxis antes mencionadas son ahora operativas.

“`{r}
setwd(“C:/Users/User/Desktop/Carpeta de Estudio/Mis Códigos en R”)
load(“Vida.Rdata”)
names(base)
base=data.frame(base)
names(base)
“`

### 2. Obtención de todos los modelos posibles dado un determinado conjunto de variables dentro del marco de datos
Pueden obtenerse los $R^2$ ajustados de todos los modelos posibles con las 7 variables disponibles. Para hacerlo, puede construirse primero un objeto con todos los predictores y llamarlo **X** para posteriormente construir un objeto llamado **sel** aplicando la función `leaps` (perteneciente a la librería con el mismo nombre) de la siguiente forma: `sel=leaps(x,y, method="adjr2")`. Nótese que el objeto construido mediante la sintaxis `leaps`, es decir, **sel**, es una lista con 4 componentes cuyos nombres pueden obtenerse con la sintaxis `names(sel)`.  Así, puede llamarse a cada uno de tales componentes por separado usando el signo `$`, por ejemplo, `sel$which`. Antes de proceder a realizar los cálculos definidos antes, se estudiará a nivel general la sintaxis `leaps`.

La sintaxis `leaps` usa un algoritmo eficiente (parsimonioso) de ramificación y cota para realizar una búsqueda exhaustiva de los mejores subconjuntos de las variables contenidas en el marco de datos para predecir y realizar análisis de regresión lineal; este tipo de algoritmo, según https://www.wikiwand.com/en/Branch_and_bound, es un paradigma de diseño de algoritmos para problemas de optimización discreta y combinatoria, así como optimización matemática. Un algoritmo de ramificación y acotación consiste en una enumeración sistemática de soluciones candidatas mediante la búsqueda en el espacio de estados: se piensa que el conjunto de soluciones candidatas forma un árbol enraizado con el conjunto completo en la raíz; "si las cosas fuesen tal y como se presentan ante nuestros ojos, la ciencia entera sobraría" dijo Marx alguna vez. El algoritmo explora las ramas del árbol representado por los subconjuntos del conjunto de soluciones posibles al problema de optimización. Antes de enumerar las soluciones candidatas de una rama, el algoritmo sigue el siguiente proceso descarte de ramas: la rama se compara con los límites estimados superior e inferior de la solución óptima y se descarta (la rama en su conjunto) si no ella puede producir una solución mejor que la mejor encontrada hasta ahora por el algoritmo (véase https://cran.r-project.org/web/packages/leaps/leaps.pdf, p.1). Como se señala en la documentación antes citada, dado que el algoritmo devuelve el mejor modelo de cada tamaño (aquí se refiere a los modelos estadísticamente más robustos según un número de variables fijo que se considere) no importa si desea utilizar algún criterio de información (como el AIC, BIC, CIC o DIC). El algoritmo depende de una estimación eficiente de los límites superior e inferior de las regiones/ramas del espacio de búsqueda. Si no hay límites disponibles, el algoritmo degenera en una búsqueda exhaustiva.

A pesar de lo señalado relativo a que la búsqueda realiza por `leaps` es independiente de cualquier criterio de información utilizado, puede omitirse este hecho con la finalidad de que sea posible incorporar a esta práctica el estudio de los criterios de información. A continuación, se presenta una lista de los mejores modelos siguiendo el criterio de $R^2$ ajustado más alto, lo que se indica al interior de la sintaxis `leaps` mediante methods="adjr2".

“`
{r}
attach(base)
library(leaps)
X=cbind(pop,ingre,analf,crim,grad,temp,area)
sel=leaps(X,esper, method=”adjr2″)
sel
names(sel)
sel$adjr2
sel$which
sel$label
sel$size
“`

Adicionalmente, es posible construir una matriz, almacenarla bajo el nombre **mat** con el contenido de las filas `sel$which` y `sel$adjr2`, agregando un contador para identificar cada modelo mediante la sintaxis `cbind`. La estructura de datos **mat** contiene todos los diferentes modelos de regresión lineal (a diferentes tamaños de los mismos) mediante la sintaxis `leaps` para la base de datos utilizada.

“`{r}
k=nrow(sel$which)
k
mat=data.frame(cbind(n=1:k,sel$which,round(sel$adjr2,2)))
mat

head(mat[order(-mat$V9),],10)
“`

Así, puede construirse un subconjunto de **mat** que contenga sólo los modelos cuyo coeficiente de determinación ajustado sea mayor o igual que 0.68.

“`{r}
subcon=subset(mat,sel$adjr2>=0.68)
head(subcon[order(-subcon$V9),],10)
“`

Nótese que los cuatro modelos con el $R^2$ ajustado más alto son los modelos 28, 38, 39, y 40, cuyo tamaño oscila entre 4 o 5 variables explicativas; si se utiliza la sintaxis `print` es posible verificar que en las filas está el modelo como tal (si la variable se toma en consideración tiene asignado un "1", mientras que en caso contrario un "0"), mientras que en las columnas se localizan las posibles variables a utilizar.

### 3. Estadístico de Mallows
Como se puede verificar en https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/, el Estadístico $C_p$ de Mallows sirve como ayuda para elegir entre múltiple modelos de regresión. Este estadístico ayuda a alcanzar un equilibrio importante con el número de predictores en el modelo. El $C_p$ de Mallows compara la precisión y el sesgo del modelo completo con modelos que incluyen un subconjunto de los predictores. Por lo general, deben buscarse modelos donde el valor del $C_p$ de Mallows sea pequeño y esté cercano al número de predictores del modelo más la constante $p$. Un valor pequeño del $C_p$ de Mallows indica que el modelo es relativamente preciso (tiene una varianza pequeña) para estimar los coeficientes de regresión verdaderos y pronosticar futuras respuestas. Un valor del $C_p$ de Mallows que esté cerca del número de predictores más la constante indica que, relativamente, el modelo no presenta sesgo en la estimación de los verdaderos coeficientes de regresión y el pronóstico de respuestas futuras. Los modelos con falta de ajuste y sesgo tienen valores de $C_p$ de Mallows más grandes que p. A continuación se presenta un ejemplo.
#Figura 1: Ejemplo del uso del Estadístico de Mallows para evaluar un modelo #Fuente: https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/
Así, para el ejemplo aquí utilizado (que responde a la base de datos antes especificada) puede obtenerse el estadístico $C_p$ de Mallows para todos los modelos posibles con las 7 variables disponibles. Para ello puede usarse la función `leaps`; nótese que no es necesario indicarle a R que obtenga el estadístico de Mallows mediante la sintaxis `method=Cp` puesto que este método es el establecido por defecto en la programación de R, por lo que en el escenario en que no se indique un "method" en específico el programa utilizará por defecto el criterio del estadístico de Mallows.

“`{r}
sel = leaps(X,esper)
names(sel)
sel$Cp
“`

Complementariamente, puede construirse una nueva matriz **mat** que en lugar de los criterios `sel$which` y `sel$adjr2` siga los criterios `sel$which`, `sel$Cp` y `sel$size`, agregando al igual que antes un contador para identificar cada modelo. Esto implicará la sobreeescritura de la matriz **mat**. Pueden seleccionarse con antelación únicamente las filas de **mat** que se corresponden con los modelos seleccionados en el punto anterior y comparar la columna del $C_p$ con la columna $size$ que corresponde al número de coeficientes (p). En cada caso puede determinarse si el modelo es sesgado o no, sin perder de vista que un modelo es sesgado según el estadístico de Mallows si $C_p>p$. De lo anterior se desprende que se está buscando un conjunto de modelos insesgados para los cuales se verifica la condición $C_p<p$ antes mencionada.

“`{r}
mat=data.frame(cbind(1:k,sel$which,round(sel$Cp,2),sel$size))
colnames(mat)[9]<-“CP”
colnames(mat)[10]<-“p”
mat[c(28,38,39,40),]
“`

Como puede observarse, en todos los modelos arrojados por la sintaxis `leaps` cumplen con la condición antes especificada, por lo que es posible afirmar que, sobre todo respecto a los modelos 28, 38, 39 y 40, que son buenos candidatos para ser utilizados (los mejores modelos son los mismos cuatro que en el literal anterior).

### 4. Suma de Cuadrados Residuales de Predicción (PRESS)
####4.1. Aproximación Gráfica
Como se señala en (https://pj.freefaculty.org/guides/stat/Regression/RegressionDiagnostics/OlsHatMatrix.pdf, p.9), la PRESS no es otra cosa que el error de estimación correspondiente a un valor particular de la variable condicional $Y$; la estimación de PRESS a veces es útil como una medida resumida de la capacidad de un modelo para predecir nuevas observaciones. Las líneas de comando presentadas a continuación expresan la configuración de la función personalizada `plot.press`, que es una función empírica que se aproxima gráficamente a los PRESS mediante el siguiente procedimiento:

a) Crea un modelo solamente con la variable **ingre**.

b) Toma el Estado i-ésimo y crea otro modelo basado en los demás Estados (excepto el i-ésimo).

c) Grafica las dos líneas de regresión y marca la observación del Estado i-ésimo en rojo para que se observe como se diferencian las dos líneas a la altura del ingreso de ese Estado.

d) Estima el promedio de la esperanza de vida para el i-ésimo Estado usando las dos ecuaciones.

“`{r}
plot.press=function(i){
mod =lm(esper~ingre,base)
mod1=lm(esper ~ ingre,base[-i,])

plot(base$ingre,base$esper,pch=18,xlab=”ingreso”,ylab=”esperanza”)
points(base$ingre[i],base$esper[i],pch=18,col=2)
abline(mod)
abline(mod1,lty=2,col=2)
abline(v=base$ingre[i],col=4,lty=2)
legend(3000,max(esper),c(“completo”,paste(“falta el “,i,sep=””)),col=c(1,2),lty=c(1,2),bty=”n”)

yi=predict(mod,data.frame(ingre=base$ingre[i]))
yii=predict(mod1,data.frame(ingre=base$ingre[i]))
res=c(yi,yii)
names(res)=c(“y_i”,”y_i(i)”)
return(round(res,2))
}
“`

Así, puede usarse la función `plot.press` con diferentes estados, por ejemplo, con Alaska (i=2) o algún otro.

“`{r}
plot.press(2)
plot.press(15)
plot.press(10)
“`

#### 4.2.  Aproximación Inferencial vía Residuos Estandarizados
Como señala https://www.statisticshowto.com/what-is-a-standardized-residuals/, los residuos estandarizados permiten normalizar el conjunto de datos de estudio en el contexto del análisis de regresión y de la ejecución de pruebas de hipótesis chi-cuadrado $χ^2$. Un residuo estandarizado es una razón: la diferencia entre el valor observado y el valor esperado (condicional, a posteriori) sobre la desviación estándar del valor esperado en la prueba de chi-cuadrado.

Como se señala en https://online.stat.psu.edu/stat501/lesson/11/11.4, existen varias medidas para identificar valores extremos de X (observaciones de alto $leverage$ o $influencia$) y valores de Y inusuales (valores atípicos). Al intentar identificar valores atípicos, un problema que puede surgir es cuando existe un valor atípico potencial que influye en el modelo de regresión hasta tal punto que la función de regresión estimada se "arrastrada" hacia el valor atípico potencial, de modo que no se marca como un valor atípico utilizando el criterio usual de residuos estandarizados. Para abordar este problema, los residuos eliminados ofrecen un criterio alternativo para identificar valores atípicos. La idea básica de esto es eliminar las observaciones una a la vez, reajustando cada vez el modelo de regresión en las n – 1 observaciones restantes. Luego, se comparan los valores de respuesta observados con sus valores ajustados basados en los modelos con la i-ésima observación eliminada. Esto produce residuos eliminados (no estandarizados). La estandarización de los residuos eliminados produce residuos eliminados studentizados, como se verá teóricamente a continuación.

Formalmente, es un resultado conocido del álgebra lineal que $y=Xβ+ε$, en donde $X_{n×p}$, $\hat{β}=(X'X)^{-1}X-y$ y $\hat{y}=X\hat{β}=X(X'X)^{-1}X'y=Hy$, donde $H=X(X'X)^{-1}X'$ es la matriz conocida como *matriz sombrero*. Los residuos son $e=y-\hat{y}=y-Hy=(I-H)y$. Adicionalmente, se sabe que la varianza poblacional $σ^2$ es desconocida y puede estimarse mediante la suma de cuadrados medios del error $MSE$. Así, los residuos pueden ser expresados mediante la ecuación $e_i^*=\frac{e_i}{\sqrt{MSE}}$ y se conocen como *residuos semistudentizados*. Puesto que la varianza de los residuos depende tanto de $σ^2$ como de $X$, la varianza estimada es $\hat{V}(e_i)=MSE(1-h_{ii})$, donde $h_{ii}$ es el $i$-ésimo elemento de la diagonal principal de la matriz sombrero. Así, los residuos estandarizados, también conocidos como *residuos internamente studentizados*, tienen la forma $r_i=\frac{e_i}{\sqrt{MSE(1-h_{ii})}}$. Sin embargo, se sabe que es imposible que un residuo individual y el MSE (que es la varianza del conjunto de residuos) no estén correlacionados (existe dependencia lineal) y, por consiguiente, es imposible que $r_i$ siga una distribución t de Student. Lo anterior representa un impedimento para realizar pruebas de significancia estadística de los coeficientes de regresión, puesto que la distribución t es junto con la F los dos tipos de distribución más utilizados (y no sólo en el contexto de regresión) para realizar pruebas de hipótesis, dentro de las cuales las pruebas de significancia de coeficientes son un tipo de ellas. La solución a la problemática antes descrita consiste en eliminar la $i$-ésima observación, ajustar la función de regresión a las $n-1$ observaciones restantes y luego obtener nuevas $\hat{y}$'s que pueden ser denotadas como $\hat{y}_{i(i)}$. La diferencia $d_i=y_i-\hat{y}_{i(i)}$ es llamada *residuo eliminado*. Una expresión equivalente que no requiere recomputación es: $d_i=\frac{e_i}{1-h_{ii}}$.
Los residuos eliminados expresados de la forma anterior son la base para encontrar los residuos conocidos como *residuos eliminados studentizados* o *resiudos studentizados externamente*, los cuales adoptan la forma $t_i=\frac{d_i}{\sqrt{{\frac{MSE}{1-h_{ii}}}}}\sim{\sf t_{n-p-1}}$ o $t_i=\frac{e_i}{\sqrt{{{MSE(1-h_{ii})}}}}\sim{\sf t_{n-p-1}}$; véase https://stats.stackexchange.com/questions/99717/whats-the-difference-between-standardization-and-studentization/99723.

En lo que a la estimación de los diferentes tipos de residuos se refiere, debe comenzarse por obtener las **influencias** o **leverage** del modelo usando `hatvalues(mod)`; debe recordarse que las influencias son utilizadas para determinar que tanto impacto tiene una observación sobre los resultados de la regresión. Precisamente el análisis descriptivo anterior, en el que en una de las rectas de regresión (de las dos que aparecen en cada una de las cincuenta gráficas posibles) se omitía un Estado, tenía como finalidad verificar cuánto impactaba su ausencia (la del Estado sustraido) en la estimación realizada sobre la media condicional de $Y$. Al utilizar la sintaxis "mod=lm(esper~ingre,base)" se está planteando un modelo con la totalidad de Estados, del cual se calculan sus valores sombrero mediante la sintaxis `h = hatvalues(mod)`, sus residuos mediante `r=mod$res`, se estima el residuo de un modelo en el que no se considera el Estado i-ésimo en el análisis (en este caso Alaska) mediante `pred.r = r[2]/(1-h[2])` y, finalmente, la validez estadística de la estimación `pred.r = r[2]/(1-h[2])` se determina contrastándola con respecto al resultado de restarle a la media estimada $\hat{Y}_2$ (porque en este caso para Alaska, que ocupa la fila dos en la base de datos, que es una base de datos de corte transversal) la media estimada $\hat{Y}$ del modelo que no considera al i-ésimo Estado (aquí es Alaska).

“`{r}
mod=lm(esper~ingre,base)
h = hatvalues(mod)
r=mod$res
pred.r = r[2]/(1-h[2])
round(pred.r,2)

esper[2]-73.07

plot.press(2)
“`

Finalmente, puede obtenerse la Suma de Cuadrados Residuales de Predicción $PRESS$ utilizando los residuos eliminados globales (no únicamente para el Estado de Alaska) mediante la siguiente ecuación: $$PRESS=\sum{( \frac{r_i}{1-h_i}} )^2$$.

“`{r}
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

### 5. Comparación de Modelos vía $PRESS$
Es posible comparar el modelo que únicamente contempla la variable ingreso **ingre** con el que se obtiene en un modelo que contenga en su lugar la cantidad de población del Estado **pop** y su tasa de criminalidad **crim**. Esto con el fin de verificar cuál de los dos modelos es más sensible a valores extremos de X al realizar estimaciones de la media condicional $\hat{Y}$ de la variable *esperanza de vida*.

“`{r}
mod=lm(esper~ingre,base)
r=mod$res
h=hatvalues(mod)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

“`{r}
mod2= lm(esper~pop+crim,base)
r=mod2$res
h=hatvalues(mod2)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Se observa que el modelo `mod` es más sensible, puesto que su PRESS es más alto (89.32).

Debe decirse que la matriz "d" es conocida también como *matriz de Gramm*, por lo que su determinante es igual al producto de sí y su transpuesta, es decir, `t(d)%*%d`. Como se verifica en https://www.wikiwand.com/en/Gram_matrix, la matriz de Gramm cuyos elementos pertenecen a los reales tiene la característica de ser simétrica (matriz cuadrada que es igual a su transpuesta); la matriz de Gramm de cualquier base ortonormal (conjunto de vectores linealmente independientes que generan un espacio lineal -conocido como *span lineal*- denso dentro del espacio de referencia) es una matriz identidad.

El modelo anterior puede expandirse en predictores considerando ahora población **pop**, nivel de ingreso **ingre**, porcentaje de población analfebeta **analf** y la extensión en millas cuadradas **area** para explicar la esperanza de vida (medida en años).

“`{r}
mod0= lm(esper~pop+ingre+analf+area,base)
r=mod0$res
h=hatvalues(mod0)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

El modelo `mod0` es aún más sensible a los datos provistos por el Estado de Alaska que el modelo `mod` 

Así como se amplió la cantidad de variables en consideración al pasar del modelo `mod` al modelo `mod0`, también podría realizarse el procedimiento anterior para un modelo que considere la totalidad de las variables disponibles. Una forma para evitar escribir todas las variable en es usar un punto después de **~**, además de indicar de cuál base provienen los datos. De esta forma R entiende que debe considerar todas las variables de esa base como predictores, con excepción de la variable que se indica como respuesta.

“`{r}
mod_comp= lm(esper~., base)
r=mod_comp$res
h=hatvalues(mod_comp)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Como se verifica de las pruebas antes realizadas, el modelo completo `mod_comp` tiene una $PRESS$ menor (más bajo) que el modelo que utiliza 4 predictores (*i.e.*, `mod0`) para explicar la media condicional de la esperanza de vida, lo que indica menor *leverage* en relación al Estado de Alaska.

### 6. Construcción Escalonada de Modelos de Predicción
#### 6.1. Aspectos Teóricos Generales
Como se conoce de los cursos de álgebra lineal, el mecanismo de *eliminación gaussiana* o *reducción de por filas*, es un proceso secuencial de *operaciones elementales entre filas* realizadas sobre la correspondiente matriz de coeficientes con la finalidad de estimar el rango de la matriz, el determinante de una matriz cuadrada y la inversa de una matriz invertible, en cuanto este mecanismo prepara las condiciones para resolver el sistema de ecuaciones; sobre los orígenes históricos de este mecanismo debe decirse que, como se señala en https://en.wikipedia.org/wiki/Gaussian_elimination, casos particulares de este método se conocían descubiertos por matemáticos chinos (sin prueba formal) en el año 179 de la era común C.E. (que es una forma no-cristiana de expresar la era que inicia en el año en que se supone nació Jesucristo).

Los mecanismos matemáticos anteriores, utilizados en el procedimiento estadístico de selección de los predictores de la media condicional de alguna variable de respuesta, se conocen como *regresión escalonada*. Como se señala en https://en.wikipedia.org/wiki/Stepwise_regression, la regresión escalonada es un método de ajuste de modelos de regresión en el que la elección de las variables predictivas se realiza mediante un procedimiento automático (...) En cada paso, se considera una variable para sumar o restar del conjunto de variables explicativas basado en algún criterio preespecificado. Por lo general, esto toma la forma de una secuencia hacia adelante, hacia atrás o combinada de pruebas F o pruebas t. La práctica frecuente de ajustar el modelo final seleccionado seguido de reportar estimaciones e intervalos de confianza sin ajustarlos para tener en cuenta el proceso de construcción del modelo ha llevado a llamadas a dejar de usar la construcción escalonada de modelos por completo (...) o al menos asegurarse de que en el modelo la incertidumbre se refleja correctamente (...) Las alternativas incluyen otras técnicas de selección de modelos, como $R^2$ ajustado, ek criterio de información de Akaike, el criterio de información bayesiano, el $C_p$ de Mallows, la $PRESS$ o la *tasa de falso descubrimiento*.

La construcción escalonada de un modelo puede suscitarse fundamentalmente de tres maneras:

1.*Selección hacia adelante*, que implica comenzar sin variables en el modelo, comprobar lo que ocurre al adicionar cada variable utilizando un criterio de ajuste del modelo elegido, agregando la variable (si la hubiese) cuya inclusión permita la mejora estadísticamente más significativa del ajuste y repetir este proceso hasta ningún predictor mejore el modelo de manera estadísticamente significativa. Véase https://www.analyticsvidhya.com/blog/2021/04/forward-feature-selection-and-its-implementation/

2. *Eliminación hacia atrás*, que implica comenzar con todas las variables candidatas, probar la eliminación de cada variable utilizando un criterio de ajuste del modelo elegido, eliminar la variable (si la hubiese) cuya pérdida produce el deterioro más insignificante estadísticamente del ajuste del modelo, y repetir este proceso hasta que no se pueden eliminar más variables sin una pérdida de ajuste estadísticamente insignificante. Véase https://www.analyticsvidhya.com/blog/2021/04/backward-feature-elimination-and-its-implementation/?utm_source=blog&utm_medium=Forward_Feature_Elimination.

3. *Eliminación bidireccional*, una combinación de 1 y 2, probando en cada paso las variables que se incluirán o excluirán.

#### 6.2. Método de Eliminación Hacia Atrás en R 
##### 6.2.1. Eliminación Hacia Atrás con Probabilidad F
Para eliminar variables secuencialmente se usa la función `drop1`, que proporciona el estadístico F correspondiente a la eliminación de una única variable explicativa; el estadístico F arrojado por esta sintaxis debe interpretarse como la probabilidad de materialización de la probabilidad de rechazar $H_0:β_1=B_2=⋯=B_i=0$ siendo esta verdadera. A causa de lo anterior, un valor F alto indica que la probabilidad de la materialización antes descrita es alta y, ante semejante riesgo, la decisión racional es fallar en rechazar $H_0$ sobre la significancia estadística nula global de los coeficientes de regresión. Fallar en rechazar $H_0$ implica que probabilísticamente hablando no existen consecuencias relevantes (a nivel de capacidad predictiva) si se elimina el modelo en cuestión, por lo que un F mayor que el nivel de significancia $α$ preestablecido (que es la probabilidad de cometer error tipo I, fijada por el investigador con base a la información histórica y a criterios de experto experimentado) significa que ese coeficiente de regresión no es estadísticamente relevante y puede eliminarse.

Puede escribirse el modelo completo (con los 7 predictores) y luego utilizar `drop1(mod,test="F")` para verificar cuál es la primera variable que se recomienda eliminar tras el proceso antes descrito. Como se adelantó, se deben eliminar aquellos predictores cuyo valor de probabilidad F sea más alto.  

“`{r}
mod3=lm(esper~., base)
moda=mod3
drop1(moda,test=”F”)
“`

Si se comparan los resultados de la sintaxis `drop1` con los de `summary`, se puede verificar que las probabilidades F y t coinciden. Esto sucede en este ejemplo porque no hay variables categóricas con más de 2 categorías; sin embargo, cuando se cuenta con variables categóricas con más de 2 categorías, no se debe usar `summary` porque en tal caso las probabilidades F y t no son equivalentes.

“`{r}
summary(moda)
“`

De los resultados anteriores se desprende que el primer predictor a ser eliminado es la variable **area**, pues tiene la probabilidad F más alta. Para materializar la eliminación se puede actualizar el modelo anterior mediante `moda=update(moda,.~.-area)`.

“`{r}
moda=update(moda,.~.-area)
drop1(moda,test=”F”)
“`

Y así puede continuarse hasta que, por ejemplo, todas las probabilidades sean menores a 0.15 (o a algún valor$α$ preestablecido de la forma antes descrita).

“`{r}
moda=update(moda,.~.-analf)
drop1(moda,test=”F”)
moda=update(moda,.~.-ingre)
drop1(moda,test=”F”)
“`

Finalmente, se obtiene que el modelo sugerido contempla las variables **pop**, **crim**, **grad** y **temp**.

##### 6.2.2. Eliminación Hacia Atrás con AIC
Adicionalmente, en lugar de usar el criterio de la probabilidad F se pueden usar criterios de información. Para usar el criterio de Akaike (AIC) simplemente no se indica nada en `test`, pues el AIC es el criterio por defecto que utiliza `drop1`. En este caso, la columna de AIC indica el valor del AIC que se obtendría si se elimina esa variable. Puesto que el objetivo es aumentar el AIC (porque eso haría al predictor candidato de ser eliminado), entonces se elimina la variable que más disminuye el AIC, generando luego un nuevo modelo (con las variables que menos disminuyen el AIC) que se compara con el modelo anterior, y así sucesivamente, hasta que la eliminación de cualquier variable aumenta el AIC con respecto al modelo anterior en lugar de disminuirlo, puesto que esta es la señal que en términos de robustez estadística del modelo no es recomendable eliminar más predictores.

“`{r}
moda=mod3
drop1(moda)
moda=update(moda,.~.-area)
drop1(moda)
moda=update(moda,.~.-analf)
drop1(moda)
moda=update(moda,.~.-ingre)
drop1(moda)
“`

El procedimiento antes descrito se puede realizar de forma automática con la sintaxis `step` mediante`step(mod)`. Tras ello, puede almacenarse el resultado en una estructura de datos (aquí llamada "mod4"#") y aplicar `summary` sobre dicho objeto.

“`{r}
mod4=step(mod3)
summary(mod4)
“`

##### 6.2.2. Eliminación Hacia Atrás con BIC
###### 6.2.2.1. Aspectos Teóricos Relevantes del BIC
Si en lugar del criterio AIC se desease utilizar el criterio bayesiano de información (BIC) se debe indicar en la sintaxis `step` mediante `k=log(n)`. Debe agregarse que, como se señala en (Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 217), el criterio bayesiano de información penaliza la complejidad del modelo y es el criterio expuesto por Bishop en el lugar referido el que muestra la penalización que el BIC ejerce sobre la complejidad del modelo y que se conoce como *factor de Occam*. 

“`{r}
knitr::include_graphics(“FOTO4.JPG”)
“`

#Figura 2: Evaluación de la log-verosimilitud empleando parámetros optimizados #Fuente: Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 216-17.
Debe decirse sobre el factor de Occam que, como puede verificarse en [David J. Spiegelhalter, Nicola G. Best, Bradley P. Carlin & Angelika Van Der Linde. Bayesian measures of model complexity and fit. Journal of Royal Statistical Society, Series B (Statistical Methodology); https://rss.onlinelibrary.wiley.com/doi/pdf/10.1111/1467-9868.00353] y en (van der Linde, Angelika. A Bayesian view of model complexity. Statistica Neerlandica xx, year xx-xx, special issue: All Models Are Wrong...; https://statmodeling.stat.columbia.edu/wp-content/uploads/2013/08/snavdlmc.pdf), no existe una definición analítica para el mismo, *i.e.*, una definición que pueda ser sustentada lógicamente desde algún marco teórico en congruencia clara y directa con un marco matemático autodemostrable dentro de teoría de conjuntos ZF-C (Zermelo-Fraenkel con Axioma de Elección) que la modele.

En este sentido, la investigación de Spiegelhalter et al es una de las investigaciones más importantes de al menos las últimas dos décadas a nivel de la teoría de las probabilidades y su importancia es aún mayor si el marco de referencia es únicamente la teoría bayesiana de probabilidades. En síntesis, los autores y autora de la investigación concluyen que la medida de complejidad bayesiana (que es la estructura matemática que aparece en la obra citada de Christopher Bishop) tiene como trasfondo común con el criterio DIC (que es la versión generalizada del AIC, de naturaleza teórica frecuentista, que tiene su propia penalización de la complejidad del modelo y por consiguiente su propia medición de dicha complejidad) la teoría de la información (rama de la teoría de las probabilidades que versa sobre las estructuras matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información; véase https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n), que el DIC y el BIC tienen una justificación lógica similar aunque el DIC tiene una campo de aplicación más amplio. Adicionalmente, se señala que la metodología de medición de complejidad bayesiana que ellos proponen es aplicable a toda la clase de modelos y que únicamente requiere de un trabajo analítico "despreciable" (p. 613) relativo a la configuración de un muestreo del tipo Monte Carlo basado en cadenas de Markov. Además, existe un problema señalado por los autores y autora relativo a que es difícil explicar si las diferencias entre los criterios de medición de complejidad del BIC y del DIC son realmente diferentes en términos estadísticos, puesto que es aún más difícil determinar el error del DIC en pruebas Monte Carlo (para ello se cita una investigación previa que señala esta dificultad). La publicación de este documento de investigación generó la apertura de un debate alrededor del mismo, que contó con la participación de S. Brooks (University of Cambridge), Jim Smith (University of Warwick), Aki Vehtari (Helsinki University of Technology), Martyn Plummer (International Agency of Research on Cancer, Lyon), Mervyn Stone (University College London), Christian P. Robert (Université Paris Dauphine) y D. M. Titterington (University of Glasgow), el mismísimo J. A. Nelder en persona (Impercial College of Science, Techonology and Medicine, London), Anthony Atkinson (London School of Economics and Political Science), A. P. David (University College London), José M. Bernardo (Universitat de València), Sujit K. Sahu (University of Southampton), Sylvia Richardson (Imperial College School of Medicine, London), Peter Green (University of Bristol), Kenneth P. Burnham (US Geological Survey and Colorado State University, Fort Collins), María Delorio (University of Oxford) y Christian P. Robert (Université Paris Dauphine), David Draper (University of California, Santa Cruz), Alan E. Gelfand (Duke University Durkham) y Matilde Travisani (University of Trieste), Jim Hodges (University of Minesota, Minneapolis), Youngjo Lee (Seoul National University), Xavier de Luna (Uméa University) y, finalmente, Xiao-Li Meng (Harvard University, University of Chicago); tremendo crossover, mucho mejor que *Crisis en Tierras Infinitas (1985-86)*... palabras mayores. Los posicionamientos de los autores y autoras participantes son diversas y profundas, sin embargo, se hará una recapitulación de aquellos que señalen debilidades la medición bayesiana de complejidad de un modelo estadístico.

Brooks (p. 616-18) plantea que la investigación (como casi toda buena investigación) deja preguntas abiertas, específicamente él señala que la ecuación 9 de la página 587 utiliza para calcular dicha complejidad el valor esperado, pero ¿por qué no la moda o la mediana?, ¿cuál es la justificación teórica de ello?, y de ello se deriva también ¿cómo se debe decidir entonces que el parámetro estimado debe ser la media, la moda o la mediana?, lo cual es relevante en cuanto podría conducir a diferencias importantes con el DIC; finalmente, ¿cómo se pueden ser comparables el análisis del modelo bajo el DIC con el análisis del modelo bajo las probabilidades posteriores (enfoque bayesiano) y por qué difieren?, ¿pueden ambas ser "correctas" de alguna manera significativa?

Por su parte, Jim Smith (p. 619-20) señala que no encontró errores técnicos (*i.e.*, matemáticos), pero que encontró cuatro problemas fundacionales. El primero que señala es que las implicaciones predictivas de todas las configuraciones del prior relativas a las variaciones en los ejemplos resueltos en la Sección 8 son increíbles (no en un sentido que podría considerarse positivo), puesto que según Smith no representan juicios de expertos cuidadosamente obtenidos, sino las opiniones de un usuario de software vacío. También señala que, al principio de la Sección 1, los autores afirman que quieren identificar modelos sucintos que parecen describir la información [¿acerca de valores de parámetros "verdaderos" incorrectos (ver Sección 2.2)?] en los datos con precisión, sin embargo, señala también que en un análisis bayesiano, la separación entre la información de los datos y el prior es artificial e inapropiada; señala que "Un análisis bayesiano en nombre de un experto en auditoría remota (Smith, 1996) podría requerir la selección de un prior que sea robusto dentro de una clase de creencias de diferentes expertos (por ejemplo, Pericchi y Walley (1991)). A veces, los prior predeterminados pueden justificarse para modelos simples. Incluso entonces, los modelos dentro de una clase de selección deben tener parametrizaciones compatibles: ver Moreno et al. (1998). Sin embargo, en los ejemplos en los que "el número de parámetros supera en número a las observaciones", afirman que sus enfoques de enfoque, es poco probable los prior predeterminados (por defecto) muestren alguna robustez (estadística). En particular, fuera del dominio de la estimación local vaga o de la estimación de la varianza de separación (discutida en la Sección 4), aparentemente los antecedentes por defecto pueden tener una fuerte influencia en las implicaciones del modelo y, por lo tanto, en la selección.", de lo cual se deriva una razonable insatisfacción ante la expresión la afirmación de los autores y autora sobre la baja probabilidad de que los prior muestren robustez.

Martyn Plummer (p. 621) señala lo que a su juicio son debilidades en la derivación heurística del DIC y de ello se deriva su señalamiento de sustento formal ;como señalan (Rosental & Iudin. Diccionario Filosófico. Editorial Tecolut, 1971. p. 215-216),
en términos históricos la palabra "heurística" proviene del griego εὑρίσκω, que significa "discuto". Es el arte de sostener una discusión y floreció sobre todo entre los sofistas de la antigua Grecia. Surgida como medio de buscar la verdad a través de la polémica, se escindió pronto en dialéctica y sofística. Sócrates, con su método, desarrolló la primera. En cambio, la sofística, tendiente sólo a alcanzar la victoria sobre el contrincante en la discusión, redujo la heurística a una suma de procedimientos que podían aplicarse con el mismo éxito tanto para demostrar una aseveración, cualquiera que fuese, como para refutarla. De ahí que ya Aristóteles no estableciera ninguna diferencia entre heurística y sofística. En la actualidad, al hablar de métodos heurísticos se hace referencia a una especie de atajos para las derivaciones rigurosas que implican mayor costo computacional, por lo que su carácter de verdad es siempre de corto plazo (provisional).

Mervyn Stone (p. 621) señala que la investigación de 2002 "bastante económico" en lo relativo a la *verdad fundamental* (véase https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf, p. 43-44), que si la sección 7.3 pudiera desarrollarse rigurosamente (puesto que le parece gnoseológicamente cuestionable el uso de $E_Y$), "(...) otra conexión (a través de la ecuación $(33)$) podría ser que $DIC ≈ −2A$. Pero, dado que la sección 7.3 invoca el supuesto de "buen modelo" y pequeños $|\hat{θ}-θ|$ para la expansión de la serie de Taylor (es decir, $n$ grande), tal conexión sería tan artificial como la de $A$ con el criterio de información de Akaike: ¿por qué no seguir con la forma prístina (hoy en día calculable) de $A$, que no necesita $n$ grande o verdad? , ¿y cuál acomoda la estimación de θ en el nivel de independencia de un modelo bayesiano jerárquico? Si la sensibilidad del logaritmo a probabilidades insignificantes es objetable, los bayesianos deberían estar felices de sustituirlo por una medida subjetivamente preferible de éxito predictivo." Es imposible cuestionar a Stone en cuanto a que, dado el enseñoramiento que en la teoría bayesiana de probabilidades tiene la escuela bayesiana subjetiva, el promedio del gremio bayesiano estaría filosóficamente satisfecha con renunciar a elementos objetivos (en este caso son requerimientos preestablecidos por la teoría del aprendizaje estadístico que condicionan la validez gnoseológica del modelo propuesto como un todo, como una muestra grande y/o una verdad fundamental) si representan un punto de discordia y pueden ser sustituidos por algún criterio de decisión que pueda ser determinado; que en paz descanse su alma https://www.ucl.ac.uk/statistics/sites/statistics/files/meryvn-stone-obituary.pdf.

Christian P. Robert y D. M. Titterington (p. 621) señalan que la estructura matemática planteada por los autores de la investigación para determinar la complejidad de un modelo desde la perspectiva bayesiana parecería hacer un uso duplicado (repetido en dos ocasiones) del conjunto de datos, la primera vez lo hacen para determinar la distribución posterior y la segunda para calcular la verosimilitud observada (o verosimilitud a priori, sin considerar información adicional). Este uso duplicado del conjunto de datos puede conducir a un sobreajuste del modelo; señalan que este tipo específico de problemática surgió antes en la investigación de (Aitkin, 1991).

Seguramente el invitado más célebre entre todos los que asistieron a este maravilloso coloquio académico fue John Nelder, padre de los modelos lineales generalizados. Antes de exponer su planteamiento, deben introducirse algunas cuestiones. En primer lugar, el *escape de amoníaco* en aplicaciones industriales es a lo que los autores se refieren (y se refirará Nelder) como *stack loss* (p. 609). En segundo lugar, la tabla 2 a la que se referirá Nelder es la siguiente:

“`{r}
knitr::include_graphics(“TABLA2.JPG”)
“`

#Figura 3: Tabla 2. Resultados de desviación para los datos de pérdida de amoníaco. #Fuente: Spiegelhalter, Best, Carlin & van der Linde. Bayesian measures of model complexity and fit, p. 610.
Así, Nelder (p. 622) señala: "Mi colega, el profesor Lee, ha planteado algunos puntos generales que conectan el tema de este artículo con nuestro trabajo sobre modelos lineales generalizados jerárquicos basados en la probabilidad. Quiero plantear un punto específico y dos generales. (a) El profesor Dodge ha demostrado que, de las 21 observaciones en el conjunto de datos de pérdida de amoníaco, ¡solo cinco no han sido declaradas como valores atípicos por alguien! Sin embargo, existe un modelo simple en el que ninguna observación aparece como un valor atípico. Es un modelo lineal generalizado con distribución gamma, log-link y predictor lineal x2 + log.x1 / Å log.x3 /: Esto da las siguientes entradas para la Tabla 2 en el documento: 98.3 92.6  6.2 104.5 (estoy en deuda con el Dr. Best por calcularlos). Es claramente mejor que los modelos existentes usados en la Tabla 2. (b) Este ejemplo ilustra mi primer punto general. Creo que ha pasado el tiempo en que bastaba con asumir un vínculo de identidad para los modelos y permitir que la distribución solo cambiara. Deberíamos tomar como nuestro conjunto de modelos de línea base al menos la clase de modeloos lineales generalizados definida por distribución, enlace y predictor lineal, con la elección de escalas para las covariables en el caso del predictor lineal. (c) Mi segundo punto general es que, para mí, no hay suficiente verificación de modelos en el artículo (supongo que el uso de tales técnicas no va en contra de las reglas bayesianas). Por ejemplo, si un conjunto de efectos aleatorios es suficientemente grande en número y el modelo postula que están distribuidos normalmente, sus estimaciones deben graficarse para ver si se parecen a una muestra de tal
distribución. Si parecen, por ejemplo, fuertemente bimodales, entonces el modelo debe revisarse." Que en paz descanse su alma.

Anthony Atkinson (p. 622) señala que dirige su participación al contexto de la regresión, concluyendo que este criterio de selección de modelos (el BIC planteado por los autores, que es el estimado mediante la sintaxis de R) es un primer paso, que necesita ser complementado
mediante pruebas de diagnóstico y gráficos. Para finalizar plantea que "Estos ejemplos muestran que la búsqueda hacia adelante es una herramienta extremadamente poderosa para este propósito. También requiere muchos ajustes del modelo a subconjuntos de datos. ¿Puede combinarse con los apreciables cálculos de los métodos de Monte Carlo de la cadena de Markov de los autores?" Que en paz descanse su alma.

A.P. Dawid plantea que el artículo debería haberse titulado "Medidas de la complejidad y el ajuste del modelo bayesiano", ya que según él son los modelos, no las medidas, los que son bayesianos. Una vez que se han especificado los ingredientes de un problema, cualquier pregunta relevante tiene una respuesta bayesiana única. La metodología bayesiana debe centrarse en cuestiones de especificación o en formas de calcular o aproximar la respuesta. No se requiere nada más (...) Un lugar donde un bayesiano podría querer una medida de la complejidad del modelo es como un sustituto de p en la aproximación del criterio de información de Bayes a la probabilidad marginal, por ejemplo, para modelos jerárquicos. Pero en tales casos, la definición del tamaño de muestra $n$ puede ser tan problemática como la de la dimensión del modelo $p$. Lo que necesitamos es un mejor sustituto del término completo $p⋅log(n)$". En línea con la gnoseología marxiana, lo adecuado parecería ser considerar que tanto los modelos como las medidas son bayesianos (o de otra escuela de filosofía de las probabilidades).

Las participaciones restantes son no tanto relativas a cuestiones metodológicas como a cuestiones filosóficas-fundacionales de la teoría bayesiana de las probabilidades y de la teoría de las probabilidades en general (puesto que el DIC, que es un criterio de información presentado por los mismos autores que presentan el BIC, no es bayesiano debido a que es una generalización del AIC -que es frecuentista-); de hecho, la transición de cuestiones metodológicas a filosóficas-fundacionales se expresa en el planteamiento de Dawid, quien aunque aborda cuestiones metodológicas lo hace con base en la lógica filosófica de que los modelos y no las medidas son los que pueden ser (o no) bayesianos. Por supuesto, estas últimas son las participaciones más importantes, sin embargo, abordalas escapa a los límites de esta investigación, por lo que para tan importante tarea se dedicará indudablemente un trabajo posterior.

###### 6.2.2.2. Ejecución de la Eliminación Hacia Atrás con el BIC

“`{r}
n = nrow(base)
mod5=step(mod3,k=log(n))
summary(mod5)
“`

#### 6.3. Método de Selección Hacia Adelante en R 

A propósito de lo señalado por Anthony Atkinson, para realizar un proceso de selección hacia adelante se puede usar la función `add1` inciando con un modelo que no contenga ninguna variable e indicando en `scope` cuales son todas las variables disponibles.  Ello se realiza de la siguiente forma: `add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)`.

“`{r}
mod6 = lm(esper~1,base)
modb=mod6
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

En este caso se escoge agregar la variable que disminuya más el AIC. En este caso es **crim**. Se actualiza el modelo y se continúa hasta que todas tengan un AIC más bajo que el anterior: `modb=update(modb,.~.+crim)`.

“`{r}
modb=update(modb,.~.+crim)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+grad)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+temp)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+pop)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

De forma similar se puede usar `step` para indicar `scope` (además de indicar `direction="forward"`) de la siguiente forma: `step(mod6,direction="forward",scope=~pop + ingre + analf + crim + grad + temp + area)`. `scope` "define la gama de modelos examinados en la búsqueda por pasos. Debe ser una fórmula única o una lista que contenga los componentes superior e inferior, ambas fórmulas. Consulte los detalles sobre cómo especificar las fórmulas y cómo se utilizan." (véase https://stat.ethz.ch/R-manual/R-devel/library/MASS/html/stepAIC.html).

En este caso, tiene la logica del modelo hacia adelante, se va ingresando las variables que reducen el AIC y luego quedan las que no estan en el modelo, osea las que incrementaria el AIC.

“`{r}
mod7=step(mod6,direction=”forward”,scope=~pop + ingre + analf + crim + grad + temp + area)
summary(mod7)
“`

SOBRE LA VISIÓN MARXISTA DE LA EXISTENCIA COMO ESTRUCTURA ORGÁNICA OBJETIVA (BORRADOR)

II.XI. Ley de Conexión Universal y Acción Recíproca

Como señalan (Fundación Gustavo Bueno, 2021), (Rosental & Iudin, 1971, págs. 78-79) y (Frolov, 1984, págs. 76-77), la conexión y la acción recíproca entre los objetos y los fenómenos de la Naturaleza y de la Sociedad tienen un carácter universal. La dialéctica materialista sostiene por eso, que ni un solo fenómeno de la Naturaleza y de la Sociedad puede ser comprendido si se le toma fuera de sus conexiones con los fenómenos circundantes. Por ejemplo, el sistema solar representa un todo único, todas sus partes se hallan en conexión mutua, en acción recíproca. La conexión mutua tiene lugar entre los animales y las condiciones geográficas que los rodean. En la sociedad humana, todas sus parten se hallan también en la más íntima relación mutua y recíproco condicionamiento. Así, tal o cual ideología puede ser comprendida sólo en relación con todo el conjunto de las condiciones materiales de la vida de la sociedad, con la lucha de clases, etc. Todo régimen y movimiento sociales que aparecen en la historia deben ser juzgados desde el punto de vista de las condiciones que los han engendrado y a los que se hallan vinculados; el régimen de la esclavitud, dentro de las condiciones modernas, es un absurdo, pero dentro de las condiciones de desintegración del régimen del comunismo primitivo era un fenómeno perfectamente lógico y natural, y representaba un progreso en comparación con el comunismo primitivo. De igual forma, no se puede explicar científicamente un fenómeno tal como las guerras imperialistas si se las separa del modo de producción capitalista, de las contradicciones efectivas del capitalismo. Por eso hay que abordar cada fenómeno desde el punto de vista histórico. Lo que es real y natural en unas condiciones históricas pierde todo sentido en otras. La existencia de la acción recíproca entre los fenómenos no supone que todas las causas y efectos sean importantes en igual grado: el método dialéctico exige que se indaguen las bases de esa interacción, que se establezcan las causas decisivas, fundamentales, que condicionaron tal o cual fenómeno.

Así, por oposición a la metafísica, la dialéctica materialista no considera la naturaleza como un conglomerado casual de objetos y fenómenos, desligados y aislados unos de los otros y sin ninguna relación de dependencia entre sí (puesto que ello termina siempre por derivar en una concepción de la naturaleza como una aglomeración caótica de hechos accidentales), sino como un todo articulado y único, en el que los objetos y fenómenos se hallan orgánicamente vinculados unos a otros, dependen unos de otros y se condicionan los unos a los otros. Por eso, el método dialéctico entiende que ningún fenómeno de la naturaleza puede ser comprendido si se le enfoca aisladamente, sin conexión con los fenómenos que le rodean, pues todo fenómeno, tomado de cualquier campo de la naturaleza, puede convertirse en un absurdo, si se le examina sin conexión con las condiciones que le rodean, desligado de ellas; y por el contrario, todo fenómeno puede ser comprendido y explicado, si se le examina en su conexión indisoluble con los fenómenos circundantes y condicionado por ellos.

Sin embargo, la dialéctica materialista plantea que no basta tener en cuenta el encadenamiento de causas y efectos, sino que es preciso subrayar también que la causa y el efecto actúan el uno sobre el otro. Así, todo régimen político está determinado por el régimen económico que lo ha engendrado. Pero a su vez, el poder político ejerce una influencia considerable sobre el régimen económico. No es posible analizar el modo de producción capitalista, que se halla desgarrado por las contradicciones y no es más que una traba al desarrollo de las fuerzas productivas, sin tener en cuenta el papel que desempeña el poder político de la burguesía, pues ésta, todavía en el poder, trata de eternizar por todos los medios el modo de producción fundado sobre la explotación del hombre por el hombre. Los fenómenos deben ser enfocados desde el punto de vista de su interacción y de su condicionamiento recíproco, pues se cometería un error grosero si sólo se dijera que las relaciones de producción están en función de las fuerzas productivas. Sería un procedimiento unilateral, porque, engendradas por las fuerzas productivas, las relaciones de producción desempeñan, si corresponden a las fuerzas productivas, un papel importantísimo en el desarrollo de estas últimas (y en caso contrario, un papel importantísimo en el freno a su desarrollo).

El alcance y la importancia del principio de la conexión y de la interacción de los fenómenos, reside en que destaca claramente un hecho esencial: el mundo real está regido por leyes. El encadenamiento de los fenómenos significa que las contingencias no dominan en la naturaleza y en la sociedad; que son las leyes objetivas, independientes de la voluntad y de la conciencia humanas, las que determinan el desarrollo. La conexión y la interacción de la causa y del efecto condicionan el curso necesario de los fenómenos de la naturaleza y la vida social. Hay que estudiar los regímenes y los movimientos sociales desde el punto de vista de las condiciones que los han engendrado y a las cuales están vinculados. En nuestros días, sería absurdo el régimen de esclavitud, mientras que en la época en que la comuna primitiva se disgregaba, representaba un fenómeno necesario, un paso adelante. Del mismo modo, el régimen capitalista, progresivo en ciertas condiciones históricas, constituye hoy un obstáculo al progreso de la sociedad.

Saber abordar los hechos reales es tener en cuenta las condiciones concretas de lugar y tiempo, por lo que la concatenación de los fenómenos de la forma antes expuesta ayuda a mostrar la sofística y el eclecticismo que reside en aquellas separaciones arbitrarias de ciertos aspectos de un fenómeno complejo, en la confusión de considerar equivalentes condiciones históricas diferentes, en la transposición mecánica en una situación nueva lo que no es valedero sino en una situación dada, etc.

Esta ley es la ley más general de la existencia del mundo; constituye el resultado y la manifestación de la interacción universal de todos los objetos y fenómenos, es la regularidad más general de la existencia del mundo. Expresa la unidad estructural interna de todos los elementos y propiedades en cada sistema íntegro, así como los nexos y relaciones infinitamente diversos del sistema dado con los sistemas o fenómenos que le rodean. En esta ley se manifiestan la unidad del mundo material y la determinación de cualquier fenómeno por otros procesos materiales, es decir, la interacción universal de los cuerpos condiciona la existencia misma de los objetos materiales concretos y todas sus peculiaridades específicas. La conexión universal de los fenómenos tiene manifestaciones infinitamente diversas. Incluye las relaciones entre las propiedades particulares de los cuerpos o de los fenómenos concretos de la naturaleza, relaciones que encuentran su expresión en leyes específicas; también incluye las relaciones entre las propiedades universales de la materia y las tendencias de desarrollo que encuentran su manifestación en las leyes dialécticas universales del ser. De ahí que toda ley sea una expresión concreta de la conexión universal de los fenómenos. Gracias a tal conexión, el mundo no constituye un amontonamiento caótico de fenómenos, sino un proceso universal único, sujeto a ley del movimiento, es decir, es un proceso lógico único de movimiento y desarrollo de la materia.

Los nexos entre los objetos y los fenómenos pueden ser directos o indirectos, permanentes o temporales, esenciales o inesenciales, casuales o necesarios, funcionales (dependencia funcional) o no funcionales, etc. La conexión universal de los fenómenos se halla estrechamente vinculada a la causalidad, más la causa y el efecto como tales sólo pueden ser examinados al margen de la conexión universal de unos fenómenos con otros. Si la causa y el efecto, por el contrario, se ponen en conexión con el todo, pasan una al otro, se transforman en conexión e interacción universales. Constituye un caso particular de esta interconexión la retroconexión en todos los sistemas que se regulan automáticamente.

Debe establecerse además que no es posible reducir a la mera interacción física de los cuerpos el nexo entre los fenómenos, puesto que, aparte de ella, existen relaciones biológicas y sociales incomparablemente más complejas que se subordinan a sus leyes específicas. A medida que avanza el desarrollo de la materia y va pasando a formas más elevadas de organización, se complican también las formas de interconexión de los cuerpos, aparecen especies de movimiento cualitativamente nuevas. Esta ley impera asimismo en lo que respecta al desenvolvimiento de la sociedad humana, en la cual, a medida que progresan los modos de producción y la civilización se desarrolla, se hacen más complejos los nexos entre los individuos y los estados, se diversifican cada vez más las relaciones políticas, económicas, ideológicas, etc. Este concepto es de gran alcance cognoscitivo. El mundo objetivo sólo puede conocerse investigando las formas de conexión causales y de otro tipo entre los fenómenos, delimitando los nexos y relaciones más esenciales, etc., es decir, a través de la investigación multilateral y sistemática de cualesquiera objetos y la segregación de todas las conexiones y relaciones esenciales, así como de las leyes de tales conexiones. El progreso del conocimiento cobra realidad en el movimiento del pensar, que pasa de reflejar conexiones menos profundas y generales a establecer nexos y relaciones más profundos y más generales entre los fenómenos y procesos. La estructura misma de las ciencias y su clasificación constituyen un reflejo de la conexión universal de los fenómenos. Así se explica que con el progreso del saber científico los lazos y la interacción de las ciencias entre sí se hagan cada vez más estrechos, y que surjan ciencias “limítrofes” que anudan esferas del saber antes separadas (por ejemplo, la bioquímica, la astrofísica, etc.).

Como una demostración parcial de esta ley, la más general entre las leyes de la dialéctica y de la existencia de la realidad misma, se estudiará la investigación de (Vitiello, 2014), que muestra que existe un isomorfismo entre sistemas disipativos, sistemas fractales auto-similares y sistemas electrodinámicos, lo que plantea, en según sus palabras, una “visión integrada de la Naturaleza” (p. 203).

Como señala (Lesne, Renormalization Methods, 1998, pág. 1), en aproximadamente los últimos cincuenta años han aparecido en la comunidad científica, primero en la teoría de campos y luego en varios otros dominios como la física estadística y los sistemas dinámicos, los términos “métodos de renormalización”, “grupo de renormalización” y “operadores de renormalización”. Las técnicas analíticas a las que se refieren estas expresiones son fundamentales para el estudio de lo que se conoce como fenómenos críticos, por el fracaso de los métodos anteriores; su desarrollo siguió a la aparición de la noción de invariancia de escala.” Así, ejemplos concretos, como la transición líquido-gas de una sustancia pura, sugieren la distinción entre los siguientes tipos de sistemas:

  1. Sistemas homogéneos a gran escala, ilustrado por la imagen de un tablero de ajedrez.
  2. Sistemas críticos auto-similares, ilustrados por la imagen de un globo, y cuyas propiedades macroscópicas se expresan mediante leyes de escala; los métodos de renormalización son esenciales aquí. Fueron concebidos para dar un valor explícito a los exponentes asociados y mostrar sus propiedades de universalidad, si las hubiese.

Figura 2: Fenómeno Crítico como Superposición Estable de Fase Sólida y Fase Líquida

Fuente: (Lesne, Renormalization Methods, 1998, pág. 3).

Un fenómeno crítico es aquel que ocurre cuando, como resultado de la acción de fuerzas (para el ejemplo gráfico dado, estas fuerzas imprimen presión y temperatura sobre el sistema físico del entorno sobre un determinado sistema en una magnitud que excede el umbral[1]), dicho sistema manifiesta una coexistencia estable entre dos fases (estados), cuando regularmente estos estados están ligados entre sí en algún orden temporal (i.e., no-simultáneo).

Como señala (Lesne, Renormalization Methods, 1998, pág. 2), las nociones sobre el comportamiento colectivo de los grados de libertad en sistemas estadísticos que analizan el mundo microscópico es revelada por el estudio de las fluctuaciones y de las correlaciones estadísticas, mientras que la noción de fenómeno crítico[2], que es precisamente resultante del comportamiento colectivo antes descrito, es una noción perceptible en todas las escalas y versa sobre la divergencia crítica (respecto de un valor crítico) de ciertas cantidades macroscópicas descritas por las leyes de escala y por sus exponentes (conocidos como exponentes críticos).

Comprendido lo anterior, puede exponerse sobre terreno firme el concepto de auto-similaridad. Este concepto, también conocido como invarianza escalar para el caso continuo, significa que “(…) Nada importante se modifica en la física del estado crítico si cambiamos la escala de observación (…) Por ejemplo, a medida que disminuimos el aumento de un microscopio imaginario, tan pronto como ya no vemos los detalles microscópicos, la imagen del sistema físico permanece estadísticamente igual. Esta propiedad de invarianza escalar del estado crítico fue destacada y utilizada en la década de 1960 por Kadanoff, quien tuvo la intuición de que esta sería la clave para una descripción eficaz de los fenómenos críticos. De hecho, en 1970 varios físicos, en particular Wilson, propusieron una serie de métodos denominados “grupo de renormalización” que permitían el cálculo de comportamientos críticos extrayendo las consecuencias físicas de la invarianza de escala (…) Una de estas consecuencias es que los comportamientos críticos no dependen en gran medida en detalles físicos microscópicos que se “promedian” a gran escala. Sin embargo, dependen en gran medida de las características geométricas del sistema: la dimensión espacial y el número n de componentes del parámetro de orden.” (Lesne & Laguës, Scale Invariance. From Phase Transitions to Turbulence, 2012, págs. 30-31). Como señala, (Lesne, Renormalization Methods, 1998, pág. 2), las nociones de invariancia de escala y auto-similaridad, a través de la ruptura de la simetría, reemplazan la noción de homogeneidad y separación de escalas; junto a estas aparecen determinadas estructuras jerárquicas, correlacionando las distintas escalas de un sistema. Estos conceptos expresan en el mundo instrumental las nociones de propiedades universales y clases de universalidad.

Merece la pena destacar que este reemplazamiento de las nociones de homogeneidad y separación de escalas por una concepción más orgánica (la auto-similaridad, conceptual y matemáticamente, permite conectar las diferentes escalas de un sistema) y dinámica (puesto que las estructuras fractales son estructuras recurrentes) ocurre también en la mecánica cuántica a la luz de las últimas investigaciones en dos sentidos: por un lado, en la inseparabilidad teórica y matemática de las fuerzas fundamentales (matemáticamente hablando, por ejemplo, no es posible integrar la función que las contiene para estimar la contribución individual que cada una de ellas en la versión cuántica de lo que en física clásica se conoce como momento de fuerza -que es a lo que se refiere Hegel cuando habla de los omentos de fuerza de la palanca, como se vio antes-); por otro lado, en relación a la homogeneidad del universo. Ambas cuestiones se abordarán de forma conjunta en la sección relativa al principio monista de complementariedad.

Además, esta posición frente a la homogeneidad perfecta no sólo se encuentra en la economía política marxista y la mecánica cuántica, también en las ciencias médicas. Así, señala (Sharma & Vijay, 2009, pág. 110) que en la evolución del endotelio[3], que partió de un vertebrado ancestral hace unos 540-510 millones de años y tenía como objetivo optimizar la dinámica del flujo y la función de barrera (y/o para localizar las funciones inmunes y de coagulación) fue decisivo (y los autores señalan que hay que ser enfáticos en eso) el hecho de que la heterogeneidad endotelial evolucionó como una característica central del endotelio desde el principio, lo que según los mismos autores refleja su papel en la satisfacción de las diversas necesidades de los tejidos corporales.

Las nociones antes expuestas sobre renormalización están íntimamente relacionadas con el concepto de estructura fractal. Según (Mandelbrot, 1983, pág. 15), quien acuñó el concepto, una estructura fractal es un conjunto para el cual la dimensión de Hausdorff-Besicovitch excede estrictamente la dimensión topológica. ¿Qué es una dimensión de Hausdorff-Besicovitch?, ¿qué es una dimensión fractal en general? Como se señala en (FOLDOC, 2021), una dimensión fractal puede definirse, a grandes rasgos, como la magnitud resultante de operar el límite del cociente del cambio logarítmico en el tamaño del objeto y el cambio logarítmico en la escala de medición, cuando la escala de medición se acerca a cero. Las diferencias entre tipos de dimensión fractal provienen de las diferencias en lo que se entiende exactamente por “tamaño del objeto” y lo que se entiende por “escala de medición”, así como por los diferentes caminos que es posible tomar para obtener un número promedio de muchas partes diferentes de un objeto geométrico. Como puede observarse, las dimensiones fractales cuantifican la geometría estática de un objeto.

(Lesne, Renormalization Methods, 1998, pág. 270) señala que las propiedades fractales de una estructura natural se definen solo aproximadamente, localmente y en un dominio de escalas que está acotado por arriba y por abajo. Además, generalmente son solo propiedades estadísticas, que se vuelven observables y bien definidas solo promediando sobre diferentes subdivisiones, para las cantidades globales como N(a,r) [4],o sobre diferentes centros para las cantidades locales como n(a,r,x ̅_0 ).

Como señala (Lesne, Renormalization Methods, 1998, pág. 265) , el hecho que la teoría sobre fractales aborde la mayor parte de temas que aborda la teoría de renormalización obedece a que los principios físicos que subyacen a la presencia de estructuras fractales son los mismos que hacen que los métodos de renormalización funcionen. Las nociones esenciales de leyes de escala y de invariancia de escala, de auto-similaridad y de universalidad aparecen en ambas situaciones. ¿Qué es una estructura fractal entonces? Es una representación visual de las características que asegura que los métodos de renormalización son relevantes para el análisis del sistema en el que aparece; la expresión de su auto-similaridad guía la elección del formalismo (metodológico) y la construcción subsiguiente del operador de renormalización. Las singularidades locales[5] de las medidas[6] fractales (análisis fractal de medidas de conjuntos, usualmente de la medida de Borel en R^d) pueden describirse jerárquicamente por su espectro dimensional[7], determinadas por el análisis multifractal[8] o reveladas por análisis de renormalización antes delineado.

A través del concepto de isomorfismo, originalmente perteneciente a la topología algebraica y expuesto anteriormente, pueden vincularse teórica y empíricamente:

  1. La teoría matemática de los sistemas complejos[9] (representada en las estructuras fractales auto-similares).
  2. Los sistemas disipativos[10].
  3. Los sistemas mecánico-cuánticos[11].

(Vitiello, 2014, pág. 203) establece que en electrodinámica existe un intercambio mutuo de energía y momento entre el campo de materia y el campo electromagnético, la energía total y el momento se conservan y, a partir de ello, muestra que para un fenómeno de tipo electromagnético conformado por un campo magnético constante y un potencial escalar armónico[12], el sistema electrodinámico que modela dicha clase de fenómenos es isomórfico (topológicamente equivalente) a un sistema de osciladores armónicos amortiguados/amplificados[13]. Estos pueden describirse mediante estados coherentes[14] comprimidos[15] que a su vez son isomorfos a estructuras fractales auto-similares. Bajo dichas condiciones de campo magnético constante y potencial escalar armónico, la electrodinámica es, por tanto, isomorfa a estructuras fractales auto-similares (que presentan alguna propiedad universal o clases de universalidad para estructuras discontinuas) y estados coherentes comprimidos. A nivel cuántico, la disipación induce una geometría no-conmutativa[16] con el parámetro de compresión[17] jugando un papel relevante.

La ubicuidad[18] de los fractales en la Naturaleza y la relevancia de los estados coherentes y la interacción electromagnética apuntan, según Vitiello, hacia “una visión unificada e integrada de la Naturaleza”; por supuesto, esta unificación e integración a la que se refiere el autor citado es fundamentalmente instrumental, no de carácter general como la aquí planteada. Un bosquejo sobre las razones por las que esta vinculación de carácter tan general es posible de establecer alrededor del ruido rosa se presenta a continuación.

Como señala (Zhao, 2021, pág. 2), las propiedades de un sistema físico pueden revelarse analizando sus respuestas frente a perturbaciones externas. La forma en que las respuestas de un sistema se pueden clasificar en varias categorías principales. Aquí hay algunos ejemplos:

En su investigación, Zhao estudia una clase de sistemas complicados (difícil a nivel su operativización) en cuanto son particularmente extendidos espacialmente (como arena apilada) y cuyas respuestas a pequeñas perturbaciones no tienen una longitud o un tiempo característicos. Las respuestas contienen una serie de eventos en toda la duración y escala de tiempo. Su distribución de probabilidad frente al tiempo o la duración obedece la ley de potencia[19], lo que significa que no hay un valor esperado de tiempo o duración de las respuestas. En particular, la distribución de probabilidad de la energía liberada en los eventos tiene la forma 1/f^α ,con α≈1, por lo que se denomina ruido “similar a 1 /f”, en donde 1/f es el conocido ruido rosa[20], que es el hecho empírico-instrumental alrededor del cual Vitiello fundamenta su enfoque formal integral de la Naturaleza. ¿Por qué ocurre esto?

Señala (Zhao, 2021, págs. 6-7) que la autoorganización crítica (SOC, de ahora en adelante) fue sugerida por Per Bak, Chao Tan y Kurt Wiesenfeld en 1987. El título del artículo era Self-Organized Criticality: An Explanation of 1/f noise. En este artículo, Bak et al. argumentaron (como característica distintiva de los sistemas SOC) que cuando un sistema extendido espacialmente con muchos grados de libertad es alejado del equilibrio por una fuerza externa, el estado estacionario es un estado con correlación espacial de ley de potencia.

Así, un sistema dinámico clásico evolucionará espontáneamente a un “estado crítico” que carece de una longitud característica. También argumentaron que la falta de una longitud característica provocará la falta de un tiempo característico, lo que inducirá un comportamiento de ley de potencia en el espectro de frecuencias (el que se señaló antes). En palabras del autor, “El mensaje más emocionante de este artículo es que hay sistemas que no necesitan un ajuste de parámetros, sino que evolucionan espontáneamente hasta un punto crítico.” (p. 7).

La idea original de Bak et al. es que:

  • El concepto de SOC es universal: los sistemas espacialmente extendidos en la naturaleza siempre están en el estado SOC.
  • SOC causa el espectro de potencia similar a 1/f. Estas ideas físicas básicas no son difíciles de comprender cuando consideramos modelos simples como un montón de arena o el modelo de Burridge-Knopoff[21]. Sin embargo, después de 18 años de investigaciones teóricas y experimentales, la gente todavía no tiene una comprensión clara del SOC. Primero, los experimentos y las simulaciones por computadora han demostrado que muchos sistemas están en el estado SOC solo bajo ciertas condiciones, lo que significa que no está garantizada la universalidad de los SOC afirmada por Bak et al. En segundo lugar, hay algunos sistemas que tienen las “huellas digitales” de SOC, pero tienen ruido 1/f^2 en lugar de un ruido no trivial similar a 1/f. Sin embargo, la idea de Bak et al. es valiosa en el sentido de que proporcionó a las personas una forma de resolver tales problemas en un marco teórico preestablecido, aunque es evidente la necesidad de continuar sobre esa ruta teórica la investigación científica sobre los sistemas autoorganizados.

A la luz de lo planteado en esta sección, puede establecerse, en relación al automovimiento general de la Naturaleza y la sociedad, que los componentes (modelados mediante ecuaciones) de una totalidad de referencia (modelada mediante un sistema de ecuaciones) comparten una esencia común (i.e., que son isomórficos entre sí) que permite su combinación integro-diferencial[22] de forma armónica y coherente bajo una determinada estructura interna de naturaleza material (objetiva), no-lineal (la totalidad es diferente a la suma de sus partes) y dinámica (el tiempo transcurre y el sistema, así como sus componentes, cambia) generada por la interacción de tales componentes bajo determinadas condiciones iniciales[23]. La estructura interna del sistema (o totalidad de referencia) condiciona a los componentes que la generan bajo el mismo conjunto de leyes (pero generalizado, por lo que no es formalmente el mismo) que rigen la interacción entre las condiciones iniciales y las relaciones primigenias entre componentes que determinaron la gestación de dicha estructura interna[24], [25]. Estas leyes son: 1. Unidad y Lucha de los Contrarios (que implica emergencia[26] y autoorganización[27] -al menos de tipo SOC-), 2. Salto de lo Cuantitativo a lo Cualitativo (implica emergencia, bifurcación[28] y salto[29]), 3. Ley de la Negación de la Negación (que es la crisálida del proceso dinámico antes descrito, en donde lo que negó es negado).

Lo anteriormente expuesto no debe resultar extraño, no en cuanto la complejidad misma posee un significado intrínsecamente dialéctico. Como señala (Moreno Ortiz, 2005, pág. 4), desde un punto de vista etimológico, la palabra “complejidad” es de origen latino, proviene de complectere, cuya raíz plectere significa ‘trenzar, enlazar’. El agregado del prefijo com- añade el sentido de la dualidad de dos elementos opuestos que se enlazan íntimamente, pero sin anular su dualidad. De allí que complectere se utilice tanto para referirse al combate entre dos guerreros, como al entrelazamiento de dos amantes.

Finalmente, con miras a reforzar la exposición realizada en esta sección sobre el amplio espectro de aplicación de los sistemas complejos (específicamente en términos del amplio espectro de surgimiento que poseen), señala (Lesne, Renormalization Methods, 1998, pág. 140) que la aparición de la noción de caos determinista fue la señal para el abandono de la idea básica establecida por Lev Landau (1944), según la cual las leyes de evolución deterministas y regulares generan un comportamiento asintótico caótico sólo después de la desestabilización de un número infinito de grados de libertad. La insuficiencia de esta teoría se reveló cuando se obtuvo evidencia de que las características caóticas pueden ocurrir en sistemas con solo un pequeño número de grados de libertad, o incluso en sistemas de dimensión infinita que involucran solo un subespacio de dimensión finita del espacio de fase. Un ejemplo de este segundo caso lo da un sistema espacio-temporal cuya dinámica se puede extender a un número finito de funciones espacio-temporales dadas, lo que reduce el estudio al del sistema dinámico que describe la evolución puramente temporal del número finito de coeficientes que ocurren en esta descomposición. La posibilidad del caos no está excluida a priori, excepto para evoluciones continuas autónomas en la dimensión 1 o 2.

Referencias

FOLDOC. (29 de 12 de 2021). Obtenido de Free On-Line Dictionary of Computing: https://foldoc.org/fractal+dimension

Frolov, I. T. (1984). Diccionario de filosofía. (O. Razinkov, Trad.) Moscú: Editorial Progreso. Obtenido de http://filosofia.org/

Fundación Gustavo Bueno. (29 de 12 de 2021). Conexión universal entre los fenómenos. Obtenido de Diccionario soviético de filosofía: https://www.filosofia.org/enc/ros/conex.htm

Lesne, A. (1998). Renormalization Methods. Critical Phenomena, Chaos, Fractal Structures. West Sussex, Inglaterra: John Wiley lk Sons Ltd,.

Lesne, A., & Laguës, M. (2012). Scale Invariance. From Phase Transitions to Turbulence (Primera edición, traducida del francés (que cuenta con dos ediciones) ed.). New York: Springer.

Mandelbrot, B. B. (1983). The Fractal Geometry of Nature. New York: W. H. Freeman and Company.

Moreno Ortiz, J. C. (2005). El Significado y el Desafío de la Complejidad para la Bioética. Revista Latinoamericana de Bioética, 1-19. Obtenido de https://www.redalyc.org/pdf/1270/127020937001.pdf

Rosental, M. M., & Iudin, P. F. (1971). DICCIONARIO FILOSÓFICO. San Salvador: Tecolut.

Sharma, & Vijay. (2009). Deterministic Chaos and Fractal Complexity in the Dynamics of Cardiovascular Behavior: Perspectives on a New Frontier. The Open Cardiovascular Medicine Journal, 110-123. Obtenido de https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2757669/pdf/TOCMJ-3-110.pdf

Vitiello, G. (2014). On the Isomorphism between Dissipative Systems, Fractal Self-Similarity and Electrodynamics. Toward an Integrated Vision of Nature. systems, 203-206.

Zhao, X. (30 de Diciembre de 2021). 1/f like noise and self organized criticality. Obtenido de University of Illinois at Urbana Champaign: https://guava.physics.uiuc.edu/~nigel/courses/563/Essays_2005/PDF/Xin.pdf


[1] Los umbrales son valores definidos que determinan si un estadístico (magnitud generada a partir de un conjunto de datos reales mediante algún modelo matemático-computacional que provee algún tipo de información sobre los datos usados) está por encima, por debajo o dentro de un rango normal en su red; la normalidad lo determina el curso de las investigaciones en el campo en el que se está realizando. Los umbrales también se utilizan al mostrar colores en paneles. Todo lo que esté por debajo del umbral marginal es azul, todo lo que esté entre el umbral marginal y el crítico es amarillo y todo lo que esté por encima del umbral crítico es rojo. Los umbrales también se pueden utilizar como parte de los widgets de estado que se basan en el rendimiento o en una línea de base. Véase https://observerdocs.viavisolutions.com/index.html#page/Observer_Apex/understanding_thresholds.html. El umbral es también conocido como límite termodinámico (para problemas espaciales) o régimen asintótico (para problemas temporales), en los que la aparición de singularidades marca un fenómeno crítico; en el estudio de los sistemas inestables, James Clerk Maxwell en 1873 fue el primero en utilizar el término singularidad en su sentido más general: aquel en el que se refiere a contextos en los que cambios arbitrariamente pequeños, normalmente impredecibles, pueden conducir a efectos arbitrariamente grandes (véase https://en.wikipedia.org/wiki/Singularity_(system_theory)).

[2] Se les dice “críticos” en cuanto exceden el umbral.

[3] Tejido formado por una sola capa de células que tapiza interiormente el corazón y otras cavidades internas.

[4] Una región centrada en a y con longitud característica r, siendo ésta última una medida que define la escala del sistema, por ejemplo, el radio en una circunferencia. A nivel de sistemas, la longitud característica se define como el volumen del sistema dividido sobre su superficie.

[5] Singularidades (en el sentido de Maxwell) que aplican únicamente en una región del espacio de interés o de referencia.

[6] Como señala (Kolmogórov & Fomin, 1978, pág. 290), el concepto de medida de un conjunto constituye una generalización natural de los siguientes conceptos: 1) de la longitud de un segmento, 2) del área de una figura plana, 3) del volumen de una figura en el espacio, 4) del incremento de una función no-decreciente en el semisegmento [a,b), 5) de la integral de una función no negativa en una región lineal, plana, del espacio, etc.

Retomando lo planteado en (Hegel F. , 1968, págs. 49-55), considérese un conjunto A con a elementos. Se dice que A está equipado con una medida M si una cierta medida M(E) es asignada a alguno de los subconjuntos E de A. El conjunto A, junto con su medida M, conforman un espacio métrico. La medida de un conjunto es un número real que es positivo o nulo. Además, la medida asume que si dos conjuntos no se intersecan (no tienen elementos en común) la medida de su suma es igual a la suma de sus medidas (es decir, la medida es lineal) y que la existencia de medidas de dos conjuntos implica la existencia de la medida de un tercer conjunto (que es igual a la medida de ambos conjuntos). La medida de todo el espacio de referencia, en el contexto de las probabilidades, es igual a 1. Un sistema de medidas es contablemente cerrado si contiene todas las posibles sumas contables de sus elementos. Finalmente, una medida es normal si para los conjuntos equipados de medida la condición E=∑E_n, E_n⋅E_m = 0, n ≠ m (n = 1, 2, …) implica M(E)=∑M(E_n); el enunciado anterior establece que cuando los subconjuntos E de A tengan entre sí una relación lineal perfecta (i.e., se nulifican al multiplicarse escalarmente) implica que la aplicación de la medida M sobre dichos subconjuntos será un procedimiento lineal (aplicarla al todo es equivalente a aplicarla a la suma de las partes).

[7] El vector característico o autovector de una transformación lineal (por ejemplo, la transformación lineal de un sistema de ecuaciones) es un vector no-nulo que cambia a lo sumo por un factor de escala (valor característico o autovalor) cuando la transformación lineal en cuestión es aplicada sobre el objeto matemático del que se trate. La generalización conceptual y matemática del conjunto de autovectores de una transformación lineal es conocida en el análisis funcional como espectro. Este espectro puede descomponerse en tres tipos de espectro, que conforman las partes del espectro en general: 1) espectro puntual (consistente en todos los autovalores del operador lineal de un espacio de Banach -espacio lineal X en que la región de convergencia de una sucesión de Cauchy pertenece a dicho espacio-, que es el operador que realiza la transformación lineal), 2) espectro continuo [que es el conjunto de escalares que no son autovalores, pero que hacen que la región conformada por las diferencias entre el operador lineal T y λ (donde λ es el conjunto de escalares que hacen que su diferencia con T no tenga una función inversa acotada -bien delimitada- en X)] sean un subconjunto propio (subconjunto que es igual al conjunto que lo contiene) y denso (un determinado subconjunto E es denso en un espacio X si todo elemento de X o pertenece a E o está arbitrariamente cerca de algún miembro de E) del espacio X, 3) espectro residual (todos los escalares del espectro que no son escalares puntuales ni continuos).

[8] Como señala (Lesne, Renormalization Methods, 1998, pág. 271), una de las tres estructuras fractales más complejas es aquellas que pertenecen a la familia de fractales superpuestos, donde la dimensión fractal local D(x) (que significa que la dimensión fractal pertenece a una subregión del espacio de interés centrada en x) depende de x de manera muy irregular: para cada valor D, {x,D (x)= D} es un conjunto fractal muy lacunar [un conjunto fractal lacunar es aquel en que la distribución de sus componentes -resultante de su patrón de iteración- deja huecos (Lesne, Renormalization Methods, 1998, pág. 266), tal como se puede observar al realizar iteraciones con el conjunto de Cantor (Lesne, Renormalization Methods, 1998, pág. 267)]. Establecido lo anterior, el análisis multifractal se diseñó con el fin de describir para cada valor de D su distribución fractal entrelazada en el espacio x.

[9] Conocida usualmente como teoría matemática del caos.

[10] En general, una estructura disipativa es aquella estructura coherente (en términos de su lógica interna) y autoorganizada (es un proceso en el que alguna forma global de orden o coordinación surge de las interacciones locales entre los componentes de un sistema inicialmente desordenado) que aparece en sistemas que se encuentran fuera del equilibrio (a menudo lejos del mismo) en un entorno con el que realiza intercambios de algún tipo. En física, estos sistemas son termodinámicos y los intercambios son en términos de materia y energía. Ilya Prigogine obtuvo en 1977 el Nobel de Química por el descubrimiento de los sistemas disipativos.

[11] Sistemas mecánicos de naturaleza física en que la inclusión del cuanto de acción es relevante; sobre el cuanto de acción se hablará en la sección correspondiente al principio monista de complementariedad.

[12] El potencial escalar de un oscilador armónico. Un potencial escalar describe la situación en la que la diferencia en las energías potenciales de un objeto físico en dos posiciones diferentes depende solo de las posiciones, no de la trayectoria tomada por el objeto al viajar de una posición a la otra. Un ejemplo son las diferencias en la energía potencial del objeto físico a causa de la gravedad (el diferencial energético sólo depende de la posición del objeto).

[13] Un oscilador armónico es en mecánica clásica un sistema que, cuando se desplaza de su posición de equilibrio, experimenta una fuerza restauradora F proporcional al desplazamiento x; algo similar a la lógica de la mano invisible de Smith, que matematizó Walras (aunque bajo un espíritu esencialmente diferente, en relación a las posibles perturbaciones que pudiese sufrir el sistema económico de su posición de equilibrio (donde la oferta y la demanda se igualan, para el caso neoclásico). Un oscilador armónico amortiguado es aquel oscilador armónico bajo la acción de una fuerza de amortiguación (fricción) proporcional a la velocidad del sistema (la velocidad de su trayectoria o tasa de crecimiento). Un oscilador armónico es también un sistema en el que un objeto vibra (que es la forma que adopta el movimiento en los sistemas de sonido) con cierta amplitud y frecuencia; en un oscilador armónico simple, no existen fuerzas externas como la fricción o las fuerzas impulsoras que actúan sobre el objeto o, en su defecto, su efecto es despreciable; por lo tanto, la amplitud y la frecuencia siempre son las mismas. En una oscilación armónica amortiguada existen fuerzas (fricción) que actúan sobre el objeto, lo que tiene el efecto de que la amplitud (de la trayectoria) disminuya hasta que se detiene. En la vida real, la situación ideal de un oscilador armónico simple no existe. Esto significa que para mantener una oscilación debe aplicarse una fuerza impulsora o directora (conductora), de ahí el concepto de oscilador armónico dirigido.

[14] Un oscilador armónico cuántico es el análogo de un oscilador armónico clásico en la mecánica cuántica.

[15] Estado cuántico generalmente descrito mediante dos cantidades físicas mesurables no-conmutativas (véase la siguiente nota al pie) que tienen espectros continuos de autovalores.

[16] Una geometría no-conmutativa son espacios que presentan a nivel local (de una región de sí) estructuras algebraicas no-conmutativas, que son estructuras matemáticas en que uno de los operadores (símbolo que indica que se realiza una operación) binarios (porque la operación es efectuada sobre dos elementos) principales no cumple con la propiedad conmutativa al relacionar cualesquiera dos pares de elementos que se encuentren dentro de dicha localidad. Esto puede extenderse a estructuras usuales como la topología de un espacio o la norma del mismo y, conceptualmente, significa que la disipación, a nivel cuántico, induce una geometría en que el orden resulta relevante para una de las relaciones fundamentales que describen la operación de un determinado sistema en una región definida del espacio.

[17] Un parámetro es, conceptualmente hablando, una variable que sirve para identificar los elementos (usualmente funciones) que pertenecen a una determinada familia (que es una forma más general de conjunto). Comprendido esto, ¿qué es luz comprimida (del inglés squeezed light)? Señala (Lvovsky, Squeezed light, 2015, pág. 121) que la luz comprimida es un estado físico de la luz en el cual el ruido de un campo eléctrico en ciertas fases cae por debajo del estado de vacío (estado cuántico con la menor energía posible). Esto significa que, cuando se enciende la luz comprimida, se detecta menos ruido que en el caso que no hubiese ninguna luz. Esta característica aparentemente paradójica es una consecuencia directa de la naturaleza cuántica de la luz y no puede explicarse dentro de la mecánica clásica (bajo la lógica clásica es que resulta paradójica, aunque no lo sea). Comprendido lo anterior, resulta natural comprender el parámetro de comprensión lumínica como la variable que permite identificar como pertenecientes a una determinada familia de estados físicos a todas las funciones que modelan estados de luz comprimida. Como se señala en (Lvovsky, Squeezed light, 2015, pág. 128) y en (Lvovsky, Squeezed light, 2016, pág. 4), si un estado de comprensión cuántica de la luz se modela mediante la identidad S ̂(r)=exp⁡[(ζa ̂-ζa ̂^(†2) )/2, en donde a ̂ es el operador de aniquilación y a ̂^(†2) es el operador de creación, entonces su parámetro de comprensión se expresa mediante ζ=re^iϕ, donde r es igual al logaritmo natural del factor de compresión r=ln(R), i es la coordenada rotacional (imaginaria) y ϕ son números reales (la fase ϕ determina el ángulo de la cuadratura que se comprime). Como señala (Drummond & Ficek, 2004, págs. 14-15), las propiedades estadístico-cuánticas de los estados coherentes están completamente determinadas por los valores medios de los operadores de posición y momento y sus varianzas. Complementariamente a lo anterior, señala que los estados comprimidos de radiación se producen en procesos no-lineales en los que un campo electromagnético “clásico” impulsa un medio no-lineal. En el medio no-lineal, se pueden generar pares de fotones correlacionados de la misma frecuencia. Un operador de compresión (una fuerza con las características necesarias para comprimir en la forma cuántica antes descrita la luz) puede aplicarse sobre estados coherentes y producir estados coherentes comprimidos (los estados coherentes de un oscilador armónico son aquellos que tienen la característica que sus valores esperados observables evolucionan de la misma forma en que lo hace un sistema dinámico clásico).

[18] La ubicuidad, como cualidad de ubicuo, es la característica de un ente de estar presente a un mismo tiempo en todas partes.

[19] Ley estadística que establece la relación funcional entre dos cantidades, donde un cambio relativo en una cantidad da como resultado un cambio relativo proporcional en la otra cantidad, con independencia del tamaño inicial de esas cantidades. Lo anterior equivale a afirmar que una cantidad varía como potencia de otra.

[20] Como señala (Mandelbrot, 1983, pág. 74), en física el ruido es sinónimo de posibilidad de fluctuación o error, independientemente de su origen y manifestación. Por otro lado, señala (Kiely, 2021, pág. 1) que el ruido 1/f es un ruido de baja frecuencia para el que la potencia del ruido es inversamente proporcional a la frecuencia. El ruido 1/f se ha observado no solo en la electrónica, sino también en la música, la biología e incluso la economía. Las fuentes del ruido 1/f todavía se debaten ampliamente y aún se están realizando muchas investigaciones en esta área.

[21] El modelo de Burridge-Knopoff es un sistema de ecuaciones diferenciales utilizado para modelar terremotos usando n puntos en línea recta, cada uno de masa m, que interactúan entre sí a través de resortes, y en el que todas las masas están sujetas a una fuerza que es proporcional a las distancias x_i(t) de las masas desde su posición de equilibrio y hasta una fuerza de fricción F(v), donde v es la velocidad.

[22] Es decir, que permite la acción de leyes integrales o leyes diferenciales según corresponda.

[23] Que inexorablemente, como indicaba Levins al validar el argumento de Engels, implica las condiciones iniciales no solo del sistema analizado en sí mismo sino también las del entorno.

[24] La estructura interna del sistema, lo que filosóficamente es esencia y matemáticamente es su topología.

[25] Así se establece que el todo, generado por las partes en el estado inicial, ulteriormente se vuelve más que las partes, adquiere independencia relativa de estas y las determina; por supuesto, las partes también influyen en el todo y lo modifican (aunque, evidentemente, la influencia no es tan condicionante en el sentido inverso, al menos no como caso general; las excepciones obedecen a condiciones concretas del momento de desarrollo del todo analizado y, en última instancia, la acción de las partes ha sido determinada de forma mediata -histórica, acumulativa- o bien, para el caso de los componentes genéticos del todo analizado -sus componentes históricamente primigenios-, las partes fueron condicionadas en el momento de formación del todo por las condiciones bajo las cuales tales partes se relacionaron de forma combinatoria (el contexto de formación del sistema estudiado), así como también cada una de estas partes es la cristalización de la dinámica acaecida en otros sistemas, en sus sistemas de referencia), de ahí que la independencia del todo respecto a estas sea relativa, no absoluta.

[26] Cualidad de los sistemas de transitar de una estructura simple hacia estructuras más complejas (sistemas en que la totalidad no puede ser reducida a la suma de sus partes).

[27] A grandes rasgos, puede definirse como aquel proceso en el que alguna forma de orden general surge de interacciones locales entre partes de un sistema inicialmente desordenado. La autoorganización crítica es una forma laxa de autoorganización (más general, en cuanto relaja los requerimientos).

[28] Como señala (Weisstein, 2021), una bifurcación es una separación de la estructura sistémica en dos ramas o partes. En sistemas dinámicos es una duplicación, triplicación, etc., que acompaña al inicio del caos. Una bifurcación representa una súbita apariencia de cambio cualitativo en relación a las soluciones del sistema no-lineal cuando algunos parámetros varían.

[29] En su sentido cuántico, un salto es la transición abrupta de un sistema cuántico de un estado a otro (o de un nivel de energía a otro); el término “salto” tiene como finalidad distinguirlo de los sistemas clásicos, en los cuales las transiciones son graduales. En un sentido dialéctico-materialista, un salto es un concepto más amplio que el de la mecánica cuántica y la mecánica clásica considerados aisladamente, que se asimila más al mecanismo evolutivo de Darwin-Gould: Charles Darwin estableció que la evolución por diferenciación y selección actuaba gradualmente, mientras que el biólogo marxista Stephen Jay Gould complementó esto afirmando que en algunos contextos podían ocurrir saltos abruptos (esto se expandirá más adelante cuando se analicen los equilibrios puntuados de Gould). Un salto, en su sentido dialéctico-materialista es, muy sintéticamente, la solución de la continuidad, la transición rápida y súbita de una cualidad a otra, gracias a la acumulación paulatina de los cambios cuantitativos insignificantes e imperceptibles (Fundación Gustavo Bueno, 2021).

SOBRE LA TEORÍA MARXISTA DEL CONOCIMIENTO Y LA ESENCIA (BORRADORES)

II.I. III.III. II. Aplicación de la Teoría del Conocimiento: Ascensión Dialéctica y Viaje de Retorno

Para comprender esta sección es requerida la comprensión de la figura hegeliana Aufheben. Al respecto señala Hegel que: “El eliminar [Aufheben] y lo eliminado (esto es, lo ideal) representa uno de los conceptos más importantes de la filosofía, una determinación fundamental, que vuelve a presentarse absolutamente en todas partes, y cuyo significado tiene que comprenderse de manera determinada, y distinguirse especialmente de la nada. Lo que se elimina no se convierte por esto en la nada. La nada es lo inmediato; un eliminado, en cambio, es un mediato, es lo no existente, pero como resultado, salido de un ser. Tiene por lo tanto la determinación, de la cual procede todavía en sí (…) La palabra Aufheben [eliminar] tiene en el idioma [alemán] un doble sentido: significa tanto la idea de conservar, mantener, como, al mismo tiempo, la de hacer cesar, poner fin. El mismo conservar ya incluye en sí el aspecto negativo, en cuanto se saca algo de su inmediación y por lo tanto de una existencia abierta, a las acciones exteriores, a fin de mantenerlo. -De este modo lo que se ha eliminado es a la vez algo conservado, que ha perdido sólo su inmediación, pero que no por esto se halla anulado-. Las mencionadas dos determinaciones del Aufheben [eliminar] pueden ser aducidas lexicológicamente como dos significados de esta palabra. Pero debería resultar sorprendente a este respecto que un idioma haya llegado al punto de utilizar una sola y misma palabra para dos determinaciones opuestas. Para el pensamiento especulativo es una alegría el encontrar en un idioma palabras que tienen en sí mismas un sentido especulativo; y el idioma alemán posee muchas de tales palabras. El doble sentido de la palabra latina tollere (que se ha hecho famoso por la chanza de Cicerón: tollendum esse Octavium, Octavio debe ser levantado-eliminado) no llega tan lejos; la determinación afirmativa llega sólo hasta el levantar. Algo es eliminado sólo en cuanto ha llegado a ponerse en la unidad con su opuesto; en esta determinación, más exacta que, algo reflejado, puede con razón ser llamado un momento. El peso y la distancia respecto de un punto dado, se llaman en la palanca los momentos mecánicos de ella a causa de la identidad de su efecto, no obstante, todas las demás diferencias que hay entre algo real, como es un peso, y algo ideal, como la pura determinación espacial, es decir la línea. Véase Enciclopedia de las ciencias filosóficas 3ª edición, § 261, nota 9. Más a menudo todavía se nos va a imponer la observación de que el lenguaje técnico de la filosofía emplea para las determinaciones reflejadas expresiones latinas, o porque el idioma materno no tiene ninguna expresión para ellas, o bien porque aun cuando las tenga, como en este caso, su expresión recuerda más lo inmediato, y la lengua extranjera, en cambio, más lo reflejado (…) El sentido y la expresión más exactos que el ser y la nada reciben puesto que desde ahora son momentos tienen que ser presentados (más adelante) en la consideración del ser determinado, como la unidad en la cual ellos son conservados. El ser es el ser y la nada es la nada sólo en su diversidad mutua; pero en su verdad, en su unidad han desaparecido como tales determinaciones y ahora son algo distinto. El ser y la nada son lo mismo y por este ser lo mismo, ya no son el ser y la nada y tienen una determinación diferente. Esta unidad constituye ahora su base; de donde ya no han de salir hacia el significado abstracto de ser y nada.” (Hegel F. , 1968, págs. 97-98).

El proceso de aprehensión de los fenómenos (sean de índole social o natural) hecho antes por Hegel es la herramienta analítica más importante de la teoría marxista del conocimiento, la cual está compuesta a nivel técnico-operativo por dos etapas conocidas como ascensión dialéctica y viaje de retorno.

Figura 1: Ascensión Dialéctica y Retorno

Fuente: (Dussel, 1991, pág. 50).

Como señala (Dussel, 1991, pág. 50), para Marx era muy importante distinguir claramente entre la realidad y lo pensado, ya que el espectro hegeliano estaba siempre en el horizonte[1]: “El todo, tal como aparece en la cabeza como todo del pensar, es un producto de la cabeza que piensa.” Para Kant la representación (Vorstellung) “es el acto del conocer un objeto por categorías”. No es exactamente así para Marx. El conocer por “representación” es un acto cognitivo inicial, ingenuo, primero, pleno de sentido, pero confuso, caótico. A partir de la “representación” originaria comienza su acción –productiva de conocimiento– la abstracción, como momento analítico de la razón: tendría una representación caótica de la totalidad y, por medio de determinaciones más precisas, llegaría analíticamente (analytisch) a conceptos cada vez más simples, pero ¿qué tal simples?

En el trabajo empírico realizado en el campo de la Estadística, usualmente se tiene interés en explicar los datos de la forma más simple, lo cual en el contexto de la teoría de las probabilidades (especialmente en la teoría bayesiana de probabilidades) se conoce como principio de parsimonia, el cual está inspirado en el principio filosófico conocido como navaja de Ockham, la cual establece que en igualdad de condiciones la explicación más simple suele ser la más probable. El principio de parsimonia adopta diferentes formas según el área de estudio del análisis inferencial en el que se encuentre un investigador. Por ejemplo, una parametrización parsimoniosa es aquella que usa el número óptimo de parámetros para explicar el conjunto de datos de los que se dispone (donde el proceso de optimización se estructura de tal manera que existe una penalización, explícita en el modelo matemático, que incrementa con el número de parámetros utilizados), así como también “parsimonia” puede referirse a modelos de regresión parsimoniosos, es decir, modelos que utilizan como criterio de optimización emplear la mínima cantidad de coeficientes de regresión para explicar una respuesta condicional Y (también con una penalización implícita de la misma índole). El principio de parsimonia, los procesos matemáticos de optimización regidos por el criterio de alcanzar un mínimo y la navaja de Ockham son un mismo tipo de lógica aplicado en escalas de la existencia (que podríamos llamar en general “materia”, como lo hace Landau en su Curso de Física Teórica) cualitativamente diferentes. La historia de la Filosofía demuestra que el único sistema que podría ser aplicado así exitosamente es el sistema hegeliano (lo que obedece a que parcialmente sigue la lógica de la existencia misma, como han demostrado Marx, Engels, Lenin, Levins, Lewontin y el mismo Hegel en su extensa obra). ¿Cómo es posible la vinculación en distintas escalas cualitativas de la realidad con el principio de la navaja de Ockham? A la génesis materialista de las ideas de Ockham: todas esas ideas responden a la escuela filosófica de Ockham, que era la escuela nominalista. Retomando lo que señalan (Rosental & Iudin, 1971, pág. 341), el nominalismo fue una corriente de la filosofía medieval que consideraba (ya es una escuela extinta) que los conceptos generales tan sólo son nombres de los objetos singulares. Los nominalistas afirmaban que sólo poseen existencia real las cosas en sí, con sus cualidades individuales (es decir, las generalizaciones para ellos no tenían valor gnoseológico en sí mismas sino como recurso gnoseológico). Los nominalistas van más allá, planteando que las generalizaciones no sólo no existen con independencia de los objetos particulares (esta afirmación en correcta, lo que no es correcto es pensar que lo inverso sí es cierto), sino que ni siquiera reflejan las propiedades y cualidades de las cosas. El nominalismo se hallaba indisolublemente vinculado a las tendencias materialistas, ya que reconocía la prioridad de la cosa y el carácter secundario del concepto. Por supuesto, las generalizaciones, aunque menos reales que los objetos particulares (y de ahí la sujeción de la teoría a la práctica en un concepto que las une conocido en la teoría marxista como praxis) no deja por ello de ser real en cuanto son una representación aproximada (a largo plazo cada vez más aproximada a medida se desarrollan las fuerzas productivas) de la estructura general (interna y externa, métrica y topológica) común que tienen tales fenómenos naturales o sociales. Marx señaló que el nominalismo fue la primera expresión del materialismo de la Edad Media. Con todo, los nominalistas no comprendían que los conceptos generales reflejan cualidades reales de cosas que existen objetivamente y que las cosas singulares no pueden separarse de lo general, pues lo contienen en sí mismas; esto no tiene un carácter únicamente marxista, sino que incluso el célebre formalista David Hilbert señaló, según la célebre biógrafa de matemáticos Constance Reid que “El arte de hacer matemáticas consiste en encontrar ese caso especial el cual contiene todos los gérmenes de la generalidad”. Así, el defecto fundamental de la navaja de Ockham es el no considerar algún conjunto de restricciones que complementen al criterio de selección de la explicación basado en que sea la idea más simple. Como se señala en (Wikipedia, 2022), en química, la navaja de Occam es a menudo una heurística importante al desarrollar un modelo de mecanismo de reacción, sin embargo, aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados. En este contexto, el propio Einstein expresó cautela cuando formuló la restricción de Einstein: “Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreductibles sean tan simples y tan pocos como sea posible sin tener que renunciar a la representación adecuada de un dato único de experiencia.” La clave en la expresión anterior de Einstein es “sin tener que renunciar a…”, lo que se cristaliza nítidamente en una frase que señala la fuente citada es atribuida a Einstein, pero no ha sido posible su verificación: “Todo debe mantenerse lo más simple posible, pero no lo más simple”. En general, existe un trade-off entre la bondad de ajuste de un modelo y la parsimonia: los modelos de baja parsimonia (es decir, modelos con muchos parámetros) tienden a tener un mejor ajuste que los modelos de alta parsimonia, por lo que es necesario buscar un equilibrio. Desde la perspectiva operativa del trabajo empírico de la Estadística, la parsimonia estadística es deseada porque un mínimo de coeficientes de regresión implica un mínimo de variables y un mínimo de estos implica un mínimo de variables explicativas, lo que puede ser útil en casos de que exista colinealidad entre las variables explicativas, así como también permite ahorrar tiempo y dinero en lo relativo a la inversión de recursos destinada al estudio, aunque no necesariamente garantice que en general (considerando el impacto posterior de las decisiones tomadas con base en el estudio y otros factores) se ahorre tiempo y dinero. En suma, el nivel de simpleza tiene límites bien definidos y variará según el caso concreto que se estudie en función de las particularidades concretas del fenómeno analizado.

Establecido qué tan simple deberán ser las categorías, es posible y necesario retomar la explicación de la aplicación de la teoría marxista del conocimiento. Como señala (Dussel, 1991, pág. 51), el acto de la abstracción es analítico, en el sentido que separa de la “representación plena” uno a uno sus múltiples contenidos noéticos (momentos de la realidad de la cosa misma); separa una parte del todo y la considera como todo. El considerar una “parte” como “todo” por la capacidad conceptiva de la inteligencia, es la esencia de la abstracción. Como acto, la abstracción separa analíticamente; como objeto o contenido, la abstracción produce una “determinación abstracta “. La “determinación” es un momento real de la cosa, pero en tanto ese momento se abstrae (se separa analíticamente) es ahora un concepto que “reproduce” lo real (“reproducción [Reproduktion] de lo concreto”); es ahora un momento del pensamiento, un momento de la realidad conceptuado. La abstracción (flecha b del esquema 5) no separa directamente la determinación de lo real concreto (nivel 1), sino de la “representación” ya conocida (nivel 2). Por ello la representación (flecha a) es anterior a la abstracción (flecha b), y la representación (nivel 2) es el punto de partida de la determinación abstracta (nivel 3). De esta manera la representación es “volatilizada” en la determinación abstracta; como representación plena desaparece, es negada metódicamente (por el momento), analíticamente. Es en este sentido que se establece que “La abstracción de la categoría trabajo, el trabajo en general, el trabajo sans phrase (…) es el punto de partida de la economía moderna.” Las determinaciones se abstraen, pero igualmente se “producen”. Se producen o construyen en cuanto a la claridad y precisión de sus contenidos noéticos (en cuanto a la percepción intelectual directa e intuitiva de las mismas). Se trata de un trabajo teórico (no de una práctica teórica, sino de una producción teórica), y por ello en el plan primitivo de la obra de Marx, la primera acción era estudiar “las determinaciones abstractas generales (die allgemein abstrakten Bestimmungen) que corresponden (…) a todas las formas de sociedad”. El estudio o investigación de las determinaciones, sean simples o complejas, por análisis, es el primer momento del método teórico para Marx (ya que la mera representación es un momento del conocimiento cotidiano, precientífico, predialéctico). Así, se constata cómo en el análisis marxista se exige la disciplina del pensar metódico.

Asimismo, (Dussel, 1991, págs. 52-54) señalará que “Una vez que las determinaciones abstractas han sido definidas o “fijadas” acontece el momento dialéctico por esencia, que consiste siempre en un “elevarse” o “ascender”. Esta “ascensión” (flecha c del esquema 5) parte de lo abstracto y construye la totalidad concreta (que sin embargo será abstracta con respecto a los momentos posteriores del método, en su movimiento de “retorno” y “descenso”). El método dialéctico consiste en un saber situar a la “parte” en el “todo”, como acto inverso del efectuado por la abstracción analítica. La abstracción parte de la representación (todo pleno) y llega a la determinación abstracta (clara pero simple). El acto dialéctico parte de la determinación abstracta y construye sintéticamente una totalidad –concreta con respecto a la determinación, abstracta con respecto a la “totalidad concreta explicada” (nivel 6 del esquema 5): “Lo concreto es concreto porque es la síntesis (Zusammenfassung) de múltiples determinaciones, por lo tanto, unidad de lo diverso”. Ésta había sido la conclusión de sus previas reflexiones sobre la producción, cuando escribía que el “resultado” al que se llegaba es que, aunque la producción, la distribución, el intercambio y el consumo no son idénticos, sin embargo “constituyen las articulaciones de una totalidad, diferenciaciones dentro de una unidad”. El movimiento dialéctico es por ello un momento del pensar en general, por el que “se eleva de lo simple a lo complejo”. Lo simple es, por ejemplo, la producción (determinación que puede por su parte ser descrita en sus determinaciones esenciales en sí). Pero al ir elaborando las relaciones mutuamente constitutivas de la producción con el consumo primero, con la distribución posteriormente, y por último con el intercambio, se construyó así un todo donde las cuatro determinaciones constituían una nueva totalidad con mutuas co-determinaciones. Marx se había “elevado” así de lo simple (la producción) a una totalidad de múltiples determinaciones (cf. esquema 2). Marx tiene conciencia de que se trata de una construcción: “La totalidad concreta, como totalidad del pensamiento, como un concreto del pensamiento, es in fact un producto del pensar (Produktdes Denkens) y del conceptuar, pero de ninguna manera es un producto del concepto… sino que, por el contrario, es un producto del trabajo de elaboración que transforma intuiciones y representaciones en conceptos”. La “construcción” dialéctica obedece a un doble movimiento. Por una parte, maneja las determinaciones (claramente definidas como “conceptos”, ellos mismos “construidos” en cuanto esencia pensada con determinaciones internas) y las relaciona mutuamente entre sí (producción-consumo p.ej.), co-determinándose mutuamente. De esta manera los “opuestos” se co-definen. En un segundo momento, se constituye sintéticamente con ellos una nueva totalidad que adquiere autonomía (es la totalidad articulada con múltiples determinaciones). Llegado a este nivel concreto lo que antes aparecía como opuesto (producción y consumo), ahora forman parte de una “unidad” que los comprende y explica. La totalidad concreta es lo complejo. Lo simple es la de- terminación (que puede llegar al nivel de concepto), como el trabajo, la división del trabajo, la necesidad, el valor de cambio. Con todas ellas, dialécticamente, se asciende hasta las totalidades concretas, tales como: “… el Estado, el intercambio entre naciones y el mercado mundial” –reténgase, para la cuestión del “plan” de la obra, el orden de las totalidades concretas. El “mercado mundial” (Weltmarkt) aparece así como el último horizonte concreto (nivel 4 del esquema 5); como una totalidad construida teóricamente. Llegado a este punto es necesario “descender”, nos dice Marx textualmente: “Llegado a este punto, habría que reemprender el viaje de retorno, hasta dar de nuevo con la población, pero esta vez no se tendría una representación caótica de un conjunto, sino una rica totalidad con múltiples determinaciones y relaciones”, es decir, reintroducir progresiva y sistemáticamente todos aquellos componentes de los cuales se hizo abstracción en las etapas anteriores, más no lineal y/o mecánicamente, sino de acuerdo a los principios antes establecidos de la lógica dialéctica. A nivel rigurosamente operativo, como señala Dussel, este “retorno” (ruckwärts) (que serían las flechas d y e del esquema 5) no se deja ver claramente en la descripción de Marx. De la misma manera, plantea Dussel que la “totalidad concreta” pareciera ser, por una parte, la “totalidad construida” (concreta con respecto a las determinaciones) o la “totalidad histórica concreta” (la primera, nivel 4, y la segunda, el nivel 6, del esquema 5. A manera de ejemplo plantea Dussel que cuando se dice que “la sociedad burguesa es la más compleja y desarrollada organización histórica de la producción” se está refiriendo Marx a una totalidad concreta histórica y real; pero en tanto conocida y explicada, se trataría de un nivel de complejidad mayor (nivel 6) que la totalidad construida inicialmente (nivel 4). Adelantándose en el tiempo (Dussel está estudiando los Grundrisse), en El Capital, las determinaciones simples (trabajo, división del trabajo, etc.) permitirían construir la totalidad concreta con múltiples determinaciones que es “el capital en general”. Desde esa totalidad concreta (pero al mismo tiempo abstracta con respecto a la sociedad burguesa), a la que por “ascenso” se ha llegado (tomo I de El capital), se explicaría la totalidad de la sociedad burguesa (nivel 6), por “descenso”[2].

Evidentemente, aunque a falta de una rigurosa y profunda investigación al respecto es probable que las inquietudes de Dussel expresen deficiencias en algunos aspectos operativos (los señalados) en la teoría marxista del conocimiento, es probable también que esto no sea posible de determinar apriorísticamente debido a la naturaleza aplicada del materialismo dialéctico. Lo anterior puede ejemplificarse, viajando en el tiempo al igual que Dussel, en El Capital. En el prólogo de la obra señala (Marx, 2010, pág. XXIII) que: Claro está que el método de exposición debe distinguirse formalmente del método de investigación. La investigación ha de tenderse a asimilar en detalle la materia investigada, a analizar sus diversas formas de desarrollo y a descubrir sus nexos internos. Sólo después de coronada esta labor, puede el investigador proceder a exponer adecuadamente el movimiento real. Y si sabe hacerlo y consigue reflejar idealmente en la exposición la vida de la materia, cabe siempre la posibilidad de que se tenga la impresión de estar ante una construcción a priori.” La cita anterior permite evidenciar que las construcciones teóricas marxistas no son categorías apriorísticas, sino que son lo concreto pensado (en el sentido antes explicado), aunque puedan dar la impresión de ser apriorísticas.

Así como Enrique Dussel analiza de forma general estos aspectos metodológicos de los Grundrisse, Mark Rosental los analiza en cuanto a su aplicación en El Capital. Ambos análisis son ejemplos de cómo se debe aplicar la lógica del aufheben en el proceso de análisis de los fenómenos sociales y/o naturales (recuérdese esta superación ocurre entre lo universal y lo particular, no contempla explícitamente lo singular -si lo pudiese contemplar de tal, se estaría frente a categorías apriorísticas y no quedaría más remedio que recurrir a una gnoseología instrumental como la de Kant-), lo que además implica un criterio para descartar del análisis determinados aspectos o fenómenos por diversas razones (con la finalidad de obtener un relato general y coherente -el paradigma-, mientras que las singularidades que no se ajustan a tal relato pasan a conformar investigaciones particulares con la finalidad de que en algún momento puedan pasar a formar parte del mismo -como ocurre y ha ocurrido a lo largo de la historia en todas las ciencias, tanto formales como aplicadas-) y un criterio de reordenación de los hechos (que permita re-expresar el proceso histórico como proceso lógico); específicamente, el análisis de Rosental (relativo al proceso de transformación de los valores en precios de producción) proporciona pinceladas para la construcción de un criterio de ordenamiento para de hechos históricos, no de la eliminación (exclusión).

Señalará (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, pág. 366) entonces que el precio de producción hace aparecer en forma muy confusa el valor incluido en las mercancías producidas. El valor y el precio de producción son los dos polos extremos de la investigación: el primero fue descubierto como el grado de una abstracción llevada muy lejos, muy alejada de la forma concreta de los fenómenos; el segundo, como el grado superior de la reproducción de lo concreto. El primero es el esqueleto, la base del segundo. La categoría de precio de producción “reviste” este esqueleto, esta base, con la carne y la sangre de los fenómenos reales en toda su complejidad viva. Entre estos dos polos existe una larga y difícil ascensión de lo abstracto a lo concreto[3], pero gracias a esta ascensión pudo aportar Marx una solución a los enigmas que habían hecho capitular a la antigua economía política burguesa. Sean cuales fueren las envolturas concretas del valor de la plusvalía, sólo gracias al método de la elevación de lo abstracto a lo concreto las reconocemos con facilidad en todas sus complejas metamorfosis.

En relación a la tasa media de ganancia, que se encuentra íntimamente vinculada a los precios de producción, señala (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, págs. 376-377) que, en la marcha del análisis científico, la formación de la tasa media de ganancia aparece teniendo como punto de partida los capitales industriales y su concurrencia, siendo luego corregida, completada y modificada por obra de la interposición del capital comercial. En la trayectoria del desarrollo histórico, las cosas ocurren exactamente a la inversa. Es el capital comercial el que más o menos determina primeramente los precios de las mercancías y sus valores, siendo en la esfera de la circulación que sirve de vehículo al proceso de reproducción, donde se forma una cuota general de ganancia.” Se entiende que, si Marx se permitió tales “apartamientos” en relación con la línea fundamental del desarrollo histórico, no lo hizo sin tener serios motivos para ello. El análisis de estos últimos demostrará que el método lógico o analítico de investigación no es un simple reflejo de lo histórico, sino que, como lo dice Engels, es un reflejo “rectificado” según las leyes de la propia realidad histórica: Quienquiera haga caso omiso de las leyes, de la esencia de los fenómenos, no podrá dar más que una descripción superficial de su evolución ni logrará superar el nivel de la observación, aunque a veces ésta sea penetrante. La reproducción del proceso histórico en el pensamiento pierde toda su fuerza si no se basa en el conocimiento de las leyes motrices del proceso histórico. Se entiende con facilidad el misterio de la acumulación primitiva si ya se ha descubierto la esencia del modo de producción capitalista. Pero si esta última es desconocida, la exposición de la prehistoria del capitalismo se limitará a una descripción exterior de los acontecimientos de este período. Estos se nos aparecerán entonces como un amontonamiento caótico, privado de toda lógica interna. Se comprende, desde este punto de vista, por qué renunció Marx aquí a la sucesión histórica de los acontecimientos y comenzó por precisar la esencia del modo de producción capitalista, para sólo esclarecer luego el misterio de la acumulación primitiva del capital. Como lo estableció antes, la esencia del capital reside en la explotación por el capitalista, detentador de los medios de producción, de los obreros, privados de estos medios. Por consiguiente, para que el capital pueda aparecer y existir fue necesario todo un período histórico, en el cruce del cual la propiedad fue arrancada en forma gradual de mano de los propietarios directos y en el que los productores fueron separados de la propiedad. Tal es la esencia, la ley de la acumulación primitiva del capital. El estudio lógico de este problema exigía que los materiales fuesen dispuestos en un orden diametralmente opuesto al desarrollo histórico real.”

Complementariamente a lo antes expuesto, puede retomarse lo señalado por (Dussel, 1991, págs. 56-57) y afirmar que “No se trata de que las categorías o el orden del pensar produzcan la realidad (Hegel). No se trata de pensar que la realidad se manifiesta ya claramente en la representación plena (empirismo). No se trata tampoco de confundir el orden del pensar (categorías) con el de la realidad (en esto tiene razón Proudhon cuando distingue ambos órdenes). Pero tampoco debe pensarse que ambos órdenes están absolutamente separados, lo que determinaría que el orden de la sucesión o movimiento de las categorías es efecto del puro orden del pensar (idealismo, al fin). Pero tampoco puede pensarse que el orden de las categorías está determinado por su aparición en la historia (primero las categorías más antiguas y posteriormente las más modernas). No. El orden de las categorías (orden del pensar teórico, que surge de la realidad, pero no se confunde con la realidad) debe estar determinado por su posición sincrónica y esencial en la moderna sociedad capitalista. De esta manera el orden de las categorías (aunque sea un orden teórico) reconstituye la realidad en un orden abstracto, surgiendo desde la misma realidad (no desde las ideas). Pero la realidad a la cual el orden de las categorías hace referencia es la totalidad concreta, con múltiples determinaciones, que es la moderna sociedad burguesa. Veamos esto por partes. En primer lugar, las categorías no son puras ideas que surgen de las ideas; ni son la realidad misma: “Las categorías económicas (…) expresan formas de ser (Daseinsformen), determinaciones de existencia (Existenzbestimmungen), a menudo simples aspectos de esta sociedad determinada”. Lo real (“la moderna sociedad burguesa en este caso es algo dado tanto en la realidad (Wirklichkeit) como en la cabeza”) es el punto de partida de la abstracción. En lo real las determinaciones son momentos de su existencia, formas de ser de la misma sociedad. En cuanto abstractas son ya fruto de un acto analítico de separación metódica. Las determinaciones abstractas en tanto definidas son “conceptos”, y en cuanto “instrumentos” o “mediaciones” interpretativas son categorías. El orden que guardan entre sí las categorías es el mismo orden real que guardan las determinaciones como momento de la realidad de la sociedad burguesa concreta. Por otra parte, al comprender la realidad de la sociedad burguesa comprendo al mismo tiempo la realidad de las sociedades anteriores menos complejas. Pero, y es esencial, no puede confundirse la estructura de la sociedad burguesa con el “orden natural” de la economía válida para todas las épocas –es el fetichismo en el que caen los economistas burgueses: “La sociedad burguesa es la más compleja y desarrollada organización histórica de la producción. Las categorías que expresan (ausdrücken) sus condiciones y la comprensión de su organización permiten al mismo tiempo comprender la organización y las relaciones de producción de todas las formas de sociedad pasadas (…) [Sin embargo] ellas pueden contener esas formas de un modo desarrollado, atrofiado, caricaturizado, etc., pero la diferencia será siempre esencial (wesentlichem Unterschied)” (…)”

Un ejemplo simple y contemporáneo de cómo en el materialismo dialéctico las formas lógicas expresan la reorganización de las formas históricas (y esta reorganización es simultáneamente una conservación y una eliminación de los hechos como superación de estos en cuanto evidencia inmediata y su elevación a lo concreto pensado, es decir, la evidencia empírica no como mera representación plena[4], sino que reelaborada como insumo destinado a un proceso de análisis superior, al descrito anteriormente por Dussel en el descenso dialéctico antes presentado) se encuentra en el análisis del estado actual de las relaciones entre Estados Unidos y El Salvador. Como muestra (Lima, 2021), es ampliamente conocido que las relaciones económicas y políticas entre Washington y el gobierno de El Salvador atraviesan un momento de tensión nunca antes registrado, lo cual es un fenómeno de alta relevancia a nivel del análisis científico puesto que las partes involucradas han alcanzado en el pasado niveles de tensión importantes, como cuando un 3 de enero de 1981 el gobierno de El Salvador a través de las fuerzas armadas asesinó al presidente del Instituto Salvadoreño para la Reforma Agraria (IISTA) José Rodolfo Viera y a dos asesores enviados por el gobierno de Estados Unidos para la puesta en marcha de una reforma agraria (Mark David Pearlman y Michael Hammer), como señalan (Betancur, Figueredo Planchart, & Buergenthal, 1992-993, pág. 36).

¿Cuál es el origen del tenso estado de las relaciones entre Washington y el gobierno de El Salvador? En una primera mirada, las señales iniciales que anticipaban un deterioro entre las relaciones de las partes señaladas se pueden encontrar en diferentes momentos del tiempo con diferentes caracterizaciones cualitativas para cada uno de ellos:

  1. Intervención militar de la Asamblea Legislativa en febrero de 2020.
  2. Obtención de mayoría calificada en la Asamblea Legislativa en mayo de 2021.
  3. Remoción de los magistrados de la Sala de lo Constitucional en mayo de 2021 (posterior a la obtención de mayoría calificada).
  4. Cambio de inquilino de la Casa Blanca a inicios de 2021 (a causa de su grado de cercanía con Donald Trump, antagonista electoral del nuevo presidente Joe Biden).
  5. Acusaciones de corrupción a funcionarios del gobierno de Bukele.
  6. Señalamientos de que El Salvador es un narco-Estado.
  7. Adopción del Bitcoin como moneda de curso legal en El Salvador en septiembre de 2021.

Sobre la intervención militar de la Asamblea Legislativa en febrero de 2020, debe recordarse que Estados Unidos apoyó a las sangrientas dictaduras cívico-militares que de 1929 a 1979 controlaron las instituciones políticas del Estado salvadoreño, así como también es ampliamente conocido que lo hizo también en muchos otros países de América Latina durante la época de la guerra fría bajo el proyecto político de inteligencia y militar conocido como operación cóndor. En la actualidad continúa brindando su apoyo incondicional a gobiernos autoritarios y represivos, como los que hay en Honduras[5], Colombia[6] (reportes de represión) y Arabia Saudita, este último régimen incluso descuartizó a un periodista que incomodaba al régimen al interior de su propia embajada en Estambul, como señala (Corbin, 2019), ante el silencio cómplice de Washington. Desde Roma hasta la fecha, los imperios históricamente han basado su poder en la fuerza, por lo que no resulta lógico pensar que aspectos relacionados con los principios formales de las democracias occidentales contemporáneas puedan ser verdaderamente de interés para un imperio.

Sobre la obtención de mayoría calificada en la Asamblea Legislativa en mayo de 2021, fue la gran prensa opositora al gobierno de Bukele la que hizo eco de esta idea a raíz del artículo de (Paalberg & Valencia, 2021) publicado en The Washington Post. Como señala (EFE, 2021), en julio de 2021 el ex presidente salvadoreño Elías Antonio Saca confesó la existencia de una estructura de sobresueldos al interior de instituciones públicas, de cuya dinámica fue partícipe a través de la entrega irregular de dinero en efectivo a funcionarios de su gobierno, exfiscales y exmagistrados de la Corte Suprema de Justicia; Saca declaró que “Lo entregue creyendo que esto era legal porque así se ha venido haciendo por todas las Administraciones”, así como también que esta práctica al interior de las instituciones públicas (sin importar las banderas formales) era vista como una especie de “pagos compensatorios” y que los fondos provenían de una partida presupuestaria de gastos reservados (que no existe obligación jurídica de brindar información sobre su contenido), conocida como “partida secreta”. Lo anterior es sólo una manifestación del conjunto de acontecimientos políticos que prueban que fue una “adecuada” (¿para qué intereses?) estructura de pesos y contrapesos burocráticos la que permitió que los partidos que lideraron el proceso posguerra (ARENA y FMLN) instauraran en El Salvador el modelo económico neoliberal, que ha conducido en treinta años a un empobrecimiento sin precedentes en la nación salvadoreña, así como también a una contracción sin precedentes de la capacidad y diversidad productiva del país[7]. Por consiguiente, si Washington considera como positivo los pesos y contrapesos burocráticos para el caso concreto de El Salvador parecería que sólo puede significar que sus intereses son antagónicos a los intereses de la población salvadoreña o bien, que ignoran lo que ha ocurrido en el país bajo la dirección orquestal de los partidos antes mencionados, lo que en términos del sentido común y de los reportes de financiamiento a diversas ONG para desestabilizar al actual gobierno[8], parece ser poco verosímil; por supuesto, esto tampoco implica automáticamente que los intereses de Bukele sean los mismos que los del pueblo salvadoreño o parcialmente los mismos. Tanto por lo expuesto en este punto como en el anterior, debe descartarse entonces que la remoción de los magistrados antes mencionada pueda ser la causa real del estado de tensión en las relaciones entre la Casa Blanca y el gobierno de Bukele; en el escenario más favorable para esta hipótesis, a Washington no le molestó la remoción de magistrados en sí misma, sino que esa remoción fue una señal unívoca de que Bukele no estaba dispuesto a llegar a ningún entendimiento con los dos partidos políticos que históricamente habían sido instrumentos de Washington desde que terminó la guerra civil en El Salvador en la última década del siglo pasado para instalar el modelo neoliberal en dicho país, lo que puede haberlos puesto en un estado de alerta, pero nunca ser el fundamento de las actuales tensiones. También por lo expuesto en este punto se descarta que sean las acusaciones de corrupción a funcionarios del gobierno de Bukele, puesto que considerando la capacidad logística y de inteligencia de Washington a través de la CIA, es muy poco probable que en la Casa Blanca no estuviesen al tanto de los entramados de corrupción generados en la interacción entre sus dos fieles aliados (ARENA y FMLN); ello sin considerar que los integrantes del gobierno de Bukele provienen de las filas de las dos organizaciones partidarias en cuestión (cuya militancia duró décadas) como, por ejemplo, Walter Araujo, José Luis Merino y Sigfrido Reyes, quienes cometieron los delitos de los que se les acusa en épocas pasadas y por consiguiente es inevitable preguntarse ¿por qué aparece esa lista hasta ahora?

Serían los grandes medios de comunicación de El Salvador (principalmente los impresos, La Prensa Gráfica y El Diario de Hoy), que son opositores al gobierno de Bukele, quienes plantearían que el origen de las tensiones se encuentra en el cambio de inquilino de la Casa Blanca a inicios de 2021. Así, señala (El Diario de Hoy, 2021), en un artículo editorial, que en febrero de 2021 Bukele fue a Estados Unidos a pedir una audiencia cuando Biden había sido recientemente electo, cuando aún no se había nombrado al nuevo gabinete, regresando a El Salvador sin éxito; fue también en febrero de 2021, como señala (EFE, 2021), que el secretario de Estado Antony Blinken (Estados Unidos) habló por teléfono con la ministra de Relaciones Exteriores Alexandra Hill (El Salvador), para abordar temas relacionados a la migración y llamó a “crear oportunidades económicas” y “fortalecer las instituciones democráticas”. Como señala (García, 2021), durante el mes de marzo de 2021 Joe Biden designó al diplomático Ricardo Zúñiga como encargado para detener la migración irregular, responsabilizar a los socios regionales de Estados Unidos para “abordar las causas fundamentales de la migración y el aumento de las llegadas de niños no acompañados a la frontera sur de los Estados Unidos” e “implementar la política del presidente Joe Biden que implica 4,000 millones de dólares para abordar las causas de la migración”. Posteriormente, en abril, señala (Benítez, 2021) que el diplomático antes mencionado “confirmó que en su visita a El Salvador pidió una reunión con el presidente Bukele, pero no recibió respuesta”. A pesar de ello, sería Noah Bullock, director de la organización Cristosal[9], quien señalaría que “no va a generar un enfriamiento de la relación entre El Salvador y Estados Unidos” en el “corto plazo”, puesto que ambos países “están en una etapa de reajuste” y “tratando de encontrarse en un marco referencial de la relación”[10], lo que no significa otra cosa que el hecho de que las transiciones de gobierno por definición implican un reajuste de las relaciones que tenía el gobierno anterior (y una transición como la de Trump-Biden no podría ser la excepción) con los gobiernos de los demás países, por cuanto cada gobierno representará diferentes o distintos[11] intereses de la clase capitalista local e internacional y las relaciones con otros gobiernos estarán en función de la convergencia o divergencia respecto de esos intereses de clase.

En relación a los señalamientos realizados, entre otros funcionarios estadounidenses, por la congresista estadounidense Norma Torres, quien calificó a las administraciones de El Salvador y otros países de ser narco gobiernos, señaló Noah Bullock, en declaraciones recogidas en (EFE, 2021), que “Es mucho más fácil salir a comer langostas con el embajador Johnson que dialogar con Ricardo Zúñiga sobre el Estado de Derecho, la Carta Democrática de la OEA o temas de derechos humanos o corrupción”. Sin embargo, se ha visto en los puntos anteriores que estos temas no pueden ser de genuino interés para un imperio, menos para el estadounidense. Sin embargo, ¿qué es un narcogobierno? Como se señala en (Uno TV, 2020), originalmente se utiliza el término narco-Estado para designar a aquellos países cuyas instituciones políticas, con independencia de la bandera concreta que esgriman, se encuentran altamente influenciadas por el poder y las ganancias del narcotráfico, siendo característicos de los narco-Estados que un individuo desempeñe simultáneamente cargos públicos y cargos en las redes de tráfico de drogas. Un narco-Estado es una forma de gobierno en la cual interactúan el crimen organizado y las autoridades, permitiendo toda clase de actividades ilícitas al amparo de la ley, además de permitir actos de corrupción e impunidad. Bajo estas condiciones el crimen organizado es el que gobierna y controla determinados territorios del país, en donde dicho control se encuentra asociado a niveles significativos de violencia. En un narco-Estado también existe participación directa o indirecta de la sociedad civil, ya que muchas veces amplios sectores de la misma son cómplices y forman parte de las redes del crimen organizado, ya sea por fuerza, interés o necesidad. Cuando la congresista Norma Torres habla de “narcogobierno” parecería o bien estar empleando mal el término, o bien busca implicar que el entramado de corrupción por narcotráfico que inunda desde hace décadas las instituciones públicas salvadoreñas es característica rigurosamente exclusiva del gobierno de Bukele[12], lo cual evidentemente es falso. De manera complementaria, las características mediante las cuales se ha definido a grandes rasgos lo que es un narco-Estado describen adecuadamente a otra serie de países y gobiernos de esos países, como es el caso de Juan Orlando Hernández en Honduras[13], Álvaro Uribe en Colombia[14] o Enrique Peña Nieto[15], por mencionar únicamente algunos de tiempos recientes.

Así, únicamente resta analizar la hipótesis que establece que el origen del estado de tensiones entre Washington y el gobierno de Bukele se encuentra en la decisión de este último de adoptar el Bitcoin como moneda de curso legal en El Salvador. El principal constructor y partidario de esta hipótesis es José Dagoberto Gutiérrez Linares, célebre politólogo marxista salvadoreño, como se verifica en (Cabrera, 2021), así como también en el canal de YouTube InformaTVX (la plataforma de noticias digitales de mayor difusión en dicho país) y otros espacios noticiosos relativos a la actualidad salvadoreña.

La característica distintiva de las hipótesis que identifican el fundamento de las tensiones en motivos diferentes a la adopción del Bitcoin es que no habían existido consecuencias relevantes de dichas tensiones, más allá del polvo mediático levantado por la oposición y los intercambios vía Twitter entre Bukele y la congresista estadounidense Norma Torres. La característica distintiva de la adoptación del Bitcoin es que el Banco Mundial se negó a ayudar al gobierno de Bukele a implementar la moneda digital (BBC News Mundo, 2021) alegando motivos espurios: el impacto medioambiental (es un hecho bien documentado que se está realizando con energía renovable, específicamente la volcánica[16]) y la transparencia del proceso (el proceso de dolarización fue de transparencia equivalente[17] y no generó críticas por parte de la institución). Además, generó que el Fondo Monetario Internacional, institución que es propiedad de los Estados Unidos en términos de la cuota de voto que tal país tiene en dicha institución[18], chantajeara al gobierno salvadoreño para que retirara el Bitcoin como moneda de curso legal con el cese del crédito de la institución para el país en cuestión. Desde entonces, a diferencia con lo ocurrido con los hechos planteados como lo fundamental por las otras hipótesis, no ha existido una estabilización de las relaciones entre ambos países, sino que por el contrario las contradicciones se han agudizado, lo cual, dado todo el panorama antes expuesto, parecería indicar que ha ocurrido en la medida que el gobierno salvadoreño ha mantenido y profundizado su decisión de implementar el Bitcoin como moneda de curso legal en El Salvador. Establecido lo anterior, entonces sí pueden tomarse los demás hechos en consideración (porque es evidente que han generado fricción y es parte de la conservación dialéctica antes mencionada -que implica la conservación de algunos de ellos-), específicamente como complementarios (es decir, relevantes, aunque inesenciales) al núcleo del problema en cuestión, aún cuando algunos de ellos se hayan suscitado antes de la adopción del Bitcoin en la dinámica temporal y la razón es bastante sencilla de justificar: las demás tensiones por sí mismas no podrían generar una ruptura real en las relaciones entre Estados Unidos y El Salvador, por lo que en sí mismas son irrelevantes, pero sumándose a una razón que sí tiene tal capacidad (la adopción del Bitcoin como ruptura fáctica y formal de El Salvador con el sistema financiero internacional establecido alrededor del dólar estadounidense y lo que el éxito de su adopción puede implicar en cuanto ejemplo de rebeldía financiera para otros países -sin que esta rebeldía implique un destino final exitoso, pero sí es indudablemente un camino válido frente a la tiranía financiera internacional del dólar estadounidense, en una primera mirada quizás el único de rápida implementación-) su efecto puede ser relevante.

En suma, a la luz de un estudio riguroso del fenómeno político utilizado como objeto de estudio, es decir, uno a la luz de la teoría del materialismo dialéctico y de todos los hechos acaecidos desde que empezaron las tensiones entre Washington y el gobierno de Bukele, puede constatarse que la eliminación y conservación (que como se ha visto implica una reordenación) ocurren simultáneamente. Por ejemplo, en el caso de estudio mencionado, se elimina lo que representa una suerte de engaño respecto de la esencia de la realidad. Este es el caso de la apariencia de un Washington molesto rigurosamente por la intervención militar de Bukele de la Asamblea Legislativa, puesto que la luz de la totalidad (uno de los elementos de esa totalidad es el apoyo de Washington a cruentas y sangrientas dictaduras cívico-militares en el pasado y en el presente), eso pudo haber molestado a Washington sólo en la medida que expresaba la posibilidad de un rompimiento real con el sistema político instaurado por ellos mismos con ayuda de ARENA y el FMLN; pero ¿qué es eliminar? Como explicó antes Hegel, algo es eliminado sólo en cuanto ha llegado a ponerse en la unidad con su opuesto, lo cual significa que las características inesenciales o formales no son eliminadas en cuanto desaparecidas de alguna manera del análisis dialéctico, sino en cuanto son subsumidas precisamente a manera de consecuencia del proceso (contenido) de cuya esencia emana su calidad de consecuencia.

Por otro lado, se conserva lo que es componente de las relaciones que conforman la esencia o, en su defecto, es al menos complementario (sea como elemento de las relaciones que conforman el contenido o como elemento de las relaciones formales, siendo estas últimas las más exteriores/superficiales/inmediatas, es decir, la manifestación externa dada directamente a los sentidos de alguna parte de la esencia del ser de la cosa; la forma de los fenómenos/cosas es conocida también como apariencia en la esfera de la ontología, mientras que fenómeno se emplea en la esfera de la gnoseología y forma en la esfera de la lógica, aunque por la equivalencia y organicidad de las tres esferas en el materialismo dialéctico los tres términos son intercambiables siempre que no sea de rigor un nivel máximo de precisión filosófica).

Así, como señala (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, págs. 289-291), la concepción marxista de la abstracción científica puede ser reducida a tres momentos fundamentales:

  1. Luego del contacto directo con la realidad, ésta se nos aparece como una masa de fenómenos y de objetos singulares, a primera vista carentes de vinculaciones mutuas, caótica, etc. La importancia de la abstracción científica reside en el hecho de que, según la expresión de Marx, arroja luz sobre la unidad de estos fenómenos, sobre lo que tienen de idénticos. Por ejemplo, en la diversidad de los fenómenos de la naturaleza, el pensamiento establece, por la vía de la abstracción, su conexión interna, su unidad, su elemento común. Esta unidad es el hecho de que todos son materiales, son manifestaciones de la materia en su evolución. Los conceptos que resumen los resultados de esta abstracción son “reducciones”, formas que expresan las propiedades comunes de una multitud de cosas diferentes. La historia de la ciencia atestigua la importancia de las abstracciones como “reducciones” de este tipo. Por ejemplo, antes de que la ciencia elaborara la noción abstracta ·de materia, cosa que permitió reducir los múltiples fenómenos de la naturaleza a la materia y a las diversas formas de su movimiento, la naturaleza era dividida artificialmente en “cualidades” particulares, en “sustancia imponderable”, etc. Sólo la noción abstracta de materia permitió establecer la unidad, la comunidad de todos los fenómenos y procesos de la naturaleza, reducirlos a su esencia más general y extirpar de la ciencia las “sustancias” misteriosas e incognoscibles. La abstracción considera, pues, lo que es común a una multitud de cosas singulares. Sin embargo, la abstracción científica no se interesa en la totalidad de los elementos comunes, sino sólo en los que expresan la esencia, la causa de los fenómenos concretos. Por lo tanto, la abstracción permite al conocimiento reducir toda la multiplicidad y la diversidad de los fenómenos a su esencia y entender sus propiedades y sus aspectos decisivos, fundamentales.
  1. La visión directa de la realidad hace creer que ésta está henchida de casualidades, que todo está sometido a modificaciones y a fluctuaciones accidentales, y que no existe en esta sucesión de fenómenos nada estable ni duradero. La importancia de la abstracción científica, según Marx, reside en el hecho de que por detrás de la contingencia permite percibir la necesidad, la ley que determina el curso objetivo del desarrollo y de las modificaciones. La unidad y la universalidad descubiertas por el pensamiento, por medio de las abstracciones, en la masa de los fenómenos, no son otra cosa que la ley de estos últimos, el elemento relativamente duradero y estable que se conserva y se manifiesta en la infinidad de las cosas y de los procesos. “La forma de la universalidad de la naturaleza -dice Engels- es la ley (…) ” Por ejemplo, la ley de la conservación y de la transformación de la energía es una forma de universalidad, porque es el elemento necesario y regular sobre el cual se basan las formas más concretas de los movimientos, de las modificaciones, de las transformaciones que se cumplen en la materia. Del mismo modo, la ley del valor es la forma de la universalidad en el mundo de la producción mercantil, porque es la necesidad que se manifiesta de una o de otra manera en los movimientos y los cambios más diversos que en ella tienen lugar.
  1. El resultado de los dos primeros puntos es que la fuerza de abstracción es una fuerza de generalización, y que ésta se efectúa separando lo no esencial, lo contingente, lo particular, lo concreto, para tener sólo en cuenta el elemento común y esencial, propio de la masa de los fenómenos singulares. De tal modo, haciendo abstracción del hecho de que las mercancías intercambiadas la una por la otra, son fundamentalmente distintas, Marx descubrió por generalización el elemento único y esencial que constituye el contenido de estas cosas singulares: su valor. Por consiguiente, por medio de la generalización se descubren las leyes de los fenómenos, y las abstracciones científicas son el instrumento de esta generalización. De así su fuerza.”

Adicionalmente, señala que “(…) Marx, cita, asimismo, ejemplos de otro orden, que demuestran que las relaciones económicas más desarrolladas pueden existir y existen en ausencia del dinero; se trata, en especial, de la cooperación, de la división del trabajo, etc. Al respecto agrega que las categorías más sencillas sólo se manifiestan plenamente en una etapa superior del desarrollo histórico. Su demostración toma como ejemplo el trabajo abstracto. Esta categoría era conocida en la antigüedad, pero sólo en la sociedad burguesa, cuando recae sobre el trabajo en general, y no sobre sus formas concretas, un papel decisivo, y cuando un trabajo determinado se torna “accidental y por con­ siguiente indiferente” para el individuo, la categoría del trabajo en general se convierte en “prácticamente verdadera”.” (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, pág. 370).

“La respuesta que da Marx al problema de la correlación entre lo lógico y lo histórico se reduce a decir que la marcha ascendente del pensamiento de lo abstracto a lo concreto debe reflejar en su conjunto los grandes lineamientos del proceso histórico real. Pero no se trata de un reflejo simple, fotográfico; es un reflejo complejo, que incluye la etapa consistente en apartarse de la reproducción exacta del proceso histórico.” (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, pág. 371).

“Engels da la misma respuesta (…) Habla de los métodos lógico e histórico de investigación. Como indica que, en sus grandes lineamientos, el desarrollo histórico va en general de las relaciones más simples a las más complicadas, se podría creer a primera vista c1ue el método justo consiste en seguir lo más cerca posible el proceso de este desarrollo. Pero en la práctica este método obligaría a repetir todos los “saltos y zigzagueos” de la historia, y entonces resultaría difícil descubrir la lógica del desarrollo; el avance del pensamiento se interrumpiría a menudo. Aquí, dice Engels, sólo el método lógico es aceptable. El método lógico de investigación busca, según Engels, conocer la lógica interna del desarrollo de un fenómeno dado. ¿Se sigue de ello que el método lógico sea diametralmente opuesto al método histórico? En modo alguno. Engels indica que en rigor no es más que “(…) el método histórico, despojado únicamente de su forma histórica y de las contingencias perturbadoras. Allí donde comienza esta historia debe comen· zar también el proceso discursivo, y el desarrollo ulterior de éste µo será más que la imagen refleja, en forma abstracta y teóricamente consecuente, de la trayectoria histórica; una imagen refleja corregida, pero corregida con arreglo a las leyes que brinda la propia trayectoria histórica; y así, cada factor puede estudiarse en el punto de desarrollo de su plena madurez, en su forma clásica.”(…)” (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, pág. 371).

Por supuesto, se despoja de su forma histórica precisamente para eliminar sus contingencias perturbadoras. Esto sigue la misma lógica, por ejemplo, que cuando en el procesamiento de datos se escalan las observaciones con base en el logaritmo natural para eliminar o mitigar el problema de varianza variable en el conjunto de datos estudiado.

“En nuestra marcha ascendente de lo abstracto a lo concreto debemos, por consiguiente, seguir la evolución histórica real de las relaciones económicas. Por otra parte, sería un error creer que el análisis teórico debe considerar las categorías eco­ nómicas únicamente en el orden dictado por el curso del des­ arrollo histórico. Marx y Engels estimaban que, de los dos métodos posibles, el método lógico de estudio de la producción capitalista era el único admisible. Por lo demás, el punto de vista lógico y el punto de vista histórico no aparecen para ellos como dos caminos independientes, sino como dos caminos indisolublemente vinculados al método de estudio que llamaron lógico o analítico.” (Rosental M. , Los problemas de la dialéctica en “El Capital” de Marx, 1961, pág. 372).

II.I. IV. La Esencia

II.I. IV. I. Generalidades

De manera introductoria, como señalan (Rosental & Iudin, 1971, pág. 147), la esencia es el sentido de la cosa dada, aquello que la cosa es en sí misma, a diferencia de todas las demás y de los estados variables de la cosa al experimentar el influjo de tales o cuales circunstancias. Este concepto es muy importante para todo sistema filosófico, para distinguir los sistemas filosóficos desde el punto de vista de la solución que se da al problema de cómo la esencia se relaciona con el ser y de cómo la esencia de las cosas está relacionada con la conciencia, con el pensar. Para el idealismo objetivo, el ser, la realidad y la existencia se encuentran en dependencia de la esencia de las cosas, entendida como algo independiente, inmutable y absoluto. En este caso, las esencias de las cosas forman una realidad ideal peculiar, que engendra todas las cosas y las rige (como en Platón y Hegel). Para las tendencias idealistas subjetivas, la esencia es una creación del sujeto, que proyecta fuera de sí la esencia y la representa bajo el aspecto de cosas. El materialismo dialéctico reconoce la realidad de la esencia objetiva de las cosas y de su reflejo en la conciencia. La esencia no existe fuera de las cosas, sino en ellas y a través de ellas, como su principal propiedad general, como su ley. El conocimiento humano va asimilando gradualmente la esencia del mundo objetivo, cada vez ahonda más en él. Este conocimiento se utiliza para influir retroactivamente sobre el mundo objetivo con vistas a su transformación práctica.

Para un abordaje más profundo de la esencia, se debe distinguir entre forma de existencia o fenómeno, existencia o realidad en general y lo real o esencial desde el punto de vista del materialismo dialéctico[19]. Como señalan (Rosental & Iudin, 1971, págs. 148, 190-191), se llama fenómeno al conjunto de propiedades y relaciones del objeto diversas, externas, móviles, inmediatamente accesibles a los sentidos y representa el modo como la esencia se manifiesta, se revela.

Esencia y fenómeno constituyen una unidad: así como no puede haber esencias “puras”, que no aparezcan, tampoco hay fenómenos carentes de esencia; “La esencia aparece. El fenómeno es esencial” (V. I. Lenin, t. XXXVIII, pág. 249). La unidad de esencia y fenómeno se revela, asimismo, en el hecho de que se transforman una en otro y recíprocamente. Lo que en cierto tiempo (o relación) es esencia, en otro tiempo (o relación) puede convertirse en fenómeno, y viceversa. Sin embargo, la unidad de esencia y fenómeno es internamente contradictoria, ellos mismos son aspectos de una contradicción. La esencia aparece como lo determinante; el fenómeno, como lo determinado; el fenómeno se da de manera inmediata; en cambio, la esencia se halla oculta; en cuanto a los rasgos, el fenómeno es más rico que la esencia, pero ésta es más profunda que el fenómeno; la esencia en un objeto es siempre una, aunque se manifiesta en una multiplicidad de fenómenos; el fenómeno es más móvil que la esencia; un mismo fenómeno puede ser manifestación de esencias variadas e incluso contrarias; el fenómeno puede expresar la esencia tergiversadamente, de manera inadecuada (como mera apariencia). Sin embargo, la contradicción existe no sólo entre esencia y fenómeno, sino, además, dentro de la esencia misma, y estas contradicciones son las fundamentales del objeto, cuyo desarrollo global determinan. En oposición a la ontología idealista, la ontología del materialismo dialéctico reconoce la mutabilidad de la esencia. La contradicción entre esencia y fenómeno condiciona el carácter complejo y contradictorio del proceso del conocimiento, “(…) si la forma de manifestarse y la esencia de las cosas coincidieran directamente, toda ciencia sería superflua” (C. Marx y F. Engels, t. XXV, parte II, pág. 384). Profundizar sin límites desde el fenómeno hacia la esencia, descubrir la esencia de las cosas tras los fenómenos externos, hallar el fundamento de por qué la esencia se manifiesta de una manera y no de otra, tal es el fin del conocimiento. Por medio de la contemplación inmediata, el hombre entra en conocimiento de las cosas que figuran en la superficie, entra en conocimiento de los fenómenos. El conocimiento de la esencia se logra gracias al pensamiento abstracto. En la ciencia, el tránsito del conocimiento del fenómeno al conocimiento de la esencia adquiere el aspecto específico de paso del experimento (la observación) a la explicación a través de la descripción.

Por tanto, el fenómeno como modo o forma de existencia se encontrará en armonía transitoria con el contenido, puesto que, aunque la forma exprese el nexo interno y el modo de organización, de interacción de los elementos y procesos del fenómeno tanto entre sí como con las condiciones externas, su unidad con la esencia que expresa es relativa, transitoria puesto que se altera a raíz de los cambios generados por las contradicciones, tanto entre la misma forma y el contenido como entre los componentes que integran el contenido, especialmente entre los que integran la base o esencia de este contenido[20].

Así, a pesar de que ambas categorías (forma y contenido) ponen de manifiesto las fuentes internas de la unidad, de la integridad y del desarrollo de los objetos materiales, al ser el contenido el conjunto de los elementos y procesos que constituyen la base de los objetos y condicionan la existencia, el desarrollo y la sustitución de sus formas, la fuente de las contradicciones entre forma y contenido (que implica lo mediato de los procesos, que tiene como fundamento a la esencia, al igual que toda la existencia o realidad en general) radica en la diferencia de sus funciones en el desarrollo: el contenido es la base del desarrollo, la forma es el modo de existencia de la cosa; el contenido posee movimiento propio, la forma depende de él; el contenido encierra en sí posibilidades de desarrollo sin fin, la forma lo limita; el contenido es el elemento rector del desarrollo, la forma posee una independencia relativa, puede facilitar u obstaculizar el desarrollo, etc. El cambio de forma tiene lugar como resultado de un cambio en el contenido mismo, lo cual condiciona su función rectora en el desarrollo. La forma nunca permanece invariable. Pero, el cambio de la forma, su eliminación, no siempre se produce de golpe; lo frecuente es que tenga lugar como resultado de una acentuación gradual de las contradicciones entre forma y contenido. Además, sobre los cambios de forma ejercen también determinada influencia condiciones exteriores, factores y nexos que no conciernen directamente al contenido. La forma posee una independencia relativa que se intensifica tanto más cuanto mayor es la historia de la forma dada. La estabilidad de la forma es un factor que garantiza el desarrollo progresivo del contenido. Pero esa misma estabilidad que en las primeras etapas estimula el desarrollo, se transforma con el tiempo en fuente de conservadurismo. Las contradicciones entre forma y contenido no lo son de una parte pasiva y otra activa. El proceso real acontece como resultado de su acción recíproca en cuanto contrarios que influyen activamente en el desarrollo. La falta de correspondencia entre la forma y el contenido, debida al retraso de la primera respecto al segundo, aunque es de gran importancia para el desarrollo, caracteriza tan sólo una de las contradicciones de este último. La solución de las contradicciones entre forma y contenido depende del carácter que aquéllas tengan, de su grado de desarrollo y de las condiciones en que se produzcan. La solución puede ocurrir mediante el cambio de la forma en consonancia con los cambios del contenido, mediante el cambio del contenido en consonancia con la nueva forma, mediante el rechazo de la forma, la subordinación de la vieja forma al nuevo contenido, etc. Al pasar de un estado cualitativo a otro, o bien se liquida la vieja forma o bien se transforma, con la particularidad de que la vieja forma no puede liquidarse antes de que en ella misma se hayan preparado las premisas y los elementos para pasar a una forma más perfecta. Éste es el proceso dialéctico de la «superación», en la cual la vieja forma raras veces se desecha por completo y de manera absoluta; la nueva forma no siempre se convierte, de golpe, en dominante, sino que empieza a prevalecer gradualmente; las viejas formas aseguran el desarrollo en menor medida que las nuevas y por este motivo la nueva forma, con el tiempo, ocupa un lugar cada vez más importante. Semejante carácter de la «superación» de la vieja forma hace también posible un desarrollo regresivo, la restauración de las viejas formas. La dialéctica del contenido y de la forma se manifiesta brillantemente en el proceso de constante renovación y progreso de la sociedad.

Por otro lado, la realidad en general, es decir, la realidad objetiva en toda su concreción, es, como señalan (Rosental & Iudin, 1971, pág. 391), aquello que realmente existe y se desarrolla, contiene en sí mismo su propia esencia y sus propias leyes, así como los resultados de su propia acción y desarrollo. En este sentido, la realidad se distingue no sólo de todo lo aparente, imaginario y fantástico, sino, además, de lo que es solamente lógico (concebido), aunque esto último sea por completo justo; también se diferencia de todo lo que sólo es posible, probable, aunque aún no exista.

Finalmente, como señalan (Rosental & Iudin, 1971, pág. 391), lo real es ser de las cosas en su contraposición con el no ser y también con otras formas (posibles, probables, etc.) del ser. En la historia de la filosofía, se ha distinguido con singular precisión lo real diferenciándolo de la realidad, es decir, lo real se ha concebido, la mayor parte de las veces, como el ser de algo esencial en la cosa dada, como ser de sí misma; mientras que por realidad se ha entendido la presencia de todo lo esencial y no esencial en la cosa. Lo real se ha interpretado, comúnmente, como el ser de algo con exclusión de todo lo casual contenido en él, es decir, de algo que no está vinculado necesariamente con el ser dado.

II.I. IV. II. La Esencia como Fundamento de la Existencia

Partiendo de lo expuesto en (Zubiri, 1985, págs. 39-44) y reinterpretándolo desde el materialismo dialéctico, la esencia es lo real del concepto como: 1) lo concebido, 2) como la concepción misma, i.e., el acto de concebirlo y el pensamiento en y con que lo concibo. En la historia de la filosofía la diferencia entre el concepto objetivo y el concepto formal es la diferencia entre concebir la esencia como lo concebido o concebirla como la concepción misma. La visión antes presentada, que unifica lo objetivo con lo formal, es posible porque el materialismo dialéctico unifica ontología materialista (a la cual le corresponde una estructura lógica) con gnoseología materialista (donde se construyen las determinaciones formales del pensamiento y a la cual le corresponde la misma estructura lógica que a la ontología en cuestión), como antes se ha explicado. Sin embargo, lo anterior no significa que, al igual que Hegel, la realidad se conciba como lógica en tanto idea, sino como lógica en cuanto la realidad material evoluciona incesantemente bajo la dirección de determinadas leyes generales de carácter objetivo (i.e., independientes de la voluntad del ser humano) que pueden ser representadas bajo determinadas estructuras lógicas adecuadas.

«Ser» es «tan sólo ser» en cuanto es pura inmediatez, es apariencia (y esta apariencia no necesariamente es, como se ha visto antes, equivalente a su forma). En la inmediatez todas las cosas están niveladas en cuanto todas las cosas «son» y son «igualmente». Así, en la inmediatez reina el caos (ausencia de patrón sistemático) o, en el mejor de los casos, el criterio huérfano de la uniformidad (patrón sistemático uniforme o cuasi-uniforme). Atendiendo al sólo hecho de ser, todas las cosas (componentes de un sistema referencial, i.e., de una realidad dada) tienen el mismo rango (nivel, categoría, peso, importancia, relevancia, etc.). La inmediatez es, por tanto, pura indiferencia y, por tanto, dispersión.

No se trata de lo esencial de una cosa, sino de la esencialidad del ser. Todas las características de una cosa consideradas como características que meramente «son», constituyen lo inesencial; la inesencialidad es justo la pura indiferencia de ser. Pero todas estas mismas características concebidas como «brotando» de la interioridad de la cosa que «es», son lo esencial de ella, lo esencial en el ser, lo cual implica una reorganización de la forma como se presentan estos hechos/características en la representación (que comprende la forma en que la realidad es capturada de forma inmediata por los sentidos e inclusive, dependiendo del escenario concreto, de la forma en que son registrados por los instrumentos de medición) de los hechos/características que conforman el fenómeno/cosa estudiada, implicando esta reorganización a su vez una jerarquización de tales hechos/características. La interioridad de la cosa que «es», de la que emanan las características antes meramente enlistadas en la representación plena, es, ateniéndose a la aplicación del materialismo dialéctico hecha por Marx al analizar la sociedad capitalista (el materialismo histórico), la base de la esencia. Así, por cuanto la esencia está en el proceso, el proceso posee una base o esencia que funciona como su atractor o punto fijo[21] (es decir, punto de partida y de llegada, aunque no en el sentido de las simulaciones numéricas, sino en el sentido del desarrollo dialéctico en espiral[22]).

Por tanto, cuando Marx plantea las categorías «base económica» y «superestructura ideológica» está haciendo distinción de cómo la sociedad capitalista aparece frente al científico social (como un conjunto de instituciones políticas, jurídicas, artísticas, etc., así como otras expresiones ideológicas individuales de sus miembros integrantes y de asociaciones parciales entre tales miembros), es decir, las formas ideológicas como lo inesencial (en cuanto la superestructura ideológica es un resultado de la base económica), mientras que la base económica como la esencia del proceso mismo; por supuesto, esto no significa que la ideología no sea relevante, por el contrario, es un hecho probado tanto a nivel de la práctica política y de la práctica social en general la ideología que la ideología desempeña un papel fundamental como «sedimento» indispensable en el establecimiento de las relaciones de poder -que son en última instancia relaciones de dominación de una clase sobre otra- que permiten la organización de todos los aspectos de la vida de la sociedad en función de determinadas relaciones sociales de producción). La existencia de una base permite jerarquizar las características del ser de la cosa dada alrededor de un centro de gravitación (como es, por el ejemplo, el caso de los precios de producción alrededor de los valores-trabajo). La esencia es el lugar intermedio entre el «Ser» y el «Concepto» por cuanto la esencia está en el proceso o tránsito de lo concreto a lo concreto pensado, proceso anclado a un conjunto de relaciones que constituyen su base o fundamento, es decir, la esencia como tal de la que emanan todas las demás relaciones que conforman la cosa dada.

Como señala (Hegel G. W., Filosofía de la Lógica, 2006, pág. 127), la esencia es autoidentidad, sin embargo, no autoidentidad formal (del intelecto) como lo concibe Hegel, aunque sí es cierto que esta puede ser expresada como una autoidentidad formal sin renunciar a la concepción materialista de la realidad, i.e., partiendo de la subordinación de las ideas a la materia. Es autoidentidad por cuanto la esencia/verdad está en el proceso y los diferentes momentos de dicho proceso son precisamente los diferentes momentos o despliegues del desarrollo del «Ser» (que es su atractor/punto fijo), aunque, como se ha explicado antes, no del ser de las cosas tomado como representación plena sino como ser conceptuado en el sentido por Dussel antes explicado en la sección anterior. La esencia es autoidentidad por cuanto la base, conjunto generador o conjunto de relaciones fundamentales se replica a sí misma en los momentos del proceso a través del mismo proceso en tanto esta base o esencia conforma la estructura interna de dicho proceso, por ello no se trata de la esencia de las cosas sino de la esencialidad del «Ser» de las cosas, lo que implica que la diferencia entre esencial e inesencial no es una diferencia de características, sino, por así decirlo, una diferencia de condición.

La finitud de la razón humana, como la de todas las demás cosas, consiste en no tener aún completamente en sí misma el fundamento (lo real) de lo que se expresa a través de su concepto[23]. El ser mismo en cuanto fundamentado en la esencia (en el conjunto de leyes científicas fundamentales que rijan el sistema de referencia) es lo que entiende el materialismo dialéctico por existencia. En virtud del conjunto de leyes científicas fundamentales pertinentes, las cosas antes de existir ya «son», porque en la existencia actual se encuentra el germen de su desarrollo y ulterior aparición (germen, desarrollo y aparición sujetos a ley científica) o manifestación fenoménica, lo que evidencia que la existencia es una salida desde la esencia. En su virtud, lo que la cosa real es, es algo que «ya era»; por esto lo que ya era es esencia, o, lo que es lo mismo, la verdad sobre las contradicciones presentes está en el pasado y en el futuro están las consecuencias teleológicas[24] de la resolución tales contradicciones. En definitiva, las cosas son, pero «no» simplemente «son». Este «no» es la esencia en su pura negatividad, es la esencia en tanto negación del ser apariencial, de la mera apariencia; sin embargo, este segundo momento estructural de la esencia como negatividad (donde niega al ser apariencial, a la mera apariencia o forma de los fenómenos/cosas), es decir, de la construcción de categorías teóricas (determinaciones formales del pensamiento) de carácter abstracto como una primera etapa de modelación de la realidad, implica que con antelación ocurrió un primer momento estructural de la esencia como negatividad: para llegar a tal negación de la apariencia, debe haber sido necesario antes un proceso de reflexión del ser llevado a cabo por la razón (la esencia como reflexividad del ser, como el proceso de reorganización de las características enlistadas en la representación plena hasta llegar al segundo momento). De los dos momentos estructurales de la esencia como negatividad antes descritos, se desprende un tercer momento de la esencia como negatividad, el cual sintetiza dialécticamente a ambos: la esencia como fundamentalidad (fundamento de la existencia), como momento estructural en el cual las construcciones abstractas (las categorías teóricas) deben poder explicar de manera óptima[25] una totalidad concreta históricamente condicionada (condicionada por el efecto de variables fundamentales de largo plazo de naturaleza material y carácter objetivo).

Así, en la esencia se unifican la ontología, la lógica y la teoría del conocimiento, desplegándose a manera de proceso como explicación de la existencia congruente con el hecho de que la materia evoluciona al punto de generar vida orgánica consciente que es capaz de pensar el entorno material dentro del cual se encuentra, al cual pertenece y del cual es componente integrante simultáneamente. Así, al sintetizar dialécticamente al ente pensante (Ser Para-Sí, Lo Particular, el ser humano) con la Naturaleza (Ser En-Sí, Lo Universal Concreto[26], la realidad) a través de la Razón (en cuanto el ente pensante es tal por su uso de la razón), se obtiene un resultado cuyo proceso contiene la verdad (Ser En-Sí-Para-Sí, Lo Universal Concreto-Pensado, la explicación de la existencia de la cosa dada).

La esencia no es algo que se mueve sino el movimiento mismo de interiorización. Este movimiento es el movimiento concipiente. Al concebir una cosa la concibo como «siendo»; pero al hacerlo la concibo «ya» con una interioridad. Es decir, mi movimiento concipiente concibe la realidad preconcibiéndola interiorizada. La esencia de la encina no es ninguno de los tres momentos (semilla, árbol, fruto) tomados por sí mismos, ni tan siquiera lo es su unidad procesual. Al revés; la esencia es algo pre-procesual. El devenir y sus momentos son lo que son, precisamente por ser el devenir de algo que «ya era» una encina. LIamémoslo «ser-encina». ¿Qué es para Hegel este previo ser-encina? No es poseer los caracteres formales de la semilla, ni los del árbol, ni los del fruto; es decir, no es ser como es la semilla, ni como es el árbol, ni como es el fruto. Pero tampoco es el proceso o devenir «puro» que de uno de los términos lleva al otro; porque como «puro», el proceso es siempre un «ir» desde el uno al otro, mientras que en el ciclo de la encina (como en el de cualquier otra cosa) se trata de un «ir» que está «ya» internamente «cualificado», cualificación en virtud de la cual el proceso es intrínsecamente un proceso «encinil» (relativo a la encima) y no un proceso, por ejemplo, «canino». Este carácter del proceso en cuanto tal, es lo que Hegel entiende por «ser-encina», esta es la «esencia» de la encima.

Para Hegel no es algo que cualifica al devenir a consecuencia de que «viene-de» o de que «va-a» un término, sino que, por el contrario, es el carácter que predetermina la índole formal de cada uno de los tres términos. El proceso termina en una bellota o parte de ella, o se expande en un cierto árbol, porque el proceso es ya en sí mismo «encinil». La encina «primero» es semilla, «luego» la encina es árbol, «finalmente» la encina es fruto, pero «siempre» está siendo lo mismo: encina. El ser-encina predetermina, pues, sus tres momentos. Es una moción interna, una automoción, el dinamismo interno e intransitivo de la realidad; es un movimiento intransitivo, tanto un movimiento de interiorización y exteriorización, y al ser intransitivo no nos saca de la cosa misma: es un auto-movimiento y es por ello que la esencia no es algo que se mueve sino el movimiento mismo de interiorización.

La esencia es así la determinación interior del ser, lo que forzosamente concebimos al concebir a éste; su supuesto intrínseco. En esto consiste su verdad: la esencia es la verdad radical. Recíprocamente, el ser, es decir, la cosa en su devenir y con todas sus notas no es sino «manifestación» de la esencia, de su interioridad. Y en esto consiste su verdad: el ser real es verdad fundada. Lo que en Marx aparece como Lo Concreto Pensado, en Hegel aparece bajo el nombre de Idea: es el concepto explícito y formal del concepto mismo como concepción general de la cosa real. Gnoseológicamente hablando (lo cual tiene un fundamento ontológico y lógico), este último es el tercer y definitivo estadio de la realización de la razón. En dicho estadio, la razón se concibe a sí misma como pura concepción formal; es la concepción de la concepción y, por tanto, de la realidad toda como «concepto» de la razón. En esta entrada de la razón en sí misma, en esta autoconcepción, tenemos el término final de la marcha de la concepción: como idea, la razón, al concebir las cosas, se realiza concipientemente a sí misma como realidad absoluta, única y radical. Por tanto, para Hegel, descubrir la esencia de algo es construir conceptualmente, especulativamente[27], los supuestos de su realidad; es re-engendrar la cosa.

Finalmente, puesto que se ha hablado de la eliminación/conservación como superación dialéctica, es importante resaltar la analogía existente entre la superación dialéctica así establecida y los operadores de aniquilación y creación[28] de la mecánica cuántica, esta analogía es posible porque la aniquilación aparece como eliminación parcial (lo que implica por antonomasia conservación también parcial), porque dicha aniquilación aparece como neutralización y porque la creación aparece como superación que toma como base la conservación parcial.

En mecánica cuántica, el proceso de aniquilación partícula-antipartícula expresa el encuentro antagónico entre una partícula material y su respectiva antipartícula[29], en el cual la totalidad de la masa de ambas partículas se transforma en energía y/u otras partículas. La formalización de la aniquilación y creación cuántica se logra a través de los operadores de aniquilación del álgebra. Como se señala en (Feynman, 1982, pág. 151), los operadores de aniquilación son aquellos operadores matemáticos que disminuyen en una unidad la cantidad de partículas de un sistema cuántico referencial, mientras que los operadores de creación la aumentan en la misma magnitud y se definen como el operador adjunto[30] del operador de aniquilación. Debido al hecho de que la aniquilación partícula-antipartícula implica la supresión (eliminación o aniquilación en la forma antes establecida) de las partículas elementales como tales y su transformación cualitativa posterior en energía (que servirá para nuevos procesos físicos) o nuevas partículas, la aniquilación cuántica implica por consiguiente que “Algo es eliminado sólo en cuanto ha llegado a ponerse en la unidad con su opuesto”, como señala Hegel.

Así, puede observarse también la analogía del proceso de superación dialéctica no sólo con el proceso de aniquilación-creación de sistemas cuánticos, sino también con los aniquiladores algebraicos. Un campo es un conjunto en la cual la adición, substracción, multiplicación y división están definidas y se comportan tal como lo hacen al operarse números racionales y reales en general. Un anillo es una estructura algebraica que generaliza el concepto de campo de tal forma que la multiplicación no necesita ser conmutativa y los inversos multiplicativos no necesariamente existen. En suma, un anillo es un conjunto equipado con dos operaciones binarias que satisfacen propiedades análogas a las de la adición y multiplicación de números enteros. También en teoría de anillos, un ideal de un anillo es un subconjunto de dicho anillo con ciertas propiedades de absorción respecto de sus elementos. Específicamente, un ideal es un subconjunto I de elementos en un anillo R que forman un grupo aditivo (estructura algebraica que tiene como operación binaria o una de sus operaciones binarias la adición) y que tiene la propiedad de que, siempre que xR y yR, xy y yx pertenecen a I; puede verse como una especie de validación local de la propiedad conmutativa, puesto que los anillos en general no son necesariamente conmutativos en términos globales (que todo subconjunto de sí tenga la propiedad de conmutatividad) .

Los ideales algebraicos son una generalización conceptual de la factorización única[32] con factores ordinarios a una factorización única generada por k-ésimos factores ideales, expresado cada uno de ellos por todos los números complejos enteros α-ésimos de los cuales un determinado número k es divisor exacto y para los cuales el requerimiento de factorización única se mantiene; conceptualmente, la factorización única parecería ser una especie de teorema de existencia-unicidad sobre la estructura originaria o primitiva de un objeto algebraico, es decir, un teorema que establece la existencia histórica de una estructura genética o base de las cosas, así como también la unicidad (la existencia única) de tal estructura base. Finalmente, un módulo es una generalización del concepto de espacio vectorial a estructuras algebraicas conceptualmente equivalentes, con la característica de estar constituidas por anillos en lugar de campos (como sí lo están los espacios vectoriales).

Así, en el contexto del álgebra abstracta, el aniquilador de un subconjunto S de un módulosobre un anillo es el ideal formado por los elementos del anillo cuyo resultado es cero siempre que se multiplique por algún elemento de S. En el contexto del álgebra lineal[33], si W es un subconjunto (no necesariamente un espacio) de un espacio vectorial V y V* el espacio constituido por todos los funcionales lineales en V (conocido como espacio dual, un especie de “espacio espejo” que todo espacio vectorial poseen), entonces un funcional[34] lineal ϕV* se llama aniquilador de W si ϕ(w)=0, para todo wW, es decir, si ϕ(W)={0}; el conjunto de todas las aplicaciones tales, denotado por W^0 y denominado el aniquilador de W, es un subespacio de V*.

De forma más general, un aniquilador es el conjunto de todas las funciones que satisfacen un conjunto dado de condiciones, cuya evaluación de cada miembro del conjunto dado es siempre cero; los aniquiladores no son en sí mismos necesariamente cero (o, en general, el elemento directamente neutralizador dentro del tipo de anillo que se trate) y en dominios integrales[35], un módulo cuyo aniquilador es no nulo es un módulo de torsión y todo módulo de torsión finito posee un aniquilador no nulo. Lo que en mecánica cuántica se presenta como aniquilación por neutralización de la forma [a, a^* ]=1 (Feynman, 1982, pág. 151) para expresar la reducción en una unidad de la cantidad de partículas del sistema[36] (donde a es el operador de aniquilación y a^*  el de creación), es lo que en álgebra abstracta se presenta como aniquilación por neutralización de la forma Ann_R (S)={rR | sS: rs=0}. La diferencia radica en que, en mecánica cuántica, aunque también se plantea como una propiedad de absorción, la aniquilación ocurre en términos del elemento neutro de la multiplicación, mientras que en álgebra abstracta ocurre en términos del elemento neutro de la suma (lo cual es natural, puesto que se está trabajando con grupos aditivos); sin embargo, en todos los casos, está implícita de alguna forma la concepción de la aniquilación como neutralización.

Referencias

BBC News Mundo. (17 de Junio de 2021). Bitcoin en El Salvador: por qué el Banco Mundial rechazó ayudar al país a implementar la criptodivisa como moneda de curso legal. Obtenido de BBC News | Mundo: https://www.bbc.com/mundo/noticias-america-latina-57512089

Benítez, B. (10 de Abril de 2021). “No le doy mucha importancia”: la respuesta de Zúñiga al desaire de Bukele. Obtenido de Revista Gato Encerrado: https://gatoencerrado.news/2021/04/10/no-le-doy-mucha-importancia-la-respuesta-de-zuniga-al-desaire-de-bukele/

Betancur, B., Figueredo Planchart, R., & Buergenthal, T. (1992-993). De la Locura a la Esperanza: la guerra de los Doce Años en El Salvador:Reporte de la Comisión de la Verdad para El Salvador. San Salvador: Comisión para la Verdad para El Salvador. Obtenido de http://www.dhnet.org.br/verdade/mundo/elsalvador/nunca_mas_el_salvador_cv_2.pdf

Cabrera, A. (29 de Diciembre de 2021). Dagoberto Gutiérrez: Estados Unidos confronta con el Gobierno de El Salvador por adopción de Bitcoin. Obtenido de Diario El Salvador: https://diarioelsalvador.com/dagoberto-gutierrez-estados-unidos-confronta-con-el-gobierno-de-el-salvador-por-adopcion-de-bitcoin/173475/

Corbin, J. (2 de Octubre de 2019). Especial BBC | Jamal Khashoggi: qué dicen las grabaciones secretas del asesinato del periodista disidente en el consulado de Arabia Saudita. Obtenido de BBC News | Mundo: https://www.bbc.com/mundo/noticias-internacional-49892850

Dussel, E. (1991). 2. El método dialéctico de lo abstracto a lo concreto (20, 41-33, 14; 21,3-31,38): (Cuaderno M. desde la página 14 del manuscrito, terminado a mediados de septiembre de 1857). En E. Dussel, La producción teórica de Marx: un comentario a los grundrisse (págs. 48-63). México D.F.: Siglo XXI Editores. Obtenido de http://biblioteca.clacso.edu.ar/clacso/otros/20120424094653/3cap2.pdf

EFE. (22 de Julio de 2021). El expresidente salvadoreño Saca confiesa pagos irregulares a sus funcionarios. Obtenido de Agencia EFE. Edición América: https://www.efe.com/efe/america/politica/el-expresidente-salvadoreno-saca-confiesa-pagos-irregulares-a-sus-funcionarios/20000035-4592109

EFE. (13 de Abril de 2021). El Salvador y Estados Unidos reajustan sus relaciones tras la era Trump. Obtenido de Edición América. Política: https://www.efe.com/efe/america/politica/el-salvador-y-estados-unidos-reajustan-sus-relaciones-tras-la-era-trump/20000035-4511076

EFE. (19 de Febrero de 2021). EUA conversa sobre migración con El Salvador y llama a crear oportunidades. Obtenido de El Economista: https://www.eleconomista.net/actualidad/EUA-conversa-sobre-migracion-con-El-Salvador-y-llama-a-crear-oportunidades-20210219-0031.html

El Diario de Hoy. (15 de Febrero de 2021). La grotesca pantomima montada por Bukele ante el Cuerpo Diplomático . Obtenido de elsalvador.com: https://www.elsalvador.com/opinion/nota-del-dia/viajes-nayib-bukele-estados-unidos/806502/2021/

García, J. (22 de Marzo de 2021). Ricardo Zúñiga, el hombre de Biden para el problema centroamericano. Obtenido de El País: https://elpais.com/mexico/2021-03-23/ricardo-zuniga-el-hombre-de-biden-para-el-problema-centroamericano.html

Hegel, F. (1968). Ciencia de la Lógica. Buenos Aires: Solar / Hachette.

Hegel, G. W. (2006). Filosofía de la Lógica. Buenos Aires: Editorial Claridad S.A.

Lima, L. (15 de Diciembre de 2021). Bukele y Biden: 5 momentos de la creciente tensión entre EE.UU. y El Salvador y cómo afecta a dos aliados históricos. Obtenido de BBC News | Mundo: https://www.bbc.com/mundo/noticias-america-latina-59558957

Marx, K. (2010). El Capital (Vol. I). México, D.F.: Fondo de Cultura Económica.

Paalberg, M., & Valencia, R. J. (25 de Febrero de 2021). The elections in El Salvador could make or break Biden’s Central America policy. Obtenido de The Washington Post: https://www.washingtonpost.com/outlook/2021/02/25/el-salvador-elections-biden/

Rosental, M. (1961). Los problemas de la dialéctica en “El Capital” de Marx. Montevideo: Ediciones Pueblos Unidos.

Rosental, M. M., & Iudin, P. F. (1971). DICCIONARIO FILOSÓFICO. San Salvador: Tecolut.

Uno TV. (10 de Agosto de 2020). ¿Qué es un narcoestado y por qué en México hubo uno, según AMLO? Obtenido de NACIONAL: https://www.unotv.com/nacional/narcoestado-conoce-sus-caracteristicas/

Wikipedia. (11 de Marzo de 2022). Occam’s razor. Obtenido de Concepts in epistemology: https://en.wikipedia.org/wiki/Occam%27s_razor

Zubiri, X. (1985). SOBRE LA ESENCIA. Madrid: Alianza Editorial.


[1] Aquí Dussel parece buscar implicar que, tomando de referencia al Marx intelectualmente maduro, la conciencia filosófica pasada de Marx era hegeliana, mientras que su conciencia filosófica presente, que era materialista, perseguía a su conciencia filosófica pasada).

[2] Señalará Dussel en el mismo lugar, probablemente sin terminarse de desprender de un cierto espíritu apriorístico, que: “Todo esto habrá que ir aclarándolo a medida que el discurso avance en los Grundrisse. De todas maneras, pensamos que las reflexiones de Marx sobre el método en el Cuaderno M no son un tratado de metodología, son más bien reflexiones al “correr de la pluma”. Se ven demasiados sobrentendidos, demasiados aspectos no explicados. En fin, se habla de un “movimiento” dialéctico general, pero quedan muchas oscuridades de detalle.” A pesar de ello, señalará en el mismo lugar el autor que “Sin embargo, las líneas generales del discurso han quedado definidas.”

[3] Esto se debe a que Marx, dada la producción científica fundacional de la escuela clásica (y explícita e implícitamente de los economistas que sentaron las bases a lo largo del tiempo para que naciera y floreciera la escuela clásica), la cual constituyó a la economía política como ciencia en pleno derecho, usó la información disponible en la época (datos enviados por Engels sobre la explotación de la fuerza de trabajo en sus fábricas, informes de los inspectores fabriles sobre las condiciones de trabajo y otros aspectos relacionados a la producción capitalista de la época, datos de los historiadores sobre las relaciones económicas y comerciales entre centro-periferia, datos citados en los trabajos académicos, etc.) de manera complementaria a dicha producción científica. Por ello, la parte del proceso de gnoseológico en la que se enfocó Marx fue en lo fundamental la parte del viaje de retorno (a pesar de que todo proceso gnoseológico riguroso usa, con diferente intensidad, ambas etapas), es decir, en ir de lo abstracto a lo concreto pensado.

[4] “Imagen generalizada, sensorialmente evidente de los objetos y fenómenos de la realidad; se conservan y reproducen en la conciencia sin que los propios objetos y fenómenos actúen directamente sobre los órganos de los sentidos. En la representación del ser humano, se fija y se conserva lo que objetivamente se convierte en patrimonio de los individuos gracias a la actividad práctica. Aunque es una forma del reflejo sensorial del individuo, la representación (…) se halla indisolublemente vinculada a significaciones socialmente elaboradas, es mediada por el lenguaje, está llena de contenido social y es siempre captada por el pensamiento, por la conciencia. La representación constituye un elemento necesario de la conciencia, pues vincula sin cesar la significación y el sentido (significación y sentido) de los conceptos con las imágenes de las cosas, a la vez que permite a la conciencia operar libremente con las imágenes sensoriales de los objetos.” (Rosental & Iudin, 1971, pág. 401). La evidencia empírica tomada únicamente como representación plena es un rasgo distintivo del empirismo, como bien señalaba Dussel, pero también lo es del positivismo, que es un híbrido entre empirismo extremo y fenomenalismo [que significa que su teoría del conocimiento es basada en la tesis de que únicamente las sensaciones son objeto inmediato del conocer (Rosental & Iudin, 1971, p. 171)] en lo relativo a su núcleo: en lo relativo a la construcción de las leyes históricas generales del desarrollo de la sociedad (sin embargo, en general se trata de bajo qué criterios gnoseológicos se construyen las leyes que rigen las dinámicas de los sistemas complejos) y en lo relativo a sus concepciones sobre la lógica; es de especial interés resaltar que del fenomenalismo no se hace referencia a un sistema ontológico o metafísico porque para dicha corriente filosófica el ser como tal, es decir, las esencias de los objetos (y ni hablar de la esencia en general de la realidad), son incognoscibles (Rosental & Iudin, Diccionario filosófico abreviado, 1959, págs. 183-184), al igual que para el conocimiento instrumental (que proviene de los instrumentos de medición, que en el caso de los logicistas es en última instancia la matemática como lógica, es decir, como lógica formal), este último nacido en el sistema kantiano (Kant, quien a su vez retoma del sistema aristotélico la lógica formal como lógica más importante -aunque no por equiparar forma y contenido como Aristóteles, sino por considerar la esencia inaprehensible como el empirismo, por lo cual Hegel acertadamente señalaría, básicamente, que el conocimiento instrumental es empirismo sofisticado-).

[5] Véase (Amnistía Internacional, 2019) y (Salinas Maldonado, 2019).

[6] Véase (Ávila, 2021).

[7] La manera axiomática de probar tales afirmaciones es simple. La dolarización, el TLC (específicamente el CAFTA-DR), la privatización de la banca pública, el desmantelamiento de la institución reguladora de abastecimientos agrícolas (que previene de ataques especulativos, por ejemplo, a los granos básicos), los recortes al gasto público, la privatización del sistema de pensiones, la privatización de las telecomunicaciones y una estructura tributaria regresiva conforman la estructura topológica del neoliberalismo que se aplicó en El Salvador y absolutamente todos esos eventos que conforman la topología en cuestión tuvieron que ser votados en la Asamblea Legislativa y sistemáticamente para ser aprobados debieron contar con los votos de ambos partidos, tanto de ARENA como del FMLN.

[8] Véase (Deutsche Welle, 2021) y (Russia Today, 2021).

[9] Organización fundada en el año 2000 con la finalidad de defensa y promoción de los derechos humanos, con presencia en el Triángulo del Norte de Centroamérica (Guatemala, Honduras y El Salvador).

[10] Véase (EFE, 2021).

[11] Lo distinto aquí debe entenderse como la cualidad resultante de la acumulación cuantitativa de diferencias.

[12] El primer presidente posguerra fue Alfredo Cristiani Burkard, quien, como señala (EFE, 2021), aparece en los Pandora Papers señalado por el Consorcio Internacional de Periodistas de Investigación (ICIJ) con motivo de la apertura de 16 empresas fantasma en dos paraísos fiscales. Además, también señala (Valencia Caravantes, 2014) que el paramilitar y narcotraficante colombiano Diego Fernando Murillo (alias “Don Berna”) publicó en 2014 un libro en el que se señala que minutos antes de morir Pablo Escobar envió un mensaje de agradecimiento a Alfredo Cristiani; en total, se señala en (Valencia & Labrador, 2014) que Cristiani es acusado de estar involucrado en tres episodios del narcotráfico en El Salvador entre 1992 y 1993, episodios en los cuales aparecen involucrados dos carteles de la droga (Cali y Medellín), dos capos (Pablo Escobar y el “Chapo” Guzmán), militares y policías salvadoreños, precisamente en el período de su gestión presidencial.

[13] A quien sostuvieron como aliado estratégico en la región hasta que las pruebas de sus vínculos con el narcotráfico eran tantas y de tal gravedad que volvió imposible ignorarlas, como señala (Linthicum, Wilkinson, & Cerrato, 2022).

[14] Según documentos recientemente desclasificados del departamento de Estado de los Estados Unidos, Washington tenía conocimiento de los vínculos de Álvaro Uribe con el narcotráfico desde al menos 1991, como se señala en (EFE, 2018) y (TeleSur, 2020).

[15] A quien “El Chapo” Guzmán declaró haber sobornado por USD$100M, como se señala en (BBC News Mundo, 2019), así como también es conocido el hecho de que los vínculos de Peña Nieto con el narcotráfico son los que permitieron la masacre de los 47 estudiantes normalistas de Ayotzinapa, conocida bajo el nombre artístico de “Desaparición forzada de Iguala de 2014”, tal como señala (Hernández, 2021).

[16] Véase http://www.lageo.com.sv/.

[17] No existen registros verificables de que existió un estudio técnico riguroso de sus implicaciones y efectos previo a su implementación, no se le consultó a la población salvadoreña mediante ningún mecanismo, no se cumplían  ni siquiera los requerimientos técnicos que los economistas ortodoxos como Robert Mundell recomendaban (La Nación, 2000) y no existen registros verificables de que se haya discutido esa decisión en el la asamblea legislativa salvadoreña previo a su votación (ni hablar del rigor necesario de esa discusión dada la envergadura de la decisión).

[18] Véase https://www.imf.org/es/About/Factsheets/Sheets/2016/07/14/12/21/IMF-Quotas.

[19] Debe señalarse que fenómeno, realidad en general y esencia son categorías construidas desde el punto de vista gnoseológico-lógico, mientras que forma de existencia, existencia y lo real son construidas desde la perspectiva ontológica-lógica. Por supuesto, al estar unificadas la ontología y la gnoseología a través de un marco lógico, son categorías en lo fundamental equivalentes.

[20] Este concepto se explicará en la sección II.I. IV. II.

[21] Concibiendo los procesos de la realidad como cíclicos en general, así como también a la realidad misma, como se verá en la sección II. XI.

[22] Como se mostrará en la sección II. XIII.

[23] En cuanto el concepto es el resultado de la síntesis dialéctica de la masa de fenómenos singulares, dentro del cual estos últimos son embebidos a través de la razón, permitiendo así la unificación orgánica entre lo universal y lo particular, entre la teoría y la práctica, entre lo abstracto y lo concreto.

[24] Rama de la filosofía que versa sobre la predicción del final de las cosas, la doctrina de las causas finales.

[25] Lo que se debe considerar (o no) como óptimo se encuentra en función del objeto de estudio.

[26] Lo que representa una inversión del sistema hegeliano, por cuanto el sistema hegeliano parte de lo universal abstracto, el cual es sintetizado con lo particular dando así origen a lo universal concreto.

[27] Como señala (Haas, 2021, pág. 213), especular significa implicar, es decir, no traer significado a la presencia ni mantenerlo en ausencia; sino más bien, hablar y pensar por implicación, que es una forma de dar a entender lo que no se puede decir ni dejar de decir, ni pensar ni no pensar.

[28] Los de creación se definen en función de los de aniquilación, específicamente son el operador (símbolo matemático que denota que se realizará una operación bajo determinadas reglas) hermítico adjunto (un operador  que cumple con la condición  de los de aniquilación.

[29] Una partícula * es antipartícula de , si tiene el mismo espín y la misma masa que , pero carga eléctrica contraria; el espín de una partícula es una propiedad física de las partículas elementales (partículas que no están constituidas por partículas más pequeñas ni se les conoce estructura interna) que establece que tales partículas poseen una cantidad de movimiento de rotación intrínseca (su automovimiento) y de valor fijo.

[30] Específicamente, como su hermítico adjunto, también llamado conjunto hermítico, hermítico transpuesto o simplemente hermítico. Un operador hermítico generaliza la definición de operadores lineales acotados a espacios de Hilbert (espacios euclidianos de dimensiones infinitas); un operador hermítico es aquel operador en el plano de los números complejos que tiene la característica de ser igual a su transpuesto conjugado (obtenido en primera instancia calculando el operador transpuesto del operador de referencia -el que tiene invertidas las filas y las columnas en relación al operador de referencia- y luego calculando el operador conjugado del operador transpuesto obtenido en el primer paso -específicamente, invirtiendo los signos de cada uno de los términos imaginarios de los números complejos que componen el operador-). El concepto de operador lineal acotado expresa relaciones especiales (porque las funciones son relaciones especiales en tanto a cada elemento del conjunto de entrada le corresponde uno y sólo un elemento del conjunto de salida) de naturaleza lineal entre diferentes fenómenos (porque los espacios/variables de entrada y salida son diferentes, caso contrario se suele denominar como aplicación lineal y haría referencia a fenómenos con la misma estructura topológica y métrica -si se habla de fenómenos diferentes implica que se distinguen a nivel métrico y si se habla de fenómenos distintos significa que se distinguen a nivel topológico-) que tienen la característica de estar bien definidas (acotadas) en términos del alcance cuantitativo de cada fenómeno (social y/o natural).

[31] Véase (Weisstein E. W., 2022).

[32] El teorema fundamental de la aritmética establece que todo entero mayor que 1 puede ser expresado como el producto de números primos de una única manera. A esto se hace referencia al hablar de factorización única.

[33] Véase (Lipschutz, 1993, págs. 472-473).

[34] Función de funciones.

[35] Un dominio integral es, en álgebra abstracta, un anillo conmutativo no nulo en el que el producto de dos elementos no nulos es no nulo.

[36] [a,a^* ]=1 significa que a⋅a^*=1 y que también a^*⋅a=1, es decir, que se aniquilan conmutativamente en términos de la multiplicación (por cuanto la unidad es su elemento neutro).

SOBRE LA INICIATIVA INTERNACIONAL DE PROMOCIÓN DE POLÍTICA ECONÓMICA (IIPE 2021), EL IMPERIALISMO, CHINA Y LAS FINANZAS INTERNACIONALES

BREVE INTRODUCCIÓN

Este día se publicó una investigación en el sitio web de Michael Roberts que versa, en general, sobre el papel del desarrollo tecnológico en el comercio internacional como mecanismo de acumulación de capital característico de la economía capitalista planetaria en su fase imperialista. Sobre dicha investigación se elabora la presente publicación, la cual está compuesta por tres secciones. En la primera sección se realiza un breve abordaje histórico sobre aspectos teóricos de interés abordados por Roberts en su publicación de naturaleza fundamentalmente empírica. En la segunda sección se presenta la traducción de la publicación de Roberts. Finalmente, en la tercera sección se facilita la descarga de las referencias bibliográficas presentadas por Roberts en su publicación.

I. ASPECTOS TEÓRICOS preliminares

Es importante decir que la teoría sobre el capitalismo en su fase imperialista hunde sus raíces empíricas más importantes el trabajo de Vladimir Lenin (1916) y sus raíces teóricas más importantes en el trabajo de Arghiri Emmanuel (1962). Por supuesto, el trabajo de Lenin no se limitó a ser empírico, pero fue en esta dirección la centralización de sus esfuerzos y ello conforma un punto de partida razonable para un breve análisis sobre cómo (y por qué) han evolucionado las teorías marxistas sobre el imperialismo.

Lenin fue el primer teórico del marxismo que estudió la acumulación de capital a escala planetaria considerando las relaciones centro-perisferia como una generalización económica, política, social y cultural de la lucha de clases nacional; sobre ello no existe debate relevante en el seno de la comunidad marxista. La armonía no es tal cuando se trata de abordar la obra de Arghiri Emmanuel. Cualquier persona lo suficientemente estudiosa de la historia de las ciencias sabrá que, sobre todo en ciencias sociales (con especial énfasis en economía política), la aceptación de una teoría no tiene que ver con motivos puramente académicos sino también políticos. La teoría de economía política internacional (de ahora en adelante economía geopolítica) de Emmanuel tuvo poca aceptación entre la comunidad marxista fundamentalmente no por su polémico uso de la ley del valor en el concierto internacional, sino por las conclusiones políticas que su teoría generaba. La idea central de Emmanuel es que en el concierto interncional ocurre una transformación global de valores a precios de producción como la que ocurre (salvo las particularidades naturales características del incremento en complejidad del sistema) a escala local o nacional. Es esa y no otra la idea fundamental del trabajo de Emmanuel, con independencia del grado de acuerdo (o desacuerdo) que se tenga sobre la forma en que realiza tal planteamiento. La lógica que condujo a Emmanuel a la construcción de esta idea, que no es más que una aplicación global de la lógica local de la transformación de valores en precios de producción ya dada por Marx, parecería ser la misma que la que condujo a construir, por ejemplo, la teoría de la selección natural o la teoría matemática del caos el concepto de autosimilaridad. Esta esta lógica se puede generalizar como se plantea a continuación.

Los componentes (modelados mediante ecuaciones) de una totalidad (modelada mediante un sistema de ecuaciones) comparten una esencia común (i.e., que son isomórficos entre sí) que permite su combinación integrodiferencial de forma armónica y coherente bajo una determinada estructura interna de naturaleza material (objetiva), no-lineal (la totalidad es diferente a la suma de sus partes) y dinámica (el tiempo transcurre) generada por la interacción de tales componentes dadas determinadas condiciones iniciales. La estructura interna del sistema (o totalidad de referencia) condiciona a los componentes que la generan bajo el mismo conjunto de leyes (pero generalizado, por lo que no es formalmente el mismo) que rigen la interacción entre las condiciones iniciales y las relaciones primigenias entre componentes que determinaron la gestación de dicha estructura interna. Estas leyes son: 1. Unidad y Lucha de los Contrarios (que implica emergencia y al menos autoorganización crítica), 2. Salto de lo Cuantitativo a lo Cualitativo (bifurcación), 3. Ley de la Negación de la Negación (que es una forma generalizada de la síntesis química).

SOBRE DIALÉCTICA Y COMPLEJIDAD

Antes de proceder a exponer las fuentes formales y fácticas de la poca popularidad de las teorías de Emmanuel, es necesario decir un par de cuestiones relativas al papel que desempeña el tiempo en el sistema marxiano. Las escuelas de pensamiento económico marxista se pueden clasificar según su abordaje matemático del proceso histórico de transformación de valores en precios de producción; sin embargo, aún dentro de las mismas escuelas existen divergencias teóricas importantes, fundamentalmente en relación a la MELT (Monetary Expression of Labor Time) o algún equivalente de esta. Así, las escuelas de pensamiento económico marxista son la escuela temporalista, la escuela simultaneísta y alguna combinación o punto intermedio entre ellas. Todas estas diferencias filosóficas, en contraste con lo que ocurre en Filosofía de la Estadística entre, por ejemplo, frecuentistas y bayesianos subjetivos, no solo no requieren de mucha investigación para ser verificadas empíricamente, sino que además tienen como consecuencia la gestación de sistemas matemáticos que hasta la fecha (la realidad es cambiante, indudablemente) han resultado antagónicos teóricamente respecto de ese punto (en el de transformar valores en precios de producción) y numéricamente diferentes de forma sustancial en sus predicciones (aunque cualitativamente es usual que sus diferencias no sean esenciales, salvo en el punto expuesto -que es evidentemente un aspecto medular de la teoría de Marx-).

La polémica sobre el uso de la ley del valor de Emmanuel tuvo que ver con el manejo de los supuestos que realizó y, con ello, con los escenarios teóricos que identificaba con la realidad. Esta polémica se agudizó luego de que, tras las críticas recibidas (cuyo trasfondo era teórico solo formalmente o minoritariamente en su defecto), Emmanuel publicara un sistema de ecuaciones simultáneas (con ello se ganó el rechazo de los marxistas más conservadores de la época -los cuales eran reacios al uso de las matemáticas-, que no eran minoría) para abordar la transformación de valores en precios de producción) poco ortodoxo para el oficialismo de lo que se podría denominar como “marxismo matemático”, lo que en términos netos le valió para la época (1962) incompatibilidad intelectual con la generalidad de los académicos.

El debate teórico real no es, evidentemente, si el tiempo existe o no, sino si es lo suficientemente relevante para configurar el sistema matemático alrededor del mismo o si no lo es y, por consiguiente, no existen consecuencias relevantes (tanto teóricas como numéricas) por descartarlo del modelo formal del sistema capitalista. Emmanuel define en su obra el valor como cantidad cronométrica de trabajo socialmente necesario (que es la misma definición del marxismo clásico, sólo que comprimida), sin embargo, su modelo de transformación de valores en precios de producción hace uso de las ecuaciones simultáneas (lo heterodoxo del asunto radica en que establece ex ante al trabajo como la variable fundamental del sistema, para que las ecuaciones y las incógnitas se igualen automáticamente y afirmar con ello que se implica la anterioridad histórica de la fuerza de trabajo, puesto que lo precede teóricamente), aunque tampoco por ello tenga problema en afirmar que existen “dos esencias” (el capital y el trabajo) o, en otros términos, que no sólo el trabajo crea valor. ¿Cuál fue entonces el trasfondo político?

A pesar de que en tiempos modernos pueda resultar un poco difícil de pensar, alrededor de 1962 existía un relativamente pujante movimiento obrero internacional y políticamente su unidad era cardinal en la lucha contra la explotación planeataria y el modelo de Emmanuel, guste o no, implica que el bienestar de los trabajadores de los países industrializados es sufragado indirectamente por las condiciones de miseria extrema que se viven en los países de la periferia. Por supuesto, ello se implica también a nivel local, ¿quiénes permiten que los trabajadores de las ramas productivas más intensivas en capital obtengan salarios muy por encima del promedio salarial nacional sino los trabajadores de las ramas productivas intensivas en trabajo?, en un sistema de economía política los agentes económicos guardan entre sí relaciones de suma cero, es decir, la ganancia de unos implica la pérdida de otros, aunque esto no siempre ocurre (y mucho menos se observa) de forma inmediata; este hecho fundamental no cambia en un sistema de economía geopolítica. Sin embargo, aunque la topología en ambos sistemas es fundamentalmente la misma las métricas cambian y las grandes brechas sociales observadas internacionalmente (por ejemplo, entre Noruega y Haití) no se observan en términos generales (promedio) a nivel local, lo que hace más notoria la explotación, aunque no más real. Complementariamente, debe resaltarse el hecho de que, dentro de sus propias condiciones materiales de existencia, los trabajadores de los países industrializados tienen sus propias luchas sociales.

Mi máximo cariño, aprecio y admiración a toda la comunidad marxista de aquella época, puesto que al fin y al cabo lucha de clases fáctica es nuestra misión última y todos somos producto de nuestras condiciones históricas, es decir, aunque hacemos la historia, no hacemos las condiciones bajo las cuales hacemos nuestra historia.

II. IIPPE 2021: imperialism, China and finance – michael roberts

La conferencia 2021 de la Iniciativa Internacional para la Promoción de la Economía Política (IIPPE) tuvo lugar hace un par de semanas, pero solo ahora he tenido tiempo de revisar los numerosos trabajos presentados sobre una variedad de temas relacionados con la economía política. El IIPPE se ha convertido en el canal principal para que economistas marxistas y heterodoxos ‘presenten sus teorías y estudios en presentaciones. Las conferencias de materialismo histórico (HM) también hacen esto, pero los eventos de HM cubren una gama mucho más amplia de temas para los marxistas. Las sesiones de Union for Radical Political Economy en la conferencia anual de la American Economics Association se concentran en las contribuciones marxistas y heterodoxas de la economía, pero IIPPE involucra a muchos más economistas radicales de todo el mundo.

Ese fue especialmente el caso de este año porque la conferencia fue virtual en zoom y no física (¿tal vez el próximo año?). Pero todavía había muchos documentos sobre una variedad de temas guiados por varios grupos de trabajo del IIPPE. Los temas incluyeron teoría monetaria, imperialismo, China, reproducción social, financiarización, trabajo, planificación bajo el socialismo, etc. Obviamente no es posible cubrir todas las sesiones o temas; así que en esta publicación solo me referiré a las que asistí o en las que participé.

El primer tema para mí fue la naturaleza del imperialismo moderno con sesiones que fueron organizadas por el grupo de trabajo de Economía Mundial. Presenté un artículo, titulado La economía del imperialismo moderno, escrito conjuntamente por Guglielmo Carchedi y yo. En la presentación argumentamos, con evidencia, que los países imperialistas pueden definirse económicamente como aquellos que sistemáticamente obtienen ganancias netas, intereses y rentas (plusvalía) del resto del mundo a través del comercio y la inversión. Estos países son pequeños en número y población (solo 13 o más califican según nuestra definición).

Demostramos en nuestra presentación que este bloque imperialista (IC en el gráfico a continuación) obtiene algo así como 1,5% del PIB cada año del ‘intercambio desigual’ en el comercio con los países dominados (DC en el gráfico) y otro 1,5% del PIB de intereses, repatriación de utilidades y rentas de sus inversiones de capital en el exterior. Como estas economías están creciendo actualmente a no más del 2-3% anual, esta transferencia es un apoyo considerable al capital en las economías imperialistas.

https://thenextrecession.files.wordpress.com/2021/09/ii1.png

Los países imperialistas son los mismos “sospechosos habituales” que Lenin identificó en su famosa obra hace unos 100 años. Ninguna de las llamadas grandes “economías emergentes” está obteniendo ganancias netas en el comercio o las inversiones – de hecho, son perdedores netos para el bloque imperialista – y eso incluye a China. De hecho, el bloque imperialista extrae más plusvalía de China que de muchas otras economías periféricas. La razón es que China es una gran nación comercial; y también tecnológicamente atrasado en comparación con el bloque imperialista. Entonces, dados los precios del mercado internacional, pierde parte de la plusvalía creada por sus trabajadores a través del comercio hacia las economías más avanzadas. Esta es la explicación marxista clásica del “intercambio desigual” (UE).

Pero en esta sesión, esta explicación de los logros imperialistas fue discutida. John Smith ha producido algunos relatos convincentes y devastadores de la explotación del Sur Global por parte del bloque imperialista. En su opinión, la explotación imperialista no se debe a un “intercambio desigual” en los mercados entre las economías tecnológicamente avanzadas (imperialismo) y las menos avanzadas (la periferia), sino a la “superexplotación”. Los salarios de los trabajadores del Sur Global han bajado incluso de los niveles básicos de reproducción y esto permite a las empresas imperialistas extraer enormes niveles de plusvalía a través de la “cadena de valor” del comercio y los márgenes intraempresariales a nivel mundial. Smith argumentó en esta sesión que tratar de medir las transferencias de plusvalía del comercio utilizando estadísticas oficiales como el PIB de cada país era una ‘economía vulgar’ que Marx habría rechazado porque el PIB es una medida distorsionada que deja fuera una parte importante de la explotación de la economía global. Sur.

Nuestra opinión es que, incluso si el PIB no captura toda la explotación del Sur Global, nuestra medida de intercambio desigual todavía muestra una enorme transferencia de valor de las economías periféricas dependientes al núcleo imperialista. Además, nuestros datos y medidas no niegan que gran parte de esta extracción de plusvalía proviene de una mayor explotación y salarios más bajos en el Sur Global. Pero decimos que esta es una reacción de los capitalistas del Sur a su incapacidad para competir con el Norte tecnológicamente superior. Y recuerde que son principalmente los capitalistas del Sur los que están haciendo la “súper explotación”, no los capitalistas del Norte. Estos últimos obtienen una parte a través del comercio de cualquier plusvalía extra de las mayores tasas de explotación en el Sur.

De hecho, mostramos en nuestro artículo, las contribuciones relativas a la transferencia de plusvalía de tecnología superior (mayor composición orgánica del capital) y de explotación (tasa de plusvalía) en nuestras medidas. La contribución de la tecnología superior sigue siendo la principal fuente de intercambio desigual, pero la participación de diferentes tasas de plusvalía se ha elevado a casi la mitad.

https://thenextrecession.files.wordpress.com/2021/09/ii2.png

Andy Higginbottom en su presentación también rechazó la teoría marxista clásica del imperialismo del intercambio desigual presentada en el artículo Carchedi-Roberts, pero por diferentes motivos. Consideró que la igualación de las tasas de ganancia a través de las transferencias de plusvalías individuales a precios de producción se realizó de manera inadecuada en nuestro método (que seguía a Marx). Por lo tanto, nuestro método podría no ser correcto o incluso útil para empezar.

En resumen, nuestra evidencia muestra que el imperialismo es una característica inherente del capitalismo moderno. El sistema internacional del capitalismo refleja su sistema nacional (un sistema de explotación): explotación de las economías menos desarrolladas por las más desarrolladas. Los países imperialistas del siglo XX no han cambiado. No hay nuevas economías imperialistas. China no es imperialista en nuestras medidas. La transferencia de plusvalía por parte de la UE en el comercio internacional se debe principalmente a la superioridad tecnológica de las empresas del núcleo imperialista pero también a una mayor tasa de explotación en el “sur global”. La transferencia de plusvalía del bloque dominado al núcleo imperialista está aumentando en términos de dólares y como porcentaje del PIB.

En nuestra presentación, revisamos otros métodos para medir el “intercambio desigual” en lugar de nuestro método de “precios de producción”, y hay bastantes. En la conferencia, hubo otra sesión en la que Andrea Ricci actualizó (ver sección III) su invaluable trabajo sobre la medición de la transferencia de plusvalía entre la periferia y el bloque imperialista utilizando tablas mundiales de insumo-producto para los sectores comerciales y medidas en dólares PPA. Roberto Veneziani y sus colegas también presentaron un modelo de equilibrio general convencional para desarrollar un “índice de explotación” que muestra la transferencia neta de valor en el comercio de los países. Ambos estudios apoyaron los resultados de nuestro método más “temporal”.

En el estudio de Ricci hay una transferencia neta anual del 4% de la plusvalía en el PIB per cápita a América del Norte; casi el 15% per cápita para Europa occidental y cerca del 6% para Japón y Asia oriental. Por otro lado, existe una pérdida neta de PIB anual per cápita para Rusia del 17%; China 10%, América Latina 5-10% y 23% para India.

https://thenextrecession.files.wordpress.com/2021/09/ii3.png

En el estudio de Veneziani et al, “todos los países de la OCDE están en el centro, con un índice de intensidad de explotación muy por debajo de 1 (es decir, menos explotado que explotador); mientras que casi todos los países africanos son explotados, incluidos los veinte más explotados “. El estudio coloca a China en la cúspide entre explotados y explotados.

https://thenextrecession.files.wordpress.com/2021/09/ii4.png

En todas estas medidas de explotación imperialista, China no encaja a la perfección, al menos económicamente. Y esa es la conclusión a la que también se llegó en otra sesión que lanzó un nuevo libro sobre imperialismo del economista marxista australiano Sam King. El convincente libro de Sam King propone que la tesis de Lenin era correcta en sus fundamentos, a saber, que el capitalismo se había convertido en lo que Lenin llamó “capital financiero monopolista” (si bien su libro no está disponible de forma gratuita, su tesis versa fundamentalmente sobre lo mismo). El mundo se ha polarizado en países ricos y pobres sin perspectivas de que ninguna de las principales sociedades pobres llegue a formar parte de la liga de los ricos. Cien años después, ningún país que fuera pobre en 1916 se ha unido al exclusivo club imperialista (salvo con la excepción de Corea y Taiwán, que se beneficiaron específicamente de las “bendiciones de la guerra fría del imperialismo estadounidense”).

La gran esperanza de la década de 1990, promovida por la economía del desarrollo dominante de que Brasil, Rusia, India, China y Sudáfrica (BRICS) pronto se unirían a la liga de los ricos en el siglo XXI, ha demostrado ser un espejismo. Estos países siguen siendo también rans y todavía están subordinados y explotados por el núcleo imperialista. No hay economías de rango medio, a medio camino, que puedan ser consideradas como “subimperialistas” como sostienen algunos economistas marxistas. King muestra que el imperialismo está vivo y no tan bien para los pueblos del mundo. Y la brecha entre las economías imperialistas y el resto no se está reduciendo, al contrario. Y eso incluye a China, que no se unirá al club imperialista.

Hablando de China, hubo varias sesiones sobre China organizadas por el grupo de trabajo IIPPE China. Las sesiones fueron grabadas y están disponibles para verlas en el canal de YouTube de IIPPE China. La sesión cubrió el sistema estatal de China; sus políticas de inversión extranjera; el papel y la forma de planificación en China y cómo China se enfrentó a la pandemia de COVID.

También hubo una sesión sobre ¿Es capitalista China?, en la que realicé una presentación titulada ¿Cuándo se volvió capitalista China? El título es un poco irónico, porque argumenté que desde la revolución de 1949 que expulsó a los terratenientes compradores y capitalistas (que huyeron a Formosa-Taiwán), China ya no ha sido capitalista. El modo de producción capitalista no domina en la economía china incluso después de las reformas de mercado de Deng en 1978. En mi opinión, China es una “economía de transición” como lo era la Unión Soviética, o lo son ahora Corea del Norte y Cuba.

En mi presentación defino qué es una economía de transición, como la vieron Marx y Engels. China no cumple con todos los criterios: en particular, no hay democracia obrera, no hay igualación o restricciones en los ingresos; y el gran sector capitalista no está disminuyendo constantemente. Pero, por otro lado, los capitalistas no controlan la maquinaria estatal, sino los funcionarios del Partido Comunista; la ley del valor (beneficio) y los mercados no dominan la inversión, sí lo hace el gran sector estatal; y ese sector (y el sector capitalista) tienen la obligación de cumplir con los objetivos de planificación nacional (a expensas de la rentabilidad, si es necesario).

Si China fuera simplemente otra economía capitalista, ¿cómo explicamos su fenomenal éxito en el crecimiento económico, sacando a 850 millones de chinos de la línea de pobreza ?; y evitar las recesiones económicas que las principales economías capitalistas han sufrido de forma regular? Si ha logrado esto con una población de 1.400 millones y, sin embargo, es capitalista, entonces sugiere que puede haber una nueva etapa en la expansión capitalista basada en alguna forma estatal de capitalismo que sea mucho más exitosa que los capitalismos anteriores y ciertamente más que sus pares en India, Brasil, Rusia, Indonesia o Sudáfrica. China sería entonces una refutación de la teoría marxista de la crisis y una justificación del capitalismo. Afortunadamente, podemos atribuir el éxito de China a su sector estatal dominante para la inversión y la planificación, no a la producción capitalista con fines de lucro y al mercado.

Para mí, China se encuentra en una “transición atrapada”. No es capitalista (todavía) pero no avanza hacia el socialismo, donde el modo de producción es a través de la propiedad colectiva de los medios de producción para las necesidades sociales con consumo directo sin mercados, intercambio o dinero. China está atrapada porque todavía está atrasada tecnológicamente y está rodeada de economías imperialistas cada vez más hostiles; pero también está atrapado porque no existen organizaciones democráticas de trabajadores y los burócratas del PC deciden todo, a menudo con resultados desastrosos.

Por supuesto, esta visión de China es minoritaria. Los “expertos en China” occidentales están al unísono de que China es capitalista y una forma desagradable de capitalismo para arrancar, no como los capitalismos “democráticos liberales” del G7. Además, la mayoría de los marxistas están de acuerdo en que China es capitalista e incluso imperialista. En la sesión, Walter Daum argumentó que, incluso si la evidencia económica sugiere que China no es imperialista, políticamente China es imperialista, con sus políticas agresivas hacia los estados vecinos, sus relaciones comerciales y crediticias explotadoras con países pobres y su supresión de minorías étnicas como los uyghars en la provincia de Xinjiang. Otros presentadores, como Dic Lo y Cheng Enfu de China, no estuvieron de acuerdo con Daum, y Cheng caracterizó a China como “socialista con elementos del capitalismo de Estado”, una formulación extraña que suena confusa.

Finalmente, debo mencionar algunas otras presentaciones. Primero, sobre la controvertida cuestión de la financiarización. Los partidarios de la ‘financiarización’ argumentan que el capitalismo ha cambiado en los últimos 50 años de una economía orientada a la producción a una dominada por el sector financiero y son las visiones de este sector inestable las que causan las crisis, no los problemas de rentabilidad en el sector productivo. sectores, como argumentó Marx. Esta teoría ha dominado el pensamiento de los economistas poskeynesianos y marxistas en las últimas décadas. Pero cada vez hay más pruebas de que la teoría no solo es incorrecta teóricamente, sino también empíricamente.

Y en IIPPE, Turan Subasat y Stavros Mavroudeas presentaron aún más evidencia empírica para cuestionar la “financiarización” en su artículo titulado: La hipótesis de la financiarización: una crítica teórica y empírica. Subasat y Mavroudeas encuentran que la afirmación de que la mayoría de las empresas multinacionales más grandes son “financieras” es incorrecta. De hecho, la participación de las finanzas en los EE. UU. Y el Reino Unido no ha aumentado en los últimos 50 años; y durante los últimos 30 años, la participación del sector financiero en el PIB disminuyó en un 51,2% y la participación del sector financiero en los servicios disminuyó en un 65,9% en los países estudiados. Y no hay evidencia de que la expansión del sector financiero sea un predictor significativo del declive de la industria manufacturera, que ha sido causado por otros factores (globalización y cambio técnico).

Y hubo algunos artículos que continuaron confirmando la teoría monetaria de Marx, a saber, que las tasas de interés no están determinadas por una “ tasa de interés natural ” de la oferta y la demanda de ahorros (como argumentan los austriacos) o por la preferencia de liquidez, es decir, el acaparamiento de dinero (como afirman los keynesianos), pero están limitados e impulsados ​​por los movimientos en la rentabilidad del capital y, por lo tanto, la demanda de fondos de inversión. Nikos Stravelakis ofreció un artículo, Una reconciliación de la teoría del interés de Marx y el rompecabezas de la prima de riesgo, que mostraba que las ganancias netas corporativas están relacionadas positivamente con los depósitos bancarios y las ganancias netas a brutas están relacionadas positivamente con la tasa de depósitos de préstamos y que el 60% de las variaciones en las tasas de interés pueden explicarse por cambios en la tasa de ganancia. Y Karl Beitel mostró la estrecha conexión entre el movimiento a largo plazo de la rentabilidad en las principales economías en los últimos 100 años (cayendo) y la tasa de interés de los bonos a largo plazo (cayendo). Esto sugiere que hay un nivel máximo de tasas de interés, como argumentó Marx, determinado por la tasa de ganancia sobre el capital productivo, porque el interés proviene solo de la plusvalía.

Finalmente, algo que no estaba en IIPPE pero que agrega aún más apoyo a la ley de Marx de la tendencia a la caída de la tasa de ganancia. En el libro World in Crisis, coeditado por Carchedi y yo, muchos economistas marxistas presentaron evidencia empírica de la caída de la tasa de ganancia del capital de muchos países diferentes. Ahora podemos agregar otro. En un nuevo artículo, El crecimiento económico y la tasa de ganancia en Colombia 1967-2019, Alberto Carlos Duque de Colombia muestra la misma historia que hemos encontrado en otros lugares. El artículo encuentra que el movimiento en la tasa de ganancia está “en concordancia con las predicciones de la teoría marxista y afecta positivamente la tasa de crecimiento. Y la tasa de crecimiento del PIB se ve afectada por la tasa de ganancia y la tasa de acumulación está en una relación inversa entre estas últimas variables ”.

Por lo tanto, los resultados “son consistentes con los modelos macroeconómicos marxistas revisados en este artículo y brindan apoyo empírico a los mismos. En esos modelos, la tasa de crecimiento es un proceso impulsado por el comportamiento de la tasa de acumulación y la tasa de ganancia. Nuestros análisis econométricos brindan apoyo empírico a la afirmación marxista sobre el papel fundamental de la tasa de ganancia, y sus elementos constitutivos, en la acumulación de capital y, en consecuencia, en el crecimiento económico”.

III. OTRAS REFERENCIAS BIBLIOGRÁFICAS

LECCIONES DE GNOSEOLOGÍA MARXIANA I (LESSONS ON MARXIAN GNOSEOLOGY I)

isaDORE NABI

xiii. REFERENCIAS (references)

Bayes, T. (23 de Diciembre de 1763). An Essay towards solving a Problem in the Doctrine of Chances. Philosophical Transactions of the Royal Society of London, 370-418.

Bernoulli, J. (2006). The Art of Conjecturing (Together to a Friend on Sets in Court Tennis). Maryland: John Hopkins University Press.

Crupi, V. (28 de Enero de 2020). Confirmation. Obtenido de Stanford Encyclopedia of Philosophy: https://plato.stanford.edu/entries/confirmation/

DeGroot, M., & Schervish, M. (2012). Probability and Statistics. Boston: Pearson Education.

Dussel, E. (1991). 2. El método dialéctico de lo abstracto a lo concreto (20, 41-33, 14; 21,3-31,38) :(Cuaderno M. desde la página 14 del manuscrito, terminado a mediados deseptiembre de 1857). En E. Dussel, La producción teórica de Marx: un comentario a los grundrisse (págs. 48-63). México D.F.: Siglo XXI Editores. Obtenido de http://biblioteca.clacso.edu.ar/clacso/otros/20120424094653/3cap2.pdf

Efron, B. (1978). Controversies in the Foundations of Statistics. The American Mathematical Monthly, 231-246.

Eremenko, A. (30 de Abril de 2020). Stack Exchange, History of Sciences and Mathematics. Obtenido de What was Kolmogorov’s point of view in the philosophy of mathematics?: https://hsm.stackexchange.com/questions/11730/what-was-kolmogorov-s-point-of-view-in-the-philosophy-of-mathematics

Feller, W. (1968). An Introduction to Probability Theory and Its Applications (Tercera ed., Vol. I). New York: John Wiley & Sons, Inc.

Filosofía en español. (9 de Febrero de 2018). Diccionario filosófico abreviado. Obtenido de URSS: http://www.filosofia.org/urss/dfa1959.htm

Fröhlich, N. (2012). Labour values, prices of production and the missing equalisation tendency of profit rates: evidence from the German economy. Cambridge Journal of Economics, 37(5), 1107-1126.

Frolov, I. T. (1984). Diccionario de filosofía. (O. Razinkov, Trad.) Moscú: Editorial Progreso. Obtenido de http://filosofia.org/

Fundación del Español Urgente. (23 de Marzo de 2021). Formación de gentilicios extranjeros. Obtenido de Lista de topónimos y gentilicios: https://www.wikilengua.org/index.php/Formaci%C3%B3n_de_gentilicios_extranjeros

Fundación del Español Urgente. (23 de Marzo de 2021). -ista (sufijo). Obtenido de Sufijos: https://www.wikilengua.org/index.php/-ista_(sufijo)

Gigerenzer, G. (2004). Mindless Statistics. The Journal of Socio-Economics, 587-606.

Greene, W. H. (2012). Econometric Analysis (International Edition). Essex: Pearson Education Limited.

Guerrero Jiménez, D. (2018). TRABAJO IMPRODUCTIVO, CRECIMIENTO Y TERCIARIZACIÓN (30 AÑOS DESPUÉS DE MARX Y KEYNES). International Journal of Political Economy, 1-16. Obtenido de https://www.researchgate.net/publication/327189598_Diego_Guerrero_TRABAJO_IMPRODUCTIVO_CRECIMIENTO_Y_TERCIARIZACION_30_ANOS_DESPUES_DE_MARX_Y_KEYNES

Haldane, J. B. (1945). Science and Everyday Life. Allahabad,: Kitab Mahal Publishers.

Hegel, F. (1968). Ciencia de la Lógica. Buenos Aires: Solar / Hachette.

Johnsen, J. (17 de Enero de 2019). What is the difference between positivism and empiricism? Obtenido de Quora: https://www.quora.com/What-is-the-difference-between-positivism-and-empiricism

Kohan, N., & Brito, P. (1 de Febrero de 2009). Marxismo para principiantes. Obtenido de nodo50: https://info.nodo50.org/Diccionario-basico-de-categorias.html

Kojevnikov, A. (19 de Junio de 2019). PROBABILITY, MARXISM, AND QUANTUM ENSEMBLES. Obtenido de The University of British Columbia: https://history.ubc.ca/wp-content/uploads/sites/23/2019/06/probability2012.pdf

Kolmogórov, A. (1956). Foundations of the Theory of Probability (Segunda Edición ed.). New York: Chelsea Publishing Company.

Laplace, P.-S. (2015). Ensayo Filosófico Sobre Probabilidades. Ciudad de México: Biblioteca Digital del Instituto Latinoamericano de Comunicación Educativa. Obtenido de http://bibliotecadigital.ilce.edu.mx/Colecciones/ReinaCiencias/_docs/EnsayoFilosoficoProbabilidades.pdf

Lenin, V. (1974). Cuadernos Filosóficos. Madrid: Editorial Ayuso.

Loughborough University. (21 de Febrero de 2008). Total Probability and Bayes’ Theorem. Obtenido de The theorem of total probability: https://learn.lboro.ac.uk/archive/olmp/olmp_resources/pages/workbooks_1_50_jan2008/Workbook35/35_4_total_prob_bayes_thm.pdf

Maibaum, G. (1988). Teoría de Probabilidades y Estadística Matemática. (M. Á. Pérez, Trad.) La Habana, Cuba: Editorial Pueblo y Educación.

Marx, K. (1894). Capital. A Critique of Political Economy (Vol. III). New York: International Publishers.

Marx, K. (1989). Contribución a la Crítica de la Economía Política. Moscú: Editorial Progreso.

Marx, K. (2007). Elementos Fundamentales para la Crítica de la Economía Política (Grundrisse) 1857-1858 (Vol. I). (J. Aricó, M. Murmis, P. Scaron, Edits., & P. Scaron, Trad.) México, D.F.: Siglo XXI Editores.

Marx, K. (2010). El Capital (Vol. I). México, D.F.: Fondo de Cultura Económica.

Marx, K., & Engels, F. (1987). Karl Marx and Friedrich Engels Collected Works (Vol. XLII). Moscú: Progress Publishers.

Mittelhammer, R. (2013). Mathematical Statistics for Economics and Business (Segunda ed.). New York: Springer.

Nabi, I. (2020). Algunas Reflexiones Sobre la Distribución Binomial Negativa II (Un Análisis Teórico y Aplicado). Documento Inédito. Obtenido de https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/algunas-reflexiones-sobre-la-distribucion-binomial-negativa-ii-isadore-nabi-2.pdf

Nabi, I. (21 de Marzo de 2021). Sobre el papel y la viabilidad de la violencia en la lucha social de las mujeres en particular y en las luchas sociales en general. Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/03/11/sobre-el-papel-y-viabilidad-de-la-violencia-en-la-lucha-social-de-las-mujeres-en-particular-y-en-la-lucha-social-en-general/

Nabi, I., & B.A., A. (1 de Abril de 2021). UNA METODOLOGÍA EMPÍRICA PARA LA DETERMINACIÓN DE LA MAGNITUD DE LAS INTERRELACIONES SECTORIALES DENTRO DE LA MATRIZ INSUMO-PRODUCTO DESDE LOS CUADROS DE PRODUCCIÓN Y USOS PARA EL CASO DE ESTADOS UNIDOS 1997-2019. Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/04/01/una-metodologia-empirica-para-la-determinacion-de-la-magnitud-de-las-interrelaciones-sectoriales-dentro-de-la-matriz-insumo-producto-desde-los-cuadros-de-oferta-utilizacion-para-el-caso-de-estados-uni/

North Carolina State University. (27 de Septiembre de 2020). People – Department of History . Obtenido de Dr Edith D Sylla: https://history.ncsu.edu/people/faculty_staff/edsssl

Perezgonzalez, J. (3 de Marzo de 2015). Fisher, Neyman-Pearson or NHST? A tutorial for teaching data testing. (L. Roberts, Ed.) Frontiers in Psychology, 6(223), 1-11. doi:10.3389/fpsyg.2015.00223

Poisson, S.-D. (2013). Researches into the Probabilities of Judgments in Criminal and Civil Cases. (O. Sheynin, Ed.) Berlin: arXiv. Obtenido de https://arxiv.org/abs/1902.02782

Radboud Univeristy. (11 de Febrero de 2011). Faculty of Philosophy, Theology and Religious Studies. Obtenido de Center for the History of Philosophy and Science. Edith Dudley Sylla: https://www.ru.nl/ptrs/chps/about-us/former-members/vm/sylla/

Rosental, M. (1961). Los problemas de la dialéctica en “EL CAPITAL” de Marx. Montevideo: Ediciones Pueblos Unidos.

Rosental, M. M., & Iudin, P. F. (1971). DICCIONARIO FILOSÓFICO. San Salvador: Tecolut.

Rosental, M., & Iudin, P. (1959). Diccionario filosófico abreviado. Montevideo: Ediciones Pueblos Unidos.

Russell, K. (29 de Enero de 2014). University of Manitoba. Obtenido de Hypothesis testing: http://home.cc.umanitoba.ca/~krussll/stats/hypothesis-testing.html

StackExchange Philosophy. (15 de Junio de 2015). How empiricism and positivism is distinguished? What’s their differences? Obtenido de Philosophy: https://philosophy.stackexchange.com/questions/24937/how-empiricism-and-positivism-is-distinguished-whats-their-differences

TECH2 NEWS STAFF. (28 de Noviembre de 2019). SCIENTISTS MAY HAVE DISCOVERED A FIFTH FUNDAMENTAL ‘FORCE OF NATURE,’ THEY’RE CALLING IT X17. Obtenido de TECH2: https://www.firstpost.com/tech/science/scientists-may-have-discovered-a-fifth-fundamental-force-of-nature-theyre-calling-it-x17-7710261.html

Wikipedia. (27 de Septiembre de 2020). Population Genetics. Obtenido de J. B. S. Haldane: https://es.wikipedia.org/wiki/John_Burdon_Sanderson_Haldane

Wikipedia. (23 de Septiembre de 2020). Statistics. Obtenido de Inverse Probability: https://en.wikipedia.org/wiki/Inverse_probability

Wikipedia. (13 de Marzo de 2021). Relación de incertidumbre. Obtenido de Mecánica cuántica: https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

Williamson, J. (2010). In Defence of Objective Bayesianism. Oxford: Oxford University Press.