What are the KKT conditions?

Consider an optimization problem in standard form: with the variable . Assume that the ‘s and ‘s are differentiable. (At this point, we are not assuming anything about their convexity.) As before, define the Lagrangian as the function Let and be the primal and dual optimal points respectively (i.e. points where the primal and dual […]

What are the KKT conditions?

PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS EN MODELOS ESTADÍSTICOS

ISADORE NABI

# PROCESO DE SELECCIÓN DE VARIABLES EXPLICATIVAS
## Introducción: Sobre la necesidad de un proceso de selección de predictores
Usualmente se tiene interés en explicar los datos de la forma más simple, lo cual en el contexto de la teoría de las probabilidades (especialmente en la teoría bayesiana de probabilidades) se conoce como el *principio de parsimonia*, el cual está inspirado en el principio filosófico conocido como *navaja de Ockham*, la cual establece que en igualdad de condiciones la explicación más simple suele ser la más probable. El principio de parsimonia adopta diferentes formas según el área de estudio del análisis inferencial en el que se encuentre un investigador. Por ejemplo, una parametrización parsimoniosa es aquella que usa el número óptimo de parámetros para explicar el conjunto de datos de los que se dispone, pero "parsimonia" también puede referirse a modelos de regresión parsimoniosos, es decir, modelos que utilizan como criterio de optimización emplear la mínima cantidad de coeficientes de regresión para explicar una respuesta condicional Y. El principio de parsimonia, los procesos matemáticos de optimización regidos por el criterio de alcanzar un mínimo y la navaja de Ockham son un mismo tipo de lógica aplicado en escalas de la existencia (que podríamos llamar en general "materia", como lo hace Landau en sus curso de física teórica) cualitativamente diferentes. La historia de la Filosofía demuestra que el único sistema que podría ser aplicado así exitosamente es el sistema hegeliano (lo que obedece a que parcialmente sigue la lógica de la existencia misma, como han demostrado Marx, Engels, Lenin, Levins, Lewontin y el mismo Hegel en su extensa obra). ¿Cómo es posible la vinculación en distintas escalas cualitativas de la realidad del principio de la navaja de Ockham? A que todas esas ideas responden a la escuela filosófica de Ockham, que era la escuela nominalista. Retomando lo que señalan (Rosental & Iudin. Diccionario Filosófico, Editorial Tecolut, 1971. p.341; véase https://www.filosofia.org/enc/ros/nom.htm), el nominalismo fue una corriente de la filosofía medieval que consideraba (ya es una escuela extinta) que los conceptos generales tan sólo son nombres de los objetos singulares. Los nominalistas afirmaban que sólo poseen existencia real las cosas en sí, con sus cualidades individuales (es decir, las generalizaciones para ellos no tenían valor gnoseológico en sí mismas sino como recurso gnoseológico). Los nominalistas van más allá, planteando que las generalizaciones no sólo no existen con independencia de los objetos particulares (esta afirmación en correcta, lo que no es correcto es pensar que lo inverso sí es cierto), sino que ni siquiera reflejan las propiedades y cualidades de las cosas. El nominalisto se hallaba indisolublemente vinculado a las tendencias materialistas, ya que reconocía la prioridad de la cosa y el carácter secundario del concepto. Por supuesto, las generalizaciones aunque menos reales que los objetos particulares (y de ahí la sujeción de la teoría a la práctica en un concepto que las une conocido en la teoría marxista como *praxis*) no deja por ello de ser real en cuanto busca ser una representación aproximada (a largo plazo cada vez más aproximada a medida se desarrollan las fuerzas productivas) de la estructura general (interna y externa, métrica y topológica) común que tienen tales fenómenos naturales o sociales. Marx señaló que el nominalismo fue la primera expresión del materialismo de la Edad Media. Con todo, los nominalistas no comprendían que los conceptos generales reflejan cualidades reales de cosas que existen objetivamente y que las cosas singulares no pueden separarse de lo general, pues lo contienen en sí mismas (y esto no tiene un carácter únicamente marxista, sino que incluso el célebre formalista David Hilbert señaló, según la célebre biógrafa de matemáticos Constance Reid que "The art of doing mathematics consists in finding that special case which contains all the germs of generality"). Así, el defecto fundamental de la navaja de Ockham es el no considerar algún conjunto de restricciones que complementen al criterio de selección de la explicación basado en que sea la idea más simple. Como se señala en https://www.wikiwand.com/en/Occam%27s_razor, 
"En química, la navaja de Occam es a menudo una heurística importante al desarrollar un modelo de mecanismo de reacción (...) Aunque es útil como heurística en el desarrollo de modelos de mecanismos de reacción, se ha demostrado que falla como criterio para seleccionar entre algunos modelos publicados seleccionados (...) En este contexto, el propio Einstein expresó cautela cuando formuló la Restricción de Einstein: "Difícilmente se puede negar que el objetivo supremo de toda teoría es hacer que los elementos básicos irreductibles sean tan simples y tan pocos como sea posible sin tener que renunciar a la representación adecuada de un dato único de experiencia"."
La clave en la expresión anterior de Einstein es "sin tener que renunciar a...", lo que se cristaliza nítidamente en una frase que señala la fuente citada es atribuida a Einstein, pero no ha sido posible su verificación: "Todo debe mantenerse lo más simple posible, pero no lo más simple". Como se verifica en https://www.statisticshowto.com/parsimonious-model/, en general, existe un *trade-off* entre la bondad de ajuste de un modelo y la parsimonia: los modelos de baja parsimonia (es decir, modelos con muchos parámetros) tienden a tener un mejor ajuste que los modelos de alta parsimonia, por lo que es necesario buscar un equilibrio.

La parsimonia estadística es deseada porque un mínimo de coeficientes de regresión implica un mínimo de variables y un mínimo de estos implica un mínimo de variables explicativas, lo que puede ser útil en casos de que exista colinealidad entre las variables explicativas, así como también permite ahorrar tiempo y dinero en lo relativo a la inversión de recursos destinada al estudio, aunque no necesariamente garantice que en general (considerando el impacto posterior de las decisiones tomadas con base en el estudio y otros factores) se ahorre tiempo y dinero.

## Modelos Jerárquicos
Existen diferentes tipos de modelos jerárquicos. Los hay de diferente tipo, algunos más complejos que otros (complejidad a nivel teórico, matemático y computacional); ejemplos de tales modelos son las mixturas de probabilidad y se pueden estudiar en https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf. Aquí se tratará con modelos jerárquicos más simples, como los abordados en (Kutner, Nachtsheim, Neter & Li. p.294-305).

Como señalan los autores referidos en la p.294., los modelos de regresión polinomial tienen dos tipos básicos de usos: 1. Cuando la verdadera función de respuesta curvilínea es de hecho una función polinomial. 2. Cuando la verdadera función de respuesta curvilínea es desconocida (o compleja), pero una función polinomial es una buena aproximación a la función verdadera. El segundo tipo de uso, donde la función polinomial se emplea como una aproximación cuando se desconoce la forma de la verdadera función de respuesta curvilínea, es muy común. Puede verse como un enfoque no paramétrico para obtener información sobre la forma de la función que modela la variable de respuesta. Un peligro principal en el uso de modelos de regresión polinomial es que las extrapolaciones pueden ser peligrosas con estos modelos, especialmente en aquellos con términos de orden superior, es decir, en aquellos cuyas potencias sean iguales o mayores a 2. Los modelos de regresión polinomial pueden proporcionar buenos ajustes para los datos disponibles, pero pueden girar en direcciones inesperadas cuando se extrapolan más allá del rango de los datos.

Así, como señalan los autores referidos en la p.305, el uso de modelos polinomiales no está exento de inconvenientes. Estos modelos pueden ser más costosos en grados de libertad que los modelos no-lineales alternativos o los modelos lineales con variables transformadas. Otro inconveniente potencial es que puede existir  multicolinealidad grave incluso cuando las variables predictoras están centradas. Una alternativa al uso de variables centradas en la regresión polinomial es usar polinomios ortogonales. Los polinomios ortogonales están no-correlacionados, puesto que la ortogonalidad de sus términos implica independencia lineal entre los mismos. Algunos paquetes de computadora usan polinomios ortogonales en sus rutinas de regresión polinomial y presentan los resultados ajustados finales en términos tanto de los polinomios ortogonales como de los polinomios originales. Los polinomios ortogonales se discuten en textos especializados como (Drapper & Smith, Applied Linear Regression). A veces, se ajusta una función de respuesta cuadrática con el fin de establecer la linealidad de la función de respuesta cuando no se dispone de observaciones repetidas para probar directamente la linealidad de la función de respuesta.

## Caso de Aplicación
### 1. Conversión de Matriz de Datos a Marco de Datos
La base ´Vida.Rdata´ contiene datos para los 50 estados de los Estados Unidos. Estos datos son proporcionados por U.S. Bureau of the Census. Se busca establecer las relaciones que existen entre ciertas variables del Estado que se analice y la esperanza de vida. A continuación, se presenta una descripción de las variables que aparecen en la base en el orden en que
aparecen:

  + **esper**: esperanza de vida en años (1969-71). 
  + **pob**: población al 1 de Julio de 1975.
  + **ingre**: ingreso per capita (1974).
  + **analf**: porcentaje de la población analfabeta (1970).
  + **crim**: tasa de criminalidad por 100000 (1976).
  + **grad**: porcentaje de graduados de secundaria (1970).
  + **temp**: número promedio de días con temperatura mínima por debajo de los 32 grados (1931-1960) en la capital del estado.
  + **area**: extensión en millas cuadradas.

Debe comenzarse leyendo el archivo de datos pertinente mediante la sintaxis `load("Vida.Rdata")`. Si se observa la estructura de la base de datos, se verifica que es simplemente una matriz. Por tanto, si se utiliza la sintaxis `names(base)` no se obtiene información alguna, mientras que si se trata de llamar a alguna de las variables por su nombre, como por ejemplo `base$esper`, R informa de un error y lo mismo ocurre si se usa `attach(base)`. Esto sucede porque la estructura de datos invocada no está definida como un marco de datos o `data.frame`. Por ello, debe comenzarse por convertir dicha matriz de datos en un marco de datos o  `data.frame`y posteriormente puede verificarse si las sintaxis antes mencionadas son ahora operativas.

“`{r}
setwd(“C:/Users/User/Desktop/Carpeta de Estudio/Mis Códigos en R”)
load(“Vida.Rdata”)
names(base)
base=data.frame(base)
names(base)
“`

### 2. Obtención de todos los modelos posibles dado un determinado conjunto de variables dentro del marco de datos
Pueden obtenerse los $R^2$ ajustados de todos los modelos posibles con las 7 variables disponibles. Para hacerlo, puede construirse primero un objeto con todos los predictores y llamarlo **X** para posteriormente construir un objeto llamado **sel** aplicando la función `leaps` (perteneciente a la librería con el mismo nombre) de la siguiente forma: `sel=leaps(x,y, method="adjr2")`. Nótese que el objeto construido mediante la sintaxis `leaps`, es decir, **sel**, es una lista con 4 componentes cuyos nombres pueden obtenerse con la sintaxis `names(sel)`.  Así, puede llamarse a cada uno de tales componentes por separado usando el signo `$`, por ejemplo, `sel$which`. Antes de proceder a realizar los cálculos definidos antes, se estudiará a nivel general la sintaxis `leaps`.

La sintaxis `leaps` usa un algoritmo eficiente (parsimonioso) de ramificación y cota para realizar una búsqueda exhaustiva de los mejores subconjuntos de las variables contenidas en el marco de datos para predecir y realizar análisis de regresión lineal; este tipo de algoritmo, según https://www.wikiwand.com/en/Branch_and_bound, es un paradigma de diseño de algoritmos para problemas de optimización discreta y combinatoria, así como optimización matemática. Un algoritmo de ramificación y acotación consiste en una enumeración sistemática de soluciones candidatas mediante la búsqueda en el espacio de estados: se piensa que el conjunto de soluciones candidatas forma un árbol enraizado con el conjunto completo en la raíz; "si las cosas fuesen tal y como se presentan ante nuestros ojos, la ciencia entera sobraría" dijo Marx alguna vez. El algoritmo explora las ramas del árbol representado por los subconjuntos del conjunto de soluciones posibles al problema de optimización. Antes de enumerar las soluciones candidatas de una rama, el algoritmo sigue el siguiente proceso descarte de ramas: la rama se compara con los límites estimados superior e inferior de la solución óptima y se descarta (la rama en su conjunto) si no ella puede producir una solución mejor que la mejor encontrada hasta ahora por el algoritmo (véase https://cran.r-project.org/web/packages/leaps/leaps.pdf, p.1). Como se señala en la documentación antes citada, dado que el algoritmo devuelve el mejor modelo de cada tamaño (aquí se refiere a los modelos estadísticamente más robustos según un número de variables fijo que se considere) no importa si desea utilizar algún criterio de información (como el AIC, BIC, CIC o DIC). El algoritmo depende de una estimación eficiente de los límites superior e inferior de las regiones/ramas del espacio de búsqueda. Si no hay límites disponibles, el algoritmo degenera en una búsqueda exhaustiva.

A pesar de lo señalado relativo a que la búsqueda realiza por `leaps` es independiente de cualquier criterio de información utilizado, puede omitirse este hecho con la finalidad de que sea posible incorporar a esta práctica el estudio de los criterios de información. A continuación, se presenta una lista de los mejores modelos siguiendo el criterio de $R^2$ ajustado más alto, lo que se indica al interior de la sintaxis `leaps` mediante methods="adjr2".

“`
{r}
attach(base)
library(leaps)
X=cbind(pop,ingre,analf,crim,grad,temp,area)
sel=leaps(X,esper, method=”adjr2″)
sel
names(sel)
sel$adjr2
sel$which
sel$label
sel$size
“`

Adicionalmente, es posible construir una matriz, almacenarla bajo el nombre **mat** con el contenido de las filas `sel$which` y `sel$adjr2`, agregando un contador para identificar cada modelo mediante la sintaxis `cbind`. La estructura de datos **mat** contiene todos los diferentes modelos de regresión lineal (a diferentes tamaños de los mismos) mediante la sintaxis `leaps` para la base de datos utilizada.

“`{r}
k=nrow(sel$which)
k
mat=data.frame(cbind(n=1:k,sel$which,round(sel$adjr2,2)))
mat

head(mat[order(-mat$V9),],10)
“`

Así, puede construirse un subconjunto de **mat** que contenga sólo los modelos cuyo coeficiente de determinación ajustado sea mayor o igual que 0.68.

“`{r}
subcon=subset(mat,sel$adjr2>=0.68)
head(subcon[order(-subcon$V9),],10)
“`

Nótese que los cuatro modelos con el $R^2$ ajustado más alto son los modelos 28, 38, 39, y 40, cuyo tamaño oscila entre 4 o 5 variables explicativas; si se utiliza la sintaxis `print` es posible verificar que en las filas está el modelo como tal (si la variable se toma en consideración tiene asignado un "1", mientras que en caso contrario un "0"), mientras que en las columnas se localizan las posibles variables a utilizar.

### 3. Estadístico de Mallows
Como se puede verificar en https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/, el Estadístico $C_p$ de Mallows sirve como ayuda para elegir entre múltiple modelos de regresión. Este estadístico ayuda a alcanzar un equilibrio importante con el número de predictores en el modelo. El $C_p$ de Mallows compara la precisión y el sesgo del modelo completo con modelos que incluyen un subconjunto de los predictores. Por lo general, deben buscarse modelos donde el valor del $C_p$ de Mallows sea pequeño y esté cercano al número de predictores del modelo más la constante $p$. Un valor pequeño del $C_p$ de Mallows indica que el modelo es relativamente preciso (tiene una varianza pequeña) para estimar los coeficientes de regresión verdaderos y pronosticar futuras respuestas. Un valor del $C_p$ de Mallows que esté cerca del número de predictores más la constante indica que, relativamente, el modelo no presenta sesgo en la estimación de los verdaderos coeficientes de regresión y el pronóstico de respuestas futuras. Los modelos con falta de ajuste y sesgo tienen valores de $C_p$ de Mallows más grandes que p. A continuación se presenta un ejemplo.
#Figura 1: Ejemplo del uso del Estadístico de Mallows para evaluar un modelo #Fuente: https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/regression/supporting-topics/goodness-of-fit-statistics/what-is-mallows-cp/
Así, para el ejemplo aquí utilizado (que responde a la base de datos antes especificada) puede obtenerse el estadístico $C_p$ de Mallows para todos los modelos posibles con las 7 variables disponibles. Para ello puede usarse la función `leaps`; nótese que no es necesario indicarle a R que obtenga el estadístico de Mallows mediante la sintaxis `method=Cp` puesto que este método es el establecido por defecto en la programación de R, por lo que en el escenario en que no se indique un "method" en específico el programa utilizará por defecto el criterio del estadístico de Mallows.

“`{r}
sel = leaps(X,esper)
names(sel)
sel$Cp
“`

Complementariamente, puede construirse una nueva matriz **mat** que en lugar de los criterios `sel$which` y `sel$adjr2` siga los criterios `sel$which`, `sel$Cp` y `sel$size`, agregando al igual que antes un contador para identificar cada modelo. Esto implicará la sobreeescritura de la matriz **mat**. Pueden seleccionarse con antelación únicamente las filas de **mat** que se corresponden con los modelos seleccionados en el punto anterior y comparar la columna del $C_p$ con la columna $size$ que corresponde al número de coeficientes (p). En cada caso puede determinarse si el modelo es sesgado o no, sin perder de vista que un modelo es sesgado según el estadístico de Mallows si $C_p>p$. De lo anterior se desprende que se está buscando un conjunto de modelos insesgados para los cuales se verifica la condición $C_p<p$ antes mencionada.

“`{r}
mat=data.frame(cbind(1:k,sel$which,round(sel$Cp,2),sel$size))
colnames(mat)[9]<-“CP”
colnames(mat)[10]<-“p”
mat[c(28,38,39,40),]
“`

Como puede observarse, en todos los modelos arrojados por la sintaxis `leaps` cumplen con la condición antes especificada, por lo que es posible afirmar que, sobre todo respecto a los modelos 28, 38, 39 y 40, que son buenos candidatos para ser utilizados (los mejores modelos son los mismos cuatro que en el literal anterior).

### 4. Suma de Cuadrados Residuales de Predicción (PRESS)
####4.1. Aproximación Gráfica
Como se señala en (https://pj.freefaculty.org/guides/stat/Regression/RegressionDiagnostics/OlsHatMatrix.pdf, p.9), la PRESS no es otra cosa que el error de estimación correspondiente a un valor particular de la variable condicional $Y$; la estimación de PRESS a veces es útil como una medida resumida de la capacidad de un modelo para predecir nuevas observaciones. Las líneas de comando presentadas a continuación expresan la configuración de la función personalizada `plot.press`, que es una función empírica que se aproxima gráficamente a los PRESS mediante el siguiente procedimiento:

a) Crea un modelo solamente con la variable **ingre**.

b) Toma el Estado i-ésimo y crea otro modelo basado en los demás Estados (excepto el i-ésimo).

c) Grafica las dos líneas de regresión y marca la observación del Estado i-ésimo en rojo para que se observe como se diferencian las dos líneas a la altura del ingreso de ese Estado.

d) Estima el promedio de la esperanza de vida para el i-ésimo Estado usando las dos ecuaciones.

“`{r}
plot.press=function(i){
mod =lm(esper~ingre,base)
mod1=lm(esper ~ ingre,base[-i,])

plot(base$ingre,base$esper,pch=18,xlab=”ingreso”,ylab=”esperanza”)
points(base$ingre[i],base$esper[i],pch=18,col=2)
abline(mod)
abline(mod1,lty=2,col=2)
abline(v=base$ingre[i],col=4,lty=2)
legend(3000,max(esper),c(“completo”,paste(“falta el “,i,sep=””)),col=c(1,2),lty=c(1,2),bty=”n”)

yi=predict(mod,data.frame(ingre=base$ingre[i]))
yii=predict(mod1,data.frame(ingre=base$ingre[i]))
res=c(yi,yii)
names(res)=c(“y_i”,”y_i(i)”)
return(round(res,2))
}
“`

Así, puede usarse la función `plot.press` con diferentes estados, por ejemplo, con Alaska (i=2) o algún otro.

“`{r}
plot.press(2)
plot.press(15)
plot.press(10)
“`

#### 4.2.  Aproximación Inferencial vía Residuos Estandarizados
Como señala https://www.statisticshowto.com/what-is-a-standardized-residuals/, los residuos estandarizados permiten normalizar el conjunto de datos de estudio en el contexto del análisis de regresión y de la ejecución de pruebas de hipótesis chi-cuadrado $χ^2$. Un residuo estandarizado es una razón: la diferencia entre el valor observado y el valor esperado (condicional, a posteriori) sobre la desviación estándar del valor esperado en la prueba de chi-cuadrado.

Como se señala en https://online.stat.psu.edu/stat501/lesson/11/11.4, existen varias medidas para identificar valores extremos de X (observaciones de alto $leverage$ o $influencia$) y valores de Y inusuales (valores atípicos). Al intentar identificar valores atípicos, un problema que puede surgir es cuando existe un valor atípico potencial que influye en el modelo de regresión hasta tal punto que la función de regresión estimada se "arrastrada" hacia el valor atípico potencial, de modo que no se marca como un valor atípico utilizando el criterio usual de residuos estandarizados. Para abordar este problema, los residuos eliminados ofrecen un criterio alternativo para identificar valores atípicos. La idea básica de esto es eliminar las observaciones una a la vez, reajustando cada vez el modelo de regresión en las n – 1 observaciones restantes. Luego, se comparan los valores de respuesta observados con sus valores ajustados basados en los modelos con la i-ésima observación eliminada. Esto produce residuos eliminados (no estandarizados). La estandarización de los residuos eliminados produce residuos eliminados studentizados, como se verá teóricamente a continuación.

Formalmente, es un resultado conocido del álgebra lineal que $y=Xβ+ε$, en donde $X_{n×p}$, $\hat{β}=(X'X)^{-1}X-y$ y $\hat{y}=X\hat{β}=X(X'X)^{-1}X'y=Hy$, donde $H=X(X'X)^{-1}X'$ es la matriz conocida como *matriz sombrero*. Los residuos son $e=y-\hat{y}=y-Hy=(I-H)y$. Adicionalmente, se sabe que la varianza poblacional $σ^2$ es desconocida y puede estimarse mediante la suma de cuadrados medios del error $MSE$. Así, los residuos pueden ser expresados mediante la ecuación $e_i^*=\frac{e_i}{\sqrt{MSE}}$ y se conocen como *residuos semistudentizados*. Puesto que la varianza de los residuos depende tanto de $σ^2$ como de $X$, la varianza estimada es $\hat{V}(e_i)=MSE(1-h_{ii})$, donde $h_{ii}$ es el $i$-ésimo elemento de la diagonal principal de la matriz sombrero. Así, los residuos estandarizados, también conocidos como *residuos internamente studentizados*, tienen la forma $r_i=\frac{e_i}{\sqrt{MSE(1-h_{ii})}}$. Sin embargo, se sabe que es imposible que un residuo individual y el MSE (que es la varianza del conjunto de residuos) no estén correlacionados (existe dependencia lineal) y, por consiguiente, es imposible que $r_i$ siga una distribución t de Student. Lo anterior representa un impedimento para realizar pruebas de significancia estadística de los coeficientes de regresión, puesto que la distribución t es junto con la F los dos tipos de distribución más utilizados (y no sólo en el contexto de regresión) para realizar pruebas de hipótesis, dentro de las cuales las pruebas de significancia de coeficientes son un tipo de ellas. La solución a la problemática antes descrita consiste en eliminar la $i$-ésima observación, ajustar la función de regresión a las $n-1$ observaciones restantes y luego obtener nuevas $\hat{y}$'s que pueden ser denotadas como $\hat{y}_{i(i)}$. La diferencia $d_i=y_i-\hat{y}_{i(i)}$ es llamada *residuo eliminado*. Una expresión equivalente que no requiere recomputación es: $d_i=\frac{e_i}{1-h_{ii}}$.
Los residuos eliminados expresados de la forma anterior son la base para encontrar los residuos conocidos como *residuos eliminados studentizados* o *resiudos studentizados externamente*, los cuales adoptan la forma $t_i=\frac{d_i}{\sqrt{{\frac{MSE}{1-h_{ii}}}}}\sim{\sf t_{n-p-1}}$ o $t_i=\frac{e_i}{\sqrt{{{MSE(1-h_{ii})}}}}\sim{\sf t_{n-p-1}}$; véase https://stats.stackexchange.com/questions/99717/whats-the-difference-between-standardization-and-studentization/99723.

En lo que a la estimación de los diferentes tipos de residuos se refiere, debe comenzarse por obtener las **influencias** o **leverage** del modelo usando `hatvalues(mod)`; debe recordarse que las influencias son utilizadas para determinar que tanto impacto tiene una observación sobre los resultados de la regresión. Precisamente el análisis descriptivo anterior, en el que en una de las rectas de regresión (de las dos que aparecen en cada una de las cincuenta gráficas posibles) se omitía un Estado, tenía como finalidad verificar cuánto impactaba su ausencia (la del Estado sustraido) en la estimación realizada sobre la media condicional de $Y$. Al utilizar la sintaxis "mod=lm(esper~ingre,base)" se está planteando un modelo con la totalidad de Estados, del cual se calculan sus valores sombrero mediante la sintaxis `h = hatvalues(mod)`, sus residuos mediante `r=mod$res`, se estima el residuo de un modelo en el que no se considera el Estado i-ésimo en el análisis (en este caso Alaska) mediante `pred.r = r[2]/(1-h[2])` y, finalmente, la validez estadística de la estimación `pred.r = r[2]/(1-h[2])` se determina contrastándola con respecto al resultado de restarle a la media estimada $\hat{Y}_2$ (porque en este caso para Alaska, que ocupa la fila dos en la base de datos, que es una base de datos de corte transversal) la media estimada $\hat{Y}$ del modelo que no considera al i-ésimo Estado (aquí es Alaska).

“`{r}
mod=lm(esper~ingre,base)
h = hatvalues(mod)
r=mod$res
pred.r = r[2]/(1-h[2])
round(pred.r,2)

esper[2]-73.07

plot.press(2)
“`

Finalmente, puede obtenerse la Suma de Cuadrados Residuales de Predicción $PRESS$ utilizando los residuos eliminados globales (no únicamente para el Estado de Alaska) mediante la siguiente ecuación: $$PRESS=\sum{( \frac{r_i}{1-h_i}} )^2$$.

“`{r}
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

### 5. Comparación de Modelos vía $PRESS$
Es posible comparar el modelo que únicamente contempla la variable ingreso **ingre** con el que se obtiene en un modelo que contenga en su lugar la cantidad de población del Estado **pop** y su tasa de criminalidad **crim**. Esto con el fin de verificar cuál de los dos modelos es más sensible a valores extremos de X al realizar estimaciones de la media condicional $\hat{Y}$ de la variable *esperanza de vida*.

“`{r}
mod=lm(esper~ingre,base)
r=mod$res
h=hatvalues(mod)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

“`{r}
mod2= lm(esper~pop+crim,base)
r=mod2$res
h=hatvalues(mod2)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Se observa que el modelo `mod` es más sensible, puesto que su PRESS es más alto (89.32).

Debe decirse que la matriz "d" es conocida también como *matriz de Gramm*, por lo que su determinante es igual al producto de sí y su transpuesta, es decir, `t(d)%*%d`. Como se verifica en https://www.wikiwand.com/en/Gram_matrix, la matriz de Gramm cuyos elementos pertenecen a los reales tiene la característica de ser simétrica (matriz cuadrada que es igual a su transpuesta); la matriz de Gramm de cualquier base ortonormal (conjunto de vectores linealmente independientes que generan un espacio lineal -conocido como *span lineal*- denso dentro del espacio de referencia) es una matriz identidad.

El modelo anterior puede expandirse en predictores considerando ahora población **pop**, nivel de ingreso **ingre**, porcentaje de población analfebeta **analf** y la extensión en millas cuadradas **area** para explicar la esperanza de vida (medida en años).

“`{r}
mod0= lm(esper~pop+ingre+analf+area,base)
r=mod0$res
h=hatvalues(mod0)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

El modelo `mod0` es aún más sensible a los datos provistos por el Estado de Alaska que el modelo `mod` 

Así como se amplió la cantidad de variables en consideración al pasar del modelo `mod` al modelo `mod0`, también podría realizarse el procedimiento anterior para un modelo que considere la totalidad de las variables disponibles. Una forma para evitar escribir todas las variable en es usar un punto después de **~**, además de indicar de cuál base provienen los datos. De esta forma R entiende que debe considerar todas las variables de esa base como predictores, con excepción de la variable que se indica como respuesta.

“`{r}
mod_comp= lm(esper~., base)
r=mod_comp$res
h=hatvalues(mod_comp)
d=r/(1-h)
press=t(d)%*%d
round(press,2)
“`

Como se verifica de las pruebas antes realizadas, el modelo completo `mod_comp` tiene una $PRESS$ menor (más bajo) que el modelo que utiliza 4 predictores (*i.e.*, `mod0`) para explicar la media condicional de la esperanza de vida, lo que indica menor *leverage* en relación al Estado de Alaska.

### 6. Construcción Escalonada de Modelos de Predicción
#### 6.1. Aspectos Teóricos Generales
Como se conoce de los cursos de álgebra lineal, el mecanismo de *eliminación gaussiana* o *reducción de por filas*, es un proceso secuencial de *operaciones elementales entre filas* realizadas sobre la correspondiente matriz de coeficientes con la finalidad de estimar el rango de la matriz, el determinante de una matriz cuadrada y la inversa de una matriz invertible, en cuanto este mecanismo prepara las condiciones para resolver el sistema de ecuaciones; sobre los orígenes históricos de este mecanismo debe decirse que, como se señala en https://en.wikipedia.org/wiki/Gaussian_elimination, casos particulares de este método se conocían descubiertos por matemáticos chinos (sin prueba formal) en el año 179 de la era común C.E. (que es una forma no-cristiana de expresar la era que inicia en el año en que se supone nació Jesucristo).

Los mecanismos matemáticos anteriores, utilizados en el procedimiento estadístico de selección de los predictores de la media condicional de alguna variable de respuesta, se conocen como *regresión escalonada*. Como se señala en https://en.wikipedia.org/wiki/Stepwise_regression, la regresión escalonada es un método de ajuste de modelos de regresión en el que la elección de las variables predictivas se realiza mediante un procedimiento automático (...) En cada paso, se considera una variable para sumar o restar del conjunto de variables explicativas basado en algún criterio preespecificado. Por lo general, esto toma la forma de una secuencia hacia adelante, hacia atrás o combinada de pruebas F o pruebas t. La práctica frecuente de ajustar el modelo final seleccionado seguido de reportar estimaciones e intervalos de confianza sin ajustarlos para tener en cuenta el proceso de construcción del modelo ha llevado a llamadas a dejar de usar la construcción escalonada de modelos por completo (...) o al menos asegurarse de que en el modelo la incertidumbre se refleja correctamente (...) Las alternativas incluyen otras técnicas de selección de modelos, como $R^2$ ajustado, ek criterio de información de Akaike, el criterio de información bayesiano, el $C_p$ de Mallows, la $PRESS$ o la *tasa de falso descubrimiento*.

La construcción escalonada de un modelo puede suscitarse fundamentalmente de tres maneras:

1.*Selección hacia adelante*, que implica comenzar sin variables en el modelo, comprobar lo que ocurre al adicionar cada variable utilizando un criterio de ajuste del modelo elegido, agregando la variable (si la hubiese) cuya inclusión permita la mejora estadísticamente más significativa del ajuste y repetir este proceso hasta ningún predictor mejore el modelo de manera estadísticamente significativa. Véase https://www.analyticsvidhya.com/blog/2021/04/forward-feature-selection-and-its-implementation/

2. *Eliminación hacia atrás*, que implica comenzar con todas las variables candidatas, probar la eliminación de cada variable utilizando un criterio de ajuste del modelo elegido, eliminar la variable (si la hubiese) cuya pérdida produce el deterioro más insignificante estadísticamente del ajuste del modelo, y repetir este proceso hasta que no se pueden eliminar más variables sin una pérdida de ajuste estadísticamente insignificante. Véase https://www.analyticsvidhya.com/blog/2021/04/backward-feature-elimination-and-its-implementation/?utm_source=blog&utm_medium=Forward_Feature_Elimination.

3. *Eliminación bidireccional*, una combinación de 1 y 2, probando en cada paso las variables que se incluirán o excluirán.

#### 6.2. Método de Eliminación Hacia Atrás en R 
##### 6.2.1. Eliminación Hacia Atrás con Probabilidad F
Para eliminar variables secuencialmente se usa la función `drop1`, que proporciona el estadístico F correspondiente a la eliminación de una única variable explicativa; el estadístico F arrojado por esta sintaxis debe interpretarse como la probabilidad de materialización de la probabilidad de rechazar $H_0:β_1=B_2=⋯=B_i=0$ siendo esta verdadera. A causa de lo anterior, un valor F alto indica que la probabilidad de la materialización antes descrita es alta y, ante semejante riesgo, la decisión racional es fallar en rechazar $H_0$ sobre la significancia estadística nula global de los coeficientes de regresión. Fallar en rechazar $H_0$ implica que probabilísticamente hablando no existen consecuencias relevantes (a nivel de capacidad predictiva) si se elimina el modelo en cuestión, por lo que un F mayor que el nivel de significancia $α$ preestablecido (que es la probabilidad de cometer error tipo I, fijada por el investigador con base a la información histórica y a criterios de experto experimentado) significa que ese coeficiente de regresión no es estadísticamente relevante y puede eliminarse.

Puede escribirse el modelo completo (con los 7 predictores) y luego utilizar `drop1(mod,test="F")` para verificar cuál es la primera variable que se recomienda eliminar tras el proceso antes descrito. Como se adelantó, se deben eliminar aquellos predictores cuyo valor de probabilidad F sea más alto.  

“`{r}
mod3=lm(esper~., base)
moda=mod3
drop1(moda,test=”F”)
“`

Si se comparan los resultados de la sintaxis `drop1` con los de `summary`, se puede verificar que las probabilidades F y t coinciden. Esto sucede en este ejemplo porque no hay variables categóricas con más de 2 categorías; sin embargo, cuando se cuenta con variables categóricas con más de 2 categorías, no se debe usar `summary` porque en tal caso las probabilidades F y t no son equivalentes.

“`{r}
summary(moda)
“`

De los resultados anteriores se desprende que el primer predictor a ser eliminado es la variable **area**, pues tiene la probabilidad F más alta. Para materializar la eliminación se puede actualizar el modelo anterior mediante `moda=update(moda,.~.-area)`.

“`{r}
moda=update(moda,.~.-area)
drop1(moda,test=”F”)
“`

Y así puede continuarse hasta que, por ejemplo, todas las probabilidades sean menores a 0.15 (o a algún valor$α$ preestablecido de la forma antes descrita).

“`{r}
moda=update(moda,.~.-analf)
drop1(moda,test=”F”)
moda=update(moda,.~.-ingre)
drop1(moda,test=”F”)
“`

Finalmente, se obtiene que el modelo sugerido contempla las variables **pop**, **crim**, **grad** y **temp**.

##### 6.2.2. Eliminación Hacia Atrás con AIC
Adicionalmente, en lugar de usar el criterio de la probabilidad F se pueden usar criterios de información. Para usar el criterio de Akaike (AIC) simplemente no se indica nada en `test`, pues el AIC es el criterio por defecto que utiliza `drop1`. En este caso, la columna de AIC indica el valor del AIC que se obtendría si se elimina esa variable. Puesto que el objetivo es aumentar el AIC (porque eso haría al predictor candidato de ser eliminado), entonces se elimina la variable que más disminuye el AIC, generando luego un nuevo modelo (con las variables que menos disminuyen el AIC) que se compara con el modelo anterior, y así sucesivamente, hasta que la eliminación de cualquier variable aumenta el AIC con respecto al modelo anterior en lugar de disminuirlo, puesto que esta es la señal que en términos de robustez estadística del modelo no es recomendable eliminar más predictores.

“`{r}
moda=mod3
drop1(moda)
moda=update(moda,.~.-area)
drop1(moda)
moda=update(moda,.~.-analf)
drop1(moda)
moda=update(moda,.~.-ingre)
drop1(moda)
“`

El procedimiento antes descrito se puede realizar de forma automática con la sintaxis `step` mediante`step(mod)`. Tras ello, puede almacenarse el resultado en una estructura de datos (aquí llamada "mod4"#") y aplicar `summary` sobre dicho objeto.

“`{r}
mod4=step(mod3)
summary(mod4)
“`

##### 6.2.2. Eliminación Hacia Atrás con BIC
###### 6.2.2.1. Aspectos Teóricos Relevantes del BIC
Si en lugar del criterio AIC se desease utilizar el criterio bayesiano de información (BIC) se debe indicar en la sintaxis `step` mediante `k=log(n)`. Debe agregarse que, como se señala en (Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 217), el criterio bayesiano de información penaliza la complejidad del modelo y es el criterio expuesto por Bishop en el lugar referido el que muestra la penalización que el BIC ejerce sobre la complejidad del modelo y que se conoce como *factor de Occam*. 

“`{r}
knitr::include_graphics(“FOTO4.JPG”)
“`

#Figura 2: Evaluación de la log-verosimilitud empleando parámetros optimizados #Fuente: Bishop, Christopher M. Pattern Recognition and Machine Learning. 2006, p. 216-17.
Debe decirse sobre el factor de Occam que, como puede verificarse en [David J. Spiegelhalter, Nicola G. Best, Bradley P. Carlin & Angelika Van Der Linde. Bayesian measures of model complexity and fit. Journal of Royal Statistical Society, Series B (Statistical Methodology); https://rss.onlinelibrary.wiley.com/doi/pdf/10.1111/1467-9868.00353] y en (van der Linde, Angelika. A Bayesian view of model complexity. Statistica Neerlandica xx, year xx-xx, special issue: All Models Are Wrong...; https://statmodeling.stat.columbia.edu/wp-content/uploads/2013/08/snavdlmc.pdf), no existe una definición analítica para el mismo, *i.e.*, una definición que pueda ser sustentada lógicamente desde algún marco teórico en congruencia clara y directa con un marco matemático autodemostrable dentro de teoría de conjuntos ZF-C (Zermelo-Fraenkel con Axioma de Elección) que la modele.

En este sentido, la investigación de Spiegelhalter et al es una de las investigaciones más importantes de al menos las últimas dos décadas a nivel de la teoría de las probabilidades y su importancia es aún mayor si el marco de referencia es únicamente la teoría bayesiana de probabilidades. En síntesis, los autores y autora de la investigación concluyen que la medida de complejidad bayesiana (que es la estructura matemática que aparece en la obra citada de Christopher Bishop) tiene como trasfondo común con el criterio DIC (que es la versión generalizada del AIC, de naturaleza teórica frecuentista, que tiene su propia penalización de la complejidad del modelo y por consiguiente su propia medición de dicha complejidad) la teoría de la información (rama de la teoría de las probabilidades que versa sobre las estructuras matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la medición de la información y de la representación de la misma, así como también de la capacidad de los sistemas de comunicación para transmitir y procesar información; véase https://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n), que el DIC y el BIC tienen una justificación lógica similar aunque el DIC tiene una campo de aplicación más amplio. Adicionalmente, se señala que la metodología de medición de complejidad bayesiana que ellos proponen es aplicable a toda la clase de modelos y que únicamente requiere de un trabajo analítico "despreciable" (p. 613) relativo a la configuración de un muestreo del tipo Monte Carlo basado en cadenas de Markov. Además, existe un problema señalado por los autores y autora relativo a que es difícil explicar si las diferencias entre los criterios de medición de complejidad del BIC y del DIC son realmente diferentes en términos estadísticos, puesto que es aún más difícil determinar el error del DIC en pruebas Monte Carlo (para ello se cita una investigación previa que señala esta dificultad). La publicación de este documento de investigación generó la apertura de un debate alrededor del mismo, que contó con la participación de S. Brooks (University of Cambridge), Jim Smith (University of Warwick), Aki Vehtari (Helsinki University of Technology), Martyn Plummer (International Agency of Research on Cancer, Lyon), Mervyn Stone (University College London), Christian P. Robert (Université Paris Dauphine) y D. M. Titterington (University of Glasgow), el mismísimo J. A. Nelder en persona (Impercial College of Science, Techonology and Medicine, London), Anthony Atkinson (London School of Economics and Political Science), A. P. David (University College London), José M. Bernardo (Universitat de València), Sujit K. Sahu (University of Southampton), Sylvia Richardson (Imperial College School of Medicine, London), Peter Green (University of Bristol), Kenneth P. Burnham (US Geological Survey and Colorado State University, Fort Collins), María Delorio (University of Oxford) y Christian P. Robert (Université Paris Dauphine), David Draper (University of California, Santa Cruz), Alan E. Gelfand (Duke University Durkham) y Matilde Travisani (University of Trieste), Jim Hodges (University of Minesota, Minneapolis), Youngjo Lee (Seoul National University), Xavier de Luna (Uméa University) y, finalmente, Xiao-Li Meng (Harvard University, University of Chicago); tremendo crossover, mucho mejor que *Crisis en Tierras Infinitas (1985-86)*... palabras mayores. Los posicionamientos de los autores y autoras participantes son diversas y profundas, sin embargo, se hará una recapitulación de aquellos que señalen debilidades la medición bayesiana de complejidad de un modelo estadístico.

Brooks (p. 616-18) plantea que la investigación (como casi toda buena investigación) deja preguntas abiertas, específicamente él señala que la ecuación 9 de la página 587 utiliza para calcular dicha complejidad el valor esperado, pero ¿por qué no la moda o la mediana?, ¿cuál es la justificación teórica de ello?, y de ello se deriva también ¿cómo se debe decidir entonces que el parámetro estimado debe ser la media, la moda o la mediana?, lo cual es relevante en cuanto podría conducir a diferencias importantes con el DIC; finalmente, ¿cómo se pueden ser comparables el análisis del modelo bajo el DIC con el análisis del modelo bajo las probabilidades posteriores (enfoque bayesiano) y por qué difieren?, ¿pueden ambas ser "correctas" de alguna manera significativa?

Por su parte, Jim Smith (p. 619-20) señala que no encontró errores técnicos (*i.e.*, matemáticos), pero que encontró cuatro problemas fundacionales. El primero que señala es que las implicaciones predictivas de todas las configuraciones del prior relativas a las variaciones en los ejemplos resueltos en la Sección 8 son increíbles (no en un sentido que podría considerarse positivo), puesto que según Smith no representan juicios de expertos cuidadosamente obtenidos, sino las opiniones de un usuario de software vacío. También señala que, al principio de la Sección 1, los autores afirman que quieren identificar modelos sucintos que parecen describir la información [¿acerca de valores de parámetros "verdaderos" incorrectos (ver Sección 2.2)?] en los datos con precisión, sin embargo, señala también que en un análisis bayesiano, la separación entre la información de los datos y el prior es artificial e inapropiada; señala que "Un análisis bayesiano en nombre de un experto en auditoría remota (Smith, 1996) podría requerir la selección de un prior que sea robusto dentro de una clase de creencias de diferentes expertos (por ejemplo, Pericchi y Walley (1991)). A veces, los prior predeterminados pueden justificarse para modelos simples. Incluso entonces, los modelos dentro de una clase de selección deben tener parametrizaciones compatibles: ver Moreno et al. (1998). Sin embargo, en los ejemplos en los que "el número de parámetros supera en número a las observaciones", afirman que sus enfoques de enfoque, es poco probable los prior predeterminados (por defecto) muestren alguna robustez (estadística). En particular, fuera del dominio de la estimación local vaga o de la estimación de la varianza de separación (discutida en la Sección 4), aparentemente los antecedentes por defecto pueden tener una fuerte influencia en las implicaciones del modelo y, por lo tanto, en la selección.", de lo cual se deriva una razonable insatisfacción ante la expresión la afirmación de los autores y autora sobre la baja probabilidad de que los prior muestren robustez.

Martyn Plummer (p. 621) señala lo que a su juicio son debilidades en la derivación heurística del DIC y de ello se deriva su señalamiento de sustento formal ;como señalan (Rosental & Iudin. Diccionario Filosófico. Editorial Tecolut, 1971. p. 215-216),
en términos históricos la palabra "heurística" proviene del griego εὑρίσκω, que significa "discuto". Es el arte de sostener una discusión y floreció sobre todo entre los sofistas de la antigua Grecia. Surgida como medio de buscar la verdad a través de la polémica, se escindió pronto en dialéctica y sofística. Sócrates, con su método, desarrolló la primera. En cambio, la sofística, tendiente sólo a alcanzar la victoria sobre el contrincante en la discusión, redujo la heurística a una suma de procedimientos que podían aplicarse con el mismo éxito tanto para demostrar una aseveración, cualquiera que fuese, como para refutarla. De ahí que ya Aristóteles no estableciera ninguna diferencia entre heurística y sofística. En la actualidad, al hablar de métodos heurísticos se hace referencia a una especie de atajos para las derivaciones rigurosas que implican mayor costo computacional, por lo que su carácter de verdad es siempre de corto plazo (provisional).

Mervyn Stone (p. 621) señala que la investigación de 2002 "bastante económico" en lo relativo a la *verdad fundamental* (véase https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/sobre-los-estimadores-de-bayes-el-analisis-de-grupos-y-las-mixturas-gaussianas-isadore-nabi.pdf, p. 43-44), que si la sección 7.3 pudiera desarrollarse rigurosamente (puesto que le parece gnoseológicamente cuestionable el uso de $E_Y$), "(...) otra conexión (a través de la ecuación $(33)$) podría ser que $DIC ≈ −2A$. Pero, dado que la sección 7.3 invoca el supuesto de "buen modelo" y pequeños $|\hat{θ}-θ|$ para la expansión de la serie de Taylor (es decir, $n$ grande), tal conexión sería tan artificial como la de $A$ con el criterio de información de Akaike: ¿por qué no seguir con la forma prístina (hoy en día calculable) de $A$, que no necesita $n$ grande o verdad? , ¿y cuál acomoda la estimación de θ en el nivel de independencia de un modelo bayesiano jerárquico? Si la sensibilidad del logaritmo a probabilidades insignificantes es objetable, los bayesianos deberían estar felices de sustituirlo por una medida subjetivamente preferible de éxito predictivo." Es imposible cuestionar a Stone en cuanto a que, dado el enseñoramiento que en la teoría bayesiana de probabilidades tiene la escuela bayesiana subjetiva, el promedio del gremio bayesiano estaría filosóficamente satisfecha con renunciar a elementos objetivos (en este caso son requerimientos preestablecidos por la teoría del aprendizaje estadístico que condicionan la validez gnoseológica del modelo propuesto como un todo, como una muestra grande y/o una verdad fundamental) si representan un punto de discordia y pueden ser sustituidos por algún criterio de decisión que pueda ser determinado; que en paz descanse su alma https://www.ucl.ac.uk/statistics/sites/statistics/files/meryvn-stone-obituary.pdf.

Christian P. Robert y D. M. Titterington (p. 621) señalan que la estructura matemática planteada por los autores de la investigación para determinar la complejidad de un modelo desde la perspectiva bayesiana parecería hacer un uso duplicado (repetido en dos ocasiones) del conjunto de datos, la primera vez lo hacen para determinar la distribución posterior y la segunda para calcular la verosimilitud observada (o verosimilitud a priori, sin considerar información adicional). Este uso duplicado del conjunto de datos puede conducir a un sobreajuste del modelo; señalan que este tipo específico de problemática surgió antes en la investigación de (Aitkin, 1991).

Seguramente el invitado más célebre entre todos los que asistieron a este maravilloso coloquio académico fue John Nelder, padre de los modelos lineales generalizados. Antes de exponer su planteamiento, deben introducirse algunas cuestiones. En primer lugar, el *escape de amoníaco* en aplicaciones industriales es a lo que los autores se refieren (y se refirará Nelder) como *stack loss* (p. 609). En segundo lugar, la tabla 2 a la que se referirá Nelder es la siguiente:

“`{r}
knitr::include_graphics(“TABLA2.JPG”)
“`

#Figura 3: Tabla 2. Resultados de desviación para los datos de pérdida de amoníaco. #Fuente: Spiegelhalter, Best, Carlin & van der Linde. Bayesian measures of model complexity and fit, p. 610.
Así, Nelder (p. 622) señala: "Mi colega, el profesor Lee, ha planteado algunos puntos generales que conectan el tema de este artículo con nuestro trabajo sobre modelos lineales generalizados jerárquicos basados en la probabilidad. Quiero plantear un punto específico y dos generales. (a) El profesor Dodge ha demostrado que, de las 21 observaciones en el conjunto de datos de pérdida de amoníaco, ¡solo cinco no han sido declaradas como valores atípicos por alguien! Sin embargo, existe un modelo simple en el que ninguna observación aparece como un valor atípico. Es un modelo lineal generalizado con distribución gamma, log-link y predictor lineal x2 + log.x1 / Å log.x3 /: Esto da las siguientes entradas para la Tabla 2 en el documento: 98.3 92.6  6.2 104.5 (estoy en deuda con el Dr. Best por calcularlos). Es claramente mejor que los modelos existentes usados en la Tabla 2. (b) Este ejemplo ilustra mi primer punto general. Creo que ha pasado el tiempo en que bastaba con asumir un vínculo de identidad para los modelos y permitir que la distribución solo cambiara. Deberíamos tomar como nuestro conjunto de modelos de línea base al menos la clase de modeloos lineales generalizados definida por distribución, enlace y predictor lineal, con la elección de escalas para las covariables en el caso del predictor lineal. (c) Mi segundo punto general es que, para mí, no hay suficiente verificación de modelos en el artículo (supongo que el uso de tales técnicas no va en contra de las reglas bayesianas). Por ejemplo, si un conjunto de efectos aleatorios es suficientemente grande en número y el modelo postula que están distribuidos normalmente, sus estimaciones deben graficarse para ver si se parecen a una muestra de tal
distribución. Si parecen, por ejemplo, fuertemente bimodales, entonces el modelo debe revisarse." Que en paz descanse su alma.

Anthony Atkinson (p. 622) señala que dirige su participación al contexto de la regresión, concluyendo que este criterio de selección de modelos (el BIC planteado por los autores, que es el estimado mediante la sintaxis de R) es un primer paso, que necesita ser complementado
mediante pruebas de diagnóstico y gráficos. Para finalizar plantea que "Estos ejemplos muestran que la búsqueda hacia adelante es una herramienta extremadamente poderosa para este propósito. También requiere muchos ajustes del modelo a subconjuntos de datos. ¿Puede combinarse con los apreciables cálculos de los métodos de Monte Carlo de la cadena de Markov de los autores?" Que en paz descanse su alma.

A.P. Dawid plantea que el artículo debería haberse titulado "Medidas de la complejidad y el ajuste del modelo bayesiano", ya que según él son los modelos, no las medidas, los que son bayesianos. Una vez que se han especificado los ingredientes de un problema, cualquier pregunta relevante tiene una respuesta bayesiana única. La metodología bayesiana debe centrarse en cuestiones de especificación o en formas de calcular o aproximar la respuesta. No se requiere nada más (...) Un lugar donde un bayesiano podría querer una medida de la complejidad del modelo es como un sustituto de p en la aproximación del criterio de información de Bayes a la probabilidad marginal, por ejemplo, para modelos jerárquicos. Pero en tales casos, la definición del tamaño de muestra $n$ puede ser tan problemática como la de la dimensión del modelo $p$. Lo que necesitamos es un mejor sustituto del término completo $p⋅log(n)$". En línea con la gnoseología marxiana, lo adecuado parecería ser considerar que tanto los modelos como las medidas son bayesianos (o de otra escuela de filosofía de las probabilidades).

Las participaciones restantes son no tanto relativas a cuestiones metodológicas como a cuestiones filosóficas-fundacionales de la teoría bayesiana de las probabilidades y de la teoría de las probabilidades en general (puesto que el DIC, que es un criterio de información presentado por los mismos autores que presentan el BIC, no es bayesiano debido a que es una generalización del AIC -que es frecuentista-); de hecho, la transición de cuestiones metodológicas a filosóficas-fundacionales se expresa en el planteamiento de Dawid, quien aunque aborda cuestiones metodológicas lo hace con base en la lógica filosófica de que los modelos y no las medidas son los que pueden ser (o no) bayesianos. Por supuesto, estas últimas son las participaciones más importantes, sin embargo, abordalas escapa a los límites de esta investigación, por lo que para tan importante tarea se dedicará indudablemente un trabajo posterior.

###### 6.2.2.2. Ejecución de la Eliminación Hacia Atrás con el BIC

“`{r}
n = nrow(base)
mod5=step(mod3,k=log(n))
summary(mod5)
“`

#### 6.3. Método de Selección Hacia Adelante en R 

A propósito de lo señalado por Anthony Atkinson, para realizar un proceso de selección hacia adelante se puede usar la función `add1` inciando con un modelo que no contenga ninguna variable e indicando en `scope` cuales son todas las variables disponibles.  Ello se realiza de la siguiente forma: `add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)`.

“`{r}
mod6 = lm(esper~1,base)
modb=mod6
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

En este caso se escoge agregar la variable que disminuya más el AIC. En este caso es **crim**. Se actualiza el modelo y se continúa hasta que todas tengan un AIC más bajo que el anterior: `modb=update(modb,.~.+crim)`.

“`{r}
modb=update(modb,.~.+crim)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+grad)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+temp)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
modb=update(modb,.~.+pop)
add1(modb, scope=~pop + ingre + analf + crim + grad + temp + area)
“`

De forma similar se puede usar `step` para indicar `scope` (además de indicar `direction="forward"`) de la siguiente forma: `step(mod6,direction="forward",scope=~pop + ingre + analf + crim + grad + temp + area)`. `scope` "define la gama de modelos examinados en la búsqueda por pasos. Debe ser una fórmula única o una lista que contenga los componentes superior e inferior, ambas fórmulas. Consulte los detalles sobre cómo especificar las fórmulas y cómo se utilizan." (véase https://stat.ethz.ch/R-manual/R-devel/library/MASS/html/stepAIC.html).

En este caso, tiene la logica del modelo hacia adelante, se va ingresando las variables que reducen el AIC y luego quedan las que no estan en el modelo, osea las que incrementaria el AIC.

“`{r}
mod7=step(mod6,direction=”forward”,scope=~pop + ingre + analf + crim + grad + temp + area)
summary(mod7)
“`

SOBRE LA INICIATIVA INTERNACIONAL DE PROMOCIÓN DE POLÍTICA ECONÓMICA (IIPE 2021), EL IMPERIALISMO, CHINA Y LAS FINANZAS INTERNACIONALES

BREVE INTRODUCCIÓN

Este día se publicó una investigación en el sitio web de Michael Roberts que versa, en general, sobre el papel del desarrollo tecnológico en el comercio internacional como mecanismo de acumulación de capital característico de la economía capitalista planetaria en su fase imperialista. Sobre dicha investigación se elabora la presente publicación, la cual está compuesta por tres secciones. En la primera sección se realiza un breve abordaje histórico sobre aspectos teóricos de interés abordados por Roberts en su publicación de naturaleza fundamentalmente empírica. En la segunda sección se presenta la traducción de la publicación de Roberts. Finalmente, en la tercera sección se facilita la descarga de las referencias bibliográficas presentadas por Roberts en su publicación.

I. ASPECTOS TEÓRICOS preliminares

Es importante decir que la teoría sobre el capitalismo en su fase imperialista hunde sus raíces empíricas más importantes el trabajo de Vladimir Lenin (1916) y sus raíces teóricas más importantes en el trabajo de Arghiri Emmanuel (1962). Por supuesto, el trabajo de Lenin no se limitó a ser empírico, pero fue en esta dirección la centralización de sus esfuerzos y ello conforma un punto de partida razonable para un breve análisis sobre cómo (y por qué) han evolucionado las teorías marxistas sobre el imperialismo.

Lenin fue el primer teórico del marxismo que estudió la acumulación de capital a escala planetaria considerando las relaciones centro-perisferia como una generalización económica, política, social y cultural de la lucha de clases nacional; sobre ello no existe debate relevante en el seno de la comunidad marxista. La armonía no es tal cuando se trata de abordar la obra de Arghiri Emmanuel. Cualquier persona lo suficientemente estudiosa de la historia de las ciencias sabrá que, sobre todo en ciencias sociales (con especial énfasis en economía política), la aceptación de una teoría no tiene que ver con motivos puramente académicos sino también políticos. La teoría de economía política internacional (de ahora en adelante economía geopolítica) de Emmanuel tuvo poca aceptación entre la comunidad marxista fundamentalmente no por su polémico uso de la ley del valor en el concierto internacional, sino por las conclusiones políticas que su teoría generaba. La idea central de Emmanuel es que en el concierto interncional ocurre una transformación global de valores a precios de producción como la que ocurre (salvo las particularidades naturales características del incremento en complejidad del sistema) a escala local o nacional. Es esa y no otra la idea fundamental del trabajo de Emmanuel, con independencia del grado de acuerdo (o desacuerdo) que se tenga sobre la forma en que realiza tal planteamiento. La lógica que condujo a Emmanuel a la construcción de esta idea, que no es más que una aplicación global de la lógica local de la transformación de valores en precios de producción ya dada por Marx, parecería ser la misma que la que condujo a construir, por ejemplo, la teoría de la selección natural o la teoría matemática del caos el concepto de autosimilaridad. Esta esta lógica se puede generalizar como se plantea a continuación.

Los componentes (modelados mediante ecuaciones) de una totalidad (modelada mediante un sistema de ecuaciones) comparten una esencia común (i.e., que son isomórficos entre sí) que permite su combinación integrodiferencial de forma armónica y coherente bajo una determinada estructura interna de naturaleza material (objetiva), no-lineal (la totalidad es diferente a la suma de sus partes) y dinámica (el tiempo transcurre) generada por la interacción de tales componentes dadas determinadas condiciones iniciales. La estructura interna del sistema (o totalidad de referencia) condiciona a los componentes que la generan bajo el mismo conjunto de leyes (pero generalizado, por lo que no es formalmente el mismo) que rigen la interacción entre las condiciones iniciales y las relaciones primigenias entre componentes que determinaron la gestación de dicha estructura interna. Estas leyes son: 1. Unidad y Lucha de los Contrarios (que implica emergencia y al menos autoorganización crítica), 2. Salto de lo Cuantitativo a lo Cualitativo (bifurcación), 3. Ley de la Negación de la Negación (que es una forma generalizada de la síntesis química).

SOBRE DIALÉCTICA Y COMPLEJIDAD

Antes de proceder a exponer las fuentes formales y fácticas de la poca popularidad de las teorías de Emmanuel, es necesario decir un par de cuestiones relativas al papel que desempeña el tiempo en el sistema marxiano. Las escuelas de pensamiento económico marxista se pueden clasificar según su abordaje matemático del proceso histórico de transformación de valores en precios de producción; sin embargo, aún dentro de las mismas escuelas existen divergencias teóricas importantes, fundamentalmente en relación a la MELT (Monetary Expression of Labor Time) o algún equivalente de esta. Así, las escuelas de pensamiento económico marxista son la escuela temporalista, la escuela simultaneísta y alguna combinación o punto intermedio entre ellas. Todas estas diferencias filosóficas, en contraste con lo que ocurre en Filosofía de la Estadística entre, por ejemplo, frecuentistas y bayesianos subjetivos, no solo no requieren de mucha investigación para ser verificadas empíricamente, sino que además tienen como consecuencia la gestación de sistemas matemáticos que hasta la fecha (la realidad es cambiante, indudablemente) han resultado antagónicos teóricamente respecto de ese punto (en el de transformar valores en precios de producción) y numéricamente diferentes de forma sustancial en sus predicciones (aunque cualitativamente es usual que sus diferencias no sean esenciales, salvo en el punto expuesto -que es evidentemente un aspecto medular de la teoría de Marx-).

La polémica sobre el uso de la ley del valor de Emmanuel tuvo que ver con el manejo de los supuestos que realizó y, con ello, con los escenarios teóricos que identificaba con la realidad. Esta polémica se agudizó luego de que, tras las críticas recibidas (cuyo trasfondo era teórico solo formalmente o minoritariamente en su defecto), Emmanuel publicara un sistema de ecuaciones simultáneas (con ello se ganó el rechazo de los marxistas más conservadores de la época -los cuales eran reacios al uso de las matemáticas-, que no eran minoría) para abordar la transformación de valores en precios de producción) poco ortodoxo para el oficialismo de lo que se podría denominar como “marxismo matemático”, lo que en términos netos le valió para la época (1962) incompatibilidad intelectual con la generalidad de los académicos.

El debate teórico real no es, evidentemente, si el tiempo existe o no, sino si es lo suficientemente relevante para configurar el sistema matemático alrededor del mismo o si no lo es y, por consiguiente, no existen consecuencias relevantes (tanto teóricas como numéricas) por descartarlo del modelo formal del sistema capitalista. Emmanuel define en su obra el valor como cantidad cronométrica de trabajo socialmente necesario (que es la misma definición del marxismo clásico, sólo que comprimida), sin embargo, su modelo de transformación de valores en precios de producción hace uso de las ecuaciones simultáneas (lo heterodoxo del asunto radica en que establece ex ante al trabajo como la variable fundamental del sistema, para que las ecuaciones y las incógnitas se igualen automáticamente y afirmar con ello que se implica la anterioridad histórica de la fuerza de trabajo, puesto que lo precede teóricamente), aunque tampoco por ello tenga problema en afirmar que existen “dos esencias” (el capital y el trabajo) o, en otros términos, que no sólo el trabajo crea valor. ¿Cuál fue entonces el trasfondo político?

A pesar de que en tiempos modernos pueda resultar un poco difícil de pensar, alrededor de 1962 existía un relativamente pujante movimiento obrero internacional y políticamente su unidad era cardinal en la lucha contra la explotación planeataria y el modelo de Emmanuel, guste o no, implica que el bienestar de los trabajadores de los países industrializados es sufragado indirectamente por las condiciones de miseria extrema que se viven en los países de la periferia. Por supuesto, ello se implica también a nivel local, ¿quiénes permiten que los trabajadores de las ramas productivas más intensivas en capital obtengan salarios muy por encima del promedio salarial nacional sino los trabajadores de las ramas productivas intensivas en trabajo?, en un sistema de economía política los agentes económicos guardan entre sí relaciones de suma cero, es decir, la ganancia de unos implica la pérdida de otros, aunque esto no siempre ocurre (y mucho menos se observa) de forma inmediata; este hecho fundamental no cambia en un sistema de economía geopolítica. Sin embargo, aunque la topología en ambos sistemas es fundamentalmente la misma las métricas cambian y las grandes brechas sociales observadas internacionalmente (por ejemplo, entre Noruega y Haití) no se observan en términos generales (promedio) a nivel local, lo que hace más notoria la explotación, aunque no más real. Complementariamente, debe resaltarse el hecho de que, dentro de sus propias condiciones materiales de existencia, los trabajadores de los países industrializados tienen sus propias luchas sociales.

Mi máximo cariño, aprecio y admiración a toda la comunidad marxista de aquella época, puesto que al fin y al cabo lucha de clases fáctica es nuestra misión última y todos somos producto de nuestras condiciones históricas, es decir, aunque hacemos la historia, no hacemos las condiciones bajo las cuales hacemos nuestra historia.

II. IIPPE 2021: imperialism, China and finance – michael roberts

La conferencia 2021 de la Iniciativa Internacional para la Promoción de la Economía Política (IIPPE) tuvo lugar hace un par de semanas, pero solo ahora he tenido tiempo de revisar los numerosos trabajos presentados sobre una variedad de temas relacionados con la economía política. El IIPPE se ha convertido en el canal principal para que economistas marxistas y heterodoxos ‘presenten sus teorías y estudios en presentaciones. Las conferencias de materialismo histórico (HM) también hacen esto, pero los eventos de HM cubren una gama mucho más amplia de temas para los marxistas. Las sesiones de Union for Radical Political Economy en la conferencia anual de la American Economics Association se concentran en las contribuciones marxistas y heterodoxas de la economía, pero IIPPE involucra a muchos más economistas radicales de todo el mundo.

Ese fue especialmente el caso de este año porque la conferencia fue virtual en zoom y no física (¿tal vez el próximo año?). Pero todavía había muchos documentos sobre una variedad de temas guiados por varios grupos de trabajo del IIPPE. Los temas incluyeron teoría monetaria, imperialismo, China, reproducción social, financiarización, trabajo, planificación bajo el socialismo, etc. Obviamente no es posible cubrir todas las sesiones o temas; así que en esta publicación solo me referiré a las que asistí o en las que participé.

El primer tema para mí fue la naturaleza del imperialismo moderno con sesiones que fueron organizadas por el grupo de trabajo de Economía Mundial. Presenté un artículo, titulado La economía del imperialismo moderno, escrito conjuntamente por Guglielmo Carchedi y yo. En la presentación argumentamos, con evidencia, que los países imperialistas pueden definirse económicamente como aquellos que sistemáticamente obtienen ganancias netas, intereses y rentas (plusvalía) del resto del mundo a través del comercio y la inversión. Estos países son pequeños en número y población (solo 13 o más califican según nuestra definición).

Demostramos en nuestra presentación que este bloque imperialista (IC en el gráfico a continuación) obtiene algo así como 1,5% del PIB cada año del ‘intercambio desigual’ en el comercio con los países dominados (DC en el gráfico) y otro 1,5% del PIB de intereses, repatriación de utilidades y rentas de sus inversiones de capital en el exterior. Como estas economías están creciendo actualmente a no más del 2-3% anual, esta transferencia es un apoyo considerable al capital en las economías imperialistas.

https://thenextrecession.files.wordpress.com/2021/09/ii1.png

Los países imperialistas son los mismos “sospechosos habituales” que Lenin identificó en su famosa obra hace unos 100 años. Ninguna de las llamadas grandes “economías emergentes” está obteniendo ganancias netas en el comercio o las inversiones – de hecho, son perdedores netos para el bloque imperialista – y eso incluye a China. De hecho, el bloque imperialista extrae más plusvalía de China que de muchas otras economías periféricas. La razón es que China es una gran nación comercial; y también tecnológicamente atrasado en comparación con el bloque imperialista. Entonces, dados los precios del mercado internacional, pierde parte de la plusvalía creada por sus trabajadores a través del comercio hacia las economías más avanzadas. Esta es la explicación marxista clásica del “intercambio desigual” (UE).

Pero en esta sesión, esta explicación de los logros imperialistas fue discutida. John Smith ha producido algunos relatos convincentes y devastadores de la explotación del Sur Global por parte del bloque imperialista. En su opinión, la explotación imperialista no se debe a un “intercambio desigual” en los mercados entre las economías tecnológicamente avanzadas (imperialismo) y las menos avanzadas (la periferia), sino a la “superexplotación”. Los salarios de los trabajadores del Sur Global han bajado incluso de los niveles básicos de reproducción y esto permite a las empresas imperialistas extraer enormes niveles de plusvalía a través de la “cadena de valor” del comercio y los márgenes intraempresariales a nivel mundial. Smith argumentó en esta sesión que tratar de medir las transferencias de plusvalía del comercio utilizando estadísticas oficiales como el PIB de cada país era una ‘economía vulgar’ que Marx habría rechazado porque el PIB es una medida distorsionada que deja fuera una parte importante de la explotación de la economía global. Sur.

Nuestra opinión es que, incluso si el PIB no captura toda la explotación del Sur Global, nuestra medida de intercambio desigual todavía muestra una enorme transferencia de valor de las economías periféricas dependientes al núcleo imperialista. Además, nuestros datos y medidas no niegan que gran parte de esta extracción de plusvalía proviene de una mayor explotación y salarios más bajos en el Sur Global. Pero decimos que esta es una reacción de los capitalistas del Sur a su incapacidad para competir con el Norte tecnológicamente superior. Y recuerde que son principalmente los capitalistas del Sur los que están haciendo la “súper explotación”, no los capitalistas del Norte. Estos últimos obtienen una parte a través del comercio de cualquier plusvalía extra de las mayores tasas de explotación en el Sur.

De hecho, mostramos en nuestro artículo, las contribuciones relativas a la transferencia de plusvalía de tecnología superior (mayor composición orgánica del capital) y de explotación (tasa de plusvalía) en nuestras medidas. La contribución de la tecnología superior sigue siendo la principal fuente de intercambio desigual, pero la participación de diferentes tasas de plusvalía se ha elevado a casi la mitad.

https://thenextrecession.files.wordpress.com/2021/09/ii2.png

Andy Higginbottom en su presentación también rechazó la teoría marxista clásica del imperialismo del intercambio desigual presentada en el artículo Carchedi-Roberts, pero por diferentes motivos. Consideró que la igualación de las tasas de ganancia a través de las transferencias de plusvalías individuales a precios de producción se realizó de manera inadecuada en nuestro método (que seguía a Marx). Por lo tanto, nuestro método podría no ser correcto o incluso útil para empezar.

En resumen, nuestra evidencia muestra que el imperialismo es una característica inherente del capitalismo moderno. El sistema internacional del capitalismo refleja su sistema nacional (un sistema de explotación): explotación de las economías menos desarrolladas por las más desarrolladas. Los países imperialistas del siglo XX no han cambiado. No hay nuevas economías imperialistas. China no es imperialista en nuestras medidas. La transferencia de plusvalía por parte de la UE en el comercio internacional se debe principalmente a la superioridad tecnológica de las empresas del núcleo imperialista pero también a una mayor tasa de explotación en el “sur global”. La transferencia de plusvalía del bloque dominado al núcleo imperialista está aumentando en términos de dólares y como porcentaje del PIB.

En nuestra presentación, revisamos otros métodos para medir el “intercambio desigual” en lugar de nuestro método de “precios de producción”, y hay bastantes. En la conferencia, hubo otra sesión en la que Andrea Ricci actualizó (ver sección III) su invaluable trabajo sobre la medición de la transferencia de plusvalía entre la periferia y el bloque imperialista utilizando tablas mundiales de insumo-producto para los sectores comerciales y medidas en dólares PPA. Roberto Veneziani y sus colegas también presentaron un modelo de equilibrio general convencional para desarrollar un “índice de explotación” que muestra la transferencia neta de valor en el comercio de los países. Ambos estudios apoyaron los resultados de nuestro método más “temporal”.

En el estudio de Ricci hay una transferencia neta anual del 4% de la plusvalía en el PIB per cápita a América del Norte; casi el 15% per cápita para Europa occidental y cerca del 6% para Japón y Asia oriental. Por otro lado, existe una pérdida neta de PIB anual per cápita para Rusia del 17%; China 10%, América Latina 5-10% y 23% para India.

https://thenextrecession.files.wordpress.com/2021/09/ii3.png

En el estudio de Veneziani et al, “todos los países de la OCDE están en el centro, con un índice de intensidad de explotación muy por debajo de 1 (es decir, menos explotado que explotador); mientras que casi todos los países africanos son explotados, incluidos los veinte más explotados “. El estudio coloca a China en la cúspide entre explotados y explotados.

https://thenextrecession.files.wordpress.com/2021/09/ii4.png

En todas estas medidas de explotación imperialista, China no encaja a la perfección, al menos económicamente. Y esa es la conclusión a la que también se llegó en otra sesión que lanzó un nuevo libro sobre imperialismo del economista marxista australiano Sam King. El convincente libro de Sam King propone que la tesis de Lenin era correcta en sus fundamentos, a saber, que el capitalismo se había convertido en lo que Lenin llamó “capital financiero monopolista” (si bien su libro no está disponible de forma gratuita, su tesis versa fundamentalmente sobre lo mismo). El mundo se ha polarizado en países ricos y pobres sin perspectivas de que ninguna de las principales sociedades pobres llegue a formar parte de la liga de los ricos. Cien años después, ningún país que fuera pobre en 1916 se ha unido al exclusivo club imperialista (salvo con la excepción de Corea y Taiwán, que se beneficiaron específicamente de las “bendiciones de la guerra fría del imperialismo estadounidense”).

La gran esperanza de la década de 1990, promovida por la economía del desarrollo dominante de que Brasil, Rusia, India, China y Sudáfrica (BRICS) pronto se unirían a la liga de los ricos en el siglo XXI, ha demostrado ser un espejismo. Estos países siguen siendo también rans y todavía están subordinados y explotados por el núcleo imperialista. No hay economías de rango medio, a medio camino, que puedan ser consideradas como “subimperialistas” como sostienen algunos economistas marxistas. King muestra que el imperialismo está vivo y no tan bien para los pueblos del mundo. Y la brecha entre las economías imperialistas y el resto no se está reduciendo, al contrario. Y eso incluye a China, que no se unirá al club imperialista.

Hablando de China, hubo varias sesiones sobre China organizadas por el grupo de trabajo IIPPE China. Las sesiones fueron grabadas y están disponibles para verlas en el canal de YouTube de IIPPE China. La sesión cubrió el sistema estatal de China; sus políticas de inversión extranjera; el papel y la forma de planificación en China y cómo China se enfrentó a la pandemia de COVID.

También hubo una sesión sobre ¿Es capitalista China?, en la que realicé una presentación titulada ¿Cuándo se volvió capitalista China? El título es un poco irónico, porque argumenté que desde la revolución de 1949 que expulsó a los terratenientes compradores y capitalistas (que huyeron a Formosa-Taiwán), China ya no ha sido capitalista. El modo de producción capitalista no domina en la economía china incluso después de las reformas de mercado de Deng en 1978. En mi opinión, China es una “economía de transición” como lo era la Unión Soviética, o lo son ahora Corea del Norte y Cuba.

En mi presentación defino qué es una economía de transición, como la vieron Marx y Engels. China no cumple con todos los criterios: en particular, no hay democracia obrera, no hay igualación o restricciones en los ingresos; y el gran sector capitalista no está disminuyendo constantemente. Pero, por otro lado, los capitalistas no controlan la maquinaria estatal, sino los funcionarios del Partido Comunista; la ley del valor (beneficio) y los mercados no dominan la inversión, sí lo hace el gran sector estatal; y ese sector (y el sector capitalista) tienen la obligación de cumplir con los objetivos de planificación nacional (a expensas de la rentabilidad, si es necesario).

Si China fuera simplemente otra economía capitalista, ¿cómo explicamos su fenomenal éxito en el crecimiento económico, sacando a 850 millones de chinos de la línea de pobreza ?; y evitar las recesiones económicas que las principales economías capitalistas han sufrido de forma regular? Si ha logrado esto con una población de 1.400 millones y, sin embargo, es capitalista, entonces sugiere que puede haber una nueva etapa en la expansión capitalista basada en alguna forma estatal de capitalismo que sea mucho más exitosa que los capitalismos anteriores y ciertamente más que sus pares en India, Brasil, Rusia, Indonesia o Sudáfrica. China sería entonces una refutación de la teoría marxista de la crisis y una justificación del capitalismo. Afortunadamente, podemos atribuir el éxito de China a su sector estatal dominante para la inversión y la planificación, no a la producción capitalista con fines de lucro y al mercado.

Para mí, China se encuentra en una “transición atrapada”. No es capitalista (todavía) pero no avanza hacia el socialismo, donde el modo de producción es a través de la propiedad colectiva de los medios de producción para las necesidades sociales con consumo directo sin mercados, intercambio o dinero. China está atrapada porque todavía está atrasada tecnológicamente y está rodeada de economías imperialistas cada vez más hostiles; pero también está atrapado porque no existen organizaciones democráticas de trabajadores y los burócratas del PC deciden todo, a menudo con resultados desastrosos.

Por supuesto, esta visión de China es minoritaria. Los “expertos en China” occidentales están al unísono de que China es capitalista y una forma desagradable de capitalismo para arrancar, no como los capitalismos “democráticos liberales” del G7. Además, la mayoría de los marxistas están de acuerdo en que China es capitalista e incluso imperialista. En la sesión, Walter Daum argumentó que, incluso si la evidencia económica sugiere que China no es imperialista, políticamente China es imperialista, con sus políticas agresivas hacia los estados vecinos, sus relaciones comerciales y crediticias explotadoras con países pobres y su supresión de minorías étnicas como los uyghars en la provincia de Xinjiang. Otros presentadores, como Dic Lo y Cheng Enfu de China, no estuvieron de acuerdo con Daum, y Cheng caracterizó a China como “socialista con elementos del capitalismo de Estado”, una formulación extraña que suena confusa.

Finalmente, debo mencionar algunas otras presentaciones. Primero, sobre la controvertida cuestión de la financiarización. Los partidarios de la ‘financiarización’ argumentan que el capitalismo ha cambiado en los últimos 50 años de una economía orientada a la producción a una dominada por el sector financiero y son las visiones de este sector inestable las que causan las crisis, no los problemas de rentabilidad en el sector productivo. sectores, como argumentó Marx. Esta teoría ha dominado el pensamiento de los economistas poskeynesianos y marxistas en las últimas décadas. Pero cada vez hay más pruebas de que la teoría no solo es incorrecta teóricamente, sino también empíricamente.

Y en IIPPE, Turan Subasat y Stavros Mavroudeas presentaron aún más evidencia empírica para cuestionar la “financiarización” en su artículo titulado: La hipótesis de la financiarización: una crítica teórica y empírica. Subasat y Mavroudeas encuentran que la afirmación de que la mayoría de las empresas multinacionales más grandes son “financieras” es incorrecta. De hecho, la participación de las finanzas en los EE. UU. Y el Reino Unido no ha aumentado en los últimos 50 años; y durante los últimos 30 años, la participación del sector financiero en el PIB disminuyó en un 51,2% y la participación del sector financiero en los servicios disminuyó en un 65,9% en los países estudiados. Y no hay evidencia de que la expansión del sector financiero sea un predictor significativo del declive de la industria manufacturera, que ha sido causado por otros factores (globalización y cambio técnico).

Y hubo algunos artículos que continuaron confirmando la teoría monetaria de Marx, a saber, que las tasas de interés no están determinadas por una “ tasa de interés natural ” de la oferta y la demanda de ahorros (como argumentan los austriacos) o por la preferencia de liquidez, es decir, el acaparamiento de dinero (como afirman los keynesianos), pero están limitados e impulsados ​​por los movimientos en la rentabilidad del capital y, por lo tanto, la demanda de fondos de inversión. Nikos Stravelakis ofreció un artículo, Una reconciliación de la teoría del interés de Marx y el rompecabezas de la prima de riesgo, que mostraba que las ganancias netas corporativas están relacionadas positivamente con los depósitos bancarios y las ganancias netas a brutas están relacionadas positivamente con la tasa de depósitos de préstamos y que el 60% de las variaciones en las tasas de interés pueden explicarse por cambios en la tasa de ganancia. Y Karl Beitel mostró la estrecha conexión entre el movimiento a largo plazo de la rentabilidad en las principales economías en los últimos 100 años (cayendo) y la tasa de interés de los bonos a largo plazo (cayendo). Esto sugiere que hay un nivel máximo de tasas de interés, como argumentó Marx, determinado por la tasa de ganancia sobre el capital productivo, porque el interés proviene solo de la plusvalía.

Finalmente, algo que no estaba en IIPPE pero que agrega aún más apoyo a la ley de Marx de la tendencia a la caída de la tasa de ganancia. En el libro World in Crisis, coeditado por Carchedi y yo, muchos economistas marxistas presentaron evidencia empírica de la caída de la tasa de ganancia del capital de muchos países diferentes. Ahora podemos agregar otro. En un nuevo artículo, El crecimiento económico y la tasa de ganancia en Colombia 1967-2019, Alberto Carlos Duque de Colombia muestra la misma historia que hemos encontrado en otros lugares. El artículo encuentra que el movimiento en la tasa de ganancia está “en concordancia con las predicciones de la teoría marxista y afecta positivamente la tasa de crecimiento. Y la tasa de crecimiento del PIB se ve afectada por la tasa de ganancia y la tasa de acumulación está en una relación inversa entre estas últimas variables ”.

Por lo tanto, los resultados “son consistentes con los modelos macroeconómicos marxistas revisados en este artículo y brindan apoyo empírico a los mismos. En esos modelos, la tasa de crecimiento es un proceso impulsado por el comportamiento de la tasa de acumulación y la tasa de ganancia. Nuestros análisis econométricos brindan apoyo empírico a la afirmación marxista sobre el papel fundamental de la tasa de ganancia, y sus elementos constitutivos, en la acumulación de capital y, en consecuencia, en el crecimiento económico”.

III. OTRAS REFERENCIAS BIBLIOGRÁFICAS

GENERALIDADES DE LA TEORÍA DEL APRENDIZAJE ESTADÍSTICO

ISADORE NABI

VI. Referencias

Barrios, J. (19 de Julio de 2019). La matriz de confusión y sus métricas . Obtenido de Health BIG DATA: https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/

Google Developers. (19 de Julio de 2021). Clasificación: Exactitud. Obtenido de https://developers.google.com/machine-learning/crash-course/classification/accuracy

Hastie, T., Tibshirani, R., & Friedman, J. (2017). The Elements of Statistical Learning. Data Mining, Inference, and Prediction (Segunda ed.). New York: Springer.

James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning with Applications in R. New York: Springer.

StackExchange Data Science. (19 de Junio de 2016). Is GLM a statistical or machine learning model? Obtenido de https://datascience.stackexchange.com/questions/488/is-glm-a-statistical-or-machine-learning-model

StackOverFlow. (15 de Marzo de 2014). Supervised Learning, Unsupervised Learning, Regression. Obtenido de https://stackoverflow.com/questions/22419136/supervised-learning-unsupervised-learning-regression

Wikipedia. (10 de Julio de 2021). Precision and recall. Obtenido de Bioinformatics: https://en.wikipedia.org/wiki/Precision_and_recall

SOBRE LOS ISOMORFISMO DE GRAFO

ISADORE NABI

En teoría de grafos, se define como grafo al par G=(V,E), en donde V es el conjunto de aquellos elementos que son vértices y E es el conjunto de pares de vértices cuyos elementos se denominan aristas. A continuación, se presenta un ejemplo simple de grafo con tres vértices (círculos azules) y tres aristas (líneas rectas negras), específicamente un triángulo rectángulo visto como grafo.

Fuente: (Wikimedia, 2021).

Un isomorfismo entre dos grafos G1 y G2 es una relación funcional biyectiva (i.e., que establece una relación uno-a-uno entre los elementos de dos conjuntos) entre los vértices de G1 y G2, que adopta la forma f: V(G1)–>V(G2), en la que cualesquiera dos vértices u, v ∈ G1 son adyacentes (relación entre dos vértices en la que ambos son extremos de la misma arista) si y solo si sus reflejos o imágenes matemáticas f(u) y f(v) son adyacentes en G2. La característica fundamental de un isomorfismo de grafo es que es una relación funcional biyectiva que preserva las aristas que caracterizan al grafo. Que esta transformación matemática preserve las aristas implica que las distancias entre los vértices, analizados estos “de dos en dos”, no cambian.

Son precisamente estas distancias a las que se les conoce como distancias relativas dentro de la estructura matemática, en contraste con las distancias absolutas que son medidas como distancias de los vértices considerados individualmente. Un ejemplo de ello se muestra a continuación.

Fuente: (Jose, 2020).

Los dos grafos anteriores son isomórficos entre sí, i.e., poseen la misma estructura interna o estructura topológica. A continuación, se presenta un ejemplo numérico de ello, en consonancia con lo anteriormente expuesto.

Fuente: (Wikipedia, 2021).

Las diferencias concretas entre las distancias topológicas y las distancias métricas pueden observarse con nitidez en lo relativo al desarrollo teórico y aplicado de modelos que explican el comportamiento colectivo de animales, como lo son bandadas de aves, bancos de peces, etc. Esto es un equivalente concreto a nivel biológico del concepto matemático abstracto de la manera en que se agrupan en subconjuntos los elementos de un determinado conjunto).

Como señala el Instituto de Sistemas Complejos de Italia (Instituto dei Sistemi Complessi, 2021), todos los modelos existentes sobre el comportamiento colectivo de los animales asumen que la interacción entre los diferentes individuos depende de la distancia métrica, al igual que en la Física. Esto implica, por ejemplo, que dos pájaros separados por 5 metros interactúan con más fuerza que dos pájaros separados por 10 metros. Como se señala en la fuente citada, los modelos desarrollados por biólogos se basan en un esquema de “zonas de comportamiento”, donde cada zona está asociada a uno de los tres componentes básicos de todos los modelos: repulsión de corto alcance, alineación, atracción de largo alcance. Los modelos desarrollados por físicos, por otro lado, usaban principalmente una función de fuerza única. Sin embargo, los dos enfoques son sustancialmente equivalentes y lo que importa es que ambos se basan en un paradigma métrico.

El punto crucial es que, dentro del paradigma métrico, el número de vecinos con los que interactúa cada individuo no es una constante, sino que depende de la densidad. Por ejemplo, supóngase que cada ave interactúa con todos los vecinos dentro de un rango de 5 metros. El número de vecinos dentro de los 5 metros será grande en una bandada densa y pequeña en una bandada escasa. Entonces, dentro del paradigma métrico, el número de vecinos que interactúan no es una constante, sino que depende de la densidad. Lo que es constante es el rango métrico de la interacción (5 metros en el ejemplo anterior).

El paradigma métrico parece muy razonable a primera vista. Los animales son buenos para evaluar distancias, por lo que tiene sentido asumir que la fuerza de sus lazos mutuos depende de la distancia. Además, los modelos métricos demostraron ser capaces de reproducir cualitativamente el comportamiento de las bandadas. Por lo tanto, no había razón para cuestionar el paradigma métrico, en ausencia de datos empíricos. Y dado que hasta el momento no se disponía de datos empíricos, todos los modelos utilizaron una interacción métrica.

Los primeros datos empíricos sobre grandes bandadas de estorninos fueron obtenidos por el nodo INFM-CNR dentro del proyecto STARFLAG (esto hace referencia a un proyecto sobre comportamiento colectivo de animales coordinado por el INFM-CNR, organismo que pertenece a la institución citada). Al reconstruir las posiciones en 3D de aves individuales, fue posible mapear la distribución promedio de los vecinos más cercanos (Figura 2), lo que proporciona la caracterización más clara de la estructura de las aves dentro de una bandada.

Así, “Dado un ave de referencia, medimos la orientación angular de su vecino más cercano con respecto a la dirección de movimiento de la bandada, es decir, el rumbo y la elevación del vecino. Repetimos esto tomando a todos los individuos dentro de una bandada como ave de referencia, y de esta manera mapeamos la posición espacial promedio de los vecinos más cercanos.” (Instituto dei Sistemi Complessi, 2021). El fragmento de la cita bibliográfica anterior en negrita y cursiva es en esencia la lógica de tomar a los individuos “de dos en dos”, añadiendo a ello elementos que juegan un rol relevante en este contexto específico de aplicación de las nociones topológicas, como lo son el rumbo y la elevación; sin embargo, hay que decir que a nivel de teoría de grafos, también existen grafos cuyas aristas poseen dirección, los cuales por motivo de simplicidad no fueron expuestos, aunque no por ello deja de ser necesaria esta especificación.

Así, es posible pensar en este mapa como un mapa de la esfera alrededor de cada ave voladora. El centro del mapa es la dirección de avance, los polos son las direcciones hacia arriba y hacia abajo. El color en un punto dado del mapa indica la probabilidad de que el vecino más cercano del pájaro esté en esa dirección particular. Este mapa muestra una sorprendente falta de vecinos más cercanos a lo largo de la dirección del movimiento. Por tanto, la estructura de los individuos es fuertemente anisotrópica[1]. Esta anisotropía probablemente esté relacionada con el aparato visual de las aves. Sin embargo, el punto crucial es que esta anisotropía es el efecto de la interacción entre individuos, cualquiera que sea esta interacción.

Fuente: (Instituto dei Sistemi Complessi, 2021).

Para respaldar esta afirmación, calculamos la distribución de vecinos muy alejados del ave de referencia, por ejemplo, para el décimo vecino más cercano (mapa inferior en la figura).

Fuente: (Instituto dei Sistemi Complessi, 2021).

Esta distribución es uniforme, para garantizar una agregación de puntos completamente isótropa[2] y sin interacción, puesto que ello es una indicación empírica directa de afirmar que la interacción decae con la distancia: cuanto más separadas están dos aves, menor es su grado de correlación. Este resultado también demuestra que podemos usar la anisotropía para obtener información sobre la interacción. De hecho, se puede calcular el mapa de distribución angular[3] de los vecinos incluso para el segundo, tercer, cuarto vecino más cercano, etc., y observar cómo la estructura anisotrópica presente para los vecinos más cercanos se desvanece progresivamente a medida que aumenta el orden del vecino.

La desintegración de esta estructura anisotrópica con la distancia se puede cuantificar de forma precisa calculando el factor de anisotropía gamma[4].  Esta cantidad decae a su valor isotrópico (no interactivo) 1/3 a medida que aumenta el orden n-ésimo del vecino, de manera similar a una función de correlación estándar.

“Sin embargo, el punto crucial es que n es una distancia topológica, es decir, es una distancia medida en unidades de aves, en lugar de metros. A partir del factor de anisotropía podemos calcular el rango topológico, definido como el punto donde el factor de anisotropía se vuelve igual a su valor de no interacción. Este rango topológico es simplemente el número promedio de vecinos con los que interactúa cada ave. Claramente, dada la densidad de la bandada, también podemos definir una distancia métrica estándar y, por lo tanto, un rango métrico de la interacción. El rango métrico de interacción no es más que la distancia máxima de las aves dentro del rango topológico.” Fuente: (Instituto dei Sistemi Complessi, 2021).

Así, el punto importante es que la densidad de las bandadas varía mucho de una bandada a otra, y esto implica que el rango topológico y métrico no puede ser constante cuando la densidad varía. Para dilucidar este punto crucial, considérese dos bandadas con diferentes densidades. Si la interacción depende de la distancia métrica, entonces el rango en metros es el mismo en las dos bandadas, mientras que el número de individuos dentro de este rango es grande en la bandada más densa y pequeño en la más dispersa.

Fuente: (Instituto dei Sistemi Complessi, 2021).

Por el contrario, si la interacción depende de la distancia topológica, el rango en unidades de aves es constante en las dos bandadas, mientras que la distancia de estos n vecinos más cercanos es pequeña en la bandada más densa y grande en la más escasa.

La diferencia entre la hipótesis topológica y métrica es clara: en el escenario topológico, el número de individuos que interactúan es fijo. Por el contrario, en el escenario métrico, dicho número varía con la densidad; por ejemplo, dentro del mismo rango métrico puede haber 10 aves en una bandada muy densa y solo 1 ave en una muy escasa. Por lo tanto, los rangos topológicos y métricos no son caracterizaciones intercambiables de la interacción.

Por lo tanto, para comprender si lo que importa es la métrica o la distancia topológica, debemos medir cómo el rango métrico y topológico depende de la densidad de las bandadas. En promedio, para este caso de aplicación concreto se sostiene en la fuente citada que el rango topológico es igual a 6.5 aves. “Este resultado contrasta con la mayoría de los modelos y teorías de comportamiento animal colectivo actualmente en el mercado, que asumen un rango métrico de interacción.” Fuente: (Instituto dei Sistemi Complessi, 2021).

¿Por qué una interacción topológica y no métrica? El comportamiento colectivo de los animales se escenifica en un entorno natural convulso. Por tanto, el mecanismo de interacción formado por la evolución debe mantener la cohesión frente a fuertes perturbaciones, de las cuales la depredación es la más relevante. Creemos que la interacción topológica es el único mecanismo que otorga una cohesión tan robusta y, por lo tanto, una mayor aptitud biológica. Una interacción métrica es inadecuada para hacer frente a este problema: siempre que la distancia interindividual se hiciera mayor que el rango métrico, la interacción desaparecería, la cohesión se perdería y los rezagados se “evaporarían” de la agregación. Una interacción topológica, por el contrario, es muy robusta, ya que su fuerza es la misma a diferentes densidades. Al interactuar dentro de un número fijo de individuos, en lugar de metros, la agregación puede ser densa o escasa, cambiar de forma, fluctuar e incluso dividirse, pero manteniendo el mismo grado de cohesión. Por lo tanto, la interacción topológica es funcional para mantener la cohesión frente a las fuertes perturbaciones a las que está sujeta una bandada, típicamente depredación. Así, las distancias topológicas son aquellas distancias entre los elementos de un conjunto, o entre los componentes integrantes de un sistema dinámico, que se mantienen invariantes ante perturbaciones. Por ello, en línea con lo planteado en (Nabi, 2021) en el terreno de la biología molecular, las distancias topológicas denotan las propiedades características, i.e., la esencia, de los fenómenos naturales Lo que es más íntimo, más característico del comportamiento estudiado.

Finalmente, es necesario mencionar que existe evidencia de que el valor particular del rango topológico que encontramos (6.5) está relacionado con las capacidades cognitivas de las aves y, en particular, con sus habilidades pre numéricas[5].

REFERENCIAS

Instituto dei Sistemi Complessi. (27 de Febrero de 2021). Topolical vs Metric Distance. Obtenido de Biological Systems: https://www.isc.cnr.it/research/topics/physical-biology/biological-systems/topological-vs-metric-distance/

Jose, K. (27 de Junio de 2020). Graph Theory | Isomorphic Trees. Obtenido de Towards Data Science: https://towardsdatascience.com/graph-theory-isomorphic-trees-7d48aa577e46

Nabi, I. (14 de Marzo de 2021). HACIA UNA INTERPRETACIÓN DIALÉCTICA-MATERIALISTA DE LA TOPOLOGÍA GENERAL: GÉNESIS HISTÓRICA-TEÓRICA DE LA TOPOLOGÍA DESDE LA GEOMETRÍA Y LA TEORÍA DE CONJUNTOS. Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/03/14/hacia-una-interpretacion-dialectica-materialista-de-la-topologia-general-genesis-historica-teorica-de-la-topologia-desde-la-geometria-y-la-teoria-de-conjuntos/

Oilfield Glossary en Español. (2021). gamma (γ). Obtenido de Geofísica: https://glossary.oilfield.slb.com/es/terms/g/gamma

The SEG Wiki. (8 de Abril de 2021). Isotropía Transversal. Obtenido de Dictionary: https://wiki.seg.org/wiki/Dictionary:Transverse_isotropy/es

Wikimedia. (6 de Abril de 2021). Commons. Obtenido de Wikipedia: https://upload.wikimedia.org/wikipedia/commons/b/bf/Undirected.svg

Wikipedia. (6 de Julio de 2021). Graph isomorphism. Obtenido de Morphism: https://en.wikipedia.org/wiki/Graph_isomorphism


[1] La anisotropía es la propiedad general de la materia según la cual cualidades como elasticidad, temperatura, conductividad, velocidad de propagación de la luz, etc., varían según la dirección en que son examinadas.​ Un ente anisótropo puede presentar diferentes características según la dirección.

[2] La isotropía es la característica de algunos fenómenos en el espacio cuyas propiedades no dependen de la dirección en que son examinadas.

[3] La distribución angular de un conjunto de observaciones es la distribución de las direcciones hacia donde los electrones son emitidos dentro de un determinado sistema de coordenadas.

[4] Como se señala en (Oilfield Glossary en Español, 2021), el factor de anisotropía gamma es el parámetro de las ondas S para un medio en el cual las propiedades elásticas exhiben isotropía transversal vertical [implica propiedades elásticas que son las mismas en cualquier dirección perpendicular a un eje de simetría y tiene cinco constantes elásticas independientes, como se señala en (The SEG Wiki, 2021)]. Gamma (γ) es el parámetro de anisotropía de las ondas S y equivale a mitad de la razón de la diferencia entre las velocidades de las ondas SH que se propagan en sentido horizontal y vertical, al cuadrado, dividida por la velocidad de las ondas SH que se propagan verticalmente al cuadrado; una onda SH es una onda de corte polarizada horizontalmente.”

[5] Para el caso de los humanos, las habilidades pre numéricas son aquellas necesarias antes de aprender sobre los números, tales como comparar, clasificar, identificar, reunir, establecer relaciones uno a uno, seriar, etc.

DISQUISICIONES ELEMENTALES SOBRE LOS TEOREMAS FUNDAMENTALES DEL CÁLCULO EN UNA VARIABLE (ENSAYO SOBRE FILOSOFÍA DE LAS MATEMÁTICAS, 2015)

ISADORE NABI

SOBRE LA ESENCIA, EL CONTENIDO, LA FORMA, EL FENÓMENO Y LA APARIENCIA DE LOS PROCESOS DE LA REALIDAD

ISADORE NABI

REFERENCIAS

Einstein, A. (2005). The Foundation of the General Theory of Relativity. En A. Einstein, 100 Years of Gravity and Accelerated Frames. The Deepest lnsig hts of Einstein and Yang-Mills (págs. 65-119). Singapore: World Scientific Publishing Co. Pte. Ltd.

Frolov, I. T. (1984). Diccionario de filosofía. (O. Razinkov, Trad.) Moscú: Editorial Progreso. Obtenido de http://filosofia.org/

Gass, I., Smith, P., & Wilson, R. (2008). Introducción a las Ciencias de la Tierra. Barcelona: Reverté, S.A.

Kilifarska, N. A., Bakhmutov, V. G., & Melnyk, G. V. (2020). The Hidden Link between Earth’s Magnetic Field and Climate. Radarweg, Amsterdam, Netherlands: Elsevier.

Lumen Physics. (10 de Abril de 2021). Fictitious Forces and Non-inertial Frames: The Coriolis Force. Obtenido de Uniform Circular Motion and Gravitation: https://courses.lumenlearning.com/physics/chapter/6-4-fictitious-forces-and-non-inertial-frames-the-coriolis-force/

Marx, K. (2007). Elementos Fundamentales para la Crítica de la Economía Política (Grundrisse) 1857-1858 (Vol. I). México, D.F.: Siglo XXI.

Nabi, I. (2020). Algunas Reflexiones Sobre la Distribución Binomial Negativa II (Un Análisis Teórico y Aplicado). Documento Inédito. Obtenido de https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/algunas-reflexiones-sobre-la-distribucion-binomial-negativa-ii-isadore-nabi-2.pdf

Nabi, I. (2021). Lecciones de Gnoseología Marxiana I. Documento Inédito. Obtenido de https://marxianstatistics.com/2021/04/09/lecciones-de-gnoseologia-marxiana-i-lessons-of-marxian-gnoseology-i/

Nabi, I. (2 de Abril de 2021). Una Interpretación Multidisciplinaria de los Espacios Característicos, Vectores Característicos y Valores Característicos. Obtenido de El Blog de Isadore Nabi: https://marxistphilosophyofscience.com/wp-content/uploads/2021/04/una-interpretacion-multidisciplinaria-de-los-espacios-caracteristicos-vectores-caracteristicos-y-valores-caracteristicos-isadore-nabi-1.pdf

Real Academia Española. (5 de Julio de 2020). inherente. Recuperado el 5 de Julio de 2020, de Definición: https://dle.rae.es/inherente?m=form

Rosental, M. (1961). Los problemas de la dialéctica en “EL CAPITAL” de Marx. Montevideo: Ediciones Pueblos Unidos.

Rosental, M., & Iudin, P. (1971). Diccionario Filosófico. San Salvador: Tecolut.

StackExchange. (24 de Abril de 2012). How fictitious are fictitious forces? Obtenido de Physics: https://physics.stackexchange.com/questions/24338/how-fictitious-are-fictitious-forces

StackExchange. (8 de Febrero de 2012). Why can’t we think of free fall as upside down rocket? Obtenido de Physics: https://physics.stackexchange.com/questions/20706/why-cant-we-think-of-free-fall-as-upside-down-rocket/20709#20709 Un Blog de Dibujos. (9 de Abril de 2021). Capas de la Tierra. Obtenido de Noches en vela: https://lonedain.wordpress.com/2012/02/22/ilustracion-educativa/capas-de-la-tierra/

LECCIONES DE GNOSEOLOGÍA MARXIANA I (LESSONS ON MARXIAN GNOSEOLOGY I)

isaDORE NABI

xiii. REFERENCIAS (references)

Bayes, T. (23 de Diciembre de 1763). An Essay towards solving a Problem in the Doctrine of Chances. Philosophical Transactions of the Royal Society of London, 370-418.

Bernoulli, J. (2006). The Art of Conjecturing (Together to a Friend on Sets in Court Tennis). Maryland: John Hopkins University Press.

Crupi, V. (28 de Enero de 2020). Confirmation. Obtenido de Stanford Encyclopedia of Philosophy: https://plato.stanford.edu/entries/confirmation/

DeGroot, M., & Schervish, M. (2012). Probability and Statistics. Boston: Pearson Education.

Dussel, E. (1991). 2. El método dialéctico de lo abstracto a lo concreto (20, 41-33, 14; 21,3-31,38) :(Cuaderno M. desde la página 14 del manuscrito, terminado a mediados deseptiembre de 1857). En E. Dussel, La producción teórica de Marx: un comentario a los grundrisse (págs. 48-63). México D.F.: Siglo XXI Editores. Obtenido de http://biblioteca.clacso.edu.ar/clacso/otros/20120424094653/3cap2.pdf

Efron, B. (1978). Controversies in the Foundations of Statistics. The American Mathematical Monthly, 231-246.

Eremenko, A. (30 de Abril de 2020). Stack Exchange, History of Sciences and Mathematics. Obtenido de What was Kolmogorov’s point of view in the philosophy of mathematics?: https://hsm.stackexchange.com/questions/11730/what-was-kolmogorov-s-point-of-view-in-the-philosophy-of-mathematics

Feller, W. (1968). An Introduction to Probability Theory and Its Applications (Tercera ed., Vol. I). New York: John Wiley & Sons, Inc.

Filosofía en español. (9 de Febrero de 2018). Diccionario filosófico abreviado. Obtenido de URSS: http://www.filosofia.org/urss/dfa1959.htm

Fröhlich, N. (2012). Labour values, prices of production and the missing equalisation tendency of profit rates: evidence from the German economy. Cambridge Journal of Economics, 37(5), 1107-1126.

Frolov, I. T. (1984). Diccionario de filosofía. (O. Razinkov, Trad.) Moscú: Editorial Progreso. Obtenido de http://filosofia.org/

Fundación del Español Urgente. (23 de Marzo de 2021). Formación de gentilicios extranjeros. Obtenido de Lista de topónimos y gentilicios: https://www.wikilengua.org/index.php/Formaci%C3%B3n_de_gentilicios_extranjeros

Fundación del Español Urgente. (23 de Marzo de 2021). -ista (sufijo). Obtenido de Sufijos: https://www.wikilengua.org/index.php/-ista_(sufijo)

Gigerenzer, G. (2004). Mindless Statistics. The Journal of Socio-Economics, 587-606.

Greene, W. H. (2012). Econometric Analysis (International Edition). Essex: Pearson Education Limited.

Guerrero Jiménez, D. (2018). TRABAJO IMPRODUCTIVO, CRECIMIENTO Y TERCIARIZACIÓN (30 AÑOS DESPUÉS DE MARX Y KEYNES). International Journal of Political Economy, 1-16. Obtenido de https://www.researchgate.net/publication/327189598_Diego_Guerrero_TRABAJO_IMPRODUCTIVO_CRECIMIENTO_Y_TERCIARIZACION_30_ANOS_DESPUES_DE_MARX_Y_KEYNES

Haldane, J. B. (1945). Science and Everyday Life. Allahabad,: Kitab Mahal Publishers.

Hegel, F. (1968). Ciencia de la Lógica. Buenos Aires: Solar / Hachette.

Johnsen, J. (17 de Enero de 2019). What is the difference between positivism and empiricism? Obtenido de Quora: https://www.quora.com/What-is-the-difference-between-positivism-and-empiricism

Kohan, N., & Brito, P. (1 de Febrero de 2009). Marxismo para principiantes. Obtenido de nodo50: https://info.nodo50.org/Diccionario-basico-de-categorias.html

Kojevnikov, A. (19 de Junio de 2019). PROBABILITY, MARXISM, AND QUANTUM ENSEMBLES. Obtenido de The University of British Columbia: https://history.ubc.ca/wp-content/uploads/sites/23/2019/06/probability2012.pdf

Kolmogórov, A. (1956). Foundations of the Theory of Probability (Segunda Edición ed.). New York: Chelsea Publishing Company.

Laplace, P.-S. (2015). Ensayo Filosófico Sobre Probabilidades. Ciudad de México: Biblioteca Digital del Instituto Latinoamericano de Comunicación Educativa. Obtenido de http://bibliotecadigital.ilce.edu.mx/Colecciones/ReinaCiencias/_docs/EnsayoFilosoficoProbabilidades.pdf

Lenin, V. (1974). Cuadernos Filosóficos. Madrid: Editorial Ayuso.

Loughborough University. (21 de Febrero de 2008). Total Probability and Bayes’ Theorem. Obtenido de The theorem of total probability: https://learn.lboro.ac.uk/archive/olmp/olmp_resources/pages/workbooks_1_50_jan2008/Workbook35/35_4_total_prob_bayes_thm.pdf

Maibaum, G. (1988). Teoría de Probabilidades y Estadística Matemática. (M. Á. Pérez, Trad.) La Habana, Cuba: Editorial Pueblo y Educación.

Marx, K. (1894). Capital. A Critique of Political Economy (Vol. III). New York: International Publishers.

Marx, K. (1989). Contribución a la Crítica de la Economía Política. Moscú: Editorial Progreso.

Marx, K. (2007). Elementos Fundamentales para la Crítica de la Economía Política (Grundrisse) 1857-1858 (Vol. I). (J. Aricó, M. Murmis, P. Scaron, Edits., & P. Scaron, Trad.) México, D.F.: Siglo XXI Editores.

Marx, K. (2010). El Capital (Vol. I). México, D.F.: Fondo de Cultura Económica.

Marx, K., & Engels, F. (1987). Karl Marx and Friedrich Engels Collected Works (Vol. XLII). Moscú: Progress Publishers.

Mittelhammer, R. (2013). Mathematical Statistics for Economics and Business (Segunda ed.). New York: Springer.

Nabi, I. (2020). Algunas Reflexiones Sobre la Distribución Binomial Negativa II (Un Análisis Teórico y Aplicado). Documento Inédito. Obtenido de https://marxistphilosophyofscience.com/wp-content/uploads/2020/12/algunas-reflexiones-sobre-la-distribucion-binomial-negativa-ii-isadore-nabi-2.pdf

Nabi, I. (21 de Marzo de 2021). Sobre el papel y la viabilidad de la violencia en la lucha social de las mujeres en particular y en las luchas sociales en general. Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/03/11/sobre-el-papel-y-viabilidad-de-la-violencia-en-la-lucha-social-de-las-mujeres-en-particular-y-en-la-lucha-social-en-general/

Nabi, I., & B.A., A. (1 de Abril de 2021). UNA METODOLOGÍA EMPÍRICA PARA LA DETERMINACIÓN DE LA MAGNITUD DE LAS INTERRELACIONES SECTORIALES DENTRO DE LA MATRIZ INSUMO-PRODUCTO DESDE LOS CUADROS DE PRODUCCIÓN Y USOS PARA EL CASO DE ESTADOS UNIDOS 1997-2019. Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/04/01/una-metodologia-empirica-para-la-determinacion-de-la-magnitud-de-las-interrelaciones-sectoriales-dentro-de-la-matriz-insumo-producto-desde-los-cuadros-de-oferta-utilizacion-para-el-caso-de-estados-uni/

North Carolina State University. (27 de Septiembre de 2020). People – Department of History . Obtenido de Dr Edith D Sylla: https://history.ncsu.edu/people/faculty_staff/edsssl

Perezgonzalez, J. (3 de Marzo de 2015). Fisher, Neyman-Pearson or NHST? A tutorial for teaching data testing. (L. Roberts, Ed.) Frontiers in Psychology, 6(223), 1-11. doi:10.3389/fpsyg.2015.00223

Poisson, S.-D. (2013). Researches into the Probabilities of Judgments in Criminal and Civil Cases. (O. Sheynin, Ed.) Berlin: arXiv. Obtenido de https://arxiv.org/abs/1902.02782

Radboud Univeristy. (11 de Febrero de 2011). Faculty of Philosophy, Theology and Religious Studies. Obtenido de Center for the History of Philosophy and Science. Edith Dudley Sylla: https://www.ru.nl/ptrs/chps/about-us/former-members/vm/sylla/

Rosental, M. (1961). Los problemas de la dialéctica en “EL CAPITAL” de Marx. Montevideo: Ediciones Pueblos Unidos.

Rosental, M. M., & Iudin, P. F. (1971). DICCIONARIO FILOSÓFICO. San Salvador: Tecolut.

Rosental, M., & Iudin, P. (1959). Diccionario filosófico abreviado. Montevideo: Ediciones Pueblos Unidos.

Russell, K. (29 de Enero de 2014). University of Manitoba. Obtenido de Hypothesis testing: http://home.cc.umanitoba.ca/~krussll/stats/hypothesis-testing.html

StackExchange Philosophy. (15 de Junio de 2015). How empiricism and positivism is distinguished? What’s their differences? Obtenido de Philosophy: https://philosophy.stackexchange.com/questions/24937/how-empiricism-and-positivism-is-distinguished-whats-their-differences

TECH2 NEWS STAFF. (28 de Noviembre de 2019). SCIENTISTS MAY HAVE DISCOVERED A FIFTH FUNDAMENTAL ‘FORCE OF NATURE,’ THEY’RE CALLING IT X17. Obtenido de TECH2: https://www.firstpost.com/tech/science/scientists-may-have-discovered-a-fifth-fundamental-force-of-nature-theyre-calling-it-x17-7710261.html

Wikipedia. (27 de Septiembre de 2020). Population Genetics. Obtenido de J. B. S. Haldane: https://es.wikipedia.org/wiki/John_Burdon_Sanderson_Haldane

Wikipedia. (23 de Septiembre de 2020). Statistics. Obtenido de Inverse Probability: https://en.wikipedia.org/wiki/Inverse_probability

Wikipedia. (13 de Marzo de 2021). Relación de incertidumbre. Obtenido de Mecánica cuántica: https://es.wikipedia.org/wiki/Relaci%C3%B3n_de_indeterminaci%C3%B3n_de_Heisenberg

Williamson, J. (2010). In Defence of Objective Bayesianism. Oxford: Oxford University Press.

Gráfica de Sedimentación

SOBRE EL ANÁLISIS DE COMPONENTES PRINCIPALES (PCA)

ISADORE NABI

REFERENCIAS

Adler, J. (2012). R in a Nutshell (Segunda ed.). Sebastopol, Crimea, Rusia: O’Reilly.

Alger, N. (4 de Marzo de 2013). Intuitively, what is the difference between Eigendecomposition and Singular Value Decomposition? Obtenido de StackExchange Mathematics: https://math.stackexchange.com/questions/320220/intuitively-what-is-the-difference-between-eigendecomposition-and-singular-valu

Bellman, R. (1972). Dynamic Programming (Sexta Impresión ed.). New Jersey: Princeton University Press.

Dunn, K. G. (3 de Marzo de 2021). Process Improvement Using Data. Hamilton, Ontario, Canadá: Learning Chemical Engineering. Obtenido de 6.5. Principal Component Analysis (PCA) | 6. Latent Variable Modelling: https://learnche.org/pid/PID.pdf?60da13

Jollife, I. (2002). Principal Component Analysis. New York: Springer-Verlag.

Minitab. (18 de Abril de 2019). Interpretar todos los estadísticos y gráficas para Análisis de componentes principales. Obtenido de Soporte de Minitab 18: https://support.minitab.com/es-mx/minitab/18/help-and-how-to/modeling-statistics/multivariate/how-to/principal-components/interpret-the-results/all-statistics-and-graphs/

MIT. (23 de Febrero de 2021). Linear transformations and their matrices. Obtenido de Linear Algebra: https://ocw.mit.edu/courses/mathematics/18-06sc-linear-algebra-fall-2011/positive-definite-matrices-and-applications/linear-transformations-and-their-matrices/MIT18_06SCF11_Ses3.6sum.pdf

Nabi, I. (2020). Sobre los Estimadores de Bayes, el Análisis de Grupos y las Mixturas Gaussianas. Documento inédito.

Nabi, I. (3 de Abril de 2021). ¿Por qué se realiza un ajuste por re-escalamiento, normalización o estandarización sobre los datos en el contexto del aprendizaje automático? Obtenido de El Blog de Isadore Nabi: https://marxianstatistics.com/2021/04/03/por-que-se-realiza-un-ajuste-por-re-escalamiento-normalizacion-o-estandarizacion-sobre-los-datos-en-el-contexto-del-aprendizaje-automatico/

Nabi, I. (2 de Abril de 2021). Una Interpretación Multidisciplinaria de los Espacios Característicos, Vectores Característicos y Valores Característicos. Obtenido de El Blog de Isadore Nabi: https://marxistphilosophyofscience.com/wp-content/uploads/2021/04/una-interpretacion-multidisciplinaria-de-los-espacios-caracteristicos-vectores-caracteristicos-y-valores-caracteristicos-isadore-nabi-1.pdf

Pearson, K. (1901). LIII. On lines and planes of closest fit to systems of points in space. The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science, II(11), 559-572. Obtenido de https://www.semanticscholar.org/paper/LIII.-On-lines-and-planes-of-closest-fit-to-systems-F.R.S./cac33f91e59f0a137b46176d74cee55c7010c3f8

Stack Exchange. (13 de Marzo de 2015). Understanding proof of isometry implies isomorphism. Obtenido de Mathematics: https://math.stackexchange.com/questions/1188730/understanding-proof-of-isometry-implies-isomorphism/1188732

Starmer, J. (2 de Abril de 2018). Principal Component Analysis (PCA). Obtenido de StatQuest: https://www.youtube.com/watch?v=FgakZw6K1QQ

Universidad Carlos III de Madrid. (7 de Noviembre de 2006). Análisis de Componentes Principales. Obtenido de Proceso de extracción de factores: http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/AMult/tema3am.pdf

Universitat de Girona. (24 de Enero de 2002). Número de factores a conservar. Obtenido de Análisis factorial: http://www3.udg.edu/dghha/cat/secciogeografia/prac/models/factorial(5).htm

Weisstein, E. (26 de Marzo de 2021). Projection. Obtenido de MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/Projection.html

Weisstein, E. (26 de Marzo de 2021). Transformation. Obtenido de MathWorld – A Wolfram Web Resource: https://mathworld.wolfram.com/Transformation.html

Wikipedia. (4 de Noviembre de 2020). Curse of dimensionality. Obtenido de Numerical Analysis: https://en.wikipedia.org/wiki/Curse_of_dimensionality

Wikipedia. (25 de Octubre de 2020). Isomorfismo. Obtenido de Álgebra: https://es.wikipedia.org/wiki/Isomorfismo

Wikipedia. (26 de Marzo de 2021). Isomorphism. Obtenido de Equivalence (mathematics): https://en.wikipedia.org/wiki/Isomorphism

Wikipedia. (22 de Marzo de 2021). Transcripción genética. Obtenido de Biosíntesis: https://es.wikipedia.org/wiki/Transcripci%C3%B3n_gen%C3%A9tica

Sobre el papel y la viabilidad de la violencia en la lucha social de las mujeres en particular y en las luchas sociales en general

ISADORE NABI

La palabra “violento” posee una raíz etimológica latina (“violentus”) que el diccionario de la Real Academia Española define en su edición tricentenario (actualización 2020) como “Que implica fuerza e intensidad extraordinarias”.

¿Hubo violencia en las manifestaciones en el Día de la Mujer día alrededor del mundo? ¡Por supuesto que sí! ¿Es justificable esa violencia? Para responder, que es lo que busca hacer esta exposición (y no únicamente para el caso de la lucha feminista), hay que comenzar por decir que el machismo es un fenómeno (descrito en líneas generales muy bien por Friedrich Engels en El Origen de la Familia, la Propiedad Privada y el Estado) inherente a los sistemas de economía política, es decir, a sistemas económicos en que las diferencias de recursos son lo suficientemente significativas como para dar lugar a la existencia de intereses sociales irreconciliablemente contradictorios (antagónicos, su conflicto sólo puede ser resuelto mediante la aniquilación de una clase por otra -así como la burguesía aniquiló físicamente a la clase feudal durante la revolución francesa y después de ella, así como la clase feudal aniquiló a la clase esclavista cuando Flavio Odoacro sacó de los pelos a Rómulo Augusto para deponerlo y autoproclamarse Rey de Italia dando así fin al Imperio Romano de occidente y a Roma antigua con ello, al imperio más grande que algún ojo humano ha visto hasta la fecha-), a continuación se expandirá al respecto.

Como se planteó, el machismo es parte del estado natural de las sociedades de clases (i.e., sistemas de economía política), así como el racismo, la pobreza, la marginación, la exclusión y otros tantos hechos sociales (siguiendo la terminología de Émile Durkheim en “Las Reglas del Método Sociológico”, quien plantea que a los fenómenos sociales deben ser tratados como cosas -y a tales fenómenos les llama hechos sociales-) omnipresentes no sólo en el capitalismo sino en toda sociedad de clases, tan omnipresentes que son parte de la normalidad cotidiana de las personas y precisamente por estar profundamente normalizadas no suelen enfrentar resistencia… repensando la antigüedad, Roma no era Roma por las lanzas que llevaban sus legiones, lo era por las ideas que esas legiones imponían con esas lanzas (financiadas con recursos de diversa índole, fundamentalmente económicos) en las cabezas de los pueblos y se sedimentaban con el paso indetenible del tiempo. Por supuesto, en la reflexión anterior la palabra clave es “normalidad”.

En sistemas dinámicos (un sistema debe entenderse como una especie de orquesta musical que toca para un determinado fin y que sea dinámico como que es muy activo en el largo plazo -todo fenómeno con el suficiente grado de complejidad se analiza en general así en la Física-) se habla de “longitud característica” a aquella longitud que sirve para construir todo el sistema (“la medida que sirve de medida”, por decirlo de alguna forma), por ejemplo, la longitud característica de una circunferencia es el radio, puesto que se sabe que los puntos de la circunferencia son equidistantes (están a la misma distancia) del centro, ¿pero de qué serviría saber eso si no se conoce el radio?, sería imposible construir la circunferencia. Lo normal es que se pueden construir sistemas dinámicos (modelarlos, siendo más concretos) con base en estas longitudes características, sin embargo, en determinadas condiciones específicas (condiciones cuánticas -asociadas con la incertidumbre de las mediciones a baja escala- y en condiciones  extremas -como cuando de un cambio de estado a otro se aplica simultáneamente demasiada presión y temperatura sobre el vapor, por ejemplo-) las longitudes características de los sistemas dinámicos pueden “romperse” (que por los motivos antes mencionados las mediciones con el suficiente grado de precisión se vuelvan imposibles) y es necesario para poder realizar un estudio adecuado del fenómeno realizar una renormalización (poder volverlo a medir con el grado de precisión suficiente) del sistema dinámico, lo cual únicamente es posible porque cada sistema dinámico posee la característica de autosimilitud (que también aparece en la teoría de los fractales y la teoría de la complejidad, la que consiste en ser igual o aproximadamente igual en todas las escalas o, de forma más general -filosófica- el todo se refleja en general de forma precisa en sus partes constituyentes) y por ello puede ser visto a diferentes escalas sin cambios relevantes, por lo que pueden reestablecerse las mediciones precisas.

Al fenómeno en que se desdibujan las longitudes características de los sistemas dinámicos se le conoce como “ruptura de ergodicidad” (“ergodicidad” es una palabra cuyas raíces etimológicas no están claras, pero que proviene del griego y parece estar relacionado con cuestiones que implican mucho trabajo -en su sentido de esfuerzo-; sin embargo, matemáticamente hablando la ergodicidad no es otra cosa que una versión radical o más general de uniformidad) y las crisis del capitalismo son precisamente una ruptura de la ergodicidad del sistema que colapsa ante el estallido furibundo de las múltiples contradicciones antagónicas que yacen en su misma naturaleza, en sus mismos fundamentos. Las contradicciones del capitalismo son multidimensionales puesto que este es un sistema complejo de características multidimensionales, sin embargo, su contradicción fundamental es la disociación que existe entre la producción y el consumo (que es el fenómeno económico que se presenta en la esfera de la circulación como disociación entre inversión y ahorro, pero la esfera de la circulación está subordinada en última instancia a la esfera de la producción, por ello la disociación esencial es entre la producción y el consumo -y esta disociación obedece a relaciones de distribución institucionales, i.e., relaciones de distribución fijadas con antelación al proceso de producción y que no obedecen a criterios técnicos sino puramente políticos -aquí se habla de la relación de distribución en sí, no de la distribución como tal-). La determinación de las relaciones de distribución institucionales de la sociedad con antelación al proceso de producción es un brillante descubrimiento realizado William Hickling Prescott, el padre de la Historia (la historia desde su perspectiva científica) en los Estados Unidos (puesto que él es considerado de forma general como el primer historiador científico en ese país) en su obra “Historia de la Conquista de Perú” y sobre la cual profundizará Marx en su célebre investigación conocida como los Grundrisse (no debe confundirse con El Capital, puesto que los primeros son el fundamento de los segundos y de Contribución a la Crítica de la Economía Política).

En el contexto de este artículo la contradicción de interés es aquella que expresa que el sistema de economía política capitalista difunde cada vez más la tecnología (la cual a su vez desarrolla incesantemente) y el impacto que este vertiginoso cambio tecnológico que cada vez está más homogéneamente presente en la sociedad occidental (generalizar la afirmación anterior no sólo sería un craso error sino una también profunda falta de respeto, puesto que África y el mundo árabe sufre y el mundo digno sufre con ellos) genera, en conjunto con otros factores (fundamentalmente de la exacerbación de la explotación -independientemente de la forma que tome tal explotación, lo de George Floyd es una de las formas que la explotación toma, específicamente es su forma racial-) rupturas en la ideología dominante, lo que poéticamente se expresa como un despertar en las conciencias de los pueblos. También en el contexto de los sistemas dinámicos y de la Física (tanto teórica como aplicada), los fenómenos críticos pueden aparecer como consecuencia del enlentecimiento de la dinámica del sistema, en la Economía Política ambas cuestiones están íntimamente relacionadas, es decir, la ralentización del sistema de economía política (la cual se expresa en las crisis económicas) y la ruptura ideológica ocurren en un mismo intervalo de tiempo (primero ocurre la ralentización económica, luego la ruptura en la ergodicidad ideológica o uniformidad ideológica en la sociedad o sistema social capitalista).

Planteadas así las cosas resulta evidente que las crisis económicas (que son el núcleo de las crisis sistémicas del capitalismo, más no el único factor relevante -la anatomía de la sociedad civil debe buscarse en su Economía Política-) son una ruptura de ergodicidad y el reacomodo de la sacudida estructura económica (este reacomodo implica la centralización de capital -que las empresas grandes se coman a las pequeñas tras las crisis- y otras cuestiones aparejadas a ella) es lo que en Mecánica Cuántica se conoce como proceso de renormalización (que es precisamente un conjunto de técnicas para re-expresar el sistema en términos de su longitud característica, es decir, volverlo a la normalidad en el sentido así definido). Debe recordarse que la razón por la que la renormalización es posible, por ejemplo, a nivel de los fenómenos cuánticos, es en términos coloquiales (y sin perder la esencia conceptual) porque (y en esto consiste la autosimilitud) sin importar qué muñeca Matrioshka de un determinado conjunto de muñecas Matrioshka se vea, las muñecas siempre serán iguales y lo único que cambiará será su tamaño o, lo que es lo mismo, que la muñeca Matrioshka más grande (el todo) contiene dentro de sí muñecas más pequeñas iguales a ella (lo que significa aquí que el todo antes referido se refleja con precisión en sus partes integrantes) y, de hecho, este es el concepto detrás de la instrumentalización matemática de las técnicas de renormalización de grupos (así conocida más formalmente la renormalización).

Conviene aquí decir que, como señalan los filósofos soviéticos en el diccionario filosófico de 1965 (que por cierto marcó el destierro sistemático del Stalinismo de la academia -en particular de la academia filosófica-, aunque no por ello necesariamente de la cotidianidad en general), la realidad misma es un isomorfismo. Un isomorfismo formalmente se define en Topología como una función biyectiva y continua entre dos espacios topológicos (estructuras algebraicas en que la posición relativa de los puntos dentro de ella es la misma) que posee a su vez una función inversa (también continua y biyectiva), intuitivamente un isomorfismo topológico es una relación que expresa que dos fenómenos tienen la misma esencia y son equivalentes en términos de ella (topológicamente equivalentes -independientemente de consideraciones métricas-) y para lo que se habló de las muñecas Matrioshka un isomorfismo topológico (o una homotopía, que es una generalización de este concepto) expresaría conceptualmente esta relación en que la muñeca más grande “se refleja” en las muñecas que contiene en sí. Esto es equivalente a cómo en el sistema hegeliano (que debe recordarse que busca sintetizar los estudios de los antiguos griegos sobre la Naturaleza y los estudios del idealismo clásico alemán que le precedía sobre el Pensamiento) el Ser En Sí (que expresa a “eso que está ahí”, a la Naturaleza) se refleja y se sintetiza dialécticamente con el Ser Para Sí. Una síntesis dialéctica (que en su forma más general se expresa por la palabra alemana Aufheben, que significa simultáneamente eliminar y superar -siendo rigurosos, la diferencia es que el Aufheben ocurre a nivel de lo homogéneo, mientras que la síntesis propiamente dicha a nivel de lo heterogéneo, pero como la realidad en general es un todo que se refleja con relativa y variante precisión en sus partes, entonces el Aufheben es más general que la síntesis-)es la resolución de las contradicciones entre los componentes integrantes de un todo (ligados indisolublemente por la misma naturaleza de la realidad) tras una acumulación cuantitativa de las contradicciones inherentes a la naturaleza de las partes que conforman ese todo, lo cual permite un salto cualitativo del todo, que a su vez implica un cambio de esencia (lo que Hegel describe como el tránsito del Universal Abstracto al Universal Concreto -Hegel es, por cierto, el único filósofo hasta la fecha que incluye al Universal Concreto en su sistema-). Hegel en su obra “Ciencia de la Lógica” realiza una analogía entre el Aufheben y la Mecánica Clásica (la Física de su época), específicamente con el momento de fuerza de la palanca. Del ejemplo que el filósofo alemán expone se evidencia que para él lo importante es que a nivel de sistemas físicos los momentos de fuerza de la palanca expresan la noción de que para que ocurra un cambio dentro de un sistema debe operarse desde fuera de dicho sistema una acción (concebida esta como una fuerza) contraria a la del sistema en cuestión que altere la dinámica ordinaria del sistema, es decir, una acción que fuerce al sistema de referencia a oponer resistencia a la fuerza impresa por dicha acción.

La noción anterior de general se generaliza a bajas escalas físicas de medición (tanto a nivel de Mecánica Cuántica como de Química Cuántica), en los conceptos de partícula y antipartícula (lo que corresponde a la Mecánica), cuya relación se puede expresar matemáticamente (como alternativa a la función de onda, a lo cual se le conoce como “segunda cuantización” -cuantizar es transformar un sistema clásico a uno cuántico al añadir la constante de Planck, con todo lo que ello involucra-) mediante las funciones conocidas formalmente como operadores de creación y aniquilación, que sirven para describir el proceso combinatorio que da lugar a la creación y aniquilación de las partículas elementales conocidas como bosones (ejemplos de bosones son los fotones -las partículas subatómicas que transportan la luz-, el célebre bosón de Higgs y la partícula hipotética conocida como “gravitón”), que son una de las dos partículas mínimas (que no existe otra más pequeña que ellas) que conforman la realidad física a nivel cuántico.

Las otras partículas elementales son los fermiones, su contrario cuántico, cuya matemática es diferente, sensiblemente más sofisticada (puesto que se estudia mediante el empleo de estructuras algebraicas conocidas como anticonmutadores, en lugar de los conmutadores, que son la estructura que convencionalmente se utiliza). El proceso de creación y aniquilación (porque ocurren simultáneamente y con ello se generan cambios en la materia) afecta a menudo incluso los cambios de estado de los electrones en fenómenos concernientes al campo de la Química Cuántica, lo cual se puede constatar, junto con todo lo anteriormente descrito correspondiente a los operadores de creación y aniquilación en la obra “Mecánica Estadística” de Richard Feynman publicada por Avalon Publishing en 1998, específicamente en las páginas 167 y 174-175.

Lo anteriormente planteado en relación a los isomorfismos topológicos (que está íntimamente ligado al concepto de combinación -la topología nace como Topología Combinatoria- de contrarios -que a nivel de la lógica formal, que es lineal, se ven simplemente como “pares”-, de su unidad y lucha) se recoge en dos adagios de la sabiduría popular, específicamente en “La mona, aunque se vista de seda, mona se queda” y “El que anda entre la miel algo se le pega” (que es isomórfico a “El que con lobos anda, a aullar aprende”). Sin embargo, con precisión inequívoca se recoge en una expresión popular que pertenece a un tipo de sabiduría popular (seguramente más popular) menos elaborada, más cruda (pero muchas veces más poderosa analíticamente): Es la misma “cuestión” con diferente olor. Eso son precisamente todas las reestructuraciones económicas tras las crisis capitalistas y toda promesa de reformismo provenientes de la clase gobernante (la clase político-burocrática) y de la clase dominante (los dueños de los grandes medios de producción, que el tipo de propiedad privada que critica Marx -nunca la propiedad personal y distinguir ambos tipos no ofrece dificultad a un intelecto de mediana estatura o superior-), puesto que las crisis son el único resultado posible (todo resultado es resultado en cuanto producto de un proceso, ese proceso son precisamente los ciclos industriales de la economía) del comportamiento natural o normal del capitalismo, puesto que ello es lo único que puede ocurrir cuando se introduce el cambio tecnológico vertiginoso en una sociedad en la que existen clases sociales y en la que una de ellas se dedica a producir para rentabilizar, pero para rentabilizar necesita del consumo final de otra clase social con la que entra en contradicción (porque salarios y beneficios empresariales tienen una relación inversa). La realidad capitalista como un todo, así como la realidad como un todo en general, es un isomorfismo topológico de sí misma hacia sus partes, se lo que se trata es de describir adecuadamente estas relaciones topológicamente equivalentes.

La magnitud y la dirección de la disrupción social realizada por el cambio tecnológico vertiginoso realizado dentro del capitalismo obedece a que este multiplica de forma no lineal (viendo esto como una función matemática, no como una mera gráfica de puntos) las fuerzas productivas del ser humano (y con ello se multiplica así mismo de forma no lineal -en el sentido antes definido-, de ahí que el capital sea trabajo acumulado, trabajo pasado), tal como se puede ver en las siguientes gráficas de puntos (y también en muchas otras que se pueden encontrar sin siquiera mínimas dificultades en la web).

A la luz de las gráficas anteriores resulta indispensable hacer una pausa aquí para hablar sobre la ampliamente conocida justificación ética-moral del capitalismo que sostiene que es un sistema ideal en tal sentido (ético y moral) porque provee mayor bienestar que sus antecesores (que la comunidad primitiva, que el esclavismo y que el feudalismo). Bajo esa lógica se omiten cuestiones no triviales, por ejemplo, que la justeza de un orden social no puede medirse simplemente por el bienestar relativo (midiendo ese bienestar en aspectos únicamente materiales) que provee a sus ciudadanos, porque bajo esa lógica Hitler sería indudablemente más justo que algún jerarca de las gens (de la época de la comunidad primitiva cuando imperaba el orden de sucesión matrilineal -vía la madre, no existía aún la discriminación de género-), cuando tales jerarcas no eran genocidas, ni discriminaban (ni siquiera existían las clases sociales) y ello también implicaría omitir a su vez que el progreso tecnológico es un logro social (colectivo, fundamentalmente de la clase trabajadora, que incluye a los científicos y técnicos) y acumulado (el cambio tecnológico puede ser superior en el capitalismo, pero no por eso se lo inventó la clase capitalista -que ni siquiera es la que lo concibe intelectualmente en la generalidad de ocasiones-), y seguramente no sólo judíos y polacos sino también muchos alemanes no estarían de acuerdo con ese razonamiento.

El nivel tecnológico del que disponga un sistema social debe considerarse en conjunto con el bienestar material que provee a sus ciudadanos (y eso aún sin complejizar la cuestión añadiendo el bienestar psicológico), porque sólo así se podrá analizar a un sistema también en términos del bienestar que ese mismo sistema puede dar y no incurrir así en reduccionismos vulgares al comparar sistemas sociales cuyo progreso es acumulado y que los separan miles de años, es decir, el nivel tecnológico relativo (en relación al de sus pares) del que dispone un sistema debe ser el factor de estandarización que vuelva lógicamente óptima la comparación entre los diferentes sistemas de producción social que han existido a lo largo de la historia. En ese apartado es evidente que el capitalismo sólo puede ser comparable al esclavismo, aunque evidentemente es superior a nivel de dignificación humana, lo cual es un motivo de alegría (hemos evolucionado un poco) y tristeza (definitivamente ni por asomo hemos evolucionado lo suficiente), simultáneamente.

El poder político visto sociológicamente, tal como lo define el politólogo salvadoreño Dagoberto Gutiérrez, es una relación social basada en la diferencia de recursos que sirve para transformar la realidad o para impedir que esta cambie. Esta definición es importante porque hace alusión a la existencia de un determinado orden.

Se dijo anteriormente que los momentos de fuerza de la palanca cristalizaban la idea de la acción de una fuerza externa a un sistema de referencia que alteraba a tal sistema (no necesariamente cambia su estado, puesto que no toda contradicción es antagónica) y también se dijo que “violencia” implicaba fuerza e intensidad extraordinarias, lo suficientemente extraordinarias para que generar el efecto de poner fuera de su estado natural a algo, sea lo que fuese. Lo que se expresó en los párrafos anteriores a través de las ciencias formales y las llamadas “ciencias duras” es el estado natural u orden natural del sistema de economía política capitalista y el papel de la violencia en la historia es, como lo dijo ya Engels en una investigación de su autoría con el mismo nombre, ser la “partera” de la historia y eso tiene que ver con aquella célebre reflexión del politólogo italiano Antonio Gramsci, quien dijera que lo viejo siempre cede paso a lo nuevo, pero no sin antes oponer resistencia o, lo que es lo mismo, que en el contexto de las sociedades de clase, en el proceso de creación de un nuevo mundo, de una nueva sociedad, existen simultáneamente procesos de aniquilación entre las partes integrantes de la sociedad actual (las clases sociales de esa sociedad). Sobre ello se reflexionará al final de esta exposición, pues está ligado indisolublemente a la respuesta a la pregunta que aquí inicialmente se planteó

Por supuesto, para que exista un cambio de modo de producción debe existir también un determinado nivel tecnológico que permita sustituir unas relaciones sociales de producción por otras técnicamente superiores (así como las esclavistas técnicamente eran superiores a las de la comunidad primitiva, las del feudalismo a las del esclavismo y las del capitalismo a las del feudalismo), esto en Mecánica (Clásica o Cuántica) se conoce como transición de fase, que precisamente implica un salto cualitativo (el ejemplo clásico en la historia fundacional del Marxismo lo encarna los cambios de estado del agua con la suficiente variabilidad en la temperatura aplicada, aquí se han procurado exponer ejemplos más heterodoxos).

La analogía anterior es posible tanto la Naturaleza como la Sociedad se rigen por las mismas leyes objetivas universales[1], las leyes dialécticas-materialistas y ello está en armonía con el hecho de que la Naturaleza se refleja isomórficamente en sus partes integrantes, dentro de las cuales está la vida orgánica consciente (por supuesto, sólo en Matemáticas los isomorfismos son perfectos), hecho sobre lo cual hablan los célebres biólogos evolutivos marxistas (fundadores de la Biología Evolutiva del Desarrollo, una revolución ocurrida en la Biología en la década de los 70) Stephen Jay Gould, Richard Lewontin y Richard Levins en diversas obras, entre las cuales se encuentran “La Estructura de la Teoría Evolutiva” (de Gould), “La Falsa Medida del Hombre” (de Gould), “El Biólogo Dialéctico” (de Lewontin y Levins), “Biología Bajo Ataque: Ensayos Dialécticos Sobre Ecología, Agricultura y Salud” (de Lewontin y Levins), “Una Respuesta a Orzack y Sober: Análisis Formal y la Fluidez de las Ciencias” (de Levins, en el que señala también los fundamentos de la complejidad con base en el número de dimensiones topológicas de la estructura algebraica analizada), entre otros.

Lo expuesto anteriormente relativo a las transiciones de fase social o cambios revolucionarios en la sociedad (que implican el tránsito de un modo de producción u orden social a otro) busca sentar las bases lógicas para no generar sorpresa al afirmar que no parece existir el nivel tecnológico suficiente para sustituir las relaciones sociales de producción capitalistas por otras (y, además, no se conocen otras, sobre ello se hablará más adelante), pero sí parece sobrar para disminuir considerablemente el nivel de incivilización que reina en las sociedades de clase (específicamente para este caso, en el capitalismo contemporáneo), aunque inexorablemente eso implicará una merma en las tasas de ganancia de la clase capitalista, de la que emana este orden incivilizado e incivilizatorio, pero que curiosamente no padece las “bondades” del mismo.

¿Por qué se afirma que no parece existir el nivel tecnológico para semejante cuestión (al menos no de forma generalizada en cualquier sociedad, al menos -y ese es un detalle de importancia vital a nivel analítico y aplicado-)? La respuesta está ligada a la refutación a otra idea bien difundida a lo largo del siglo pasado y que muchos incautos consideran la prueba científica-técnica irrefutable de la imposibilidad del Comunismo, la cual sostiene que en la Unión de Repúblicas Socialistas Soviéticas existían relaciones sociales de producción socialistas y hasta comunistas (según el “iluminado” con el que se hable). Cuando se habla de relaciones sociales de producción capitalistas se logra bien-definirlas (situarlas en un marco teórico general y relativamente preciso -la precisión variará según el aspecto de la realidad que se analice y/o del marco teórico empleado por el investigador, que es el significado de “bien-definido” en Matemática Pura), ¿ocurre lo mismo con las relaciones sociales de producción “socialistas” y/o “comunistas”? Revisemos rápidamente la evidencia teórica-histórica y empírica-histórica.

La obra de Marx y Engels se centra en una crítica sistemática (un análisis sistemático orientado a transformar la realidad) del sistema de economía política capitalista y son algunos muy breves y muy contados pasajes en los que Marx y Engels hablan de algún modo de producción no capitalista del futuro (considerando sus obras maduras, lo cual empieza en el vecindario temporal de publicaciones centrado en Miseria de la Filosofía -las publicaciones más inmediatas hacia atrás y adelante-). En particular, Marx en el tomo II de El Capital expone los rudimentos de lineamientos para una política económica ante superávit y déficit de activos fijos en una sociedad sin propiedad privada sobre los medios de producción y sin papel moneda (que nadie se imagine “Teoría de la Política Económica” de Tinbergen o algo por el estilo, es un párrafo de pocas líneas), Engels expone en el Anti-Dühring (libro citado positivamente en “El Biólogo Dialéctico” de Lewontin y Levins -que contiene una dedicatoria a Friedrich Engels en las primeras páginas que reza “A Friedrich Engels, quien entendió mal muchas cosas, pero acertó en lo que contaba”-, así como en otras obras) que la ley del valor deja de regir únicamente para la fuerza de trabajo inicialmente (en el socialismo) y posteriormente también para las demás mercancías (en el comunismo) y es sustituida en ambos casos por una nueva ley que determina que el valor de las mercancías se determina según las necesidades sociales que satisfacen y también Engels en “Del Socialismo Utópico al Socialismo Científico” plantea cuestiones en claro refuerzo de la dirección anteriormente señalada respecto a la vigencia de la ley del valor.

No se le puede negar a los furibundos antimarxistas y anticomunistas que andan sueltos por ahí (y que son tan peligrosos porque si no entienden qué es el Marxismo menos qué son el Socialismo y el Comunismo) que la célula central (la progresiva extinción de la ley del valor) existe y está definida, sin embargo, seguramente ellos tampoco podrán negar que no sólo está mínimamente definida, sino que además entre la célula mínima y un organismo que funcione como un sistema autoorganizado (que es un fenómeno que aparece en los sistemas complejos estudiados en la teoría matemática de la complejidad y que consiste en la configuración de un orden resultante del proceso de interacción entre los elementos de un sistema inicialmente desordenado -el estado social resultante de la resolución de la crisis y el tránsito de un modo de producción a otro-) existe muchísima diferencia, prueba de ello es, por ejemplo, el tiempo transcurrido para que la primera célula que inició la vida en La Tierra (puesto que según simulaciones estadísticas todo indica probabilísticamente que así fue) se transformara en un sistema biológico como tal no fue poco.

Además, ¿cuáles eran las relaciones sociales de producción que se implementaron en la Unión Soviética?, ¿se remuneraba la fuerza de trabajo según las necesidades sociales que esta satisfacía?, ¿cuál era la metodología científica-estadística (aquí se puede comenzar a ver el papel del nivel tecnológico) con la que cuantificaban esas necesidades (que no son únicamente materiales, son espirituales, Marx es claro en eso en sus Manuscritos Económicos y Filosóficos de 1844)? No existía propiedad privada sobre los medios de producción por parte de personas vistas como miembros de la sociedad civil, pero sí existía papel moneda (y en su lugar debería haber existido algún sistema de equivalencia bien definido entre mercancías no sujeto fluctuaciones artificiales -no sujeto a variación en precios, puesto que el papel moneda y la especulación no existen- que reflejara fielmente en los términos de intercambio las condiciones técnicas de producción de las mercancías intercambiadas) y propiedad privada estatal (porque es un hecho que los miembros del Partido Comunista no vivían igual que el pueblo -aún así, el pueblo tenía más dignidad material que en el capitalismo occidental de la época y de esta, pero la espiritual quedó pendiente y tampoco es como que más dignidad material hubiese sido perjudicial para el pueblo-, entonces existen clases por cuanto el goce del producto social no era para quienes producían -esta es la característica fundamental-, sino para la clase política soviética que sufrió de aburguesamiento y transformó (a partir de Stalin) al Estado soviético en lo que Marx describía como el poder político, es decir, en “El poder organizado de una clase para oprimir a otra” (en sociedades sin clases el Estado sólo es administrador, ni siquiera existen órganos bélicos orientados a la represión política -de clase- como la policía y el ejército, puesto que al no existir antagonismos de clase tampoco existe el poder político), por mucho que la opresión en el plano material fuera muchísimo menos fuerte e intensa que en occidente y en el plano ideológico fuera menos sutil -occidente es más elegante en sus formas, sino pregúntesele a Merkel por los micrófonos instalados por el Gobierno de Estados Unidos en su oficina y que generó un incidente diplomático hace pocos años-) e incluso también extranjeros ya en las cercanías del colapso de la Unión Soviética, por ejemplo el banco que David Rockefeller abrió en la Plaza Roja de Moscú (lo cual no pertenece al conjunto de “teorías de la conspiración”, es un hecho bien documentado y que una elemental búsqueda en la web puede verificar).

Evidentemente en la Unión Soviética hubo Capitalismo de Estado, que es una variante del modo de producción capitalista en el que, como se señala en el diccionario de Economía Política de Borísov et al, “Constituye un medio de lucha contra el capital extranjero, extirpa las raíces económicas de su dominio, contribuye a fortalecer y desarrollar la economía nacional. El sector estatal estimula cada vez más el rápido auge de las fuerzas productivas, crea las premisas económicas para que dichos países emprendan la vía no capitalista de desarrollo. En el periodo de transición del capitalismo al socialismo, el capitalismo de Estado representa una forma especial de subordinación de las empresas capitalistas a la dictadura del proletariado establecida con el fin de preparar las condiciones de la socialización socialista de toda la producción”, que también puede ser mixto en el sentido de coexistir empresas privadas extranjeras (pero limitar su poder sobre la sociedad nacional) y/o en el sentido que la propiedad privada sobre los medios de producción sea compartida por el Estado capitalista en conjunto con empresas privadas nacionales o extranjeras (este último caso es el de Cuba, por ejemplo) y un caso que combina los tipos de capitalismo de Estado antes mencionados es lo que ocurre en Venezuela.

Todo esto sin mencionar aún que el capitalismo tuvo un proceso de nacimiento sumamente extendido, puesto que se consumó institucionalmente cientos de años después de haberse desarrollado lo suficiente para poder ser caracterizado mínimamente (lo que ocurrió en la alta edad media con la aparición de los burgos, lo que ocurre entre el año 500 D.C. y el año 1,000 D.C.) e incluso cientos de años después de haber ocurrido su primera gran manifestación socio-económica (el comercio de tulipanes realizado durante el siglo XVII), puesto que se estableció como modo de producción dominante (que no sólo implica una dimensión económica sino también política, por eso la ciencia se llama Economía Política) hasta el 14 de julio de 1789, con la toma de la Bastilla por parte de la clase burguesa y los siervos de la gleba que luego serían industrializados y con ello transformados en proletarios (que es una categoría económica exclusiva del capitalismo).

Por supuesto, no por ello el progreso del nuevo modo de producción social fue lineal, puesto que es bien sabido que luego Francia regresó por un buen tiempo a la monarquía constitucional a causa de que la clase feudal volvió al poder temporalmente. Además, tampoco se ha mencionado el hecho de que la Unión Soviética se encontraba amenazada por occidente (no sólo militarmente -el factor fundamental que la hizo entrar en la carrera armamentista-, sino también ideológicamente -uno de los factores que determinaban la necesidad de entrar en la carrera espacial-), por lo que toda la planificación de su desarrollo económico y social tuvo que orientarse bajo esas dos grandes restricciones, no es un secreto para quienes conocieron la Unión Soviética que en los supermercados se hacían cuentas con ábaco mientras se competía a la par con Estados Unidos en la carrera espacial y nuclear (llegándolo a aventajar en muchos aspectos, evidentemente a un alto costo); en este sentido, tampoco se menciona que existen señales de que hubo un gran endeudamiento financiero por parte de la Unión Soviética con capitales occidentales al menos en el último tramo de su existencia, precisamente para financiar la carrera armamentista y espacial.

Finalmente, surge una pregunta de importancia fundamental, ¿por qué la situación es diferente en los países industrializados respecto a países como América Latina, África y Oriente Medio? La respuesta a la pregunta anterior tiene múltiples rostros, sobre los cuales se hará una exposición sintética yendo de los más simples a los más complejos y con ello, de los aspectos históricos de corto plazo (más recientes) a los de largo plazo (más lejanos en el tiempo). En primer lugar, es fundamental preguntarse, ¿las relaciones de distribución en esos países poseen las mismas especificidades?, es decir, ¿existe la misma estructura tributaria, la misma participación gubernamental en la economía, existe la misma alineación de los objetivos de política fiscal y política monetaria, existen las mismas regulaciones laborales, el mismo grado de indización de los salarios a la inflación y a la productividad, etc.?

Si la respuesta es negativa, alguien incluso podría considerar que el capitalismo es funcional y que únicamente para ello se requiere de un nivel de desarrollo tecnológico suficiente, lo que también a alguien podría parecerle ser intuitivo, aunque no por ello deja de ser también falso; sin embargo, para verificar tal falsedad se necesita realizar un análisis menos superficial del asunto, por lo que conviene empezar a introducir aquí el papel del comercio internacional, tanto en sus facetas legales como en las ilegales.

A partir de los 90 se firmaron tratados de libre comercio entre los países industrializados (fundamentalmente Estados Unidos) y los países de América Latina, han pasado ya treinta años de la firma de esos tratados en la mayoría de esos países y resultados prometidos en materia de crecimiento económico, empleo, desarrollo social y demás cuestiones relacionadas nunca llegaron. En su lugar la desigualdad incrementó en esos países (que sí fue de la mano de un crecimiento económico significativo en algunas ocasiones, pero siempre incrementándose la desigualdad) y generó una oleada de gobiernos por todo el istmo que rompieron con las políticas de Washington llegados al poder por la vía electoral, algo impensable a finales del siglo pasado, principalmente en el período de la guerra fría. Estos tratos de libre comercio poseen una característica fundamental y es que no consideran las asimetrías tecnológicas (que devienen en asimetrías en nivel de competitividad) entre las empresas de los países industrializados y las de los no-industrializados, dando como resultado del intercambio comercial un estado de comercio en que como diría el célebre poeta uruguayo Eduardo Galeano, los países ricos se especializan en ganar y los países pobres se especializan en perder (que sólo es una generalización al plano internacional de la lucha de clases que ocurre a nivel nacional) porque las empresas de los países industrializados pueden producir a menor costo y con mejor calidad, frente a lo cual hay poco o nada qué hacer y esos mismos países industrializados ofrecen “generosamente” préstamos de déficit que ellos en conjunto con la clase dominante de los países no-industrializados han contribuido a crear, a tasas usureras (como ha sido la tradición de organismos financieros internacionales como el Fondo Monetario Internacional, el Banco Mundial, Banco Interamericano de Desarrollo, etc.) que condicionan el destino de ese dinero (conocido tal condicionamiento formalmente como “cláusulas de condicionalidad del préstamo”), lo que no sólo es una clara vulneración de la soberanía de un país sino que además es una estafa sistemática a gran escala. ¿Por qué se dice que ese binomio de clases dominantes es el que produce tal déficit en la contabilidad nacional de un país?, en primer lugar, porque un déficit es generado y/o agudizado por desequilibrios comerciales (resultantes de poner a “David” sin hondilla y sin respaldo divino a pelear contra “Goliath”, es decir, la competencia entre industrializados y no-industrializados), en segundo lugar porque son la única clase social que en general y sistemáticamente evade y elude impuestos (a pesar que las estructuras tributarias de estos países sean profundamente regresivas, lo cual no debería extrañar porque el motivo que tuvieron para fundar estos países fue ese, evitar al virreinato español el respectivo tributo -que sería el equivalente a lo que contemporáneamente representan los impuestos-), en tercer lugar porque lo más común es que los funcionarios públicos cuyas campañas electorales son financiadas por ellos son no sólo los que legislan a favor de ellos servilmente (esto incluso lo describe el Nobel de Economía Joseph Stiglitz para el caso de la política estadounidense en su libro “El Malestar en la Globalización” publicado en la década antepasada -específicamente cómo los que financiaban las campañas políticas de Bush lo acompañaban a todas partes para supervisar que los compromisos que adquiriera durante el proceso de campaña electoral estuviese alineado a sus intereses y con base a ello se condiciona el financiamiento del candidato[2]-), sino también porque uno de los atractivos de tal servilismo (además de los pagos directos) para los funcionarios públicos corruptos (que son los que usualmente llegan a los cargos fundamentales precisamente porque ello es parte del diseño del sistema político) es el saqueo de las instituciones públicas. A nivel político-burocrático la corrupción es una consecuencia inevitable del ejercicio de poder en las sociedades de clase (por eso el pueblo debe estar siempre vigilante y organizado frente a ella, porque la corrupción no ocurre nunca el favor de las mayorías, sino únicamente de una minoría -sea cual sea, pero siempre en última instancia de la clase dominante, que abre portillos favorables para la acumulación de capital, portillos los cuales están cerrados legal y formalmente, por lo que su apertura es posible únicamente a través de la corrupción-), mientras que desde el punto de vista político-ideológico es producto del desclasamiento, es decir, de la falta de conciencia de clase de los miembros de la clase trabajadora que se corrompen.

En cuarto lugar, debe entrarse en detalle de las empresas transnacionales (pertenecientes a los países industrializados) y el comportamiento comercial de los países comerciales en relación a las políticas comerciales que le “sugieren” (con un garrote financiero en una mano y un garrote militar en otra) a los países pobres que tomen. Para nadie es un secreto que las políticas del “consenso” de Washington (curiosamente usan semejante palabra cuando no participó ninguno de los países a los que les “sugirieron” esas políticas, seguramente los imperios tienen una forma peculiar de comprender el diálogo con las demás naciones) no son seguidas por Alemania (que hasta la fecha no ha dejado entrar a Walmart y de eso no se ve ningún titular en los periódicos de “comunistas enemigos del libre mercado” y que tiene una participación estatal en la economía que en el último medio siglo -e incluso más atrás- no ha bajado del 50% como porcentaje de su producto interno bruto), muchísimo menos por Estados Unidos [en el cual la FED le presta a tasa cero a los bancos privados (y que, de hecho, es una institución bajo el poder de privados, específicamente de los banqueros privados estadounidenses, la cual obtiene los fondos para operar de los ingresos federales, que en un país en donde los ricos no pagan impuestos -y de ahí el movimiento de protesta social estadounidense Occupy WallStreet suscitado alrededor de 2011- es recolectado fundamentalmente del pueblo -un pueblo que pagó la crisis financiera de 2008 que precisamente los banqueros privados estadounidenses generaron, y ello lo define magistralmente Joseph Stiglitz en su artículo “Capitalistas Estúpidos” disponible fácilmente en la web-), en que el sector agrícola existen fortísimas barreras arancelarias que no cumplen ningún criterio de libre mercado y muchos otros aspectos relacionados por la característica común de ser justamente lo contrario que recetan en materia de política económica (tanto fiscal como monetaria)], Canadá, Suecia o cualquier país industrializado (al menos no hasta inicios de este siglo, sobre lo que se hablará más adelante).

Además, para nadie es un secreto que estas grandes empresas transnacionales que absorben por medios legales y otros no tanto a las empresas nacionales de los países no-industrializados no pagan impuestos en los países pobres a los que llegan, prueba de ello fue el golpe de Estado de tipo militar generado en la embajada de los Estados Unidos que se le dio a Jacobo Arbenz en Guatemala por plantearle a la United Fruit Company que pagara los impuestos que el reglamento fiscal guatemalteco de aquel momento establecía (que era previo a su llegada a la presidencia), el golpe de Estado (también de carácter militar) orquestado por la burguesía chilena y la embajada de Estados Unidos en Chile a Salvador Allende durante el siglo pasado (que recuérdese, no fue hace mucho) y en general, todas las sanguinolentas dictaduras militares de derecha instauradas por toda América Latina durante el siglo pasada que llevaban el sello de sangre de la democracia del tío Sam, con la “solidaria” finalidad de explotar y expoliar a nuestros pueblos.

El refrán “Candil de la calle, obscuridad del hogar” puede invertirse y de ello se obtiene “Candil del hogar, obscuridad de la calle”, que describe precisamente el comportamiento moralmente hipócrita y económicamente eficiente de los gobiernos de los países industrializados (que expresan los intereses políticos de la clase dominante), cuyas sociedades son sociedades modelo fundamentalmente porque logran trasladar todas las contradicciones sociales aparejadas a los procesos de acumulación de capital de la burguesía a las sociedades subdesarrolladas, agudizando así su subdesarrollo. ¿Acaso en Estados Unidos, considerando el mismo momento histórico en la comparación, se han pagado alguna vez los mismos salarios, dado las mismas prestaciones laborales, trabajado la misma cantidad de horas, se han dado la misma cantidad de días vacacionales, se han vulnerado con la misma intensidad los derechos laborales (salvo para el caso de los indocumentados, por eso es que la inmigración no se acaba y a los grandes capitales de los países industrializados es a los que menos les conviene que se acabe), se ha hecho la misma optimización en el uso de los recursos naturales (Estados Unidos desea obtener el petróleo de medio oriente y Venezuela, pero curiosamente evita tocar sus reservas de petróleo), se evade y elude la misma cantidad de impuestos, etc.? Evidentemente que no.

Nótese que las maquilas estadounidenses y alemanas que esclavizan a niños y niñas en China y Vietnam (por mencionar algunos), las maquilas que explotan inclementemente por salarios de hambre a mujeres y hombres en países como Honduras, El Salvador y Guatemala (por mencionar algunos) “curiosamente” no están en sus países de origen ni en ningún país industrializado [salvo China y tras la industrialización es bien conocido que alrededor de 2008 China decidió migrar a un modelo de “crecimiento desde adentro” (puesto que la economía mundial entró en recesión, la demanda mundial se contrajo y aunque siendo China un país cuyo crecimiento en las últimas décadas se había basado fundamentalmente en la demanda de bienes y servicios del resto del mundo -por eso es que crecía tanto su PIB a pesar de los bajísimos salarios y vulnerabilidad laboral, que fueron los aspectos del entorno de trabajo chino que atrajo a las empresas occidentales-, no se vio afectado significativamente por las contracciones de la demanda mundial suscitadas desde la crisis financiera de 2008 debido a que -como reporta Marcelo Justo en su artículo para BBC Mundo titulado “Los países en los que más subió el salario mínimo” publicado el 5 de marzo de 2015- las autoridades chinas ya habían planificado y anunciado al público desde antes de la crisis que la economía china migraría hacia un modelo de crecimiento basado en la demanda interna, por lo que previo a la crisis ya se había dado inicio a una redistribución del ingreso al interior de China para que la demanda interna de consumo final de tantos millones de chinos estimulase a la economía China en lugar de la demanda del resto del mundo -por lo que entre 2005 y 2015 el salario mínimo subió entre el 8% y el 13%, mientras que reporta la web Expansión/Datosmacro.com que el salario mínimo interprofesional en China pasó de 170.3 euros en 2013 a 271,6 euros en 2018- y así fue como China pudo a pesar de la contracción de la demanda mundial continuar creciendo y consolidarse como imperio hegemónico -lo que ocurrió en el contexto de la crisis sanitaria del COVID-19- l), por lo que las maquilas occidentales están empezando a migrar progresivamente a países como Vietnam, porque un modelo basado en demanda interna -que es el que los países industrializados tienen- no es compatible con salarios de hambre y aspectos afines de los puestos de trabajo que las maquilas de esos mismos países industrializados quieren tener en otros países], las tienen precisamente en los países subdesarrollados, en los países pobres, ¿entonces qué interés pueden tener en que los países pobres se desarrollen?, el mínimo sentido común indica que ninguno. Adicionalmente, conviene decir que tampoco les interesa el cuido del medio ambiente cuando no es el medio ambiente de ellos y prueba de ello es que las empresas canadienses son bien-conocidas por practicar minería de cielo abierto en los países de América Latina.

Por supuesto, aquí no se ha mencionado en lo absoluto el saqueo que los países europeos industrializados hacen a los países europeos no-industrializados, como lo han sido históricamente Grecia, Portugal e incluso España (que es una extraña criatura económica, puesto que es relativamente industrializada -no al nivel de Alemania, pero es industrializada-, pero es saqueada sin miramientos por la burguesía local del país y por la burguesía extranjera, fundamentalmente por la burguesía dueña del imperio Alemán -evidentemente son imperio, que no tengan las formas cavernícolas de Estados Unidos es otra cosa-, que es la que fundamentalmente saquea en toda la Europa subdesarrollada -tampoco Alemania le presta a Grecia, España o Portugal para sacarlos del subdesarrollo, eso sería como “pegarse un balazo en los pies”, puesto que las repúblicas dependen de lo que saquea el imperio, para el caso de las repúblicas imperiales-), pero de ello no sólo habla el Nobel de Economía Joseph Stiglitz en su artículo “La captura de BCE” (en referencia a como los capitales financieros europeos controlan el Banco Central Europeo) sino también está el célebre caso de cuando un presidente del Fondo Monetario Internacional (Dominique Strauss-Kahn) que quiso condonar la deuda griega (porque como ya han planteado tanto Joseph Stiglitz y Paul Krugman -también Nobel de Economía- como el mismo Yanis Varoufakis -el Ministro de Finanzas de Grecia a cargo cuando se llevaron a cabo las renegociaciones de deuda con la Troika- cuenta en diversas entrevistas disponibles en YouTube, algunas en conjunto con Joseph Stiglitz, otras con Salajov Zizek y otras con Noam Chomsky sobre la negociación, Varoufakis recibió amenazas telefónicas respecto a la seguridad de su hijo si no paraba en su línea de negociación -contraria a la de los capitalistas alemanes, pero él siguió, como debe de ser, cuando alguien enfrenta al capitalismo está buscando garantizar la supervivencia de la especie y cualquier daño colateral que no sea la especie en general, el pueblo, es aceptable-, así como también pruebas tanto de acción como de palabra por parte de los negociadores alemanes que los capitalistas financieros alemanes no querían que se les pagara la deuda, porque la deuda no sólo tenía que ver con la rentabilidad del capital, sino que también tenía un componente político: querían subyugar a Grecia políticamente -había llegado un partido de izquierda al poder, el Syriza- para poderla mantener subyugada económicamente, por lo que para que las negociaciones siguieran, tras la cobardía del presidente democráticamente electo -y que había planteado en un referéndum al pueblo griego si querían enfrentar las consecuencias de decidir no pagar la deuda a los banqueros alemanes y el pueblo votó maravillosamente que ¡SÍ!-, Yanis Varoufakis tuvo que renunciar para que las conversaciones continuaran -ahora en un tono dócil para con los capitales financieros internacionales-, lo que fue una traición flagrante al pueblo por parte de la “izquierda” griega.

 Así, queda desmontado otro mito, todo ello sin mencionar el papel que desempeñan los fondos buitre en la política económica de los países subdesarrollados ni el saqueo que se realiza del continente africano y de los recursos de Medio Oriente. Sería interesante comparar los ingresos que los grandes capitales internacionales obtienen en la suma de toda la economía subdesarrollada (tanto los legales, como los ilegales fruto del tráfico ilegal de armas y drogas -que es más permisible por los políticos en los países pobres-, el trabajo esclavo que las empresas de diamantes estadounidenses explotan en África, el valor de los recursos naturales que se apropia sin pagar nada a cambio) versus los que obtienen sólo dentro de los Estados Unidos para tener una idea aproximada de la magnitud del saqueo realizado a América Latina, África Medio Oriente. Esto lo expresa Marx al plantear que el mercado mundial sólo traslada las contradicciones internas del capitalismo a una esfera de acción más amplia o, en palabras del politólogo Dagoberto Gutiérrez, toda república imperial (una república que se desarrolló lo suficiente en el contexto internacional de las clases sociales como para convertirse en imperio también) está compuesta precisamente de la república como tal y del imperio como tal, y es en ese sentido que el florecimiento de la república depende de lo que saquea el imperio de las colonias que subyuga. Por supuesto, aunque esto ocurra con Estados Unidos (precisamente a medida fue siendo suplantado por China y Rusia en el mercado mundial como potencia hegemónica es que el florecimiento de su república se fue viendo condicionado progresivamente hasta llegar a la penosa situación actual en la que se encuentra -la razón de ello es que el excedente o plusvalía mundial se redistribuye de diferente forma al cambiar la hegemonía, de una forma que progresivamente ha ido siendo cada vez menos ventajosa para el imperio estadounidense-) no es la primera vez que ocurre y esto es una característica de todo república imperial, que es un fenómeno social de escala planetaria en que la lucha de clases alcanza su expresión más general, tal fue el caso de los romanos en relación a la expoliación que realizaban de los pueblos bárbaros durante la era del modo de producción esclavista.

Ahora llegó el turno de abordar la ampliamente difundida idea (y seguramente compartida por la mayoría de personas -la alienación es poderosa-) de que el saqueo colonial no tiene influencia en las condiciones socioeconómicas actuales de los pueblos de América Latina y África o, en general, que el pasado no tiene influencia en el presente (que es sólo la esencia de la primera idea). En la obra Capitalismo Tardío del gran economista marxista Ernest Mandel se establece que el valor del oro saqueado a América equivalía a diez veces la totalidad del capital ferroviario en la Europa de la época, llevemos ese hecho al presente (después será el turno de revisar si el número de veces referido es correcto o incorrecto).

Es evidente que en la época de la implementación y difusión de la revolución industrial las empresas que más capital movían eran aquellas que pertenecían precisamente al sector ferroviario, puesto que ese sector o rama productiva (utilizando la jerga marxista) movía no sólo las máquinas a vapor como tales (como innovación en sí misma), sino el acero con que dichas máquinas se construía y el acero con el que se construían los caminos sobre los que tales máquinas se desplazaban, lo que en medio de un proceso de expansión industrial generalizado en todo un continente (la revolución industrial se manifestó fenoménicamente por vez primera en 1760 en Manchester -seguramente un día lluvioso, ¿o será que ese día no llovió?- y su implementación generalizada en Europa Occidental, Estados Unidos y Canadá se consolidó en 1840) no parecería ser poca cosa, sobre todo tomando en cuenta que como reporta Marx en el tomo I de El Capital, a su vez tomado de los informes oficiales de carácter público de la época que en la obra del autor judeo-alemán se pueden encontrar bien referidos, se aprobaron decretos reales para que la naciente burguesía saqueara por medios violentos (y otros no tanto) las iglesias y las tumbas de los santos para extraer cualquier pertenencia de oro (incluyendo sus dientes de oro) para acuñar moneda, lo que por sentido común parecería indicar que en términos de las necesidades de circulación del capital europeo de esa época no existía suficiente oro y, por el contrario, llegó incluso a ser sumamente escaso en relación a tales necesidades; simplemente como información adicional de interés hay que mencionar que también emplearon medios violentos para expropiar de sus tierras a los productores directos (seguramente más violentos, porque la Iglesia no estaba absolutamente desprovista de poder) y que eso, junto con acciones de igual estatura ético-moral (júzguese de tal ética y de tal moral como se juzgue), constituye el “secreto” de la acumulación originaria de capital.

No sólo no parecería ser no-despreciable el impacto del saqueo de oro realizado por los europeos en términos de los recursos iniciales de los que se dispuso al constituir las repúblicas en América (fundamentalmente en América Latina) tras los procesos independentistas suscitados en el continente, sino que además parece haber sido fundamental en que el capitalismo europeo lograra funcionar, puesto que no debe olvidarse que los inicios de la revolución industrial en Europa no fueron decorosos ni mucho menos y están perfectamente documentados grotescos hechos como jornadas laborales de 18 horas para hombres, 16 para mujeres y 14 para niños y niñas, hacinamiento en las fábricas, la contratación de asesinos a sueldo (los famosos “rompehuelgas”) en caso los obreros se organizaran para pedir un poco de dignidad y con el fin de ser breve conviene decir “etcétera”. El capitalismo europeo se edificó sobre el sudor, la sangre y el llanto de América, fundamentalmente de América Latina.

Ahora es el turno de abordar el factor de escala, es decir, que el saqueo de oro tuvo una relación de 10 a 1 con el capital ferroviario. Asúmase que Mandel infla maliciosamente la cifra el doble (por decir un número relativamente arbitrario), se obtiene una relación de 5 a 1 y luego asúmase que Mandel toma el dato de una fuente que recoge esa cifra con un error del 50%, por lo que quedaría una relación de 2.5 a 1 y, finalmente, asúmase que la contabilidad macroeconómica de la época tenía profundas deficiencias y recogía los datos también con un error del 50%, por lo que se tiene una relación de 1.25 a 1, es decir, del 125%.

Evidentemente las necesidades conjuntas de capital y de circulación en el momento de la primera gran revolución industrial de la historia parecen haber sido más duras (incluso socialmente) que las que se observan en 2021 con la pandemia del COVID-19, sin embargo, con tomar esta pandemia de referencia será suficiente para terminar de exponer el punto, el cual no es más que una simple pregunta: ¿Qué impacto tendría para un empresario en la actualidad en términos de la consolidación de su empresa y de su futura tasa de acumulación de capital (la tasa a la que la plusvalía -el capital- se reproduce a sí misma o, lo que es lo mismo, a la que la inversión del capitalista retorna y expande el volumen del capital en funciones) que en este contexto de la crisis sanitaria y la crisis económica alguien por alguna razón le regalara un capital por un valor del 125% del capital que tiene en funciones (sin intereses, sin trucos, sin implicaciones legales por estafa o algo por el estilo)? De nuevo, resulta evidente que el capitalismo europeo se edificó sobre la sangre, los huesos y el llanto de América, fundamentalmente de América Latina, además de la obviedad del impacto que tuvo en América ese saqueo (todo lo que se podría haber hecho con tales recursos), todo ello sin mencionar aún el impacto en la acumulación originaria de capital y de la acumulación de capital que permitió consolidar la revolución industrial que tuvo la fuerza de trabajo esclava que obtuvieron por medios bélicos en toda América (y ese no es un detalle trivial, porque el Imperio Romano, el imperio más grande de la historia, se hizo sobre la base de los esclavos y los saqueos -e igualmente hizo la clase feudal-, así que en el mejor de los casos fue “únicamente” significativo).

En un mundo en que las cosas funcionen con absoluta justicia ellos deberían devolver todo lo robado con los mismos intereses usureros que sus instituciones financieras le prestan a los países de América Latina o pagar esa deuda de sus ancestros con su propia sangre, pero evidentemente no estamos en el mundo del justo sino del fuerte, es una selva maliciosa, porque no todos llegan a la selva con los mismos insumos (por lo que no para todos la selva es tan salvaje), prueba de ello es que a América Latina no llegó la revolución industrial y mientras ocurría en Europa aquí se luchaba por librarse del yugo colonial de los invasores asesinos que mezclaron a los pueblos originarios con violadores, asesinos, secuestradores u otro tipo de lumpenproletariado, es decir, que no obligaron a América Latina a mezclarse con sus mejores hombres (y aquí sí aplica decir únicamente hombres porque los que cometieron esas atrocidades -directamente, porque en general todos fueron cómplices-), sino, por el contrario, con la putrefacción de su sociedad; en Estados Unidos simplemente extinguieron a los indígenas sin mezclarse con ellos y dejaron unos pocos a manera de “exhibición” en ciertas jaulas forestales masivas a las que llaman “reservas indígenas”, como si se tratase de alces o venados, cosas de la democracia yankee (por eso no debería parecer extraño lo que hicieron y hacen en Washington con los niños y niñas sin-documentos, no sólo Trump sino también Biden, lo hacen hecho desde la fundación del país). Finalmente, conviene recordar que el saqueo no sólo continúa de manera financiera (con la agudización de déficit y préstamos con tasas de usura para “subsanar” esos déficit -hasta la fecha ningún país los ha logrado subsanar con esas recetas-), sino también con los tratados de libre comercio asimétricos antes mencionados que no sólo desmantelan el tejido productivo nacional sino que permiten jurídicamente aberraciones como que únicamente empresas estadounidenses pueden tener un monopolio (ese es el caso para El Salvador en el CAFTA-DR, lo que entra en conflicto flagrante con la Constitución Política de dicho país, puesto que esta establece que únicamente el Estado puede -y ahí se denota claramente la filosofía del fundamentalismo de libre mercado: el mercado por encima del Estado o, lo que es lo mismo, el capital por encima de los seres humanos-).

Lo anterior no contempla el hecho de que estos tratados comerciales permiten, explícita o implícitamente (el economista salvadoreño Raúl Moreno ha escrito abundantes y precisas investigaciones al respecto), que los países industrializados patenten la biodiversidad existente en los países pobres sin remunerar de ninguna forma al país que posee esa riqueza natural y luego utilizar esa biodiversidad para crear medicamentos que venden en los países pobres (de los que extrajeron los principios activos) a precios exorbitantes (que están muy por encima de las condiciones técnicas de producción de esos medicamentos y, sobre todo, muy por encima de los costos reales de los insumos, puesto que la biodiversidad la consiguieron gratis -así como el oro con espejos-, a lo sumo puede considerarse el gasto de transportarla -lo que es trivial en comparación al gasto que podría representar adquirir la biodiversidad y patentarla -¿a cuánto la venderían ellos si el caso fuese a la inversa?-), entre muchas otras cuestiones que sobraría mencionar porque el punto ha quedado contundentemente demostrado, por ejemplo, que muchas veces esos medicamentos servían para curar enfermedades que ellos mismos habían provocado mediante experimentos que se hacían a espaldas de la gente utilizándola como conejillo de indias, lo cual está perfectamente documentado para el caso de Guatemala y de Puerto Rico, pero seguramente no han de haber sido los únicos países en probar “las mieles” de la democracia internacional yankee (todo lo anterior -referente al saqueo actual- por mencionar un par de cuestiones, a fines de brevedad). Entonces el saqueo no sólo ocurrió, sigue ocurriendo y las generaciones presentes del “viejo” continente son por tanto tan culpables como sus ancestros puesto que el capitalismo europeo sigue construyéndose y siendo funcional

Y ahora llegó el momento de cerrar esta exposición ahondando en por qué la violencia es la partera de la historia y en qué condiciones está justificada la violencia en la lucha social como necesidad histórica de los pueblos. Al analizar la evolución del capitalismo resulta evidente que todo derecho social conseguido por la clase trabajadora le ha sido arrancado por la fuerza a la clase capitalista (desde la jornada laboral de 8 horas, hasta el salario mínimo, el aguinaldo, el derecho a voto de las mujeres, entre otros), salvo el derecho a que las mujeres pudiesen trabajar (ya hablando en la época en que se asentó la revolución industrial) porque eso les convenía debido a que ocasionó una caída de los salarios (por la simple ley de oferta y demanda), aumentaba el número de desempleados (ejército industrial de reserva o superpoblación relativa, con la importancia psicológica que esto tiene para que el trabajador o trabajadora se auto-explote por miedo a perder su trabajo) y fijando la producción a un nivel determinado, aunque los salarios unitariamente disminuyan la masa salarial aumenta lo que indefectiblemente favorecerá siempre a la clase capitalista en su acumulación de capital, pero no necesariamente a la clase trabajadora (dependerá de las circunstancias concretas puesto que habría que ver los valores específicos que los cambios en los salarios reales tomaron -manteniéndose constantes las demás cosas, como las mediciones estadísticas de la canasta básica, por ejemplo-, pero si tales cambios son negativos no es un hecho favorable, salvo que sean positivos).

Las mujeres están exigiendo un cambio en la cultura de aquellos hombres que son cómplices significativos del machismo (y de las aquellas mujeres cómplices significativas del machismo también), sin embargo, es evidente que estos cambios sólo pueden llegar con políticas públicas que refuercen la seguridad para las mujeres (que no debe confundirse con militarizar la sociedad -muy del gusto de las oligarquías de América Latina y de las burguesías de ahí también-) y con campañas públicas feroces contra el machismo que la sociedad padece como enfermedad estructural.

La cuestión se complica considerando que la realización de las dos políticas públicas antes mencionadas (necesarias para satisfacer el justo pedido de las feministas) exige recursos (que deben obtenerse de arcas públicas saqueadas por la clase dominante local, la clase dominante extranjera y la clase gobernante local), que la clase dominante es y ha sido siempre patriarcal (el “caldo de cultivo” de la opresión entre seres humanos es la opresión del hombre hacia a la mujer, como expone magistralmente Engels en El Origen de la Familia, la Propiedad Privada y el Estado -en este sentido la clase burguesa no es la excepción-) y ello no parecería ser poca cosa, además del hecho evidente de que esas dos políticas públicas exigen un conjunto de políticas públicas complementarias considerando cuán arraigado está el machismo en la psique social (lo que implica un control de políticas en el tiempo en miras a maximizar periódicamente su eficacia -optimizarlas-) a nivel mundial, independientemente de que tome formas más crudas y visibles en América Latina (al menos en general, claramente puede haber excepciones a ello), puesto que está asociado a la lucha de clases, la distribución del ingreso y otra serie de variables fundamentales del sistema de economía política capitalista en general (aquí no se está refiriendo únicamente al sistema de economía política capitalista como sistema productivo -en particular-, sino como sociedad o sistema social). Los recursos necesarios para semejante política pública, al menos en América Latina y fundamentalmente en América Latina en tiempos de la crisis sanitaria y económica, no parecerían poder salir de otro lugar que no sea de captar más impuestos de la clase trabajadora (lo que no parece ser fácil de hacer, puesto que subir salarios podría perjudicar sus ganancias, las arcas públicas están vacías -ellos y sus esbirros las han saqueado- y cobrar más impuestos sobre el consumo -regresivos, los que paga el pueblo- no sólo agudizaría con total seguridad la crisis económica sino que podría perjudicar sus ganancias si la demanda de consumo final cae lo suficiente -que es lo que lo único que les importa-) o por fin “animarse” ellos a pagar impuestos (lo que parece una utopía sumamente abstracta, si fundaron estos países precisamente para no pagar impuestos).

¿Cómo un estado de cosas como el anteriormente descrito (fundado sobre la sangre derramada con violencia, el hambre, el engaño, la manipulación ideológica, las falsas esperanzas y en el que a quienes beneficia tal estado de cosas no les resulta conveniente que dicho estado de cosas cambie) se podría alterar mínimamente sin violencia? Exigirles a las mujeres que salieron a manifestarse un comportamiento “civilizado” no sólo no parece tener un significado libre de ambigüedades, sino que es exigirles que no busquen alterar el estado de cosas, puesto que quienes critican ese uso de la violencia son quienes (por conveniencia o alienación ideológica) conciben como civilización el estado de cosas actual. Lo mismo aplica para el caso del racismo y las manifestaciones desatadas en Estados Unidos a raíz del caso de violencia policial que devino en la trágica muerte de George Floyd.

No parece ser válida la réplica “Esas no son formas”, porque las formas contrarias no han generado ningún resultado en varias décadas (al menos desde la última década del siglo pasado se viene hablando de erradicar el machismo y en América Latina cada día se agudiza más -y parece que en Europa en general no es muy diferente-) y son ellas quienes viven, respiran, caminan, sueñan, piensan, aman y extrañan angustiosas y temerosas, acomplejadas, traumadas. ¿No son formas?, recuérdese la definición de la cualidad de violento, “Que implica una fuerza e intensidad extraordinarias”, es decir, fuera de lo ordinario, ¿y con qué está relacionado lo “ordinario” ?, pues la palabra “ordinal” significa según el diccionario de la RAE ya citado “Perteneciente o relativo al orden” y en este sentido, entendiendo orden como el orden natural de un sistema de economía política en general y considerando que la definición de violentar es, según el mismo diccionario de la RAE, “Aplicar medios violentos a cosas o personas para vencer su resistencia”, es evidente que las manifestaciones tenían que ser violentas y violentar al estado de cosas actual (por eso la humanidad ha usado y seguirá usando la violencia en una sociedad en que no se puedan poner de acuerdo sus individuos a causa de la existencia de intereses irreconciliables -los intereses de clase-). De hecho, una definición alternativa de “violentar” es “Entrar en una casa u otra parte contra la voluntad de su dueño”, si se sabe que las repúblicas son las fincas de los burgueses y oligarcas “latinos” (siempre suelen tener más ascendencia europea que de otro tipo), pues las chicas de hace unos días decidieron irrumpir en la casa negociar contra la voluntad de su dueño porque el dueño se negaba a salir a dialogar. En realidad, a los dueños de estos países nunca les ha gustado el diálogo, porque hay que ser una clase dominante con mucha inteligencia para ser partidaria del diálogo y no parece realista esperar eso de clases dominantes no-industrializadas, al fin y al cabo, en las sociedades de clase la psique de la clase dominante se refleja (aunque de forma distorsionada) en la psique de la clase dominada (en eso consiste la alienación) y es perfectamente entendido por todos que el subdesarrollo no sólo es material, también tiene elementos subjetivos, psicológicos[3]. Si existen violaciones sistemáticas a los derechos de un sector masivo de la sociedad (las mujeres) que emanan de las políticas que los dueños de la casa dictan a los administradores de la misma (la clase gobernante, los políticos de profesión), se busca dialogar con ellos al respecto y estos se niegan a dialogar con el sector social afectado, considero que mi abuela estaría de acuerdo en decir que es justo aplicar el refrán “El vivo a señas y el tonto a palos”. Ella seguramente no había leído a Gramsci, pero había leído la vida misma.

Que sea esta era entonces la era de las revoluciones a toda escala o, por lo menos, que sea la era en que la humanidad empiece a transitar irremediablemente hacia su extinción por no poderse entender entre sí, como sí lo logramos hace tantos miles de años cuando salimos de África en busca de nuevos horizontes y superamos como homo sapiens a los neandertales en la desenfrenada carrera por la supervivencia enfrentando como enemigo común a una naturaleza inclemente para el nivel de precariedad tecnológica de la época. Jamás se debe olvidar que el neandertal era más inteligente (o eso se suele presumir porque su cerebro era más grande -indicio de una mayor capacidad del lenguaje abstracto[4]-) que nosotros el homo sapiens, ¿en qué lo superamos entonces?, en que nos pudimos entender, es hora de iniciar un éxodo inverso hacia nuestras raíces (que seguramente durará algunos siglos) o desaparecer irremediablemente a causa de nuestra estupidez, la cual curiosamente es una característica únicamente de los animales racionales.


[1] Estas leyes no son de carácter físico o químico, puesto que las leyes de la química y la física son leyes generales, puesto que la realidad es multifacética y la materia analizada en distintos contextos se caracteriza cualitativamente de forma diferente (un edificio desde el punto de vista contable es capital fijo, desde el físico es meramente materia con forma y volumen, desde su proceso de producción es un producto, desde el punto de vista de la ciencia de materiales es un conjunto de materiales -abordados desde una perspectiva técnica específica, evidentemente-, desde los procesos de optimización de topología aplicados en Ingeniería Civil es la función objetivo a optimizar, etc.).

[2] En Estados Unidos, el 21 de enero de 2010 la Corte Suprema de Justicia decidió fallar a favor de la propuesta de la organización “Citizens United” (una “ONG” conservadora de los Estados Unidos), donde se declara que restringir la magnitud de las donaciones (que tenían como fin que una persona ordinaria y un billonario pudiesen donar lo mismo) era una violación a la libertad de expresión; y además que las corporaciones y los partidos políticos tienen derecho a este tipo particular de libertad de expresión, pero las personas naturales no, porque podría llevar a corrupción. A las personas naturales aún se les limita las contribuciones a $2,700, pero las corporaciones y grupos externos no tienen límite en sus contribuciones indirectas, lo que significa que el dinero no puede ir directamente a un candidato, sino que tiene que pasar por unas organizaciones llamadas “Super PAC’s” (oficialmente conocidos como “Comités de Acción Política Independientes solo para gastos”, pueden realizar gastos políticos ilimitados -en, por ejemplo, anuncios- independientemente de las campañas, pero no pueden coordinar ni hacer contribuciones a campañas de candidatos o partidos -no directamente, por supuesto, sino en la forma descrita antes-). A diferencia de los PAC (“Political Action Committiees”) tradicionales, los Super PAC pueden recaudar fondos de individuos, corporaciones, sindicatos y otros grupos sin ningún límite legal en el tamaño de la donación.), creada explícitamente para beneficiar una situación política o candidato y se le permite hacer casi todo lo que a una campaña política se le permite: puede pautar en medios publicitarios, incitar al voto, tener mítines, compilar registros postales, dirigir investigaciones, incluso pueden pagar salarios a personas para trabajar en una campaña de forma puntual a favor o en contra de un candidato -la única estipulación real es que un Super PAC no puede coordinar directamente con una campaña o partido que apoye, pero sí, por ejemplo, pueden ser dirigidos por ex miembros de esta campaña o ex miembro de un partido que estén en contacto directo con el candidato. Las elecciones de 2008 fueron las más caras de la historia de Estados Unidos hasta ese entonces, con una contribución por grupos externos de 143 millones de dólares. En el 2020, esas contribuciones ascendieron a 3 mil millones de dólares. Además, es muy poco probable poder cambiar esto en el futuro cercano, porque requeriría una enmienda constitucional, lo cual requiere un voto de 2/3 del congreso por parte de ambos partidos, o bien otro fallo de la Corte Suprema de Justicia, la cual tiene una mayoría conservadora de 6-3, lo cual es más aún que cuando se aprobó la iniciativa propuesta por Citizens United en 2010, lo cual significa que los multimillonarios pueden gastar cantidades ilimitadas de dinero para apoyar a un candidato a que apruebe leyes que beneficien a sí mismos y a estos mismos multimillonarios y no hay nada que se pueda hacer para evitarlo… al menos no desde el orden, pero sí desde el desorden.

[3] Lo que en la época de Marx y Engels se decía “espirituales”, quizás gracias a ese halo de misticismo heredado de los antiguos griegos y la misma literatura de la era feudal en que la ciencia no se había generalizado lo suficiente en la sociedad (ni desarrollado lo suficiente en sí misma) para que la realidad se concibiese de otra forma que con cierto misticismo.

[4] Se presume que eran más inteligentes porque su cerebro era más grande. Además, la investigación realizada por Sverker Johansson titulada “Habilidades del Lenguaje en Neandertales”, publicada en la revista Anual Review of Linguistics (volumen I) en enero de 2015 señala en su abstracto que: “Las habilidades del lenguaje de los neandertales no se pueden observar directamente, pero hay evidencia indirecta disponible en su anatomía, arqueología y ADN. La anatomía neandertal muestra posibles adaptaciones del habla, y su arqueología contiene suficientes indicadores de modernidad conductual, incluidos símbolos y ornamentos, para concluir que sus mentes podrían manejar la comunicación simbólica. El ADN de los neandertales, finalmente, indica que poseían algunos de los genes relevantes para el lenguaje que se encuentran en los humanos modernos y que podían tener hijos con los humanos modernos y los tuvieron. De la coherencia de la evidencia de la anatomía, la arqueología y el ADN, se puede concluir que algunas habilidades del lenguaje, si bien no necesariamente el lenguaje sintáctico moderno completo, estaban presentes en los neandertales.”