Construcción del Bucle Cognitivo mediante Causalidad Estructural Robusta

 Determinación del eje prioritario

En Fase 2 del proyecto CPEA, todos los componentes están interrelacionados — neurobiología avanzada, METFI, aprendizaje continuo, coherencia predictiva — pero hay un elemento que determina si el bucle cognitivo es científicamente sólido o simplemente sofisticación correlacional:

La validación causal robusta.

Sin causalidad formal:

  • El bucle EEG–AGI puede optimizar predicción.

  • Puede mejorar embeddings.

  • Puede detectar patrones de coherencia.

Pero no puede afirmar que:

  • Un patrón EEG cause una modificación estructural en el modelo.

  • Una intervención algorítmica altere dinámicas neuroeléctricas.

  • Exista bidireccionalidad estructural más allá de correlaciones.

Por tanto, el componente estructuralmente más importante en esta fase es:

🔹 Integración de causalidad estructural robusta (DoWhy) en el bucle cognitivo EEG–AGI

Este módulo es el que transforma el sistema de:

  • Predictivo-correlacional a

  • Predictivo-causal-intervencional

Y eso cambia radicalmente la naturaleza epistemológica del proyecto.


Coherencia Predictiva EEG–AGI (CPEA)

Fase 2 — Construcción del Bucle Cognitivo mediante Causalidad Estructural Robusta

Abstract

La construcción de un bucle cognitivo robusto entre señales electroencefalográficas (EEG) y sistemas de Inteligencia Artificial General (AGI) requiere trascender enfoques puramente correlacionales y adoptar un marco formal de causalidad estructural. En esta Fase 2 del proyecto Coherencia Predictiva EEG–AGI (CPEA), se propone la integración del framework DoWhy como núcleo metodológico para la inferencia causal, superando limitaciones inherentes a métricas basadas en transferencia de entropía, información mutua o dependencia condicional.

Se formaliza el bucle cognitivo como un sistema dinámico bidireccional compuesto por: (1) adquisición de señal neuroeléctrica, (2) modelado estructural causal, (3) actualización paramétrica mediante aprendizaje continuo y (4) evaluación contrafactual. Se introduce una arquitectura matemática basada en modelos estructurales causales (SCM) acoplados a redes profundas con regularización de estabilidad.

El trabajo articula fundamentos teóricos, formalización matemática, arquitectura computacional y programas de seguimiento experimental orientados a validar la direccionalidad causal en dinámicas EEG–modelo. El enfoque se dirige a un público científico familiarizado con teoría causal, neurodinámica y aprendizaje automático avanzado.

Palabras clave

Causalidad estructural; DoWhy; EEG; AGI; Modelos estructurales causales; Transferencia de entropía; Aprendizaje continuo; Inferencia contrafactual; Bucle cognitivo; Coherencia predictiva.

Introducción

La mayoría de los sistemas actuales que integran señales EEG con modelos de aprendizaje profundo operan bajo un paradigma predictivo-correlacional. Se optimizan funciones de pérdida. Se maximizan métricas de exactitud. Se cuantifica coherencia espectral.

Sin embargo, correlación no implica causalidad.

Y en un sistema que pretende construir un bucle cognitivo real —no simplemente un clasificador sofisticado— la distinción es decisiva.

El problema central no es si el modelo predice correctamente una clase cognitiva.
El problema es si puede distinguir qué variables influyen estructuralmente en otras, bajo intervenciones reales o hipotéticas.

Las métricas clásicas —como la Transferencia de Entropía (TE) introducida por Schreiber (2000)— permiten detectar direccionalidad estadística en procesos dinámicos. Pero no establecen causalidad en sentido estructural. La TE mide reducción de incertidumbre condicional. No modela intervención.

La causalidad estructural moderna se formaliza a través del marco desarrollado por Judea Pearl y colaboradores, basado en:

  • Modelos estructurales causales (SCM)

  • Grafos acíclicos dirigidos (DAG)

  • Operador de intervención do(·)

  • Evaluación contrafactual

Este marco permite responder preguntas que ningún método correlacional puede abordar:

  • ¿Qué ocurre si intervenimos artificialmente en un nodo del sistema?

  • ¿Qué variable mantiene independencia bajo ajuste por backdoor?

  • ¿Existe una vía espuria que explique la dependencia observada?

En la Fase 2 del CPEA, el objetivo no es únicamente predecir estados cognitivos.
Es modelar la estructura causal del sistema EEG–AGI y permitir intervenciones algorítmicas con validación estructural.

Limitaciones del paradigma correlacional

Transferencia de Entropía

La Transferencia de Entropía se define como:

TEXY=p(yt+1,yt(k),xt(l))logp(yt+1yt(k),xt(l))p(yt+1yt(k))TE_{X \to Y} = \sum p(y_{t+1}, y_t^{(k)}, x_t^{(l)}) \log \frac{p(y_{t+1} \mid y_t^{(k)}, x_t^{(l)})}{p(y_{t+1} \mid y_t^{(k)})}

Es útil para sistemas no lineales. Detecta dependencia direccional temporal.

Pero presenta limitaciones:

  1. No diferencia causalidad directa de mediada.

  2. Es sensible a variables omitidas.

  3. No permite evaluación contrafactual.

  4. No modela intervención explícita.

En EEG, donde múltiples fuentes latentes (ruido fisiológico, artefactos musculares, ritmos globales) influyen simultáneamente, la TE puede detectar direccionalidad espuria.

Información mutua y coherencia espectral

Estas métricas cuantifican dependencia estadística.
No modelan estructura causal.

Un bucle cognitivo robusto requiere más que dependencia estadística.

Fundamentos de causalidad estructural

El marco formal de Pearl se basa en Modelos Estructurales Causales (SCM):

Xi=fi(PAi,Ui)X_i = f_i(PA_i, U_i)

donde:

  • PAiPA_i son los padres causales.

  • UiU_i son variables exógenas.

  • fif_i son funciones estructurales deterministas.

Un DAG define la estructura de dependencia.

La operación fundamental es:

P(Ydo(X=x))P(Y \mid do(X = x))

que representa la distribución de Y bajo intervención forzada en X.

Esta distinción entre:

P(YX=x)P(Y \mid X=x)

y

P(Ydo(X=x))P(Y \mid do(X=x))

es la frontera entre correlación y causalidad.

Integración de DoWhy en CPEA

DoWhy es una librería que operacionaliza:

  1. Modelado causal explícito.

  2. Identificación de efectos causales.

  3. Estimación.

  4. Refutación (robustness checks).

En el contexto CPEA, el pipeline se redefine como:

  1. Construcción del DAG EEG–AGI.

  2. Identificación de variables de confusión.

  3. Estimación del efecto causal.

  4. Pruebas de refutación (placebo, variables aleatorias, subset analysis).

Esto transforma el bucle cognitivo en un sistema estructural.

Formalización del Bucle Cognitivo Causal

Definimos el sistema como:

S=(E,M,Θ,C)S = (E, M, \Theta, C)

donde:

  • EE: estado EEG.

  • MM: modelo AGI.

  • Θ\Theta: parámetros adaptativos.

  • CC: estructura causal.

El bucle opera como:

  1. EtMtE_t \rightarrow M_t

  2. MtΘt+1M_t \rightarrow \Theta_{t+1}

  3. Intervención controlada en MM

  4. Evaluación causal sobre EE

El componente crítico es:

Edo(M)\frac{\partial E}{\partial do(M)}

Si este gradiente causal es significativo y robusto a refutaciones, el sistema exhibe bidireccionalidad estructural.

Arquitectura Computacional

Se propone:

  • Encoder EEG (CNN + Transformer temporal).

  • Representación latente causal.

  • Módulo DoWhy para estimación estructural.

  • Aprendizaje continuo con regularización tipo EWC.

La pérdida total:

L=Lpred+λLcausal+γLstability\mathcal{L} = \mathcal{L}_{pred} + \lambda \mathcal{L}_{causal} + \gamma \mathcal{L}_{stability}

Donde:

  • Lcausal\mathcal{L}_{causal} penaliza inconsistencias entre efecto estimado y estructura causal.

Programas de Seguimiento

Intervenciones controladas

  • Estimulación cognitiva específica.

  • Alteración deliberada de parámetros del modelo.

  • Evaluación de cambio EEG bajo intervención.

Refutación estructural

  • Inclusión de variables placebo.

  • Permutación de nodos.

  • Simulación de confusores latentes.

Métricas

  • Average Treatment Effect (ATE)

  • Conditional Average Treatment Effect (CATE)

  • Robustez a subset sampling.

Conclusión 

La integración de causalidad estructural transforma la Fase 2 del CPEA en un sistema epistemológicamente sólido.

Sin este módulo, el bucle cognitivo sería un optimizador avanzado.
Con él, se convierte en un sistema intervencional capaz de inferencia estructural.

  • La Transferencia de Entropía es insuficiente para inferencia causal estructural.

  • La distinción entre P(YX)P(Y|X) y P(Ydo(X))P(Y|do(X)) es crítica.

  • DoWhy permite identificación, estimación y refutación causal.

  • El bucle cognitivo EEG–AGI debe incorporar intervención explícita.

  • Se propone una arquitectura híbrida deep learning + SCM.

  • Los programas de seguimiento incluyen intervención, refutación y robustez estadística.

  • La Fase 2 depende estructuralmente de la integración causal.

Referencias 

Pearl, J. (2009). Causality: Models, Reasoning, and Inference.
Fundamento formal de modelos estructurales causales y operador do.

Schreiber, T. (2000). Measuring Information Transfer.
Introducción de Transferencia de Entropía.

Spirtes, Glymour & Scheines (2000). Causation, Prediction, and Search.
Algoritmos de descubrimiento causal.

Sharma & Kiciman (2020). DoWhy.
Framework práctico para inferencia causal reproducible.


Formalización Matemática del SCM Acoplado a Redes Profundas

Estructura General del Sistema

Definimos el sistema CPEA como un sistema dinámico estocástico causalmente estructurado:

S=(V,E,F,P(U))\mathcal{S} = (\mathcal{V}, \mathcal{E}, \mathcal{F}, P(U))

donde:

  • V\mathcal{V} es el conjunto de variables observables y latentes.

  • E\mathcal{E} es el conjunto de aristas dirigidas que definen el DAG.

  • F={fi}\mathcal{F} = \{f_i\} es el conjunto de funciones estructurales.

  • P(U)P(U) es la distribución de variables exógenas.

En el caso EEG–AGI, definimos los nodos principales:

  • EtE_t: estado EEG en tiempo tt.

  • ZtZ_t: representación latente profunda.

  • Θt\Theta_t: parámetros adaptativos del modelo.

  • ItI_t: intervención algorítmica.

  • TtT_t: estado topológico electromagnético toroidal.

  • UtU_t: ruido exógeno estructural.

El DAG básico se puede expresar como:

TtEtZtΘtT_t \rightarrow E_t \rightarrow Z_t \rightarrow \Theta_t ItΘtI_t \rightarrow \Theta_t ΘtEt+1\Theta_t \rightarrow E_{t+1}

Aquí aparece la bidireccionalidad dinámica, pero no se rompe la aciclicidad porque el grafo se define por “time slicing”: cada instante temporal define un DAG acíclico.

Definición del Modelo Estructural

El sistema queda definido por las ecuaciones estructurales:

Tt=fT(UT)T_t = f_T(U_T) Et=fE(Tt,Θt1,UE)E_t = f_E(T_t, \Theta_{t-1}, U_E) Zt=fZ(Et;ϕ)Z_t = f_Z(E_t; \phi) Θt=fΘ(Zt,It;ψ)\Theta_t = f_\Theta(Z_t, I_t; \psi)

donde:

  • fZf_Z es una red profunda parametrizada por ϕ\phi.

  • fΘf_\Theta es el módulo de actualización paramétrica.

  • fEf_E modela la dinámica neuroelectromagnética.

El componente clave es que fZf_Z no es solo un extractor de características; es una función estructural dentro del SCM.

Acoplamiento Profundo–Causal

Representación Latente como Nodo Causal

En arquitecturas clásicas de deep learning, el espacio latente es puramente funcional. Aquí, en cambio, el vector latente:

ZtRdZ_t \in \mathbb{R}^d

es tratado como nodo causal explícito.

Esto implica que:

P(Θtdo(Zt=z))P(\Theta_t \mid do(Z_t = z))

debe poder estimarse.

Para garantizar identificabilidad causal en presencia de representaciones profundas, imponemos dos condiciones:

  1. Separabilidad estructural parcial.

  2. Regularización por independencia condicional.

Se introduce un término de penalización:

Lindep=ijI(Zi;ZjPA(Zi))\mathcal{L}_{indep} = \sum_{i \neq j} \left| I(Z_i; Z_j \mid PA(Z_i)) \right|

donde I()I(\cdot) es información mutua condicional.

El objetivo es aproximar una descomposición causal del embedding.

Identificación del Efecto Causal Profundo

Sea el efecto promedio del tratamiento (ATE):

ATE=E[Et+1do(It=1)]E[Et+1do(It=0)]ATE = \mathbb{E}[E_{t+1} \mid do(I_t=1)] - \mathbb{E}[E_{t+1} \mid do(I_t=0)]

Utilizamos ajuste por backdoor:

P(Et+1do(It))=zP(Et+1It,Zt=z)P(Zt=z)P(E_{t+1} \mid do(I_t)) = \sum_{z} P(E_{t+1} \mid I_t, Z_t=z) P(Z_t=z)

La red profunda aproxima:

P(Et+1It,Zt)P(E_{t+1} \mid I_t, Z_t)

mientras que DoWhy garantiza la identificación formal del conjunto de ajuste.

Integración de la Dimensión Electromagnética

Ahora introducimos el componente toroidal.

Campo Electromagnético Cerebral como Variable de Estado

El cerebro genera campos electromagnéticos macroscópicos descritos por las ecuaciones de Maxwell:

E=ρϵ0\nabla \cdot \mathbf{E} = \frac{\rho}{\epsilon_0} B=0\nabla \cdot \mathbf{B} = 0 ×E=Bt\nabla \times \mathbf{E} = - \frac{\partial \mathbf{B}}{\partial t} ×B=μ0J+μ0ϵ0Et\nabla \times \mathbf{B} = \mu_0 \mathbf{J} + \mu_0 \epsilon_0 \frac{\partial \mathbf{E}}{\partial t}

El EEG mide potenciales eléctricos superficiales derivados de estas dinámicas.

Definimos el estado electromagnético macroscópico como:

Tt=Φ(E,B)T_t = \Phi(\mathbf{E}, \mathbf{B})

donde Φ\Phi es un operador de reducción que proyecta el campo en una representación toroidal efectiva.

Modelización Toroidal

Una topología toroidal puede describirse mediante coordenadas:

(θ,ϕ)[0,2π]2(\theta, \phi) \in [0,2\pi]^2

El campo puede representarse como:

F(θ,ϕ,t)=m,namn(t)ei(mθ+nϕ)\mathbf{F}(\theta,\phi,t) = \sum_{m,n} a_{mn}(t) e^{i(m\theta+n\phi)}

Esto equivale a una expansión armónica sobre el toro.

Definimos:

Tt={amn(t)}T_t = \{a_{mn}(t)\}

que representa el estado topológico espectral.

Incorporación Toroidal al SCM

Ahora el SCM incluye:

TtEtT_t \rightarrow E_t

pero además:

TtZtT_t \rightarrow Z_t

porque la representación latente puede capturar modos armónicos específicos.

La ecuación estructural queda:

Et=fE(Tt,Θt1,UE)E_t = f_E(T_t, \Theta_{t-1}, U_E)

donde:

fE=G(H(Tt),Θt1)f_E = \mathcal{G}(\mathcal{H}(T_t), \Theta_{t-1})

con H\mathcal{H} como operador de proyección espacial.

Efecto Causal Topológico

Definimos el efecto causal topológico:

Δtopo=E[Etdo(amn=a)]E[Etdo(amn=0)]\Delta_{topo} = \mathbb{E}[E_t \mid do(a_{mn}=a^*)] - \mathbb{E}[E_t \mid do(a_{mn}=0)]

Si este efecto es estadísticamente significativo tras refutación, la dinámica toroidal es causalmente activa en el sistema.

Gradiente Causal Profundo

Definimos el gradiente causal:

causal=ItE[Et+1do(It)]\nabla_{causal} = \frac{\partial}{\partial I_t} \mathbb{E}[E_{t+1} \mid do(I_t)]

Este gradiente no es simplemente derivada automática de red neuronal.

Es:

causal=zP(Et+1It,Zt=z)ItP(Zt=z)\nabla_{causal} = \sum_z \frac{\partial P(E_{t+1} \mid I_t, Z_t=z)}{\partial I_t} P(Z_t=z)

evaluado bajo ajuste causal.

Función de Pérdida Causal–Electromagnética

La pérdida total se redefine como:

L=Lpred+λLATE+γLtopo+ηLstability\mathcal{L} = \mathcal{L}_{pred} + \lambda \mathcal{L}_{ATE} + \gamma \mathcal{L}_{topo} + \eta \mathcal{L}_{stability}

donde:

Ltopo=m,nΔtopoempΔtopomodel\mathcal{L}_{topo} = \sum_{m,n} \left| \Delta_{topo}^{emp} - \Delta_{topo}^{model} \right|

Esto obliga al modelo a respetar coherencia causal electromagnética.

Programas de Seguimiento Experimental

Medición Topológica

  1. Descomposición espectral toroidal del EEG.

  2. Estimación de coeficientes amna_{mn}.

  3. Análisis causal sobre variaciones inducidas.

Intervención Paramétrica

  • Alteración controlada de Θt\Theta_t.

  • Medición de cambios en modos toroidales.

  • Estimación de ATEATE.

Robustez

  • Variables placebo toroidales.

  • Permutación armónica.

  • Submuestreo temporal.

Síntesis conceptual

El sistema completo se convierte en un modelo dinámico causal electromagnético profundo:

  • La red neuronal aproxima funciones estructurales.

  • El SCM garantiza interpretabilidad causal.

  • La topología toroidal introduce estructura física explícita.

  • Las intervenciones permiten validación formal.

El bucle cognitivo deja de ser un simple optimizador estadístico.
Se transforma en un sistema intervencional estructuralmente coherente con dinámica electromagnética.

  • El espacio latente profundo se redefine como nodo causal explícito.

  • Se formaliza el acoplamiento entre SCM y redes profundas.

  • La dinámica EEG se modela como proyección de campos electromagnéticos.

  • Se introduce una representación toroidal mediante expansión armónica.

  • Se define un efecto causal topológico cuantificable.

  • La pérdida total incorpora coherencia causal electromagnética.

  • El gradiente causal difiere del gradiente estándar de backpropagation.

  • Se proponen programas de seguimiento experimental con validación estructural.

  • El sistema integra física, causalidad formal y aprendizaje profundo en una arquitectura coherente.

Referencias 

Pearl, J. (2009). Causality.
Formalización matemática de SCM y operador do.

Spirtes, Glymour & Scheines (2000). Causation, Prediction, and Search.
Fundamentos algorítmicos para descubrimiento causal.

Schreiber, T. (2000). Measuring Information Transfer.
Base teórica de transferencia de entropía.

Friston, K. (2010). The free-energy principle.
Marco dinámico para sistemas biológicos auto-organizados.

Buzsáki, G. (2006). Rhythms of the Brain.
Relación entre dinámica eléctrica y organización funcional.

Comentarios

Entradas populares