On Github aydevosotros / TFG-AntonioMolina
Created by Antonio Molina García-Retamero
Abordar el problema del aprendizaje desde una persperctiva biológica.
Partiendo del trabajo del profesor Diego Andina sobre las MLP
Aplicar el concepto de metaplasticidad a RBFN
Plasticity of synaptic plasticity
Como postuló Shannon:
Los casos menos frequentes contienen más información
$\delta_j^{(S)} = (y_j - \widehat{y}^{(S)}_j) \cdot \dfrac{f^{'(S)}}{f^*_X(x)}$
La distribución normal es la más normal de las distribuciones
$f^*_X(x) = \dfrac{A}{\sqrt{(2\pi)^n} \cdot e^{\dfrac{B}{8} \sum_{i=1}^n{x_i^2}}}$
$\dfrac{\partial\varepsilon(n)}{\partial w_i(n)} = \sum^N_{j=1}{\widehat{E}_M(n) G(\Vert x_j - t_i \Vert_{C_i})}$
$\widehat{E}_M=\dfrac{1}{M}\sum^N_{k=1}\dfrac{(y_k - \overbrace{\left(\sum^M_{j=1}{w_j G(\Vert x^*_k - t_j \Vert_{C_j})}\right)}^{Salida\ de\ la\ RBFN})^2}{f^*_X(x^*_k)}$
$w_i(n+1)=w_i(n) - \eta \dfrac{\partial\varepsilon(n)}{\partial w_i(n)}$
$f^*_X(x^*_k) = \sum^K_{i=1}\phi_i(\mu_i,\sigma_i)$
$pdf(x,\mu,\sigma) = \frac{1}{ \sigma \sqrt{2 \pi}} e^{\left(-\frac{{\left(\mu - x\right)}^{2}}{2 \, \sigma^{2}}\right)}$
Un ejemplo de búsqueda de la mejor $\beta$ sobre datos generados aleatoriamente.