Diferencia entre revisiones de «Series de Fourier (LAJS)»

De MateWiki
Saltar a: navegación, buscar

Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/mat/public_html/w/includes/diff/DairikiDiff.php on line 434
(Cálculo de la esperanza, varianza y covarianza)
Línea 31: Línea 31:
  
  
== Cálculo de la esperanza, varianza y covarianza ==
+
<math></math>
 +
Tomemos los coeficientes <math>a_n, b_n</math> independientes entre si y con distribución simétrica alrededor de 0. Por ejemplo,
  
==== Esperanza ====
+
•⁠  ⁠'''Caso normal:''' <math>a_n, b_n \sim \mathcal{N}(0, \sigma_n^2)</math>
 +
•⁠  ⁠'''Caso uniforme:''' <math>a_n, b_n \sim U[-c, c]</math> (media 0, varianza <math>c^2/3</math>)
  
Para empezar, en el caso que los coeficientes <math> a_n, b_n </math> siguen una distribución <math> \mathcal{N}(0, 1) </math>, la esperanza se calcula:
+
Con <math>E[a_n] = E[b_n] = 0</math> y <math>a_n, b_n</math> independientes. Calculemos su esperanza
  
<math display="block">
+
==  Esperanza <math>E[f_\sigma(x)]</math> ==
E[f_{\sigma}(x)] = E\left[ \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right) \right] =  \frac{E[a_0]}{2} + \sum_{n=1}^{\infty} \big( E[a_n] \cos(n \pi x) + E[b_n] \sin(n \pi x) \big) = 0 </math>
+
  
ya que <math> E[a_0]= E[a_n]= E[b_n]=0 </math> para todo <math> n \in \{1,\dots , N\} </math>.
+
:<math>E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0</math>
  
 +
La esperanza puntual es 0 para todo <math>x</math>.
  
Por otro lado, en el caso de la distribución uniforme, esto es, <math> a_n, b_n \sim \mathcal{U}(-1, 1) </math>, la esperanza de cada variable aleatoria se calcula fácilmente mediante <math> E[a_0]= E[a_n]= E[b_n]= \frac{-1 + 1}{2} =0 </math> para todo <math> n \in \{1,\dots , N\} </math>, luego volvemos a obtener <math> E[f_{\sigma}(x)] = 0 </math>.
+
== Varianza <math>V(f_\sigma(x))</math> ==
  
 +
Como <math>E[f] = 0</math>:
  
==== Varianza ====
+
:<math>V(f_\sigma(x)) = E[f_\sigma(x)^2]</math>
  
Calculamos ahora la varianza en los dos casos que estudiamos. Comenzamos con el caso en que los coeficientes siguen distribuciones <math> \mathcal{N}(0, 1) </math>.
+
Pero
 +
 
 +
:<math>f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)]</math>
 +
 
 +
Tomando esperanza y usando independencia y media cero de <math>a_n, b_n</math>:
 +
 
 +
•⁠  ⁠<math>E[a_n a_m] = 0</math> si <math>n \neq m</math>, <math>= \sigma_{a_n}^2</math> si <math>n = m</math>.
 +
•⁠ ⁠Igual para <math>b_n b_m</math>.
 +
•⁠  ⁠<math>E[a_n b_m] = 0</math> para todo <math>n, m</math>.
 +
 
 +
Entonces
 +
 
 +
:<math>V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)]</math>
 +
 
 +
Si tomamos <math>\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2</math> (misma varianza para seno y coseno):
 +
 
 +
:<math>V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2</math>
 +
 
 +
independiente de <math>x</math>.

Revisión del 21:42 15 feb 2026

1 Introducción

La manera más común de representar la serie de Fourier de una función [math]f(x) [/math] es mediante

[math] f(x) \sim\frac{a_0}{2 \pi} + \sum_{n=1}^{N} \left( a_n \frac{1}{\sqrt{\pi}} \cos(n x) + b_n \frac{1}{\sqrt{\pi}} \sin (n x)\right) [/math]

siendo [math] a_0,a_n,b_n [/math] los coeficientes de Fourier, que se calculan mediante las integrales:

[math] a_0 = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} f(x) dx \quad a_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \cos(n x) f(x) dx \quad b_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \sin(n x) f(x) dx [/math]

Es decir, la función [math]f(x) [/math] se expresa como una combinación lineal de funciones seno y coseno con coeficientes constantes. Sin embargo, en algunos contextos reales, como la modelización de fenómenos naturales, no es razonable suponer que dichos coeficientes son conocidos de forma exacta. En algunos casos, la información que conocemos sobre el sistema puede ser intrínsecamente aleatoria, lo que motiva la introducción de modelos probabilísticos. Una forma natural de incorporar esta aleatoriedad consiste en sustituir los coeficientes de Fourier que conocemos por variables aleatorias. Este planteamiento permite definir funciones aleatorias cuyos valores, aun conservando una estructura armónica, presentan fluctuaciones controladas en función de la distribución estadística de los coeficientes.


2 Modelo matemático

Comenzamos definiendo la ecuación general que utilizaremos:

[math] f_{\sigma}(x) = \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right) [/math]

donde los coeficientes [math] a_n [/math] y [math] b_n [/math] serán variables aleatorias independientes e idénticamente distribuidas que se generarán a partir de distribuciones de probabilidad en lugar de calcularlos mediante integrales. Estudiaremos dos escenarios diferentes:

  • Distribución uniforme: los coeficientes seguirán una distribución uniforme en el intervalo [math] [-1,1] [/math], es decir, [math]a_n, b_n \sim \mathcal{U}(-1, 1) [/math]
  • Distribución normal: los coeficientes seguirán una distribución normal estándar, [math] a_n, b_n \sim \mathcal{N}(0, 1) [/math]


[math][/math] Tomemos los coeficientes [math]a_n, b_n[/math] independientes entre si y con distribución simétrica alrededor de 0. Por ejemplo,

•⁠ ⁠Caso normal: [math]a_n, b_n \sim \mathcal{N}(0, \sigma_n^2)[/math] •⁠ ⁠Caso uniforme: [math]a_n, b_n \sim U[-c, c][/math] (media 0, varianza [math]c^2/3[/math])

Con [math]E[a_n] = E[b_n] = 0[/math] y [math]a_n, b_n[/math] independientes. Calculemos su esperanza

3 Esperanza [math]E[f_\sigma(x)][/math]

[math]E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0[/math]

La esperanza puntual es 0 para todo [math]x[/math].

4 Varianza [math]V(f_\sigma(x))[/math]

Como [math]E[f] = 0[/math]:

[math]V(f_\sigma(x)) = E[f_\sigma(x)^2][/math]

Pero

[math]f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)][/math]

Tomando esperanza y usando independencia y media cero de [math]a_n, b_n[/math]:

•⁠ ⁠[math]E[a_n a_m] = 0[/math] si [math]n \neq m[/math], [math]= \sigma_{a_n}^2[/math] si [math]n = m[/math]. •⁠ ⁠Igual para [math]b_n b_m[/math]. •⁠ ⁠[math]E[a_n b_m] = 0[/math] para todo [math]n, m[/math].

Entonces

[math]V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)][/math]

Si tomamos [math]\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2[/math] (misma varianza para seno y coseno):

[math]V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2[/math]

independiente de [math]x[/math].