<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="es">
		<id>https://mat.caminos.upm.es/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Sof%C3%ADa</id>
		<title>MateWiki - Contribuciones del usuario [es]</title>
		<link rel="self" type="application/atom+xml" href="https://mat.caminos.upm.es/w/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Sof%C3%ADa"/>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/wiki/Especial:Contribuciones/Sof%C3%ADa"/>
		<updated>2026-04-23T12:18:31Z</updated>
		<subtitle>Contribuciones del usuario</subtitle>
		<generator>MediaWiki 1.26.2</generator>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Ecuaci%C3%B3n_del_calor_LAJS&amp;diff=104437</id>
		<title>Ecuación del calor LAJS</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Ecuaci%C3%B3n_del_calor_LAJS&amp;diff=104437"/>
				<updated>2026-04-08T07:58:52Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{ TrabajoED | Ecuación del calor. Grupo LAJS | [[:Categoría:EDP|EDP]]|[[:Categoría:EDP25/26|2025-26]] | Leire Aparicio Urbiola&lt;br /&gt;
&lt;br /&gt;
Álvaro Silva Blanco &lt;br /&gt;
&lt;br /&gt;
Julia Calado Bonnin&lt;br /&gt;
&lt;br /&gt;
Sofía García Suárez&lt;br /&gt;
&lt;br /&gt;
 }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Categoría:EDP]]&lt;br /&gt;
[[Categoría:EDP25/26]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_Calor_LAJS.png||900px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
&lt;br /&gt;
El estudio de la ecuación del calor es fundamental a la hora de estudiar cómo la temperatura se distribuye en un cuerpo a lo largo del tiempo mediante procesos de difusión. En este trabajo, nos centramos en el análisis de una varilla metálica unidimensional de longitud $L=1$. El objetivo principal será comprender propiedades clave como la convergencia al estado estacionario, la influencia de las condiciones de contorno (Dirichlet y Neumann) y el comportamiento de la solución ante datos iniciales discontinuos. A través de la resolución por separación de variables y la implementación de códigos en MATLAB, ilustraremos fenómenos como el fenómeno de Gibbs y la velocidad infinita de propagación. Además, analizaremos la sensibilidad del sistema frente a cambios en la conductividad térmica, evaluando cómo este parámetro altera la tasa de decaimiento temporal de las soluciones.&lt;br /&gt;
&lt;br /&gt;
== Planteamiento y solución del problema ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos considerando una varilla metálica que ocupa el intervalo &amp;lt;math&amp;gt;[0, 1]&amp;lt;/math&amp;gt; y que se encuentra aislada por su superficie lateral, de forma que la conducción de calor únicamente ocurre en dirección longitudinal. La temperatura inicial de la varilla será de &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;. En el extremo derecho la temperatura se mantiene en &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;, mientras que en el izquierdo la temperatura es siempre de &amp;lt;math&amp;gt;1ºC&amp;lt;/math&amp;gt;. Por tanto, si consideramos las constantes de conductividad térmica y calor específico iguales a uno, la ecuación que modeliza nuestro problema queda &amp;lt;math&amp;gt;u_t - u_{xx}=0, \quad x \in (0,1), \ t &amp;gt; 0&amp;lt;/math&amp;gt;, sujeta a las condiciones de contorno &amp;lt;math&amp;gt;u(0,t) = 1&amp;lt;/math&amp;gt; (extremo izquierdo) y &amp;lt;math&amp;gt;u(1,t) = 10&amp;lt;/math&amp;gt; (extremo derecho). Por último, la condición inicial será &amp;lt;math&amp;gt;u(x,0) = 10 \quad \forall x \in [0,1]&amp;lt;/math&amp;gt;. El sistema de EDPs que modeliza nuestro problema queda:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        u_t - u_{xx}=0 &amp;amp; \text{en } (0,1) \times (0, \infty) \\[10pt]&lt;br /&gt;
        u(0,t) = 1 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(1,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(x,0) = 10 &amp;amp; x \in [0,1]&lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Solución estacionaria =====&lt;br /&gt;
&lt;br /&gt;
En cuanto a la ecuación del estado estacionario, sabemos que ocurre al suponer &amp;lt;math&amp;gt;t \to \infty &amp;lt;/math&amp;gt; y que por tanto la solución ya no varía en tiempo, es decir, cuando &amp;lt;math&amp;gt; u_t \sim 0 &amp;lt;/math&amp;gt;. Entonces el problema para la solución estacionaria es &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        - v_{xx}=0 &amp;amp; \text{en } (0,1) \\[10pt]&lt;br /&gt;
        v(0) = 1  \\[5pt]&lt;br /&gt;
        v(1) = 10 &lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lo que nos da una EDO que se resuelve fácilmente y se llega a la solución &amp;lt;math&amp;gt; v(x)=9x+1 &amp;lt;/math&amp;gt;. En la siguiente imagen podemos ver la gráfica de esta solución, que representa la temperatura que observaríamos si dejáramos pasar mucho tiempo bajo las condiciones descritas.&lt;br /&gt;
&lt;br /&gt;
[[Archivo:SolEstacionaria.png|thumb|300px|Visualización de la solución estacionaria]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Solución del problema y visualización ====&lt;br /&gt;
&lt;br /&gt;
A continuación hallamos la solución al problema original, que lo haremos por el método de separación de variables. La forma de resolverlo es considerando la solución como la suma del estado estacionario y una solución transitoria &amp;lt;math&amp;gt;w(x,t)&amp;lt;/math&amp;gt; que cumple condiciones de contorno, es decir, &amp;lt;math&amp;gt;u(x,t) = v(x) + w(x,t)&amp;lt;/math&amp;gt;. La parte &amp;lt;math&amp;gt;w(x,t)&amp;lt;/math&amp;gt; se calcula mediante la serie de Fourier &amp;lt;math&amp;gt;w(x,t) = \sum_{n=1}^{\infty} b_n e^{-(n\pi)^2 t} \sin(n\pi x)&amp;lt;/math&amp;gt;, donde los coeficientes &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; se calculan a partir de la condición inicial &amp;lt;math&amp;gt;w(x,0) = u(x,0) - v(x) = 10 - (9x + 1) = 9 - 9x&amp;lt;/math&amp;gt;. La solución final a nuestro problema es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = (9x + 1) + \sum_{n=1}^{\infty} \left( \frac{18}{n\pi} \right) e^{-(n\pi)^2 t} \sin(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para la visualización de esta solución hemos creado un código en Matlab que nos da una gráfica tridimensional, que utiliza los primeros 10 términos de la serie de Fourier en el intervalo de tiempo [0, 1]. En la imagen que genera el código podemos observar que el extremo derecho de la varilla comienza en una temperatura de &amp;lt;math&amp;gt;10^{\circ}C&amp;lt;/math&amp;gt;, y sin embargo, en el extremo izquierdo la temperatura cae hasta &amp;lt;math&amp;gt;1^{\circ}C&amp;lt;/math&amp;gt;. Además se observa el fenómeno de Gibbs en la gráfica: las oscilaciones que se ven cerca de &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; son una consecuencia de usar solo 10 términos de la serie de Fourier. Al intentar aproximar una discontinuidad (el salto de &amp;lt;math&amp;gt;10^{\circ}C&amp;lt;/math&amp;gt; a &amp;lt;math&amp;gt;1^{\circ}C&amp;lt;/math&amp;gt;), aparecen estas oscilaciones que desaparecen a medida que el tiempo avanza y la solución se suaviza. Se aprecia que cerca de &amp;lt;math&amp;gt;t=1&amp;lt;/math&amp;gt;, la superficie es prácticamente una superficie plana inclinada, lo que indica que el sistema ha alcanzado o está muy cerca de su estado estacionario.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Parámetros iniciales&lt;br /&gt;
L = 1;  &lt;br /&gt;
t_final = 1;&lt;br /&gt;
Nx = 50;            &lt;br /&gt;
Nt = 50;            &lt;br /&gt;
&lt;br /&gt;
x = linspace(0, L, Nx);&lt;br /&gt;
t = linspace(0, t_final, Nt);&lt;br /&gt;
[X, T] = meshgrid(x, t);&lt;br /&gt;
&lt;br /&gt;
% Solución estacionaria: v = 9x + 1 &lt;br /&gt;
V = 9*X + 1;&lt;br /&gt;
&lt;br /&gt;
% Parte transitoria: suma de los primeros 10 términos de Fourier &lt;br /&gt;
W = zeros(size(X));&lt;br /&gt;
for n = 1:10&lt;br /&gt;
    bn = 18 / (n * pi);&lt;br /&gt;
    W = W + bn * exp(-(n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Solución final: u(x,t) = v(x) + w(x,t) &lt;br /&gt;
U = V + W;&lt;br /&gt;
&lt;br /&gt;
% Gráfica&lt;br /&gt;
figure;&lt;br /&gt;
surf(X, T, U);&lt;br /&gt;
shading interp; % Suaviza los colores&lt;br /&gt;
colorbar;&lt;br /&gt;
title('Evolución de la Temperatura (Primeros 10 términos)');&lt;br /&gt;
xlabel('Posición (x)');&lt;br /&gt;
ylabel('Tiempo (t)');&lt;br /&gt;
zlabel('Temperatura (u)');&lt;br /&gt;
grid on;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:SolGrafica.png|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Estudio del flujo de calor en los extremos ==&lt;br /&gt;
&lt;br /&gt;
Para analizar el flujo de calor en los extremos de la barra a lo largo del tiempo utilizamos la ley de Fourier, que asegura que el flujo es proporcional al gradiente de temperatura: &amp;lt;math&amp;gt;q = -k u_x&amp;lt;/math&amp;gt;. Como en el problema hemos asumido que la conductividad térmica era uno, resulta que el flujo es igual a la derivada espacial evaluada en los bordes de la barra. La derivada respecto de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; que obtuvimos antes es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_x = 9 + \sum_{n=1}^{\infty} b_n n\pi e^{-(n\pi)^2 t} \cos(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De nuevo, hemos desarrollado un código en Matlab para dibujar la evolución del flujo entrante y saliente. De la imagen que nos devuelve el código podemos interpretar varias cosas: en primer lugar, vemos que ambos flujos convergen al valor 9, lo que tiene sentido porque antes hemos calculado que la solución estacionaria era &amp;lt;math&amp;gt;v(x)=9x+1&amp;lt;/math&amp;gt;. Además en &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; el flujo es muy elevado, y esto se debe a que, como la barra está a &amp;lt;math&amp;gt;10 \circ C&amp;lt;/math&amp;gt; en un extremo y a &amp;lt;math&amp;gt;1 \circ C&amp;lt;/math&amp;gt; en el otro, hay una salida muy fuerte de energía hacia el exterior por la parte izquierda de la barra. De la misma manera, en el extremo derecho inicialmente el flujo es cercano a cero porque la barra y el borde están a la misma temperatura, y el flujo empieza a variar cuando el enfriamiento de la izquierda llega al lado derecho. Esta gráfica está relacionada con la que hemos visto antes: el flujo es la pendiente de la superficie que hemos dibujado antes.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Parámetros&lt;br /&gt;
L = 1;&lt;br /&gt;
t = linspace(0.01, 1, 100); % Mejor evitar t=0 por la discontinuidad inicial&lt;br /&gt;
flujo0 = zeros(size(t));&lt;br /&gt;
flujo1 = zeros(size(t));&lt;br /&gt;
&lt;br /&gt;
% Cálculo de los flujos usando 10 términos&lt;br /&gt;
for i = 1:length(t)&lt;br /&gt;
    sum_i = 0;&lt;br /&gt;
    sum_d = 0;&lt;br /&gt;
    for n = 1:10&lt;br /&gt;
        bn = 18 / (n * pi);&lt;br /&gt;
        term_base = bn * (n * pi) * exp(-(n*pi)^2 * t(i));&lt;br /&gt;
        sum_i = sum_i + term_base * cos(0);          % cos(n*pi*0) = 1&lt;br /&gt;
        sum_d = sum_d + term_base * cos(n * pi);     % cos(n*pi) = (-1)^n&lt;br /&gt;
    end&lt;br /&gt;
    flujo0(i) = 9 + sum_i;&lt;br /&gt;
    flujo1(i) = 9 + sum_d;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Gráfica&lt;br /&gt;
figure;&lt;br /&gt;
plot(t, flujo0, 'b', 'LineWidth', 2); hold on;&lt;br /&gt;
plot(t, flujo1, 'r', 'LineWidth', 2);&lt;br /&gt;
grid on;&lt;br /&gt;
legend('Flujo en x=0 ', 'Flujo en x=1');&lt;br /&gt;
title('Flujo de calor en los extremos a lo largo del tiempo');&lt;br /&gt;
xlabel('Tiempo (t)');&lt;br /&gt;
ylabel('Gradiente de Temperatura u_x');&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Flujoo1.jpg|centro|300px|Flujo de calor]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Efecto de cambiar la conductividad ==&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a cambiar la conductividad térmica de la varilla de &amp;lt;math&amp;gt;\alpha=1&amp;lt;/math&amp;gt; a &amp;lt;math&amp;gt;\alpha=1/2&amp;lt;/math&amp;gt;. Esto quiere decir que ahora el calor se mueve de manera más lenta a lo largo de la varilla y que por tanto se tardará más en llegar al estado estacionario. Entonces tenemos que con este cambio la nueva ecuación del calor es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_t - \frac{1}{2}u_{xx}=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La nueva solución es muy parecida a la de antes:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = (9x + 1) + \sum_{n=1}^{\infty} \left( \frac{18}{n\pi} \right) e^{-\frac{(n\pi)^2 t}{2}} \sin(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pero ahora la varilla tarda más en calentarse o enfriarse en cada punto, es decir, la solución se aproxima más despacio al estado estacionario. &lt;br /&gt;
&lt;br /&gt;
Para compararlas, hemos creado un código en Matlab donde calcularemos las dos soluciones  (&amp;lt;math&amp;gt;\alpha=1&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;\alpha=1/2&amp;lt;/math&amp;gt;) usando los primeros 10 términos de la serie&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
L = 1; t_final = 1; Nx = 60; Nt = 60;&lt;br /&gt;
x = linspace(0, L, Nx);&lt;br /&gt;
t = linspace(0, t_final, Nt);&lt;br /&gt;
[X, T] = meshgrid(x, t);&lt;br /&gt;
&lt;br /&gt;
% Estado Estacionario &lt;br /&gt;
V1 = 9*X + 1; &lt;br /&gt;
V2 = 9*0.5 + 1; % Valor en x=0.5&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la serie de Fourier para ambos coeficientes&lt;br /&gt;
W1 = zeros(size(X)); &lt;br /&gt;
W2 = zeros(size(X)); &lt;br /&gt;
&lt;br /&gt;
for n = 1:10&lt;br /&gt;
    bn = 18 / (n * pi);&lt;br /&gt;
    % Caso alpha = 1&lt;br /&gt;
    W1 = W1 + bn * exp(-(n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
    % Caso alpha = 1/2&lt;br /&gt;
    W2 = W2 + bn * exp(-0.5 * (n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
U1 = V1 + W1;&lt;br /&gt;
U2 = V1 + W2;&lt;br /&gt;
&lt;br /&gt;
% Grafica 1 (superficies 3D)&lt;br /&gt;
figure('Units', 'normalized', 'Position', [0.1, 0.2, 0.8, 0.4]);&lt;br /&gt;
&lt;br /&gt;
subplot(1,2,1);&lt;br /&gt;
surf(X, T, U1); shading interp; colorbar;&lt;br /&gt;
title('Solución con \alpha = 1');&lt;br /&gt;
xlabel('Posición (x)'); ylabel('Tiempo (t)'); zlabel('Temp (u)');&lt;br /&gt;
&lt;br /&gt;
subplot(1,2,2);&lt;br /&gt;
surf(X, T, U2); shading interp; colorbar;&lt;br /&gt;
title('Solución con \alpha = 1/2');&lt;br /&gt;
xlabel('Posición (x)'); ylabel('Tiempo (t)'); zlabel('Temp (u)');&lt;br /&gt;
&lt;br /&gt;
% Gráfica de diferencias en el punto medio ---&lt;br /&gt;
x_idx = round(Nx/2); % Índice correspondiente a x=0.5&lt;br /&gt;
dif1 = U1(:, x_idx) - V2;&lt;br /&gt;
dif2 = U2(:, x_idx) - V2;&lt;br /&gt;
&lt;br /&gt;
figure;&lt;br /&gt;
plot(t, dif1, 'b', 'LineWidth', 2); hold on;&lt;br /&gt;
plot(t, dif2, 'r', 'LineWidth', 2);&lt;br /&gt;
grid on;&lt;br /&gt;
title('Diferencia: u(1/2, t) - v(1/2)');&lt;br /&gt;
xlabel('Tiempo (t)'); ylabel('Temperatura (ºC)');&lt;br /&gt;
legend('\alpha = 1', '\alpha = 1/2');&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo:ComparaSuperf.jpg|izquierda|650px|Comparación de las conductividades térmicas]]&lt;br /&gt;
[[Archivo:ComparaP.jpg|derecha|350px|Comparación entre la solución y el estado estacionario]]&lt;br /&gt;
&lt;br /&gt;
== Efecto de un dato inicial discontinuo ==&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a estudiar la ecuación del calor cuando cambiamos la temperatura inicial de la varilla. Tenemos que ambos extremos se mantienen a temperatura constante &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;, y la temperatura inicial viene dado por la función:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_0(x)=10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Esto significa que la varilla comienza a &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt; excepto en el segmento central &amp;lt;math&amp;gt;[1/3,2/3]&amp;lt;/math&amp;gt;, donde la temperatura inicial es &amp;lt;math&amp;gt;0ºC&amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
El sistema de EDPs que modela el comportamiento de la temperatura  &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; es el siguiente:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        u_t - u_{xx}=0 &amp;amp; \text{en } (0,1) \times (0, \infty) \\[10pt]&lt;br /&gt;
        u(0,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(1,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(x,0) = 10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x) &amp;amp; x \in [0,1]&lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Solución estacionaria====&lt;br /&gt;
&lt;br /&gt;
El estado estacionario se obtiene imponiendo que la temperatura no depende del tiempo. Entonces el problema para la solución estacionaria es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        - v_{xx}=0 \\[10pt]&lt;br /&gt;
        v(0) = 10  \\[5pt]&lt;br /&gt;
        v(1) = 10 &lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
La solución general es &amp;lt;math&amp;gt;v(x)=Ax+B&amp;lt;/math&amp;gt;. Aplicamos las condiciones de contorno y obtenemos que &amp;lt;math&amp;gt;B=10 &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;A=0 &amp;lt;/math&amp;gt;. Por tanto, la solución es simplemente &amp;lt;math&amp;gt;v(x)=10 &amp;lt;/math&amp;gt;, lo cual tiene sentido ya que como ambos extremos están a la misma temperatura, el estado de equilibrio es una temperatura uniforme en toda la varilla.&lt;br /&gt;
&lt;br /&gt;
==== Solución del problema y visualización ====&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a encontrar la solución al problema original utilizando el método de separación de variables. Se define el cambio variable &amp;lt;math&amp;gt;w(x,t)=u(x)-v(x,t)=u(x,t)-10&amp;lt;/math&amp;gt;, que satisface la ecuación de calor con condiciones de contorno homogéneas &amp;lt;math&amp;gt; w(0,t)=w(1,t)=0 &amp;lt;/math&amp;gt; y dato inicial  &amp;lt;math&amp;gt;w(x,0) = u(x,0) - v(x) = - 10 \, \mathbf{1}_{[1/3,2/3]}(x)&amp;lt;/math&amp;gt;. La solución por separación de variables es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; u(x,t) = 10+  \sum_{n=1}^{\infty} b_n e^{-(n\pi)^2 t} \sin(n\pi x) &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Podemos calcular los coeficientes de Fourier de manera analítica, pero en este apartado nos piden aproximar los coeficientes. El siguiente código de Matlab aproxima los coeficientes integrando numéricamente mediante la regla del trapecio y representa la solución &amp;lt;math&amp;gt; u(x,t) &amp;lt;/math&amp;gt; como superficie tridimensional:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
x = linspace(0,1,200);&lt;br /&gt;
t = linspace(0,1,100);&lt;br /&gt;
[X,T] = meshgrid(x,t);&lt;br /&gt;
&lt;br /&gt;
u = 10*ones(size(X)); % parte estacionaria&lt;br /&gt;
&lt;br /&gt;
for n=1:10&lt;br /&gt;
    f = @(x) -10*(x&amp;gt;=1/3 &amp;amp; x&amp;lt;=2/3).*sin(n*pi*x);&lt;br /&gt;
    bn = 2*trapz(x,f(x));&lt;br /&gt;
    &lt;br /&gt;
    u = u + bn*sin(n*pi*X).*exp(-n^2*pi^2*T);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
surf(X,T,u)&lt;br /&gt;
shading interp&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('t')&lt;br /&gt;
zlabel('u(x,t)')&lt;br /&gt;
title('Evolución de la temperatura')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo: Evoluciontemp.jpg|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; podemos ver que el intervalo &amp;lt;math&amp;gt; [1/3,2/3] &amp;lt;/math&amp;gt; está a &amp;lt;math&amp;gt; 0ºC &amp;lt;/math&amp;gt; mientras que el resto de la varilla está a &amp;lt;math&amp;gt; 10ºC &amp;lt;/math&amp;gt;. A medida que &amp;lt;math&amp;gt; t &amp;lt;/math&amp;gt; crece, el calor se va distribuyendo por toda la barra hasta alcanzar la temperatura uniforme &amp;lt;math&amp;gt; v(x)=10 &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== Cambiamos condiciones frontera ==&lt;br /&gt;
&lt;br /&gt;
Al estar el extremo izquierdo (&amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt;) aislado térmicamente, el flujo de calor en ese punto es cero, lo que se traduce en una condición de contorno de Neumann (&amp;lt;math&amp;gt;u_x(0,t) = 0&amp;lt;/math&amp;gt;). El extremo derecho (&amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;) se mantiene a &amp;lt;math&amp;gt;10^\circ C&amp;lt;/math&amp;gt;. La condición inicial sigue siendo la del apartado 7.&lt;br /&gt;
&lt;br /&gt;
El sistema de la EDP queda así:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \begin{cases}&lt;br /&gt;
u_t = u_{xx}, \quad x \in (0,1), \ t &amp;gt; 0 \\&lt;br /&gt;
u_x(0,t) = 0 \\&lt;br /&gt;
u(1,t) = 10 \\&lt;br /&gt;
u(x,0) = 10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x) &amp;amp; x \in [0,1]&lt;br /&gt;
\end{cases} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Solución estacionaria'''&lt;br /&gt;
&lt;br /&gt;
La solución del estado estacionario &amp;lt;math&amp;gt;v(x)&amp;lt;/math&amp;gt; no depende del tiempo, obteniéndose el problema &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \begin{cases}&lt;br /&gt;
-v_{xx}=0\\&lt;br /&gt;
v(0) = 0 \\&lt;br /&gt;
v(1) = 10 &lt;br /&gt;
\end{cases} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Luego, resolviendo el problema con las condiciones iniciales dadas, se obtiene que la solución estacionaria es&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;v(x) = 10&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Solución para el sistema homogéneo'''&lt;br /&gt;
&lt;br /&gt;
Aplicamos separación de variables para el problema homogéneo, donde obtenemos que los autovalores son &amp;lt;math&amp;gt;\lambda_n = \left(\frac{(2n-1)\pi}{2}\right)^2&amp;lt;/math&amp;gt; y la nueva base de autofunciones es:&lt;br /&gt;
:&amp;lt;math&amp;gt;X_n(x) = \cos\left(\frac{(2n-1)\pi}{2} x\right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Comprobación analítica de la ortogonalidad'''&lt;br /&gt;
&lt;br /&gt;
El enunciado pide comprobar explícitamente que estas autofunciones son ortogonales en &amp;lt;math&amp;gt;[0,1]&amp;lt;/math&amp;gt;. Debemos demostrar que para &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;\int_0^1 \cos\left(\frac{(2n-1)\pi}{2} x\right) \cos\left(\frac{(2m-1)\pi}{2} x\right) dx = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usamos la identidad trigonométrica &amp;lt;math&amp;gt;\cos(A)\cos(B) = \frac{1}{2}[\cos(A+B) + \cos(A-B)]&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \int_0^1 \left[ \cos\left( \frac{(2n+2m-2)\pi}{2} x \right) + \cos\left( \frac{(2n-2m)\pi}{2} x \right) \right] dx&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \int_0^1 \left[ \cos((n+m-1)\pi x) + \cos((n-m)\pi x) \right] dx&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Al integrar y evaluar entre 0 y 1:&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \left[ \frac{\sin((n+m-1)\pi x)}{(n+m-1)\pi} + \frac{\sin((n-m)\pi x)}{(n-m)\pi} \right]_0^1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sustituyendo &amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;, el seno de cualquier múltiplo entero de &amp;lt;math&amp;gt;\pi&amp;lt;/math&amp;gt; es siempre 0. Al evaluar en &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt;, los senos también son 0. Por tanto, &amp;lt;math&amp;gt;I = 0&amp;lt;/math&amp;gt;, quedando demostrada analíticamente su ortogonalidad.&lt;br /&gt;
&lt;br /&gt;
''' Solución y cálculo de coeficientes'''&lt;br /&gt;
&lt;br /&gt;
La solución temporal es &amp;lt;math&amp;gt;T_n(t) = e^{-\left(\frac{(2n-1)\pi}{2}\right)^2 t}&amp;lt;/math&amp;gt;. Superponiendo todas las soluciones, recuperamos &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = 10 + \sum_{n=1}^{\infty} c_n \cos\left(\frac{(2n-1)\pi}{2} x\right) e^{-\left(\frac{(2n-1)\pi}{2}\right)^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Como realizamos en el apartado anterior, aproximamos los coeficientes de Fourier numéricamente. La integral exacta para nuestra nueva base es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;c_n = 2 \int_0^1 v(x,0) \cos\left(\frac{(2n-1)\pi}{2} x\right) dx&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esta integral la aproximaremos utilizando las funciones de cuadratura incluidas en Matlab. Además, igual que en los apartados anteriores representaremos la solución tridimensional utilizando el código que muestra a continuación:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
Nx = 100; % Subintervalos en x&lt;br /&gt;
Nt = 100; % Subintervalos en t&lt;br /&gt;
x = linspace(0, 1, Nx+1);&lt;br /&gt;
t = linspace(0, 1, Nt+1);&lt;br /&gt;
&lt;br /&gt;
[X, T] = meshgrid(x, t); &lt;br /&gt;
&lt;br /&gt;
% Condición inicial transitoria v(x,0)&lt;br /&gt;
v0 = zeros(1, length(x));&lt;br /&gt;
v0(x &amp;gt;= 1/3 &amp;amp; x &amp;lt;= 2/3) = -10; &lt;br /&gt;
&lt;br /&gt;
% Coeficientes de Fourier &lt;br /&gt;
num_terminos = 10;&lt;br /&gt;
c = zeros(1, num_terminos);&lt;br /&gt;
&lt;br /&gt;
for n = 1:num_terminos&lt;br /&gt;
    % Autofunciones&lt;br /&gt;
    mu_n = (2*n - 1) * pi / 2;&lt;br /&gt;
    &lt;br /&gt;
    % Función a integrar&lt;br /&gt;
    fx = v0 .* cos(mu_n * x);&lt;br /&gt;
    &lt;br /&gt;
    % Cuadratura con la regla del trapecio&lt;br /&gt;
    c(n) = 2 * trapz(x, fx);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Solución&lt;br /&gt;
U_transitoria = zeros(size(X));&lt;br /&gt;
&lt;br /&gt;
% Sumamos los primeros 10 términos de la serie&lt;br /&gt;
for n = 1:num_terminos&lt;br /&gt;
    mu_n = (2*n - 1) * pi / 2;&lt;br /&gt;
    termino_n = c(n) * cos(mu_n * X) .* exp(-(mu_n^2) * T);&lt;br /&gt;
    U_transitoria = U_transitoria + termino_n;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% La solución total es la suma de la parte transitoria y el estado estacionario&lt;br /&gt;
U_total = 10 + U_transitoria;&lt;br /&gt;
&lt;br /&gt;
% Representación tridimensional&lt;br /&gt;
figure;&lt;br /&gt;
surf(X, T, U_total, 'EdgeColor', 'none');&lt;br /&gt;
colormap jet; &lt;br /&gt;
colorbar;    &lt;br /&gt;
xlabel('Posición x');&lt;br /&gt;
ylabel('Tiempo t');&lt;br /&gt;
zlabel('Temperatura u(x,t)');&lt;br /&gt;
title('Evolución de la temperatura u(x,t)');&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Archivo:grafica_calor_apartado8.png|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==  Principio del máximo ==&lt;br /&gt;
&lt;br /&gt;
El principio del máximo para la ecuación del calor nos dice que los valores máximos y mínimos de la solución en el dominio se alcanzan en la frontera parabólica, es decir, en las condiciones iniciales o en las de contorno.&lt;br /&gt;
&lt;br /&gt;
En nuestro caso tenemos que las condiciones de contorno son:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; u(0,t)=u(1,t)=10 &amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
y el dato inicial cumple que:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; 0 \leq u_0(x) \leq 10&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Por tanto, todos los valores de la solución en la frontera están entre 0 y 10. Aplicando el principio del máximo, tenemos que:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; 0 \leq u(x,t) \leq 10 \text{ para todo } x\in [0,1], t&amp;gt;0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== Principio de comparación ==&lt;br /&gt;
&lt;br /&gt;
El principio de comparación para la ecuación del calor establece que si tenemos dos soluciones &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;v(x,t)&amp;lt;/math&amp;gt; definidas en un dominio &amp;lt;math&amp;gt;[0,1] \times [0,T]&amp;lt;/math&amp;gt;, y se cumple que &amp;lt;math&amp;gt;u \le v&amp;lt;/math&amp;gt; en la '''frontera parabólica''' (es decir, en la condición inicial &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; y en los extremos &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;), entonces &amp;lt;math&amp;gt;u(x,t) \le v(x,t)&amp;lt;/math&amp;gt; en todo el dominio para cualquier &amp;lt;math&amp;gt;t &amp;gt; 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Para ilustrar este principio, vamos a elegir dos soluciones analíticas sencillas de la ecuación del calor homogénea (&amp;lt;math&amp;gt;u_t = u_{xx}&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;v_t = v_{xx}&amp;lt;/math&amp;gt;) que cumplan estas condiciones.&lt;br /&gt;
&lt;br /&gt;
'''Elección de las soluciones:'''&lt;br /&gt;
* '''Solución 1 (&amp;lt;math&amp;gt;u&amp;lt;/math&amp;gt;):''' Elegimos una condición inicial &amp;lt;math&amp;gt;u(x,0) = \sin(\pi x)&amp;lt;/math&amp;gt; con extremos fijos a temperatura cero (&amp;lt;math&amp;gt;u(0,t) = u(1,t) = 0&amp;lt;/math&amp;gt;). Su solución exacta es un único término de la serie de Fourier:&lt;br /&gt;
:: &amp;lt;math&amp;gt;u(x,t) = \sin(\pi x) e^{-\pi^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Solución 2 (&amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt;):''' Elegimos una condición inicial que sea el doble de la anterior, &amp;lt;math&amp;gt;v(x,0) = 2\sin(\pi x)&amp;lt;/math&amp;gt;, también con extremos a cero (&amp;lt;math&amp;gt;v(0,t) = v(1,t) = 0&amp;lt;/math&amp;gt;). Su solución exacta es:&lt;br /&gt;
:: &amp;lt;math&amp;gt;v(x,t) = 2\sin(\pi x) e^{-\pi^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Comprobación en la frontera parabólica:'''&lt;br /&gt;
1. En &amp;lt;math&amp;gt;t = 0&amp;lt;/math&amp;gt;: Como &amp;lt;math&amp;gt;x \in [0,1]&amp;lt;/math&amp;gt;, el seno siempre es positivo. Por tanto, &amp;lt;math&amp;gt;\sin(\pi x) \le 2\sin(\pi x)&amp;lt;/math&amp;gt;, lo que implica &amp;lt;math&amp;gt;u(x,0) \le v(x,0)&amp;lt;/math&amp;gt;.&lt;br /&gt;
2. En &amp;lt;math&amp;gt;x = 0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x = 1&amp;lt;/math&amp;gt;: Se cumple que &amp;lt;math&amp;gt;0 \le 0&amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt;u(0,t) \le v(0,t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;u(1,t) \le v(1,t)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Dado que &amp;lt;math&amp;gt;u \le v&amp;lt;/math&amp;gt; en toda la frontera parabólica, el principio de comparación asegura que la superficie de &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; estará siempre por debajo de la superficie de &amp;lt;math&amp;gt;v(x,t)&amp;lt;/math&amp;gt;.&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Ecuaci%C3%B3n_del_calor_LAJS&amp;diff=104436</id>
		<title>Ecuación del calor LAJS</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Ecuaci%C3%B3n_del_calor_LAJS&amp;diff=104436"/>
				<updated>2026-04-08T07:45:03Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_Calor_LAJS.png||900px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_Calor_LAJS.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
&lt;br /&gt;
El estudio de la ecuación del calor es fundamental a la hora de estudiar cómo la temperatura se distribuye en un cuerpo a lo largo del tiempo mediante procesos de difusión. En este trabajo, nos centramos en el análisis de una varilla metálica unidimensional de longitud $L=1$. El objetivo principal será comprender propiedades clave como la convergencia al estado estacionario, la influencia de las condiciones de contorno (Dirichlet y Neumann) y el comportamiento de la solución ante datos iniciales discontinuos. A través de la resolución por separación de variables y la implementación de códigos en MATLAB, ilustraremos fenómenos como el fenómeno de Gibbs y la velocidad infinita de propagación. Además, analizaremos la sensibilidad del sistema frente a cambios en la conductividad térmica, evaluando cómo este parámetro altera la tasa de decaimiento temporal de las soluciones.&lt;br /&gt;
&lt;br /&gt;
== Planteamiento y solución del problema ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos considerando una varilla metálica que ocupa el intervalo &amp;lt;math&amp;gt;[0, 1]&amp;lt;/math&amp;gt; y que se encuentra aislada por su superficie lateral, de forma que la conducción de calor únicamente ocurre en dirección longitudinal. La temperatura inicial de la varilla será de &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;. En el extremo derecho la temperatura se mantiene en &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;, mientras que en el izquierdo la temperatura es siempre de &amp;lt;math&amp;gt;1ºC&amp;lt;/math&amp;gt;. Por tanto, si consideramos las constantes de conductividad térmica y calor específico iguales a uno, la ecuación que modeliza nuestro problema queda &amp;lt;math&amp;gt;u_t - u_{xx}=0, \quad x \in (0,1), \ t &amp;gt; 0&amp;lt;/math&amp;gt;, sujeta a las condiciones de contorno &amp;lt;math&amp;gt;u(0,t) = 1&amp;lt;/math&amp;gt; (extremo izquierdo) y &amp;lt;math&amp;gt;u(1,t) = 10&amp;lt;/math&amp;gt; (extremo derecho). Por último, la condición inicial será &amp;lt;math&amp;gt;u(x,0) = 10 \quad \forall x \in [0,1]&amp;lt;/math&amp;gt;. El sistema de EDPs que modeliza nuestro problema queda:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        u_t - u_{xx}=0 &amp;amp; \text{en } (0,1) \times (0, \infty) \\[10pt]&lt;br /&gt;
        u(0,t) = 1 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(1,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(x,0) = 10 &amp;amp; x \in [0,1]&lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===== Solución estacionaria =====&lt;br /&gt;
&lt;br /&gt;
En cuanto a la ecuación del estado estacionario, sabemos que ocurre al suponer &amp;lt;math&amp;gt;t \to \infty &amp;lt;/math&amp;gt; y que por tanto la solución ya no varía en tiempo, es decir, cuando &amp;lt;math&amp;gt; u_t \sim 0 &amp;lt;/math&amp;gt;. Entonces el problema para la solución estacionaria es &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        - v_{xx}=0 &amp;amp; \text{en } (0,1) \\[10pt]&lt;br /&gt;
        v(0) = 1  \\[5pt]&lt;br /&gt;
        v(1) = 10 &lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lo que nos da una EDO que se resuelve fácilmente y se llega a la solución &amp;lt;math&amp;gt; v(x)=9x+1 &amp;lt;/math&amp;gt;. En la siguiente imagen podemos ver la gráfica de esta solución, que representa la temperatura que observaríamos si dejáramos pasar mucho tiempo bajo las condiciones descritas.&lt;br /&gt;
&lt;br /&gt;
[[Archivo:SolEstacionaria.png|thumb|300px|Visualización de la solución estacionaria]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Solución del problema y visualización ====&lt;br /&gt;
&lt;br /&gt;
A continuación hallamos la solución al problema original, que lo haremos por el método de separación de variables. La forma de resolverlo es considerando la solución como la suma del estado estacionario y una solución transitoria &amp;lt;math&amp;gt;w(x,t)&amp;lt;/math&amp;gt; que cumple condiciones de contorno, es decir, &amp;lt;math&amp;gt;u(x,t) = v(x) + w(x,t)&amp;lt;/math&amp;gt;. La parte &amp;lt;math&amp;gt;w(x,t)&amp;lt;/math&amp;gt; se calcula mediante la serie de Fourier &amp;lt;math&amp;gt;w(x,t) = \sum_{n=1}^{\infty} b_n e^{-(n\pi)^2 t} \sin(n\pi x)&amp;lt;/math&amp;gt;, donde los coeficientes &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; se calculan a partir de la condición inicial &amp;lt;math&amp;gt;w(x,0) = u(x,0) - v(x) = 10 - (9x + 1) = 9 - 9x&amp;lt;/math&amp;gt;. La solución final a nuestro problema es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = (9x + 1) + \sum_{n=1}^{\infty} \left( \frac{18}{n\pi} \right) e^{-(n\pi)^2 t} \sin(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Para la visualización de esta solución hemos creado un código en Matlab que nos da una gráfica tridimensional, que utiliza los primeros 10 términos de la serie de Fourier en el intervalo de tiempo [0, 1]. En la imagen que genera el código podemos observar que el extremo derecho de la varilla comienza en una temperatura de &amp;lt;math&amp;gt;10^{\circ}C&amp;lt;/math&amp;gt;, y sin embargo, en el extremo izquierdo la temperatura cae hasta &amp;lt;math&amp;gt;1^{\circ}C&amp;lt;/math&amp;gt;. Además se observa el fenómeno de Gibbs en la gráfica: las oscilaciones que se ven cerca de &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; son una consecuencia de usar solo 10 términos de la serie de Fourier. Al intentar aproximar una discontinuidad (el salto de &amp;lt;math&amp;gt;10^{\circ}C&amp;lt;/math&amp;gt; a &amp;lt;math&amp;gt;1^{\circ}C&amp;lt;/math&amp;gt;), aparecen estas oscilaciones que desaparecen a medida que el tiempo avanza y la solución se suaviza. Se aprecia que cerca de &amp;lt;math&amp;gt;t=1&amp;lt;/math&amp;gt;, la superficie es prácticamente una superficie plana inclinada, lo que indica que el sistema ha alcanzado o está muy cerca de su estado estacionario.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Parámetros iniciales&lt;br /&gt;
L = 1;  &lt;br /&gt;
t_final = 1;&lt;br /&gt;
Nx = 50;            &lt;br /&gt;
Nt = 50;            &lt;br /&gt;
&lt;br /&gt;
x = linspace(0, L, Nx);&lt;br /&gt;
t = linspace(0, t_final, Nt);&lt;br /&gt;
[X, T] = meshgrid(x, t);&lt;br /&gt;
&lt;br /&gt;
% Solución estacionaria: v = 9x + 1 &lt;br /&gt;
V = 9*X + 1;&lt;br /&gt;
&lt;br /&gt;
% Parte transitoria: suma de los primeros 10 términos de Fourier &lt;br /&gt;
W = zeros(size(X));&lt;br /&gt;
for n = 1:10&lt;br /&gt;
    bn = 18 / (n * pi);&lt;br /&gt;
    W = W + bn * exp(-(n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Solución final: u(x,t) = v(x) + w(x,t) &lt;br /&gt;
U = V + W;&lt;br /&gt;
&lt;br /&gt;
% Gráfica&lt;br /&gt;
figure;&lt;br /&gt;
surf(X, T, U);&lt;br /&gt;
shading interp; % Suaviza los colores&lt;br /&gt;
colorbar;&lt;br /&gt;
title('Evolución de la Temperatura (Primeros 10 términos)');&lt;br /&gt;
xlabel('Posición (x)');&lt;br /&gt;
ylabel('Tiempo (t)');&lt;br /&gt;
zlabel('Temperatura (u)');&lt;br /&gt;
grid on;&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:SolGrafica.png|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Estudio del flujo de calor en los extremos ==&lt;br /&gt;
&lt;br /&gt;
Para analizar el flujo de calor en los extremos de la barra a lo largo del tiempo utilizamos la ley de Fourier, que asegura que el flujo es proporcional al gradiente de temperatura: &amp;lt;math&amp;gt;q = -k u_x&amp;lt;/math&amp;gt;. Como en el problema hemos asumido que la conductividad térmica era uno, resulta que el flujo es igual a la derivada espacial evaluada en los bordes de la barra. La derivada respecto de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; que obtuvimos antes es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_x = 9 + \sum_{n=1}^{\infty} b_n n\pi e^{-(n\pi)^2 t} \cos(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
De nuevo, hemos desarrollado un código en Matlab para dibujar la evolución del flujo entrante y saliente. De la imagen que nos devuelve el código podemos interpretar varias cosas: en primer lugar, vemos que ambos flujos convergen al valor 9, lo que tiene sentido porque antes hemos calculado que la solución estacionaria era &amp;lt;math&amp;gt;v(x)=9x+1&amp;lt;/math&amp;gt;. Además en &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; el flujo es muy elevado, y esto se debe a que, como la barra está a &amp;lt;math&amp;gt;10 \circ C&amp;lt;/math&amp;gt; en un extremo y a &amp;lt;math&amp;gt;1 \circ C&amp;lt;/math&amp;gt; en el otro, hay una salida muy fuerte de energía hacia el exterior por la parte izquierda de la barra. De la misma manera, en el extremo derecho inicialmente el flujo es cercano a cero porque la barra y el borde están a la misma temperatura, y el flujo empieza a variar cuando el enfriamiento de la izquierda llega al lado derecho. Esta gráfica está relacionada con la que hemos visto antes: el flujo es la pendiente de la superficie que hemos dibujado antes.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Parámetros&lt;br /&gt;
L = 1;&lt;br /&gt;
t = linspace(0.01, 1, 100); % Mejor evitar t=0 por la discontinuidad inicial&lt;br /&gt;
flujo0 = zeros(size(t));&lt;br /&gt;
flujo1 = zeros(size(t));&lt;br /&gt;
&lt;br /&gt;
% Cálculo de los flujos usando 10 términos&lt;br /&gt;
for i = 1:length(t)&lt;br /&gt;
    sum_i = 0;&lt;br /&gt;
    sum_d = 0;&lt;br /&gt;
    for n = 1:10&lt;br /&gt;
        bn = 18 / (n * pi);&lt;br /&gt;
        term_base = bn * (n * pi) * exp(-(n*pi)^2 * t(i));&lt;br /&gt;
        sum_i = sum_i + term_base * cos(0);          % cos(n*pi*0) = 1&lt;br /&gt;
        sum_d = sum_d + term_base * cos(n * pi);     % cos(n*pi) = (-1)^n&lt;br /&gt;
    end&lt;br /&gt;
    flujo0(i) = 9 + sum_i;&lt;br /&gt;
    flujo1(i) = 9 + sum_d;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Gráfica&lt;br /&gt;
figure;&lt;br /&gt;
plot(t, flujo0, 'b', 'LineWidth', 2); hold on;&lt;br /&gt;
plot(t, flujo1, 'r', 'LineWidth', 2);&lt;br /&gt;
grid on;&lt;br /&gt;
legend('Flujo en x=0 ', 'Flujo en x=1');&lt;br /&gt;
title('Flujo de calor en los extremos a lo largo del tiempo');&lt;br /&gt;
xlabel('Tiempo (t)');&lt;br /&gt;
ylabel('Gradiente de Temperatura u_x');&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Flujoo1.jpg|centro|300px|Flujo de calor]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Efecto de cambiar la conductividad ==&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a cambiar la conductividad térmica de la varilla de &amp;lt;math&amp;gt;\alpha=1&amp;lt;/math&amp;gt; a &amp;lt;math&amp;gt;\alpha=1/2&amp;lt;/math&amp;gt;. Esto quiere decir que ahora el calor se mueve de manera más lenta a lo largo de la varilla y que por tanto se tardará más en llegar al estado estacionario. Entonces tenemos que con este cambio la nueva ecuación del calor es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_t - \frac{1}{2}u_{xx}=0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La nueva solución es muy parecida a la de antes:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = (9x + 1) + \sum_{n=1}^{\infty} \left( \frac{18}{n\pi} \right) e^{-\frac{(n\pi)^2 t}{2}} \sin(n\pi x)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pero ahora la varilla tarda más en calentarse o enfriarse en cada punto, es decir, la solución se aproxima más despacio al estado estacionario. &lt;br /&gt;
&lt;br /&gt;
Para compararlas, hemos creado un código en Matlab donde calcularemos las dos soluciones  (&amp;lt;math&amp;gt;\alpha=1&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;\alpha=1/2&amp;lt;/math&amp;gt;) usando los primeros 10 términos de la serie&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
L = 1; t_final = 1; Nx = 60; Nt = 60;&lt;br /&gt;
x = linspace(0, L, Nx);&lt;br /&gt;
t = linspace(0, t_final, Nt);&lt;br /&gt;
[X, T] = meshgrid(x, t);&lt;br /&gt;
&lt;br /&gt;
% Estado Estacionario &lt;br /&gt;
V1 = 9*X + 1; &lt;br /&gt;
V2 = 9*0.5 + 1; % Valor en x=0.5&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la serie de Fourier para ambos coeficientes&lt;br /&gt;
W1 = zeros(size(X)); &lt;br /&gt;
W2 = zeros(size(X)); &lt;br /&gt;
&lt;br /&gt;
for n = 1:10&lt;br /&gt;
    bn = 18 / (n * pi);&lt;br /&gt;
    % Caso alpha = 1&lt;br /&gt;
    W1 = W1 + bn * exp(-(n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
    % Caso alpha = 1/2&lt;br /&gt;
    W2 = W2 + bn * exp(-0.5 * (n*pi)^2 * T) .* sin(n*pi * X);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
U1 = V1 + W1;&lt;br /&gt;
U2 = V1 + W2;&lt;br /&gt;
&lt;br /&gt;
% Grafica 1 (superficies 3D)&lt;br /&gt;
figure('Units', 'normalized', 'Position', [0.1, 0.2, 0.8, 0.4]);&lt;br /&gt;
&lt;br /&gt;
subplot(1,2,1);&lt;br /&gt;
surf(X, T, U1); shading interp; colorbar;&lt;br /&gt;
title('Solución con \alpha = 1');&lt;br /&gt;
xlabel('Posición (x)'); ylabel('Tiempo (t)'); zlabel('Temp (u)');&lt;br /&gt;
&lt;br /&gt;
subplot(1,2,2);&lt;br /&gt;
surf(X, T, U2); shading interp; colorbar;&lt;br /&gt;
title('Solución con \alpha = 1/2');&lt;br /&gt;
xlabel('Posición (x)'); ylabel('Tiempo (t)'); zlabel('Temp (u)');&lt;br /&gt;
&lt;br /&gt;
% Gráfica de diferencias en el punto medio ---&lt;br /&gt;
x_idx = round(Nx/2); % Índice correspondiente a x=0.5&lt;br /&gt;
dif1 = U1(:, x_idx) - V2;&lt;br /&gt;
dif2 = U2(:, x_idx) - V2;&lt;br /&gt;
&lt;br /&gt;
figure;&lt;br /&gt;
plot(t, dif1, 'b', 'LineWidth', 2); hold on;&lt;br /&gt;
plot(t, dif2, 'r', 'LineWidth', 2);&lt;br /&gt;
grid on;&lt;br /&gt;
title('Diferencia: u(1/2, t) - v(1/2)');&lt;br /&gt;
xlabel('Tiempo (t)'); ylabel('Temperatura (ºC)');&lt;br /&gt;
legend('\alpha = 1', '\alpha = 1/2');&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo:ComparaSuperf.jpg|izquierda|650px|Comparación de las conductividades térmicas]]&lt;br /&gt;
[[Archivo:ComparaP.jpg|derecha|350px|Comparación entre la solución y el estado estacionario]]&lt;br /&gt;
&lt;br /&gt;
== Efecto de un dato inicial discontinuo ==&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a estudiar la ecuación del calor cuando cambiamos la temperatura inicial de la varilla. Tenemos que ambos extremos se mantienen a temperatura constante &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt;, y la temperatura inicial viene dado por la función:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;u_0(x)=10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Esto significa que la varilla comienza a &amp;lt;math&amp;gt;10ºC&amp;lt;/math&amp;gt; excepto en el segmento central &amp;lt;math&amp;gt;[1/3,2/3]&amp;lt;/math&amp;gt;, donde la temperatura inicial es &amp;lt;math&amp;gt;0ºC&amp;lt;/math&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
El sistema de EDPs que modela el comportamiento de la temperatura  &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; es el siguiente:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        u_t - u_{xx}=0 &amp;amp; \text{en } (0,1) \times (0, \infty) \\[10pt]&lt;br /&gt;
        u(0,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(1,t) = 10 &amp;amp; t &amp;gt; 0 \\[5pt]&lt;br /&gt;
        u(x,0) = 10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x) &amp;amp; x \in [0,1]&lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
====Solución estacionaria====&lt;br /&gt;
&lt;br /&gt;
El estado estacionario se obtiene imponiendo que la temperatura no depende del tiempo. Entonces el problema para la solución estacionaria es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\begin{cases} &lt;br /&gt;
        - v_{xx}=0 \\[10pt]&lt;br /&gt;
        v(0) = 10  \\[5pt]&lt;br /&gt;
        v(1) = 10 &lt;br /&gt;
        \end{cases}&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
La solución general es &amp;lt;math&amp;gt;v(x)=Ax+B&amp;lt;/math&amp;gt;. Aplicamos las condiciones de contorno y obtenemos que &amp;lt;math&amp;gt;B=10 &amp;lt;/math&amp;gt;,  &amp;lt;math&amp;gt;A=0 &amp;lt;/math&amp;gt;. Por tanto, la solución es simplemente &amp;lt;math&amp;gt;v(x)=10 &amp;lt;/math&amp;gt;, lo cual tiene sentido ya que como ambos extremos están a la misma temperatura, el estado de equilibrio es una temperatura uniforme en toda la varilla.&lt;br /&gt;
&lt;br /&gt;
==== Solución del problema y visualización ====&lt;br /&gt;
&lt;br /&gt;
Ahora vamos a encontrar la solución al problema original utilizando el método de separación de variables. Se define el cambio variable &amp;lt;math&amp;gt;w(x,t)=u(x)-v(x,t)=u(x,t)-10&amp;lt;/math&amp;gt;, que satisface la ecuación de calor con condiciones de contorno homogéneas &amp;lt;math&amp;gt; w(0,t)=w(1,t)=0 &amp;lt;/math&amp;gt; y dato inicial  &amp;lt;math&amp;gt;w(x,0) = u(x,0) - v(x) = - 10 \, \mathbf{1}_{[1/3,2/3]}(x)&amp;lt;/math&amp;gt;. La solución por separación de variables es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; u(x,t) = 10+  \sum_{n=1}^{\infty} b_n e^{-(n\pi)^2 t} \sin(n\pi x) &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Podemos calcular los coeficientes de Fourier de manera analítica, pero en este apartado nos piden aproximar los coeficientes. El siguiente código de Matlab aproxima los coeficientes integrando numéricamente mediante la regla del trapecio y representa la solución &amp;lt;math&amp;gt; u(x,t) &amp;lt;/math&amp;gt; como superficie tridimensional:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
x = linspace(0,1,200);&lt;br /&gt;
t = linspace(0,1,100);&lt;br /&gt;
[X,T] = meshgrid(x,t);&lt;br /&gt;
&lt;br /&gt;
u = 10*ones(size(X)); % parte estacionaria&lt;br /&gt;
&lt;br /&gt;
for n=1:10&lt;br /&gt;
    f = @(x) -10*(x&amp;gt;=1/3 &amp;amp; x&amp;lt;=2/3).*sin(n*pi*x);&lt;br /&gt;
    bn = 2*trapz(x,f(x));&lt;br /&gt;
    &lt;br /&gt;
    u = u + bn*sin(n*pi*X).*exp(-n^2*pi^2*T);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
surf(X,T,u)&lt;br /&gt;
shading interp&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('t')&lt;br /&gt;
zlabel('u(x,t)')&lt;br /&gt;
title('Evolución de la temperatura')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Archivo: Evoluciontemp.jpg|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
En &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; podemos ver que el intervalo &amp;lt;math&amp;gt; [1/3,2/3] &amp;lt;/math&amp;gt; está a &amp;lt;math&amp;gt; 0ºC &amp;lt;/math&amp;gt; mientras que el resto de la varilla está a &amp;lt;math&amp;gt; 10ºC &amp;lt;/math&amp;gt;. A medida que &amp;lt;math&amp;gt; t &amp;lt;/math&amp;gt; crece, el calor se va distribuyendo por toda la barra hasta alcanzar la temperatura uniforme &amp;lt;math&amp;gt; v(x)=10 &amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== Cambiamos condiciones frontera ==&lt;br /&gt;
&lt;br /&gt;
Al estar el extremo izquierdo (&amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt;) aislado térmicamente, el flujo de calor en ese punto es cero, lo que se traduce en una condición de contorno de Neumann (&amp;lt;math&amp;gt;u_x(0,t) = 0&amp;lt;/math&amp;gt;). El extremo derecho (&amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;) se mantiene a &amp;lt;math&amp;gt;10^\circ C&amp;lt;/math&amp;gt;. La condición inicial sigue siendo la del apartado 7.&lt;br /&gt;
&lt;br /&gt;
El sistema de la EDP queda así:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \begin{cases}&lt;br /&gt;
u_t = u_{xx}, \quad x \in (0,1), \ t &amp;gt; 0 \\&lt;br /&gt;
u_x(0,t) = 0 \\&lt;br /&gt;
u(1,t) = 10 \\&lt;br /&gt;
u(x,0) = 10-10 \,\ \mathbf{1}_{[1/3,2/3]}(x) &amp;amp; x \in [0,1]&lt;br /&gt;
\end{cases} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Solución estacionaria'''&lt;br /&gt;
&lt;br /&gt;
La solución del estado estacionario &amp;lt;math&amp;gt;v(x)&amp;lt;/math&amp;gt; no depende del tiempo, obteniéndose el problema &lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; \begin{cases}&lt;br /&gt;
-v_{xx}=0\\&lt;br /&gt;
v(0) = 0 \\&lt;br /&gt;
v(1) = 10 &lt;br /&gt;
\end{cases} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Luego, resolviendo el problema con las condiciones iniciales dadas, se obtiene que la solución estacionaria es&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;v(x) = 10&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Solución para el sistema homogéneo'''&lt;br /&gt;
&lt;br /&gt;
Aplicamos separación de variables para el problema homogéneo, donde obtenemos que los autovalores son &amp;lt;math&amp;gt;\lambda_n = \left(\frac{(2n-1)\pi}{2}\right)^2&amp;lt;/math&amp;gt; y la nueva base de autofunciones es:&lt;br /&gt;
:&amp;lt;math&amp;gt;X_n(x) = \cos\left(\frac{(2n-1)\pi}{2} x\right)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Comprobación analítica de la ortogonalidad'''&lt;br /&gt;
&lt;br /&gt;
El enunciado pide comprobar explícitamente que estas autofunciones son ortogonales en &amp;lt;math&amp;gt;[0,1]&amp;lt;/math&amp;gt;. Debemos demostrar que para &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;\int_0^1 \cos\left(\frac{(2n-1)\pi}{2} x\right) \cos\left(\frac{(2m-1)\pi}{2} x\right) dx = 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Usamos la identidad trigonométrica &amp;lt;math&amp;gt;\cos(A)\cos(B) = \frac{1}{2}[\cos(A+B) + \cos(A-B)]&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \int_0^1 \left[ \cos\left( \frac{(2n+2m-2)\pi}{2} x \right) + \cos\left( \frac{(2n-2m)\pi}{2} x \right) \right] dx&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \int_0^1 \left[ \cos((n+m-1)\pi x) + \cos((n-m)\pi x) \right] dx&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Al integrar y evaluar entre 0 y 1:&lt;br /&gt;
:&amp;lt;math&amp;gt;I = \frac{1}{2} \left[ \frac{\sin((n+m-1)\pi x)}{(n+m-1)\pi} + \frac{\sin((n-m)\pi x)}{(n-m)\pi} \right]_0^1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sustituyendo &amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;, el seno de cualquier múltiplo entero de &amp;lt;math&amp;gt;\pi&amp;lt;/math&amp;gt; es siempre 0. Al evaluar en &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt;, los senos también son 0. Por tanto, &amp;lt;math&amp;gt;I = 0&amp;lt;/math&amp;gt;, quedando demostrada analíticamente su ortogonalidad.&lt;br /&gt;
&lt;br /&gt;
''' Solución y cálculo de coeficientes'''&lt;br /&gt;
&lt;br /&gt;
La solución temporal es &amp;lt;math&amp;gt;T_n(t) = e^{-\left(\frac{(2n-1)\pi}{2}\right)^2 t}&amp;lt;/math&amp;gt;. Superponiendo todas las soluciones, recuperamos &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt;:&lt;br /&gt;
:&amp;lt;math&amp;gt;u(x,t) = 10 + \sum_{n=1}^{\infty} c_n \cos\left(\frac{(2n-1)\pi}{2} x\right) e^{-\left(\frac{(2n-1)\pi}{2}\right)^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Como realizamos en el apartado anterior, aproximamos los coeficientes de Fourier numéricamente. La integral exacta para nuestra nueva base es:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;c_n = 2 \int_0^1 v(x,0) \cos\left(\frac{(2n-1)\pi}{2} x\right) dx&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esta integral la aproximaremos utilizando las funciones de cuadratura incluidas en Matlab. Además, igual que en los apartados anteriores representaremos la solución tridimensional utilizando el código que muestra a continuación:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;matlab&amp;quot;&amp;gt;&lt;br /&gt;
Nx = 100; % Subintervalos en x&lt;br /&gt;
Nt = 100; % Subintervalos en t&lt;br /&gt;
x = linspace(0, 1, Nx+1);&lt;br /&gt;
t = linspace(0, 1, Nt+1);&lt;br /&gt;
&lt;br /&gt;
[X, T] = meshgrid(x, t); &lt;br /&gt;
&lt;br /&gt;
% Condición inicial transitoria v(x,0)&lt;br /&gt;
v0 = zeros(1, length(x));&lt;br /&gt;
v0(x &amp;gt;= 1/3 &amp;amp; x &amp;lt;= 2/3) = -10; &lt;br /&gt;
&lt;br /&gt;
% Coeficientes de Fourier &lt;br /&gt;
num_terminos = 10;&lt;br /&gt;
c = zeros(1, num_terminos);&lt;br /&gt;
&lt;br /&gt;
for n = 1:num_terminos&lt;br /&gt;
    % Autofunciones&lt;br /&gt;
    mu_n = (2*n - 1) * pi / 2;&lt;br /&gt;
    &lt;br /&gt;
    % Función a integrar&lt;br /&gt;
    fx = v0 .* cos(mu_n * x);&lt;br /&gt;
    &lt;br /&gt;
    % Cuadratura con la regla del trapecio&lt;br /&gt;
    c(n) = 2 * trapz(x, fx);&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Solución&lt;br /&gt;
U_transitoria = zeros(size(X));&lt;br /&gt;
&lt;br /&gt;
% Sumamos los primeros 10 términos de la serie&lt;br /&gt;
for n = 1:num_terminos&lt;br /&gt;
    mu_n = (2*n - 1) * pi / 2;&lt;br /&gt;
    termino_n = c(n) * cos(mu_n * X) .* exp(-(mu_n^2) * T);&lt;br /&gt;
    U_transitoria = U_transitoria + termino_n;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% La solución total es la suma de la parte transitoria y el estado estacionario&lt;br /&gt;
U_total = 10 + U_transitoria;&lt;br /&gt;
&lt;br /&gt;
% Representación tridimensional&lt;br /&gt;
figure;&lt;br /&gt;
surf(X, T, U_total, 'EdgeColor', 'none');&lt;br /&gt;
colormap jet; &lt;br /&gt;
colorbar;    &lt;br /&gt;
xlabel('Posición x');&lt;br /&gt;
ylabel('Tiempo t');&lt;br /&gt;
zlabel('Temperatura u(x,t)');&lt;br /&gt;
title('Evolución de la temperatura u(x,t)');&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Archivo:grafica_calor_apartado8.png|centro|400px|Gráfica de la solución]]&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==  Principio del máximo ==&lt;br /&gt;
&lt;br /&gt;
El principio del máximo para la ecuación del calor nos dice que los valores máximos y mínimos de la solución en el dominio se alcanzan en la frontera parabólica, es decir, en las condiciones iniciales o en las de contorno.&lt;br /&gt;
&lt;br /&gt;
En nuestro caso tenemos que las condiciones de contorno son:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; u(0,t)=u(1,t)=10 &amp;lt;/math&amp;gt;,&lt;br /&gt;
&lt;br /&gt;
y el dato inicial cumple que:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; 0 \leq u_0(x) \leq 10&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Por tanto, todos los valores de la solución en la frontera están entre 0 y 10. Aplicando el principio del máximo, tenemos que:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt; 0 \leq u(x,t) \leq 10 \text{ para todo } x\in [0,1], t&amp;gt;0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== Principio de comparación ==&lt;br /&gt;
&lt;br /&gt;
El principio de comparación para la ecuación del calor establece que si tenemos dos soluciones &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;v(x,t)&amp;lt;/math&amp;gt; definidas en un dominio &amp;lt;math&amp;gt;[0,1] \times [0,T]&amp;lt;/math&amp;gt;, y se cumple que &amp;lt;math&amp;gt;u \le v&amp;lt;/math&amp;gt; en la '''frontera parabólica''' (es decir, en la condición inicial &amp;lt;math&amp;gt;t=0&amp;lt;/math&amp;gt; y en los extremos &amp;lt;math&amp;gt;x=0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x=1&amp;lt;/math&amp;gt;), entonces &amp;lt;math&amp;gt;u(x,t) \le v(x,t)&amp;lt;/math&amp;gt; en todo el dominio para cualquier &amp;lt;math&amp;gt;t &amp;gt; 0&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Para ilustrar este principio, vamos a elegir dos soluciones analíticas sencillas de la ecuación del calor homogénea (&amp;lt;math&amp;gt;u_t = u_{xx}&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;v_t = v_{xx}&amp;lt;/math&amp;gt;) que cumplan estas condiciones.&lt;br /&gt;
&lt;br /&gt;
'''Elección de las soluciones:'''&lt;br /&gt;
* '''Solución 1 (&amp;lt;math&amp;gt;u&amp;lt;/math&amp;gt;):''' Elegimos una condición inicial &amp;lt;math&amp;gt;u(x,0) = \sin(\pi x)&amp;lt;/math&amp;gt; con extremos fijos a temperatura cero (&amp;lt;math&amp;gt;u(0,t) = u(1,t) = 0&amp;lt;/math&amp;gt;). Su solución exacta es un único término de la serie de Fourier:&lt;br /&gt;
:: &amp;lt;math&amp;gt;u(x,t) = \sin(\pi x) e^{-\pi^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Solución 2 (&amp;lt;math&amp;gt;v&amp;lt;/math&amp;gt;):''' Elegimos una condición inicial que sea el doble de la anterior, &amp;lt;math&amp;gt;v(x,0) = 2\sin(\pi x)&amp;lt;/math&amp;gt;, también con extremos a cero (&amp;lt;math&amp;gt;v(0,t) = v(1,t) = 0&amp;lt;/math&amp;gt;). Su solución exacta es:&lt;br /&gt;
:: &amp;lt;math&amp;gt;v(x,t) = 2\sin(\pi x) e^{-\pi^2 t}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''Comprobación en la frontera parabólica:'''&lt;br /&gt;
1. En &amp;lt;math&amp;gt;t = 0&amp;lt;/math&amp;gt;: Como &amp;lt;math&amp;gt;x \in [0,1]&amp;lt;/math&amp;gt;, el seno siempre es positivo. Por tanto, &amp;lt;math&amp;gt;\sin(\pi x) \le 2\sin(\pi x)&amp;lt;/math&amp;gt;, lo que implica &amp;lt;math&amp;gt;u(x,0) \le v(x,0)&amp;lt;/math&amp;gt;.&lt;br /&gt;
2. En &amp;lt;math&amp;gt;x = 0&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x = 1&amp;lt;/math&amp;gt;: Se cumple que &amp;lt;math&amp;gt;0 \le 0&amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt;u(0,t) \le v(0,t)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;u(1,t) \le v(1,t)&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Dado que &amp;lt;math&amp;gt;u \le v&amp;lt;/math&amp;gt; en toda la frontera parabólica, el principio de comparación asegura que la superficie de &amp;lt;math&amp;gt;u(x,t)&amp;lt;/math&amp;gt; estará siempre por debajo de la superficie de &amp;lt;math&amp;gt;v(x,t)&amp;lt;/math&amp;gt;.&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_Calor_LAJS.png&amp;diff=104435</id>
		<title>Archivo:Poster Calor LAJS.png</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_Calor_LAJS.png&amp;diff=104435"/>
				<updated>2026-04-08T07:40:20Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104258</id>
		<title>Series de Fourier (LAJS)</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104258"/>
				<updated>2026-02-18T22:41:24Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ TrabajoED | Series de Fourier. Grupo 6-A | [[:Categoría:EDP|EDP]]|[[:Categoría:EDP25/26|2025-26]] | Leire Aparicio Urbiola&lt;br /&gt;
&lt;br /&gt;
Álvaro Silva Blanco &lt;br /&gt;
&lt;br /&gt;
Julia Calado Bonnin&lt;br /&gt;
&lt;br /&gt;
Sofía García Suárez&lt;br /&gt;
&lt;br /&gt;
 }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Categoría:EDP]]&lt;br /&gt;
[[Categoría:EDP25/26]]&lt;br /&gt;
&lt;br /&gt;
== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.png||900px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
La manera más común de representar la serie de Fourier de una función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; es mediante&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
  f(x) \sim\frac{a_0}{2 \pi} + \sum_{n=1}^{N} \left( a_n \frac{1}{\sqrt{\pi}} \cos(n x) + b_n \frac{1}{\sqrt{\pi}} \sin (n x)\right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siendo &amp;lt;math&amp;gt; a_0,a_n,b_n &amp;lt;/math&amp;gt; los coeficientes de Fourier, que se calculan mediante las integrales:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
a_0 = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} f(x) dx \quad a_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \cos(n x) f(x) dx \quad b_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \sin(n x) f(x) dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; se expresa como una combinación lineal de funciones seno y coseno con coeficientes constantes. Sin embargo, en algunos contextos reales, como la modelización de fenómenos naturales, no es razonable suponer que dichos coeficientes son conocidos de forma exacta. En algunos casos, la información que conocemos sobre el sistema puede ser intrínsecamente aleatoria, lo que motiva la introducción de modelos probabilísticos. Una forma natural de incorporar esta aleatoriedad consiste en sustituir los coeficientes de Fourier que conocemos por variables aleatorias. Este planteamiento permite definir funciones aleatorias cuyos valores, aun conservando una estructura armónica, presentan fluctuaciones controladas en función de la distribución estadística de los coeficientes.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Modelo matemático ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos definiendo la ecuación general que utilizaremos:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
f_{\sigma}(x) = \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde los coeficientes &amp;lt;math&amp;gt; a_n &amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt; b_n &amp;lt;/math&amp;gt; serán variables aleatorias independientes e idénticamente distribuidas que se generarán a partir de distribuciones de probabilidad en lugar de calcularlos mediante integrales. Estudiaremos dos escenarios diferentes:&lt;br /&gt;
&lt;br /&gt;
* '''Distribución uniforme:''' los coeficientes seguirán una distribución uniforme en el intervalo &amp;lt;math&amp;gt; [-c,c] &amp;lt;/math&amp;gt;, es decir, &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Distribución normal:''' los coeficientes seguirán una distribución normal de media 0 y varianza &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt; , &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cálculo de la esperanza, varianza y covarianza ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la esperanza &amp;lt;math&amp;gt;E[f_\sigma(x)]&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
En los casos que hemos considerado, o bien &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt; E[a_n]=E[b_n] = \frac{-a+a}{2}=0 &amp;lt;/math&amp;gt;, o bien &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;, entonces &amp;lt;math&amp;gt; E[a_n]=E[b_n] =0 &amp;lt;/math&amp;gt;. Por lo tanto la esperanza se calcula:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la esperanza es 0 para todo &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, siempre que &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; sean variables aleatorias independientes e idénticamente distribuidas centradas en la media 0.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la varianza &amp;lt;math&amp;gt;V(f_\sigma(x))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Utilizamos la definición de varianza &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2] - E[f_\sigma(x)]^2 &amp;lt;/math&amp;gt; y utilizamos el resultado del apartado anterior, &amp;lt;math&amp;gt;E[f] =0&amp;lt;/math&amp;gt;, luego &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2]&amp;lt;/math&amp;gt;, y teniendo en cuenta que&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Tomando esperanza y usando independencia y que la media de &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; es cero, &lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n a_m] = 0&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;= \sigma_{a_n}^2&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n = m&amp;lt;/math&amp;gt; e igual para &amp;lt;math&amp;gt;b_n b_m&amp;lt;/math&amp;gt;.&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n b_m] = 0&amp;lt;/math&amp;gt; para todo &amp;lt;math&amp;gt;n, m&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Entonces&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si tomamos &amp;lt;math&amp;gt;\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2&amp;lt;/math&amp;gt; (misma varianza para seno y coseno):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
independiente de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la covarianza &amp;lt;math&amp;gt;Cov(f_\sigma(x),f_\sigma(y))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Calculamos la covarianza de dos funciones &amp;lt;math&amp;gt;f_\sigma(x),f_\sigma(y)&amp;lt;/math&amp;gt; utilizando la definición &amp;lt;math&amp;gt;Cov(f(x), f(y)) = E[f(x)f(y)] - E[f(x)]E[f(y)]&amp;lt;/math&amp;gt;. Ya hemos probado que &amp;lt;math&amp;gt;E[f_\sigma(x)] = 0&amp;lt;/math&amp;gt;, por tanto basta calcular el primer término.&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; E[f(x)f(y)] = \sum_{n=1}^{\infty} \sigma_n^2 \left[ \cos(n\pi x)\cos(n\pi y) + \sin(n\pi x)\sin(n\pi y) \right] &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y aplicando la identidad trigonométrica &amp;lt;math&amp;gt; \cos(A)\cos(B) + \sin(A)\sin(B) = \cos(A - B) &amp;lt;/math&amp;gt; se llega a &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; Cov(f(x), f(y)) = \sum_{n=1}^{\infty} \sigma_n^2 \cos(n \pi (x - y)) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hay un resultado que debemos destacar de la covarianza: su valor no depende de los puntos &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; por separado, sino de la distancia entre ambos, que en la fórmula que hemos calculado aparece como &amp;lt;math&amp;gt;(x-y)&amp;lt;/math&amp;gt;. Vamos a representar en Matlab el mapa de calor de la covarianza para visualizar el resultado al que hemos llegado.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Dominio&lt;br /&gt;
Nx = 1000;&lt;br /&gt;
x = linspace(0,1,Nx);&lt;br /&gt;
y = linspace(0,1,Nx);&lt;br /&gt;
&lt;br /&gt;
% Malla (x,y)&lt;br /&gt;
[X,Y] = meshgrid(x,y);&lt;br /&gt;
&lt;br /&gt;
% Parámetros&lt;br /&gt;
N = 10;           % número de modos&lt;br /&gt;
Cov = zeros(Nx);  % matriz de covarianza&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la covarianza&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    Cov = Cov + cos(n*pi*(X - Y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mapa de calor&lt;br /&gt;
figure&lt;br /&gt;
imagesc(x,y,Cov)&lt;br /&gt;
axis xy&lt;br /&gt;
colorbar&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('y')&lt;br /&gt;
title('Mapa de calor de la covarianza Cov(f(x), f(y))')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
covarianza.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cuestiones probabilísticas ==&lt;br /&gt;
&lt;br /&gt;
Pasamos ahora a responder algunas cuestiones probabilísticas que nos ayuden a estudiar la función aleatoria &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt;. Por ejemplo, ¿es cierto que,  fijado un punto la función tiene la misma probabilidad de ser positiva que negativa? En los casos que hemos considerado, en los que los coeficientes &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; son variables aleatorias que siguen o bien una distribución normal o bien una distribución uniforme con media cero (demostrado anteriormente). Por lo tanto, en el caso de la distribución normal, dado que la función &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; es suma de variables aleatorias que siguen una distribución &amp;lt;math&amp;gt; N(0,\sigma^2)&amp;lt;/math&amp;gt; y la suma de variables normales siempre es normal, podemos afirmar que &amp;lt;math&amp;gt;f_\sigma (x) \sim N(0,\sigma^2)&amp;lt;/math&amp;gt; y por lo tanto la probabilidad de que la función sea positiva o negativa en cualquier punto será 50/50. Por otro lado, en el caso en que las variables &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; sigan una distribución uniforme, por el teorema central del límite sabemos que la suma de todas ellas convergerá a una distribución normal, luego la probabilidad de que &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; sea positiva o negativa vuelve a ser 50/50. Para comprobar esto empíricamente, realizamos en Matlab una simulación que nos ayude a visualizar este fenómeno. Para ello generaremos una cantidad considerable de funciones &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; con coeficientes que sigan la distribución que queramos. A continuación aparece el código desarrollado:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% CONFIGURACIÓN INICIAL&lt;br /&gt;
L = 1;   &lt;br /&gt;
N = 20;             % num de términos de la serie de Fourier &lt;br /&gt;
M = 20;             % num de funciones aleatorias distintas a generar&lt;br /&gt;
num_puntos = 500;&lt;br /&gt;
&lt;br /&gt;
x = linspace(-L, L, num_puntos);&lt;br /&gt;
F_sigma = zeros(M, num_puntos);&lt;br /&gt;
&lt;br /&gt;
% GENERACIÓN DE COEFICIENTES Y FUNCIONES&lt;br /&gt;
distribucion = 'normal'; % Opciones: 'normal' o 'uniforme'&lt;br /&gt;
&lt;br /&gt;
fprintf('Generando %d funciones aleatorias...\n', M);&lt;br /&gt;
&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    % 1. Generar coeficientes aleatorios para este armónico n&lt;br /&gt;
    if strcmp(distribucion, 'normal')&lt;br /&gt;
        % Distribución Normal Estándar N(0,1)&lt;br /&gt;
        an = randn(M, 1); &lt;br /&gt;
        bn = randn(M, 1);&lt;br /&gt;
    else&lt;br /&gt;
        % Distribución Uniforme en [-1, 1]&lt;br /&gt;
        an = 2*rand(M, 1) - 1; &lt;br /&gt;
        bn = 2*rand(M, 1) - 1;&lt;br /&gt;
    end&lt;br /&gt;
   &lt;br /&gt;
    term_cos = an * cos(n * pi * x / L);&lt;br /&gt;
    term_sin = bn * sin(n * pi * x / L);&lt;br /&gt;
    &lt;br /&gt;
    F_sigma = F_sigma + term_cos + term_sin;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% VISUALIZACIÓN&lt;br /&gt;
figure('Name', 'Conjunto de Funciones Aleatorias', 'Color', 'w');&lt;br /&gt;
hold on; grid on;&lt;br /&gt;
&lt;br /&gt;
% Graficamos las primeras 20 funciones&lt;br /&gt;
plot(x, F_sigma(1:20, :), 'LineWidth', 0.5, 'Color', [0, 0.4470, 0.7410, 0.3]);&lt;br /&gt;
&lt;br /&gt;
% Graficamos la media empírica en negro y grueso&lt;br /&gt;
media_em = mean(F_sigma, 1);&lt;br /&gt;
plot(x, media_em, 'k-', 'LineWidth', 3, 'DisplayName', 'Esperanza E[f(x)]');&lt;br /&gt;
&lt;br /&gt;
xlabel('x'); ylabel('f_{\sigma}(x)');&lt;br /&gt;
title(['Funciones Aleatorias de Fourier (Distribución: ' distribucion ')']);&lt;br /&gt;
xlim([-L, L]);&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
Prob.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104257</id>
		<title>Series de Fourier (LAJS)</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104257"/>
				<updated>2026-02-18T22:39:07Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ TrabajoED | Series de Fourier. Grupo 6-A | [[:Categoría:EDP|EDP]]|[[:Categoría:EDP25/26|2025-26]] | Leire Aparicio Urbiola&lt;br /&gt;
&lt;br /&gt;
Álvaro Silva Blanco &lt;br /&gt;
&lt;br /&gt;
Julia Calado Bonnin&lt;br /&gt;
&lt;br /&gt;
Sofía García Suárez&lt;br /&gt;
&lt;br /&gt;
 }}&lt;br /&gt;
&lt;br /&gt;
== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.png||900px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
La manera más común de representar la serie de Fourier de una función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; es mediante&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
  f(x) \sim\frac{a_0}{2 \pi} + \sum_{n=1}^{N} \left( a_n \frac{1}{\sqrt{\pi}} \cos(n x) + b_n \frac{1}{\sqrt{\pi}} \sin (n x)\right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siendo &amp;lt;math&amp;gt; a_0,a_n,b_n &amp;lt;/math&amp;gt; los coeficientes de Fourier, que se calculan mediante las integrales:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
a_0 = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} f(x) dx \quad a_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \cos(n x) f(x) dx \quad b_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \sin(n x) f(x) dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; se expresa como una combinación lineal de funciones seno y coseno con coeficientes constantes. Sin embargo, en algunos contextos reales, como la modelización de fenómenos naturales, no es razonable suponer que dichos coeficientes son conocidos de forma exacta. En algunos casos, la información que conocemos sobre el sistema puede ser intrínsecamente aleatoria, lo que motiva la introducción de modelos probabilísticos. Una forma natural de incorporar esta aleatoriedad consiste en sustituir los coeficientes de Fourier que conocemos por variables aleatorias. Este planteamiento permite definir funciones aleatorias cuyos valores, aun conservando una estructura armónica, presentan fluctuaciones controladas en función de la distribución estadística de los coeficientes.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Modelo matemático ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos definiendo la ecuación general que utilizaremos:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
f_{\sigma}(x) = \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde los coeficientes &amp;lt;math&amp;gt; a_n &amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt; b_n &amp;lt;/math&amp;gt; serán variables aleatorias independientes e idénticamente distribuidas que se generarán a partir de distribuciones de probabilidad en lugar de calcularlos mediante integrales. Estudiaremos dos escenarios diferentes:&lt;br /&gt;
&lt;br /&gt;
* '''Distribución uniforme:''' los coeficientes seguirán una distribución uniforme en el intervalo &amp;lt;math&amp;gt; [-c,c] &amp;lt;/math&amp;gt;, es decir, &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Distribución normal:''' los coeficientes seguirán una distribución normal de media 0 y varianza &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt; , &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cálculo de la esperanza, varianza y covarianza ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la esperanza &amp;lt;math&amp;gt;E[f_\sigma(x)]&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
En los casos que hemos considerado, o bien &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt; E[a_n]=E[b_n] = \frac{-a+a}{2}=0 &amp;lt;/math&amp;gt;, o bien &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;, entonces &amp;lt;math&amp;gt; E[a_n]=E[b_n] =0 &amp;lt;/math&amp;gt;. Por lo tanto la esperanza se calcula:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la esperanza es 0 para todo &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, siempre que &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; sean variables aleatorias independientes e idénticamente distribuidas centradas en la media 0.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la varianza &amp;lt;math&amp;gt;V(f_\sigma(x))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Utilizamos la definición de varianza &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2] - E[f_\sigma(x)]^2 &amp;lt;/math&amp;gt; y utilizamos el resultado del apartado anterior, &amp;lt;math&amp;gt;E[f] =0&amp;lt;/math&amp;gt;, luego &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2]&amp;lt;/math&amp;gt;, y teniendo en cuenta que&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Tomando esperanza y usando independencia y que la media de &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; es cero, &lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n a_m] = 0&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;= \sigma_{a_n}^2&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n = m&amp;lt;/math&amp;gt; e igual para &amp;lt;math&amp;gt;b_n b_m&amp;lt;/math&amp;gt;.&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n b_m] = 0&amp;lt;/math&amp;gt; para todo &amp;lt;math&amp;gt;n, m&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Entonces&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si tomamos &amp;lt;math&amp;gt;\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2&amp;lt;/math&amp;gt; (misma varianza para seno y coseno):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
independiente de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la covarianza &amp;lt;math&amp;gt;Cov(f_\sigma(x),f_\sigma(y))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Calculamos la covarianza de dos funciones &amp;lt;math&amp;gt;f_\sigma(x),f_\sigma(y)&amp;lt;/math&amp;gt; utilizando la definición &amp;lt;math&amp;gt;Cov(f(x), f(y)) = E[f(x)f(y)] - E[f(x)]E[f(y)]&amp;lt;/math&amp;gt;. Ya hemos probado que &amp;lt;math&amp;gt;E[f_\sigma(x)] = 0&amp;lt;/math&amp;gt;, por tanto basta calcular el primer término.&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; E[f(x)f(y)] = \sum_{n=1}^{\infty} \sigma_n^2 \left[ \cos(n\pi x)\cos(n\pi y) + \sin(n\pi x)\sin(n\pi y) \right] &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y aplicando la identidad trigonométrica &amp;lt;math&amp;gt; \cos(A)\cos(B) + \sin(A)\sin(B) = \cos(A - B) &amp;lt;/math&amp;gt; se llega a &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; Cov(f(x), f(y)) = \sum_{n=1}^{\infty} \sigma_n^2 \cos(n \pi (x - y)) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hay un resultado que debemos destacar de la covarianza: su valor no depende de los puntos &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; por separado, sino de la distancia entre ambos, que en la fórmula que hemos calculado aparece como &amp;lt;math&amp;gt;(x-y)&amp;lt;/math&amp;gt;. Vamos a representar en Matlab el mapa de calor de la covarianza para visualizar el resultado al que hemos llegado.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Dominio&lt;br /&gt;
Nx = 1000;&lt;br /&gt;
x = linspace(0,1,Nx);&lt;br /&gt;
y = linspace(0,1,Nx);&lt;br /&gt;
&lt;br /&gt;
% Malla (x,y)&lt;br /&gt;
[X,Y] = meshgrid(x,y);&lt;br /&gt;
&lt;br /&gt;
% Parámetros&lt;br /&gt;
N = 10;           % número de modos&lt;br /&gt;
Cov = zeros(Nx);  % matriz de covarianza&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la covarianza&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    Cov = Cov + cos(n*pi*(X - Y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mapa de calor&lt;br /&gt;
figure&lt;br /&gt;
imagesc(x,y,Cov)&lt;br /&gt;
axis xy&lt;br /&gt;
colorbar&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('y')&lt;br /&gt;
title('Mapa de calor de la covarianza Cov(f(x), f(y))')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
covarianza.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cuestiones probabilísticas ==&lt;br /&gt;
&lt;br /&gt;
Pasamos ahora a responder algunas cuestiones probabilísticas que nos ayuden a estudiar la función aleatoria &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt;. Por ejemplo, ¿es cierto que,  fijado un punto la función tiene la misma probabilidad de ser positiva que negativa? En los casos que hemos considerado, en los que los coeficientes &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; son variables aleatorias que siguen o bien una distribución normal o bien una distribución uniforme con media cero (demostrado anteriormente). Por lo tanto, en el caso de la distribución normal, dado que la función &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; es suma de variables aleatorias que siguen una distribución &amp;lt;math&amp;gt; N(0,\sigma^2)&amp;lt;/math&amp;gt; y la suma de variables normales siempre es normal, podemos afirmar que &amp;lt;math&amp;gt;f_\sigma (x) \sim N(0,\sigma^2)&amp;lt;/math&amp;gt; y por lo tanto la probabilidad de que la función sea positiva o negativa en cualquier punto será 50/50. Por otro lado, en el caso en que las variables &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; sigan una distribución uniforme, por el teorema central del límite sabemos que la suma de todas ellas convergerá a una distribución normal, luego la probabilidad de que &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; sea positiva o negativa vuelve a ser 50/50. Para comprobar esto empíricamente, realizamos en Matlab una simulación que nos ayude a visualizar este fenómeno. Para ello generaremos una cantidad considerable de funciones &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; con coeficientes que sigan la distribución que queramos. A continuación aparece el código desarrollado:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% CONFIGURACIÓN INICIAL&lt;br /&gt;
L = 1;   &lt;br /&gt;
N = 20;             % num de términos de la serie de Fourier &lt;br /&gt;
M = 20;             % num de funciones aleatorias distintas a generar&lt;br /&gt;
num_puntos = 500;&lt;br /&gt;
&lt;br /&gt;
x = linspace(-L, L, num_puntos);&lt;br /&gt;
F_sigma = zeros(M, num_puntos);&lt;br /&gt;
&lt;br /&gt;
% GENERACIÓN DE COEFICIENTES Y FUNCIONES&lt;br /&gt;
distribucion = 'normal'; % Opciones: 'normal' o 'uniforme'&lt;br /&gt;
&lt;br /&gt;
fprintf('Generando %d funciones aleatorias...\n', M);&lt;br /&gt;
&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    % 1. Generar coeficientes aleatorios para este armónico n&lt;br /&gt;
    if strcmp(distribucion, 'normal')&lt;br /&gt;
        % Distribución Normal Estándar N(0,1)&lt;br /&gt;
        an = randn(M, 1); &lt;br /&gt;
        bn = randn(M, 1);&lt;br /&gt;
    else&lt;br /&gt;
        % Distribución Uniforme en [-1, 1]&lt;br /&gt;
        an = 2*rand(M, 1) - 1; &lt;br /&gt;
        bn = 2*rand(M, 1) - 1;&lt;br /&gt;
    end&lt;br /&gt;
   &lt;br /&gt;
    term_cos = an * cos(n * pi * x / L);&lt;br /&gt;
    term_sin = bn * sin(n * pi * x / L);&lt;br /&gt;
    &lt;br /&gt;
    F_sigma = F_sigma + term_cos + term_sin;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% VISUALIZACIÓN&lt;br /&gt;
figure('Name', 'Conjunto de Funciones Aleatorias', 'Color', 'w');&lt;br /&gt;
hold on; grid on;&lt;br /&gt;
&lt;br /&gt;
% Graficamos las primeras 20 funciones&lt;br /&gt;
plot(x, F_sigma(1:20, :), 'LineWidth', 0.5, 'Color', [0, 0.4470, 0.7410, 0.3]);&lt;br /&gt;
&lt;br /&gt;
% Graficamos la media empírica en negro y grueso&lt;br /&gt;
media_em = mean(F_sigma, 1);&lt;br /&gt;
plot(x, media_em, 'k-', 'LineWidth', 3, 'DisplayName', 'Esperanza E[f(x)]');&lt;br /&gt;
&lt;br /&gt;
xlabel('x'); ylabel('f_{\sigma}(x)');&lt;br /&gt;
title(['Funciones Aleatorias de Fourier (Distribución: ' distribucion ')']);&lt;br /&gt;
xlim([-L, L]);&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
Prob.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_LAJS.pdf&amp;diff=104255</id>
		<title>Archivo:Poster LAJS.pdf</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_LAJS.pdf&amp;diff=104255"/>
				<updated>2026-02-18T22:33:14Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104252</id>
		<title>Series de Fourier (LAJS)</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104252"/>
				<updated>2026-02-18T22:32:08Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.png||900px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
La manera más común de representar la serie de Fourier de una función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; es mediante&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
  f(x) \sim\frac{a_0}{2 \pi} + \sum_{n=1}^{N} \left( a_n \frac{1}{\sqrt{\pi}} \cos(n x) + b_n \frac{1}{\sqrt{\pi}} \sin (n x)\right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siendo &amp;lt;math&amp;gt; a_0,a_n,b_n &amp;lt;/math&amp;gt; los coeficientes de Fourier, que se calculan mediante las integrales:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
a_0 = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} f(x) dx \quad a_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \cos(n x) f(x) dx \quad b_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \sin(n x) f(x) dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; se expresa como una combinación lineal de funciones seno y coseno con coeficientes constantes. Sin embargo, en algunos contextos reales, como la modelización de fenómenos naturales, no es razonable suponer que dichos coeficientes son conocidos de forma exacta. En algunos casos, la información que conocemos sobre el sistema puede ser intrínsecamente aleatoria, lo que motiva la introducción de modelos probabilísticos. Una forma natural de incorporar esta aleatoriedad consiste en sustituir los coeficientes de Fourier que conocemos por variables aleatorias. Este planteamiento permite definir funciones aleatorias cuyos valores, aun conservando una estructura armónica, presentan fluctuaciones controladas en función de la distribución estadística de los coeficientes.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Modelo matemático ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos definiendo la ecuación general que utilizaremos:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
f_{\sigma}(x) = \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde los coeficientes &amp;lt;math&amp;gt; a_n &amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt; b_n &amp;lt;/math&amp;gt; serán variables aleatorias independientes e idénticamente distribuidas que se generarán a partir de distribuciones de probabilidad en lugar de calcularlos mediante integrales. Estudiaremos dos escenarios diferentes:&lt;br /&gt;
&lt;br /&gt;
* '''Distribución uniforme:''' los coeficientes seguirán una distribución uniforme en el intervalo &amp;lt;math&amp;gt; [-c,c] &amp;lt;/math&amp;gt;, es decir, &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Distribución normal:''' los coeficientes seguirán una distribución normal de media 0 y varianza &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt; , &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cálculo de la esperanza, varianza y covarianza ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la esperanza &amp;lt;math&amp;gt;E[f_\sigma(x)]&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
En los casos que hemos considerado, o bien &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt; E[a_n]=E[b_n] = \frac{-a+a}{2}=0 &amp;lt;/math&amp;gt;, o bien &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;, entonces &amp;lt;math&amp;gt; E[a_n]=E[b_n] =0 &amp;lt;/math&amp;gt;. Por lo tanto la esperanza se calcula:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la esperanza es 0 para todo &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, siempre que &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; sean variables aleatorias independientes e idénticamente distribuidas centradas en la media 0.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la varianza &amp;lt;math&amp;gt;V(f_\sigma(x))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Utilizamos la definición de varianza &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2] - E[f_\sigma(x)]^2 &amp;lt;/math&amp;gt; y utilizamos el resultado del apartado anterior, &amp;lt;math&amp;gt;E[f] =0&amp;lt;/math&amp;gt;, luego &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2]&amp;lt;/math&amp;gt;, y teniendo en cuenta que&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Tomando esperanza y usando independencia y que la media de &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; es cero, &lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n a_m] = 0&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;= \sigma_{a_n}^2&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n = m&amp;lt;/math&amp;gt; e igual para &amp;lt;math&amp;gt;b_n b_m&amp;lt;/math&amp;gt;.&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n b_m] = 0&amp;lt;/math&amp;gt; para todo &amp;lt;math&amp;gt;n, m&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Entonces&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si tomamos &amp;lt;math&amp;gt;\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2&amp;lt;/math&amp;gt; (misma varianza para seno y coseno):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
independiente de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la covarianza &amp;lt;math&amp;gt;Cov(f_\sigma(x),f_\sigma(y))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Calculamos la covarianza de dos funciones &amp;lt;math&amp;gt;f_\sigma(x),f_\sigma(y)&amp;lt;/math&amp;gt; utilizando la definición &amp;lt;math&amp;gt;Cov(f(x), f(y)) = E[f(x)f(y)] - E[f(x)]E[f(y)]&amp;lt;/math&amp;gt;. Ya hemos probado que &amp;lt;math&amp;gt;E[f_\sigma(x)] = 0&amp;lt;/math&amp;gt;, por tanto basta calcular el primer término.&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; E[f(x)f(y)] = \sum_{n=1}^{\infty} \sigma_n^2 \left[ \cos(n\pi x)\cos(n\pi y) + \sin(n\pi x)\sin(n\pi y) \right] &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y aplicando la identidad trigonométrica &amp;lt;math&amp;gt; \cos(A)\cos(B) + \sin(A)\sin(B) = \cos(A - B) &amp;lt;/math&amp;gt; se llega a &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; Cov(f(x), f(y)) = \sum_{n=1}^{\infty} \sigma_n^2 \cos(n \pi (x - y)) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hay un resultado que debemos destacar de la covarianza: su valor no depende de los puntos &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; por separado, sino de la distancia entre ambos, que en la fórmula que hemos calculado aparece como &amp;lt;math&amp;gt;(x-y)&amp;lt;/math&amp;gt;. Vamos a representar en Matlab el mapa de calor de la covarianza para visualizar el resultado al que hemos llegado.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Dominio&lt;br /&gt;
Nx = 1000;&lt;br /&gt;
x = linspace(0,1,Nx);&lt;br /&gt;
y = linspace(0,1,Nx);&lt;br /&gt;
&lt;br /&gt;
% Malla (x,y)&lt;br /&gt;
[X,Y] = meshgrid(x,y);&lt;br /&gt;
&lt;br /&gt;
% Parámetros&lt;br /&gt;
N = 10;           % número de modos&lt;br /&gt;
Cov = zeros(Nx);  % matriz de covarianza&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la covarianza&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    Cov = Cov + cos(n*pi*(X - Y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mapa de calor&lt;br /&gt;
figure&lt;br /&gt;
imagesc(x,y,Cov)&lt;br /&gt;
axis xy&lt;br /&gt;
colorbar&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('y')&lt;br /&gt;
title('Mapa de calor de la covarianza Cov(f(x), f(y))')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
covarianza.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cuestiones probabilísticas ==&lt;br /&gt;
&lt;br /&gt;
Pasamos ahora a responder algunas cuestiones probabilísticas que nos ayuden a estudiar la función aleatoria &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt;. Por ejemplo, ¿es cierto que,  fijado un punto la función tiene la misma probabilidad de ser positiva que negativa? En los casos que hemos considerado, en los que los coeficientes &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; son variables aleatorias que siguen o bien una distribución normal o bien una distribución uniforme con media cero (demostrado anteriormente). Por lo tanto, en el caso de la distribución normal, dado que la función &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; es suma de variables aleatorias que siguen una distribución &amp;lt;math&amp;gt; N(0,\sigma^2)&amp;lt;/math&amp;gt; y la suma de variables normales siempre es normal, podemos afirmar que &amp;lt;math&amp;gt;f_\sigma (x) \sim N(0,\sigma^2)&amp;lt;/math&amp;gt; y por lo tanto la probabilidad de que la función sea positiva o negativa en cualquier punto será 50/50. Por otro lado, en el caso en que las variables &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; sigan una distribución uniforme, por el teorema central del límite sabemos que la suma de todas ellas convergerá a una distribución normal, luego la probabilidad de que &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; sea positiva o negativa vuelve a ser 50/50. Para comprobar esto empíricamente, realizamos en Matlab una simulación que nos ayude a visualizar este fenómeno. Para ello generaremos una cantidad considerable de funciones &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; con coeficientes que sigan la distribución que queramos. A continuación aparece el código desarrollado:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% CONFIGURACIÓN INICIAL&lt;br /&gt;
L = 1;   &lt;br /&gt;
N = 20;             % num de términos de la serie de Fourier &lt;br /&gt;
M = 20;             % num de funciones aleatorias distintas a generar&lt;br /&gt;
num_puntos = 500;&lt;br /&gt;
&lt;br /&gt;
x = linspace(-L, L, num_puntos);&lt;br /&gt;
F_sigma = zeros(M, num_puntos);&lt;br /&gt;
&lt;br /&gt;
% GENERACIÓN DE COEFICIENTES Y FUNCIONES&lt;br /&gt;
distribucion = 'normal'; % Opciones: 'normal' o 'uniforme'&lt;br /&gt;
&lt;br /&gt;
fprintf('Generando %d funciones aleatorias...\n', M);&lt;br /&gt;
&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    % 1. Generar coeficientes aleatorios para este armónico n&lt;br /&gt;
    if strcmp(distribucion, 'normal')&lt;br /&gt;
        % Distribución Normal Estándar N(0,1)&lt;br /&gt;
        an = randn(M, 1); &lt;br /&gt;
        bn = randn(M, 1);&lt;br /&gt;
    else&lt;br /&gt;
        % Distribución Uniforme en [-1, 1]&lt;br /&gt;
        an = 2*rand(M, 1) - 1; &lt;br /&gt;
        bn = 2*rand(M, 1) - 1;&lt;br /&gt;
    end&lt;br /&gt;
   &lt;br /&gt;
    term_cos = an * cos(n * pi * x / L);&lt;br /&gt;
    term_sin = bn * sin(n * pi * x / L);&lt;br /&gt;
    &lt;br /&gt;
    F_sigma = F_sigma + term_cos + term_sin;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% VISUALIZACIÓN&lt;br /&gt;
figure('Name', 'Conjunto de Funciones Aleatorias', 'Color', 'w');&lt;br /&gt;
hold on; grid on;&lt;br /&gt;
&lt;br /&gt;
% Graficamos las primeras 20 funciones&lt;br /&gt;
plot(x, F_sigma(1:20, :), 'LineWidth', 0.5, 'Color', [0, 0.4470, 0.7410, 0.3]);&lt;br /&gt;
&lt;br /&gt;
% Graficamos la media empírica en negro y grueso&lt;br /&gt;
media_em = mean(F_sigma, 1);&lt;br /&gt;
plot(x, media_em, 'k-', 'LineWidth', 3, 'DisplayName', 'Esperanza E[f(x)]');&lt;br /&gt;
&lt;br /&gt;
xlabel('x'); ylabel('f_{\sigma}(x)');&lt;br /&gt;
title(['Funciones Aleatorias de Fourier (Distribución: ' distribucion ')']);&lt;br /&gt;
xlim([-L, L]);&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
Prob.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104251</id>
		<title>Series de Fourier (LAJS)</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Series_de_Fourier_(LAJS)&amp;diff=104251"/>
				<updated>2026-02-18T22:31:47Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Póster ==&lt;br /&gt;
&lt;br /&gt;
[[Archivo:Poster_LAJS.png||900px]]&lt;br /&gt;
[[Archivo:Poster_LAJS.pdf]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introducción ==&lt;br /&gt;
La manera más común de representar la serie de Fourier de una función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; es mediante&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
  f(x) \sim\frac{a_0}{2 \pi} + \sum_{n=1}^{N} \left( a_n \frac{1}{\sqrt{\pi}} \cos(n x) + b_n \frac{1}{\sqrt{\pi}} \sin (n x)\right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
siendo &amp;lt;math&amp;gt; a_0,a_n,b_n &amp;lt;/math&amp;gt; los coeficientes de Fourier, que se calculan mediante las integrales:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
a_0 = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} f(x) dx \quad a_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \cos(n x) f(x) dx \quad b_n = \int_{-\pi}^{\pi} \frac{1}{\sqrt{\pi}} \sin(n x) f(x) dx&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la función &amp;lt;math&amp;gt;f(x) &amp;lt;/math&amp;gt; se expresa como una combinación lineal de funciones seno y coseno con coeficientes constantes. Sin embargo, en algunos contextos reales, como la modelización de fenómenos naturales, no es razonable suponer que dichos coeficientes son conocidos de forma exacta. En algunos casos, la información que conocemos sobre el sistema puede ser intrínsecamente aleatoria, lo que motiva la introducción de modelos probabilísticos. Una forma natural de incorporar esta aleatoriedad consiste en sustituir los coeficientes de Fourier que conocemos por variables aleatorias. Este planteamiento permite definir funciones aleatorias cuyos valores, aun conservando una estructura armónica, presentan fluctuaciones controladas en función de la distribución estadística de los coeficientes.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Modelo matemático ==&lt;br /&gt;
&lt;br /&gt;
Comenzamos definiendo la ecuación general que utilizaremos:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math display=&amp;quot;block&amp;quot;&amp;gt;&lt;br /&gt;
f_{\sigma}(x) = \frac{a_0}{2} + \sum_{n=1}^{N} \left( a_n \cos(n\pi x) + b_n \sin(n\pi x) \right)&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde los coeficientes &amp;lt;math&amp;gt; a_n &amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt; b_n &amp;lt;/math&amp;gt; serán variables aleatorias independientes e idénticamente distribuidas que se generarán a partir de distribuciones de probabilidad en lugar de calcularlos mediante integrales. Estudiaremos dos escenarios diferentes:&lt;br /&gt;
&lt;br /&gt;
* '''Distribución uniforme:''' los coeficientes seguirán una distribución uniforme en el intervalo &amp;lt;math&amp;gt; [-c,c] &amp;lt;/math&amp;gt;, es decir, &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Distribución normal:''' los coeficientes seguirán una distribución normal de media 0 y varianza &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt; , &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Cálculo de la esperanza, varianza y covarianza ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la esperanza &amp;lt;math&amp;gt;E[f_\sigma(x)]&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
En los casos que hemos considerado, o bien &amp;lt;math&amp;gt;a_n, b_n \sim \operatorname{U}(-c, c) &amp;lt;/math&amp;gt;, por lo que &amp;lt;math&amp;gt; E[a_n]=E[b_n] = \frac{-a+a}{2}=0 &amp;lt;/math&amp;gt;, o bien &amp;lt;math&amp;gt; a_n, b_n \sim \mathcal{N}(0, \sigma^2) &amp;lt;/math&amp;gt;, entonces &amp;lt;math&amp;gt; E[a_n]=E[b_n] =0 &amp;lt;/math&amp;gt;. Por lo tanto la esperanza se calcula:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;E[f_\sigma(x)] = \sum_{n=0}^{N} [E[a_n] \cos(nx) + E[b_n] \sin(nx)] = 0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es decir, la esperanza es 0 para todo &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, siempre que &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; sean variables aleatorias independientes e idénticamente distribuidas centradas en la media 0.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la varianza &amp;lt;math&amp;gt;V(f_\sigma(x))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Utilizamos la definición de varianza &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2] - E[f_\sigma(x)]^2 &amp;lt;/math&amp;gt; y utilizamos el resultado del apartado anterior, &amp;lt;math&amp;gt;E[f] =0&amp;lt;/math&amp;gt;, luego &amp;lt;math&amp;gt;V(f_\sigma(x)) = E[f_\sigma(x)^2]&amp;lt;/math&amp;gt;, y teniendo en cuenta que&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f_\sigma(x)^2 = \sum_{n,m} [a_n a_m \cos(nx) \cos(mx) + b_n b_m \sin(nx) \sin(mx) + 2 a_n b_m \cos(nx) \sin(mx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Tomando esperanza y usando independencia y que la media de &amp;lt;math&amp;gt;a_n, b_n&amp;lt;/math&amp;gt; es cero, &lt;br /&gt;
&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n a_m] = 0&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n \neq m&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;= \sigma_{a_n}^2&amp;lt;/math&amp;gt; si &amp;lt;math&amp;gt;n = m&amp;lt;/math&amp;gt; e igual para &amp;lt;math&amp;gt;b_n b_m&amp;lt;/math&amp;gt;.&lt;br /&gt;
*&amp;lt;math&amp;gt;E[a_n b_m] = 0&amp;lt;/math&amp;gt; para todo &amp;lt;math&amp;gt;n, m&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Entonces&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} [\sigma_{a_n}^2 \cos^2(nx) + \sigma_{b_n}^2 \sin^2(nx)]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Si tomamos &amp;lt;math&amp;gt;\sigma_{a_n}^2 = \sigma_{b_n}^2 = \sigma_n^2&amp;lt;/math&amp;gt; (misma varianza para seno y coseno):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;V(f_\sigma(x)) = \sum_{n=0}^{N} \sigma_n^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
independiente de &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
===  Cálculo de la covarianza &amp;lt;math&amp;gt;Cov(f_\sigma(x),f_\sigma(y))&amp;lt;/math&amp;gt; ===&lt;br /&gt;
&lt;br /&gt;
Calculamos la covarianza de dos funciones &amp;lt;math&amp;gt;f_\sigma(x),f_\sigma(y)&amp;lt;/math&amp;gt; utilizando la definición &amp;lt;math&amp;gt;Cov(f(x), f(y)) = E[f(x)f(y)] - E[f(x)]E[f(y)]&amp;lt;/math&amp;gt;. Ya hemos probado que &amp;lt;math&amp;gt;E[f_\sigma(x)] = 0&amp;lt;/math&amp;gt;, por tanto basta calcular el primer término.&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; E[f(x)f(y)] = \sum_{n=1}^{\infty} \sigma_n^2 \left[ \cos(n\pi x)\cos(n\pi y) + \sin(n\pi x)\sin(n\pi y) \right] &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Y aplicando la identidad trigonométrica &amp;lt;math&amp;gt; \cos(A)\cos(B) + \sin(A)\sin(B) = \cos(A - B) &amp;lt;/math&amp;gt; se llega a &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; Cov(f(x), f(y)) = \sum_{n=1}^{\infty} \sigma_n^2 \cos(n \pi (x - y)) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hay un resultado que debemos destacar de la covarianza: su valor no depende de los puntos &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;y&amp;lt;/math&amp;gt; por separado, sino de la distancia entre ambos, que en la fórmula que hemos calculado aparece como &amp;lt;math&amp;gt;(x-y)&amp;lt;/math&amp;gt;. Vamos a representar en Matlab el mapa de calor de la covarianza para visualizar el resultado al que hemos llegado.&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% Dominio&lt;br /&gt;
Nx = 1000;&lt;br /&gt;
x = linspace(0,1,Nx);&lt;br /&gt;
y = linspace(0,1,Nx);&lt;br /&gt;
&lt;br /&gt;
% Malla (x,y)&lt;br /&gt;
[X,Y] = meshgrid(x,y);&lt;br /&gt;
&lt;br /&gt;
% Parámetros&lt;br /&gt;
N = 10;           % número de modos&lt;br /&gt;
Cov = zeros(Nx);  % matriz de covarianza&lt;br /&gt;
&lt;br /&gt;
% Cálculo de la covarianza&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    Cov = Cov + cos(n*pi*(X - Y));&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% Mapa de calor&lt;br /&gt;
figure&lt;br /&gt;
imagesc(x,y,Cov)&lt;br /&gt;
axis xy&lt;br /&gt;
colorbar&lt;br /&gt;
xlabel('x')&lt;br /&gt;
ylabel('y')&lt;br /&gt;
title('Mapa de calor de la covarianza Cov(f(x), f(y))')&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
covarianza.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Cuestiones probabilísticas ==&lt;br /&gt;
&lt;br /&gt;
Pasamos ahora a responder algunas cuestiones probabilísticas que nos ayuden a estudiar la función aleatoria &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt;. Por ejemplo, ¿es cierto que,  fijado un punto la función tiene la misma probabilidad de ser positiva que negativa? En los casos que hemos considerado, en los que los coeficientes &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; son variables aleatorias que siguen o bien una distribución normal o bien una distribución uniforme con media cero (demostrado anteriormente). Por lo tanto, en el caso de la distribución normal, dado que la función &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; es suma de variables aleatorias que siguen una distribución &amp;lt;math&amp;gt; N(0,\sigma^2)&amp;lt;/math&amp;gt; y la suma de variables normales siempre es normal, podemos afirmar que &amp;lt;math&amp;gt;f_\sigma (x) \sim N(0,\sigma^2)&amp;lt;/math&amp;gt; y por lo tanto la probabilidad de que la función sea positiva o negativa en cualquier punto será 50/50. Por otro lado, en el caso en que las variables &amp;lt;math&amp;gt;a_n&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;b_n&amp;lt;/math&amp;gt; sigan una distribución uniforme, por el teorema central del límite sabemos que la suma de todas ellas convergerá a una distribución normal, luego la probabilidad de que &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; sea positiva o negativa vuelve a ser 50/50. Para comprobar esto empíricamente, realizamos en Matlab una simulación que nos ayude a visualizar este fenómeno. Para ello generaremos una cantidad considerable de funciones &amp;lt;math&amp;gt;f_\sigma (x)&amp;lt;/math&amp;gt; con coeficientes que sigan la distribución que queramos. A continuación aparece el código desarrollado:&lt;br /&gt;
&lt;br /&gt;
{{matlab|codigo=&lt;br /&gt;
% CONFIGURACIÓN INICIAL&lt;br /&gt;
L = 1;   &lt;br /&gt;
N = 20;             % num de términos de la serie de Fourier &lt;br /&gt;
M = 20;             % num de funciones aleatorias distintas a generar&lt;br /&gt;
num_puntos = 500;&lt;br /&gt;
&lt;br /&gt;
x = linspace(-L, L, num_puntos);&lt;br /&gt;
F_sigma = zeros(M, num_puntos);&lt;br /&gt;
&lt;br /&gt;
% GENERACIÓN DE COEFICIENTES Y FUNCIONES&lt;br /&gt;
distribucion = 'normal'; % Opciones: 'normal' o 'uniforme'&lt;br /&gt;
&lt;br /&gt;
fprintf('Generando %d funciones aleatorias...\n', M);&lt;br /&gt;
&lt;br /&gt;
for n = 1:N&lt;br /&gt;
    % 1. Generar coeficientes aleatorios para este armónico n&lt;br /&gt;
    if strcmp(distribucion, 'normal')&lt;br /&gt;
        % Distribución Normal Estándar N(0,1)&lt;br /&gt;
        an = randn(M, 1); &lt;br /&gt;
        bn = randn(M, 1);&lt;br /&gt;
    else&lt;br /&gt;
        % Distribución Uniforme en [-1, 1]&lt;br /&gt;
        an = 2*rand(M, 1) - 1; &lt;br /&gt;
        bn = 2*rand(M, 1) - 1;&lt;br /&gt;
    end&lt;br /&gt;
   &lt;br /&gt;
    term_cos = an * cos(n * pi * x / L);&lt;br /&gt;
    term_sin = bn * sin(n * pi * x / L);&lt;br /&gt;
    &lt;br /&gt;
    F_sigma = F_sigma + term_cos + term_sin;&lt;br /&gt;
end&lt;br /&gt;
&lt;br /&gt;
% VISUALIZACIÓN&lt;br /&gt;
figure('Name', 'Conjunto de Funciones Aleatorias', 'Color', 'w');&lt;br /&gt;
hold on; grid on;&lt;br /&gt;
&lt;br /&gt;
% Graficamos las primeras 20 funciones&lt;br /&gt;
plot(x, F_sigma(1:20, :), 'LineWidth', 0.5, 'Color', [0, 0.4470, 0.7410, 0.3]);&lt;br /&gt;
&lt;br /&gt;
% Graficamos la media empírica en negro y grueso&lt;br /&gt;
media_em = mean(F_sigma, 1);&lt;br /&gt;
plot(x, media_em, 'k-', 'LineWidth', 3, 'DisplayName', 'Esperanza E[f(x)]');&lt;br /&gt;
&lt;br /&gt;
xlabel('x'); ylabel('f_{\sigma}(x)');&lt;br /&gt;
title(['Funciones Aleatorias de Fourier (Distribución: ' distribucion ')']);&lt;br /&gt;
xlim([-L, L]);&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;lt;gallery&amp;gt;&lt;br /&gt;
Prob.png|&lt;br /&gt;
&amp;lt;/gallery&amp;gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	<entry>
		<id>https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_LAJS.png&amp;diff=104246</id>
		<title>Archivo:Poster LAJS.png</title>
		<link rel="alternate" type="text/html" href="https://mat.caminos.upm.es/w/index.php?title=Archivo:Poster_LAJS.png&amp;diff=104246"/>
				<updated>2026-02-18T22:27:27Z</updated>
		
		<summary type="html">&lt;p&gt;Sofía: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Sofía</name></author>	</entry>

	</feed>