Señales y sistemas: una perspectiva

Rafael Martínez-Martínez


La licencia es lo siguiente: Permite a otros copiar, distribuir, exhibir y ejecutar públicamente el trabajo, así como hacer y distribuir trabajos derivados con fines no comerciales pero reconociendo la autoría y sólo bajo la misma licencia o una compatible.

Licencia Creative Commons
Señales y sistemas: una perspectiva por Rafael Martínez-Martínez se distribuye bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.

Los autores han hecho su mejor esfuerzo en la preparación de este material. Se distribuye gratuitamente con la esperanza de que sea útil, pero sin ninguna garantía expresa o implícita respecto a la exactitud o completitud del contenido.

Prefacio

Este prefacio (así como todo el documento electrónico) es variante respecto al tiempo, lo que consultes dependerá de la fecha y hora en que lo hagas. Creo (no tengo una referencia que confirme lo que escribiré) que los libros usuales han sido parte de la educación por tradición, es claro que hace décadas (por no decir siglos) una de las formas de almacenar los conocimientos era escribiendo libros y claro que la experiencia de interactuar con un libro es inigualable. En la actualidad tenemos herramientas tecnológicas (tantas que no sabemos que elegir) para almacenar información, transmitir y enseña, simular situaciones, etc. Por tal motivo este ""libro"" (le llamaremos documento electrónico) es un poco diferente a lo usual. Se presenta de manera escrita la teoría, pero muchas de las explicaciones son mediante video, lo cual acota a que la consulta sea mediante un dispositivo digital (por tal motivo lo definimos como un documento electrónico).

La motivación para escribir documento electrónico proviene de varios lugares, en primer lugar, en el 2004 cuando era estudiante del segundo de cinco años de ingeniería en UPIITA-IPN, el M. en C. Juan Carlos Guzmán Salgado, mi tutor académico y amigo, me enseño lo que era y como se utilizaba LaTeX simplemente quede eclipsado.

En segundo lugar, las tecnologías de la información y la comunicación cada día me dejan con la boca abierta, pero si pienso este punto, en realidad la gente que elabora y reutiliza estas tecnologías es la que me sorprende, la tecnología para elaborar estos materiales me motiva (y tomo prestada) del M. en C. Juan Carlos Guzmán Salgado UPIITA-IPN, M. en C. Rubén Dario ITESM-CEM, del M. en C Walter Mora del ITC, de Udacity, edX, de Mix de microsoft, OSX, Ubuntu-Linux, diseño de Lightboard, construcción Lightboard, programadores de paquetes: HTML, CSS, LaTeX, Javascrip, y ellos a la vez se inspiran en trabajo de otros, no menos importantes.

En tercer y último lugar, el precio de los libros tiene como consecuencia que sean inaccesibles para muchos estudiantes, entiendo que el precio sea alto, el trabajo de elaboración es arduo y agobiante e implica un equipo de producción impresionante. Por tal motivo este material será ofrecido de manera gratuita y en diferentes plataformas siguiendo la filosofía de Educación para todos, que aprendí en la FC-UNAM. Esta filosofía ha sido compartida en internet, basta con escribir en un motor de búsqueda cualquier tema y aparecerán enlaces con información en diferente formatos desde html hasta pdf. En este sentido las notas del Dr. Gabriel Villa Salvador ofrecen uno de mis ejemplos a seguir junto con las notas del M. en C. Rubén Dario ITESM-CEM y del M. en C. Walter Mora.

Quiero aclarar que este documento electrónico no intenta desplazar ni sustituir a los libros clásicos asociados al tema que son excelentes, y por mucho mejores de lo que estoy escribiendo aquí, pero tomo una frase de Thomas Stearns Eliot que leí en la página del profesor J. S. Milne

Mi escusa para no haber escrito el libro es que ha habido mucha otra gente mejor equipada en muchas formas que yo y ellos tampoco lo han escrito.

Agradezco al profesor Rubén Dario por esas platicas de tecnología, producción de contenidos, programación, matemáticas (y no se, probablemente se convierta en mi coautor, recordemos que este documento es dependiente del tiempo), al profesor Walter Mora, por tener disponible en la nube sus formatos de libros, fue inspirador, a todos mis profesores y mis estudiantes que están en esta dinámica del aprendizaje durante toda la vida #LifeLongLearning

Ciudad de México, julio 2016. Rafael Martínez-Martínez

Definición y clasificación

Definiremos a una señal como una función $f$, si el dominio es el conjunto $A$ y el rango el conjunto $B$, escribiremos

$$f:A \rightarrow B$$

Las señales se pueden clasificar de acuerdo a varios criterios. Un criterio se debe a la cardinalidad (de manera intuitiva, cuantos elementos tiene) de su dominio y contradominio.

Un conjunto se dice que es infinito numerable si existe una función biyectiva entre dicho conjunto y los números naturales, en caso de que el conjunto sea infinito y dicha relación no exista se dice que es infinito no numerable.

Diremos que un conjunto es discreto si es finito o infinito numerable. Como ejemplos:

  • $C=\left\{-2.345,1,\pi,e,-3.5,10 \right\}$

  • $\mathbb{N}$

  • $\mathbb{Z}$

  • $3\mathbb{Z}=\left\{...,-6,-3,0,3,6,9,... \right\}$

  • $T\mathbb{Z}=\left\{...,-2T,-T,0,T,2T,3T,... \right\}$

Diremos que un conjunto es continuo si es infinito no numerable.

  • $C=[0,1]$

  • $\mathbb{R}$

  • $C=(-3,5)$

  • $C=[a,b]$ con $a, b\in\mathbb{R}$

Se puede decir que los conjuntos son discretos si los elementos están "separados" (como los números naturales). En los conjuntos continuos esta "separación" no se puede distinguir (como los números reales). Por ejemplo, en el conjunto $\{-1.5, -1, 2, 3, 3.5\}$ el elemento inmediato posterior a 2 es el 3, mientras que en el conjunto $[0,1]$ el elemento inmediato posterior a 0.5 es indistinguible.

En particular suponemos que las señales modelan fenómenos que transcurren en el tiempo, es por ello que si $A$ es continuo, decimos que la señal es en tiempo continuo, y si $A$ es discreto diremos que la señal es en tiempo discreto. Se pensará que $A\subset\mathbb{R}$ ya sea en tiempo continuo o discreto.

Por costumbre las señales en tiempo continuo suelen ser definidas con la variable $t$, es decir, si vemos la notación $f(t)$ nos referimos a una señal en tiempo continuo. Las señales en tiempo discreto en ocasiones son definidas utilizando la variable $k$ o $n$, optamos por la variable $n$ además por lo regular se definen entre corchetes. Así al observar la notación $f[n]$ nos referimos a una señal en tiempo discreto.

Gracias a las definiciones mencionadas anteriormente se pueden clasificar a las señales como: analogícas, digitales, cuantizadas o muestreadas.

Una señal analogica es aquella donde el dominio es en tiempo continuo y el rango es un conjunto continuo. La gráfica de este tipo de señales se ve así:

Pareja

Señal Analogica

Una señal digital es aquella donde el dominio es un conjunto en tiempo discreto y el rango es un conjunto discreto finito, la gráfica de este tipo de señales se ve así.

Pareja

Señal Digital

Las líneas verticales son una convención de visualización, es decir, no significa que un elemento del dominio tenga múltiples alturas asignadas (si no la relación no sería función) el elemento asignado es el que se encuentra al final de la línea vertical.

Una señal cuantizada es aquella donde el dominio es en tiempo continuo y el rango es un conjunto discreto finito. La gráfica de este tipo de señales se ve así:

Pareja

Señal Cuantizada

La línea vertical nuevamente es una convención de visualización, la altura del elemento del dominio podría ser cualquiera sobre la línea vertical (pero solo una), incluso podría no estar asignada. Aquí comentamos dos cosas, los resultados que estudiaremos en señales no cambian si la función tiene este tipo de discontinuidades, por otro lado esta abstracción geométrica concuerda perfectamente con las mediciones electrónicas que se pueden realizar a circuitos eléctricos.

Es importante mencionar que dependiendo del autor que se consulte las definiciones podrían ser diferentes, por ejemplo, algunos autores definen a una señal cuantizada cuando $B$ (nos referimos al rango de la señal) es finito, es decir, $A$ (nos referimos al dominio de la señal) podría ser cualquier tipo de conjunto. En general esto es muy frecuente en ingeniería, los autores tratan de abstraer con herramientas matemáticas distintos fenómenos, y en principio no en todos las áreas hay estándares. No hay que preocuparse por este tipo de detalles, lo importante es entender que se esta haciendo independientemente del nombre que reciba.

Una señal muestreada es aquella donde el dominio es en tiempo discreto infinito y el rango es discreto infinito.

Pareja

Señal Muestreada

Los puntos suspensivos indican que la secuencia continúa indefinidamente. Es importante mencionar que esto solo es una abstracción matemática, es imposible almacenar una cantidad infinita de datos, así que cuando se trabaje con un dispositivo tecnológico construido con electrónica digital (Laptops, smartphones, tablets, etc. ), se tendrá siempre una cantidad finita de elementos (tal vez muchos, pero finita).

Resulta ser que la herramienta matemática con la que se trabajan las señales sólo depende del tipo de dominio de la señal (en tiempo continuo o en tiempo discreto), es decir, el rango podría ser un conjunto discreto o continuo. Así a partir de este momento solo nos referimos a señales en tiempo continuo o en tiempo discreto sin hacer referencia explícita a el rango.

Se ha decidido escribir los resultados para tiempo continuo y para tiempo discreto por separado, con la finalidad de no saturar a los lectores que están interesados en un dominio en particular.

Señales en tiempo continuo

Para una señal $f:A\rightarrow B$ en tiempo continuo donde $B\subset\mathbb{R}$ decimos que la señal es real. Si $B\subset\mathbb{C}$ decimos que la señal es compleja.

Para la señal real $f(t)=t^3$ se muestra su gráfica

 
%MATLAB
%Puedes ejecutar online al final de esta página,
%solo las tres primeras lineas
% Y puedes copiar todo si ejecutas MATLAB 
t=-100:0.1:100;
plot(t,t.^3,'LineWidth',2)
grid on
ax = gca;
ax.XAxisLocation = 'origin';
ax.YAxisLocation = 'origin';
ax.Box = 'off';
title('Gráfica de la señal f(t)=t^3 ')

                                

Para la señal compleja $f(t)=t^2+tj$ se muestra su rango y su gráfica respectivamente


%MATLAB
%Puedes ejecutar online al final de esta página,
%solo las tres primeras lineas
% Y puedes copiar todo si ejecutas MATLAB
t=-100:0.1:100;
plot(t.^2,t,'LineWidth',2)
grid on
ax = gca;
ax.XAxisLocation = 'origin';
ax.YAxisLocation = 'origin';
ax.Box = 'off';
axis([-3000,10000,-100,100])
xlabel('Re')
ylabel('Im')
title('Rango de la señal f(t)=t^2+tj ')

                                
 
%MATLAB
%Puedes ejecutar online al final de esta página,
%solo las tres primeras lineas
% Y puedes copiar todo si ejecutas MATLAB 
t=-100:0.1:100;
plot3(t,t.^2,t,'LineWidth',2)
grid on
xlabel('Dominio t')
ylabel('Re')
zlabel('Im')
title('Gráfica de la señal f(t)=t^2+tj ')

                                

Con una substitución directa en los códigos anteriores se puede resolver el siguiente ejemplo.

Ejemplo 1.

Realice las gráficas de las siguientes señales complejas, así como el rango.

  • $f(t)=e^{tj}$
  • $f(t)=e^{0.1tj}$
  • $f(t)=e^{5tj}$
×

Una señal en tiempo continuo $f$ es causal si $f(t)=0$ para todo $t$ menor que cero, en caso contrario decimos que es no causal. Se muestran gráficas de señales causales y de señales no causales.

La siguiente clasificación de las señales que presentaremos tiene que ver con la idea de "medir a la señal", es decir, dada una señal le realizamos una operación que de resultado nos regrese un número mayor o igual a cero.

Para una señal $f$ definimos su energía $E_f$ como

$$E_f=\lim_{T\to \infty}\int_{-T}^{T} ||f(t)||^2dt=\int_{-\infty}^\infty ||f(t)||^2dt$$

Si $0\leq E_f<\infty$ decimos que la señal es de energía, si $E_f\to\infty$ decimos que la señal no es de energía. Es importante hacer notar que $||f(t)||^2$ se refiere a la norma de la señal al cuadrado, cuando la señal sea real entonces.

$$||f(t)||^2=\left(f(t)\right)^2$$

Cuando la señal sea compleja

$$||f(t)||^2=\mathbb{R}e(f(t))^2+\mathbb{I}m(f(t))^2$$

Para una señal $f$ definimos su potencia $P_f$ como

$$P_f=\lim_{T\to \infty}\dfrac{1}{T}\int_{-T/2}^{T/2} ||f(t)||^2dt$$

Si $0< P_f<\infty$ decimos que la señal es de potencia, si $P_f\to\infty$ decimos que la señal no es de potencia. Es importante hacer notar que $||f(t)||^2$ se refiere a la norma de la señal al cuadrado. Una señal puede ser de energía o de potencia o de ninguno de estos tipos. Las señales que son de energía tienen potencia 0 es por esto que una señal es de potencia cuando el cálculo es positivo.

Ejemplo.

Clasifique la siguiente señal como de energía, potencia o ninguna de estas $$f(t)=e^{tj}$$

×

Sabemos que $f(t)=e^{tj}=cos(t)+sen(t)j$, en este caso

$$\|f(t)\|^2=cos(t)^2+sen(t)^2=1$$

Entonces la energía se calcula como

$$E_f=\int_{-\infty}^{\infty}\|f(t)\|^2dt=\int_{-\infty}^{\infty}dt=\left.t\right|_{-\infty}^{\infty}\to \infty$$

Así, esta señal no es de energía. No podemos concluir que sea una señal de potencia, es necesario realizar la operación correspondiente, en este caso aprovechando las operaciones realizadas previamente

$$P_f=\lim_{T\to\infty}\frac{1}{T}\int_{-T/2}^{T/2}\|f(t)\|^2dt=\lim_{T\to\infty}\frac{1}{T}\int_{-T/2}^{T/2}dt=\frac{1}{T}\lim_{T\to\infty}\left.t\right|_{-T/2}^{T/2}=\lim_{T\to\infty}\frac{1}{T} T=1$$

Así la señal es de potencia.

Ejemplo.

Clasifique la siguiente señal como de energía, potencia o ninguna de estas $$f(t)=t$$

×

Sabemos que $f(t)=t$, en este caso

$$\|f(t)\|^2=t^2$$

Entonces la energía se calcula como

$$E_f=\int_{-\infty}^{\infty}\|f(t)\|^2dt=\int_{-\infty}^{\infty}t^2dt=\left.\frac{t^3}{3}\right|_{-\infty}^{\infty}\to \infty$$

Así, esta señal no es de energía. No podemos concluir que sea una señal de potencia, es necesario realizar la operación correspondiente, en este caso aprovechando las operaciones realizadas previamente

$$P_f=\lim_{T\to\infty}\frac{1}{T}\int_{-T/2}^{T/2}\|f(t)\|^2dt=\lim_{T\to\infty}\frac{1}{T}\int_{-T/2}^{T/2}t^2dt=\frac{1}{T}\lim_{T\to\infty}\left.\frac{t^3}{3}\right|_{-T/2}^{T/2}=\lim_{T\to\infty}\frac{1}{T} \frac{T^3}{12}= \lim_{T\to\infty}\frac{T^2}{12}\to\infty$$

Así la señal no es de potencia.

Ejemplo.

Clasifique la siguiente señal como de energía, potencia o ninguna de estas $$f(t)=\begin{cases} e^{-3t}&\mbox{si }0\leq t\\ 0&\mbox{en otro caso} \end{cases}$$

×

Dada $f(t)$ se tiene

$$\|f(t)\|^2=\begin{cases} e^{-6t}&\mbox{si }0\leq t\\ 0&\mbox{en otro caso} \end{cases}$$

Entonces la energía se calcula como

$$E_f=\int_{-\infty}^{\infty}\|f(t)\|^2dt=\int_{-\infty}^{0}0dt+\int_{0}^{\infty}e^{-6t}dt=\left.-\frac{e^{-6t}}{6}\right|_{0}^{\infty}=\frac{1}{6}$$

Así, esta señal es de energía. Es importante que se verifique que si calculamos la potencia de esta señal el resultado será cero.

Operaciones con señales continuas

Traslación de señales

Las operaciones de traslación horizontal y/o vertical sobre una señal \(f(t)\) tienen como consecuencia que se genere una nueva señal \(g(t)\) cuya gráfica precisamente es un movimiento, horizontal o vertical de la gráfica de la señal "original". Denotaremos a la operación traslación con la letra \(\mathcal{T}\), con subíndice \(h\) para traslación horizontal, así como un subíndice que indique la cantidad de unidades a trasladar.

Si queremos generar una señal $g(t)$ que sea la traslación horizontal de la señal \(f(t)\), \(t_0\in\mathbb{R}\) unidades escribiremos:

\begin{equation} g(t)={\;}_h\mathcal{T}_{t_0}\left\{f(t)\right\}=f(t+t_0) \end{equation}

Por lo regular la notación \({ }_{h}\mathcal{T}_{t_0}\) suele omitirse, aunque considero que la notación es importante en determinados problemas pues evita confusiones. Cuando \(t_0<0\) la gráfica resultante se traslada a la derecha respecto a la original y se dice que esta señal esta retrasada en tiempo, pues lo que pasaba en un determinado momento ahora pasa después, porque la gráfica de la señal resultante esta a la derecha de la señal original. Cuando \(t_0>0\) la gráfica resultante se traslada a la izquierda respecto a la original y se dice que esta señal esta adelantada en tiempo, pues lo que pasaba en un determinado momento ahora pasa antes, porque la gráfica de la señal resultante esta a la izquierda de la señal original. Cuando \(t_0=0\) no hay ninguna traslación y la señal resultante es idéntica a la señal original.

De manera similar si queremos trasladar a la función \(f(t)\) verticalmente \(s_0\) unidades escribimos la notación equivalente. Cuando \(s_0<0\) la gráfica resultante se traslada hacia abajo respecto a la original. Cuando \(s_0>0\) la gráfica resultante se traslada hacia arriba respecto a la original. Cuando \(s_0=0\) no hay ninguna traslación y la gráfica resultante es idéntica a la original.

\begin{equation} g(t)={\;}_v\mathcal{T}_{s_0}\left\{f(t)\right\}=f(t)+s_0 \end{equation}

Cabe aclarar que los movimientos horizontales son contrarios a lo que se esperaría, mientras que los movimientos verticales concuerdan con la intuición, es decir, se esperaría que si el valor de traslación horizontal es positivo la gráfica se mueva a la derecha (y viceversa), pero ocurre lo contrario. En general este comportamiento "contrario" en las operaciones horizontales vuelve a suceder en los escalamientos, de los cuales hablaremos más adelante.

En la siguiente aplicación se pretende ilustrar lo que se ha comentado hasta el momento, es importante que observes que las operaciones no dependen de las letras que se utilizan para las variables, lo que es importante es la operación que se realiza. Puedes dar click en el botón play, también puedes editar la aplicación modificando las fórmulas o agregando otras.

Escalamiento de señales

Las operaciones de escalamiento horizontal y/o vertical sobre una señal $f(t)$ tienen como consecuencia que se genere una nueva señal $g(t)$ cuya gráfica precisamente es un escalamiento, horizontal o vertical de la gráfica de la señal "original". Denotaremos a la operación escalamiento con la letra $\mathcal{E}$, con subíndice $h$ para escalamiento horizontal, así como un subíndice que indique la cantidad de unidades a escalar.

Si queremos generar una señal $g(t)$ que sea el escalamiento horizontal de la señal $f(t)$, $b\neq 0\in\mathbb{R}$ unidades escribiremos:

\begin{equation} g(t)={\;}_h\mathcal{E}_{b}\left\{f(t)\right\}=f(bt) \end{equation}

Por lo regular la notación ${ }_{h}\mathcal{E}_{b}$ suele omitirse, aunque considero que la notación es importante en determinados problemas pues evita confusiones. Cuando $0 < b < 1$ la gráfica resultante es una expansión horizontal respecto a la original. Si $b=1$ no hay escalamiento, la gráfica resultante es idéntica a la original. Ahora si $b>1$ la gráfica resultante es una compresión horizontal respecto a la original. Si $b=0$ entonces la señal resultante es una constante (sería la evaluación de $f$ en $0$) que podría estar bien definida o no, eso dependerá de la forma de $f$, entonces se pierde la idea de escalamiento, por tal motivo este caso no lo consideramos.

Ahora si $-1 < b < 0$ la gráfica resultante se expande y se invierte horizontalmente respecto a la original. Si $b=-1$ la gráfica resultante solo se invierte horizontalmente respecto a la original. Cuando $b<-1$ la gráfica resultante se comprime y se invierte horizontalmente respecto a la original.

De manera similar si queremos escalar a la función $f(t)$ verticalmente $a\neq 0\in\mathbb{R}$ unidades escribimos la notación equivalente. Cuando $0 < a < 1$ la gráfica resultante se comprime, si $a=1$ no hay escalamiento, $a>1$ se expande. Si $-1

\begin{equation} g(t)={\;}_v\mathcal{E}_{a}\left\{f(t)\right\}=af(t) \end{equation}

Observa que al igual que en las traslaciones hay un comportamiento "contrario" en los escalamientos horizontales, a lo que la intuición nos diría.

En la siguiente aplicación se pretende ilustrar lo que se ha comentado hasta el momento, es importante que observes que las operaciones no dependen de las letras que se utilizan para las variables, lo que es importante es la operación que se realiza. Puedes dar click en el botón play, también puedes editar la aplicación modificando las fórmulas o agregando otras.

Observemos que el orden de las operaciones verticales no conmuta. Si trasladamos y después escalamos verticalmente a la señal $f(t)$ tendríamos:

$f_1(t)={\;}_v\mathcal{T}_{s_0}\left\{f(t)\right\}=f(t)+s_0$
$f_2(t)={\;}_v\mathcal{E}_{a}\left\{f_1(t)\right\}=af_1(t)=af(t)+as_0$

Ahora si escalamos y después trasladamos verticalmente a la señal $f(t)$ tendríamos:

$g_1(t)={\;}_v\mathcal{E}_{a}\left\{f(t)\right\}=af(t)$
$g_2(t)={\;}_v\mathcal{T}_{s_0}\left\{g_1(t)\right\}=g_1(t)+s_0=af(t)+s_0$

Operaciones con señales discretas

Traslación de señales

Las operaciones de traslación horizontal y/o vertical sobre una señal $f[n]$ tienen como consecuencia que se genere una nueva señal $g[n]$ cuya gráfica precisamente es un movimiento, horizontal o vertical de la gráfica de la señal "original". Denotaremos a la operación traslación con la letra \(\mathcal{T}\), con subíndice \(h\) para traslación horizontal, así como un subíndice que indique la cantidad de unidades a trasladar.

Si queremos generar una señal $g[n]$ que sea la traslación horizontal de la señal $f[n]$, \(n_0\in\mathbb{Z}\) unidades escribiremos:

\begin{equation} g[n]={\;}_h\mathcal{T}_{n_0}\left\{f[n]\right\}=f[n+n_0] \end{equation}

Por lo regular la notación \({ }_{h}\mathcal{T}_{n_0}\) suele omitirse, aunque considero que la notación es importante en determinados problemas pues evita confusiones. Cuando $n_0 < 0$ la gráfica resultante se traslada a la derecha respecto a la original y se dice que esta señal esta retrasada en tiempo, pues lo que pasaba en un determinado momento ahora pasa después, porque la gráfica de la señal resultante esta a la derecha de la señal original. Cuando \(n_0>0\) la gráfica resultante se traslada a la izquierda respecto a la original y se dice que esta señal esta adelantada en tiempo, pues lo que pasaba en un determinado momento ahora pasa antes, porque la gráfica de la señal resultante esta a la izquierda de la señal original. Cuando \(n_0=0\) no hay ninguna traslación y la señal resultante es idéntica a la señal original.

De manera similar si queremos trasladar a la función $f[n]$ verticalmente $s_0$ unidades escribimos la notación equivalente. Cuando $s_0<0$ la gráfica resultante se traslada hacia abajo respecto a la original. Cuando $s_0>0$ la gráfica resultante se traslada hacia arriba respecto a la original. Cuando $s_0=0$ no hay ninguna traslación y la gráfica resultante es idéntica a la original.

\begin{equation} g[n]={\;}_v\mathcal{T}_{s_0}\left\{f[n]\right\}=f[n]+s_0 \end{equation}

Cabe aclarar que los movimientos horizontales son contrarios a lo que se esperaría, mientras que los movimientos verticales concuerdan con la intuición, es decir, se esperaría que si el valor de traslación horizontal es positivo la gráfica se mueva a la derecha (y viceversa), pero ocurre lo contrario. En general este comportamiento "contrario" en las operaciones horizontales vuelve a suceder en los escalamientos, de los cuales hablaremos más adelante.

En la siguiente aplicación se pretende ilustrar lo que se ha comentado hasta el momento, es importante que observes que las operaciones no dependen de las letras que se utilizan para las variables, lo que es importante es la operación que se realiza. Puedes dar click en el botón play, también puedes editar la aplicación modificando las fórmulas o agregando otras.

Escalamiento de señales

Las operaciones de escalamiento horizontal y/o vertical sobre una señal $f[n]$ tienen como consecuencia que se genere una nueva señal $g[n]$ cuya gráfica precisamente es un escalamiento, horizontal o vertical de la gráfica de la señal "original". Denotaremos a la operación escalamiento con la letra \(\mathcal{E}\), con subíndice \(h\) para escalamiento horizontal, así como un subíndice que indique la cantidad de unidades a escalar.

Si queremos generar una señal $g[n]$ que sea el escalamiento horizontal de la señal \(f[n]\), \(b\neq 0\in\mathbb{Z}\) unidades escribiremos:

\begin{equation} g[n]={\;}_h\mathcal{E}_{b}\left\{f(t)\right\}=f[bn] \end{equation}

Por lo regular la notación \({ }_{h}\mathcal{E}_{b}\) suele omitirse, aunque considero que la notación es importante en determinados problemas pues evita confusiones. Cuando $0 < b < 1$ la gráfica resultante es una expansión horizontal respecto a la original. Si $b=1$ no hay escalamiento, la gráfica resultante es idéntica a la original. Ahora si \(b>1\) la gráfica resultante es una compresión horizontal respecto a la original. Si \(b=0\) entonces la señal resultante es una constante (sería la evaluación de $f$ en $0$) que podría estar bien definida o no, eso dependerá de la forma de $f$, entonces se pierde la idea de escalamiento, por tal motivo este caso no lo consideramos.

Ahora si $-1 < b < 0$ la gráfica resultante se expande y se invierte horizontalmente respecto a la original. Si \(b=-1\) la gráfica resultante solo se invierte horizontalmente respecto a la original. Cuando $b<-1$ la gráfica resultante se comprime y se invierte horizontalmente respecto a la original.

De manera similar si queremos escalar a la función \(f[n]\) verticalmente \(a\neq 0\in\mathbb{R}\) unidades escribimos la notación equivalente. Cuando \(01\) se expande. Si $-1

\begin{equation} g[n]={\;}_v\mathcal{E}_{a}\left\{f[n]\right\}=af[n] \end{equation}

Observa que al igual que en las traslaciones hay un comportamiento "contrario" en los escalamientos horizontales, a lo que la intuición nos diría.

En la siguiente aplicación se pretende ilustrar lo que se ha comentado hasta el momento, es importante que observes que las operaciones no dependen de las letras que se utilizan para las variables, lo que es importante es la operación que se realiza. Puedes dar click en el botón play, también puedes editar la aplicación modificando las fórmulas o agregando otras.

Las funciones coseno y seno al ser evaluadas en variable discreta adquieren dos características (no se presentan cuando se evalúan en una variable continua) estas características son las siguientes

Periodicidad señal discretas

La señal $cos[\omega_0 n]$ es periódica cuando $\frac{2\pi}{\omega_0}\in\mathbb{Q}$ y el periodo es el primer múltiplo entero de este número

Nota: Esto también es válido para la función seno

×
Suponemos que existe $N_0\in\mathbb{Z}$ tal que $$cos[\omega_0 n]=cos[\omega_0 (n+ N_0)]$$ de la suma de ángulos para la función coseno, se tiene $$cos[\omega_0 n]=cos[\omega_0 n]cos[\omega_0N_0]-sen[\omega_0 n]sen[\omega_0N_0]$$ Entonces debe de suceder que $cos[\omega_0N_0]=1$ y $sen[\omega_0N_0]=0$ entonces $\omega_0 N_0=2\pi k$ con $k\in\mathbb{Z}$ o equivalentemente $$\frac{N_0}{k}=\frac{2\pi}{\omega_0}\in\mathbb{Q}$$ Ahora si esto sucede, como $N_0\in\mathbb{Z}$ y $$N_0=\frac{2\pi}{\omega_0}k\in\mathbb{Q}$$ Así se elige $k$ para tener un valor de $N_0$ entero.


Unicidad de señales discretas

Las señales en tiempo discreto $cos[\omega_0 n]$ y $cos[\omega_1 n]$ son iguales si $\omega_0=\omega_1\,mod\,2\pi$ ($\omega_0$ es congruente con $\omega_1$ módulo $2\pi$), es decir cuando $2\pi$ divida a la diferencia $\omega_0-\omega_1$

Nota: Esto también es válido para la función seno

×
Por hipótesis existe $k\in\mathbb{Z}$ tal que $$\omega_0-\omega_1=2\pi k$$ equivalentemente $$\omega_0=\omega_1+2\pi k$$ Entonces $$ \begin{array}{rl} cos[\omega_0 n]&=cos[(\omega_1+2\pi k)n]\\ &=cos[\omega_1 n]cos[2\pi kn]-sen[\omega_1 n]sen[2\pi kn]\\ &=cos[\omega_1 n] \end{array} $$ Así se concluye la afirmación.


Más definiciones

Decimos que una señal $f$ es par si:

$$f(t)=f(-t)$$

La gráfica de este tipo de señales es simétrica con respecto al eje vertical. Una propiedad importante de este tipo de señales es

$$\int_{-a}^{a}f(t)dt=2\int_{-a}^{0}f(t)dt=2\int_0^{a}f(t)dt$$

con $a>0\in\mathbb{R}$.

La gráfica de este tipo de señales es simétrica con respecto al origen. Una propiedad importante de este tipo de señales es

$$\int_{-a}^{a}f(t)dt=0$$

con $a>0\in\mathbb{R}$.

Representación de una señal

Toda señal $f$, se puede escribir como la suma de una señal par más una señal impar, es decir:

$$f(t)=f_p(t)+f_i(t)$$

con

$$f_p(t)=\frac{f(t)+f(-t)}{2}$$ $$f_i(t)=\frac{f(t)-f(-t)}{2}$$
×
Observamos primero que la suma es correcta, es decir $$f_p(t)+f_i(t)=\frac{f(t)+f(-t)+f(t)-f(-t)}{2}=f(t)$$ Observemos que $$f_p(-t)=\frac{f(-t)+f(t)}{2}=\frac{f(t)+f(-t)}{2}=f_p(t)$$ por lo tanto $f_p(t)$ es una señal par De manera similar $$-f_i(-t)=-\frac{f(-t)-f(t)}{2}=\frac{f(t)-f(-t)}{2}=f_i(t)$$ por lo tanto $f_i(t)$ es una señal impar

A continuación se muestran señales con diferentes simetrías

Decimos que una señal $f$ es periódica si existe $T>0$ (el primero de ellos) tal que

$$f(t)=f(t+T)$$

Señales básicas

Escalón o función de Heaviside

El escalón (unitario) $u(t)$ se define así:

$$u(t)=\begin{cases} 1&\mbox{si }0\leq t\\ 0&\mbox{en otro caso} \end{cases}$$

depende del autor la definición del escalón (unitario, porque la máxima altura es $1$) podría ser diferente, algunos autores establecen a $u(0)$ como indefinido, es claro que al comparar estas definiciones resultan distintas, pero bajo operaciones que involucren integración los resultados son los mismos (como veremos adelante, la integración es la operación fundamental en el tratamiento de señales en tiempo continuo), esto permite usar la definición a conveniencia.

La gráfica de esta función es la siguiente:

La representación gráfica que suele ser utilizada en señales es:

Delta de Dirac o impulso

Si se quiere ser preciso en definir que es una delta de Dirac (nos referimos a ella como delta), desde un punto de vista matemático formal, me parece que el tema se complica. No obstante, lo que se establezca sobre la delta será cierto solo que los argumentos para "entender que es una delta" serán intuitivos. Un excelente documento para revisar este tema es el siguiente enlace (claro, preciso y elegante). El esfuerzo por definir la delta de Dirac es necesario, pues la delta permite caracterizar a los sistemas como "transformadores de señales" en particular estudiaremos aquellos sistemas que son Lineales e Invariantes en Tiempo (entiéndase esto como una clasificación de los sistemas que por el momento no es importante).

La delta de Dirac es una estructura matemática que se conoce como distribución, las distribuciones permiten transformar funciones en objetos "más sencillos" (por ejemplo en números u otras "cosas"). Y en ese sentido para nuestros fines nos interesa la "transformación simbólica" cuando aparece la delta, así podemos dar una "definición simbólica". La delta de Dirac $\delta(t)$ se define como:

\begin{array}{l} \delta(t-t_0)=0\mbox{ si }t\neq t_0\\ \int\limits_{-\infty}^{\infty}f(t)\delta(t-t_0)\,dt=f(t_0)\mbox{ si } f \mbox{es continua en }t_0 \end{array}

En particular si $t_0=0$ y $f(t)=1$, se tiene que:

\begin{array}{l} \delta(t)=0\mbox{ si }t\neq 0\\ \int\limits_{-\infty}^{\infty}\delta(t)\,dt=1 \end{array}

Es decir, identificamos un "serie de símbolos" por unos equivalentes conocidos, como son el número $0$ y evaluar una función $f(t_0)$. Para fines prácticos bastaría con acostumbrarse a esta operatividad, para nuestra fortuna hay una serie de motivaciones geométricas que nos pueden ayudar a asociar una idea geométrica de la delta (idea geométrica, no es la gráfica como tal ¿por qué?).

La representación geométrica de la delta es la siguiente:

Para valores "pequeños" de $a$ las señales anteriores satisfacen las condiciones de la definición de la delta cuando $t_0=0$, y $f(t)=1$. En particular es importante observar esto para la función $y_a(t)$

\begin{array}{l} \delta(t)=\lim\limits_{a\to 0}y_a(t)\\ \delta(t)=\lim\limits_{a\to 0}\frac{1}{a}\left(u(t+\frac{a}{2})-u(t-\frac{a}{2})\right)\\ \int\limits_{-\infty}^{\infty}y_a(t)\,dt=\frac{1}{a}\int\limits_{-a/2}^{a/2}\,dt=1 \end{array}

La teoría de distribuciones requiere herramientas matemáticas especializadas, pero se puede hacer una manipulación sencilla con simbólicos, a continuación se presentan una serie de propiedades de la delta de Dirac que pueden reducirse a partir de la definición y de operar el símbolo de integral de manera usual

# Propiedad Prueba
1. $f(t)\delta(t)=f(0)\delta(t)$
$f$ continua en $0$
2. $\frac{d^n}{dt^n}\delta(t)=\delta^{(n)}(t)$
$n\in\mathbb{N}$
3. $\delta(at)=\frac{1}{|a|}\delta(t)$
$a\neq 0\in\mathbb{R}$
4. $u(t-t_0)=\int\limits_{-\infty}^t\delta(\tau-t_0)\,dt$
5. $\frac{d}{dt}u(t-t_0)=\delta(t-t_0)$
6. $\int\limits_{-\infty}^{\infty}f(t)\delta^{(n)}(t)dt=(-1)^nf^{(n)}(0)$
$n\in\mathbb{Z}_+$ $f$ es $n$ veces continuamente
diferenciable en $0$

Nota: La teoría de distribuciones fue desarrollada por el matemático francés Laurent Schwartz entre 1945-1950

Convolución en tiempo continuo

Definición de convolución

La operación de convolución entre dos señales $f(t)$ y $x(t)$ genera una nueva señal $g(t)$, la operación se define como:

\begin{equation} g(t)=f(t)*x(t)=\int_{-\infty}^{\infty}f(\tau)x(t-\tau)\,d\tau \end{equation}

Nota: También se conoce a la convolución como producto composición, integral de superposición, integral de Duhamel.

Esta operación tiene diferentes simplificaciones dependiendo de como sea la forma de las señales involucradas, comenzamos con el caso que aparece frecuentemente en sistemas.

Señales causales

Si las señales son causales y tienen longitud infinita entonces la convolución es:

$$g(t)=\begin{cases} \int_0^t f(\tau)x(t-\tau)\,d\tau&\mbox{si }0\leq t\\ 0&\mbox{en otro caso} \end{cases}$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$ Si $\tau<0$ entonces $u(\tau)=0$ así la integral se reduce a: $$\int_{0}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$ Si $t-\tau < 0$ equivalentemente $t < \tau$ entonces $u(t-\tau)=0$ y los escalones tienen valor unitario, así la integral se reduce a: $$\int_{0}^{t}f(\tau)x(t-\tau)\,d\tau$$

Otra caso para tener en cuenta es cuando las señales tienen longitud finita, es decir, son cero para casi todo su intervalo de definición, en tales circunstancias se puede dar una sugerencia de los pasos a seguir para realizar la convolución.

Pasos para realizar convoluciones

1. Seleccionar una de las dos señal para graficar con el argumento $\tau$

2. La segunda señal se gráfica con el argumento $-\tau$

3. En la segunda señal para cada valor horizontal de cambio de geometría se suma la variable $t$

4. Se traslada la segunda señal mediante la variable $t\in\mathbb{R}$ hasta que $f(\tau)g(t-\tau)$ no sea cero

5. Mediante el paso anterior se eligen los valores de $\tau$ para realizar la integral

6. Se anota el intervalo de $t$ para los cuales los pasos 4 y 5 son válidos

7. Se repite los pasos 4-6 hasta que $t$ tome todos los valores reales

De la definición es fácil ver que se satisfacen las siguientes propiedades

Propiedades de la convolución

1) La convolución conmuta $$f(t)*x(t)=x(t)*f(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución

2) La convolución asocia $$\left(f(t)*x(t)\right)*z(t)=f(t)*\left(x(t)*z(t)\right)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución

3) La convolución distribuye $$f(t)*\left(x(t)+z(t)\right)=f(t)*x(t)+f(t)*z(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$

4) Identidad $$f(t)*\delta(t)=f(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$

5) Traslación. Si $f(t)*x(t)=y(t)$ entonces $$f(t-t_0)*x(t)=y(t-t_0)$$
6) Constantes. Si $a$ es constante entonces $$af(t)*x(t)=f(t)*ax(t)=a(f(t)*x(t))$$
7) Derivación con delta. Si $m\in\mathbb{N}$ entonces $$f(t)*\delta^{(m)}(t)=f^{(m)}(t)$$
8) Derivación. Si $f(t)*x(t)=y(t)$ y $m,n\in\mathbb{N}$ entonces $$f^{(m)}(t)*x^{(n)}(t)=y^{(m+n)}(t)$$
9) Escalamiento. Si $f(t)*x(t)=y(t)$ y $a\neq 0\in\mathbb{R}$ entonces $$f(at)*x(at)=\frac{1}{|a|}y(at)$$

Observaciones

  • La convolución no necesariamente existe, i. e., no siempre se puede realizar para cualesquiera dos señales, por ejemplo si se quiere realizar $u(t)*u(-t)$ donde $u(t)$ es un escalón unitario, veremos que no hay convergencia para ningún valor de $t$
  • La convolución de señales periódicas también tiene detalles técnicos, es por eso que algunas veces se define una operación conocida como convolución periódica, que es similar a la definición de convolución salvo que los límites de integración no son infinitos.
  • El resultado de la convolución de dos señales es "más suave" que las señales involucradas.

Para los casos en donde las señales son causales se puede construir la siguiente tabla, la deducción de cada fórmula es de manera directa

# $f(t)$ $x(t)$ $f(t)*x(t)$ Prueba
1. $f(t)$ $\delta(t-T)$ $f(t-T)$
2. $e^{\lambda t}u(t)$ $u(t)$ $\frac{e^{\lambda t }-1}{\lambda}u(t)$
3. $u(t)$ $u(t)$ $tu(t)$
4. $e^{\lambda_1 t}u(t)$ $e^{\lambda_2 t}u(t)$ $\frac{e^{\lambda_1 t }-e^{\lambda_2 t }}{\lambda_1-\lambda_2}u(t)$
$\lambda_1\neq\lambda_2$
5. $e^{\lambda t}u(t)$ $e^{\lambda t}u(t)$ $te^{\lambda_1 t}u(t)$
6. $te^{\lambda t}u(t)$ $e^{\lambda t}u(t)$ $\frac{1}{2}t^2e^{\lambda t}u(t)$
7. $t^Nu(t)$ $e^{\lambda t}u(t)$ $\frac{N!e^{\lambda t}}{\lambda^{N+1}}u(t)-$
$\sum\limits_{k=0}^N\frac{N!t^{N-k}}{\lambda^{k+1}(N-k)!}u(t)$
8. $t^Mu(t)$ $t^Nu(t)$ $\frac{M!N!}{(M+N+1)!}t^{M+N+1}u(t)$
9. $te^{\lambda_1 t}u(t)$ $e^{\lambda_2 t}u(t)$ $\frac{e^{\lambda_2 t }-e^{\lambda_1 t }+(\lambda_1-\lambda_2)te^{\lambda_1 t }}{(\lambda_1-\lambda_2)^2}u(t)$
$\lambda_1\neq\lambda_2$
10. $t^Me^{\lambda t}u(t)$ $t^Ne^{\lambda t}u(t)$ $\frac{M!N!}{(N+M+1)!}t^{M+N+1}e^{\lambda t}u(t)$
11. $e^{-a t}cos(\beta t + \theta)u(t)$ $e^{\lambda t}u(t)$ $\frac{-cos(\theta-\phi)e^{\lambda t}+e^{-at}cos(\beta t +\theta-\phi)}{\sqrt{(a+\lambda)^2+\beta^2}}u(t)$
$\phi=tan^{-1}\left(-\beta/(a+\lambda)\right)$
12. $e^{-a t}cos(\omega t)u(t)$ $e^{-a t}sen(\omega t)u(t)$ $\frac{1}{2}te^{-at}sen(\omega t)u(t)$
13. $e^{-a t}sen(\omega t)u(t)$ $e^{-a t}sen(\omega t)u(t)$ $\frac{1}{2\omega}e^{-at}sen(\omega t)u(t)-\frac{1}{2}te^{-at}cos(\omega t)u(t)$
14. $e^{-a t}cos(\omega t)u(t)$ $e^{-a t}cos(\omega t)u(t)$ $\frac{1}{2\omega}e^{-at}sen(\omega t)u(t)+\frac{1}{2}te^{-at}cos(\omega t)u(t)$

Convolución en tiempo discreto

Definición de convolución

La operación de convolución entre dos señales $f(t)$ y $x(t)$ genera una nueva señal $g(t)$, la operación se define como:

\begin{equation} g(t)=f(t)*x(t)=\int_{-\infty}^{\infty}f(\tau)x(t-\tau)\,d\tau \end{equation}

Nota: También se conoce a la convolución como producto composición, integral de superposición, integral de Duhamel.

Esta operación tiene diferentes simplificaciones dependiendo de como sea la forma de las señales involucradas, comenzamos con el caso que aparece frecuentemente en sistemas.

Señales causales

Si las señales son causales y tienen longitud infinita entonces la convolución es:

$$g(t)=\begin{cases} \int_0^t f(\tau)x(t-\tau)\,d\tau&\mbox{si }0\leq t\\ 0&\mbox{en otro caso} \end{cases}$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$ Si $\tau<0$ entonces $u(\tau)=0$ así la integral se reduce a: $$\int_{0}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$ Si $t-\tau < 0$ equivalentemente $t < \tau$ entonces $u(t-\tau)=0$ y los escalones tienen valor unitario, así la integral se reduce a: $$\int_{0}^{t}f(\tau)x(t-\tau)\,d\tau$$

Otra caso para tener en cuenta es cuando las señales tienen longitud finita, es decir, son cero para casi todo su intervalo de definición, en tales circunstancias se puede dar una sugerencia de los pasos a seguir para realizar la convolución.

Pasos para realizar convoluciones

1. Seleccionar una de las dos señal para graficar con el argumento $\tau$

2. La segunda señal se gráfica con el argumento $-\tau$

3. En la segunda señal para cada valor horizontal de cambio de geometría se suma la variable $t$

4. Se traslada la segunda señal mediante la variable $t\in\mathbb{R}$ hasta que $f(\tau)g(t-\tau)$ no sea cero

5. Mediante el paso anterior se eligen los valores de $\tau$ para realizar la integral

6. Se anota el intervalo de $t$ para los cuales los pasos 4 y 5 son válidos

7. Se repite los pasos 4-6 hasta que $t$ tome todos los valores reales

De la definición es fácil ver que se satisfacen las siguientes propiedades

Propiedades de la convolución

1) La convolución conmuta $$f(t)*x(t)=x(t)*f(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución

2) La convolución asocia $$\left(f(t)*x(t)\right)*z(t)=f(t)*\left(x(t)*z(t)\right)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución

3) La convolución distribuye $$f(t)*\left(x(t)+z(t)\right)=f(t)*x(t)+f(t)*z(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$

4) Identidad $$f(t)*\delta(t)=f(t)$$
×
Escribiremos el escalón unitario de manera implícita $f(t)u(t)$ y $x(t)u(t)$, al sustituir en la definición de convolución $$\int_{-\infty}^{\infty}f(\tau)u(\tau)x(t-\tau)u(t-\tau)\,d\tau$$

5) Traslación. Si $f(t)*x(t)=y(t)$ entonces $$f(t-t_0)*x(t)=y(t-t_0)$$
6) Constantes. Si $a$ es constante entonces $$af(t)*x(t)=f(t)*ax(t)=a(f(t)*x(t))$$
7) Derivación con delta. Si $m\in\mathbb{N}$ entonces $$f(t)*\delta^{(m)}(t)=f^{(m)}(t)$$
8) Derivación. Si $f(t)*x(t)=y(t)$ y $m,n\in\mathbb{N}$ entonces $$f^{(m)}(t)*x^{(n)}(t)=y^{(m+n)}(t)$$
9) Escalamiento. Si $f(t)*x(t)=y(t)$ y $a\neq 0\in\mathbb{R}$ entonces $$f(at)*x(at)=\frac{1}{|a|}y(at)$$

Observaciones

  • La convolución no necesariamente existe, i. e., no siempre se puede realizar para cualesquiera dos señales, por ejemplo si se quiere realizar $u(t)*u(-t)$ donde $u(t)$ es un escalón unitario, veremos que no hay convergencia para ningún valor de $t$
  • La convolución de señales periódicas también tiene detalles técnicos, es por eso que algunas veces se define una operación conocida como convolución periódica, que es similar a la definición de convolución salvo que los límites de integración no son infinitos.
  • El resultado de la convolución de dos señales es "más suave" que las señales involucradas.

Para los casos en donde las señales son causales se puede construir la siguiente tabla, la deducción de cada fórmula es de manera directa

# $f[n]$ $g[n]$ $f[n]*g[n]$ Prueba
1. $f[n]$ $\delta[n-n_0]$ $f[n-n_0]$
2. $\gamma^{n}u[n]$ $u[n]$ $\frac{1-\gamma^{n+1}}{1-\gamma}u[n]$
3. $u[n]$ $u[n]$ $(n+1)u[n]$
4. $\gamma_1^{n}u[n]$ $\gamma_2^{n}u[n]$ $\frac{\gamma_1^{n+1 }-\gamma^{n+1 }}{\gamma_1-\gamma_2}u[n]$
$\gamma_1\neq\gamma_2$
5. $\gamma_1^{n}u[n]$ $\gamma_2^{n}u[-(n+1)]$ $\frac{\gamma_1}{\gamma_2-\gamma_1}\gamma_1^nu[n]+$
$\frac{\gamma_2}{\gamma_2-\gamma_1}\gamma_2^nu[-(n+1)]$
$|\gamma_2|>|\gamma_1|$
6. $n\gamma_1^{n}u[n]$ $\gamma_2^{n}u[n]$ $\frac{\gamma_1\gamma_2}{(\gamma_1-\gamma_2)^2}(\gamma_2^n-\gamma_1^n)u[n]+$
$\frac{\gamma_1}{\gamma_1-\gamma_2}n\gamma_1^nu[n]$
$\gamma_1\neq\gamma_2$
7. $nu[n]$ $nu[n]$ $\frac{1}{6}n(n-1)(n+1)u[n]$
8. $\gamma^{n}u[n]$ $\gamma^{n}u[n]$ $(n+1)\gamma^nu[n]$
9. $\gamma^{n}u[n]$ $nu[n]$ $\frac{\gamma(\gamma^n-1)+n(1-\gamma)}{(1-\gamma)^2}u[n]$
10. $|\gamma_1|^ncos[\beta n+ \theta]u[n]$ $\gamma_2^nu[n]$ $\frac{|\gamma_1|^{n+1}cos[\beta(n+1)+\theta-\phi]}{R}u[n]-$
$\frac{\gamma_2^{n+1}cos(\theta-\phi)}{R}u[n]$
$\gamma_2$ real
$R=\left(|\gamma_1|^2+\gamma_2^2-2|\gamma_1|\gamma_2cos(\beta)\right)^{0.5}$
$\phi=tan^{-1}\left(\frac{|\gamma_1|sen(\beta)}{|\gamma_1|cos(\beta)-\gamma_2}\right)$

Series de Fourier continuas

Convergencia de las series de Fourier

La convergencia de la serie de Fourier de una función $f(t)$, se refiere a especificar en que sentido la función $f(t)$ se "parece" a su serie de Fourier. Si se satisfacen las siguientes condiciones:

  • La función $f(t)$ es absolutamente integrable en $< T_0 >$, es decir $$\int_{< T_0 >}|f(t)|dt<\infty$$
  • $f(t)$ tiene un número finito de discontinuidades (no infinitas) en $< T_0 >$
  • $f(t)$ tiene un número finito de máximos y mínimos en $< T_0 >$

Entonces se asegura que en un punto $a$ donde $f(t)$ sea continua la serie de Fourier converge al valor de $f(t)$ siempre y cuando se consideren una cantidad suficientemente grande de armónicos, esto es $$\lim_{n\to\infty}S_f(a)=f(a)$$ y si resulta ser que en $a$ $f(t)$ es discontinua (no infinita) se tendrá que $$S_f(a)=\frac{f(a^-)+f(a^+)}{2}$$ A las condiciones anteriormente mencionadas se les conoce como condiciones de Dirichlet.

En particular se presenta un fenómeno en la gráfica de la serie de Fourier en los puntos donde $f$ tiene discontinuidades tipo salto, este fenómeno recibe el nombre de Fenómeno de Gibbs, y se refiere a un "excedente" que aparece en la gráfica justo en las discontinuidades, tanto a la izquierda como a la derecha del punto de discontinuidad, este excedente disminuye su "ancho" conforme aumenta el número de armónicos considerados en la suma de la serie.

Aunque este comportamiento es un poco extraño no contradice en ningún momento la Teoría de Fourier, es decir, con la serie se buscaba minimizar la energía del error ( definido como la resta de la función original menos la serie) y en ningún momento se busco una "copia" de la función original

Teorema de Parseval

Este resultado nos indica que la potencia de una señal periódica $f(t)$ se puede obtener a partir de su serie de Fourier asociada $S_f$, entonces si se tiene la representación trigonométrica compacta de $f$, se tendrá $$P_f=C_0^2+\frac{1}{2}\sum_{n=1}^{\infty}C_n^2$$ Y en caso de que se tenga la representación exponencial compleja

$$P_f=D_0^2+2\sum_{n=1}^{\infty}|D_n|^2$$

Ejemplo 1. Aplicación del teorema de Parseval

Si aplicas el teorema de Parseval a la función periódica $f(t)=t$ en $[-1,1]$ ¿Qué resultado se obtiene?

×

Se obtienen los coeficientes de la serie exponencial compleja para $f$

$$D_n=\frac{(-1)^n}{n\pi}j\;\;n\neq0\mbox{ y }D_0=0$$ $$|D_n|=\frac{1}{n\pi}\;\;n\neq0$$

Por otro lado

\begin{align*} P_f&= \frac{1}{T}\int_{T/2}^{T/2}|f(t)|^2dt\\ &=\frac{1}{2}\int_{-1}^{1}t^2dt=\frac{1}{3}\\ \end{align*}

Si aplicamos el teorema de Parseval

\begin{align*} P_f&=D_0^2+2\sum_{n=1}^{\infty}|D_n|^2\\ \frac{1}{3}&=2\sum_{n=1}^{\infty}\frac{1}{n^2\pi^2} \end{align*}

Entonces al aplicar el teorema de Parseval se obtiene un resultado conocido sobre series, es decir

$$\sum_{n=1}^{\infty}\frac{1}{n^2}=\frac{\pi^2}{6}$$

Ejemplo: Series de Fourier, traslación y escalamiento

Si se conoce el espectro (exponencial complejo) de Fourier para una señal $f(t)$ encontrar el espectro para

(a) $g(t)=f(t-b)$

(b) $r(t)=f(at)$, $a>0$

×

(a) Antes de hacer cuentas es bueno pensar que podría esperarse. Si pensamos en la expresión trigonométrica compacta (sin perdida de generalidad, pues las tres representaciones son equivalentes) el espectro esta determinado por $C_n$ y $\phi_n$ para cada $n\in\mathbb{N}$ (cada función sera de la forma $C_n\cos(n\omega_0 t+\phi_n)$), ahora la serie se "parece" a la señal original, entonces si se traslada horizontalmente a la señal original, bastaría con trasladar a todas las funciones en la serie de Fourier para que el "parecido" continué siendo cierto, es decir se tendrían las mismas frecuencias asociadas a las mismas magnitudes pero a ángulos diferentes respecto de los originales (por el desplazamiento) ¿es esta idea clara?, en caso de que no (y aunque si) realicemos las operaciones correspondientes

(b) Pensando en como comenzamos el inciso anterior, ¿es transparente que se esperará en este caso?, antes de contestar procedamos al contrario del inciso anterior, ahora primero realicemos cuentas

Después de estas operaciones, ¿que pensarías sobre la pregunta inicial?


Series de Fourier discretas

En realidad el nombre correcto de esta sección debería ser: series de Fourier de señales en tiempo discreto, para hacer breve el título prefiero no utilizar el nombre completo.

Para desarrollar las ideas de esta sección sería muy bueno que el lector este familiarizado con las series de Fourier de señales en tiempo continuo (aunque no es necesario, si solo se requiere realizar la operación, sin profundizar en la deducción y/o motivación).

Definimos la series de Fourier (exponencial) para una señal en tiempo discreto $x[n]$ en $N_0\in \mathbb{N}$ evaluaciones ("o de longitud $N_0$") como

\begin{equation} S_x[n]=\sum_{p=n_0}^{n_0+N_0-1}d_pe^{p\Omega_0nj} \end{equation} \begin{equation} d_p=\frac{1}{N_0}\sum_{r=n_0}^{n_0+N_0-1}x[r]e^{-r\Omega_0pj} \end{equation} Con $\Omega_0=\frac{2\pi}{N_0}$ y $n_0$ el tiempo inicial de evaluación de la señal $x[n]$

$d_p$ son los coeficientes de la serie de Fourier, es importante observar que en el intervalo de $n_0$ a $n_0+N_0-1$ hay $N_0$ puntos (números naturales).

Observaciones

  • La ecuación asociada a $S_x$ recibe el nombre de ecuación de síntesis (mismo nombre que en el caso continuo)
  • La ecuación asociada a $d_p$ recibe el nombre de ecuación de análisis (mismo nombre que en el caso continuo)
  • La ecuación de síntesis tiene una cantidad finita de términos, contrario al caso continuo. Esto es consecuencia de que las señales en tiempo discreto cuya frecuencia dista un múltiplo de $2\pi$ son iguales
  • La serie de Fourier es periódica de periodo $N_0$, esto es, $S_x[n]=S_x[n+N_0]$
  • Los coeficientes de Fourier son periódicos de periodo $N_0$, es decir, $d_{p}=d_{p+N_0}$

Relacion de Parseval

Existe una relación entre la potencia de una señal en tiempo discreto periódica y los coeficientes de su serie de Fourier, la relación es la siguiente

$$\frac{1}{N}\sum_{n=n_0}^{n_0+N_0-1}|x[n]|^2=\sum_{k= < N_0 >}|d_k|^2$$

La suma de la derecha se puede hacer en cualquier intervalo de longitud $N_0$

A continuación se presentan ejemplos donde se aplica directamente la definición que se ha comentado, posteriormente cuando estemos familiarizados con la operación se comentará sobre una motivación de esta definición

Ejemplo 1.

Encuentre la serie de Fourier $S_x[n]$ para la señal $$x[n]=\begin{cases} (0.2)^n & \text{si } n\in\left\{-1,0,1,2\right\} \\ 1 & \text{en otro caso} \end{cases}$$ en $[-2,3]\bigcap \mathbb{Z}=\left\{-2,-1,0,1,2,3\right\}$

×

Ejemplo 2.

Encuentre la serie de Fourier discreta de la siguiente señal

×

Como se podrá observar el cálculo de las series de Fourier discreta es una tarea ardua (no difícil), por lo que se puede hacer un programa que haga el cálculo de estos coeficientes, se ha desarrollado una función en MATLAB, que puede ser ejecutada en el siguiente enlace (para ejecutar scrips se tiene que seguir las instrucciones de la página), en este caso la solución el ejemplo 1 descrito anteriormente se puede obtener ejecutando la siguiente instrucción

 
%MATLAB

>> Forierdiscreto([1,5,1,0.2,0.04,1],6,-2,-10,7)

El otro tipo de problemas a los que te puedes enfrentar es donde la señal sea una combinación (lineal o no) de senos y cosenos, entonces se utiliza la identidad de Euler para encontrar la serie de Fourier correspondiente

 
%MATLAB
function Forierdiscreto(xn,N0,n0,a,b)

omega0=2*pi/N0;

sprintf('\n')
fprintf('%6s %12s %15s\n','p','real dp', 'imaginario dp')
r=n0:n0+N0-1;

for p=n0:n0+N0-1;
E=exp(-r*omega0*p*j);
dn(p-n0+1)=(1/N0)*sum(xn.*E);
fprintf('%6.2d %12.5f %15.5f\n',p,real(dn(p-n0+1)), imag(dn(p-n0+1)))
end

sprintf('\n')
fprintf('%6s %12s %15s\n','n','real x(n)', 'imaginaria x(n)')
p=n0:n0+N0-1;

for n=a:b
E=exp(p*omega0*n*j);
Sx(n-a+1)=sum(dn.*E);  
fprintf('%6.2d %12.5f %15.5f\n',n,real(Sx(n-a+1)), imag(Sx(n-a+1)))
end

stem(a:b,Sx)
grid on
hold on 
stem(n0:n0+N0-1,xn,'r')
end


Espectro de Fourier

Al igual que en el caso continuo, los coeficientes de Fourier $d_p$ (en general) serán números complejos, por lo que se puede escribir (con varias convenciones) la información de la serie en dos gráficas, una sera $|d_p|$ vs $p\Omega_0$ y otra será $\angle d_p$ vs ​$p\Omega_0$ la primera recibe el nombre de espectro de magnitud y la segunda espectro de fase y en conjunto forman el espectro de Fourier para la señal correspondiente (al igual que el caso continuo).

La construcción es idéntica al caso continuo pero solo se tienen que construir $N_0$ coeficientes, pues estos son periódicos, así, los espectros son gráficas periódicas; por último si $x[n]$ es real entonces $d_p=\overline{d_p}$

¿Por qué la Serie tiene la forma descrita?

Es claro para el lector que si se plantea un problema de optimización del error cuadrático promedio entre la señal $x[n]$ y una combinación lineal de exponenciales complejas ortogonales en el intervalo $ < N_0 > $; los coeficientes, como se han definido anteriormente, son el resultado de esta optimización (a mi parecer esto no es nada claro, pero es cierto, es futuras ediciones de este documento probaremos esta afirmación. Al autor (a mi) le pareció "gracioso" parafrasear textos en donde se sobreentiende que el lector es un estudiante erudito)

Transformada de Fourier continua $\mathscr{F}$

Se define a la transformada de Fourier de una función \(f(t)\) en tiempo continuo como

\begin{equation} \mathscr{F}\left\{ f(t) \right\}=\int _{ -\infty }^{ \infty }{ f(t) } { e }^{ -j\omega t }dt \end{equation}

siempre y cuando esta integral converja.

Obsérvese que en esta integral desaparece la letra de integración (cuando se termina de integrar), en este caso la \(t\), por lo que este procedimiento da lugar a una nueva expresión en términos de una nueva variable \(\omega\), y dependiendo de la literatura que se consulte se define la siguiente notación:

\begin{equation} \mathscr{F}\left\{ f(t) \right\}=F(j\omega)=F(\omega) \end{equation}

Se utilizará cualquiera de estas notaciones de manera indistinta. La transformada de Fourier es un tipo de operación que en general se conoce como transformada integral

Los siguientes ejemplos ayudan a entender como encontrar la transformada de Fourier por medio de la definición, son cálculos directos, es decir, son técnicas de integración usual (recuerde que \(j\) se opera como una constante), probablemente lo "complicado" es evaluar los límites de integración, si no se recuerda como realizar estas evaluaciones es muy recomendable que se revise el siguiente enlace antes de continuar, con el fin de que los procedimientos presentados sean transparentes, aunque puede avanzar sin ningún problema.

Ejemplo 1.

Encuentre la transformada de Fourier de \(f(t)={ e }^{ -at }u(t)\)

×

Por definición,

\begin{align*} \mathscr{F}\left\{ f(t) \right\}&= F(\omega )\\ &=\int _{ -\infty }^{ \infty }{ { e }^{ -at } } u(t){ e }^{ -j\omega t }dt\\ &=\int _{ 0 }^{ \infty }{ { e }^{ -(a+j\omega )t } } dt\\ &=\frac{ -1 }{ a+j\omega } \left( { \left. { e }^{ -(a+j\omega )t } \right| }_{ 0 }^{ \infty }\right) \end{align*}

Si \( \mathbb{R}e(a)>0\) la evaluación \({ \left. { e }^{ -(a+j\omega )t } \right| }_{ 0 }^{ \infty }=1\). Por lo tanto:

\begin{equation} F(\omega )=\frac { 1 }{ a+j\omega } \quad \mathbb{R}e(a)>0 \end{equation}

Ejemplo 2.

Encuentre la transformada de Fourier de \(f(t)=t{ e }^{ -at }u(t)\)

Por definición,

\begin{align*} \mathscr{F}\left\{ f(t) \right\}&= F(\omega )\\ &=\int _{ -\infty }^{ \infty }{ t{ e }^{ -at } } u(t){ e }^{ -j\omega t }dt&\\ &=\int _{ 0 }^{ \infty }{ t{ e }^{ -(a+j\omega )t } } dt&\\ \end{align*}

si aplicamos integración por partes,

\begin{align*} &u=t,\;\;dv={ e }^{ -(a+j\omega )t } dt\\ &\frac{du}{dt}=1,\;\;v=\frac{ -1 }{ a+j\omega } { e }^{ -(a+j\omega )t } \\ &F(\omega)=\frac{- 1}{ a+j\omega }\left( { \left. t{ e }^{ -(a+j\omega )t } \right| }_{ 0 }^{ \infty }\right)\\ &+\frac{ 1 }{ a+j\omega }\int _{ 0 }^{ \infty } { e }^{ -(a+j\omega )t }dt\\ \end{align*}

Si \( \mathbb{R}e(a)>0\) la evalución \({ \left. t{ e }^{ -(a+j\omega )t } \right| }_{ 0 }^{ \infty }=0\), se tiene que:

\begin{align*} &F(\omega)=\frac{ 1 }{ a+j\omega }\int _{ 0 }^{ \infty } { e }^{ -(a+j\omega )t }dt\\ \end{align*}

si se usa el ejemplo anterior para saber el valor de la integral

\begin{align*} &F(\omega)=\frac{ 1 }{ a+j\omega }\left(\frac{ 1 }{ a+j\omega }\right)\\ \end{align*}

Por lo tanto

\begin{equation} F(\omega )=\frac { 1 }{ \left(a+j\omega\right)^2 } \;\;\; \mathbb{R}e(a)>0 \end{equation}

Ejemplo 3.

Encuentre la transformada de Fourier de \(f(t)={ e }^{ -a|t| }\)

×

Por definición,

\begin{align*} \mathscr{F}\left\{ f(t) \right\}&= F(\omega )\\ &=\int _{ -\infty }^{ \infty }{ { e }^{ -a|t| } } { e }^{ -j\omega t }dt\\ \end{align*}

de acuerdo a la definición de valor absoluto

\begin{align*} & F(\omega)=\int _{ -\infty }^{ 0 }{ { e }^{ at } } { e }^{ -j\omega t }dt\\ &\;\;\;\;\;\;\;\;\;+\int _{ 0 }^{ \infty }{ { e }^{ -at } } { e }^{ -j\omega t }dt\\ &=\int_{ -\infty }^{ 0 }{ { e }^{ -(j\omega-a )t } } dt +\int _{ 0 }^{ \infty }{ { e }^{ -(a+j\omega )t } } dt\\ &=- \frac{ \left( { \left. { e }^{ -(j\omega-a )t } \right| }_{ -\infty }^{ 0 }\right)}{ j\omega-a }-\frac{ \left( { \left. { e }^{ -(a+j\omega )t } \right| }_{ 0 }^{ \infty }\right)}{ a+j\omega } \end{align*}

Si \( \mathbb{R}e(a)>0\) las evaluciones son \(1\) y \(-1\) repectivamente, al operar el signo en el denominador de la primera expresión se tiene que:

\begin{align*} F(\omega)&=\frac{ 1 }{ a-j\omega }+\frac{ 1 }{ a+j\omega }\\ \end{align*}

Por lo tanto

\begin{equation} F(\omega )=\frac{ 2a }{ a^2+\omega^2 } \;\;\; \mathbb{R}e(a)>0 \end{equation}

Los ejemplos anteriores pueden ser resueltos usando diferentes paquetes de computo, en particular se han implementado los códigos en Python y MATLAB, que puedes consultar y ejecutar en los enlaces indicados.

Puedes copiar el código de Python y ejecutarlo en el siguiente enlace

Puedes copiar el código de MATLAB y ejecutarlo en el siguiente enlace

    
#Python
from sympy import *
from sympy.abc import a, k, w, t
k=w/(2*pi)
f=fourier_transform(exp(-a*t)*Heaviside(t), t, k)
g=fourier_transform(t*exp(-a*t)*Heaviside(t), t, k)
h=fourier_transform(exp(-a*Abs(t)), t, k)
print f,g,h
            
 
%MATLAB
syms   t w 
syms a positive
f=exp(-a*t)*heaviside(t);
g=t*exp(-a*t)*heaviside(t);
h=exp(-a*abs(t));
fourier(f,t,w)
fourier(g,t,w)
fourier(h,t,w)            

Propiedades de la transformada de Fourier

Si se suponen ciertas condiciones de las funciones a las cuales se calcula su transformada Fourier y se manipula la definición de la transformada, se pueden deducir propiedades, es decir, simplificaciones del uso de la transformación. Si estas interesado en conocer un argumento del porqué las expresiones listadas son correctas, puedes consultar los videos asociados.

Propiedad Expresión $F(j\omega)=F(\omega)$ Prueba
Linealidad $af_1(t)+bf_2(t)$ $aF_1(\omega)+bF_2(\omega)$
Traslación en $t$ $f(t-t_0)$ $F(\omega)e^{-jt_0 \omega}$
Escalamiento en $t$ $f(at)$ $\frac{1}{|a|}F(\frac{\omega}{a})$
Inversión en $t$ $f(-t)$ $F(-\omega)$
Traslación en $\omega$ $f(t)e^{\omega_0 j t}$ $F(\omega-\omega_0)$
Modulación de Amplitud $f(t)cos(\omega_0t)$ $\frac{1}{2}F(\omega-\omega_0)+\frac{1}{2}F(\omega+\omega_0)$
$f(t)sen(\omega_0t)$ $\frac{j}{2}F(\omega+\omega_0)-\frac{j}{2}F(\omega-\omega_0)$
Conjugación $f^*(t)$ $F^*(-\omega)$
Dualidad $F(t)$ $2\pi f(-\omega)$
Derivada $\frac{d}{dt}f(t)$ $j\omega F(\omega)$
$n$ Derivada $\frac{d^n}{dt^n}f(t)$ $(j\omega)^nF(\omega)$
Convolución en t $f(t)*h(t)$ $F(\omega)H(\omega)$
Convolución en $\omega$ $f(t)h(t)$ $\frac{1}{2\pi}F(\omega)*H(\omega)$
Integral $\int_{-\infty}^{t}f(\tau) d\tau$ $\frac{F(\omega)}{j\omega}+\pi F(0)\delta(\omega)$

Tabla de transformadas de Fourier

La siguiente tabla muestra las transformadas de Fourier de señales usuales, la prueba del resultado, la "gráfica" de la señal , la "gráfica" de la transformada y la gráfica del espectro de Fourier (en algunos casos no es la gráfica, es la idea geometrica asociada a la distribución).

# $f(t)$ $F(j\omega)=F(\omega)$ Condición Prueba Gráfica de $f(t)$ Gráfica de $F(\omega)$ Espectro de Fourier
1. $e^{-at}u(t)$ $\frac{1}{j\omega+a}$ $\mathbb{R}e(a)>0$
2. $te^{-at}u(t)$ $\frac{1}{(j\omega+a)^2}$ $\mathbb{R}e(a)>0$
3. $t^ne^{-at}u(t)$ $\frac{n!}{(j\omega+a)^{n+1}}$ $\mathbb{R}e(a)>0$
4. $e^{-a|t|}$ $\frac{2a}{a^2+\omega^2}$ $\mathbb{R}e(a)>0$
5. $e^{-at}cos(\omega_0t)u(t)$ $\frac{a+j\omega}{(j\omega+a)^2 + \omega_0^2}$ $\mathbb{R}e(a)>0$
6. $e^{-at}sen(\omega_0t)u(t)$ $\frac{\omega_0}{(j\omega+a)^2 + \omega_0^2}$ $\mathbb{R}e(a)>0$
7. $sgn(t)$ $\frac{2}{j\omega}$
8. $rect\left(\frac{t}{\tau}\right)$ $\tau sa\left(\frac{\omega\tau}{2}\right)$
9. $\frac{A}{\pi}sa\left(At\right)$ $rect\left(\frac{\omega}{2A}\right)$
10. $\Delta\left(\frac{t}{\tau}\right)$ $\frac{\tau}{2}sa^2\left(\frac{\omega \tau}{4}\right)$
11. $\frac{A}{2\pi}sa^2\left(\frac{At}{2}\right)$ $\Delta\left(\frac{\omega}{2A}\right)$
12. $e^{-t^2/2\sigma^2}$ $\sigma\sqrt{2\pi}e^{-\sigma^2\omega^2/2}$
13. $\delta (t)$ $1$
14. $1$ $2\pi \delta (\omega)$
15. $e^{\omega_0 j t}$ $2\pi \delta (\omega-\omega_0)$
16. $cos(\omega_0 t)$ $\pi\left\lbrace \delta (\omega-\omega_0)+\delta (\omega+\omega_0)\right\rbrace $
17. $sen(\omega_0 t)$ $j\pi\left\lbrace \delta (\omega+\omega_0)-\delta (\omega-\omega_0)\right\rbrace $
18. $cos(\omega_0 t)u(t)$ $\frac{\pi}{2}\left\lbrace \delta (\omega-\omega_0)+\delta (\omega+\omega_0)\right\rbrace +\frac{j\omega}{\omega_0^2-\omega^2}$
19. $sen(\omega_0 t)u(t)$ $j\frac{\pi}{2}\left\lbrace \delta (\omega+\omega_0)-\delta (\omega-\omega_0)\right\rbrace +\frac{\omega_0}{\omega_0^2-\omega^2}$
20. $u(t)$ $\pi\delta(\omega)+\frac{1}{j\omega}$
21. $\sum\limits_{n=-\infty}^{\infty}D_ne^{jn\omega_0 t}$ $2\pi\sum\limits_{n=-\infty}^{\infty}D_n\delta(\omega-n\omega_0),\;\omega_0=\frac{2\pi}{T_0}$
22. $\sum\limits_{n=-\infty}^{\infty}\delta(t-nT_0)$ $\omega_0\sum\limits_{n=-\infty}^{\infty}\delta(\omega-n\omega_0),\;\omega_0=\frac{2\pi}{T_0}$

Ejemplo 4.

Encuentre la solución de la siguiente ecuación diferencial mediante la transformada de Fourier $$\ddot{x}(t)+7\dot{x}(t)+10x(t)=u(t)$$

×

Aplicando propiedades de la transformada de Fourier: linealidad, derivación, y teniendo presente la transformada del escalón

\begin{align*} \mathscr{F}\left\{ \ddot{x}(t)+7\dot{x}(t)+10x(t) \right\}=\mathscr{F}\left\{u(t) \right\}&\\ (j\omega)^2X(w)+7(j\omega)X(\omega)+10X(\omega)=U(\omega)&\\ X(\omega)\left( (j\omega)^2+7(j\omega)+10 \right)=U(\omega)&\\ X(\omega)=U(\omega)\left( \frac{1}{(j\omega)^2+7(j\omega)+10} \right)&\\ X(\omega)=\left(\pi\delta (\omega)+\frac{1}{j\omega}\right)\left( \frac{1}{(j\omega)^2+7(j\omega)+10} \right)& \end{align*} \begin{align*} X(\omega)&=\pi\delta (\omega)\left( \frac{1}{(j\omega)^2+7(j\omega)+10} \right)\\ &+ \frac{1}{j\omega}\left( \frac{1}{(j\omega)^2+7(j\omega)+10} \right)\\ \end{align*}

Recordamos que $f(\omega)\delta(\omega)=f(0)\delta(\omega)$, a la vez proponemos una descomposición en fracciones parciales

\begin{align*} X(\omega)&=\frac{1}{10}\pi\delta (\omega)+ \frac{A}{j\omega}+\frac{B}{j\omega+2}+\frac{C}{j\omega+5}\\ \end{align*}

Se encuentra que los coeficientes de la descomposición en fracciones parciales son $A=1/10$ $B=-1/6$ $C=1/15$

\begin{align*} X(\omega)&=\frac{1}{10}\left(\pi\delta (\omega)+ \frac{1}{j\omega}\right)+\frac{-1/6}{j\omega+2}+\frac{1/15}{j\omega+5}\\ \end{align*}

Por último se hace el siguiente razonamiento: Se ha encontrado la transformada de Fourier $X(\omega)$ de la incógnita $x(t)$ de la ecuación diferencial, entonces a partir de las fórmulas conocidas se sigue que para tener la estructura $X(\omega)$ necesariamente $x(t)$ tiene que ser

\begin{align*} x(t)&=\frac{1}{10}u(t)-\frac{1}{6}e^{-2t}u(t)+\frac{1}{15}e^{-5t}u(t)\\ \end{align*}

La cual es la solución buscada de la ecuación diferencial.

Observaciones.

Sabemos que la ecuación diferencial propuesta es una ecuación que necesita 2 condiciones iniciales ($x(t_0)$, $\dot{x}(t_0)$) para tener una solución única, pues es de segundo orden. Entonces ¿Por qué no se han especificado estas condiciones iniciales?, la respuesta corta es porque no se necesitan, si se observa el procedimiento presentado previamente en ningún momento se presenta la necesidad de conocer $x(t_0)$ o $\dot{x}(t_0)$ para concluir el resultado.

Siendo un poco más formales, resulta ser que una de las aplicaciones de la transformada de Fourier es para resolver ecuaciones diferenciales de orden $n$ con coeficientes constantes y con condiciones iniciales cero (las condiciones iniciales se especifican en algún punto $t_0$ por lo regular $t_0=0$), precisamente como el procedimiento no necesita de estos datos pensamos que los datos son nulos. Entonces el problema completo tendría que haberse escrito de la sigueinte manera

Encuentre la solución de la siguiente ecuación diferencial con condiciones iniciales $x(0)=0$ y $\dot{x}(0)=0$ mediante la transformada de Fourier $$\ddot{x}(t)+7\dot{x}(t)+10x(t)=u(t)$$

Ahora obsérvese que el siguiente problema no se puede resolver por completo mediante la transformada de Fourier, ¿Por qué?

Encuentre la solución de la siguiente ecuación diferencial con condiciones iniciales $x(0)=1$ y $\dot{x}(0)=-1$ mediante la transformada de Fourier $$\ddot{x}(t)+7\dot{x}(t)+10x(t)=u(t)$$

Densidad espectral de potencia

La densidad espectral de potencia $P(\omega)$ (o $S_f(\omega)$ depende de la literatura consultada) de una señal de potencia $f(t)$, puede definirse directamente, también puede motivarse la definición de distintas maneras para que el calculo resulte como la solución de una pregunta planteada. Aquí se indicará cual es la motivación, pero los argumentos para llegar a la definición no se desarrollarán, se presentará su definición y algunas equivalencias y simplificaciones.

Si se recuerda el teorema de Parseval para transformada de Fourier, se tiene que una función en el dominio $\omega$, $||G(\omega)||^2$, tiene la misma distribución de energía que una señal de energía $g(t)$, (salvo por una constante) con $G(\omega)=\mathscr{F}\{g(t)\}$. Es decir,

$$E_g=\int_{-\infty}^{\infty} ||g(t)||^2dt=\dfrac{1}{2\pi}\int_{-\infty}^{\infty}||G(\omega)||^2d\omega$$

La idea sería encontrar una expresión similar para una señal de potencia, es decir, si $f(t)$ es una señal de potencia nos gustaría encontrar $P(\omega)$ tal que:

\begin{equation}\label{edep} P_f=\lim_{T\to \infty}\dfrac{1}{T}\int_{-T/2}^{T/2} ||f(t)||^2dt=\dfrac{1}{2\pi}\int_{-\infty}^{\infty} P(\omega)d\omega,.......(1)\end{equation}

Entonces para encontrar esta $P(\omega)$ se podría definir $f_T(t)=f(t)rect(t/T)$ y a esta nueva señal (pensando que tiene energía finita) se le podría aplicar el teorema de Parseval para transformada de Fourier. Después de algunas manipulaciones para que la ecuación (1) se satisfaga, se llega a que la densidad espectral de potencia $P(\omega)$ para una señal de potencia $f(t)$, se define como:

\begin{equation} P(\omega)=\lim_{T\to\infty}\dfrac{1}{T}||F_T(\omega)||^2=\lim_{T\to\infty}\dfrac{1}{T}\left\|\int_{-T/2}^{T/2}f(t)e^{-j\omega t}dt\right\|^2 \end{equation}

Equivalentemente se puede calcular la densidad espectral de potencia como

$$\displaystyle P(\omega)=\mathscr{F}\left\{\overline{r}\displaystyle_{ff}(t)\right\}=\int_{-\infty}^{\infty}\overline{r}_{ff}(t)e^{-j\omega t}dt$$

donde $\overline{r}_{ff}(t)$ es la autocorrelación promedio de la señal $f(t)$. Se puede utilizar cualquiera de las dos definiciones para calcular la densidad espectral de potencia. Algunas veces este cálculo se simplifica para señales que satisfacen ciertas hipótesis, en particular se tiene el siguiente resultado

Señales periódicas reales

Si una señal de potencia $f(t)$ satisface que:

1. $f(t)$ es periodica de periodo $T_0$

2. $f(t)$ es real

Entonces su densidad espectral de potencia esta dada por

$$P(\omega)=\sum_{n=-\infty}^{\infty}2\pi||D_n||^2\delta(\omega-n\omega_0)$$

con $D_n$ los coeficientes de al serie exponencial de Fourier para $f(t)$ y $\omega_0=2\pi/T_0$

Así al calcular la fórmula (1) se tiene

$$P_f=\dfrac{1}{T_0}\int_{-T_0/2}^{T_0/2} ||f(t)||^2dt=\dfrac{1}{2\pi}\int_{-\infty}^{\infty}\sum_{n=-\infty}^{\infty}2\pi||D_n||^2\delta(\omega-n\omega_0) d\omega=\sum_{n=-\infty}^{\infty}||D_n||^2$$

Que precisamente coincide con el teorema de Parseval para series de Fourier

×

La demostración de esta simplificación se sigue en tres pasos, el primero es calcular la autocorrelación promedio de una señal periódica de periodo $T_0$,

$$\overline{r}_{ff}(t)=\dfrac{1}{T_0}\int_{-T_0/2}^{T_0/2}f(\tau)f(\tau-t)dt,\;-T_0/2\leq t\leq T_0/2$$

el segundo es calcular la serie de Fourier del resultado antes obtenido (que también es una señal periódica del mismo periodo, es decir $\overline{r}_{ff}(t)=\overline{r}_{ff}(t+T_0) $) sabiendo que la señal es real, posteriormente utilizamos la equivalencia de la densidad espectral de potencia junto con la fórmula 23 de la tabla de transformadas de Fourier que se encuentra en la parte superior. Para ilustrar este procedimiento, en los siguientes ejemplos aplicaremos directamente el resultado, y después realizaremos los pasos descritos anteriormente con el fin de reforzar el entendimiento del calculo de la densidad espectral de potencia.

Ejemplo

Encuentra la densidad espectral de potencia para:

$$f(t)=Asen(\omega_1t+\phi)$$
×

Esta señal es real y periódica de periodo $T_0=2\pi/\omega_1$, así la densidad espectral de potencia esta dada por

$$P(\omega)=\sum_{n=-\infty}^{\infty}2\pi||D_n||^2\delta(\omega-n\omega_0)$$

Se puede calcular $D_n$ con su definición con $\omega_0=2\pi/T_0=\omega_1$ pero observemos que al aplicar la identidad de Euler a la señal

$$f(t)=\dfrac{A}{2j}e^{(\omega_1t+\phi)j}-\dfrac{A}{2j}e^{-(\omega_1t+\phi)j}$$ $$f(t)=\dfrac{Ae^{\phi j}}{2j}e^{\omega_1tj}-\dfrac{Ae^{-\phi j}}{2j}e^{-\omega_1t}$$

Entonces el análisis es el siguiente, el objetivo de calcular la serie de Fourier de una señal es escribirla en términos de funciones exponencial complejas multiplicadas por ciertos coeficientes, este objetivo ya se ha cumplido al utilizar Euler, así se logra identificar a $D_1=\dfrac{Ae^{\phi j}}{2j}$ y $D_{-1}=\dfrac{Ae^{-\phi j}}{-2j}$ ¿Por qué?

Si se calculan las coeficientes $D_n$ de manera directa se tendrá que todos los coeficientes son cero excepto cuando $n=1$ y $n=-1$, sería bueno comprobar esta situación. Se tiene que

$$||D_1||^2=||D_{-1}||^2=\dfrac{A^2}{4}$$

Así la densidad espectral de potencia es:

$$P(\omega)=\dfrac{A^2\pi}{2}\delta(\omega+\omega_1)+\dfrac{A^2\pi}{2}\delta(\omega-\omega_1)$$

En este caso

$$P_f=\dfrac{1}{2\pi}\int_{-\infty}^{\infty}\dfrac{A^2\pi}{2}\delta(\omega+\omega_1)+\dfrac{A^2\pi}{2}\delta(\omega-\omega_1)d\omega=\dfrac{A^2}{2}$$

Nuevamente, ya se sabia que la potencia de una función seno (o coseno) es la amplitud al cuadrado sobre dos.

Ejemplo

Encuentra la densidad espectral de potencia para, la señal periódica $f(t)=f(t+T_0)$, cuya descripción en $-T_0/2\leq t\leq T_0/2$ esta dada por:

$$f(t)=\begin{cases} A & \text{si } -T_0/4\leq t\leq T_0/4 \\ 0 & \text{en otro caso} \end{cases}$$

×

Transformada de Fourier discreta

Se define a la transformada de Fourier de una función \(x[n]\) en tiempo discreto como

\begin{equation} \mathscr{F}\left\{ x[n] \right\}=\sum _{ n=-\infty }^{ \infty }{ x[n] } { e }^{ -j\Omega n } \end{equation}

siempre y cuando esta suma converja. La transformada Fourier de funciones en tiempo discreto es una función $X:A\subseteq\mathbb{R}\rightarrow\mathbb{C}$, por tal motivo la gráfica necesita tres ejes, de igual manera que en el caso de la transformada de Fourier continua se pueden obtener 2 gràficas, $|X(\Omega)|$ vs $\Omega$ el espectro de magnitud y $\angle\,X(\Omega)|$ vs $\Omega$ el espectro de fase, ambas gráficas conforman el espectro de Fourier.

Obsérvese que al realizar la suma, desaparece la variable \(n\), por lo que este procedimiento da lugar a una nueva expresión en términos de una nueva variable \(\Omega\), y dependiendo de la literatura que se consulte se define la siguiente notación:

\begin{equation} \mathscr{F}\left\{ x[n] \right\}=X(\Omega)=X(e^{j\Omega}) \end{equation}

Se utilizará cualquiera de estas notaciones de manera indistinta.

Observaciones

  • La transformada de Fourier discreta $X(\Omega)$ tiene dominio continuo.
  • La transformada de Fourier discreta es periódica de periodo $2\pi$, es decir $$X(\Omega)=X(\Omega+2\pi)$$

Los siguientes ejemplos, tienen la intención de familiarizar al lector con las operaciones necesarias para realizar la transformada de la Fourier discreta.

Ejemplo 1.

Encuentre la transformada de Fourier discreta de \(x[n]=a^{ |n| }\)

×

Ejemplo 2.

Encuentre la transformada de Fourier de \(x[n]=\delta[n+1]-\delta[n-1]\), bosqueja los espectros de magnitud y de fase.

×

Ejemplo 3.

Use la transformada de Fourier discreta para encontrar la solución a la siguiente ecuación en diferencias $$y[n]-0.8y[n-1]=(0.5)^nu[n]$$

×

Propiedades de la transformada de Fourier discreta

Si se suponen ciertas condiciones sobre las expresiones a las cuales se les calcula su transformada de Fourier discreta y se manipula la definición de la transformada, se pueden deducir propiedades, es decir, simplificaciones del uso de la transformación. La siguiente tabla muestra algunas de estas propiedades.

Propiedad Expresión $X(\Omega)=X(e^{j\Omega})$ Prueba
Linealidad $ax_1[n]+bx_2[n]$ $aX_1(\Omega)+bX_2(\Omega)$
Conjugación $x^*[n]$ $X^*(-\Omega)$
Traslación en $n$ $x[n-n_0]$ $X(\Omega)e^{-jn_0 \Omega}$
Inversión en $n$ $x[-n]$ $X(-\Omega)$
Traslación en $\Omega$ $x[n]e^{j\Omega_0 n}$ $X(\Omega-\Omega_0)$
Convolución en $n$ $x_1[n]*x_2[n]$ $X_1(\Omega)X_2(\Omega)$
Convolución en $\Omega$ $x_1[n]x_2[n]$ $\frac{1}{2\pi}X_1(\Omega)*X_2(\Omega),\mbox{ en }<2\pi>$
Multiplicación por $n$ $nx[n]$ $j\frac{d}{d\Omega}X(\Omega)$
Teorema de Parseval $E_x=\sum\limits_{n=-\infty}^\infty{}|x[n]|^2$ $E_x=\frac{1}{2\pi}\int\limits_{<2\pi>}|X(\Omega)|^2d\Omega$

Tabla de Transformadas de Fourier discreta

La siguiente tabla muestra las transformadas de Fourier discreta de señales usuales, es importante se utilice la tabla solo si se tiene claro que significa cada elemento involucrado, de lo contrario, es importante que se revisen las condiciones bajo las cuales las fórmulas listadas son válidas.

# $x[n]$ $X(\Omega)=X(e^{j\Omega})$ Condición
1. $\delta [n]$ $1$
2. $a^nu[n]$ $\frac{e^{j\Omega}}{e^{j\Omega}-a}=\frac{1}{1-e^{-j\Omega}a}$ $|a| < 1$
3. $na^{n}u[n]$ $\frac{ae^{j\Omega}}{(e^{j\Omega}-a)^2}$ $|a| <1 $
4. $a^{|n|}$ $\frac{1-a^2}{1-2a\cos(\Omega)+a^2}$ $|a| < 1$
5. $a^n\cos(\Omega_0n+\theta)u[n]$ $\frac{e^{j\Omega}[e^{j\Omega}\cos(\theta)-a\cos(\Omega_0-\theta)]}{e^{j2\Omega}-2a\cos(\Omega_0)e^{j\Omega} + a^2}$ $|a| < 1$
6. $-a^nu[-n+1]$ $\frac{e^{j\Omega}}{e^{j\omega}-a}$ $|a| > 1$
7. $u[n]-u[n-M]$ $\frac{sen(M\Omega/2)}{sin(\Omega/2)}e^{-j\Omega (M-1)/2}$
8. $\frac{\Omega_c}{\pi}Sa[\Omega_cn]$ $\sum\limits_{k=-\infty}^\infty rect\left(\frac{\Omega-2\pi k}{2\Omega_c}\right)$ $\Omega_c \leq \pi$
9. $\frac{\Omega_c}{2\pi}Sa^2[\frac{\Omega_cn}{2}]$ $\sum\limits_{k=-\infty}^\infty \triangle\left(\frac{\Omega-2\pi k}{2\Omega_c}\right)$ $\Omega_c \geq \pi$
10. $u[n]$ $\frac{e^{j\Omega}}{e^{j\Omega}-1}+\pi\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-2\pi k)$
11. $1$ $2\pi\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-2\pi k)$
12. $e^{j\Omega_0 n}$ $2\pi\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-\Omega_0-2\pi k)$
13. $\cos(\Omega_0n)$ $\pi\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-\Omega_0-2\pi k)+\delta(\Omega+\Omega_0-2\pi k)$
14. $sen(\Omega_0 n)$ $j\pi\sum\limits_{k=-\infty}^{\infty}\delta(\Omega+\Omega_0-2\pi k)-\delta(\Omega-\Omega_0-2\pi k)$
15. $cos(\Omega_0 n)u[n]$ $\frac{e^{j2\Omega}-e{j\Omega}\cos(\Omega_0)}{e^{j2\Omega}-2e{j\Omega}\cos(\Omega_0)+1}+$
$\frac{\pi}{2}\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-\Omega_0-2\pi k)+\delta(\Omega+\Omega_0-2\pi k)$
16. $sin(\Omega_0 n)u[n]$ $\frac{e{j\Omega}sin(\Omega_0)}{e^{j2\Omega}-2e{j\Omega}\cos(\Omega_0)+1}+$
$\frac{\pi}{2j}\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-\Omega_0-2\pi k)-\delta(\Omega+\Omega_0-2\pi k)$
17. $\sum\limits_{k=-\infty}^{n}x[k]$ $\frac{1}{1-e^{-j\Omega}}X(\Omega)+$
$\pi X(0)\sum\limits_{k=-\infty}^{\infty}\delta(\Omega-2\pi k)$

Transformada de Laplace $\mathscr{L}$

Se define a la transformada de Laplace bilateral de una función \(f(t)\) en tiempo continuo como

\begin{equation} \mathscr{L}\left\{ f(t) \right\}=\int _{ -\infty }^{ \infty }{ f(t) } { e }^{ -s t }dt \end{equation}

siempre y cuando esta integral converja.

Obsérvese que en esta integral desaparece la letra de integración (cuando se termina de integrar), en este caso la \(t\), por lo que este procedimiento da lugar a una nueva expresión en términos de una nueva variable $s\in\mathbb{C}$, por tal motivo se define la siguiente notación:

\begin{equation} \mathscr{L}\left\{ f(t) \right\}=F(s) \end{equation}

La transformada de Laplace es un tipo de operación que en general se conoce como transformada integral, puedes reproducir los videos para más información.

Si redefinimos los límites de integración de $0^-$ a $\infty$ damos lugar a la transformada de Laplace unilateral derecha (la que utilizaremos normalmente)

\begin{equation} \mathscr{L}_+\left\{ f(t) \right\}=\int _{ 0^- }^{ \infty }{ f(t) } { e }^{ -s t }dt \end{equation}

nuevamente siempre y cuando esta integral converja, esta operación también da lugar a una nueva expresión que depende de la variable $s\in\mathbb{C}$, por tal motivo se define la notación:

\begin{equation} \mathscr{L}_+\left\{ f(t) \right\}=F_+(s) \end{equation}

Cuando decimos que la integral converja, nos referimos a que la operación exista, esta existencia en ocasiones queda determinada por los valores que se elijan de la variable $s$, es decir $s\in\xi\subseteq\mathbb{C}$, $\xi$ recibe el nombre de Región de convergencia ROC (por sus siglas en inglés Region Of Convergence) de la transformada.

Observemos que si la señal $f(t)$ es causal, entonces la transformada bilateral y la transformada unilateral derecha coinciden en la definición, es decir, $\mathscr{L}=\mathscr{L}_+$. También observemos que si en la transformada bilateral se tiene que $\mathbb{I}m(s)\subseteq\xi$ entonces se puede hacer $s=j\omega$ y se tiene la definición de transformada de Fourier, es decir, podremos obtener la transformada de Fourier a partir de la transformada de Laplace bilateral siempre y cuando $\mathbb{I}m(s)\subseteq\xi$ .

En los siguientes ejemplos se encuentra la transformada de Laplace bilateral por medio de la definición, son cálculos directos, es decir, son técnicas de integración usual ($s$ se opera como una constante compleja), se tiene que tener claro como evaluar los límites de integración, si no se recuerda como realizar estas evaluaciones es recomendable que se revise el siguiente enlace antes de continuar, con el fin de que los procedimientos presentados sean transparentes, aunque puedes avanzar si así lo decides.

Ejemplo 1.

Encuentre la transformada de Laplace bilateral y la ROC de \(f(t)={ e }^{ at }u(t)\)

En este caso $\mathscr{L}=\mathscr{L}_+$ ¿Por qué?

×

Ejemplo 2.

Encuentre la transformada de Laplace bilateral y la ROC de

\(a)\; f(t)={ e }^{ -3t }u(t)\)

\(b)\; f(t)={ e }^{ 2t }u(t)\)

\(c)\; f(t)={ e }^{ 2jt }u(t)\)

\(d)\; f(t)={ e }^{ (2-3j)t }u(t)\)

En estos casos $\mathscr{L}=\mathscr{L}_+$ ¿Por qué?

×

Ejemplo 3.

Encuentre la transformada de Laplace bilateral y la ROC de $f(t)={- e }^{ at }u(-t)$

En este caso $\mathscr{L}\neq\mathscr{L}_+$ ¿Qué valor tiene $\mathscr{L}_+$?

×

Ejemplo 4.

Encuentre la transformada de Laplace bilateral y la ROC de

\(a)\; f(t)={ -e }^{ 2t }u(-t)\)

\(b)\; f(t)={ -e }^{ (-3+2j)t }u(-t)\)

\(c)\; f(t)={ e }^{ 2t }u(t)\)

×

Los ejemplos anteriores que sean funciones causales pueden ser resueltos usando MATLAB, puedes copiar y ejecutar el ejemplo de código en el siguiente enlace

 
%MATLAB
syms   t s 
syms a positive
f=exp(a*t)*heaviside(t);
h=exp((2-3i)*t)*heaviside(t);
laplace(f)
laplace(h)
syms a negative
f=exp(a*t)*heaviside(t);
laplace(f)

Propiedades de la transformada de Laplace unilateral derecha

Nuestro objetivo es trabajar con señales causales, pues en ingeniería la variable independiente de una señal puede ser interpretada como tiempo, y se puede pensar que cuando un fenómeno comienza a observarse, en ese instante accionamos un reloj, es decir, los fenómenos pueden pensarse que transcurren de $[0,\infty)$ y para fines prácticos de $[0^-,\infty)$, en otra sección se explicará con mayor detalle esta abstracción. De ahora en adelante trabajaremos con la definición de transformada de Laplace unilateral derecha para señales causales, y para concordar con la notación usual fijamos la notación como

\begin{equation} \mathscr{L}_+\left\{ f(t) \right\}=\mathscr{L}\left\{ f(t) \right\} \end{equation}

Al igual que la transformada de Fourier, la transformada de Laplace tiene algunas propiedades que facilitan su uso y que pueden ser deducidas a partir de la definición y de suponer la estructura de las expresiones a las cuales se aplica. La siguiente tabla muestra algunas de las propiedades, es importante que esta tabla se utilice una vez que se tenga claro el significado de cada propiedad.

Propiedad Expresión $F(s)=\mathscr{L}\left\{f(t)\right\}$ ROC Prueba
Linealidad $af_1(t)+bf_2(t)$ $aF_1(s)+bF_2(s)$ $\xi_1\bigcap\xi_2$
Traslación en $s$ $f(t)e^{a t}$ $F(s-a)$ $\xi+a$
Traslación en $t$ $f(t-t_0)u(t-to)$ $F(s)e^{-t_0s}$ $\xi$
Escalamiento en $t$ $f(at)$ $\frac{1}{a}F(\frac{s}{a}),\;a>0$ $a\xi$
Derivada 1 en $t$ $\frac{d}{dt}f(t)$ $s F(s)-f(0^-)$ $\xi$
Derivada 2 en $t$ $\frac{d^2}{dt^2}f(t)$ $s^2F(s)-sf(0^-)-\dot{f}(0^-)$ $\xi$
Derivada n en $t$ $\frac{d^n}{dt^n}f(t)$ $s^nF(s)-\sum\limits_{k=1}^{n}s^{n-k}f^{k-1}(0^-)$ $\xi$
Derivada en $s$ $t^nf(t)$ $(-1)^n\frac{d^n}{ds^n}F(s)$ $\xi$
Convolución en t $f_1(t)*f_2(t)$ $F_1(s)F_2(s)$ $\xi_1\bigcap\xi_2$
Convolución en s $f_1(t)f_2(t)$ $\frac{1}{2\pi j}F_1(s)*F_2(s)$ $\xi_1\bigcap\xi_2$
Integral I $\int_{0^-}^{t}f(\tau) d\tau$ $\frac{F(s)}{s}$ $\xi_1-{0}$
Integral II $\int_{-\infty}^{t}f(\tau) d\tau$ $\frac{F(s)}{s}+\frac{1}{s}\int_{-\infty}^{0^-}f(\tau) d\tau$ $\xi_1-{0}$
Teorema de valor final $\lim\limits_{t\to\infty}f(t)$ $\lim\limits_{s\to 0}sF(s)$
si $p$ es polo de $sF(s)$
$\mathbb{R}e(p)<0$
Teorema de valor inicial $\lim\limits_{t\to 0^+}f(t)$ $\lim\limits_{s\to \infty}sF(s)$
$F(s)$ estrictamente propia

Tabla de Transformadas de Laplace

La siguiente tabla muestra las transformadas de Laplace de señales causales, la región de convergencia (ROC), y la prueba del resultado, es importante que cuando se use esta tabla se tenga claro el significado de cada termino.

# $f(t)$ $F(s)=\mathscr{L}\left\{f(t)\right\}$ ROC Prueba
1. $\delta (t)$ $1$ $\mathbb{C}$
2. $u(t)$ $\frac{1}{s}$ $\mathbb{R}e(s)>0$
3. $tu(t)$ $\frac{1}{s^2}$ $\mathbb{R}e(s)>0$
4. $t^nu(t)$ $\frac{n!}{s^{n+1}}$ $\mathbb{R}e(s)>0$
5. $e^{at}u(t)$ $\frac{1}{s-a}$ $\mathbb{R}e(s)>\mathbb{R}e(a)$
6. $cos(\omega t)u(t)$ $\frac{s}{s^2+\omega^2}$ $\mathbb{R}e(s)>0$
7. $sen(\omega t)u(t)$ $\frac{\omega}{s^2+\omega^2}$ $\mathbb{R}e(s)>0$
8. $te^{at}u(t)$ $\frac{1}{(s-a)^2}$ $\mathbb{R}e(s)>\mathbb{R}e(a)$
9. $t^ne^{at}u(t)$ $\frac{n!}{(s-a)^{n+1}}$ $\mathbb{R}e(s)>\mathbb{R}e(a)$
10. $e^{at}cos(\omega t)u(t)$ $\frac{s-a}{(s-a)^2+\omega^2}$ $\mathbb{R}e(s)>\mathbb{R}e(a)$
11. $e^{at}sen(\omega t)u(t)$ $\frac{\omega}{(s-a)^2 + \omega^2}$ $\mathbb{R}e(s)>\mathbb{R}e(a)$
12. $\frac{B-Aa}{b-a}e^{-at}u(t)+$
$\frac{B-Ab}{a-b}e^{-bt}u(t),\;a\neq b,\;cons.$
$\frac{As+B}{(s+a)(s+b)}$ $\mathbb{R}e(s)>c$
$c=max\{\mathbb{R}e(-a),\mathbb{R}e(-b)\}$
13. $(B-Aa)te^{-at}u(t)+$
$Ae^{-at}u(t),\;A,\,B,\,a,\;cons.$
$\frac{As+B}{(s+a)^2}$ $\mathbb{R}e(s)>\mathbb{R}e(-a)$
14. $Ae^{-at}\cos(\sqrt{c-a^2} t)u(t)+$
$\frac{B-Aa}{\sqrt{c-a^2}}e^{-at}sen(\sqrt{c-a^2} t)u(t)$
$A,\,B,\;cons$
$a,\,c\in\mathbb{R},\;c-a^2>0$
$\frac{As+B}{s^2+2as+c}$ $\mathbb{R}e(s)>-a$
15. $re^{-at}\cos(\omega t+\theta)u(t)$
$r=\sqrt{\frac{A^2c+B^2-2ABa}{c-a^2}},$
$\theta=\tan^{-1}\left(\frac{Aa-B}{A\sqrt{c-a^2}}\right),$
$\omega=\sqrt{c-a^2}$
$A,\,B,\;cons$
$a,\,c\in\mathbb{R},\;c-a^2>0$
$\frac{As+B}{s^2+2as+c}$ $\mathbb{R}e(s)>-a$
16. $\frac{B-A(a+\sqrt{a^2-c})}{-2\sqrt{a^2-c}}e^{-(a+\sqrt{a^2-c})t}u(t)+$
$\frac{B-A(a-\sqrt{a^2-c})}{2\sqrt{a^2-c}}e^{-(a-\sqrt{a^2-c})t}u(t)$
$A,\,B,\;cons$
$a,\,c\in\mathbb{R},\;c-a^2< 0$
$\frac{As+B}{s^2+2as+c}$ $\mathbb{R}e(s)>-a+\sqrt{a^2-c}$
17. $re^{-at}\cos(\omega t+\theta)u(t)$
$r,\,a,\,\omega,\,\theta\in\mathbb{R}$
$\frac{0.5re^{j\theta}}{s+a-j\omega}+ \frac{0.5re^{-j\theta}}{s+a+j\omega}$ $\mathbb{R}e(s)>-a$

Ejemplo 5.

Resuelve los siguientes ejercicios

a) $$\ddot{y}(t)-y(t)=-t$$ con $y(0)=0,\;\dot{y}(0)=1$

b)$$\ddot{y}(t)-2\dot{y}(t)+5y(t)=-8e^{-t}$$ con $y(0)=2,\;\dot{y}(0)=12$

c)$$\dot{y}(t)=1-\int_o^ty(t-\tau)e^{-2\tau}d\tau$$ con $y(0)=1$

d)$$\ddot{x}(t)+16x(t)=f(t)$$ con $x(0)=0,\;\dot{x}(0)=1$ $$f(t)=\begin{cases} \cos(4t) & \text{si } 0\leq t\leq\pi \\ 0 & \text{en otro caso} \end{cases}$$

Ejemplo 5.

e) $$\ddot{y}(t)-2\dot{y}(t)+y(t)=f(t)$$ con $y(0)=0,\;\dot{y}(0)=0$ $$f(t)=\begin{cases} 1 & \text{si } 1\leq t < 2 \\ -1 & \text{si } 2\leq t\leq 3 \\ 0 & \text{en otro caso} \end{cases}$$

f) $$L\frac{d}{dt}i+\frac{1}{C}\int_0^ti(\tau)d\tau+Ri=E$$ con $L=0.1$, $C=10^{-3}$, $R=20$, $i(0)=0$ $$E(t)=\begin{cases} 120 & \text{si } 0\leq t < 1 \\ 0 & \text{en otro caso} \end{cases}$$

g) \begin{align*} &\frac{d}{dt}x(t)-3x(t)=-2y(t)\\ &\frac{d}{dt}y(t)-3y(t)+2x(t)=0\\ \end{align*} con $x(0)=1,\;y(0)=1$

Transformada $\mathscr{Z}$

Se define a la transformada $\mathscr{Z}$ (zeta) de una función \(x[n]\) en tiempo discreto como

\begin{equation} \mathscr{Z}\left\{ x[n] \right\}=\sum _{ n=-\infty }^{ \infty }{ x[n] } { z }^{ -n } \end{equation}

siempre y cuando esta serie converja.

Obsérvese que en esta serie desaparece la variable (cuando se termina de realizar la operación), en este caso la \(n\), por lo que este procedimiento da lugar a una nueva expresión en términos de una nueva variable $z\in\mathbb{C}$, por tal motivo se define la siguiente notación:

\begin{equation} \mathscr{Z}\left\{ x[n] \right\}=X(z) \end{equation}

Si redefinimos los límites de la suma de $0$ a $\infty$ damos lugar a la transformada de zeta unilateral derecha (la que utilizaremos normalmente)

\begin{equation} \mathscr{Z}_+\left\{ x[n] \right\}=\sum _{n= 0 }^{ \infty }{ x[n] } { z }^{ -n } \end{equation}

nuevamente siempre y cuando esta serie converja, esta operación también da lugar a una nueva expresión que depende de la variable $z\in\mathbb{C}$, por tal motivo se define la notación:

\begin{equation} \mathscr{Z}_+\left\{ x[n] \right\}=X_+(z) \end{equation}

Cuando decimos que la serie converja, nos referimos a que la expresión de la transformada tenga sentido, esta existencia en ocasiones queda determinada por los valores que se elijan de la variable $z$, es decir $z\in\xi\subseteq\mathbb{C}$, $\xi$ recibe el nombre de Región de convergencia ROC (por sus siglas en inglés Region Of Convergence) de la transformada.

Observemos que si la señal $x[n]$ es causal, entonces la transformada bilateral y la transformada unilateral derecha coinciden en la definición, es decir, $\mathscr{Z}=\mathscr{Z}_+$. También observemos que si en la transformada bilateral se tiene que $e^{j\Omega}\subseteq\xi$, $\forall \Omega\in\mathbb{R}$ entonces se puede hacer $z=e^{j\Omega}$ y se tiene la definición de transformada de Fourier discreta, es decir, podremos obtener la transformada de Fourier discreta a partir de la transformada de zeta bilateral siempre y cuando el circulo unitario en el plano $z$ pertenezca a la región de convergencia $\xi$.

Sistemas

Table of Contents
Cargando matemáticas..
Cargando multimedia..