Supponiamo che \(V\) sia uno spazio euclideo a dimensione infinita: \( dim(V) = \infty \)
Se la dimensione è infinita, un sistema di vettori \( \Sigma= \{e_1, e_2, ... e_n, ...\} \) è linearmente indipendente, se:
Per ogni sistema \(\Sigma_M = \{e_{j_1}, e_{j_2}, ... e_{j_M}\}\) estratto dai precedenti "\( \Sigma_M \subset \Sigma \)", allora questo sistema è linearmente indipendente.
Se la dimensione è infinita, un sistema di vettori \( \Sigma= \{v_1, v_2, ... v_n, ...\} \) è ortonormale, se:
Per ogni sistema \(\Sigma_M = \{v_{j_1}, v_{j_2}, ... v_{j_M}\}\) estratto dai precedenti "\( \Sigma_M \subset \Sigma \)", allora questo sistema è ortonormale. Quindi, anche per un insieme di vettori ortonormali di uno spazio a dimensione infinita vale che: $$ \langle v_i, v_j \rangle = \delta_{ij} = \begin{cases} 1, i = j \\ 0, i\neq j \end{cases} $$
Mettiamoci in uno spazio euclideo \(V\) a dimensione infinita e prendiamo un sistema \( \Sigma= \{v_1, v_2, ... v_n, ...\} \) ortonormale.
Prendiamo un vettore generico \(x \in V\) e definiamo come nel caso finito il coefficiente di Fourier \(n\)-esimo $$ \xi_n = \langle v_n, x\rangle $$
Scegliamo un certo numero \(M \in \mathbb N\). Consideriamo il vettore espresso come:
$$ x^{(M)} = \sum_{n=1}^M \xi_nv_n $$
Se ora calcoliamo la norma quadra: $$ || x - x^{(M)}||^2 = \left|\left| x-\sum_{n=1}^M \xi_nv_n\right|\right|^2 = \langle x-\sum_{n=1}^M \xi_nv_n, x-\sum_{n=1}^M \xi_nv_n\rangle = $$ $$ \small \langle x-\sum_{n=1}^M \xi_nv_n, x\rangle - \langle x-\sum_{n=1}^M \xi_nv_n, \sum_{n=1}^M \xi_nv_n\rangle =$$ $$ \small \langle x, x\rangle - \sum_{n=1}^M\xi_n^* \langle v_n, x\rangle - \sum_{n=1}^M\xi_n \langle x, v_n\rangle + \sum_{n=1}^M\sum_{n=1}^M\xi_n^*\xi_n \langle v_n, v_n\rangle = $$ $$ ||x||^2 - \sum_{n=1}^M|\xi_n|^2 \geq 0 $$
Questo vuol dire che "Indipendentemente da \(M\)" $$ \sum_{n=1}^M|\xi_n|^2 \leq||x||^2$$
Consideriamo ora questa successione di somme parziali: $$ \sigma_M = \sum_{n=1}^M|\xi_n|^2 $$
Si tratta di una serie a termini non negativi, infatti: \(|\xi_n|^2 > 0 \forall n \in N \). Di conseuenza, se aggiungiamo un ulteriore termine alla successione il risultato non può che aumentare: $$ \sigma_{M+1} = \sigma_M + |\xi_{M+1}|^2 \geq \sigma_M $$
in sostanza questa successione è monotona crescente e limitata, quindi è convergente ed esisterà il limite (che coincide con la somma della serie) $$ \lim_{M \to \infty}\sigma_{M} = \sum_{n=1}^\infty|\xi_n|^2 $$
E per il secondo teorema del confronto: $$ \sum_{n=1}^\infty|\xi_n|^2 \leq ||x||^2 $$ In altre parole anche a dimensione infinita vale la disuguaglianza di Bessel
Cosa significa se \( \forall x \in V \) la disugualianza di Bessel vale con l'uguale?
$$ \sum_{n=1}^\infty|\xi_n|^2 = ||x||^2 $$ significa dire che: $$ \lim_{M \to \infty}\left( ||x||^2 - \sum_{n=1}^\infty|\xi_n|^2\right) = \lim_{M \to \infty}\left( || x - x^{(M)}||^2\right) = \lim_{M \to \infty}\left( \left|\left| x-\sum_{n=1}^M \xi_nv_n\right|\right|^2\right) = 0 $$Questo vuol dire che il limite della distanza tra \(x\) e \(\sum_{n=1}^M \xi_nv_n\) è \(0\) e quindi \(x\) è la somma della serie: $$ x = \sum_{n=1}^\infty \xi_nv_n $$
Se abbiamo uno spazio di Hilbert \( H \) ed un sistema di vettori \( \Sigma= \{v_1, v_2, ... v_n, ...\} \). Allora (condizione necessaria e sufficiente affinchè \(\Sigma\) sia una base; è che l'unico vettore \(y \in H \) tale che: \( \langle v_n, y\rangle = 0, \forall v_n \in H \) è proprio il vettore nullo
DIM: \( \Rightarrow \)
se \( \Sigma= \{v_1, v_2, ... v_n, ...\} \) è una base vale l'uguaglianza di Parseval $$ \sum_{n=1}^\infty|\xi_n|^2 = ||x||^2 $$
Supponiamo di essere in possesso di un certo \( y \in H \) tale che "lui" è ortogonale a tutti i vettori di \( \Sigma \).
$$ \langle v_n, y \rangle = 0 \forall v_n \in \Sigma $$
Essendo \( y_n = \langle v_n, y \rangle \) l'ennesimo coefficiente di Fourier nel sistema \(\Sigma\). Siccome \( \Sigma \) è una base, vale l'uguaglianza di Parseval.
$$ \sum_{n=1}^\infty|y_n|^2 = ||y||^2 = 0 $$
quindi: \( y = 0\) $$ \square $$
DIM: \( \Leftarrow \)
Se l'unico vettore di \(H\) ortogonale a tutti i vettori di \(\Sigma\) è il vettore nullo allora \(\Sigma\) è una base:
Supponiamo per assurdo che \(\Sigma\) non sa una base (pur essendo l'ipotesi vera):
Allora questo implica che esiste almeno un vettore \( z \in H\) per il quale vale la disuguaglianza di Bessel, ma non l'uguaglianza di Parseval. Ossia sapendo che \(\xi_n = \langle v_n, z\rangle \):
$$ \sum_{n=1}^\infty|\xi_n|^2 \lneq ||z||^2 $$
Consideriamo la seguente successione:
$$ z_M = \sum_{n=1}^M \xi_n v_n $$
Questa successione è fondamentale (cioe:)
$$ \forall \epsilon > 0, \exists, m_\epsilon \in \mathbb N tc: \forall M, M' \in \mathbb N $$
$$ || z_M - z_{M'}||^2 < \epsilon^2 $$
supponendo \( M'>M \) avremo che:
$$ || z_M - z_{M'}||^2 = || \sum_{n=M+1}^{M'}\xi_n v_n ||^2 $$
Siccome i \( v_n \) sono ortonormali allora:
$$ || \sum_{n=M+1}^{M'}\xi_n v_n ||^2 = \sum_{n=M+1}^{M'}|\xi_n|^2 $$
Se ora prendiamo la successione delle somme parziali:
$$ \sigma_M = \sum_{n=1}^{M}|\xi_n|^2 $$
allora:
$$ \sum_{n=M+1}^{M'}|\xi_n|^2 = \sigma_{M'}- \sigma_M $$
ma \( \sigma_M \) è sicuramente convergente perchè è una successione a termini non negativi, quindi la successione delle somme parziali è monotona crescente \( \sigma_{M+1} > \sigma_M \) ed è superiormente limitata (Bessel) è quindi converge. Quindi sarà fondamentale anche la successinoe \( x_n\). Siccome per ipotesi stiamo lavorando su uno spazio di Hilbert che è completo, allora esisterà il vettore:
$$ w = \lim_{M\to\infty} z_n = \sum_{n = 1}^\infty \xi_n v_n $$
Se il nostro sistema \( \Sigma \) è una base (\(w\) deve coincidere con \(z\)), noi però stiamo assumendo per assurdo che non lo sia e \(z\) è il vettore per il quale vale la disuguaglianza di Bessel, ma non l'uguaglianza di Parseval. Quindi se prendiamo il vettore:
$$ z-w = u $$
\(u \neq 0 \) (altrimenti sarebbe valida l'uguaglianza di Parseval. Calcoliamo ora \( \langle v_n, u \rangle\):
$$ \langle v_n, u \rangle = \langle v_n, z-\sum_{m = 1}^\infty \xi_m v_m \rangle = \langle v_n, z \rangle - \sum_{m = 1}^\infty \xi_m \langle v_n, v_m \rangle = \xi_m -\xi_m = 0$$
Da una parte \(u \neq 0 \), ma dall'altra abbiamo mostrato che è ortogonale a tutti i vettori di \( \Sigma \) e per ipotesi implicherebbe che \( u = 0\)!
$$ \square $$