Ultima versione delle dispense del corso

Transcript

Ultima versione delle dispense del corso
Problemi Inversi
Elisa Francini
Anno accademico 2005/2006
Indice
1 Che cosa sono i problemi inversi
2 Esempi di problemi inversi
2.1 Tomografia . . . . . . . . . . . . .
2.2 Prospezione geologica . . . . . . .
2.3 Termografia . . . . . . . . . . . . .
2.4 Problemi inversi di scattering . . .
2.5 Tomografia ad impedenza elettrica
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
9
10
13
16
3 Problemi mal posti
3.1 Un esempio: derivazione e integrazione . . . . . . . . . . .
3.2 Due problemi per le funzioni armoniche . . . . . . . . . .
3.2.1 Il problema di Dirichlet per l’equazione di Laplace
3.2.2 Il problema di Cauchy per l’equazione di Laplace .
3.3 Un cenno alle equazioni integrali del primo tipo . . . . . .
3.3.1 Equazioni integrali del secondo tipo . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
19
22
22
23
25
26
4 Operatori compatti
4.1 Un po’ di analisi funzionale . . . . . . . . . . .
4.2 Sugli insiemi compatti . . . . . . . . . . . . . .
4.3 Definizione e proprietà degli operatori compatti
4.4 Teoria spettrale degli operatori compatti . . . .
4.5 Decomposizioni a valori singolari . . . . . . . .
4.6 Criterio di esistenza di Picard . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
28
28
30
34
37
40
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Informazioni a priori e stabilità
42
5.1 Ancora sull’esempio della derivazione . . . . . . . . . . . . . . . . 44
5.2 Un risulato generale di stabilità . . . . . . . . . . . . . . . . . . . 44
5.3 Stime di stabilità per l’equazione del calore all’indietro . . . . . . 46
6 Teoria generale della regolarizzazione
6.1 Approssimazione della derivata con il rapporto
un lato . . . . . . . . . . . . . . . . . . . . . . .
6.2 Strategie di regolarizzazione . . . . . . . . . . .
6.3 Filtri regolarizzanti . . . . . . . . . . . . . . . .
6.4 Regolarizzazione secondo Tikhonov . . . . . . .
1
47
incrementale da
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
48
50
52
55
1
Che cosa sono i problemi inversi
Per i matematici i problemi inversi sono un argomento molto recente. Il loro
studio è motivato dallo sviluppo tecnologico degli ultimi decenni; ad esempio,
alcune delle più sofisticate macchine per diagnosi mediche (TAC, SPECT, etc)
non fanno altro che risolvere problemi inversi: infatti ricostruiscono oggetti 2 e
3 dimensionali dalle loro proiezioni.
D’altra parte i problemi inversi hanno invece radici antiche: più di 2000 anni
fa Platone nel VII libro de La Repubblica descrive una situazione che risulta
un problema inverso: i prigionieri della caverna vorrebbero ricostruire il mondo
reale fuori dalla caverna sulla base di informazioni limitate che consistono nelle
ombre proiettate sul fondo della caverna.
A questo punto l’ideale sarebbe poter fornire una definizione chiara ed inequivocabile di problema inverso, ma questo non è possibile (almeno non nello
stesso modo nel quale si definisce cos’è un gruppo o uno spazio di Hilbert).
Cercheremo di avvicinarci lentamente alla comprensione di cosa sia un problema inverso: alla fine saremo in grado di riconoscere un problema inverso
quando lo incontreremo.
Per prima cosa osserviamo che parlare di problema inverso presuppone l’esistenza di un altro problema (che viene detto diretto) al quale il problema inverso
è strettamente correlato.
Diciamo che due problemi sono uno l’inverso dell’altro quando la formulazione di uno coinvolge necessariamente l’altro.
Di questa coppia di problemi uno dei due viene detto diretto e l’altro inverso.
In genere, viene chiamato problema diretto quello che è stato studiato più nel
dettaglio e per primo, mentre viene detto problema inverso quello meno (o più
recentemente) considerato. In realtà ci sono anche altri motivi che permettono
di effettuare questa distinzione, ma ne parleremo più tardi.
Per non rimanere nel vago, facciamo un semplice esempio concreto. Fin
da bambini impariamo a risolvere questo problema: dati due numeri interi,
trovarne il prodotto. L’inverso di questo problema consiste nel trovare una
coppia di fattori di un numero assegnato.
Dal momento che ci viene insegnato per primo, abbiamo stabilito di chiamare
problema diretto quello della moltiplicazione e problema inverso la fattorizzazione.
Osserviamo che il problema inverso si presenta già molto più complicato
di quello diretto; ad esempio, è un problema che, in generale, non ha un’unica
soluzione. Se restringiamo la classe dei numeri che vogliamo fattorizzare a quelli
2
che ammettono una sola scomposizione in fattori, ci troviamo a studiare la classe
dei numeri primi e la questione si complica.
Quando si parla di problema che derivano dal mondo reale, nella maggior
parte dei casi c’è una distinzione naturale tra problemi diretti e inversi.
Gran parte della matematica che si studia nei primi anni di corso è dominata
dai problemi diretti, cioè problemi nei quali si forniscono sufficienti informazioni
per poter avviare un procedimento ben definito e stabile che porta ad una unica
soluzione del problema.
informazioni
→
procedimento
→ soluzione
(input)
(output)
→ moltiplicazione
2, 3
→
6
Se il processo descrive un fenomeno fisico, o comunque del mondo reale, si può
descrivere il problema diretto come
causa
x
→ modello → effetto
→
K
→
y,
cioè
K(x) = y.
(1)
Il problema diretto consiste nell’assegnare la causa x e il modello K e calcolare
l’effetto y.
Questo però è solo uno dei tre modi nei quali si può leggere l’equazione (1):
ogni problema diretto suggerisce immediatamente due problemi inversi: 1) dato
il modello K e l’effetto y, risalire alla causa x, 2) data la causa x e l’effetto y,
costruire un modello K.
Queste ultime due letture dell’equazione (1) corrispondono in genere a problemi inversi.
Quindi, ricapitolando: se si vuole predire il comportamento futuro di un
sistema fisico conoscendo il suo stato presente e le leggi fisiche che lo governano,
allora diciamo che vogliamo risolvere un problema diretto. Viceversa, risalire
allo stato passato di un sistema dalla conoscenza della condizione presente,
oppure determinare il valore di certi parametri fisici, conoscendo l’evoluzione
del sistema, vengono detti problemi inversi.
Dal punto di vista applicativo ci sono due motivazioni diverse che giustificano
lo studio di questi problemi inversi:
Conoscere lo stato passato o i parametri che regolano un sistema (es: diagnosi
mediche),
Controllare lo stato finale del sistema modificando lo stato presente o i parametri
del modello (es: produzione industriale di manufatti).
Per questo tipo di problemi originati dalle applicazioni possiamo dire che
si affronta un problema inverso quando si cercano le cause di un determinato
effetto osservato o desiderato.
3
Dal punto di vista puramente matematico, esiste però una ulteriore e decisiva
distinzione tra problema diretto e inverso: il problema diretto gode di certe
buone proprietà che corrispondono alla definizione di problema ben posto, mentre
il problema inverso è solitamente mal posto.
Introduciamo brevemente la nozione di problemi ben posti e mal posti, che
riprenderemo ampiamente durante tutto il corso.
Nel 1923, J. Hadamard dette la seguente definizione di problema ben posto:
1. Esiste una soluzione del problema (esistenza).
2. La soluzione è unica (unicità).
3. La soluzione dipende con continuità dai dati (stabilità).
Viceversa, un problema si dice mal posto quando non verifica una di queste
condizioni. Ad esempio, è mal posto un problema che non ha soluzioni, oppure
che ne ha più di una. Ma la condizione più esigente è quella della stabilità. Ci
sono numerosi problemi che hanno una a una sola soluzione, ma tale soluzione è
instabile. In parole povere l’instabilità significa che cause molto diverse possono
provocare effetti molto simili rendendo cosı̀ vano il tentativo di risalire ad esse.
Concludiamo questa lezione con alcuni esempi storici di problemi inversi.
Esempio 1.1 Il mito della caverna di Platone (428-348 A.C.). Nel mito della
caverna, risulta piuttosto semplice decidere quale sia il problema diretto e quale
quello inverso. È chiaro che, conoscendo la posizione del fuoco e del muro e gli
oggetti le cui ombre vengono proiettate, si determinano in modo unico le ombre.
Inoltre oggetti simili in posizioni simili proiettano ombre che si assomigliano. In
altre parole ’proiettare le ombre su un muro’ è un problema diretto ben posto.
Il problema inverso consiste invece nel trovare la forma dell’oggetto la cui
ombra si sta proiettando. Ovviamente il problema non ha una soluzione unica:
infiniti oggetti possono avere tutti la stessa ombra sul muro. Ad esempio un
cubo unitario con una faccia parallela al muro e un cilindro con asse parallelo
al muro, altezza e diametro unitari, hanno esattamente la stessa ombra, cioè un
quadrato di lato uno.
La tomografia geometrica è un settore della matematica che si occupa di
ricostruire un corpo dalle sue proiezioni (ovviamente più di una).
Esempio 1.2 Il bagno di Archimede. Questo racconto rappresenta una delle
prime indagini non invasive delle quali si ha notizia. Si dice che il tiranno
Gerone di Siracusa avesse commissionato una nuova corona d’oro, ma temesse
che l’orafo lo avesse truffato sostituendo parte dell’oro che gli era stato consegnato con argento. Ovviamente il peso della corona corrispondeva al peso
dell’oro che era stato fornito all’orafo. Il tiranno chiese ad Archimede (287-212
A.C.) di capire se la truffa c’era stata. L’unico modo per sapere se la corona
era composta tutta da oro e non da una lega, sarebbe stato quello di conoscere
il volume della corona stessa: infatti l’argento ha una densità diversa e per ottenere lo stesso peso è necessario avere un volume diverso. Tuttavia la forma
della corona era tale che neanche Archimede sarebbe mai riuscito a calcolarne il
volume. Avrebbe potuto fonderla in una forma più adeguata, ma questa sarebbe
stata un’indagine invasiva avente come risultato finale la scoperta della verità e
la distruzione del manufatto. Archimede ebbe quindi un’idea geniale: avrebbe
4
ottenuto l’informazione voluta (il volume della corona) per via indiretta: misurando cioè il volume dell’acqua che sarebbe fuoriuscita da una bacinella piena
nella quale si sarebbe immersa la corona. Confrontando questo volume con
quello spostato da un pezzo di oro puro dello stesso peso, si sarebbe scoperto se
l’orafo era in buona fede.
Esempio 1.3 La scoperta di Nettuno. Nettuno fu osservato per la prima volta
il 23 settembre del 1846 da J. G. Galle e L. d’Arrest. La sua posizione era stata
prevista sia dall’astronomo inglese Adams che dal francese Le Verrier, che la
calcolarono indipendentemente l’uno dall’altro studiando l’orbita di Urano ed
in base alle rispettive posizioni di Giove, Saturno e dello stesso Urano.
Gli astronomi avevano notato che l’ultimo pianeta allora conosciuto, Urano,
non seguiva rigorosamente le leggi della meccanica celeste di Newton; anche le
notevoli perturbazioni della sua orbita prodotte dai due pianeti giganti, Giove
e Saturno, non potevano spiegare del tutto queste anomalie. Era stata perciò
ipotizzata la presenza di un altro pianeta oltre l’orbita di Urano. Ma la contemporanea scoperta da parte d’un astronomo francese e d’uno inglese produsse il
sorgere d’una dura disputa internazionale sulla priorità per battezzare il nuovo
pianeta. In realtà ci sono crediti comuni nella scoperta del pianeta e, come
sempre, parecchie persone hanno dato il loro contributo. Ulteriori osservazioni
hanno mostrato che le orbite calcolate da Adams e Le Verrier divergono, da
quella corretta di Nettuno, abbastanza velocemente. Se avessero cercato la posizione stabilita del pianeta per un certo numero di anni prima o dopo, non
avrebbero trovato niente vicino al luogo previsto.
5
2
Esempi di problemi inversi
2.1
Tomografia
L’applicazione che più ha contribuito a far conoscere i problemi inversi è la
TAC (Tomografia Assiale Computerizzata). In inglese viene detta CAT scan da
Computer Assisted Tomography.
La TAC misura l’attenuazione dei raggi X dovuta all’attraversamento di un
corpo.
La macchina è costituita da due parti: gli emettitori di raggi X e i ricevitori, distribuiti con varie geometrie. Il raggio emesso in una certa direzione e
con intensità nota, viene intercettato dal ricevitore dopo che ha attraversato il
corpo da investigare. L’attenuazione che ha subito dipende dai materiali che
ha attraversato. Materiali di natura diversa hanno coefficienti di assorbimento
diversi. Effettuando diverse misurazioni per diverse direzioni, si cerca di avere
un’idea della composizione interna del corpo.
Formalizziamo il procedimento in modo matematico in due dimensioni.
Sia f (x, y) il coefficiente di attenuazione dei raggi X del tessuto nel punto
(x, y). Questo significa che un raggio X di intensità I che attraversa una piccola
porzione ∆u di tessuto nelle vicinanze del punto (x, y) subisce una attenuazione
di intensità ∆I data da
∆I = −f (x, y)I(x, y)∆u.
(2)
Il raggio X viene emesso dalla sorgente con intensità I0 e misurato dal ricevitore
dopo aver percorso il segmento L che connette sorgente e ricevitore. Quello che
si misura è l’attenuazione di I lungo la linea L.
Sommando i contributi ottenuti dalla (2) lungo il segmento L si ha
Z
Z
∆I
= − f (x, y)∆u,
L I
L
da cui
ln
I1
=−
I0
Z
f (x, y) dL,
L
dove I1 è l’intensità del raggio X misurata dal ricevitore.
6
Si può immaginare che fuori dal corpo che si vuole analizzare l’attenuazione
sia trascurabile, vale a dire che f abbia supporto compatto. In tal caso si può
sostituire al segmento L la retta che lo contiene (che indicheremo ancora con
L).
Per ogni direzione θ in S 1 e per ogni s ∈ R, sia Lθ,s la retta perpendicolare
a θ e passante per sθ (cioè tale che sia s la distanza, con segno, dall’origine).
Parametrizziamo la retta con
u
s θ + u θ⊥ ,
→
e scriviamo
I1
ln (s, θ) = −
I0
Z
Z
+∞
f (x, y) dL = −
f (s θ + u θ⊥ )du.
−∞
L
Osserviamo che ln II01 (s, θ) è il valore misurato in corrispondenza della coppia
(s, θ), cioè per una certa disposizione di sorgente e ricevitore.
R +∞
L’integrale −∞ f (s θ + u θ⊥ )du è una funzione di s e θ che viene detta
Trasformata di Radon e si indica
Z +∞
Rf (s, θ) =
f (s θ + u θ⊥ )du.
(3)
−∞
Il problema inverso della TAC consiste quindi nel ricostruire f da misurazioni
della sua trasformata di Radon Rf . Nel caso ideale che si avessero a disposizione
tutte le possibili misurazioni, si tratterebbe quindi di invertire la trasformata di
Radon.
Una trasformazione legata a quella di Radon è la trasformata a raggi X: per
θ ∈ S 1 e x ∈ R2 ,
Z
+∞
P f (θ, x) =
f (x + t θ)dt,
−∞
cioè P calcola l’integrale di f lungo le retta passante per x e con direzione
tangente θ.
In due dimensioni R e P rappresentano lo stesso operatore anche se parametrizzato in modo diverso e con diverse simmetrie (Rf (−θ, −s) = Rf (θ, s), mentre
P f (θ, x) = P f (θ, x + tθ) per ogni t).
Le due trasformate hanno però una generalizzazione diversa in R3 .
Per θ ∈ S 2 e s ∈ R,
Z
Rf (θ, s) =
f (s θ + y) dy,
θ⊥
7
è l’integrale di f sul piano per s θ ortogonale a θ, mentre per θ ∈ S 2 e x ∈ R3 ,
Z ∞
f (x + tθ) dt,
P f (θ, x) =
−∞
è ancora l’integrale sulla retta per x in direzione θ.
Tornando al caso bidimensionale, consideriamo un esempio semplificato nel
quale il coefficiente di assorbimento f ha simmetria radiale, cioè,
p
f (x, y) = f˜( x2 + y 2 ) = f˜(r).
In questo caso basta considerare le misurazioni corrispondenti a raggi paralleli
ad una direzione assegnata.
Supponiamo che f˜ abbia supporto nel cerchio di raggio R centrato nell’origine e indichiamo con Lx la retta parallela all’asse y e passante per il punto
(x, 0).
p(x) := − ln
I1
(x)
I0
Z
Z
=
Lx
Z √
=
=
R
f (x, y) dLx =
f (x, y) dy
−R
R2 −x2
p
f˜( x2 + y 2 ) dy
√
− R2 −x2
Z √R2 −x2
2
p
f˜( x2 + y 2 ) dy.
0
Con il cambiamento di variabile r =
che la quantità nota p(x) è data da
Z
p(x) =
p
x2 + y 2 (dr = y dy/
R
|x|
2f˜(r)r
√
dr.
r2 − x2
p
x2 + y 2 ) si ottiene
(4)
Osserviamo che (4) è una equazione integrale del primo tipo, cioè della forma
Z
k(x, y)f (y) dy = p(x).
L’equazione integrale (4) è in particolare una equazione integrale di Abel, come
si può vedere facilmente con un cambio di variabile.
8
Esercizio 2.1 Prendiamo in considerazione solo il caso x > 0, dal momento
che per simmetria p(x) = p(−x). Operiamo nella (4) il cambiamento di variabili
z = r2 − x2 e τ = R2 − x2 .
√
√
In questo modo dz = −2r dr, x = R2 − τ , r = R2 − z e
√
Z 0
p
f˜( R2 − z)
2
√
dz
p( R − τ ) = −
τ −z
R2 −|x|2
Z τ
g(z)
√
dz,
=
τ −z
0
√
dove g(z) = f˜( R2 − z). Questa equazione fa parte della famiglia delle equazioni
integrali di Abel che nella forma generale si scrivono
Z x
(x − t)α−1 f (t) dt = g(x), con 0 < α < 1.
0
Torniamo al problema della TAC: abbiamo visto che esso corrisponde a ricavare una funzione f conoscendo la sua trasformata di Radon, cioè le sue medie
integrali calcolate su tutte le possibili rette che intersecano il supporto di f . Per
f in una ragionevole classe di funzioni si può dimostrare che la trasformata di
Radon è invertibile, cioè esiste un operatore R̃ tale che R̃ ◦ R = Id. Tuttavia,
questo operatore inverso non è di grande utilità essenzialmente per due motivi:
1. L’inverso della trasformata di Radon non è limitato. Come vedremo tra
breve questo significa che il problema della tomografia è mal posto. Più
esattamente significa che se commettiamo un errore anche piccolo nella
misurazione dell’attenuazione del raggio, l’errore si può ripercuotere in
modo molto grave sulla soluzione ottenuta invertendo la trasformata di
Radon. Questo rende il processo di inversione completamente inaffidabile.
2. Non tutti i dati necessari per calcolare l’inversa della trasformata di Radon
sono disponibili: in genere le posizioni delle sorgenti e dei ricevitori sono
limitate dalla struttura della macchina. Questo, insieme all’instabilità,
rende necessario mettere in atto strategie diverse per risolvere il problema
inverso.
2.2
Prospezione geologica
Il problema della prospezione geologica è quello di determinare la posizione, la
forma e certi parametri fisici (come ad esempio la conducibilità) di anomalie all’interno della terra effettuando misure del campo gravitazionale sulla superficie
terrestre.
Consideriamo una versione semplificata e 1-dimensionale del problema.
Si vuole determinare la densità ρ(x0 ) di una regione anomala (0 ≤ x0 ≤ 1) situata alla profondità h, misurando la componente verticale fv (x) della variazione
della forza gravitazionale nel punto x sulla superficie terrestre.
9
La massa dell’elemento di volume situato nel punto (x0 , −h) è data da
ρ(x )∆x0 . Se lo strumento
p è posizionato nel punto (x, 0), la sua distanza dall’elemento di massa è (x − x0 )2 + h2 . Dalla legge di Newton
0
F =γ
m
,
r2
dove γ indica la costante di gravitazione universale. Indicando con θ l’angolo
tra la verticale e la retta che congiunge (x0 , −h) con (x, 0), si ha
∆fv (x) = γ
ρ(x0 )∆x0
hρ(x0 )∆x0
cos θ = γ
.
0
2
2
(x − x ) + h
[(x − x0 )2 + h2 ]3/2
Sommando i contributi di tutti i punti x0 ∈ [0, 1] si ha
Z
fv (x) = γh
0
1
ρ(x0 )
dx0 ,
[(x − x0 )2 + h2 ]3/2
0 ≤ x ≤ 1.
(5)
Osserviamo che la (5) è una equazione integrale di Fredholm del primo tipo.
Esercizio 2.2 Mostrare che (5) ha al più una soluzione. (Suggerimento: estendere ρ a tutta la retta (−∞, +∞) ponendola uguale a zero fuori da [0, 1] e
applicare la trasformata di Fourier.)
2.3
Termografia
Consideriamo una sbarra di materiale conduttore di lunghezza π. Supponiamo
che la superficie laterale della sbarra sia isolata e che il calore fluisca solo nella
direzione dell’asse. Possiamo allora schematizzare la sbarra con il segmento
(0, π) dell’asse reale. Indichiamo con u(x, t) la temperatura nel punto x della
sbarra al tempo t. La funzione u soddisfa l’equazione differenziale
ut = uxx ,
0 < x < π.
(6)
Supponiamo che gli estremi della sbarra siano tenuti a temperatura 0 e
che la temperatura iniziale sia una funzione f (x) per 0 ≤ x ≤ π, vale a dire,
supponiamo che u soddisfi le seguenti condizioni al contorno:
u(0, t) = u(π, t) = 0,
(7)
u(x, 0) = f (x).
(8)
e iniziale
Il problema diretto standard in matematica applicata, consiste nel trovare la
temperatura della sbarra ad un tempo successivo (diciamo per t = 1), cioè nel
10
calcolare g(x) = u(x, 1). Vediamo come si risolve il problema diretto: cerchiamo
una soluzione del problema con il metodo della separazione delle variabili, vale
a dire, consideriamo inizialmente soluzioni della forma
u(x, t) = a(x) · b(t),
che soddisfino(7).
L’equazione differenziale (6) risulta soddisfatta se
a(x) · b0 (t) = a00 (x) · b(t),
che, supponendo a e b non identicamente nulli, possiamo scrivere
a00 (x)
b0 (t)
=
.
a(x)
b(t)
poiché i due membri della precedente uguaglianza dipendono da due variabili
indipendenti, allora devono essere entrambi costanti, cioè deve valere
b0 (t)
a00 (x)
=
= λ.
a(x)
b(t)
La condizione al bordo (7) richiede che valga a(0) = a(π) = 0, vale a dire che la
funzione a risolva il seguente problema ai limiti:
00
a (x) = λ a(x) per 0 < x < π,
a(0) = 0, a(π) = 0.
Questo problema ai limiti ha soluzione non nulla se e solo se λ = −k 2 , con k
numero intero, e la soluzione è data da ak (x) = Ak sin(kx). La corrispondente
2
funzione b(t) è data da bk (t) = e−k t .
Con questa procedura abbiamo costruito una infinità numerabile di fun2
zioni uk (x, t) = Ak sin(kx)e−k t che risolvono l’equazione differenziale (6) e le
condizioni al bordo (7).
Se consideriamo una sovrapposizione di tali soluzioni otteniamo funzioni
della forma
∞
X
2
u(x, t) =
Ak sin(kx)e−k t ,
k=1
che soddisfano (6) e (7). Tra queste soluzioni cerchiamo quella che soddisfa la
condizione iniziale (8), cioè, cerchiamo una successione numerica {Ak }∞
k=1 tale
che
∞
X
f (x) =
Ak sin(kx).
(9)
k=1
In sostanza ci chiediamo se f è sviluppabile in serie di seni. Consideriamo
per semplicità il caso in cui f sia una funzione regolare (ad esempio C 1 ). Per
compatibilità con i dati al bordo, sappiamo che f (0) = f (π) = 0. Possiamo estendere la funzione f a tutto R nel modo seguente: per x ∈ (−π, 0)
poniamo f (x) = −f (−x) e poi estendiamo da (−π, π) a tutto R con periodo
2π. L’estensione, che indichiamo ancora con f , risulta una funzione dispari
su tutto R (infatti, per x > 0, f (−x) = f (−x + 2kπ) per qualche k tale che
−x + 2kπ ∈ (−π, π). Dal momento che la funzione è dispari in (−π, π), quindi
11
f (−x) = f (−x + 2kπ) = f (x − 2kπ) = f (x)). La teoria della serie di Fourier
ci garantisce che una funzione assolutamente continua e di periodo 2π ha una
∞
estensione in serie di Fourier, cioè esistono due successioni {Ak }∞
k=1 e {Bk }k=0
tali che
∞
∞
X
X
f (x) =
Ak sin(kx) +
Bk cos(kx),
k=1
k=0
e tale serie converge uniformemente.
Osserviamo che imponendo il vincolo che f sia una funzione dispari, si ottiene
immediatamente che Bk = 0 per ogni k = 0, . . . , ∞ (usando anche il fatto che
seni a coseni formano una base di funzioni in (0, 2π)), cioè che f si può scrivere
come serie di seni.
Rimane da stabilire il valore dei coefficienti Ak : moltiplichiamo la (9) per
sin(mx) e integriamo su (0, π), ottenendo
Z
π
f (x) sin(mx) dx =
0
=
∞
X
k=1
∞
X
sin(kx) sin(mx) dx
0
π
Z
Ak
0
k=1
da cui
π
Z
Ak
2
Ak =
π
π
1
(cos(k − m)x − cos(k + m)x) dx = Am ,
2
2
π
Z
f (x) sin(kx) dx.
0
A questo punto abbiamo risolto il problema diretto: data la funzione f ,
continua in (0, π) e tale che f (0) = f (π) = 0, una soluzione del problema (6),
(7) e (8) è data da
Z π
∞
X
2 −k2 t
e
sin(kx)
u(x, t) =
f (y) sin(ky) dy,
π
0
k=1
in particolare
g(x) =
Z π
∞
X
2 −k2
e
sin(kx)
f (y) sin(ky) dy.
π
0
k=1
Osserviamo che la serie che definisce la g converge uniformemente perché la
successione degli Ak tende a zero per k → ∞, quindi è limitata da una certa
costante L, per cui il termine k-esimo della serie che definisce g si può maggiorare
con
2 −k2
2 −k2
e
sin(kx)A
e
L
k ≤
π
π
che è il termine k-esimo di una serie numerica convergente.
Scambiando la serie con l’integrale si può ottenere la seguente espressione
Z π
g(x) =
k(x, y)f (y) dy,
(10)
0
dove
k(x, y) =
∞
2 X −k2
e
sin(kx) sin(ky).
π
k=1
12
Pensiamo adesso al problema inverso, cioè al problema di determinare la
distribuzione di temperatura iniziale f , che provoca la temperatura successiva g(x). Si tratta in sostanza di risolvere l’equazione del calore all’indietro.
Matematicamente questo si esprime risolvendo rispetto ad f l’equazione (10).
È chiaro dalla natura fisica del processo che la struttura dettagliata di f
viene largamente diffusa al tempo successivo t = 1 ed è quindi impossibile
ricostruire tali informazioni dettagliate misurando g. La base matematica di
tali difficoltà di ricostruzione è evidente dalla forma del nucleo della (10). Più
in dettaglio, le componenti di f corrispondenti ad alte frequenze (cioè a sin(ny)
2
per n grande), sono severamente compromesse dal fattore e−n che, essendo
molto piccolo, rende la loro influenza su g impercettibile.
Esercizio 2.3 Supponiamo che f e g soddisfino (10). Siano ε > 0 e M > 0
numeri assegnati (ε arbitrariamente piccolo e M arbitrariamente grande) e sia
fM (y) = M sin(my). Mostrare che per ogni M ed ε esiste un m abbastanza
grande perchè la perturbazione fM (che ha norma grande) abbia su g un effetto
minore di ε
2.4
Problemi inversi di scattering
I problemi inversi di scattering sono importanti in numerosi campi come la
meccanica quantistica, l’acustica e l’elettromagnetismo. Questi problemi hanno
origine dal tentativo di ottenere informazioni su un corpo, il diffusore, illuminandolo con onde di diversa lunghezza e direzione e misurando le onde diffuse
(rifratte, riflesse, etc.) dal corpo stesso.
Supponiamo che il diffusore sia contenuto in un dominio limitato D dello
spazio tridimensionale. In generale si considerano due diversi tipi di problema di scattering inverso: la ricostruzione del profilo acustico e il problema
dell’ostacolo.
Analizziamo il primo caso. Supponiamo che un’onda acustica si propaghi
nello spazio. Il modello matematico che descrive il comportamento della densità
dell’onda U è l’equazione delle onde
1
∂2U
= 2 ∆U
∂t2
n
in R3 × R+ ,
dove n = n(x) descrive il profilo acustico cioè il reciproco della velocità del
suono. La funzione n viene normalizzata in modo da essere uguale ad uno
fuori da un compatto (n = 1 rappresenta il mezzo circostante, ad esempio aria
o acqua); la regione nella quale n(x) 6= 1 rappresenta il corpo diffusore e la
deviazione di n da uno fornisce informazioni sulla struttura del diffusore.
Se consideriamo solamente onde acustiche armoniche rispetto al tempo, avremo U (x, t) = eikt u(x) dove k rappresenta la frequenza dell’onda acustica. In tal
caso, la funzione u(x) risulta soluzione dell’equazione di Helmholtz
∆u + k 2 n2 u = 0.
Per ottenere lo scattering si genera un’onda incidente ui (che corrisponde
all’onda che si propagherebbe in assenza del diffusore), soluzione dell’equazione
∆ui + k 2 ui = 0.
13
(11)
In genere, l’onda incidente è un’onda piana della forma
ui (x) = eikx·d ,
dove
d ∈ R3 ,
kdk = 1.
L’onda riflessa è la differenza tra l’onda osservata e l’onda incidente, cioè
us := u − ui ,
soluzione di
∆us + k 2 us = k 2 f (ui + us ),
(12)
dove f := 1 − n2 .
Il problema inverso consiste quindi nell’identificare la funzione a supporto compatto f conoscendo l’onda incidente ui e misurando l’onda riflessa us .
Ovviamente l’onda riflessa potrà essere misurata solo lontano dal corpo diffusore (scatterer); in molti casi è ragionevole pensare che us possa essere misurata
solamente su una sfera di raggio R >> 1 che contiene D: questi valori di us
vengono detti far field pattern. Questo concetto sarà più chiaro tra breve.
Prendendo in considerazione le dimensioni del problema si capisce immediatamente che una sola misura del far field pattern non è sufficiente a determinare
f . Infatti, f è una funzione incognita di tre variabili, mentre la misura consiste
in una funzione di due variabili soltanto. Si otterranno ulteriori misure usando
diverse onde incidenti, cioè cambiando la frequenza k.
Osserviamo inoltre che, poiché f compare come coefficiente nell’equazione di
Helmholtz, il problema inverso dello scattering acustico è nonlineare. In diverse
situazioni è ragionevole supporre che l’onda riflessa nell’intorno del diffusore
sia molto più piccola dell’onda incidente: in altre parole, nel secondo membro
della (12), si può approssimare il termine ui + us con ui . Con questa ipotesi
si ottiene una versione lineare del problema dello scattering inverso, governata
dall’equazione
∆us + k 2 us = k 2 f ui ,
che viene detta approssimazione di Born.
Nel problema dell’ostacolo invece, il diffusore D compare nella forma di un
corpo che non viene penetrato dall’onda. In questo caso l’equazione di Helmholtz
modella la propagazione dell’onda fuori da D, cioè,
∆u + k 2 u = 0 in R3 \ D,
accoppiata con una condizione al bordo del tipo
∂u
+ λu = 0 on ∂D,
∂ν
dove ν è la normale uscente a ∂D, e λ descrive la natura dell’ostacolo. Per
λ = 0 si ha un ostacolo duro, cioè impenetrabile che corrisponde alla condizione
al bordo
∂u
= 0,
∂ν
mentre l’altro caso estremo (λ = ∞) descrive un ostacolo soffice con condizione
al bordo
u = 0.
14
Poichè si tratta di un problema differenziale definito sull’esterno di un dominio compatto, l’equazione differenziale e il dato al bordo vanno completati
con una condizione che descrive il comportamento all’infinito.
Scrivendo la soluzione nella forma u = ui + us , la condizione all’infinito,
detta condizione di radiazione o di Sommerfeld, è la seguente:
s
∂u
s
lim r
− iku = 0.
(13)
r→∞
∂r
Matematicamente questa condizione serve a determinare univocamente una
soluzione; dal punto di vista fisico, essa descrive il fatto che l’onda diffusa, lontano dall’ostacolo, assomiglia ad un’onda sferica che si allontana verso l’infinito
cioè a selezionare solo lo scattering uscente. Infatti, tra le due onde sferiche,
cioè soluzioni radiali dell’equazione (11),
eik|x|
|x|
e
e−ik|x|
|x|
solo la prima soddisfa la condizione di radiazione.
La condizione di radiazione permette anche di mostrare che, lontano dall’ostacolo, l’onda riflessa ha la seguente struttura
us (x) =
eik|x|
u∞ (θ; k, d) + O |x|−2
|x|
se
|x| → 0,
(14)
dove θ = x/|x|.
Il problema inverso consiste nel determinare la forma di D misurando il far
field pattern u∞ (θ; k, d) per θ ∈ S 2 .
La notazione u∞ (θ; k, d) mette in evidenza la dipendenza del far field pattern
dalla frequenza k e dalla direzione d dell’onda piana incidente.
Il problema inverso dell’ostacolo consiste quindi nell’identificare la forma di
D. In questo caso l’analisi dimensionale fa intravedere la possibilità di ricostruire
D usando un numero limitato di misure.
Riportiamo un esempio di risultati di unicità relativa al problema dell’ostacolo:
Proposizione 2.1 Siano D1 e D2 due ostacoli soffici tali che, detti u1∞ e u2∞
i rispettivi far field patterns siano
u1∞ (θ; k, d) = u2∞ (θ; k, d)
per ogni θ ∈ S 2 , per un valore fissato di k e per una infinità numerabile di
direzioni d, allora
D1 = D2 .
Proposizione 2.2 Siano D1 e D2 due ostacoli soffici contenuti nella sfera centrata nell’origine e di raggio R. Esiste un numero reale N dipendente da k e da
R, tale che, detti u1∞ e u2∞ i rispettivi far field patterns, se
u1∞ (θ; k, d) = u2∞ (θ; k, d)
per ogni θ ∈ S 2 , per un valore fissato di k e per N + 1 direzioni d, allora
D1 = D2 .
15
2.5
Tomografia ad impedenza elettrica
La Tomografia ad Impedenza Elettrica (EIT) è una tecnica diagnostica non invasiva il cui scopo è quello di determinare una mappa della conducibilità elettrica
di un corpo, effettuando misure di potenziali e correnti sul bordo del corpo.
La conducibilità elettrica misura quanto il materiale si lascia attraversare
dalla corrente elettrica. Materiali diversi hanno conducibilità a volte molto
diverse, quindi una mappa della conducibilità può dare informazioni sulla struttura interna del corpo in esame.
La Tomografia ad impedenza elettrica ha applicazioni mediche (monitoraggio delle funzioni cardiache e polmonari, diagnosi di tumori), archeologiche
(rilevamento di strutture sotterranee), industriali (controllo sulla qualità della
produzione) e ’militari’ (localizzazione di mine antiuomo).
L’esperimento si descrive in questo modo: Se Ω è il conduttore da analizzare,
si assegna su ∂Ω una differenza di potenziale f e si misura la corrente sul bordo.
Il modello matematico che regola questo esperimento è il seguente:
Ω ⊂ RN (N = 2, 3) è un dominio limitato con frontiera regolare. Il parametro
incognito è una funzione γ(x) : Ω → R+ tale che γ ∈ L∞ (Ω).
La corrente in Ω è data dalla legge di Ohm
j = γ∇u
e, se non ci sono sorgenti o pozzi di corrente, il potenziale elettrico u soddisfa
l’equazione
Lγ u := div (γ∇u) = 0 in Ω.
Esperimento:
1. Si assegna una funzione f su ∂Ω.
2. Si considera la soluzione u del problema di Dirichlet
div (γ∇u) = 0 in Ω
u = f su ∂Ω.
3. Si misura
∂u
∂ν
dove ν è la normale uscente da ∂Ω.
g=γ
su
∂Ω,
f e g sono i dati al bordo e appartengono a spazi di Sobolev frazionari.
Il problema inverso:
Ricostruire γ da un certo numero di dati, cioè di coppie
∂u
u|∂Ω , γ
= (f, g).
∂ν |∂Ω
Se supponiamo di avere a disposizione tutte le possibili misure, significa che
conosciamo la mappa che ad un qualunque dato f associa il corrispondente dato
g. Tale applicazione viene detta Mappa Dirichlet-Neumann
Λγ : u|∂Ω → γ
16
∂u
.
∂ν |∂Ω
Il problema inverso consiste quindi nel trovare γ conoscendo Λγ . Osserviamo
che Λγ è una applicazione lineare (per γ fissato), ma il funzionale da invertire
γ → Λγ
non lo è. Il primo problema che si affronta è quello dell’unicità, cioè ci chiediamo
se la mappa Dirichlet-Neumann è sufficiente per ricostruire γ. Vediamo prima il
caso particolare unidimensionale: sia Ω = [0, 1] ⊂ R. L’equazione differenziale
diventa
0
(γ(x)u0 (x)) = 0 in [0, 1],
e i dati sono
u(0) e
γ(0)u0 (0) e
u(1) assegnati
γ(1)u0 (1) misurati.
Si può ricostruire γ avendo a disposizioni tutte le possibili misure, vale a dire
tutti i vettori
{u(0), u(1), γ(0)u0 (0), γ(1)u0 (1)},
al variare di u tra le soluzione dell’equazione?
Osserviamo in primo luogo che dall’equazione si ricava che γ(x)u0 (x) = cost
da cui, in particolare,
γ(0)u0 (0) = γ(1)u0 (1).
L’equazione differenziale è una equazione lineare del secondo ordine, quindi
lo spazio delle soluzione è uno spazio lineare di dimensione 2. In particolare
se si assegnato i dati {u(0), u0 (0)} uguali a {0, 1} e {1, 0} si ottengono due
soluzioni linearmente indipendenti che generano tutto lo spazio delle soluzioni.
Nessuna altra soluzione aggiunge ulteriori informazioni. Osserviamo che il dato
{u(0), u0 (0)} = {1, 0} si ottiene la soluzione costantemente uguale ad 1 che
non fornisce alcuna informazione su γ. Consideriamo allora la soluzione che ha
u(0) = 0 e u0 (0) = 1. Da
γ(x)u0 (x) = cost = γ(0)u0 (0) = γ(0),
si ha che
u0 (x) =
da cui
γ(0)
,
γ(x)
Z
u(x) − u(0) =
0
x
γ(0)
dy.
γ(y)
il dato {u(0), u(1), γ(0)u0 (0), γ(1)u0 (1)} è quindi
Z
0,
0
1
γ(0)
dy, γ(0), γ(0)
γ(y)
e tutto quello che si ottiene è una media integrale del coefficiente γ.
17
3
Problemi mal posti
Negli esempi di problemi inversi che abbiamo presentato nel precedente paragrafo, c’è una differenza fondamentale tra il problema diretto e quello inverso.
In tutti i casi il problema inverso è mal posto (o impropriamente posto) nel
senso di Hadamard, mentre il problema diretto è ben posto. La definizione di
problema ben posto risale agli anni ’20 ed è dovuta appunto ad Hadamard. Egli
afferma che un modello matematico per un problema fisico (si pensi ad esempio
ad un problema al bordo per una equazione differenziale) deve essere ben posto,
vale a dire, deve avere le seguenti proprietà:
Esistenza: il problema ammette una soluzione;
Unicità: esiste al più una soluzione;
Stabilità: la soluzione dipende con continuità dai dati.
Matematicamente, l’esistenza di una soluzione si può forzare allargando lo spazio
delle soluzioni: il concetto di soluzione debole di una equazione differenziale
rientra in questo ordine di idee.
Se il problema ha più di una soluzione significa che mancano informazioni sul
modello (tali da permettere di scegliere quella giusta tra le soluzioni possibili).
In questo caso ulteriori informazioni (come condizioni sul segno, limitazione di
alcune norme, etc) possono essere aggiunte al modello.
La richiesta di stabilità risulta in sostanza la più importante. Se il problema
non ha proprietà di stabilità, le sue soluzioni sono praticamente impossibili
da calcolare perchè ogni misurazione e ogni calcolo numerico sono comunque
inquinati da inevitabili errori, quindi i dati del problema sono sempre perturbati
da qualche forma di rumore. Se la soluzione di un problema non dipende con
continuità dai dati, la soluzione calcolata potrebbe non aver niente a che fare
con la soluzione reale. In realtà, non c’è modo di superare questa difficoltà, a
meno che non siano disponibili ulteriori informazioni sulle soluzioni.
Nessun trucco matematico può porre rimedio ad una mancanza di informazione [C. Lanczos, 1961]
Riportiamo con una notazione matematica la definizione di buona posizione.
Definizione 3.1 (Buona Posizione) Siano X e Y due spazi normati e sia K
un operatore (lineare o nonlineare) K : X → Y . L’equazione
Kx = y
si dice ben posta se ha le seguenti proprietà
1. Esistenza: per ogni y ∈ Y esiste almeno un x ∈ X tale che Kx = y.
2. Unicità: per ogni y ∈ Y esiste al più un x ∈ X che soddisfa Kx = y.
3. Stabilità: la soluzione x dipende con continuità dai dati, cioè, per ogni
successione {xn } ⊂ X con Kxn → Kx (per n → ∞) si ha che xn → x
(per n → ∞).
Vengono dette mal poste le equazioni per le quali almeno una di queste proprietà
non vale.
Per questa definizione è essenziale stabilire la tripletta (K, X, Y ) completa di
norme. Esistenza e unicità della soluzione dipendono solo dalla natura algebrica
di tali spazi, mentre la stabilità dipende in modo essenziale dalle topologie.
18
3.1
Un esempio: derivazione e integrazione
Vediamo adesso un po’ in dettaglio due problemi che ci sono familiari e che sono
uno l’inverso dell’altro: integrazione e derivazione. Quale dei due è il problema
diretto e quale quello inverso? Quando li impariamo a scuola, generalmente
ci viene insegnato per prima cosa a derivare le funzioni elementari. Più tardi
ci viene introdotta l’integrazione, come ricerca di una primitiva. Alle scuole
superiori il processo di integrazione sembra sempre più complicato di quello di
derivazione.
Se invece guardiamo dal punto di vista storico, l’idea di integrazione risale
ad Archimede, mentre per arrivare ad introdurre propriamente il concetto di
derivazione si deve aspettare il calcolo infinitesimale di Newton e Leibnitz.
Come decidiamo allora quale dei due problemi è più giusto chiamare diretto
e quale inverso? Andiamo a vedere se uno dei due è ben posto e l’altro no.
Scriviamo il problema nella forma seguente:
Kx = y
dove x e y appartengono a qualche spazio di funzioni definite, ad esempio
sull’intervallo [0, 1] e
Z s
(Kx)(s) :=
x(t) dt.
0
Quindi, se conosco x e voglio calcolare y devo integrare, mentre se conosco y
e cerco la funzione x devo derivare, infatti, per esempio se x è continua, per il
Teorema Fondamentale del calcolo integrale y 0 (t) = x(t).
La buona o cattiva posizione di un problema dipende ovviamente dagli
spazi funzionali nei quali si scelgono dato e soluzioni. Per il problema dell’integrazione, prendiamo in considerazione, ad esempio lo spazio delle funzioni
continue, cioè consideriamo
K : C[0, 1] → C[0, 1].
Osserviamo che ogni funzione continua in [0, 1] è integrabile su tale intervallo e
che la funzione integrale che ne risulta (cioè la y) è ancora una funzione continua
(anzi è derivabile con derivata continua). Quindi il problema di calcolare y,
assegnata x ha una soluzione. Tale soluzione è anche unica per definizione di
integrale.
Vediamo adesso se il problema dell’integrazione è stabile, cioè se, date due
funzioni x1 e x2 vicine, anche y1 = Kx1 e y2 = Kx2 sono vicini. Dal momento
che l’operatore K è lineare, questo equivale a chiedersi se K è un operatore
limitato.
Sia kx1 − x2 k∞ ≤ ε, allora
Z s
|Kx1 (s) − Kx2 (s)| = (x1 (t) − x2 (t)) dt
Z 0s
Z s
≤
|x1 (t) − x2 (t)| dt ≤ ε
dt = εs ≤ ε.
0
0
Esercizio 3.1 Un risultato del tutto analogo si ottiene considerando uno spazio
19
funzionale diverso. Si provi per esercizio con L1 (0, 1).
Z 1 Z t
dt
x(s)
ds
kyk1 =
0
0
Z
Z 1 Z 1
Z 1Z t
|x(s)| ds dt =
|x(s)| ds dt ≤
≤
0
0
0
0
1
kxk1 dt = kxk1 .
0
Prendiamo invece in considerazione il problema della derivazione. In sostanza ci chiediamo cosa possiamo dire sull’invertibilità dell’operatore K.
Osserviamo in primo luogo che l’operatore K : C[0, 1] → C[0, 1] non è suriettivo, perché appartengono al range di K le funzioni con derivata continua
e con valore 0 nell’origine. È invece un operatore iniettivo, supponiamo infatti
che Kx1 (t) = Kx2 (t) per ogni t ∈ (0, 1), avremo allora che x1 (t) = (Kx1 )0 (t) =
(Kx2 )0 (t) = x2 (t). Quindi, in sostanza, K −1 esiste purchè ristretto al range di
K.
Per capire se il problema della derivazione è ben posto, vediamo se K −1
risulta anche lui un operatore limitato. Se K −1 fosse limitato, le immagini di
insiemi limitati dovrebbero rimanere ancora limitati, ma questo non accade e lo
chiarisce questo esempio.
Consideriamo la successione di funzioni
{sin(nx)}∞
n=1 .
Questo è un insieme limitato, perchè k sin(nx)kC 0 [0,1] ≤ 1 per ogni n. Tuttavia,
kK −1 sin(nx)kC 0 = kn cos(nx)kC 0 = n → ∞ per n → ∞.
Vediamo cosa significa può significare questo per un problema applicativo. Supponiamo di essere interessati a conoscere la derivata di una certa funzione
che misuriamo con una approssimazione δ. Cioè vogliamo calcolare f 0 (x) per
x ∈ (0, 1) misurando la funzione fδ (x) e sapendo che
f (x) = fδ (x) + r(x),
dove r è il rumore e krk∞ < δ.
Per prima cosa abbiamo il problema di stabilire se fδ e r sono derivabili.
In generale fδ sarà nota puntualmente e r potrebbe essere qualunque funzione.
Supponiamo comunque di essere in questa situazione favorevole: sia fδ che r
sono derivabili, quindi
f 0 (x) = fd0 (x) + r0 (x).
Prendendo per buono il valore di fδ0 commettiamo un errore dell’ordine di kr0 k∞ .
Ma tale errore può essere grandissimo: se r(x) = δ sin(nx/δ), allora kr0 k∞ =
kn cos(nx/δ)k∞ = n può essere arbitrariamente grande.
Ci chiediamo allora se questo problema dipende dal fatto che le norme che
abbiamo preso in considerazione possono non essere quelle giuste.
Esercizio 3.2 Verificare che la situazione non cambia considerando spazi di
tipo Lp .
Il fenomeno che abbiamo descritto è piuttosto caratteristico di certi problemi
inversi. Il problema diretto (in questo caso l’integrazione di una funzione continua) è un processo regolarizzante (smoothing), nel senso che errori fortemente
20
oscillanti (del tipo n cos(nx/δ)) vengono smorzati dall’integrazione (divenendo
δ sin(nx/δ)) e hanno un effetto “trascurabile” sul dato del problema inverso.
Questo smorzamento è responsabile del fatto che errori di ampiezza piccola
ma con alta frequenza creano grandi oscillazioni nella soluzione del problema
inverso.
Questo è appunto un fenomeno generale: se il problema diretto è regolarizzante, ci si aspetta che nella soluzione del problema inverso compaiano
oscillazioni dovute alla presenza di piccole perturbazioni ad alta frequenza.
Naturalmente anche per la derivazione è possibile trovare qualche norma
o qualche spazio funzionale nel quale essa risulta una operazione ben posta.
Supponiamo, per esempio di considerare
K : C[0, 1] → C 1 [0, 1]
cioè di equipaggiare lo spazio di arrivo con la norma C 1 . In tal caso,
kK −1 ykC 0 = kxkC 0 = ky 0 kC 0 ≤ kykC 1 ,
per cui l’operatore K −1 è limitato con norma minore di 1. In questo caso gli
errori dell’esempio precedente (δ sin(nx/δ)) non sono più errori piccoli perché
la loro norma C 1 è dell’ordine di n. Osserviamo che questa scelta delle norme è
difficilmente giustificabile nelle applicazioni.
È anche possibile eliminare l’instabilità modificando non la norma ma lo
spazio funzionale che consideriamo. Supponiamo infatti di potersi restringere
a considerare solamente funzioni y lineari, cioè della forma y(t) = at con a
costante e 0 < t < 1. Su tale ristretto spazio lineare consideriamo, per esempio,
la norma L2 .
Z 1
a2
kyk2L2 =
(at)2 dt =
3
0
Invece,
kK
−1
yk2L2
=
ky 0 k2L2
Z
=
1
a2 dt = a2 ,
0
e quindi
kK −1 ykL2 = |a| =
√ |a|
√
3 √ = 3kykL2
3
Quindi in questo spazio ristretto di funzioni, la derivazione è un funzionale
limitato. Questa osservazione concorda anche con l’intuizione: il processo di
derivazioni non può rendere più irregolare una funzione lineare.
Come possiamo allora derivare una funzione che conosciamo solo per punti?
Abbiamo visto che volendo affrontare il problema utilizzando spazi funzionali
ragionevoli il problema risulta mal posto. Possiamo però cercare di risolverlo se
abbiamo a disposizione ulteriori informazioni.
Supponiamo ancora di voler calcolare f 0 conoscendo un valore approssimato
di f , cioè conoscendo fδ in modo tale che kf −fδ kL2 ≤ δ. Ovviamente, conoscendo solo il dato approssimato non possiamo sperare di ritrovare esattamente la
derivata di f : dobbiamo accontentarci di calcolare una funzione che assomiglia
alla derivata di f . Consideriamo l’insieme delle funzioni che hanno distanza da
fδ minore di δ. Questo insieme contiene sicuramente f e ognuna di tali funzioni
è, per la nostra capacità di misura, indistinguibile da f . Supponiamo però di
21
avere informazioni di altra origine su f . Supponiamo, per esempio di sapere che
non è troppo oscillante e che i dati che raccogliamo sul bordo sono corretti.
Questo significa restringere l’insieme di arrivo ad
S = {g : kg − fδ kL2 < δ, kg 00 kL2 ≤ E, g(0) = fδ (0), g(1) = fδ (1)} .
La funzione f appartiene a questo insieme. Quale errore si commette calcolando la derivata di una qualunque altra funzione in S, vale a dire: quanto
vale kf 0 − g 0 kL2 ?
Sia h(x) = f (x) − g(x). Sappiamo che khkL2 ≤ kf − fδ kL2 + kg − fδ kL2 ≤ 2δ,
kh00 kL2 ≤ kf 00 kL2 + kg 00 kL2 ≤ 2E, e h(0) = h(1) = 0, quindi
!
x=1 Z 1
Z 1
0 2
0
2
0
00
kh kL2 =
(h (x)) dx = h(x)h (x)
−
h(x)h (x)dx
0
≤
x=0
0
00
khkL2 kh kL2 ≤ 4δE,
da cui si ricava che
√
kf 0 − g 0 kL2 ≤ 2 Eδ,
3.2
3.2.1
per ogni g ∈ S.
Due problemi per le funzioni armoniche
Il problema di Dirichlet per l’equazione di Laplace
Supponiamo che D sia un dominio di RN con frontiera regolare, che f sia una
funzione nella classe C(∂D)) e consideriamo il problema di Dirichlet
∆u = 0 in D
u = f su ∂D.
Sappiamo che:
• Per ogni f ∈ C(∂D) esiste una soluzione del problema di Dirichlet.
• La soluzione è unica. Se infatti ne esistessero due, u1 e u2 , la differenza
sarebbe soluzione del problema di Dirichlet
∆(u1 − u2 ) = 0 in D
u1 − u2 = 0 su ∂D.
Per il principio del massimo segue che u1 − u2 ≡ 0 in D.
• La soluzione è stabile. Siano infatti u1 e u2 soluzione di
∆u1 = 0 in D
∆u2 = 0 in D
e
u1 = f1 su ∂D
u2 = f2 su ∂D
rispettivamente. La differenza u1 − u2 è ancora una funzione armonica in
D che vale f1 − f2 su ∂D. Per il principio del massimo u1 − u2 ha massimo
e minimo su ∂D e, quindi
|u1 − u2 |C 0 (D) ≤ |f1 − f2 |C 0 (∂D) .
Vediamo che invece la situazione è decisamente diversa se si sostituisce il
dato di Dirichlet con dati al bordo diversi.
22
3.2.2
Il problema di Cauchy per l’equazione di Laplace
Questo è il classico esempio di problema mal posto, dato dallo stesso Hadamard.
Problema: Trovare una soluzione u dell’equazione di Laplace
∆u(x, y) :=
∂ 2 u(x, y) ∂ 2 u(x, y)
+
=0
∂x2
∂y 2
in
(0, 1) × (0, r),
che soddisfa le condizioni iniziali (di Cauchy)
u(x, 0) = f (x),
∂
u(x, 0) = g(x)
∂y
per x ∈ (0, 1),
dove f e g sono funzioni assegnate.
Osservazioni di Hadamard:
1. Il problema ha una soluzione se e solo se
Z
1 1
φ(x) = f (x) −
g(t) ln |x − t| dt
π 0
è analitica.
Dim. La funzione
v(x, y) =
1
2π
Z
1
g(t) ln[(x − t)2 + y 2 ] dt
0
∂
è armonica per y > 0 e ∂y
v(x, 0) = g(x) in 0 < x < 1.
La funzione w = u − v è quindi armonica nel rettangolo, w(x, 0) = φ(x) e
∂
∂y w(x, 0) = 0 per 0 < x < 1. Il principio di riflessione per le funzioni armoniche
afferma che la funzione w(x, |y|) è armonica in un intorno completo del segmento
{(x, 0), 0 < x < 1}, e quindi w(x, 0) = φ(x) è una funzione analitica.
Viceversa, se φ è analitica, per il Teorema di Cauchy-Kowalevski, esiste una
e una sola funzione armonica w definita in un intorno completo di (0, 1) × {0},
con derivata normale nulla per y = 0 e uguale a φ per y = 0. La funzione
u = w + v è soluzione del problema.
2. Il problema non è stabile: variazioni arbitrariamente piccole dei dati possono provocare variazioni arbitrariamente grandi della soluzione.
23
La funzione
√
un = e−
n
cos(nx) cosh(ny),
è soluzione del problema

y) ∈ (0, 1) × (0, r),
 ∆un (x, y) = 0, per (x,
√
un (x, 0) = f (x) = e− n cos(nx) per x ∈ (0, 1),
 ∂
∂y un (x, 0) = g(x) = 0 per x ∈ (0, 1).
Osserviamo che
√
sup {|f (x)| + |g(x)|} = e−
n
→ 0,
n → ∞,
x∈(0,1)
ma
√
sup |u(x, r)| = e−
n
√
cosh(nr) = e−
n
x∈(0,1)
enr + e−nr
→ ∞,
2
n → ∞.
3. I dati del problema sono sovrabbondanti
Questa è una osservazione dovuta a C. Pucci.
Possiamo modificare il problema di Dirichlet nel modo seguente: Sia I un
sottoinsieme di (0, 1) con almeno un punto di accumulazione. Il problema

 ∆u(x, y) = 0, per (x, y) ∈ (0, 1) × (0, r),
∂
u(x, 0) = g(x) per x ∈ (0, 1),
(15)
 ∂y
u(x, 0) = f (x) per x ∈ I,
ha al piú una soluzione.
Siano, infatti, u e v soluzioni di (15). La funzione w = u − v è armonica
∂
un (0, 1) × (0, r) e ∂y
w(x, 0) = 0. Per il principio di riflessione, la funzione
w(x, |y|) è armonica in (0, 1) × (−r, r) e, quindi, w(x, 0) è analitica in (0, 1).
Poiché w(x, 0) = 0 per x ∈ I segue che w ≡ 0, cioè u ≡ v.
PossiamoR anche considerare in problema leggermente diverso. Supponiamo
1
che f (x)− π1 0 g(t) ln |x−t| dt sia una funzione analitica in (0, 1) e sia v soluzione
di

 ∆v(x, y) = 0, per (x, y) ∈ (0, 1) × (0, r),
∂
v(x, 0) = g(x) per x ∈ (0, 1),
 ∂y
v(x, 0) = f (x) per x ∈ (0, 1).
Allora, ogni funzione u soluzione del problema

∆u(x, y) = 0,
per (x, y) ∈ (0, 1) × (0, r),

∂
u(x,
0)
=
g(x)
per x ∈ (0, 1),
∂y

{x : u(x, 0) = f (x)}
ha un punto di accumulazione in
(16)
(0, 1),
coincide con v.
∂
(u−v)(x, 0) = 0
Basta infatti osservare che ∆(u−v) = 0 in (0, 1)×(0, r) e ∂y
per x ∈ (0, 1) e quind, sempre utilizzando il principio di riflessione, (u − v)(x, 0)
è analitica in (0, 1). Dal momento che {x : u(x, 0) = v(x, 0)} ha un punto di
accumulazione in (0, 1), allora u ≡ v.
4. La soluzione può essere controllata facendo intervenire in modo essenziale
l’analiticità.
Vedere G.Talenti, Sui problemi mal posti, Bollettino U.M.I. (5), 15-A (1978),
1-29.
24
3.3
Un cenno alle equazioni integrali del primo tipo
Come abbiamo visto le equazioni integrali del primo tipo costituiscono un modello per i problemi inversi lineari. Prendiamole in considerazione per quanto
riguarda le questioni di esistenza, unicità e stabilità delle soluzioni.
Consideriamo una equazione integrale di Fredholm del primo tipo:
Z 1
k(s, t)x(t) dt = y(s), 0 ≤ s ≤ 1.
(17)
0
Questa forma comprende anche le equazioni integrali di Volterra del primo tipo
Z s
k(s, t)x(t) dt = y(s), 0 ≤ s ≤ 1.
(18)
0
per le quali avremo k(s, t) = 0 per t > s.
Esistenza
In genere si vorrebbe avere una soluzione x dell’equazione (17) per una classe
sufficientemente grande di funzioni y. Chiaramente però la funzione y in (17)
non solo dipende da x, ma eredita, attraverso la variabile s certe proprietà
strutturali e qualitative dal nucleo k. Quindi la forma di k può causare severe
restrizioni alla forma delle funzioni y per le quali l’equazione (17) ha soluzione.
Per fare un esempio estremo, se k(s, t) = 1 per ogni (s, t) ∈ [0, 1] × [0, 1], allora
esistono soluzioni dell’equazione integrale (17) se e solo se y è costante.
Esempio 3.1 Un nucleo k(s, t) si dice degenere se ha la forma
k(s, t) =
n
X
Sj (s)Tj (t).
j=1
Si vede facilmente che, se k è degenere, allora l’equazione (17) non ha soluzione
se y non appartiene allo spazio generato dalle funzioni {S1 , . . . , Sn }.
Unicità
In generale non ci si può aspettare che equazioni della forma (17) abbiano una
soluzione unica. Infatti, nell’esempio semplice k(s, t) = 1 è evidente che per ogni
funzione costante y(s) = c si hanno infinite soluzioni che verificano l’equazione.
Per esempio tutte le funzioni a scala della famiglia xn (t) = nc1(0,1/n) (t) per
n ∈ N sono soluzioni.
Altri esempi di non unicità vengono prodotti dalle relazioni di ortogonalità;
per esempio, se k(s, t) = a(s) sin πt, allora ognuna delle funzioni
x(t) = sin nπt,
n = 2, 3, . . .
è soluzione dell’equazione
Z
1
k(s, t)x(t) dt = 0.
0
Esercizio 3.3 Supponiamo che, per 0 ≤ t ≤ 1, k(s, t) = 0 per 0 ≤ s < 1/2
e k(s, t) = 1 per 1/2 ≤ s ≤ 1. Mostrare che x(t) = 0 e x(t) = t − 1/2 sono
R1
entrambe soluzioni di 0 k(s, t)x(t) dt = 0, per 0 ≤ s ≤ 1.
25
Instabilità
La mancanza di stabilità è il punto centrale per le equazioni integrali di prima
specie. Essa non dipende da forme particolari del nucleo, ma è una caratteristica
fondamentale e segue dal
Lemma di Riemann-Lebesgue. Se k(·, ·) ∈ L2 ([0, 1] × [0, 1]), allora
Z 1
k(·, t) sin nπt dt → 0 as n → ∞
0
dove la convergenza si intende in norma L2 .
Quindi, una perturbazione significativa (in norma L2 ) della forma sin nπt ad
una soluzione x(t) dell’equazione (17) porta, per n grande, ad una perturbazione
insignificante dell’effetto y(s).
La forma speciale delle equazioni integrali di Volterra non semplifica le difficoltà associate all’esistenza, unicità e stabilità delle soluzioni, come mostrano
i seguenti esercizi:
Rs
Esercizio 3.4 Mostrare che l’equazione 0 x(t) dt = y(s) ha una soluzione
integrabile solo se y è assolutamente continua e y(0) = 0.
Esercizio 3.5 Mostrare che per ogni numero reale c la funzione x(t) = ct2 é
una soluzione non nulla dell’equazione
Z s
(3s − 4t)x(t) dt = 0
0
3.3.1
Equazioni integrali del secondo tipo
Prendiamo adesso brevemente in considerazione le equazioni integrali del secondo tipo di Fredholm
Z 1
x(s) =
k(s, t)x(t) dt + y(s), 0 ≤ s ≤ 1,
(19)
0
e di Volterra
Z
x(s) =
s
k(s, t)x(t) dt + y(s),
0 ≤ s ≤ 1.
(20)
0
Osserviamo che le equazioni (20) sono sempre risolubili se il nucleo k e il
dato y sono ragionevoli e che le soluzioni dipendono con continuità dai dati.
Proposizione 3.2 Sia k continuo in 0 ≤ t ≤ s ≤ 1. Per ogni y ∈ C(0, 1)
esiste una e una sola soluzione dell’equazione (20) e tale soluzione dipende con
continuità da y.
Dim. Si costruisce una soluzione utilizzando il metodo delle approssimazioni
successive. Definiamo per ricorrenza la successione
x0 (s)
x1 (s)
= y(s)
Z s
=
k(s, t)x0 (t) dt + y(s)
0
...
Z s
xn (s)
=
k(s, t)xn−1 (t) dt + y(s)
0
26
(21)
Vogliamo mostrare che la successione {xn }∞
n=0 converge uniformemente a x ∈
C(0, 1) per n → ∞ e che x è soluzione di (20).
Possiamo scrivere il termine n-esimo della successione come somma parziale
di una serie telescopica:
xn (s) = y(s) +
n
X
{xj (s) − xj−1 (s)}.
j=1
La successione xn converge se la serie telescopica è convergente. Chiamiamo
K = max{|k(s, t)| : 0 ≤ t ≤ s ≤ 1} e stimiamo:
Z s
Z s
|k(s, t)| dt
k(s, t)y(t) dt ≤ kykC 0 (0,1)
|x1 (s) − x0 (s)| = 0
0
≤ KkykC 0 (0,1) s,
Z
|x2 (s) − x1 (s)| = 0
s
k(s, t)(x1 (t) − x0 (t)) dt
s
Z
K 2 kykC 0 (0,1) t dt
≤
0
≤ K 2 kykC 0 (0,1)
|xj (s) − xj−1 (s)| ≤ kykC 0 (0,1)
s2
,
2
(Ks)j
.
j!
La serie risulta quindi uniformemente convergente ad una x ∈ C(0, 1). Passando al limite per n → ∞ nella (21) si ottiene che x è soluzione dell’equazione
integrale. Per quando riguarda la stabilità si osserva che
kxkC 0 ≤
∞
X
kxj − xj−1 kC 0 + kykC 0 ≤ kykC 0 ·
j=1
∞
X
Kj
j=0
j!
= eK kykC 0 .
Osservazione 3.3 Esiste una tecnica standard per ridurre alcune equazioni
integrali di Volterra del primo tipo
Z s
k(s, t)x(t) dt = y(s),
(22)
0
ad equazioni integrali di Volterra del secondo tipo. Se, infatti, il nucleo k è
continuo e derivabile rispetto ad s con derivata continua per 0 ≤ t ≤ s ≤ 1,
y 0 (s) è continua per 0 ≤ s ≤ 1 e k(s, s) 6= 0 per 0 ≤ s ≤ 1, allora, derivando la
(22) rispetto ad s e dividendo per k(s, s) si ha
Z s
∂k
x(s) +
(s, t)/k(s, s) x(t) dt = y 0 (s)/k(s, s).
(23)
∂s
0
Questa equazione è ben posta nello spazio delle funzioni continue. Notiamo che
il problema della stabilità persiste perchè, a causa della presenza della derivata
di y, piccoli cambiamenti nel secondo membro della (22) possono portare a
grandi cambiamenti nel secondo membro della (23). Quindi, la trasformazione
dell’equazione dal primo al secondo tipo sposta semplicemente l’instabilità nel
processo di derivazione.
27
Rs
Esercizio 3.6 Sia φ(s) = 0 x(τ ) dτ . Integramo la (22) per parti per ottenere
l’equazione integrale di Volterra del secondo tipo
Z s
∂k
φ(s) −
(s, t)/k(s, s) φ(t) dt = y(s)/k(s, s).
∂t
0
Con questo procedimento si aggira l’ostacolo dell’instabilità?
Concludiamo infine questo paragrafo osservando che la risoluzione delle equazioni
di Fredholm di seconda specie non è sempre semplice come quella delle equazioni
di Volterra di seconda specie. Le equazioni di Fredholm possono presentare degli
autovettori, cioè possono esistere funzioni non nulle che soddisfano
Z 1
x(s) =
k(s, t)x(t) dt.
0
La presenza di questi autovettori influenza l’esistenza e, soprattutto, l’unicità
della soluzione. Esistono comunque risultati analoghi a quello mostrato per le
equazioni di Volterra, ad esempio:
Proposizione 3.4 Sia k continuo in [0, 1] × [0, 1] con sup{|k(s, t)| : (s, t) ∈
[0, 1]2 } < 1. Per ogni y ∈ C(0, 1) esiste una e una sola soluzione dell’equazione
(19) e tale soluzione dipende con continuità da y.
4
Operatori compatti
4.1
Un po’ di analisi funzionale
Per questo richiamo di analisi funzionale si consiglia la parte riguardante gli
spazi di Hilbert nell’appendice delle dispense del Prof. Magnanini del corso di
Istituzioni di Analisi Superiore II mod. reperibili sulla sua pagina web.
4.2
Sugli insiemi compatti
Prima di introdurre gli operatori compatti ricordiamo che un sottoinsieme S
di uno spazio normato X si dice relativamente compatto se ogni successione
in S contiene una sottosuccessione convergente in X. S si dice compatto se è
relativamente compatto e chiuso.
Esempi:
1. In RN sono compatti tutti e soli gli insiemi limitati e chiusi (sono relativamente compatti tutti e soli gli insiemi limitati).
2. Il Teorema di Ascoli-Arzelà caratterizza i sottoinsiemi relativamete compatti di C[a, b]. Afferma infatti che un sottoinsieme S di C[a, b] è relativamente compatto se e solo se è limitato ed equicontinuo, cioè se per ogni
ε > 0 esiste δ > 0 tale che per ogni f ∈ S e per ogni coppia s, t ∈ (0, 1)
con |s − t| < δ si ha |f (s) − f (t)| < ε.
3. Vediamo un caso speciale del Teorema di Immersione di Sobolev
28
Proposizione 4.1 Gli insiemi della forma
S = {f ∈ H 1 [0, 1] : kf kH 1 ≤ E}
sono compatti in C[0, 1].
Dim. In primo luogo osserviamo che le funzioni di H 1 [0, 1] sono in particolare funzione assolutamente continue (e quindi S ⊂ C[0, 1]) e si può
scrivere
Z x
f 0 (s) ds.
f (x) = f (t) +
t
Integrando in t questa relazione si ottiene
Z 1
Z 1Z
f (x) =
f (t) dt +
0
Z
=
Z
f 0 (s) ds dt
t
0
1
x
x
Z
s
f 0 (s) dt ds
f (t) dt +
0
Z
=
0
0
1
Z
f (t) dt +
0
x
sf 0 (s) ds,
0
da cui
Z
≤ |f (x)|
1
0
≤
quindi kf kC 0 ≤
|f (s) − f (t)|
√
Z
f (t) dt +
x
s|f 0 (s)| ds
0
√
√
1
kf kL2 + kf 0 kL2 √ ≤ 2kf kH 1 ≤ 2E,
3
2E ed S è limitato in C 0 [0, 1]. Inoltre,
Z t
1/2
Z t
1 dτ ≤ f 0 (τ ) dτ ≤ kf 0 kL2 s
1/2
= |s − t|
0
s
1/2
kf kL2 ≤ |s − t|
kf kH 1 ≤ E|s − t|1/2 ,
e le funzioni di S sono equicontinue. Questo dimostra che S è relativamente compatto. Vogliamo adesso mostrare che è anche chiuso. Sia
{fn }∞
n=1 una successione di funzioni di S convergente a f in C(0, 1). Consideriamo la successione delle derivate {fn0 }∞
n=1 . Per la definizione di S
sappiamo che tale successione è limitata rispetto alla norma L2 . Per il
teorema di Bolzano-Weierstass generalizzato, tale successione ammette
una sottosuccessione (che chiamiamo {fn0 j }∞
j=1 ) debolmente convergente
ad una funzione g ∈ L2 . Facciamo vedere che g è la derivata debole di
f : sia Φ una funzione test, cioè una funzione C ∞ a supporto compatto in
(0, 1), allora, poiché fnj converge uniformemente a f ,
Z 1
Z 1
0
f (t)Φ (t) dt = lim
fnj (t)Φ0 (t)
j→∞
0
0
Z
=
1
lim −
j→∞
0
fn0 j (t)Φ(t)(t) dt = −
Z
1
g(t)Φ(t) dt,
0
quindi f ∈ H 1 (0, 1) e
kf k2H 1
= kf k2L2 + kgk2L2
= lim kfnj k2L2 + kfn0 j k2L2 ≤ E.
j→∞
29
4.3
Definizione e proprietà degli operatori compatti
Siano X e Y spazi normati e sia K : X → Y un operatore lineare. K si dice
compatto se per ogni insieme limitato B in X, l’immagine T (B) è relativamente
compatta in Y (cioè la sua chiusura è compatta in Y ).
In altre parole,
Proposizione 4.2 Un operatore K : X → Y è compatto se e solo se per ogni
successione {φn } limitata in X, la successione {Kφn } ha una sottosuccessione
convergente in Y .
Vediamo alcune proprietà degli operatori compatti
1) Gli operatori compatti sono limitati.
L’insieme ∂B1 = {x ∈ X : kxk = 1}. È limitato in X, quindi la sua
immagine K(∂B1 ) è compatta (e quindi limitata) in Y , cioè, esiste M > 0 tale
che
kKxk ≤ M ∀x ∈ ∂B1 ⇒ kKk ≤ M.
Oss. Gli insiemi compatti sono limitati perché se non lo fossero si potrebbe
costruire una successione con norma che tende a +∞ dalla quale non si possono
estrarre sottosuccessioni convergenti.
2) Combinazioni lineari di operatori compatti sono ancora operatori compatti.
Siano K1 e K2 operatori compatti. Data una successione {φn } limitata in
X, si può estrarre una sottosuccessione {φn1k } tale che K1 φn1k converge in Y
e da questa un’altra sottosuccessione {φn2k } tale che K2 φn2k converge in Y .
Allora, per ogni coppia di costanti α e β, la successione αK1 φn2k + βK2 φn2k è
convergente.
3) Siano T1 : X → Y e T2 : Y → Z operatori lineari limitati. Se uno dei
due operatori è compatto, allora il prodotto
T2 T1 : X → Z
è compatto.
Sia B un insieme limitato in X. Se T2 è compatto, dal momento che T1 (B) è
ancora limitato, allora T2 (T1 (B)) è relativamente compatto in Y . Supponiamo
invece che T1 sia compatto e prendiamo una successione {φn } limitata in X. Per
la compattezza di T1 la successione {T1 φn } ha una sottosuccessione {T1 φnk }
convergente. Per la limitatezza di T2 si ha allora che anche {T2 (T1 (φnk ))} è
convergente.
4) Sia X uno spazio normato e sia Y uno spazio di Banach. Se Kn : X →
Y è una successione di operatori compatti convergente in norma all’operatore
K : X → Y , allora K è compatto.
Sia {φn } una successione limitata in X, kφn k ≤ E per ogni n. Poiché
tutti gli operatori sono compatti, con un processo di diagonalizzazione si può
scegliere una sottosuccessione {φnj } tale che per ogni m fissato la successione
Km φnj converge quando j tende a +∞. Vogliamo mostrare che anche Kφnj
converge. Siccome Y è uno spazio di Banach, basta mostrare che la successione
è di Cauchy. Fissiamo ε > 0. Dall’ipotesi che kKm − Kk tende a zero per m
che tende all’infinito, sappiamo che esiste m0 ∈ N tale che
kKm0 − Kk ≤
30
ε
.
3E
Poiché Km0 φnj converge quando j tende all’infinito, esiste un indice N (ε) tale
che se j, k > N (ε), allora
ε
.
3
kKm0 φnj − Km0 φnk k ≤
Calcoliamo allora, per j, k > N (ε)
kKφnj − Kφnk k
≤
kKφnj − Km0 φnj k + kKm0 φnj − Km0 φnk k
+Km0 φnk − Kφnk k
ε
ε
ε
≤
E+ +
E = ε.
3E
3 3E
Esempio 4.1 L’operatore di immersione
K : H 1 [0, 1] → C[0, 1],
Kf = f
è compatto. (Vedere la Proposizione 4.1)
Esempio 4.2 Se k(·, ·) ∈ C([0, 1] × [0, 1]), allora l’operatore integrale
Z 1
K : C[0, 1] → C[0, 1], Kf (s) =
k(s, t)f (t) dt
0
è compatto (si dimostra utilizzando il teorema di Ascoli- Arzelà.)
Il precedente esempio si può estendere ad una classe di nuclei più grande di
quella formata da funzioni continue nel quadrato [0, 1] × [0, 1]. Diciamo che il
nucleo k è debolmente singolare in [0, 1] × [0, 1] se esiste una costante positiva
M ed un numero α ∈ [0, 1), tali che
|k(s, t)| ≤ M |s − t|α−1 ,
per s, t ∈ [0, 1],
s 6= t.
Proposizione 4.3 Un operatore integrale con nucleo debolmente singolare è
compatto da C[0, 1] in sé.
Dim. Osserviamo in primo luogo che l’operatore è ben definito perché per
ogni f ∈ C[0, 1], vale
|k(s, t)f (t)| ≤ M kf k∞ |s − t|α−1 ,
che è integrabile in (0, 1) per α ∈ (0, 1).
Definiamo la funzione continua e lineare a tratti h : [0, +∞) → R

0
per 0 ≤ x ≤ 1/2,

2x − 1
per 1/2 ≤ x ≤ 1,
h(x) :=

1
per 1 ≤ x < +∞,
e definiamo i nuclei continui
h(n|s − t|)k(s, t)
kn (s, t) :=
0
per s 6= t,
,
per s = t.
I corrispondenti operatori integrali Kn : C[0, 1] → C[0, 1] sono compatti (esempio 4.2).
31
Calcoliamo
Z 1
|Kf (s) − Kn f (s)| = (k(s, t) − kn (s, t))f (t) dt
Z0
≤
|k(s, t)(1 − h(n|s − t|))| · |f (t)| dt
1
|s−t|≤ n
Z
Z
≤
1
|s−t|≤ n
|k(s, t)||f (t)| dt ≤ M kf kC 0
2M kf kC 0
→0
αnα
=
|s − t|α−1 dt
1
|s−t|≤ n
per n → ∞.
Cioè Kn f converge a Kf uniformemente in [0, 1], e quindi Kf ∈ C[0, 1]. Inoltre
kK − Kn kC 0 ≤
2M
→0
αnα
per n → ∞
e quindi K è compatto.
5) Sia T : X → Y un operatore lineare limitato con range R(T ) a dimensione
finita. Allora T è compatto.
Sia B ⊂ X limitato. T (B) è un insieme limitato contenuto in uno spazio di
dimensione finita. Per il teorema di Bolzano-Weierstrass, T (B) è relativamente
compatto.
6) L’operatore identità I : X → X è compatto se e solo se X ha dimensione
finita.
Per dimostrare questa affermazione utilizziamo il
Lemma di Riesz Sia X uno spazio normato, sia S ( X un suo sottospazio
chiuso e sia α ∈ (0, 1). Allora, esiste un elemento ψ ∈ X con kψk = 1 e
kψ − φk ≥ α
per ogni
φ ∈ S.
Dim. del Lemma di Riesz. Sia S ( X e sia f ∈ X \ S. Per la chiusura di S,
si ha che
β := inf kf − ψk > 0.
ψ∈S
Per definizione di estremo inferiore, esiste g ∈ S tale che
β ≤ kf − gk ≤
β
.
α
Definiamo il vettore di norma 1,
φ :=
f −g
.
kf − gk
Per ψ ∈ S, il vettore g + kf − gkψ ∈ S e vale
kψ − φk =
1
β
kf − {g + kf − gkψ}k ≥
≥ α.
kf − gk
kf − gk
32
Dim. di 6). Supponiamo che I sia compatta e che X non abbia dimensione
finita. Sia ψ1 ∈ X con kψ1 k = 1. Chiamiamo S1 := span{ψ1 }. S1 è un
sottospazio chiuso di X strettamente contenuto in X. Per il Lemma di Riesz,
esiste ψ2 ∈ X tale che kψ2 k = 1 e kψ2 −ψ1 k ≥ 1/2. Sia S2 := span{ψ1 , ψ2 } ( X.
Esiste quindi ψ3 ∈ X tale che kψ3 k = 1, kψ3 − ψ1 k ≥ 1/2 e kψ2 − ψ1 k ≥
1/2. Poiché X ha dimensione infinita, questo procedimento non ha termine e si
costruisce quindi una successione {ψn } ⊂ X tale che kψn k = 1 e kψm − ψn k ≥
1/2 per ogni n, m con n 6= m. Abbiamo costruito una successione limitata che
non ha sottosuccessioni convergenti. Questo è contrario all’ipotesi che I sia
compatta. Viceversa, se X ha dimensione finita la tesi è conseguenza del punto
5).
Conseguenza importante di 6): Se X ha dimensione infinita e K : X →
Y è un operatore compatto iniettivo, allora l’inverso di K non è limitato.
Dim. Se K −1 : K(X) → X fosse limitato, allora risulterebbe compatto
l’operatore
I : K −1 K : X → X
e X dovrebbe aver dimensione finita, contrariamente all’ipotesi.
Abbiamo appena visto che l’inverso di un operatore compatto non è limitato
se lo spazio ha dimensione infinita. Vediamo invece un caso nel quale l’operatore
inverso è limitato.
Teorema dell’Applicazione Aperta. Siano X e Y spazi di Banach e sia
T : X → Y un operatore lineare, continuo e suriettivo. Allora, esiste c > 0 tale
che
T ({x ∈ X : kxk < 1}) ⊃ {y ∈ Y : kyk < c},
(24)
cioè T è una applicazione aperta.
Corollario 4.4 Siano X e Y spazi di Banach e sia T : X → Y un operatore
lineare, continuo e bijettivo da X su Y . Allora T −1 è continuo.
Dimostrazione che il Teorema dell’applicazione aperta implica il corollario. Per
un operatore bijettivo la condizione (24) si può leggere nel modo seguente: per
ogni x ∈ X con kT xk < c, allora kxk < 1. Da questo segue che
kxk ≤
1
kT xk.
c
Sia, infatti, 0 < ξ < c, allora
ξx T
= ξ kT xk < c ⇒ ξx < 1,
kT xk
kT xk
kT xk cioè kxk < 1ξ kT xk per ogni ξ < c da cui la tesi.
Un risultato fondamentale riguardante gli operatori compatti è il seguente
teorema
33
Alternativa di Fredholm. Sia X uno spazio di Hilbert, sia K : X → X
un operatore compatto e sia K ∗ il suo aggiunto. Allora
a) N (I − K) ha dimensione finita,
b) R(I − K) è chiuso e
R(I − K) = N (I − K ∗ )⊥
c) N (I − K) = {0} se e solo se R(I − K) = X
d) dim(N (I − K)) = dim(N (I − K ∗ )).
Osserviamo che la proprietà c) fa somigliare gli operatori compatti a operatori tra spazi a dimensione finita.
4.4
Teoria spettrale degli operatori compatti
Limitiamoci al caso di operatori definiti su spazi di Hilbert.
Definizione 4.5 Sia X uno spazio di Hilbert e sia T : X → X un operatore
lineare.
Si chiama risolvente di T l’insieme
ρ(T ) = {λ ∈ R : T − λI
ha inverso limitato su
X}.
Si chiama invece spettro di T il complementare del risolvente
σ(T ) = C \ ρ(T ).
Un elemento λ ∈ σ(t) è un autovalore se T − λI non è iniettivo. Se λ è un
autovalore, gli elementi non nulli del nucleo N (T − λI) si dicono autovettori.
Vale il seguente risultato:
Teorema 4.6 Sia T : X → X un operatore lineare su uno spazio di Hilbert X.
a) Se x1 , . . . , xn sono un insieme finito di autovettori , ognuno corrispondente
ad un diverso autovalore, allora essi sono linearmente indipendenti.
Se T è autoaggiunto tali autovettori sono a due a due ortogonali.
b) Se T è autoaggiunto,
kT k = sup < T x, x >= r(T ) = sup{λ : λ ∈ σ(T )}.
kxk=1
In generale, per operatori non compatti, è possibile che T − λI sia iniettivo
ma non suriettivo. Questo, grazie all’Alternativa di Fredholm, non succede per
operatori compatti autoaggiunti (cioè tali che < Kx, x >=< x, Kx > per ogni
x ∈ X) per i quali abbiamo una descrizione completa dello spettro.
Teorema 4.7 Teorema spettrale per operatori compatti autoaggiunti. Sia X uno spazio di Hilbert e sia K : X → X un operatore compatto
autoaggiunto. Allora:
34
a) σ(K) \ {0} è composto da soli autovalori. K ha almeno un autovalore e
ne ha al più una infinità numerabile con 0 come unico possibile punto di
accumulazione.
b) Per ogni autovalore λ 6= 0 esiste un numero finito di autovettori linearmente indipendenti. Autovettori corrispondenti ad autovalori diversi sono
ortogonali.
c) Ordiniamo gli autovalori in modo che sia |λ1 | > |λ2 | > . . .. Se indichiamo
con Pj la proiezione su N (K − λj ), si ha
K=
∞
X
λj Pj .
j=1
d) Esiste una successione {xj }j∈J (con J finito o J = N) tale che xj è un
autovettore per K, < xi , xj >= 0 se i 6= j e tale che per ogni x ∈ X esiste
x0 ∈ N (K) tale che
X
x = x0 +
< x, xj > xj
j∈J
e
Kx =
X
λj < x, xj > xj .
j∈J
Se K è iniettivo, {xj : j ∈ J} è un sistema completo in X.
Per la dimostrazione rimandiamo al libro di H. Brezis, Analisi Funzionale. Osserviamo soltanto che, per definire il sistema completo, definiamo una successione con valore assoluto non crescente costituita dagli autovalori di K, ognuno contato con la sua molteplicità. Per ogni autovalore scegliamo una base
ortogonale dell’autospazio (che ha dimensione finita uguale alla molteplicità
dell’autovalore).
Osservazione 4.8 Se K non è iniettivo e X è separabile, si può completare
{xj }j∈J con un sistema ortonormale completo per N (K) ottenendo un sistema
ortomornale completo per X formato ancora da autovettori.
In generale non si può concludere che N (K) ha dimensione finita.
Vogliamo adesso introdurre la decomposizioni a valori singolari, che è l’analogo del Teorema spettrale per operatori compatti non autoaggiunti. Prima di
farlo richiamiamo brevemente qualche proprietà dell’aggiunto di un operatore.
Sia T : H1 → H2 un operatore lineare tra due spazi di Hilbert. Fissato
u ∈ H2 , il funzionale lineare
fu : H1 → R,
definito da
fu (v) =< u, T v >
per v ∈ H1
è un funzionale lineare limitato su H1 , infatti
|fu (v)| ≤ kukkT vk ≤ kukkT kkvk.
35
Per il teorema di rappresentazione di Riesz, esiste uno e un solo elemento di H1 ,
che indichiamo con T ∗ u, tale che
< u, T v >= fu (v) =< T ∗ u, v >
per ogni v ∈ H1 .
L’applicazione T ∗ : H2 → H1 è lineare e limitata. Chiamiamo T ∗ l’operatore
aggiunto di T .
Utilizzeremo le seguenti proprietà:
kT ∗ k = kT k,
(T ∗ )∗ = T
e
T ∗ S ∗ = (ST )∗ .
Esempio 4.3 Se H1 = Rn e H2 = Rm e T : Rn → Rm è rappresentato dalla
matrice A = {aij } per i = 1 . . . , m, j = 1, . . . , n nel senso che T (x) = Ax, allora
T ∗ : Rm → Rn è dato da
T ∗ (y) = AT y.
Esempio 4.4 Aggiunto di un operatore integrale. Sia k ∈ L2 ([0, 1]×[0, 1])
e sia K : L2 [0, 1] → L2 [0, 1] definito da
Z 1
(Kf )(s) =
k(s, t)f (t) dt.
0
Calcoliamo l’aggiunto di K utilizzando il Teorema di Fubini.
Z 1 Z 1
k(s, t)f (t) dt g(s) ds
< Kf, g > =
0
Z
=
0
Z
=
1
Z
0
1
k(s, t)f (t)g(s) dt ds
Z 1
1
f (t)
k(s, t)g(s) ds dt =< f, K ∗ g >,
0
0
0
dove
K ∗ g(s) =
1
Z
k(t, s)g(t) dt.
0
K ∗ è ancora un operatore integrale e corrisponde al nucleo k ∗ (s, t) = k(t, s).
L’operatore K è autoaggiunto se k(t, s) = k(s, t) per ogni (s, t) ∈ [0, 1] × [0, 1].
Proposizione 4.9 Se K : H1 → H2 è compatto, allora anche K ∗ : H2 → H1 è
compatto.
Dim. Sia {φn }n∈N ⊂ H2 una successione limitata tale che kφn k ≤ c per ogni
n ∈ N. Per la limitatezza di K ∗ , la successione {K ∗ φn }n∈N ⊂ H1 è ancora
limitata. Poiché K è compatto, esiste una sottosuccessione {φnj }j∈N tale che
{KK ∗ φnj }j∈N converge in H2 . Fissato comunque ε > 0, esiste un indice M > 0
tale che
ε
per j, l > M.
kKK ∗ φnj − KK ∗ φnl k ≤
2c
Allora, prendendo j, l > M si ha,
kK ∗ φnj − K ∗ φnl k2
= < K ∗ φnj − K ∗ φnl , K ∗ (φnj − φnl ) >
= < KK ∗ φnj − KK ∗ φnl , φnj − φnl >
≤
kKK ∗ φnj − KK ∗ φnl kkφnj − φnl k ≤
36
ε
2c = ε,
2c
cioè K ∗ φnj è convergente in H2 e quindi K ∗ è compatto.
Proposizione 4.10 Sia T : H1 → H2 un operatore lineare limitato tra due
spazi di Hilbert. Valgono allora le seguenti identità:
R(T ) = N (T ∗ )⊥
e
R(T ∗ ) = N (T )⊥
H2 = R(T ) ⊕ N (T ∗ )
e
H1 = R(T ∗ ) ⊕ N (T ).
e, inoltre,
4.5
Decomposizioni a valori singolari
Teorema 4.11 Sia K : H1 → H2 un operatore compatto tra spazi di Hilbert.
Esistono un insieme di indici J (finito o J = N), una successione di numeri
reali positivi {σj }j∈J e due sistemi ortonormali {ej }j∈J in H1 e {fj }j∈J in H2 ,
tali che
1. La successione {σj }j∈J è monotona non crescente e, se J = N,
lim σj = 0.
j→+∞
2. Kej = σj fj e K ∗ fj = σj ej per j ∈ J.
3. Per ogni x ∈ H1 esiste x0 ∈ N (K) tale che
X
x = x0 +
< x, ej > ej
j∈J
e
Kx =
X
σj < x, ej > fj .
(25)
j∈J
4. Per ogni y ∈ H2 ,
K ∗y =
X
σj < y, fj > ej .
j∈J
Definizione 4.12 Sistema singolare I numeri σj vengono detti valori singolari
di K e la famiglia {σj , ej , fj }j∈J è detta sistema singolare per K, mentre la formula (25) è detta decomposizione a valori singolari di K (SVD=Singular Value
Decomposition).
Osservazione 4.13 La soluzione di Kx = y con y ∈ R(K) si scrive
X
x = x0 +
σj−1 < y, fj > ej ,
j∈J
con x0 ∈ N (K).
Dim. Consideriamo gli operatori
K ∗ K : H1 → H2
e
37
KK ∗ : H2 → H1
che sono entrambi compatti e autoaggiunti.
Mostriamo che se λ 6= 0 è un autovalore per K ∗ K, allora è positivo ed è
anche un autovalore per KK ∗ con la stessa molteplicità. Sia λ 6= 0 e sia u tale
che
K ∗ Ku = λu.
Calcoliamo
λkuk2 =< λu, u >=< K ∗ Ku, u >=< Ku, Ku >= kKuk2 .
Poiché u 6= 0, allora λ > 0. Inoltre
K ∗ Ku = λu ⇒ KK ∗ (Ku) = λKu,
cioè Ku ∈ N (KK ∗ − λI) da cui segue che λ è un autovalore per KK ∗ . Inoltre
K(N (K ∗ K − λI)) ⊂ N (KK ∗ − λI)
da cui segue che
dim(N (K ∗ K − λI)) ≤ dim(N (KK ∗ − λI)).
Scambiando i ruoli di K e K ∗ si ottiene la relazione opposta da cui si ha che
dim(N (K ∗ K − λI)) = dim(N (KK ∗ − λI)).
Per il teorema 4.7, possiamo definire una successione {λj }j∈J non crescente
di autovalori di K ∗ K contati ognuno con la propria molteplicità,
λ 1 ≥ λ2 ≥ λ 3 ≥ . . . > 0
dove J = N oppure J è un insieme finito. A questa successione corrisponde una
successione {ej }j∈J di autovettori di K ∗ K che forma un sistema ortonormale
completo per N (K ∗ K)⊥ . Osserviamo che N (K ∗ K) = N (K). Infatti, se x ∈
N (K ∗ K), K ∗ Kx = 0 e quindi
0 =< K ∗ Kx, x >=< Kx, Kx >= kKxk2 ,
cioè x ∈ N (K). Viceversa, ogni x ∈ N (K) appartiene sicuramente a N (K ∗ K).
La successione {ej }j∈J ha quindi le seguenti proprietà:
< ej , ei >= δij
per ogni i, j,
K ∗ Kej = λj ej
e per ogni x ∈ H1 esiste x0 ∈ N (K ∗ K) = N (K) tale che
X
x = x0 +
< x, ej > ej .
j∈J
Definiamo adesso per j ∈ J
σj =
p
λj
e
1
fj = p Kej ∈ H2 .
λj
38
(26)
Per ogni j ∈ J, fj è un autovettore di KK ∗ corrispondente all’autovalore λj ,
infatti
1
1
KK ∗ fj = p KK ∗ Kej = p K(λj ej ) = λj fj .
λj
λj
Inoltre, {fj }j∈J è una successione ortonormale, infatti
< ei , K ∗ Kej >
λj
< Kei , Kej >
p
p
=
=p
< ej , ei >= δij .
λ i λj
λi λj
λj λ i
< fi , fj >=
Dalla definizione (26) si ha anche che
Kej = σj fj
K ∗ fj = σj ej .
e
Rimane da provare la (25). Dal teorema 4.7 sappiamo che
X
K ∗ Kx =
λj < x, ej > ej .
j∈J
Chiamiamo
Qx :=
X
σj < x, ej > fj
QN x :=
e
j∈J
X
σj < x, ej > fj .
j∈J
j≤N
Il vettore Qx risulta ben definito perché la successione dei valori singolari è non
crescente e quindi
X
σj2 < x, ej >2 ≤ σ12 kxk2 .
j∈J
N
Per ogni N il vettore Q x appartiene a R(K). Calcoliamo

1/2
X
X


σj2 < x, ej >2 
≤ σN kxk,
kQN x − Qxk = k
σj < x, ej > fj k ≤ 
j∈J
j≥N
j∈J
j≥N
da cui segue che
Qx =
lim QN x ∈ R(K).
N →+∞
Per la continuità dell’operatore aggiunto,
K ∗ Qx = K ∗ lim QN x = lim K ∗ QN x
N
N


X


= lim K ∗ 
σj < x, ej > fj 
N
=
lim
N
j∈J
j≤N
X
λj < x, ej > ej = K ∗ Kx,
j∈J
j≤N
Abbiamo quindi:
K ∗ (Qx − Kx) = 0,
cioè
Qx − Kx ∈ N (K ∗ ),
ma anche
Qx − Kx ∈ R(K) = N (K ∗ )⊥
da cui segue che Qx = Kx, cioè la (25).
39
Esempio 4.5 Sia K : L2 (0, 1) → L2 (0, 1) definito da
Z s
Kx(s) :=
x(t) dt, per t ∈ (0, 1).
0
L’aggiunto di K è
1
Z
K ∗ y(s) :=
y(t) dt.
s
L’operatore K è compatto e
K ∗ Kx(s) =
Z
1
Z
t
x(τ ) dτ.
0
s
λ 6= 0 è un autovalore di K ∗ K se esiste una funzione x non nulla tale che
Z 1Z t
x(τ ) dτ per s ∈ (0, 1)
(27)
λx(s) =
s
0
Dalla (27) si vede che deve valere
x(1) = 0.
Derivando poi l’equazione (27) rispetto ad s si ha
Z s
λx0 (s) = −
x(τ ) dτ
0
0
dalla quale segue che x (0) = 0. Derivando nuovamente rispetto ad s si ottiene
infine l’equazione differenziale λx00 (s) = −x(s). In conclusione, λ 6= 0 è un
autovalore per K ∗ K se esiste una soluzione non nulla di
λx00 (s) + x(s) = 0 in (0, 1),
x(1) = 0,
x0 (0) = 0.
Questo sistema ha soluzione non nulla se e solo se λ =
I valori singolari di K sono quindi
σj =
2
(2j − 1)π
4
(2j−1)2 π 2
per j = 1, 2, . . ..
per j ∈ N.
Ogni valore singolare ha molteplicità 1 e le corrispondenti autofunzioni sono
ej (s) =
mentre
fj =
4.6
√
2 cos
(2j − 1)πs
,
2
√
1
(2j − 1)πs
Kej = 2 sin
.
σj
2
Criterio di esistenza di Picard
Il teorema seguente è un criterio per la risolubilità di equazioni lineari governate
da un operatore compatto.
Teorema di Picard. Sia K : H1 → H2 un operatore lineare compatto
con sistema singolare {σj , ej , fj }. Dato y ∈ H2 le seguenti condizioni sono
equivalenti:
40
(a) y ∈ R(K) (cioè Kx = y ha soluzione)
P
(b) y ∈ R(K) e j∈J σ12 | < y, fj > |2 < +∞.
j
Dim. (a) ⇒ (b). Sia y ∈ R(K) ⊂ R(K). Esiste x ∈ H1 tale che Kx = y.
Dal teorema 4.11 si ha che
X
X
x = x0 +
< x, ej > ej e y = Kx =
σj < x, ej > fj ,
j∈J
j∈J
da cui segue che
< y, fj >= σj < x, ej >
e, quindi,
X
σj−2 < y, fj >2 =
j∈J
X
< x, ej >2 ≤ kxk2 < +∞.
j∈J
(b) ⇒ (a) È sufficiente considerare il caso J = N, infatti se J è un insieme finito,
R(K) è chiuso. Definiamo la successione
xn :=
n
X
σj−1 < y, fj > ej ,
per n ∈ N
j=1
e facciamo vedere che xn converge, mostrando che è una successione di Cauchy.
Sia m ≥ n, allora
m
X
kxn − xm k2 =
σj−2 < y, fj >2 → 0
per n, m → +∞,
j=n+1
perchè la serie
Osserviamo che
1
j∈J σj2 |
P
< y, fj > |2 converge. Chiamiamo x := limn xn .
Kx = lim Kxn = lim
n
n
n
X
< y, fj > fj =
j=1
X
< y, fj > fj ,
j∈J
quindi
kKxk ≤ kyk.
Sia, adesso, z := y −
D’altra parte,
P
j∈J
< y, fj > fj . Per ipotesi, z ∈ (R(K)) = N (K ∗ )⊥ .
< z, fj >= 0 per ogni j ∈ J
e, quindi,
K ∗z =
X
σj < z, fj > ej = 0
j∈J
da cui segue che z ∈ N (K ∗ ) e quindi z = 0, cioè y =
K(x) ∈ R(K).
P
j∈J
< y, fj > fj =
Osservazione 4.14 La decomposizione ai valori singolari mostra chiaramente
la cattiva posizione di una equazione lineare governata da un operatore compatto. Infatti, se perturbiamo il dato y nell’equazione Kx = y aggiungendo
il vettore δy = αfj , si ottiene una perturbazione della soluzione della forma
δx = ασj−1 ej . Se J = N, il rapporto kδx k/kδy k può essere reso arbitrariamente
grande, infatti
kδx k/kδy k = σj−1 → +∞.
41
5
Informazioni a priori e stabilità
Nella nostra notazione il problema inverso consiste nel risolvere in x l’equazione
Kx = y
nella quale K : X → Y è un operatore lineare tra spazi di Banach.
Inoltre, in genere, siamo nelle condizioni di non conoscere esattamente il
dato y, ma di conoscere una sua approssimazione y ε con ky ε − yk ≤ ε.
Se K è un operatore invertibile con inverso limitato, possiamo calcolare
xε = K −1 y ε commettendo un errore del tipo:
kxε − xk = kK −1 y ε − K −1 yk ≤ kK −1 kε.
Quindi, quando l’errore ε sui dati tende a zero, anche l’errore sulla soluzione
tende a zero.
Che cosa succede invece quando K non ha inverso limitato? Riprendiamo
in considerazione il problema della derivazione di una funzione che corrisponde
a risolvere l’equazione
Z
t
x(s) ds = y(t)
0
cioè ad invertire l’operatore
Z
Kx(t) =
t
x(s) ds.
0
Supponiamo di cercare la soluzione x ≡ 0 dell’equazione
Z t
x(s) ds ≡ 0,
0
t
ε.
L’errore sul dato è ky ε − yk∞ ≤ ε, ma la
e di aver misurato y (t) = ε sin
soluzione che corrisponde a questo dato, cioè la funzione xε (t) = K −1 y ε (t) =
cos εt , è lontana dalla soluzione nulla, infatti kxε − xk∞ = 1 e non tende a zero
per ε → 0.
Lo studio della stabilità di un problema consiste nell’aggiungere informazioni
sullo spazio delle soluzioni per cercare di ripristinare la stabilità. Una motivazione per questa strategia è fornita dal
ε
Teorema di Tikhonov. Sia K : D(K) ⊂ X → Y un operatore iniettivo
continuo e sia C ⊆ D(K) un insieme compatto in X. Allora, l’operatore inverso
(K|C )−1 : K(C) → C
è continuo.
Dim. Sia {φn }n∈N una successione convergente in K(C) e sia φ = limn φn .
Dobbiamo far vedere che {ψn }n∈N = {(K|C )−1 φn }n∈N ⊂ C converge in C a ψ =
(K|C )−1 φ. Per farlo, è sufficiente dimostrare che ogni sottosuccessione di ψn ha
una sottosuccessione convergente a ψ. Sia {ψnj }j una sottosuccessione di {ψn }n .
Poiché C è compatto, {ψnj }j ha una sottosuccessione {ψnj k }k convergente a
qualche ψ ∈ C. Ma K è un operatore continuo, quindi
φ = lim φnj k = lim K(ψnj k ) = K(lim ψnj k ) = K(ψ).
k
k
k
42
Dal momento che K è iniettivo, si ha ψ = ψ.
In genere l’operatore che si vuole invertire non è suriettivo né iniettivo.
Conviene allora riformulare il problema inverso in modo leggermente diverso.
Supponiamo di cercare x̃ soluzione di K x̃ = y ma di conoscere una approssimazione y ε di y tale che ky ε − yk ≤ ε.
Consideriamo l’insieme
Sε = {x ∈ X : kKx − y ε k ≤ ε}.
L’insieme Sε contiene la soluzione x̃ ed è definito anche se K non è né iniettivo
né suriettivo. Il diametro di Sε è una stima dell’errore che si commette quando
si approssima x̃ con un qualunque altro elemento di Sε .
Se K è compatto e X non ha dimensione finita, diam(S) = +∞. Per
ripristinare la stabilità aggiungiamo informazioni sulla soluzione, vale a dire
restringiamo S a
Sε0 = {x ∈ X : kKx − y ε k ≤ ε
e
x soddisfa condizioni aggiuntive}.
A questo punto si devono prendere in considerazione due questioni:
1. Stima del diametro di Sε0 (studio della stabilità).
2. Esibizione di un elemento di Sε0 (ricostruzione).
Per quanto riguarda le stime di stabilità vediamo un esempio generale.
Definizione 5.1 Sia K : X → Y un operatore lineare limitato tra spazi di
Banach, sia X1 un sottospazio di X e sia k · k1 una norma su X1 più forte della
norma su X, nel senso che esiste c > 0 per cui kxk ≤ ckxk1 per ogni x ∈ X1 .
Definiamo allora
F(ε, E, k · k1 ) := sup{kxk : x ∈ X1 , kKxk ≤ ε
e
kxk1 ≤ E}.
F(ε, E, k · k1 ) si dice errore nel caso peggiore.
F(ε, E, k · k1 ) dipende dall’operatore K e dalle norme in X, Y e X1 . Nel caso
ottimale di un operatore con inverso limitato, F(ε, E, k · k1 ) è dell’ordine di ε.
Se K è un operatore compatto e k · k1 = k · k, sappiamo che F(ε, E, k · k1 )
non tende a zero per ε → 0 e si deve necessariamente scegliere su X1 una norma
più forte.
Osserviamo che F(ε, E, k · k1 ) stima il diametro dell’insieme
Sε0 .
Siano infatti x1 e x2 due elementi in Sε0 . Abbiamo kx1 − x2 k1 ≤ 2E e kKx1 −
Kx2 k ≤ kKx1 − y ε k + kKx1 − y ε k ≤ 2ε e quindi
kx1 − x2 k ≤ F(2ε, 2E, k · k1 ).
Quando si riesce a dimostrare che, per ε → 0 l’errore nel caso peggiore
F(ε, E, k · k1 ) tende a zero, diciamo che la condizione x̃ ∈ X1 e kx̃k1 ≤ E
ripristina la stabilità per il problema inverso.
43
5.1
Ancora sull’esempio della derivazione
Rt
Fissiamo X = Y = L2 (0, 1) e Kx(t) = 0 x(s) ds.
Prendiamo il sottospazio
X1 = x ∈ H 1 (0, 1) : x(1) = 0 ,
nel quale definiamo la norma kxk1 := kx0 kL2 (0,1) . Mostriamo che questa norma
è più forte della norma in X.
Dal momento che ogni x ∈ X1 ha derivata debole in L2 (0, 1) ⊂ L1 (0, 1) e
che x(1) = 0, possiamo scrivere
Z 1
x(t) = −
x0 (s) ds
t
e quindi
1
Z
Z
0
|x(t)| ≤
|x (s)| ds ≤
1
Z
0
Z
kxkL2 =
1
|x(t)|2 dt
2
1/2
,
0
0
e
0
|x (s)| ds
|x (s)| ds ≤
t
1
1/2
Z
1
≤
0
1/2
kx0 k2L2 dt
= kx0 kL2 .
0
Sia x ∈ H 1 (0, 1) tale che kx0 kL2 ≤ E e kKxkL2 ≤ ε e calcoliamo, integrando
per parti,
Z t
Z 1
Z 1
d
x(s) ds dt
kxk2L2 =
(x(t))2 dt =
x(t)
dt 0
0
0
1
Z 1
Z t
Z t
=
x0 (t)
x(s) dsdt − x(t)
x(s) ds 0
Z
0
0
0
1
0
0
x (t)Kx(t) dt ≤ kx kL2 kKxkL2 ≤ εE,
=
0
cioè
F(ε, E, k · k1 ) ≤
5.2
√
εE.
Un risulato generale di stabilità
Il teorema che segue, permette di stimare l’errore nel caso peggiore per particolari sottospazi.
Teorema 5.2 Siano H1 e H2 spazi di Hilbert e sia K : H1 → H2 un operatore
lineare compatto e iniettivo con R(K) denso in H2 .
a) Se X1 = K ∗ (H2 ) = R(K ∗ ) e kxk1 := k(K ∗ )−1 xkH2 , allora
√
F(ε, E, k · k1 ) ≤ εE
e la stima è asintoticamente stabile, cioè, per ogni E > 0 esiste una
successione εj convergente a zero tale che
p
F(εj , E, k · k1 ) = εj E.
44
b) Se X2 = K ∗ K(H1 ) e kxk2 := k(K ∗ K)−1 xkH1 , allora
F(ε, E, k · k2 ) ≤ ε2/3 E 1/3
e la stima è asintoticamente stabile, cioè, per ogni E > 0 esiste una
successione εj convergente a zero tale che
2/3
F(εj , E, k · k1 ) = εj E 1/3 .
Dim. Osserviamo che le norme nei due sottospazi sono ben definite perché K
⊥
è iniettivo e R(K) è denso. Con queste ipotesi N (K ∗ ) = R(K) = {0} e
N (K ∗ K) = N (K) = {0}. Dimostriamo l’affermazione b). Sia x = K ∗ Kw con
w ∈ H1 tale che kxk2 = kwk ≤ E e kKxk ≤ ε.
Calcoliamo
kxk2H1 =< x, x >=< K ∗ Kw, x >=< Kw, Kx >≤ kKwkε,
e osserviamo che
kKwk2 =< Kw, Kw >=< w, K ∗ Kw >=< w, x >≤ EkxkH1
e, quindi,
kxk2H1 ≤ εE
p
kxkH1 ⇒ kxkH1 ≤ ε2/3 E 1/3 .
Proviamo adesso che la stima è asintoticamente stabile. Sia {σj , ej , fj } un
sistema singolare per K. Prendiamo x = Eσj2 ej = EK ∗ Kej ∈ X2 . Con questa
scelta kxk2 = E e kKxkH2 = kEσj2 Kej k = kEσj3 fj k = Eσj3 . Prendendo
εj = Eσj3 → 0 per j → ∞ si ha
kxkH1 = Eσj2 = e
ε 2/3
j
E
2/3
= εj E 1/3 .
La dimostrazione del caso a) è del tutto analoga.
Vediamo cosa diventa questo risultato nel caso
R t dell’operatore integrale:
R1
Prendiamo K : L2 (0, 1) → L2 (0, 1), Kx(t) = o x(s) ds e K ∗ y(t) = t y(s) ds.
R1
se x ∈ X1 = K ∗ (L2 ), allora x(t) = t z(s) ds per qualche z ∈ L2 . Vale quindi
x(1) = 0 e x0 = −z(t) ∈ L2 , cioè x ∈ H 1 (0, 1) e kxk1 = kzkL2 = kx0 kL2 . Quindi
il teorema descrive l’esempio della sezione precedente affermando che
√
sup{kxk : kKxk ≤ ε, kx0 kL2 ≤ E, x(1) = 0} ≤ εE.
R1Rs
Per la seconda parte, invece, x ∈ X2 se x(t) = t 0 w(τ ) dτ ds da cui segue
che x(1) = 0, x0 (0) = 0 e x00 (t) = −w(t) con kxk2 = kwkL2 , quindi
sup{kxk : kKxk ≤ ε, kx00 kL2 ≤ E, x(1) = 0, x0 (0) = 0} ≤ ε2/3 E 1/3 .
Osserviamo che la condizione x ∈ X1 e x ∈ X2 riguarda la soluzione. Nel
caso del problema della derivazione possiamo rileggere il risultato nel modo
seguente: è ben posto il problema della derivazione di una funzione di classe
H 2 (0, 1)( o H 3 ) con derivata seconda (terza) limitata in norma L2 .
45
5.3
Stime di stabilità per l’equazione del calore all’indietro
Riprendiamo in considerazione il problema della conduzione di calore in una
sbarra di lunghezza π i cui estremi sono tenuti a temperatura costante. Il
problema differenziale è il seguente:
ut = uxx in (0, π) × (0, T ),
u(0, t) = u(π, t) = 0 per t ∈ (0, T ).
Abbiamo visto che la soluzione u al tempo t si può scrivere in funzione dei valori
al tempo iniziale
Z π
∞
2 X −n2 t
u(x, t) =
e
sin(nx)
u(y, 0) sin(ny) dy, per 0 ≤ x ≤ π, 0 < t ≤ T.
π n=1
0
Abbiamo osservato che calcolare la temperatura finale u(x, T ) conoscendo la
temperatura iniziale u(x, 0) è un problema ben posto, mentre il problema all’indietro, cioè calcolare u(x, 0) conoscendo u(x, T ) è un problema mal posto.
Vediamo una leggera variante di questo problema: siano X = Y = L2 (0, π),
supponiamo di avere il dato u(x, T ) e di voler calcolare l’incognita u(x, τ ) per
qualche τ ∈ (0, T ). Si tratta quindi di invertire l’operatore K : X → Y che ha
come nucleo
∞
2 X −n2 (T −τ )
e
sin(nx) sin(ny).
k(x, y) =
π n=1
Ovviamente è ancora un problema mal posto, come si vede considerando soluzioni
della forma
2
ũ(x, t) = em (τ −t) sin(mx).
Infatti,
r
kdatok = kũ(·, T )kL2 =
π −m2 (T −τ )
e
→0
2
e
per m → ∞,
r
π
.
2
Cerchiamo le giuste informazioni aggiuntive che permettono di ripristinare la
stabilità.
Supponiamo di sapere che
ksoluzionek = kũ(·, τ )kL2 =
u(x, 0) ∈ L2 (0, 1)
e
ku(x, 0)kL2 ≤ E.
(28)
Osserviamo subito che la funzione ũ non soddisfa queste condizioni aggiun2
tive quando m diventa grande, infatti kũ(x, 0)kL2 = em τ .
Sia u una soluzione che soddisfa le condizioni (28). Chiamiamo
r Z π
π
u(y, 0) sin(ny)dy.
an =
2 0
Con questa notazione
u(y, 0) =
∞
X
r
an
n=1
46
π
sin(nx)
2
e la (28) diventa
∞
X
(an )2 ≤ E 2 .
(29)
n=1
Supponiamo che il dato sia piccolo cioè che
ku(x, T )k2L2 =
∞
X
e−2n
2
T
(an )2 ≤ ε2
(30)
n=1
e stimiamo
ku(x, τ )k2L2 =
∞
X
2
e−2n τ (an )2 .
n=1
1
p
T
τ
e p tale che
+
Siano q =
disuguaglianza di Hölder si ha
∞
X
2
e−2n τ (an )2
=
n=1
∞
X
1
q
= 1.
Usando la versione discreta della
2
e−2n τ ((an )2 )1/q ((an )2 )1/p
n=1
≤
∞
X
!1/q
−2n2 τ q
e
2
(an )
n=1
=
∞
X
∞
X
!1/p
2
(an )
n=1
!1/q
−2n2 T
e
2
(an )
n=1
∞
X
!1/p
2
(an )
≤ ε2τ /T E 2(1−τ /T ) ,
n=1
cioè
ku(x, τ )kL2 (0,π) ≤ ετ /T E 1−τ /T
Osserviamo che la stima migliora se τ → T , mentre degenera per τ → 0.
Nel linguaggio dell’errore nel caso peggiore possiamo scrivere
X1 = {v(x)
Z π
∞
2 X −n2 τ
e
sin(nx)
: v(x) =
u0 (y) sin(ny) dy,
π n=1
0
per qualche
u0 ∈ L2 (0, π)}
con kvk1 = ku0 kL2 e
F(ε, E, k · k1 ) ≤ ετ /T E 1−τ /T .
6
Teoria generale della regolarizzazione
Lo scopo dei metodi di regolarizzazione è quello di costruire, a partire dal dato
misurato y ε , una soluzione xε che sia vicina alla soluzione reale x̃. L’ideale
sarebbe costruire una funzione dello spazio Sε0 , ma ci accontenteremo di metodi
che forniscano approssimazione comparabili con quelle del peggior errore, cioè
tali che, per qualche costante positiva C, kx̃−xε k ≤ CF(2ε, 2E, k·k1 ). Iniziamo
con un esempio introduttivo.
47
6.1
Approssimazione della derivata con il rapporto incrementale da un lato
Come esempio introduttivo, vediamo il problema della derivazione numerica.
Abbiamo visto che si può derivare con un processo stabile una funzione y ∈
H 2 (0, 1) con ky 00 kL2 ≤ E.
Approssimiamo y 0 (t) con i rapporti incrementali da un lato. Analizziamo
prima il caso senza errori. Fissiamo h ∈ (0, 1/2) e definiamo
(
y(t+h)−y(t)
t ∈ (0, 1/2),
h
v(t) =
y(t)−y(t−h)
t ∈ (1/2, 1).
h
Per valutare la differenza tra v e y 0 utilizziamo la
Formula di Taylor. Sia y ∈ H n+1 (a, b) e siano t, t + h ∈ (a, b). Allora
y(t + h) =
n
X
y (k) (t)
k!
k=0
dove
Rn (t, h) =
1
n!
hk + Rn (t, h),
t+h
Z
(t + h − s)n y (n+1) (s) ds.
t
Dim. della Formula di Taylor per n = 1. Se y ∈ H 2 , la sua derivata prima
y ∈ H 1 ed è una funzione assolutamente continua e per τ, t ∈ (a, b)
Z τ
y 0 (τ ) − y 0 (t) =
y 00 (s) ds,
0
t
e
Z
y(t + h) − y(t)
=
t+h
Z
0
t+h
y (τ ) dτ =
y (t) +
t
= y 0 (t)h +
Z
t+h
= y 0 (t)h +
Z
t
t+h
Z
t
Z
0
τ
00
y (s) ds dτ
t
dτ y 00 (s) ds
τ
t+h
(t + h − τ )y 00 (τ ) dτ
t
Utilizziamo la formula di Taylor con n = 1, in t, t + h e t − h.
Z
0
y(t ± h) − y(t) = ±y (t)h +
t±h
(t ± h − τ )y 00 (τ ) dτ.
t
Per t ∈ (0, 1/2),
v(t) − y 0 (t) =
1
h
Z
t+h
(t + h − τ )y 00 (τ ) dτ =
h
48
1
h
Z
t+h
h
τ y 00 (t + h − τ ) dτ.
Calcoliamo
h2 kv − y 0 k2L2 (0,1/2)
= h2
Z
1/2
(v(t) − y 0 (t))2 dt
0
1/2
Z
h
Z
=
0
h
Z
Z
0
h
τ y (t + h − τ ) dτ
"Z
1/2
h
Z
≤
h
0
ky 00 k2L2 (0,1)
!
1/2
Z
|y 00 (t + h − τ )|2 dt dτ ds
sτ
0
sy 00 (t + h − s) ds
#
0
0
0
Z
0
h
y 00 (t + h − τ )y 00 (t + h − s) dt dτ ds
sτ
=
≤
Z
00
0
Z
!2
h
s ds
=
0
h4 00 2
ky kL2 (0,1) .
4
con calcoli analoghi per t ∈ (1/2, 1) si ottiene infine,
Eh
kv − y 0 kL2 (0,1) ≤ √
2
dalla quale si vede che se h tende a zero il rapporto incrementale v converge alla
derivata.
Vediamo adesso cosa succesde se si introduce un errore. Invece di y supponiamo di aver misurato y ε tale che ky − y ε kL2 (0,1) ≤ ε. Anziché v costruiamo
l’approssimazione
( ε
y (t+h)−y ε (t)
t ∈ (0, 1/2),
ε
h
v (t) =
y ε (t)−y ε (t−h)
t ∈ (1/2, 1).
h
Stimiamo
Z 1/2
Z 1/2
1
2
ε
2
|v (t) − v(t)| dt ≤ 2
(|y ε (t + h) − y(t + h)| + |y ε (t) − y(t)|) dt
h 0
0
!
Z 1/2
Z 1/2
2
ε
2
ε
2
≤ 2
|y (t + h) − y(t + h)| dt +
|y (t) − y(t)| dt
h
0
0
2 ≤ 2 2ky ε − yk2L2 (0,1)
h
da cui
√
2 2ε
.
h
L’errore che si commette approssimando con v ε la derivata di y è quindi
√
2 2ε Eh
ε
0
ε
0
kv − y kL2 (0,1) ≤ kv − vkL2 + kv − y kL2 ≤
+√ .
h
2
√
h è il parametro di discretizzazione.
Il minimo dell’errore totale vale 2 2εE e
pε
si realizza scegliendo h = 2 E .
kv ε − vkL2 (0,1) ≤
49
6.2
Strategie di regolarizzazione
L’idea di base della regolarizzazione è quella di costruire approssimazioni limitate dell’operatore K −1 : R(K) → Y .
Definizione 6.1 Una strategia di regolarizzazione è una famiglia ad un parametro
di operatori lineari e limitati
Rα : Y → X,
α > 0,
tali che
lim Rα Kx = x
α→0
per ogni
x ∈ X,
cioè l’operatore Rα K converge puntualmente all’identità.
Da questa definizione e per la compattezza dell’operatore K si ha che
Teorema 6.2 Sia Rα una strategia di regolarizzazione per l’operatore compatto
K : X → Y con dim(X) = +∞. Allora:
1. Gli operatori Rα non sono uniformemente limitati, cioè esiste una successione aj convergente a zero, tale che
kRαj k → +∞
per
j → +∞.
2. La successione {Rα Kx}α non converge uniformemente sui sottoinsiemi
limitati di X, cioè Rα K non converge all’identità nella norma degli operatori.
Dim. 1) Se esistesse C tale che kRα k ≤ C per ogni α, si avrebbe allora kRα yk ≤
Ckyk per ogni y ∈ K(X). Ma Rα y converge a K −1 y e quindi kK −1 yk ≤ Ckyk
contrariamente al fatto che K è compatto e X non ha dimensione finita.
2) Per ogni α, Rα K è un operatore compatto. Se Rα K → I nella norma
degli operatori, allora I : X → X è compatta con dimX = +∞ e questo è
assurdo.
La nozione di strategia di regolarizzazione è basata su dati esatti: Rα y
converge ad x̃ se y = K x̃. Vediamo cosa succede se introduciamo un errore.
Sia y = K x̃ il dato esatto e sia y ε ∈ Y il dato misurato con ky − y ε k ≤ ε.
Definiamo
xα,ε := Rα y ε
e valutiamo l’errore che si compie approssimando x̃ con xα,ε :
kxα,ε − x̃k
≤ kRα y ε − Rα yk + kRα y − xk
≤ kRα kky ε − yk + kRα K x̃ − x̃k
≤ εkRα k + kRα K x̃ − x̃k.
Questa stima presenta una caratteristica fondamentale: l’errore è diviso in due
parti. Il primo termine descrive quanto l’approssimazione Rα dell’inverso di
K amplifica l’errore ε sul dato. Per il teorema precedente, al tendere di α
a zero questo termine tende a +∞. Il secondo termine indica l’errore che si
50
commette approssimando l’identità con Rα K. Per definizione di strategia di
regolarizzazione questo termine tende a zero quando α tende a zero.
A questo punto è necessario scegliere α = α(ε) dipendente da ε in modo da
rendere l’errore più piccolo possibile. L’ideale sarebbe minimizzare la somma
εkRα k + kRα K x̃ − x̃k, ma questo, in genere, non è possibile con le informazioni
a disposizione.
Introduciamo le seguenti definizioni:
Definizione 6.3 Una strategia di regolarizzazione α = α(ε) si dice ammissibile
se α(ε) → 0 e sup{kRα(ε) y ε − xk : kKx − y ε k ≤ ε} → 0 per ogni x ∈ X.
Definizione 6.4 Una strategia di regolarizzazione α = α(ε) si dice ottimale se
è ammissibile e per x ∈ X1 , kxk1 ≤ E e kKx − y ε k ≤ ε si ha, per qualche
costante positiva C
kRα(ε) y ε − xk ≤ CF(2ε, 2E, k · k1 ).
Riprendiamo l’esempio del paragrafo 6.1 e chiamiamo
(
y(t+h)−y(t)
t ∈ (0, 1/2),
h
Rh (t) =
y(t)−y(t−h)
t ∈ (1/2, 1).
h
Verifichiamo che Rh è una strategia di regolarizzazione.
• Per ogni h l’operatore Rh : L2 → L2 è limitato.
h2
Z
1
2
(Rh y(t)) dt
Z
1/2
(y(t + h) − y(t))2 dt +
=
0
0
Z
1
(y(t) − y(t − h))2 dt
1/2
Z
≤ 2
1/2
2
2
Z
2
2
y (t) + y (t − h)dt
y (t + h) + y (t)dt +
0
!
1
1/2
≤ 6kyk2L2 (0,1) ,
cioè
√
kRh k ≤
6
.
h
• Mostriamo poi che Rh Kx → x per ogni x ∈ L2 (0, 1). Dal paragrafo 6.1
sappiamo che
h
kRh Kx − xkL2 ≤ √ kx0 kL2
2
per ogni x ∈ H 1 (0, 1),
cioè sappiamo che Rh K − I converge puntualmente a zero su un sottoinsieme denso di L2 . Per dimostrare che converge puntualmente su tutto
lo spazio, utilizziamo il seguente risultato, conseguenza del Teorema di
Banach-Steinhaus.
Proposizione 6.5 Sia An una successione di operatori lineari limitati da
X spazio di Banach in Y spazio normato e sia D ⊂ X un sottoinsieme
densi in X. Sono allora equivalenti:
51
(a) An x → 0 per n → +∞ e per ogni x ∈ X.
(b) supn kAn k < +∞ e An x → 0 per n → +∞ e per ogni x ∈ D.
Rimane quindi soltanto da dimostrare che gli operatori Rh K sono equilimitati.
Per t ∈ (0, 1/2), usando la disuguaglianza di Hölder,
Z
1Z h
1 t+h
x(s) ds =
|x(t + s)| ds
|Rh Kx(t)| = h 0
h t
!1/2
Z h
1
2
≤ √
x (t + s) ds
h
0
e
Z
1/2
2
|Rh Kx(t)| dt
≤
0
≤
1
h
Z
1
h
Z
1/2
Z
0
h
0
Z
h
x2 (t + s) ds dt
0
1/2
x2 (t + s) dt ds ≤ kxk2L2 (0,1) ,
0
da cui
kRh KxkL2 (0,1) ≤
√
cioè
kRh Kk ≤
2kxkL2 (0,1) ,
√
2.
Osserviamo che se y ∈ H 2 (0, 1) e ky 00 kL2 ≤ E, e se ky − y ε kL2 ≤ ε, allora
√
6
h
ε
0
kRh y − y k ≤
ε+ √ E
h
2
pε
e la scelta h(ε) = E risulta ottimale.
6.3
Filtri regolarizzanti
Dal teorema di Picard abbiamo visto che la soluzione x dell’equazione Kx = y
è data da
∞
X
1
x=
< y, fj > ej
σ
j=1 j
se y ∈ R(K), cioè se questa serie converge.
L’idea dei filtri regolarizzanti consiste nel costruire una regolarizzazione
limitando l’influenza del fattore 1/σj soprattutto quando σj diventa piccolo.
Teorema 6.6 Sia K : X → Y un operatore lineare compatto e iniettivo tra
spazi di Hilbert e sia {σj , ej , fj }j∈J un sistema singolare per K. Sia q : (0, +∞)×
(0, kKk] → R un filtro regolarizzante per K, cioè una funzione con le seguenti
proprietà:
52
(1) |q(α, σ)| ≤ 1 per ogni α > 0 e 0 < σ ≤ kKk.
(2) Per ogni α > 0 esiste c(α) tale che
|q(α, σ)| ≤ c(α)σ
0 < σ ≤ kKk.
per ogni
(3a)
lim q(α, σ) = 1
α→0
0 < σ ≤ kKk.
per ogni
Allora, l’operatore Rα : Y → X definito per α > 0 da
X q(α, σj )
Rα y =
σj
j∈J
< y, fj > ej
è una strategia di regolarizzazione con kRα k ≤ c(α).
Una strategia α = α(ε) è ammissibile se, per ε → 0, si ha α(ε) → 0 e
εc(α(ε)) → 0.
Dim. Consideriamo il caso J = N. Il caso in cui J è finito è più semplice.
Calcoliamo
2
kRα yk =
∞
X
|q(α, σj )|2
σj2
j=1
2
2
< y, fj > ≤ c(α)
∞
X
< y, fj >2 ≤ c(α)2 kyk2 ,
j=1
da cui kRα k ≤ c(α).
Sia x un elemento fissato in X. Dal momento che K è iniettivo
x=
∞
X
< x, ej > ej
e
Kx =
j=1
∞
X
σj < x, ej > fj ,
j=1
quindi
kRα Kx − xk2 =
∞
X
[q(α, σj ) − 1]2 < x, ej >2 .
j=1
Fissiamo ε > 0. Esiste N = N (ε) tale che
∞
X
< x, ej >2 ≤
j=N +1
ε2
.
8
Inoltre, esiste α0 = α(ε, N (ε)) tale che, per 0 < α < α0 ,
[q(α, σj ) − 1]2 ≤
ε2
2kxk2
per j = 1, 2, . . . , N (ε).
Allora,
2
kRα Kx − xk
=
N
X
2
2
[q(α, σj ) − 1] < x, ej > +
j=1
≤
∞
X
j=N +1
ε2
ε2
2
kxk
+
4
= ε2 .
2kxk2
8
53
[q(α, σj ) − 1]2 < x, ej >2
Inoltre, se kKx − y ε k ≤ ε, allora
kRα y ε − xk ≤ εc(α) + kRα Kx − xk
e, siccome kRα Kx − xk → 0 se α → 0, è sufficiente scegliere α(ε) in modo che,
per ε che tende a zero, sia α(ε) che εc(α(ε) tendano a zero.
Le ipotesi (1), (2) e (3a) sono sufficienti per garantire che Rα è una strategia di regolarizzazione. Se specifichiamo ulteriormente il modo in cui q(α, σ)
tende ad 1 quando α → 0, si può stimare meglio la convergenza del metodo di
regolarizzazione.
Teorema 6.7 Supponiamo che K soddisfi tutte le ipotesi del teorema 6.6 e che
R(K) sia denso in Y . Supponiamo che q soddisfi le condizioni (1) e (2).
(i) se vale inoltre
(3b) esiste una costante c1 > 0 tale che
√
c1 α
per α > 0, 0 < σ ≤ kKk,
|q(α, σ) − 1| ≤
σ
e se x ∈ K ∗ (Y ), allora
√
kRα Kx − xk ≤ c1 αk(K ∗ )−1 xk.
(ii) se invece
(3c) esiste una costante c2 > 0 tale che
|q(α, σ) − 1| ≤
c2 α
σ2
per
α > 0, 0 < σ ≤ kKk,
e se x ∈ K ∗ K(X), allora
kRα Kx − xk ≤ c2 αk(K ∗ K)−1 xk.
Vediamo qualche esempio di filtro regolarizzante.
Esempio 6.1 La funzione
q(α, σ) =
σ2
α + σ2
soddisfa le ipotesi (1), (2) con c(α) = 2√1 α , (3a), (3b) con c1 = 1/2 e (3c) con
c2 = 1.
Per x ∈ K ∗ (Y ) si ha una strategia ottimale per α = ε/E
Esempio 6.2 Fissato a ∈ (0, 1/kKk2 ), la funzione
q(α, σ) = 1 − (1 − aσ 2 )1/α
√
p
soddisfa le ipotesi (1), (2) con c(α) = αa , (3a), (3b) con c1 = 1/ 2a e (3c) con
c2 = 1/a.
54
Esempio 6.3 La funzione
q(α, σ) =
σ 2 ≥ α,
σ 2 < α,
1 se
0 se
soddisfa le ipotesi (1), (2) con c(α) = √1α , (3a), (3b) con c1 = 1 e (3c) con
c2 = 1.
La regolarizzazione che si ottiene usando questo filtro si chiama troncamento
della decomposizione a valori singolari, infatti in questo caso
Rα y =
X 1
< y, fj > ej .
σj
σj ≥α
Anche questo filtro conduce a strategie di regolarizzazione ottimali.
6.4
Regolarizzazione secondo Tikhonov
Quando si ha un sistema lineare finito sovradeterminato della forma
Kx = y
un metodo comune per affrontarlo è quello di cercare di minimizzare lo scarto
quadratico
kKx − yk2
al variare di x in X.
Se X ha dimensione infinita e K è un operatore compatto, si può impostare
la stessa strategia, ma il problema di minimo che si ottiene risulta ancora mal
posto.
Lemma 6.8 Sia K : X → Y un operatore lineare limitato tra spazi di Hilbert
e sia y ∈ Y .
Esiste x̂ ∈ X tale che
kK x̂ − yk ≤ kKx − yk
per ogni
x∈X
se e solo se x̂ risolve l’equazione normale
K ∗ K x̂ = Ky.
Minimizzare lo scarto equivale quindi a risolvere l’equazione normale che è una
equazione di prima specie. Se K è compatto, K ∗ K è ancora compatto e risolvere
l’equazione normale è un problema mal posto.
Dim. Con qualche passaggio, si dimostra che
kKx − yk2 − kK x̂ − yk2 = kKx − K x̂k2 + 2 < x − x̂, K ∗ K x̂ − K ∗ y > .
Se x̂ risolve l’equazione K ∗ K x̂ = K ∗ y, allora
kKx − yk2 ≥ kK x̂ − yk2
e x̂ è un punto di minimo.
55
D’altra parte, se x̂ è un punto di minimo, per ogni t > 0 e z ∈ X si ha
0 ≤ kK(x̂ + tz) − yk2 − kK x̂ − yk2 = t2 kKzk2 − 2t < z, K ∗ K x̂ − K ∗ y >,
da cui segue che
< z, K ∗ K x̂ − K ∗ y >= 0
per ogni z ∈ X
cioè K ∗ K x̂ − K ∗ y = 0.
Occorre quindi modificare il problema di minimo.
Dato K : X → Y operatore lineare limitato, y ∈ Y e α > 0, determinare
xα ∈ X che minimizza il funzionale di Tikhonov
Jα (x) := kKx − yk2 + αkxk2
Teorema 6.9 Il funzionale di Tikhonov Jα ha un unico minimo xα ∈ X. Tale
minimo è soluzione dell’equazione normale
αxα + K ∗ Kxα = K ∗ y.
Dim. Sia xn una successione minimizzante per Jα , cioè tale che
lim Jα (xn ) = I := inf Jα (x).
n→∞
x∈X
Facciamo vedere che {xn } è una successione
di Cauchy.
= 1 ka − bk2 si mostra che
Usando la relazione kak2 + kbk2 − 2 a+b
2
2
1
1
α
Jα (xn ) + Jα (xm ) − 2Jα ( (xn + xm )) = kKxn − Kxm k2 + kxn − xm k2
2
2
2
e quindi
α
kxn − xm k2 ≤ Jα (xn ) + Jα (xm ) − 2I → 0
2
quando n, m → ∞.
Chiamiamo xα il limite della successione xn . Per la continuità dell’operatore
di Tikhonov,
Jα (xα ) = Jα (lim xn ) = lim Jα (xn ) = I.
n
n
Mostriamo adesso che xα risolve l’equazione normale. Si può procedere come
nella dimostrazione del lemma, oppure si può osservare che, se xα è un punto
di minimo per Jα , allora
d
Jα (xα + t)|t=0 = 0.
dt
(31)
Calcoliamo allora
d
Jα (xα + t)
dt
=
=
d
kK(xα + tz) − yk2 + αkxα + tzk2
dt
2tkKzk2 + 2 < Kz, Kxα − y > +2αtkzk2 + 2α < z, xα >,
per cui la (31) diventa
< z, K ∗ Kxα − K ∗ y + αxα >= 0
56
per ogni z ∈ X.
Rimane da dimostrare che la soluzione è unica. Supponiamo che esista un altro
punto di minimo x̂ che sarà ancora soluzione dell’equazione normale. Consideriamo v = xα − x̂ che risulta soluzione di αv + K ∗ Kv = 0. Ma K ∗ K è un
operatore compatto autoaggiunto con autovalori tutti positivi (i suoi autovalori
sono i quadrati dei valori singolari di K), quindi per α > 0 l’unica soluzione di
αv + K ∗ Kv = 0 è quella identicamente nulla.
Dato y ∈ Y definiamo allora
Rα y := xα
unico punto di minimo di Jα su X.
Vogliamo dimostrare che Rα , che si dice regolarizzazione secondo Tikhonov
è una strategia di regolarizzazione.
Per farlo, usiamo la decomposizione a valori singolari. Vogliamo risolvere
l’equazione normale. Scriviamo
X
xj ej ,
xα = x0 +
j∈J
dove x0 ∈ N (K). Allora,
K ∗ Kxα =
X
σj2 xj ej
j∈J
e l’equazione diventa


X
X
X
α x0 +
xj ej  + K ∗ Kxα =
σj2 xj ej =
σj < y, f j > ej
j∈J
j∈J
dalla quale segue che x0 = 0 e xj =
Rα y =
X
j∈J
σj
α+σj2
j∈J
< y, fj >, cioè
σj
< y, fj > ej
α + σj2
che corrisponde alla regolarizzazione mediante il filtro dell’esempio 6.1.
Utilizzando quindi il risultato sui filtri regolarizzanti possiamo affermare che
Teorema 6.10 Sia K : X → Y un operatore lineare compatto tra spazi di
Hilbert e sia α > 0.
L’operatore αI + K ∗ K è invertibile con inverso limitato. Gli operatori
Rα = (αI + K ∗ K)−1 K ∗ : Y → X
formano una strategia di regolarizzazione con kRα k ≤ 2√1 α che viene detta
metodo di regolarizzazione di Tikhonov.
Rα y ε si determina come l’ unica soluzione xα,ε dell’equazione del secondo
tipo
αxα,ε + K ∗ Kxα,ε = K ∗ y ε .
Ogni scelta α(ε) → 0 per ε → 0 con
ε2
α(ε)
57
→ 0 è ammissibile.
Osservazioni.
• αI + K ∗ K ha autovalori maggiori di α e quindi lontani da zero.
• La scelta di α ammissibile nel teorema precedente è fatta a priori, cioè
prima di calcolare il punto di minimo xα . Questa scelta è la migliore dal
punto di vista teorico per studiare il comportamento asintotico dell’errore.
Esistono metodi a posteriori nei quali la scelta delparametro di regolarizzazione viene effettuata contestualmente al calcolo del punto di minimo
(ad esempio il metodo di discrepanza di Morozov ).
• È possibile penalizzare il funzionale dei minimi quadrati con norme più
forti. Ad esempio si può minimizzare
kKx − yk2 + αkxk21
su X1 .
Esercizio 6.1 Si applichi il metodo di regolarizzazione di Tikhonov all’operatore
K : L2 (0, 1) → L2 (0, 1),
mostrando che, per y ∈ H 1 (0, 1) con y(0) = 0, il punto di minimo del funzionale
di Tikhonov è la soluzione del problema differenziale

 αx00 (t) − x(t) = −y 0 (t) in (0, 1)
x0 (0) = 0

x(1) = 0.
Applicare questo risultato nel caso y(t) =
58
1
n
sin πnt
2 .