Ultima versione delle dispense del corso
Transcript
Ultima versione delle dispense del corso
Problemi Inversi Elisa Francini Anno accademico 2005/2006 Indice 1 Che cosa sono i problemi inversi 2 Esempi di problemi inversi 2.1 Tomografia . . . . . . . . . . . . . 2.2 Prospezione geologica . . . . . . . 2.3 Termografia . . . . . . . . . . . . . 2.4 Problemi inversi di scattering . . . 2.5 Tomografia ad impedenza elettrica 2 . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 9 10 13 16 3 Problemi mal posti 3.1 Un esempio: derivazione e integrazione . . . . . . . . . . . 3.2 Due problemi per le funzioni armoniche . . . . . . . . . . 3.2.1 Il problema di Dirichlet per l’equazione di Laplace 3.2.2 Il problema di Cauchy per l’equazione di Laplace . 3.3 Un cenno alle equazioni integrali del primo tipo . . . . . . 3.3.1 Equazioni integrali del secondo tipo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 19 22 22 23 25 26 4 Operatori compatti 4.1 Un po’ di analisi funzionale . . . . . . . . . . . 4.2 Sugli insiemi compatti . . . . . . . . . . . . . . 4.3 Definizione e proprietà degli operatori compatti 4.4 Teoria spettrale degli operatori compatti . . . . 4.5 Decomposizioni a valori singolari . . . . . . . . 4.6 Criterio di esistenza di Picard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 28 28 30 34 37 40 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Informazioni a priori e stabilità 42 5.1 Ancora sull’esempio della derivazione . . . . . . . . . . . . . . . . 44 5.2 Un risulato generale di stabilità . . . . . . . . . . . . . . . . . . . 44 5.3 Stime di stabilità per l’equazione del calore all’indietro . . . . . . 46 6 Teoria generale della regolarizzazione 6.1 Approssimazione della derivata con il rapporto un lato . . . . . . . . . . . . . . . . . . . . . . . 6.2 Strategie di regolarizzazione . . . . . . . . . . . 6.3 Filtri regolarizzanti . . . . . . . . . . . . . . . . 6.4 Regolarizzazione secondo Tikhonov . . . . . . . 1 47 incrementale da . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 50 52 55 1 Che cosa sono i problemi inversi Per i matematici i problemi inversi sono un argomento molto recente. Il loro studio è motivato dallo sviluppo tecnologico degli ultimi decenni; ad esempio, alcune delle più sofisticate macchine per diagnosi mediche (TAC, SPECT, etc) non fanno altro che risolvere problemi inversi: infatti ricostruiscono oggetti 2 e 3 dimensionali dalle loro proiezioni. D’altra parte i problemi inversi hanno invece radici antiche: più di 2000 anni fa Platone nel VII libro de La Repubblica descrive una situazione che risulta un problema inverso: i prigionieri della caverna vorrebbero ricostruire il mondo reale fuori dalla caverna sulla base di informazioni limitate che consistono nelle ombre proiettate sul fondo della caverna. A questo punto l’ideale sarebbe poter fornire una definizione chiara ed inequivocabile di problema inverso, ma questo non è possibile (almeno non nello stesso modo nel quale si definisce cos’è un gruppo o uno spazio di Hilbert). Cercheremo di avvicinarci lentamente alla comprensione di cosa sia un problema inverso: alla fine saremo in grado di riconoscere un problema inverso quando lo incontreremo. Per prima cosa osserviamo che parlare di problema inverso presuppone l’esistenza di un altro problema (che viene detto diretto) al quale il problema inverso è strettamente correlato. Diciamo che due problemi sono uno l’inverso dell’altro quando la formulazione di uno coinvolge necessariamente l’altro. Di questa coppia di problemi uno dei due viene detto diretto e l’altro inverso. In genere, viene chiamato problema diretto quello che è stato studiato più nel dettaglio e per primo, mentre viene detto problema inverso quello meno (o più recentemente) considerato. In realtà ci sono anche altri motivi che permettono di effettuare questa distinzione, ma ne parleremo più tardi. Per non rimanere nel vago, facciamo un semplice esempio concreto. Fin da bambini impariamo a risolvere questo problema: dati due numeri interi, trovarne il prodotto. L’inverso di questo problema consiste nel trovare una coppia di fattori di un numero assegnato. Dal momento che ci viene insegnato per primo, abbiamo stabilito di chiamare problema diretto quello della moltiplicazione e problema inverso la fattorizzazione. Osserviamo che il problema inverso si presenta già molto più complicato di quello diretto; ad esempio, è un problema che, in generale, non ha un’unica soluzione. Se restringiamo la classe dei numeri che vogliamo fattorizzare a quelli 2 che ammettono una sola scomposizione in fattori, ci troviamo a studiare la classe dei numeri primi e la questione si complica. Quando si parla di problema che derivano dal mondo reale, nella maggior parte dei casi c’è una distinzione naturale tra problemi diretti e inversi. Gran parte della matematica che si studia nei primi anni di corso è dominata dai problemi diretti, cioè problemi nei quali si forniscono sufficienti informazioni per poter avviare un procedimento ben definito e stabile che porta ad una unica soluzione del problema. informazioni → procedimento → soluzione (input) (output) → moltiplicazione 2, 3 → 6 Se il processo descrive un fenomeno fisico, o comunque del mondo reale, si può descrivere il problema diretto come causa x → modello → effetto → K → y, cioè K(x) = y. (1) Il problema diretto consiste nell’assegnare la causa x e il modello K e calcolare l’effetto y. Questo però è solo uno dei tre modi nei quali si può leggere l’equazione (1): ogni problema diretto suggerisce immediatamente due problemi inversi: 1) dato il modello K e l’effetto y, risalire alla causa x, 2) data la causa x e l’effetto y, costruire un modello K. Queste ultime due letture dell’equazione (1) corrispondono in genere a problemi inversi. Quindi, ricapitolando: se si vuole predire il comportamento futuro di un sistema fisico conoscendo il suo stato presente e le leggi fisiche che lo governano, allora diciamo che vogliamo risolvere un problema diretto. Viceversa, risalire allo stato passato di un sistema dalla conoscenza della condizione presente, oppure determinare il valore di certi parametri fisici, conoscendo l’evoluzione del sistema, vengono detti problemi inversi. Dal punto di vista applicativo ci sono due motivazioni diverse che giustificano lo studio di questi problemi inversi: Conoscere lo stato passato o i parametri che regolano un sistema (es: diagnosi mediche), Controllare lo stato finale del sistema modificando lo stato presente o i parametri del modello (es: produzione industriale di manufatti). Per questo tipo di problemi originati dalle applicazioni possiamo dire che si affronta un problema inverso quando si cercano le cause di un determinato effetto osservato o desiderato. 3 Dal punto di vista puramente matematico, esiste però una ulteriore e decisiva distinzione tra problema diretto e inverso: il problema diretto gode di certe buone proprietà che corrispondono alla definizione di problema ben posto, mentre il problema inverso è solitamente mal posto. Introduciamo brevemente la nozione di problemi ben posti e mal posti, che riprenderemo ampiamente durante tutto il corso. Nel 1923, J. Hadamard dette la seguente definizione di problema ben posto: 1. Esiste una soluzione del problema (esistenza). 2. La soluzione è unica (unicità). 3. La soluzione dipende con continuità dai dati (stabilità). Viceversa, un problema si dice mal posto quando non verifica una di queste condizioni. Ad esempio, è mal posto un problema che non ha soluzioni, oppure che ne ha più di una. Ma la condizione più esigente è quella della stabilità. Ci sono numerosi problemi che hanno una a una sola soluzione, ma tale soluzione è instabile. In parole povere l’instabilità significa che cause molto diverse possono provocare effetti molto simili rendendo cosı̀ vano il tentativo di risalire ad esse. Concludiamo questa lezione con alcuni esempi storici di problemi inversi. Esempio 1.1 Il mito della caverna di Platone (428-348 A.C.). Nel mito della caverna, risulta piuttosto semplice decidere quale sia il problema diretto e quale quello inverso. È chiaro che, conoscendo la posizione del fuoco e del muro e gli oggetti le cui ombre vengono proiettate, si determinano in modo unico le ombre. Inoltre oggetti simili in posizioni simili proiettano ombre che si assomigliano. In altre parole ’proiettare le ombre su un muro’ è un problema diretto ben posto. Il problema inverso consiste invece nel trovare la forma dell’oggetto la cui ombra si sta proiettando. Ovviamente il problema non ha una soluzione unica: infiniti oggetti possono avere tutti la stessa ombra sul muro. Ad esempio un cubo unitario con una faccia parallela al muro e un cilindro con asse parallelo al muro, altezza e diametro unitari, hanno esattamente la stessa ombra, cioè un quadrato di lato uno. La tomografia geometrica è un settore della matematica che si occupa di ricostruire un corpo dalle sue proiezioni (ovviamente più di una). Esempio 1.2 Il bagno di Archimede. Questo racconto rappresenta una delle prime indagini non invasive delle quali si ha notizia. Si dice che il tiranno Gerone di Siracusa avesse commissionato una nuova corona d’oro, ma temesse che l’orafo lo avesse truffato sostituendo parte dell’oro che gli era stato consegnato con argento. Ovviamente il peso della corona corrispondeva al peso dell’oro che era stato fornito all’orafo. Il tiranno chiese ad Archimede (287-212 A.C.) di capire se la truffa c’era stata. L’unico modo per sapere se la corona era composta tutta da oro e non da una lega, sarebbe stato quello di conoscere il volume della corona stessa: infatti l’argento ha una densità diversa e per ottenere lo stesso peso è necessario avere un volume diverso. Tuttavia la forma della corona era tale che neanche Archimede sarebbe mai riuscito a calcolarne il volume. Avrebbe potuto fonderla in una forma più adeguata, ma questa sarebbe stata un’indagine invasiva avente come risultato finale la scoperta della verità e la distruzione del manufatto. Archimede ebbe quindi un’idea geniale: avrebbe 4 ottenuto l’informazione voluta (il volume della corona) per via indiretta: misurando cioè il volume dell’acqua che sarebbe fuoriuscita da una bacinella piena nella quale si sarebbe immersa la corona. Confrontando questo volume con quello spostato da un pezzo di oro puro dello stesso peso, si sarebbe scoperto se l’orafo era in buona fede. Esempio 1.3 La scoperta di Nettuno. Nettuno fu osservato per la prima volta il 23 settembre del 1846 da J. G. Galle e L. d’Arrest. La sua posizione era stata prevista sia dall’astronomo inglese Adams che dal francese Le Verrier, che la calcolarono indipendentemente l’uno dall’altro studiando l’orbita di Urano ed in base alle rispettive posizioni di Giove, Saturno e dello stesso Urano. Gli astronomi avevano notato che l’ultimo pianeta allora conosciuto, Urano, non seguiva rigorosamente le leggi della meccanica celeste di Newton; anche le notevoli perturbazioni della sua orbita prodotte dai due pianeti giganti, Giove e Saturno, non potevano spiegare del tutto queste anomalie. Era stata perciò ipotizzata la presenza di un altro pianeta oltre l’orbita di Urano. Ma la contemporanea scoperta da parte d’un astronomo francese e d’uno inglese produsse il sorgere d’una dura disputa internazionale sulla priorità per battezzare il nuovo pianeta. In realtà ci sono crediti comuni nella scoperta del pianeta e, come sempre, parecchie persone hanno dato il loro contributo. Ulteriori osservazioni hanno mostrato che le orbite calcolate da Adams e Le Verrier divergono, da quella corretta di Nettuno, abbastanza velocemente. Se avessero cercato la posizione stabilita del pianeta per un certo numero di anni prima o dopo, non avrebbero trovato niente vicino al luogo previsto. 5 2 Esempi di problemi inversi 2.1 Tomografia L’applicazione che più ha contribuito a far conoscere i problemi inversi è la TAC (Tomografia Assiale Computerizzata). In inglese viene detta CAT scan da Computer Assisted Tomography. La TAC misura l’attenuazione dei raggi X dovuta all’attraversamento di un corpo. La macchina è costituita da due parti: gli emettitori di raggi X e i ricevitori, distribuiti con varie geometrie. Il raggio emesso in una certa direzione e con intensità nota, viene intercettato dal ricevitore dopo che ha attraversato il corpo da investigare. L’attenuazione che ha subito dipende dai materiali che ha attraversato. Materiali di natura diversa hanno coefficienti di assorbimento diversi. Effettuando diverse misurazioni per diverse direzioni, si cerca di avere un’idea della composizione interna del corpo. Formalizziamo il procedimento in modo matematico in due dimensioni. Sia f (x, y) il coefficiente di attenuazione dei raggi X del tessuto nel punto (x, y). Questo significa che un raggio X di intensità I che attraversa una piccola porzione ∆u di tessuto nelle vicinanze del punto (x, y) subisce una attenuazione di intensità ∆I data da ∆I = −f (x, y)I(x, y)∆u. (2) Il raggio X viene emesso dalla sorgente con intensità I0 e misurato dal ricevitore dopo aver percorso il segmento L che connette sorgente e ricevitore. Quello che si misura è l’attenuazione di I lungo la linea L. Sommando i contributi ottenuti dalla (2) lungo il segmento L si ha Z Z ∆I = − f (x, y)∆u, L I L da cui ln I1 =− I0 Z f (x, y) dL, L dove I1 è l’intensità del raggio X misurata dal ricevitore. 6 Si può immaginare che fuori dal corpo che si vuole analizzare l’attenuazione sia trascurabile, vale a dire che f abbia supporto compatto. In tal caso si può sostituire al segmento L la retta che lo contiene (che indicheremo ancora con L). Per ogni direzione θ in S 1 e per ogni s ∈ R, sia Lθ,s la retta perpendicolare a θ e passante per sθ (cioè tale che sia s la distanza, con segno, dall’origine). Parametrizziamo la retta con u s θ + u θ⊥ , → e scriviamo I1 ln (s, θ) = − I0 Z Z +∞ f (x, y) dL = − f (s θ + u θ⊥ )du. −∞ L Osserviamo che ln II01 (s, θ) è il valore misurato in corrispondenza della coppia (s, θ), cioè per una certa disposizione di sorgente e ricevitore. R +∞ L’integrale −∞ f (s θ + u θ⊥ )du è una funzione di s e θ che viene detta Trasformata di Radon e si indica Z +∞ Rf (s, θ) = f (s θ + u θ⊥ )du. (3) −∞ Il problema inverso della TAC consiste quindi nel ricostruire f da misurazioni della sua trasformata di Radon Rf . Nel caso ideale che si avessero a disposizione tutte le possibili misurazioni, si tratterebbe quindi di invertire la trasformata di Radon. Una trasformazione legata a quella di Radon è la trasformata a raggi X: per θ ∈ S 1 e x ∈ R2 , Z +∞ P f (θ, x) = f (x + t θ)dt, −∞ cioè P calcola l’integrale di f lungo le retta passante per x e con direzione tangente θ. In due dimensioni R e P rappresentano lo stesso operatore anche se parametrizzato in modo diverso e con diverse simmetrie (Rf (−θ, −s) = Rf (θ, s), mentre P f (θ, x) = P f (θ, x + tθ) per ogni t). Le due trasformate hanno però una generalizzazione diversa in R3 . Per θ ∈ S 2 e s ∈ R, Z Rf (θ, s) = f (s θ + y) dy, θ⊥ 7 è l’integrale di f sul piano per s θ ortogonale a θ, mentre per θ ∈ S 2 e x ∈ R3 , Z ∞ f (x + tθ) dt, P f (θ, x) = −∞ è ancora l’integrale sulla retta per x in direzione θ. Tornando al caso bidimensionale, consideriamo un esempio semplificato nel quale il coefficiente di assorbimento f ha simmetria radiale, cioè, p f (x, y) = f˜( x2 + y 2 ) = f˜(r). In questo caso basta considerare le misurazioni corrispondenti a raggi paralleli ad una direzione assegnata. Supponiamo che f˜ abbia supporto nel cerchio di raggio R centrato nell’origine e indichiamo con Lx la retta parallela all’asse y e passante per il punto (x, 0). p(x) := − ln I1 (x) I0 Z Z = Lx Z √ = = R f (x, y) dLx = f (x, y) dy −R R2 −x2 p f˜( x2 + y 2 ) dy √ − R2 −x2 Z √R2 −x2 2 p f˜( x2 + y 2 ) dy. 0 Con il cambiamento di variabile r = che la quantità nota p(x) è data da Z p(x) = p x2 + y 2 (dr = y dy/ R |x| 2f˜(r)r √ dr. r2 − x2 p x2 + y 2 ) si ottiene (4) Osserviamo che (4) è una equazione integrale del primo tipo, cioè della forma Z k(x, y)f (y) dy = p(x). L’equazione integrale (4) è in particolare una equazione integrale di Abel, come si può vedere facilmente con un cambio di variabile. 8 Esercizio 2.1 Prendiamo in considerazione solo il caso x > 0, dal momento che per simmetria p(x) = p(−x). Operiamo nella (4) il cambiamento di variabili z = r2 − x2 e τ = R2 − x2 . √ √ In questo modo dz = −2r dr, x = R2 − τ , r = R2 − z e √ Z 0 p f˜( R2 − z) 2 √ dz p( R − τ ) = − τ −z R2 −|x|2 Z τ g(z) √ dz, = τ −z 0 √ dove g(z) = f˜( R2 − z). Questa equazione fa parte della famiglia delle equazioni integrali di Abel che nella forma generale si scrivono Z x (x − t)α−1 f (t) dt = g(x), con 0 < α < 1. 0 Torniamo al problema della TAC: abbiamo visto che esso corrisponde a ricavare una funzione f conoscendo la sua trasformata di Radon, cioè le sue medie integrali calcolate su tutte le possibili rette che intersecano il supporto di f . Per f in una ragionevole classe di funzioni si può dimostrare che la trasformata di Radon è invertibile, cioè esiste un operatore R̃ tale che R̃ ◦ R = Id. Tuttavia, questo operatore inverso non è di grande utilità essenzialmente per due motivi: 1. L’inverso della trasformata di Radon non è limitato. Come vedremo tra breve questo significa che il problema della tomografia è mal posto. Più esattamente significa che se commettiamo un errore anche piccolo nella misurazione dell’attenuazione del raggio, l’errore si può ripercuotere in modo molto grave sulla soluzione ottenuta invertendo la trasformata di Radon. Questo rende il processo di inversione completamente inaffidabile. 2. Non tutti i dati necessari per calcolare l’inversa della trasformata di Radon sono disponibili: in genere le posizioni delle sorgenti e dei ricevitori sono limitate dalla struttura della macchina. Questo, insieme all’instabilità, rende necessario mettere in atto strategie diverse per risolvere il problema inverso. 2.2 Prospezione geologica Il problema della prospezione geologica è quello di determinare la posizione, la forma e certi parametri fisici (come ad esempio la conducibilità) di anomalie all’interno della terra effettuando misure del campo gravitazionale sulla superficie terrestre. Consideriamo una versione semplificata e 1-dimensionale del problema. Si vuole determinare la densità ρ(x0 ) di una regione anomala (0 ≤ x0 ≤ 1) situata alla profondità h, misurando la componente verticale fv (x) della variazione della forza gravitazionale nel punto x sulla superficie terrestre. 9 La massa dell’elemento di volume situato nel punto (x0 , −h) è data da ρ(x )∆x0 . Se lo strumento p è posizionato nel punto (x, 0), la sua distanza dall’elemento di massa è (x − x0 )2 + h2 . Dalla legge di Newton 0 F =γ m , r2 dove γ indica la costante di gravitazione universale. Indicando con θ l’angolo tra la verticale e la retta che congiunge (x0 , −h) con (x, 0), si ha ∆fv (x) = γ ρ(x0 )∆x0 hρ(x0 )∆x0 cos θ = γ . 0 2 2 (x − x ) + h [(x − x0 )2 + h2 ]3/2 Sommando i contributi di tutti i punti x0 ∈ [0, 1] si ha Z fv (x) = γh 0 1 ρ(x0 ) dx0 , [(x − x0 )2 + h2 ]3/2 0 ≤ x ≤ 1. (5) Osserviamo che la (5) è una equazione integrale di Fredholm del primo tipo. Esercizio 2.2 Mostrare che (5) ha al più una soluzione. (Suggerimento: estendere ρ a tutta la retta (−∞, +∞) ponendola uguale a zero fuori da [0, 1] e applicare la trasformata di Fourier.) 2.3 Termografia Consideriamo una sbarra di materiale conduttore di lunghezza π. Supponiamo che la superficie laterale della sbarra sia isolata e che il calore fluisca solo nella direzione dell’asse. Possiamo allora schematizzare la sbarra con il segmento (0, π) dell’asse reale. Indichiamo con u(x, t) la temperatura nel punto x della sbarra al tempo t. La funzione u soddisfa l’equazione differenziale ut = uxx , 0 < x < π. (6) Supponiamo che gli estremi della sbarra siano tenuti a temperatura 0 e che la temperatura iniziale sia una funzione f (x) per 0 ≤ x ≤ π, vale a dire, supponiamo che u soddisfi le seguenti condizioni al contorno: u(0, t) = u(π, t) = 0, (7) u(x, 0) = f (x). (8) e iniziale Il problema diretto standard in matematica applicata, consiste nel trovare la temperatura della sbarra ad un tempo successivo (diciamo per t = 1), cioè nel 10 calcolare g(x) = u(x, 1). Vediamo come si risolve il problema diretto: cerchiamo una soluzione del problema con il metodo della separazione delle variabili, vale a dire, consideriamo inizialmente soluzioni della forma u(x, t) = a(x) · b(t), che soddisfino(7). L’equazione differenziale (6) risulta soddisfatta se a(x) · b0 (t) = a00 (x) · b(t), che, supponendo a e b non identicamente nulli, possiamo scrivere a00 (x) b0 (t) = . a(x) b(t) poiché i due membri della precedente uguaglianza dipendono da due variabili indipendenti, allora devono essere entrambi costanti, cioè deve valere b0 (t) a00 (x) = = λ. a(x) b(t) La condizione al bordo (7) richiede che valga a(0) = a(π) = 0, vale a dire che la funzione a risolva il seguente problema ai limiti: 00 a (x) = λ a(x) per 0 < x < π, a(0) = 0, a(π) = 0. Questo problema ai limiti ha soluzione non nulla se e solo se λ = −k 2 , con k numero intero, e la soluzione è data da ak (x) = Ak sin(kx). La corrispondente 2 funzione b(t) è data da bk (t) = e−k t . Con questa procedura abbiamo costruito una infinità numerabile di fun2 zioni uk (x, t) = Ak sin(kx)e−k t che risolvono l’equazione differenziale (6) e le condizioni al bordo (7). Se consideriamo una sovrapposizione di tali soluzioni otteniamo funzioni della forma ∞ X 2 u(x, t) = Ak sin(kx)e−k t , k=1 che soddisfano (6) e (7). Tra queste soluzioni cerchiamo quella che soddisfa la condizione iniziale (8), cioè, cerchiamo una successione numerica {Ak }∞ k=1 tale che ∞ X f (x) = Ak sin(kx). (9) k=1 In sostanza ci chiediamo se f è sviluppabile in serie di seni. Consideriamo per semplicità il caso in cui f sia una funzione regolare (ad esempio C 1 ). Per compatibilità con i dati al bordo, sappiamo che f (0) = f (π) = 0. Possiamo estendere la funzione f a tutto R nel modo seguente: per x ∈ (−π, 0) poniamo f (x) = −f (−x) e poi estendiamo da (−π, π) a tutto R con periodo 2π. L’estensione, che indichiamo ancora con f , risulta una funzione dispari su tutto R (infatti, per x > 0, f (−x) = f (−x + 2kπ) per qualche k tale che −x + 2kπ ∈ (−π, π). Dal momento che la funzione è dispari in (−π, π), quindi 11 f (−x) = f (−x + 2kπ) = f (x − 2kπ) = f (x)). La teoria della serie di Fourier ci garantisce che una funzione assolutamente continua e di periodo 2π ha una ∞ estensione in serie di Fourier, cioè esistono due successioni {Ak }∞ k=1 e {Bk }k=0 tali che ∞ ∞ X X f (x) = Ak sin(kx) + Bk cos(kx), k=1 k=0 e tale serie converge uniformemente. Osserviamo che imponendo il vincolo che f sia una funzione dispari, si ottiene immediatamente che Bk = 0 per ogni k = 0, . . . , ∞ (usando anche il fatto che seni a coseni formano una base di funzioni in (0, 2π)), cioè che f si può scrivere come serie di seni. Rimane da stabilire il valore dei coefficienti Ak : moltiplichiamo la (9) per sin(mx) e integriamo su (0, π), ottenendo Z π f (x) sin(mx) dx = 0 = ∞ X k=1 ∞ X sin(kx) sin(mx) dx 0 π Z Ak 0 k=1 da cui π Z Ak 2 Ak = π π 1 (cos(k − m)x − cos(k + m)x) dx = Am , 2 2 π Z f (x) sin(kx) dx. 0 A questo punto abbiamo risolto il problema diretto: data la funzione f , continua in (0, π) e tale che f (0) = f (π) = 0, una soluzione del problema (6), (7) e (8) è data da Z π ∞ X 2 −k2 t e sin(kx) u(x, t) = f (y) sin(ky) dy, π 0 k=1 in particolare g(x) = Z π ∞ X 2 −k2 e sin(kx) f (y) sin(ky) dy. π 0 k=1 Osserviamo che la serie che definisce la g converge uniformemente perché la successione degli Ak tende a zero per k → ∞, quindi è limitata da una certa costante L, per cui il termine k-esimo della serie che definisce g si può maggiorare con 2 −k2 2 −k2 e sin(kx)A e L k ≤ π π che è il termine k-esimo di una serie numerica convergente. Scambiando la serie con l’integrale si può ottenere la seguente espressione Z π g(x) = k(x, y)f (y) dy, (10) 0 dove k(x, y) = ∞ 2 X −k2 e sin(kx) sin(ky). π k=1 12 Pensiamo adesso al problema inverso, cioè al problema di determinare la distribuzione di temperatura iniziale f , che provoca la temperatura successiva g(x). Si tratta in sostanza di risolvere l’equazione del calore all’indietro. Matematicamente questo si esprime risolvendo rispetto ad f l’equazione (10). È chiaro dalla natura fisica del processo che la struttura dettagliata di f viene largamente diffusa al tempo successivo t = 1 ed è quindi impossibile ricostruire tali informazioni dettagliate misurando g. La base matematica di tali difficoltà di ricostruzione è evidente dalla forma del nucleo della (10). Più in dettaglio, le componenti di f corrispondenti ad alte frequenze (cioè a sin(ny) 2 per n grande), sono severamente compromesse dal fattore e−n che, essendo molto piccolo, rende la loro influenza su g impercettibile. Esercizio 2.3 Supponiamo che f e g soddisfino (10). Siano ε > 0 e M > 0 numeri assegnati (ε arbitrariamente piccolo e M arbitrariamente grande) e sia fM (y) = M sin(my). Mostrare che per ogni M ed ε esiste un m abbastanza grande perchè la perturbazione fM (che ha norma grande) abbia su g un effetto minore di ε 2.4 Problemi inversi di scattering I problemi inversi di scattering sono importanti in numerosi campi come la meccanica quantistica, l’acustica e l’elettromagnetismo. Questi problemi hanno origine dal tentativo di ottenere informazioni su un corpo, il diffusore, illuminandolo con onde di diversa lunghezza e direzione e misurando le onde diffuse (rifratte, riflesse, etc.) dal corpo stesso. Supponiamo che il diffusore sia contenuto in un dominio limitato D dello spazio tridimensionale. In generale si considerano due diversi tipi di problema di scattering inverso: la ricostruzione del profilo acustico e il problema dell’ostacolo. Analizziamo il primo caso. Supponiamo che un’onda acustica si propaghi nello spazio. Il modello matematico che descrive il comportamento della densità dell’onda U è l’equazione delle onde 1 ∂2U = 2 ∆U ∂t2 n in R3 × R+ , dove n = n(x) descrive il profilo acustico cioè il reciproco della velocità del suono. La funzione n viene normalizzata in modo da essere uguale ad uno fuori da un compatto (n = 1 rappresenta il mezzo circostante, ad esempio aria o acqua); la regione nella quale n(x) 6= 1 rappresenta il corpo diffusore e la deviazione di n da uno fornisce informazioni sulla struttura del diffusore. Se consideriamo solamente onde acustiche armoniche rispetto al tempo, avremo U (x, t) = eikt u(x) dove k rappresenta la frequenza dell’onda acustica. In tal caso, la funzione u(x) risulta soluzione dell’equazione di Helmholtz ∆u + k 2 n2 u = 0. Per ottenere lo scattering si genera un’onda incidente ui (che corrisponde all’onda che si propagherebbe in assenza del diffusore), soluzione dell’equazione ∆ui + k 2 ui = 0. 13 (11) In genere, l’onda incidente è un’onda piana della forma ui (x) = eikx·d , dove d ∈ R3 , kdk = 1. L’onda riflessa è la differenza tra l’onda osservata e l’onda incidente, cioè us := u − ui , soluzione di ∆us + k 2 us = k 2 f (ui + us ), (12) dove f := 1 − n2 . Il problema inverso consiste quindi nell’identificare la funzione a supporto compatto f conoscendo l’onda incidente ui e misurando l’onda riflessa us . Ovviamente l’onda riflessa potrà essere misurata solo lontano dal corpo diffusore (scatterer); in molti casi è ragionevole pensare che us possa essere misurata solamente su una sfera di raggio R >> 1 che contiene D: questi valori di us vengono detti far field pattern. Questo concetto sarà più chiaro tra breve. Prendendo in considerazione le dimensioni del problema si capisce immediatamente che una sola misura del far field pattern non è sufficiente a determinare f . Infatti, f è una funzione incognita di tre variabili, mentre la misura consiste in una funzione di due variabili soltanto. Si otterranno ulteriori misure usando diverse onde incidenti, cioè cambiando la frequenza k. Osserviamo inoltre che, poiché f compare come coefficiente nell’equazione di Helmholtz, il problema inverso dello scattering acustico è nonlineare. In diverse situazioni è ragionevole supporre che l’onda riflessa nell’intorno del diffusore sia molto più piccola dell’onda incidente: in altre parole, nel secondo membro della (12), si può approssimare il termine ui + us con ui . Con questa ipotesi si ottiene una versione lineare del problema dello scattering inverso, governata dall’equazione ∆us + k 2 us = k 2 f ui , che viene detta approssimazione di Born. Nel problema dell’ostacolo invece, il diffusore D compare nella forma di un corpo che non viene penetrato dall’onda. In questo caso l’equazione di Helmholtz modella la propagazione dell’onda fuori da D, cioè, ∆u + k 2 u = 0 in R3 \ D, accoppiata con una condizione al bordo del tipo ∂u + λu = 0 on ∂D, ∂ν dove ν è la normale uscente a ∂D, e λ descrive la natura dell’ostacolo. Per λ = 0 si ha un ostacolo duro, cioè impenetrabile che corrisponde alla condizione al bordo ∂u = 0, ∂ν mentre l’altro caso estremo (λ = ∞) descrive un ostacolo soffice con condizione al bordo u = 0. 14 Poichè si tratta di un problema differenziale definito sull’esterno di un dominio compatto, l’equazione differenziale e il dato al bordo vanno completati con una condizione che descrive il comportamento all’infinito. Scrivendo la soluzione nella forma u = ui + us , la condizione all’infinito, detta condizione di radiazione o di Sommerfeld, è la seguente: s ∂u s lim r − iku = 0. (13) r→∞ ∂r Matematicamente questa condizione serve a determinare univocamente una soluzione; dal punto di vista fisico, essa descrive il fatto che l’onda diffusa, lontano dall’ostacolo, assomiglia ad un’onda sferica che si allontana verso l’infinito cioè a selezionare solo lo scattering uscente. Infatti, tra le due onde sferiche, cioè soluzioni radiali dell’equazione (11), eik|x| |x| e e−ik|x| |x| solo la prima soddisfa la condizione di radiazione. La condizione di radiazione permette anche di mostrare che, lontano dall’ostacolo, l’onda riflessa ha la seguente struttura us (x) = eik|x| u∞ (θ; k, d) + O |x|−2 |x| se |x| → 0, (14) dove θ = x/|x|. Il problema inverso consiste nel determinare la forma di D misurando il far field pattern u∞ (θ; k, d) per θ ∈ S 2 . La notazione u∞ (θ; k, d) mette in evidenza la dipendenza del far field pattern dalla frequenza k e dalla direzione d dell’onda piana incidente. Il problema inverso dell’ostacolo consiste quindi nell’identificare la forma di D. In questo caso l’analisi dimensionale fa intravedere la possibilità di ricostruire D usando un numero limitato di misure. Riportiamo un esempio di risultati di unicità relativa al problema dell’ostacolo: Proposizione 2.1 Siano D1 e D2 due ostacoli soffici tali che, detti u1∞ e u2∞ i rispettivi far field patterns siano u1∞ (θ; k, d) = u2∞ (θ; k, d) per ogni θ ∈ S 2 , per un valore fissato di k e per una infinità numerabile di direzioni d, allora D1 = D2 . Proposizione 2.2 Siano D1 e D2 due ostacoli soffici contenuti nella sfera centrata nell’origine e di raggio R. Esiste un numero reale N dipendente da k e da R, tale che, detti u1∞ e u2∞ i rispettivi far field patterns, se u1∞ (θ; k, d) = u2∞ (θ; k, d) per ogni θ ∈ S 2 , per un valore fissato di k e per N + 1 direzioni d, allora D1 = D2 . 15 2.5 Tomografia ad impedenza elettrica La Tomografia ad Impedenza Elettrica (EIT) è una tecnica diagnostica non invasiva il cui scopo è quello di determinare una mappa della conducibilità elettrica di un corpo, effettuando misure di potenziali e correnti sul bordo del corpo. La conducibilità elettrica misura quanto il materiale si lascia attraversare dalla corrente elettrica. Materiali diversi hanno conducibilità a volte molto diverse, quindi una mappa della conducibilità può dare informazioni sulla struttura interna del corpo in esame. La Tomografia ad impedenza elettrica ha applicazioni mediche (monitoraggio delle funzioni cardiache e polmonari, diagnosi di tumori), archeologiche (rilevamento di strutture sotterranee), industriali (controllo sulla qualità della produzione) e ’militari’ (localizzazione di mine antiuomo). L’esperimento si descrive in questo modo: Se Ω è il conduttore da analizzare, si assegna su ∂Ω una differenza di potenziale f e si misura la corrente sul bordo. Il modello matematico che regola questo esperimento è il seguente: Ω ⊂ RN (N = 2, 3) è un dominio limitato con frontiera regolare. Il parametro incognito è una funzione γ(x) : Ω → R+ tale che γ ∈ L∞ (Ω). La corrente in Ω è data dalla legge di Ohm j = γ∇u e, se non ci sono sorgenti o pozzi di corrente, il potenziale elettrico u soddisfa l’equazione Lγ u := div (γ∇u) = 0 in Ω. Esperimento: 1. Si assegna una funzione f su ∂Ω. 2. Si considera la soluzione u del problema di Dirichlet div (γ∇u) = 0 in Ω u = f su ∂Ω. 3. Si misura ∂u ∂ν dove ν è la normale uscente da ∂Ω. g=γ su ∂Ω, f e g sono i dati al bordo e appartengono a spazi di Sobolev frazionari. Il problema inverso: Ricostruire γ da un certo numero di dati, cioè di coppie ∂u u|∂Ω , γ = (f, g). ∂ν |∂Ω Se supponiamo di avere a disposizione tutte le possibili misure, significa che conosciamo la mappa che ad un qualunque dato f associa il corrispondente dato g. Tale applicazione viene detta Mappa Dirichlet-Neumann Λγ : u|∂Ω → γ 16 ∂u . ∂ν |∂Ω Il problema inverso consiste quindi nel trovare γ conoscendo Λγ . Osserviamo che Λγ è una applicazione lineare (per γ fissato), ma il funzionale da invertire γ → Λγ non lo è. Il primo problema che si affronta è quello dell’unicità, cioè ci chiediamo se la mappa Dirichlet-Neumann è sufficiente per ricostruire γ. Vediamo prima il caso particolare unidimensionale: sia Ω = [0, 1] ⊂ R. L’equazione differenziale diventa 0 (γ(x)u0 (x)) = 0 in [0, 1], e i dati sono u(0) e γ(0)u0 (0) e u(1) assegnati γ(1)u0 (1) misurati. Si può ricostruire γ avendo a disposizioni tutte le possibili misure, vale a dire tutti i vettori {u(0), u(1), γ(0)u0 (0), γ(1)u0 (1)}, al variare di u tra le soluzione dell’equazione? Osserviamo in primo luogo che dall’equazione si ricava che γ(x)u0 (x) = cost da cui, in particolare, γ(0)u0 (0) = γ(1)u0 (1). L’equazione differenziale è una equazione lineare del secondo ordine, quindi lo spazio delle soluzione è uno spazio lineare di dimensione 2. In particolare se si assegnato i dati {u(0), u0 (0)} uguali a {0, 1} e {1, 0} si ottengono due soluzioni linearmente indipendenti che generano tutto lo spazio delle soluzioni. Nessuna altra soluzione aggiunge ulteriori informazioni. Osserviamo che il dato {u(0), u0 (0)} = {1, 0} si ottiene la soluzione costantemente uguale ad 1 che non fornisce alcuna informazione su γ. Consideriamo allora la soluzione che ha u(0) = 0 e u0 (0) = 1. Da γ(x)u0 (x) = cost = γ(0)u0 (0) = γ(0), si ha che u0 (x) = da cui γ(0) , γ(x) Z u(x) − u(0) = 0 x γ(0) dy. γ(y) il dato {u(0), u(1), γ(0)u0 (0), γ(1)u0 (1)} è quindi Z 0, 0 1 γ(0) dy, γ(0), γ(0) γ(y) e tutto quello che si ottiene è una media integrale del coefficiente γ. 17 3 Problemi mal posti Negli esempi di problemi inversi che abbiamo presentato nel precedente paragrafo, c’è una differenza fondamentale tra il problema diretto e quello inverso. In tutti i casi il problema inverso è mal posto (o impropriamente posto) nel senso di Hadamard, mentre il problema diretto è ben posto. La definizione di problema ben posto risale agli anni ’20 ed è dovuta appunto ad Hadamard. Egli afferma che un modello matematico per un problema fisico (si pensi ad esempio ad un problema al bordo per una equazione differenziale) deve essere ben posto, vale a dire, deve avere le seguenti proprietà: Esistenza: il problema ammette una soluzione; Unicità: esiste al più una soluzione; Stabilità: la soluzione dipende con continuità dai dati. Matematicamente, l’esistenza di una soluzione si può forzare allargando lo spazio delle soluzioni: il concetto di soluzione debole di una equazione differenziale rientra in questo ordine di idee. Se il problema ha più di una soluzione significa che mancano informazioni sul modello (tali da permettere di scegliere quella giusta tra le soluzioni possibili). In questo caso ulteriori informazioni (come condizioni sul segno, limitazione di alcune norme, etc) possono essere aggiunte al modello. La richiesta di stabilità risulta in sostanza la più importante. Se il problema non ha proprietà di stabilità, le sue soluzioni sono praticamente impossibili da calcolare perchè ogni misurazione e ogni calcolo numerico sono comunque inquinati da inevitabili errori, quindi i dati del problema sono sempre perturbati da qualche forma di rumore. Se la soluzione di un problema non dipende con continuità dai dati, la soluzione calcolata potrebbe non aver niente a che fare con la soluzione reale. In realtà, non c’è modo di superare questa difficoltà, a meno che non siano disponibili ulteriori informazioni sulle soluzioni. Nessun trucco matematico può porre rimedio ad una mancanza di informazione [C. Lanczos, 1961] Riportiamo con una notazione matematica la definizione di buona posizione. Definizione 3.1 (Buona Posizione) Siano X e Y due spazi normati e sia K un operatore (lineare o nonlineare) K : X → Y . L’equazione Kx = y si dice ben posta se ha le seguenti proprietà 1. Esistenza: per ogni y ∈ Y esiste almeno un x ∈ X tale che Kx = y. 2. Unicità: per ogni y ∈ Y esiste al più un x ∈ X che soddisfa Kx = y. 3. Stabilità: la soluzione x dipende con continuità dai dati, cioè, per ogni successione {xn } ⊂ X con Kxn → Kx (per n → ∞) si ha che xn → x (per n → ∞). Vengono dette mal poste le equazioni per le quali almeno una di queste proprietà non vale. Per questa definizione è essenziale stabilire la tripletta (K, X, Y ) completa di norme. Esistenza e unicità della soluzione dipendono solo dalla natura algebrica di tali spazi, mentre la stabilità dipende in modo essenziale dalle topologie. 18 3.1 Un esempio: derivazione e integrazione Vediamo adesso un po’ in dettaglio due problemi che ci sono familiari e che sono uno l’inverso dell’altro: integrazione e derivazione. Quale dei due è il problema diretto e quale quello inverso? Quando li impariamo a scuola, generalmente ci viene insegnato per prima cosa a derivare le funzioni elementari. Più tardi ci viene introdotta l’integrazione, come ricerca di una primitiva. Alle scuole superiori il processo di integrazione sembra sempre più complicato di quello di derivazione. Se invece guardiamo dal punto di vista storico, l’idea di integrazione risale ad Archimede, mentre per arrivare ad introdurre propriamente il concetto di derivazione si deve aspettare il calcolo infinitesimale di Newton e Leibnitz. Come decidiamo allora quale dei due problemi è più giusto chiamare diretto e quale inverso? Andiamo a vedere se uno dei due è ben posto e l’altro no. Scriviamo il problema nella forma seguente: Kx = y dove x e y appartengono a qualche spazio di funzioni definite, ad esempio sull’intervallo [0, 1] e Z s (Kx)(s) := x(t) dt. 0 Quindi, se conosco x e voglio calcolare y devo integrare, mentre se conosco y e cerco la funzione x devo derivare, infatti, per esempio se x è continua, per il Teorema Fondamentale del calcolo integrale y 0 (t) = x(t). La buona o cattiva posizione di un problema dipende ovviamente dagli spazi funzionali nei quali si scelgono dato e soluzioni. Per il problema dell’integrazione, prendiamo in considerazione, ad esempio lo spazio delle funzioni continue, cioè consideriamo K : C[0, 1] → C[0, 1]. Osserviamo che ogni funzione continua in [0, 1] è integrabile su tale intervallo e che la funzione integrale che ne risulta (cioè la y) è ancora una funzione continua (anzi è derivabile con derivata continua). Quindi il problema di calcolare y, assegnata x ha una soluzione. Tale soluzione è anche unica per definizione di integrale. Vediamo adesso se il problema dell’integrazione è stabile, cioè se, date due funzioni x1 e x2 vicine, anche y1 = Kx1 e y2 = Kx2 sono vicini. Dal momento che l’operatore K è lineare, questo equivale a chiedersi se K è un operatore limitato. Sia kx1 − x2 k∞ ≤ ε, allora Z s |Kx1 (s) − Kx2 (s)| = (x1 (t) − x2 (t)) dt Z 0s Z s ≤ |x1 (t) − x2 (t)| dt ≤ ε dt = εs ≤ ε. 0 0 Esercizio 3.1 Un risultato del tutto analogo si ottiene considerando uno spazio 19 funzionale diverso. Si provi per esercizio con L1 (0, 1). Z 1 Z t dt x(s) ds kyk1 = 0 0 Z Z 1 Z 1 Z 1Z t |x(s)| ds dt = |x(s)| ds dt ≤ ≤ 0 0 0 0 1 kxk1 dt = kxk1 . 0 Prendiamo invece in considerazione il problema della derivazione. In sostanza ci chiediamo cosa possiamo dire sull’invertibilità dell’operatore K. Osserviamo in primo luogo che l’operatore K : C[0, 1] → C[0, 1] non è suriettivo, perché appartengono al range di K le funzioni con derivata continua e con valore 0 nell’origine. È invece un operatore iniettivo, supponiamo infatti che Kx1 (t) = Kx2 (t) per ogni t ∈ (0, 1), avremo allora che x1 (t) = (Kx1 )0 (t) = (Kx2 )0 (t) = x2 (t). Quindi, in sostanza, K −1 esiste purchè ristretto al range di K. Per capire se il problema della derivazione è ben posto, vediamo se K −1 risulta anche lui un operatore limitato. Se K −1 fosse limitato, le immagini di insiemi limitati dovrebbero rimanere ancora limitati, ma questo non accade e lo chiarisce questo esempio. Consideriamo la successione di funzioni {sin(nx)}∞ n=1 . Questo è un insieme limitato, perchè k sin(nx)kC 0 [0,1] ≤ 1 per ogni n. Tuttavia, kK −1 sin(nx)kC 0 = kn cos(nx)kC 0 = n → ∞ per n → ∞. Vediamo cosa significa può significare questo per un problema applicativo. Supponiamo di essere interessati a conoscere la derivata di una certa funzione che misuriamo con una approssimazione δ. Cioè vogliamo calcolare f 0 (x) per x ∈ (0, 1) misurando la funzione fδ (x) e sapendo che f (x) = fδ (x) + r(x), dove r è il rumore e krk∞ < δ. Per prima cosa abbiamo il problema di stabilire se fδ e r sono derivabili. In generale fδ sarà nota puntualmente e r potrebbe essere qualunque funzione. Supponiamo comunque di essere in questa situazione favorevole: sia fδ che r sono derivabili, quindi f 0 (x) = fd0 (x) + r0 (x). Prendendo per buono il valore di fδ0 commettiamo un errore dell’ordine di kr0 k∞ . Ma tale errore può essere grandissimo: se r(x) = δ sin(nx/δ), allora kr0 k∞ = kn cos(nx/δ)k∞ = n può essere arbitrariamente grande. Ci chiediamo allora se questo problema dipende dal fatto che le norme che abbiamo preso in considerazione possono non essere quelle giuste. Esercizio 3.2 Verificare che la situazione non cambia considerando spazi di tipo Lp . Il fenomeno che abbiamo descritto è piuttosto caratteristico di certi problemi inversi. Il problema diretto (in questo caso l’integrazione di una funzione continua) è un processo regolarizzante (smoothing), nel senso che errori fortemente 20 oscillanti (del tipo n cos(nx/δ)) vengono smorzati dall’integrazione (divenendo δ sin(nx/δ)) e hanno un effetto “trascurabile” sul dato del problema inverso. Questo smorzamento è responsabile del fatto che errori di ampiezza piccola ma con alta frequenza creano grandi oscillazioni nella soluzione del problema inverso. Questo è appunto un fenomeno generale: se il problema diretto è regolarizzante, ci si aspetta che nella soluzione del problema inverso compaiano oscillazioni dovute alla presenza di piccole perturbazioni ad alta frequenza. Naturalmente anche per la derivazione è possibile trovare qualche norma o qualche spazio funzionale nel quale essa risulta una operazione ben posta. Supponiamo, per esempio di considerare K : C[0, 1] → C 1 [0, 1] cioè di equipaggiare lo spazio di arrivo con la norma C 1 . In tal caso, kK −1 ykC 0 = kxkC 0 = ky 0 kC 0 ≤ kykC 1 , per cui l’operatore K −1 è limitato con norma minore di 1. In questo caso gli errori dell’esempio precedente (δ sin(nx/δ)) non sono più errori piccoli perché la loro norma C 1 è dell’ordine di n. Osserviamo che questa scelta delle norme è difficilmente giustificabile nelle applicazioni. È anche possibile eliminare l’instabilità modificando non la norma ma lo spazio funzionale che consideriamo. Supponiamo infatti di potersi restringere a considerare solamente funzioni y lineari, cioè della forma y(t) = at con a costante e 0 < t < 1. Su tale ristretto spazio lineare consideriamo, per esempio, la norma L2 . Z 1 a2 kyk2L2 = (at)2 dt = 3 0 Invece, kK −1 yk2L2 = ky 0 k2L2 Z = 1 a2 dt = a2 , 0 e quindi kK −1 ykL2 = |a| = √ |a| √ 3 √ = 3kykL2 3 Quindi in questo spazio ristretto di funzioni, la derivazione è un funzionale limitato. Questa osservazione concorda anche con l’intuizione: il processo di derivazioni non può rendere più irregolare una funzione lineare. Come possiamo allora derivare una funzione che conosciamo solo per punti? Abbiamo visto che volendo affrontare il problema utilizzando spazi funzionali ragionevoli il problema risulta mal posto. Possiamo però cercare di risolverlo se abbiamo a disposizione ulteriori informazioni. Supponiamo ancora di voler calcolare f 0 conoscendo un valore approssimato di f , cioè conoscendo fδ in modo tale che kf −fδ kL2 ≤ δ. Ovviamente, conoscendo solo il dato approssimato non possiamo sperare di ritrovare esattamente la derivata di f : dobbiamo accontentarci di calcolare una funzione che assomiglia alla derivata di f . Consideriamo l’insieme delle funzioni che hanno distanza da fδ minore di δ. Questo insieme contiene sicuramente f e ognuna di tali funzioni è, per la nostra capacità di misura, indistinguibile da f . Supponiamo però di 21 avere informazioni di altra origine su f . Supponiamo, per esempio di sapere che non è troppo oscillante e che i dati che raccogliamo sul bordo sono corretti. Questo significa restringere l’insieme di arrivo ad S = {g : kg − fδ kL2 < δ, kg 00 kL2 ≤ E, g(0) = fδ (0), g(1) = fδ (1)} . La funzione f appartiene a questo insieme. Quale errore si commette calcolando la derivata di una qualunque altra funzione in S, vale a dire: quanto vale kf 0 − g 0 kL2 ? Sia h(x) = f (x) − g(x). Sappiamo che khkL2 ≤ kf − fδ kL2 + kg − fδ kL2 ≤ 2δ, kh00 kL2 ≤ kf 00 kL2 + kg 00 kL2 ≤ 2E, e h(0) = h(1) = 0, quindi ! x=1 Z 1 Z 1 0 2 0 2 0 00 kh kL2 = (h (x)) dx = h(x)h (x) − h(x)h (x)dx 0 ≤ x=0 0 00 khkL2 kh kL2 ≤ 4δE, da cui si ricava che √ kf 0 − g 0 kL2 ≤ 2 Eδ, 3.2 3.2.1 per ogni g ∈ S. Due problemi per le funzioni armoniche Il problema di Dirichlet per l’equazione di Laplace Supponiamo che D sia un dominio di RN con frontiera regolare, che f sia una funzione nella classe C(∂D)) e consideriamo il problema di Dirichlet ∆u = 0 in D u = f su ∂D. Sappiamo che: • Per ogni f ∈ C(∂D) esiste una soluzione del problema di Dirichlet. • La soluzione è unica. Se infatti ne esistessero due, u1 e u2 , la differenza sarebbe soluzione del problema di Dirichlet ∆(u1 − u2 ) = 0 in D u1 − u2 = 0 su ∂D. Per il principio del massimo segue che u1 − u2 ≡ 0 in D. • La soluzione è stabile. Siano infatti u1 e u2 soluzione di ∆u1 = 0 in D ∆u2 = 0 in D e u1 = f1 su ∂D u2 = f2 su ∂D rispettivamente. La differenza u1 − u2 è ancora una funzione armonica in D che vale f1 − f2 su ∂D. Per il principio del massimo u1 − u2 ha massimo e minimo su ∂D e, quindi |u1 − u2 |C 0 (D) ≤ |f1 − f2 |C 0 (∂D) . Vediamo che invece la situazione è decisamente diversa se si sostituisce il dato di Dirichlet con dati al bordo diversi. 22 3.2.2 Il problema di Cauchy per l’equazione di Laplace Questo è il classico esempio di problema mal posto, dato dallo stesso Hadamard. Problema: Trovare una soluzione u dell’equazione di Laplace ∆u(x, y) := ∂ 2 u(x, y) ∂ 2 u(x, y) + =0 ∂x2 ∂y 2 in (0, 1) × (0, r), che soddisfa le condizioni iniziali (di Cauchy) u(x, 0) = f (x), ∂ u(x, 0) = g(x) ∂y per x ∈ (0, 1), dove f e g sono funzioni assegnate. Osservazioni di Hadamard: 1. Il problema ha una soluzione se e solo se Z 1 1 φ(x) = f (x) − g(t) ln |x − t| dt π 0 è analitica. Dim. La funzione v(x, y) = 1 2π Z 1 g(t) ln[(x − t)2 + y 2 ] dt 0 ∂ è armonica per y > 0 e ∂y v(x, 0) = g(x) in 0 < x < 1. La funzione w = u − v è quindi armonica nel rettangolo, w(x, 0) = φ(x) e ∂ ∂y w(x, 0) = 0 per 0 < x < 1. Il principio di riflessione per le funzioni armoniche afferma che la funzione w(x, |y|) è armonica in un intorno completo del segmento {(x, 0), 0 < x < 1}, e quindi w(x, 0) = φ(x) è una funzione analitica. Viceversa, se φ è analitica, per il Teorema di Cauchy-Kowalevski, esiste una e una sola funzione armonica w definita in un intorno completo di (0, 1) × {0}, con derivata normale nulla per y = 0 e uguale a φ per y = 0. La funzione u = w + v è soluzione del problema. 2. Il problema non è stabile: variazioni arbitrariamente piccole dei dati possono provocare variazioni arbitrariamente grandi della soluzione. 23 La funzione √ un = e− n cos(nx) cosh(ny), è soluzione del problema y) ∈ (0, 1) × (0, r), ∆un (x, y) = 0, per (x, √ un (x, 0) = f (x) = e− n cos(nx) per x ∈ (0, 1), ∂ ∂y un (x, 0) = g(x) = 0 per x ∈ (0, 1). Osserviamo che √ sup {|f (x)| + |g(x)|} = e− n → 0, n → ∞, x∈(0,1) ma √ sup |u(x, r)| = e− n √ cosh(nr) = e− n x∈(0,1) enr + e−nr → ∞, 2 n → ∞. 3. I dati del problema sono sovrabbondanti Questa è una osservazione dovuta a C. Pucci. Possiamo modificare il problema di Dirichlet nel modo seguente: Sia I un sottoinsieme di (0, 1) con almeno un punto di accumulazione. Il problema ∆u(x, y) = 0, per (x, y) ∈ (0, 1) × (0, r), ∂ u(x, 0) = g(x) per x ∈ (0, 1), (15) ∂y u(x, 0) = f (x) per x ∈ I, ha al piú una soluzione. Siano, infatti, u e v soluzioni di (15). La funzione w = u − v è armonica ∂ un (0, 1) × (0, r) e ∂y w(x, 0) = 0. Per il principio di riflessione, la funzione w(x, |y|) è armonica in (0, 1) × (−r, r) e, quindi, w(x, 0) è analitica in (0, 1). Poiché w(x, 0) = 0 per x ∈ I segue che w ≡ 0, cioè u ≡ v. PossiamoR anche considerare in problema leggermente diverso. Supponiamo 1 che f (x)− π1 0 g(t) ln |x−t| dt sia una funzione analitica in (0, 1) e sia v soluzione di ∆v(x, y) = 0, per (x, y) ∈ (0, 1) × (0, r), ∂ v(x, 0) = g(x) per x ∈ (0, 1), ∂y v(x, 0) = f (x) per x ∈ (0, 1). Allora, ogni funzione u soluzione del problema ∆u(x, y) = 0, per (x, y) ∈ (0, 1) × (0, r), ∂ u(x, 0) = g(x) per x ∈ (0, 1), ∂y {x : u(x, 0) = f (x)} ha un punto di accumulazione in (16) (0, 1), coincide con v. ∂ (u−v)(x, 0) = 0 Basta infatti osservare che ∆(u−v) = 0 in (0, 1)×(0, r) e ∂y per x ∈ (0, 1) e quind, sempre utilizzando il principio di riflessione, (u − v)(x, 0) è analitica in (0, 1). Dal momento che {x : u(x, 0) = v(x, 0)} ha un punto di accumulazione in (0, 1), allora u ≡ v. 4. La soluzione può essere controllata facendo intervenire in modo essenziale l’analiticità. Vedere G.Talenti, Sui problemi mal posti, Bollettino U.M.I. (5), 15-A (1978), 1-29. 24 3.3 Un cenno alle equazioni integrali del primo tipo Come abbiamo visto le equazioni integrali del primo tipo costituiscono un modello per i problemi inversi lineari. Prendiamole in considerazione per quanto riguarda le questioni di esistenza, unicità e stabilità delle soluzioni. Consideriamo una equazione integrale di Fredholm del primo tipo: Z 1 k(s, t)x(t) dt = y(s), 0 ≤ s ≤ 1. (17) 0 Questa forma comprende anche le equazioni integrali di Volterra del primo tipo Z s k(s, t)x(t) dt = y(s), 0 ≤ s ≤ 1. (18) 0 per le quali avremo k(s, t) = 0 per t > s. Esistenza In genere si vorrebbe avere una soluzione x dell’equazione (17) per una classe sufficientemente grande di funzioni y. Chiaramente però la funzione y in (17) non solo dipende da x, ma eredita, attraverso la variabile s certe proprietà strutturali e qualitative dal nucleo k. Quindi la forma di k può causare severe restrizioni alla forma delle funzioni y per le quali l’equazione (17) ha soluzione. Per fare un esempio estremo, se k(s, t) = 1 per ogni (s, t) ∈ [0, 1] × [0, 1], allora esistono soluzioni dell’equazione integrale (17) se e solo se y è costante. Esempio 3.1 Un nucleo k(s, t) si dice degenere se ha la forma k(s, t) = n X Sj (s)Tj (t). j=1 Si vede facilmente che, se k è degenere, allora l’equazione (17) non ha soluzione se y non appartiene allo spazio generato dalle funzioni {S1 , . . . , Sn }. Unicità In generale non ci si può aspettare che equazioni della forma (17) abbiano una soluzione unica. Infatti, nell’esempio semplice k(s, t) = 1 è evidente che per ogni funzione costante y(s) = c si hanno infinite soluzioni che verificano l’equazione. Per esempio tutte le funzioni a scala della famiglia xn (t) = nc1(0,1/n) (t) per n ∈ N sono soluzioni. Altri esempi di non unicità vengono prodotti dalle relazioni di ortogonalità; per esempio, se k(s, t) = a(s) sin πt, allora ognuna delle funzioni x(t) = sin nπt, n = 2, 3, . . . è soluzione dell’equazione Z 1 k(s, t)x(t) dt = 0. 0 Esercizio 3.3 Supponiamo che, per 0 ≤ t ≤ 1, k(s, t) = 0 per 0 ≤ s < 1/2 e k(s, t) = 1 per 1/2 ≤ s ≤ 1. Mostrare che x(t) = 0 e x(t) = t − 1/2 sono R1 entrambe soluzioni di 0 k(s, t)x(t) dt = 0, per 0 ≤ s ≤ 1. 25 Instabilità La mancanza di stabilità è il punto centrale per le equazioni integrali di prima specie. Essa non dipende da forme particolari del nucleo, ma è una caratteristica fondamentale e segue dal Lemma di Riemann-Lebesgue. Se k(·, ·) ∈ L2 ([0, 1] × [0, 1]), allora Z 1 k(·, t) sin nπt dt → 0 as n → ∞ 0 dove la convergenza si intende in norma L2 . Quindi, una perturbazione significativa (in norma L2 ) della forma sin nπt ad una soluzione x(t) dell’equazione (17) porta, per n grande, ad una perturbazione insignificante dell’effetto y(s). La forma speciale delle equazioni integrali di Volterra non semplifica le difficoltà associate all’esistenza, unicità e stabilità delle soluzioni, come mostrano i seguenti esercizi: Rs Esercizio 3.4 Mostrare che l’equazione 0 x(t) dt = y(s) ha una soluzione integrabile solo se y è assolutamente continua e y(0) = 0. Esercizio 3.5 Mostrare che per ogni numero reale c la funzione x(t) = ct2 é una soluzione non nulla dell’equazione Z s (3s − 4t)x(t) dt = 0 0 3.3.1 Equazioni integrali del secondo tipo Prendiamo adesso brevemente in considerazione le equazioni integrali del secondo tipo di Fredholm Z 1 x(s) = k(s, t)x(t) dt + y(s), 0 ≤ s ≤ 1, (19) 0 e di Volterra Z x(s) = s k(s, t)x(t) dt + y(s), 0 ≤ s ≤ 1. (20) 0 Osserviamo che le equazioni (20) sono sempre risolubili se il nucleo k e il dato y sono ragionevoli e che le soluzioni dipendono con continuità dai dati. Proposizione 3.2 Sia k continuo in 0 ≤ t ≤ s ≤ 1. Per ogni y ∈ C(0, 1) esiste una e una sola soluzione dell’equazione (20) e tale soluzione dipende con continuità da y. Dim. Si costruisce una soluzione utilizzando il metodo delle approssimazioni successive. Definiamo per ricorrenza la successione x0 (s) x1 (s) = y(s) Z s = k(s, t)x0 (t) dt + y(s) 0 ... Z s xn (s) = k(s, t)xn−1 (t) dt + y(s) 0 26 (21) Vogliamo mostrare che la successione {xn }∞ n=0 converge uniformemente a x ∈ C(0, 1) per n → ∞ e che x è soluzione di (20). Possiamo scrivere il termine n-esimo della successione come somma parziale di una serie telescopica: xn (s) = y(s) + n X {xj (s) − xj−1 (s)}. j=1 La successione xn converge se la serie telescopica è convergente. Chiamiamo K = max{|k(s, t)| : 0 ≤ t ≤ s ≤ 1} e stimiamo: Z s Z s |k(s, t)| dt k(s, t)y(t) dt ≤ kykC 0 (0,1) |x1 (s) − x0 (s)| = 0 0 ≤ KkykC 0 (0,1) s, Z |x2 (s) − x1 (s)| = 0 s k(s, t)(x1 (t) − x0 (t)) dt s Z K 2 kykC 0 (0,1) t dt ≤ 0 ≤ K 2 kykC 0 (0,1) |xj (s) − xj−1 (s)| ≤ kykC 0 (0,1) s2 , 2 (Ks)j . j! La serie risulta quindi uniformemente convergente ad una x ∈ C(0, 1). Passando al limite per n → ∞ nella (21) si ottiene che x è soluzione dell’equazione integrale. Per quando riguarda la stabilità si osserva che kxkC 0 ≤ ∞ X kxj − xj−1 kC 0 + kykC 0 ≤ kykC 0 · j=1 ∞ X Kj j=0 j! = eK kykC 0 . Osservazione 3.3 Esiste una tecnica standard per ridurre alcune equazioni integrali di Volterra del primo tipo Z s k(s, t)x(t) dt = y(s), (22) 0 ad equazioni integrali di Volterra del secondo tipo. Se, infatti, il nucleo k è continuo e derivabile rispetto ad s con derivata continua per 0 ≤ t ≤ s ≤ 1, y 0 (s) è continua per 0 ≤ s ≤ 1 e k(s, s) 6= 0 per 0 ≤ s ≤ 1, allora, derivando la (22) rispetto ad s e dividendo per k(s, s) si ha Z s ∂k x(s) + (s, t)/k(s, s) x(t) dt = y 0 (s)/k(s, s). (23) ∂s 0 Questa equazione è ben posta nello spazio delle funzioni continue. Notiamo che il problema della stabilità persiste perchè, a causa della presenza della derivata di y, piccoli cambiamenti nel secondo membro della (22) possono portare a grandi cambiamenti nel secondo membro della (23). Quindi, la trasformazione dell’equazione dal primo al secondo tipo sposta semplicemente l’instabilità nel processo di derivazione. 27 Rs Esercizio 3.6 Sia φ(s) = 0 x(τ ) dτ . Integramo la (22) per parti per ottenere l’equazione integrale di Volterra del secondo tipo Z s ∂k φ(s) − (s, t)/k(s, s) φ(t) dt = y(s)/k(s, s). ∂t 0 Con questo procedimento si aggira l’ostacolo dell’instabilità? Concludiamo infine questo paragrafo osservando che la risoluzione delle equazioni di Fredholm di seconda specie non è sempre semplice come quella delle equazioni di Volterra di seconda specie. Le equazioni di Fredholm possono presentare degli autovettori, cioè possono esistere funzioni non nulle che soddisfano Z 1 x(s) = k(s, t)x(t) dt. 0 La presenza di questi autovettori influenza l’esistenza e, soprattutto, l’unicità della soluzione. Esistono comunque risultati analoghi a quello mostrato per le equazioni di Volterra, ad esempio: Proposizione 3.4 Sia k continuo in [0, 1] × [0, 1] con sup{|k(s, t)| : (s, t) ∈ [0, 1]2 } < 1. Per ogni y ∈ C(0, 1) esiste una e una sola soluzione dell’equazione (19) e tale soluzione dipende con continuità da y. 4 Operatori compatti 4.1 Un po’ di analisi funzionale Per questo richiamo di analisi funzionale si consiglia la parte riguardante gli spazi di Hilbert nell’appendice delle dispense del Prof. Magnanini del corso di Istituzioni di Analisi Superiore II mod. reperibili sulla sua pagina web. 4.2 Sugli insiemi compatti Prima di introdurre gli operatori compatti ricordiamo che un sottoinsieme S di uno spazio normato X si dice relativamente compatto se ogni successione in S contiene una sottosuccessione convergente in X. S si dice compatto se è relativamente compatto e chiuso. Esempi: 1. In RN sono compatti tutti e soli gli insiemi limitati e chiusi (sono relativamente compatti tutti e soli gli insiemi limitati). 2. Il Teorema di Ascoli-Arzelà caratterizza i sottoinsiemi relativamete compatti di C[a, b]. Afferma infatti che un sottoinsieme S di C[a, b] è relativamente compatto se e solo se è limitato ed equicontinuo, cioè se per ogni ε > 0 esiste δ > 0 tale che per ogni f ∈ S e per ogni coppia s, t ∈ (0, 1) con |s − t| < δ si ha |f (s) − f (t)| < ε. 3. Vediamo un caso speciale del Teorema di Immersione di Sobolev 28 Proposizione 4.1 Gli insiemi della forma S = {f ∈ H 1 [0, 1] : kf kH 1 ≤ E} sono compatti in C[0, 1]. Dim. In primo luogo osserviamo che le funzioni di H 1 [0, 1] sono in particolare funzione assolutamente continue (e quindi S ⊂ C[0, 1]) e si può scrivere Z x f 0 (s) ds. f (x) = f (t) + t Integrando in t questa relazione si ottiene Z 1 Z 1Z f (x) = f (t) dt + 0 Z = Z f 0 (s) ds dt t 0 1 x x Z s f 0 (s) dt ds f (t) dt + 0 Z = 0 0 1 Z f (t) dt + 0 x sf 0 (s) ds, 0 da cui Z ≤ |f (x)| 1 0 ≤ quindi kf kC 0 ≤ |f (s) − f (t)| √ Z f (t) dt + x s|f 0 (s)| ds 0 √ √ 1 kf kL2 + kf 0 kL2 √ ≤ 2kf kH 1 ≤ 2E, 3 2E ed S è limitato in C 0 [0, 1]. Inoltre, Z t 1/2 Z t 1 dτ ≤ f 0 (τ ) dτ ≤ kf 0 kL2 s 1/2 = |s − t| 0 s 1/2 kf kL2 ≤ |s − t| kf kH 1 ≤ E|s − t|1/2 , e le funzioni di S sono equicontinue. Questo dimostra che S è relativamente compatto. Vogliamo adesso mostrare che è anche chiuso. Sia {fn }∞ n=1 una successione di funzioni di S convergente a f in C(0, 1). Consideriamo la successione delle derivate {fn0 }∞ n=1 . Per la definizione di S sappiamo che tale successione è limitata rispetto alla norma L2 . Per il teorema di Bolzano-Weierstass generalizzato, tale successione ammette una sottosuccessione (che chiamiamo {fn0 j }∞ j=1 ) debolmente convergente ad una funzione g ∈ L2 . Facciamo vedere che g è la derivata debole di f : sia Φ una funzione test, cioè una funzione C ∞ a supporto compatto in (0, 1), allora, poiché fnj converge uniformemente a f , Z 1 Z 1 0 f (t)Φ (t) dt = lim fnj (t)Φ0 (t) j→∞ 0 0 Z = 1 lim − j→∞ 0 fn0 j (t)Φ(t)(t) dt = − Z 1 g(t)Φ(t) dt, 0 quindi f ∈ H 1 (0, 1) e kf k2H 1 = kf k2L2 + kgk2L2 = lim kfnj k2L2 + kfn0 j k2L2 ≤ E. j→∞ 29 4.3 Definizione e proprietà degli operatori compatti Siano X e Y spazi normati e sia K : X → Y un operatore lineare. K si dice compatto se per ogni insieme limitato B in X, l’immagine T (B) è relativamente compatta in Y (cioè la sua chiusura è compatta in Y ). In altre parole, Proposizione 4.2 Un operatore K : X → Y è compatto se e solo se per ogni successione {φn } limitata in X, la successione {Kφn } ha una sottosuccessione convergente in Y . Vediamo alcune proprietà degli operatori compatti 1) Gli operatori compatti sono limitati. L’insieme ∂B1 = {x ∈ X : kxk = 1}. È limitato in X, quindi la sua immagine K(∂B1 ) è compatta (e quindi limitata) in Y , cioè, esiste M > 0 tale che kKxk ≤ M ∀x ∈ ∂B1 ⇒ kKk ≤ M. Oss. Gli insiemi compatti sono limitati perché se non lo fossero si potrebbe costruire una successione con norma che tende a +∞ dalla quale non si possono estrarre sottosuccessioni convergenti. 2) Combinazioni lineari di operatori compatti sono ancora operatori compatti. Siano K1 e K2 operatori compatti. Data una successione {φn } limitata in X, si può estrarre una sottosuccessione {φn1k } tale che K1 φn1k converge in Y e da questa un’altra sottosuccessione {φn2k } tale che K2 φn2k converge in Y . Allora, per ogni coppia di costanti α e β, la successione αK1 φn2k + βK2 φn2k è convergente. 3) Siano T1 : X → Y e T2 : Y → Z operatori lineari limitati. Se uno dei due operatori è compatto, allora il prodotto T2 T1 : X → Z è compatto. Sia B un insieme limitato in X. Se T2 è compatto, dal momento che T1 (B) è ancora limitato, allora T2 (T1 (B)) è relativamente compatto in Y . Supponiamo invece che T1 sia compatto e prendiamo una successione {φn } limitata in X. Per la compattezza di T1 la successione {T1 φn } ha una sottosuccessione {T1 φnk } convergente. Per la limitatezza di T2 si ha allora che anche {T2 (T1 (φnk ))} è convergente. 4) Sia X uno spazio normato e sia Y uno spazio di Banach. Se Kn : X → Y è una successione di operatori compatti convergente in norma all’operatore K : X → Y , allora K è compatto. Sia {φn } una successione limitata in X, kφn k ≤ E per ogni n. Poiché tutti gli operatori sono compatti, con un processo di diagonalizzazione si può scegliere una sottosuccessione {φnj } tale che per ogni m fissato la successione Km φnj converge quando j tende a +∞. Vogliamo mostrare che anche Kφnj converge. Siccome Y è uno spazio di Banach, basta mostrare che la successione è di Cauchy. Fissiamo ε > 0. Dall’ipotesi che kKm − Kk tende a zero per m che tende all’infinito, sappiamo che esiste m0 ∈ N tale che kKm0 − Kk ≤ 30 ε . 3E Poiché Km0 φnj converge quando j tende all’infinito, esiste un indice N (ε) tale che se j, k > N (ε), allora ε . 3 kKm0 φnj − Km0 φnk k ≤ Calcoliamo allora, per j, k > N (ε) kKφnj − Kφnk k ≤ kKφnj − Km0 φnj k + kKm0 φnj − Km0 φnk k +Km0 φnk − Kφnk k ε ε ε ≤ E+ + E = ε. 3E 3 3E Esempio 4.1 L’operatore di immersione K : H 1 [0, 1] → C[0, 1], Kf = f è compatto. (Vedere la Proposizione 4.1) Esempio 4.2 Se k(·, ·) ∈ C([0, 1] × [0, 1]), allora l’operatore integrale Z 1 K : C[0, 1] → C[0, 1], Kf (s) = k(s, t)f (t) dt 0 è compatto (si dimostra utilizzando il teorema di Ascoli- Arzelà.) Il precedente esempio si può estendere ad una classe di nuclei più grande di quella formata da funzioni continue nel quadrato [0, 1] × [0, 1]. Diciamo che il nucleo k è debolmente singolare in [0, 1] × [0, 1] se esiste una costante positiva M ed un numero α ∈ [0, 1), tali che |k(s, t)| ≤ M |s − t|α−1 , per s, t ∈ [0, 1], s 6= t. Proposizione 4.3 Un operatore integrale con nucleo debolmente singolare è compatto da C[0, 1] in sé. Dim. Osserviamo in primo luogo che l’operatore è ben definito perché per ogni f ∈ C[0, 1], vale |k(s, t)f (t)| ≤ M kf k∞ |s − t|α−1 , che è integrabile in (0, 1) per α ∈ (0, 1). Definiamo la funzione continua e lineare a tratti h : [0, +∞) → R 0 per 0 ≤ x ≤ 1/2, 2x − 1 per 1/2 ≤ x ≤ 1, h(x) := 1 per 1 ≤ x < +∞, e definiamo i nuclei continui h(n|s − t|)k(s, t) kn (s, t) := 0 per s 6= t, , per s = t. I corrispondenti operatori integrali Kn : C[0, 1] → C[0, 1] sono compatti (esempio 4.2). 31 Calcoliamo Z 1 |Kf (s) − Kn f (s)| = (k(s, t) − kn (s, t))f (t) dt Z0 ≤ |k(s, t)(1 − h(n|s − t|))| · |f (t)| dt 1 |s−t|≤ n Z Z ≤ 1 |s−t|≤ n |k(s, t)||f (t)| dt ≤ M kf kC 0 2M kf kC 0 →0 αnα = |s − t|α−1 dt 1 |s−t|≤ n per n → ∞. Cioè Kn f converge a Kf uniformemente in [0, 1], e quindi Kf ∈ C[0, 1]. Inoltre kK − Kn kC 0 ≤ 2M →0 αnα per n → ∞ e quindi K è compatto. 5) Sia T : X → Y un operatore lineare limitato con range R(T ) a dimensione finita. Allora T è compatto. Sia B ⊂ X limitato. T (B) è un insieme limitato contenuto in uno spazio di dimensione finita. Per il teorema di Bolzano-Weierstrass, T (B) è relativamente compatto. 6) L’operatore identità I : X → X è compatto se e solo se X ha dimensione finita. Per dimostrare questa affermazione utilizziamo il Lemma di Riesz Sia X uno spazio normato, sia S ( X un suo sottospazio chiuso e sia α ∈ (0, 1). Allora, esiste un elemento ψ ∈ X con kψk = 1 e kψ − φk ≥ α per ogni φ ∈ S. Dim. del Lemma di Riesz. Sia S ( X e sia f ∈ X \ S. Per la chiusura di S, si ha che β := inf kf − ψk > 0. ψ∈S Per definizione di estremo inferiore, esiste g ∈ S tale che β ≤ kf − gk ≤ β . α Definiamo il vettore di norma 1, φ := f −g . kf − gk Per ψ ∈ S, il vettore g + kf − gkψ ∈ S e vale kψ − φk = 1 β kf − {g + kf − gkψ}k ≥ ≥ α. kf − gk kf − gk 32 Dim. di 6). Supponiamo che I sia compatta e che X non abbia dimensione finita. Sia ψ1 ∈ X con kψ1 k = 1. Chiamiamo S1 := span{ψ1 }. S1 è un sottospazio chiuso di X strettamente contenuto in X. Per il Lemma di Riesz, esiste ψ2 ∈ X tale che kψ2 k = 1 e kψ2 −ψ1 k ≥ 1/2. Sia S2 := span{ψ1 , ψ2 } ( X. Esiste quindi ψ3 ∈ X tale che kψ3 k = 1, kψ3 − ψ1 k ≥ 1/2 e kψ2 − ψ1 k ≥ 1/2. Poiché X ha dimensione infinita, questo procedimento non ha termine e si costruisce quindi una successione {ψn } ⊂ X tale che kψn k = 1 e kψm − ψn k ≥ 1/2 per ogni n, m con n 6= m. Abbiamo costruito una successione limitata che non ha sottosuccessioni convergenti. Questo è contrario all’ipotesi che I sia compatta. Viceversa, se X ha dimensione finita la tesi è conseguenza del punto 5). Conseguenza importante di 6): Se X ha dimensione infinita e K : X → Y è un operatore compatto iniettivo, allora l’inverso di K non è limitato. Dim. Se K −1 : K(X) → X fosse limitato, allora risulterebbe compatto l’operatore I : K −1 K : X → X e X dovrebbe aver dimensione finita, contrariamente all’ipotesi. Abbiamo appena visto che l’inverso di un operatore compatto non è limitato se lo spazio ha dimensione infinita. Vediamo invece un caso nel quale l’operatore inverso è limitato. Teorema dell’Applicazione Aperta. Siano X e Y spazi di Banach e sia T : X → Y un operatore lineare, continuo e suriettivo. Allora, esiste c > 0 tale che T ({x ∈ X : kxk < 1}) ⊃ {y ∈ Y : kyk < c}, (24) cioè T è una applicazione aperta. Corollario 4.4 Siano X e Y spazi di Banach e sia T : X → Y un operatore lineare, continuo e bijettivo da X su Y . Allora T −1 è continuo. Dimostrazione che il Teorema dell’applicazione aperta implica il corollario. Per un operatore bijettivo la condizione (24) si può leggere nel modo seguente: per ogni x ∈ X con kT xk < c, allora kxk < 1. Da questo segue che kxk ≤ 1 kT xk. c Sia, infatti, 0 < ξ < c, allora ξx T = ξ kT xk < c ⇒ ξx < 1, kT xk kT xk kT xk cioè kxk < 1ξ kT xk per ogni ξ < c da cui la tesi. Un risultato fondamentale riguardante gli operatori compatti è il seguente teorema 33 Alternativa di Fredholm. Sia X uno spazio di Hilbert, sia K : X → X un operatore compatto e sia K ∗ il suo aggiunto. Allora a) N (I − K) ha dimensione finita, b) R(I − K) è chiuso e R(I − K) = N (I − K ∗ )⊥ c) N (I − K) = {0} se e solo se R(I − K) = X d) dim(N (I − K)) = dim(N (I − K ∗ )). Osserviamo che la proprietà c) fa somigliare gli operatori compatti a operatori tra spazi a dimensione finita. 4.4 Teoria spettrale degli operatori compatti Limitiamoci al caso di operatori definiti su spazi di Hilbert. Definizione 4.5 Sia X uno spazio di Hilbert e sia T : X → X un operatore lineare. Si chiama risolvente di T l’insieme ρ(T ) = {λ ∈ R : T − λI ha inverso limitato su X}. Si chiama invece spettro di T il complementare del risolvente σ(T ) = C \ ρ(T ). Un elemento λ ∈ σ(t) è un autovalore se T − λI non è iniettivo. Se λ è un autovalore, gli elementi non nulli del nucleo N (T − λI) si dicono autovettori. Vale il seguente risultato: Teorema 4.6 Sia T : X → X un operatore lineare su uno spazio di Hilbert X. a) Se x1 , . . . , xn sono un insieme finito di autovettori , ognuno corrispondente ad un diverso autovalore, allora essi sono linearmente indipendenti. Se T è autoaggiunto tali autovettori sono a due a due ortogonali. b) Se T è autoaggiunto, kT k = sup < T x, x >= r(T ) = sup{λ : λ ∈ σ(T )}. kxk=1 In generale, per operatori non compatti, è possibile che T − λI sia iniettivo ma non suriettivo. Questo, grazie all’Alternativa di Fredholm, non succede per operatori compatti autoaggiunti (cioè tali che < Kx, x >=< x, Kx > per ogni x ∈ X) per i quali abbiamo una descrizione completa dello spettro. Teorema 4.7 Teorema spettrale per operatori compatti autoaggiunti. Sia X uno spazio di Hilbert e sia K : X → X un operatore compatto autoaggiunto. Allora: 34 a) σ(K) \ {0} è composto da soli autovalori. K ha almeno un autovalore e ne ha al più una infinità numerabile con 0 come unico possibile punto di accumulazione. b) Per ogni autovalore λ 6= 0 esiste un numero finito di autovettori linearmente indipendenti. Autovettori corrispondenti ad autovalori diversi sono ortogonali. c) Ordiniamo gli autovalori in modo che sia |λ1 | > |λ2 | > . . .. Se indichiamo con Pj la proiezione su N (K − λj ), si ha K= ∞ X λj Pj . j=1 d) Esiste una successione {xj }j∈J (con J finito o J = N) tale che xj è un autovettore per K, < xi , xj >= 0 se i 6= j e tale che per ogni x ∈ X esiste x0 ∈ N (K) tale che X x = x0 + < x, xj > xj j∈J e Kx = X λj < x, xj > xj . j∈J Se K è iniettivo, {xj : j ∈ J} è un sistema completo in X. Per la dimostrazione rimandiamo al libro di H. Brezis, Analisi Funzionale. Osserviamo soltanto che, per definire il sistema completo, definiamo una successione con valore assoluto non crescente costituita dagli autovalori di K, ognuno contato con la sua molteplicità. Per ogni autovalore scegliamo una base ortogonale dell’autospazio (che ha dimensione finita uguale alla molteplicità dell’autovalore). Osservazione 4.8 Se K non è iniettivo e X è separabile, si può completare {xj }j∈J con un sistema ortonormale completo per N (K) ottenendo un sistema ortomornale completo per X formato ancora da autovettori. In generale non si può concludere che N (K) ha dimensione finita. Vogliamo adesso introdurre la decomposizioni a valori singolari, che è l’analogo del Teorema spettrale per operatori compatti non autoaggiunti. Prima di farlo richiamiamo brevemente qualche proprietà dell’aggiunto di un operatore. Sia T : H1 → H2 un operatore lineare tra due spazi di Hilbert. Fissato u ∈ H2 , il funzionale lineare fu : H1 → R, definito da fu (v) =< u, T v > per v ∈ H1 è un funzionale lineare limitato su H1 , infatti |fu (v)| ≤ kukkT vk ≤ kukkT kkvk. 35 Per il teorema di rappresentazione di Riesz, esiste uno e un solo elemento di H1 , che indichiamo con T ∗ u, tale che < u, T v >= fu (v) =< T ∗ u, v > per ogni v ∈ H1 . L’applicazione T ∗ : H2 → H1 è lineare e limitata. Chiamiamo T ∗ l’operatore aggiunto di T . Utilizzeremo le seguenti proprietà: kT ∗ k = kT k, (T ∗ )∗ = T e T ∗ S ∗ = (ST )∗ . Esempio 4.3 Se H1 = Rn e H2 = Rm e T : Rn → Rm è rappresentato dalla matrice A = {aij } per i = 1 . . . , m, j = 1, . . . , n nel senso che T (x) = Ax, allora T ∗ : Rm → Rn è dato da T ∗ (y) = AT y. Esempio 4.4 Aggiunto di un operatore integrale. Sia k ∈ L2 ([0, 1]×[0, 1]) e sia K : L2 [0, 1] → L2 [0, 1] definito da Z 1 (Kf )(s) = k(s, t)f (t) dt. 0 Calcoliamo l’aggiunto di K utilizzando il Teorema di Fubini. Z 1 Z 1 k(s, t)f (t) dt g(s) ds < Kf, g > = 0 Z = 0 Z = 1 Z 0 1 k(s, t)f (t)g(s) dt ds Z 1 1 f (t) k(s, t)g(s) ds dt =< f, K ∗ g >, 0 0 0 dove K ∗ g(s) = 1 Z k(t, s)g(t) dt. 0 K ∗ è ancora un operatore integrale e corrisponde al nucleo k ∗ (s, t) = k(t, s). L’operatore K è autoaggiunto se k(t, s) = k(s, t) per ogni (s, t) ∈ [0, 1] × [0, 1]. Proposizione 4.9 Se K : H1 → H2 è compatto, allora anche K ∗ : H2 → H1 è compatto. Dim. Sia {φn }n∈N ⊂ H2 una successione limitata tale che kφn k ≤ c per ogni n ∈ N. Per la limitatezza di K ∗ , la successione {K ∗ φn }n∈N ⊂ H1 è ancora limitata. Poiché K è compatto, esiste una sottosuccessione {φnj }j∈N tale che {KK ∗ φnj }j∈N converge in H2 . Fissato comunque ε > 0, esiste un indice M > 0 tale che ε per j, l > M. kKK ∗ φnj − KK ∗ φnl k ≤ 2c Allora, prendendo j, l > M si ha, kK ∗ φnj − K ∗ φnl k2 = < K ∗ φnj − K ∗ φnl , K ∗ (φnj − φnl ) > = < KK ∗ φnj − KK ∗ φnl , φnj − φnl > ≤ kKK ∗ φnj − KK ∗ φnl kkφnj − φnl k ≤ 36 ε 2c = ε, 2c cioè K ∗ φnj è convergente in H2 e quindi K ∗ è compatto. Proposizione 4.10 Sia T : H1 → H2 un operatore lineare limitato tra due spazi di Hilbert. Valgono allora le seguenti identità: R(T ) = N (T ∗ )⊥ e R(T ∗ ) = N (T )⊥ H2 = R(T ) ⊕ N (T ∗ ) e H1 = R(T ∗ ) ⊕ N (T ). e, inoltre, 4.5 Decomposizioni a valori singolari Teorema 4.11 Sia K : H1 → H2 un operatore compatto tra spazi di Hilbert. Esistono un insieme di indici J (finito o J = N), una successione di numeri reali positivi {σj }j∈J e due sistemi ortonormali {ej }j∈J in H1 e {fj }j∈J in H2 , tali che 1. La successione {σj }j∈J è monotona non crescente e, se J = N, lim σj = 0. j→+∞ 2. Kej = σj fj e K ∗ fj = σj ej per j ∈ J. 3. Per ogni x ∈ H1 esiste x0 ∈ N (K) tale che X x = x0 + < x, ej > ej j∈J e Kx = X σj < x, ej > fj . (25) j∈J 4. Per ogni y ∈ H2 , K ∗y = X σj < y, fj > ej . j∈J Definizione 4.12 Sistema singolare I numeri σj vengono detti valori singolari di K e la famiglia {σj , ej , fj }j∈J è detta sistema singolare per K, mentre la formula (25) è detta decomposizione a valori singolari di K (SVD=Singular Value Decomposition). Osservazione 4.13 La soluzione di Kx = y con y ∈ R(K) si scrive X x = x0 + σj−1 < y, fj > ej , j∈J con x0 ∈ N (K). Dim. Consideriamo gli operatori K ∗ K : H1 → H2 e 37 KK ∗ : H2 → H1 che sono entrambi compatti e autoaggiunti. Mostriamo che se λ 6= 0 è un autovalore per K ∗ K, allora è positivo ed è anche un autovalore per KK ∗ con la stessa molteplicità. Sia λ 6= 0 e sia u tale che K ∗ Ku = λu. Calcoliamo λkuk2 =< λu, u >=< K ∗ Ku, u >=< Ku, Ku >= kKuk2 . Poiché u 6= 0, allora λ > 0. Inoltre K ∗ Ku = λu ⇒ KK ∗ (Ku) = λKu, cioè Ku ∈ N (KK ∗ − λI) da cui segue che λ è un autovalore per KK ∗ . Inoltre K(N (K ∗ K − λI)) ⊂ N (KK ∗ − λI) da cui segue che dim(N (K ∗ K − λI)) ≤ dim(N (KK ∗ − λI)). Scambiando i ruoli di K e K ∗ si ottiene la relazione opposta da cui si ha che dim(N (K ∗ K − λI)) = dim(N (KK ∗ − λI)). Per il teorema 4.7, possiamo definire una successione {λj }j∈J non crescente di autovalori di K ∗ K contati ognuno con la propria molteplicità, λ 1 ≥ λ2 ≥ λ 3 ≥ . . . > 0 dove J = N oppure J è un insieme finito. A questa successione corrisponde una successione {ej }j∈J di autovettori di K ∗ K che forma un sistema ortonormale completo per N (K ∗ K)⊥ . Osserviamo che N (K ∗ K) = N (K). Infatti, se x ∈ N (K ∗ K), K ∗ Kx = 0 e quindi 0 =< K ∗ Kx, x >=< Kx, Kx >= kKxk2 , cioè x ∈ N (K). Viceversa, ogni x ∈ N (K) appartiene sicuramente a N (K ∗ K). La successione {ej }j∈J ha quindi le seguenti proprietà: < ej , ei >= δij per ogni i, j, K ∗ Kej = λj ej e per ogni x ∈ H1 esiste x0 ∈ N (K ∗ K) = N (K) tale che X x = x0 + < x, ej > ej . j∈J Definiamo adesso per j ∈ J σj = p λj e 1 fj = p Kej ∈ H2 . λj 38 (26) Per ogni j ∈ J, fj è un autovettore di KK ∗ corrispondente all’autovalore λj , infatti 1 1 KK ∗ fj = p KK ∗ Kej = p K(λj ej ) = λj fj . λj λj Inoltre, {fj }j∈J è una successione ortonormale, infatti < ei , K ∗ Kej > λj < Kei , Kej > p p = =p < ej , ei >= δij . λ i λj λi λj λj λ i < fi , fj >= Dalla definizione (26) si ha anche che Kej = σj fj K ∗ fj = σj ej . e Rimane da provare la (25). Dal teorema 4.7 sappiamo che X K ∗ Kx = λj < x, ej > ej . j∈J Chiamiamo Qx := X σj < x, ej > fj QN x := e j∈J X σj < x, ej > fj . j∈J j≤N Il vettore Qx risulta ben definito perché la successione dei valori singolari è non crescente e quindi X σj2 < x, ej >2 ≤ σ12 kxk2 . j∈J N Per ogni N il vettore Q x appartiene a R(K). Calcoliamo 1/2 X X σj2 < x, ej >2 ≤ σN kxk, kQN x − Qxk = k σj < x, ej > fj k ≤ j∈J j≥N j∈J j≥N da cui segue che Qx = lim QN x ∈ R(K). N →+∞ Per la continuità dell’operatore aggiunto, K ∗ Qx = K ∗ lim QN x = lim K ∗ QN x N N X = lim K ∗ σj < x, ej > fj N = lim N j∈J j≤N X λj < x, ej > ej = K ∗ Kx, j∈J j≤N Abbiamo quindi: K ∗ (Qx − Kx) = 0, cioè Qx − Kx ∈ N (K ∗ ), ma anche Qx − Kx ∈ R(K) = N (K ∗ )⊥ da cui segue che Qx = Kx, cioè la (25). 39 Esempio 4.5 Sia K : L2 (0, 1) → L2 (0, 1) definito da Z s Kx(s) := x(t) dt, per t ∈ (0, 1). 0 L’aggiunto di K è 1 Z K ∗ y(s) := y(t) dt. s L’operatore K è compatto e K ∗ Kx(s) = Z 1 Z t x(τ ) dτ. 0 s λ 6= 0 è un autovalore di K ∗ K se esiste una funzione x non nulla tale che Z 1Z t x(τ ) dτ per s ∈ (0, 1) (27) λx(s) = s 0 Dalla (27) si vede che deve valere x(1) = 0. Derivando poi l’equazione (27) rispetto ad s si ha Z s λx0 (s) = − x(τ ) dτ 0 0 dalla quale segue che x (0) = 0. Derivando nuovamente rispetto ad s si ottiene infine l’equazione differenziale λx00 (s) = −x(s). In conclusione, λ 6= 0 è un autovalore per K ∗ K se esiste una soluzione non nulla di λx00 (s) + x(s) = 0 in (0, 1), x(1) = 0, x0 (0) = 0. Questo sistema ha soluzione non nulla se e solo se λ = I valori singolari di K sono quindi σj = 2 (2j − 1)π 4 (2j−1)2 π 2 per j = 1, 2, . . .. per j ∈ N. Ogni valore singolare ha molteplicità 1 e le corrispondenti autofunzioni sono ej (s) = mentre fj = 4.6 √ 2 cos (2j − 1)πs , 2 √ 1 (2j − 1)πs Kej = 2 sin . σj 2 Criterio di esistenza di Picard Il teorema seguente è un criterio per la risolubilità di equazioni lineari governate da un operatore compatto. Teorema di Picard. Sia K : H1 → H2 un operatore lineare compatto con sistema singolare {σj , ej , fj }. Dato y ∈ H2 le seguenti condizioni sono equivalenti: 40 (a) y ∈ R(K) (cioè Kx = y ha soluzione) P (b) y ∈ R(K) e j∈J σ12 | < y, fj > |2 < +∞. j Dim. (a) ⇒ (b). Sia y ∈ R(K) ⊂ R(K). Esiste x ∈ H1 tale che Kx = y. Dal teorema 4.11 si ha che X X x = x0 + < x, ej > ej e y = Kx = σj < x, ej > fj , j∈J j∈J da cui segue che < y, fj >= σj < x, ej > e, quindi, X σj−2 < y, fj >2 = j∈J X < x, ej >2 ≤ kxk2 < +∞. j∈J (b) ⇒ (a) È sufficiente considerare il caso J = N, infatti se J è un insieme finito, R(K) è chiuso. Definiamo la successione xn := n X σj−1 < y, fj > ej , per n ∈ N j=1 e facciamo vedere che xn converge, mostrando che è una successione di Cauchy. Sia m ≥ n, allora m X kxn − xm k2 = σj−2 < y, fj >2 → 0 per n, m → +∞, j=n+1 perchè la serie Osserviamo che 1 j∈J σj2 | P < y, fj > |2 converge. Chiamiamo x := limn xn . Kx = lim Kxn = lim n n n X < y, fj > fj = j=1 X < y, fj > fj , j∈J quindi kKxk ≤ kyk. Sia, adesso, z := y − D’altra parte, P j∈J < y, fj > fj . Per ipotesi, z ∈ (R(K)) = N (K ∗ )⊥ . < z, fj >= 0 per ogni j ∈ J e, quindi, K ∗z = X σj < z, fj > ej = 0 j∈J da cui segue che z ∈ N (K ∗ ) e quindi z = 0, cioè y = K(x) ∈ R(K). P j∈J < y, fj > fj = Osservazione 4.14 La decomposizione ai valori singolari mostra chiaramente la cattiva posizione di una equazione lineare governata da un operatore compatto. Infatti, se perturbiamo il dato y nell’equazione Kx = y aggiungendo il vettore δy = αfj , si ottiene una perturbazione della soluzione della forma δx = ασj−1 ej . Se J = N, il rapporto kδx k/kδy k può essere reso arbitrariamente grande, infatti kδx k/kδy k = σj−1 → +∞. 41 5 Informazioni a priori e stabilità Nella nostra notazione il problema inverso consiste nel risolvere in x l’equazione Kx = y nella quale K : X → Y è un operatore lineare tra spazi di Banach. Inoltre, in genere, siamo nelle condizioni di non conoscere esattamente il dato y, ma di conoscere una sua approssimazione y ε con ky ε − yk ≤ ε. Se K è un operatore invertibile con inverso limitato, possiamo calcolare xε = K −1 y ε commettendo un errore del tipo: kxε − xk = kK −1 y ε − K −1 yk ≤ kK −1 kε. Quindi, quando l’errore ε sui dati tende a zero, anche l’errore sulla soluzione tende a zero. Che cosa succede invece quando K non ha inverso limitato? Riprendiamo in considerazione il problema della derivazione di una funzione che corrisponde a risolvere l’equazione Z t x(s) ds = y(t) 0 cioè ad invertire l’operatore Z Kx(t) = t x(s) ds. 0 Supponiamo di cercare la soluzione x ≡ 0 dell’equazione Z t x(s) ds ≡ 0, 0 t ε. L’errore sul dato è ky ε − yk∞ ≤ ε, ma la e di aver misurato y (t) = ε sin soluzione che corrisponde a questo dato, cioè la funzione xε (t) = K −1 y ε (t) = cos εt , è lontana dalla soluzione nulla, infatti kxε − xk∞ = 1 e non tende a zero per ε → 0. Lo studio della stabilità di un problema consiste nell’aggiungere informazioni sullo spazio delle soluzioni per cercare di ripristinare la stabilità. Una motivazione per questa strategia è fornita dal ε Teorema di Tikhonov. Sia K : D(K) ⊂ X → Y un operatore iniettivo continuo e sia C ⊆ D(K) un insieme compatto in X. Allora, l’operatore inverso (K|C )−1 : K(C) → C è continuo. Dim. Sia {φn }n∈N una successione convergente in K(C) e sia φ = limn φn . Dobbiamo far vedere che {ψn }n∈N = {(K|C )−1 φn }n∈N ⊂ C converge in C a ψ = (K|C )−1 φ. Per farlo, è sufficiente dimostrare che ogni sottosuccessione di ψn ha una sottosuccessione convergente a ψ. Sia {ψnj }j una sottosuccessione di {ψn }n . Poiché C è compatto, {ψnj }j ha una sottosuccessione {ψnj k }k convergente a qualche ψ ∈ C. Ma K è un operatore continuo, quindi φ = lim φnj k = lim K(ψnj k ) = K(lim ψnj k ) = K(ψ). k k k 42 Dal momento che K è iniettivo, si ha ψ = ψ. In genere l’operatore che si vuole invertire non è suriettivo né iniettivo. Conviene allora riformulare il problema inverso in modo leggermente diverso. Supponiamo di cercare x̃ soluzione di K x̃ = y ma di conoscere una approssimazione y ε di y tale che ky ε − yk ≤ ε. Consideriamo l’insieme Sε = {x ∈ X : kKx − y ε k ≤ ε}. L’insieme Sε contiene la soluzione x̃ ed è definito anche se K non è né iniettivo né suriettivo. Il diametro di Sε è una stima dell’errore che si commette quando si approssima x̃ con un qualunque altro elemento di Sε . Se K è compatto e X non ha dimensione finita, diam(S) = +∞. Per ripristinare la stabilità aggiungiamo informazioni sulla soluzione, vale a dire restringiamo S a Sε0 = {x ∈ X : kKx − y ε k ≤ ε e x soddisfa condizioni aggiuntive}. A questo punto si devono prendere in considerazione due questioni: 1. Stima del diametro di Sε0 (studio della stabilità). 2. Esibizione di un elemento di Sε0 (ricostruzione). Per quanto riguarda le stime di stabilità vediamo un esempio generale. Definizione 5.1 Sia K : X → Y un operatore lineare limitato tra spazi di Banach, sia X1 un sottospazio di X e sia k · k1 una norma su X1 più forte della norma su X, nel senso che esiste c > 0 per cui kxk ≤ ckxk1 per ogni x ∈ X1 . Definiamo allora F(ε, E, k · k1 ) := sup{kxk : x ∈ X1 , kKxk ≤ ε e kxk1 ≤ E}. F(ε, E, k · k1 ) si dice errore nel caso peggiore. F(ε, E, k · k1 ) dipende dall’operatore K e dalle norme in X, Y e X1 . Nel caso ottimale di un operatore con inverso limitato, F(ε, E, k · k1 ) è dell’ordine di ε. Se K è un operatore compatto e k · k1 = k · k, sappiamo che F(ε, E, k · k1 ) non tende a zero per ε → 0 e si deve necessariamente scegliere su X1 una norma più forte. Osserviamo che F(ε, E, k · k1 ) stima il diametro dell’insieme Sε0 . Siano infatti x1 e x2 due elementi in Sε0 . Abbiamo kx1 − x2 k1 ≤ 2E e kKx1 − Kx2 k ≤ kKx1 − y ε k + kKx1 − y ε k ≤ 2ε e quindi kx1 − x2 k ≤ F(2ε, 2E, k · k1 ). Quando si riesce a dimostrare che, per ε → 0 l’errore nel caso peggiore F(ε, E, k · k1 ) tende a zero, diciamo che la condizione x̃ ∈ X1 e kx̃k1 ≤ E ripristina la stabilità per il problema inverso. 43 5.1 Ancora sull’esempio della derivazione Rt Fissiamo X = Y = L2 (0, 1) e Kx(t) = 0 x(s) ds. Prendiamo il sottospazio X1 = x ∈ H 1 (0, 1) : x(1) = 0 , nel quale definiamo la norma kxk1 := kx0 kL2 (0,1) . Mostriamo che questa norma è più forte della norma in X. Dal momento che ogni x ∈ X1 ha derivata debole in L2 (0, 1) ⊂ L1 (0, 1) e che x(1) = 0, possiamo scrivere Z 1 x(t) = − x0 (s) ds t e quindi 1 Z Z 0 |x(t)| ≤ |x (s)| ds ≤ 1 Z 0 Z kxkL2 = 1 |x(t)|2 dt 2 1/2 , 0 0 e 0 |x (s)| ds |x (s)| ds ≤ t 1 1/2 Z 1 ≤ 0 1/2 kx0 k2L2 dt = kx0 kL2 . 0 Sia x ∈ H 1 (0, 1) tale che kx0 kL2 ≤ E e kKxkL2 ≤ ε e calcoliamo, integrando per parti, Z t Z 1 Z 1 d x(s) ds dt kxk2L2 = (x(t))2 dt = x(t) dt 0 0 0 1 Z 1 Z t Z t = x0 (t) x(s) dsdt − x(t) x(s) ds 0 Z 0 0 0 1 0 0 x (t)Kx(t) dt ≤ kx kL2 kKxkL2 ≤ εE, = 0 cioè F(ε, E, k · k1 ) ≤ 5.2 √ εE. Un risulato generale di stabilità Il teorema che segue, permette di stimare l’errore nel caso peggiore per particolari sottospazi. Teorema 5.2 Siano H1 e H2 spazi di Hilbert e sia K : H1 → H2 un operatore lineare compatto e iniettivo con R(K) denso in H2 . a) Se X1 = K ∗ (H2 ) = R(K ∗ ) e kxk1 := k(K ∗ )−1 xkH2 , allora √ F(ε, E, k · k1 ) ≤ εE e la stima è asintoticamente stabile, cioè, per ogni E > 0 esiste una successione εj convergente a zero tale che p F(εj , E, k · k1 ) = εj E. 44 b) Se X2 = K ∗ K(H1 ) e kxk2 := k(K ∗ K)−1 xkH1 , allora F(ε, E, k · k2 ) ≤ ε2/3 E 1/3 e la stima è asintoticamente stabile, cioè, per ogni E > 0 esiste una successione εj convergente a zero tale che 2/3 F(εj , E, k · k1 ) = εj E 1/3 . Dim. Osserviamo che le norme nei due sottospazi sono ben definite perché K ⊥ è iniettivo e R(K) è denso. Con queste ipotesi N (K ∗ ) = R(K) = {0} e N (K ∗ K) = N (K) = {0}. Dimostriamo l’affermazione b). Sia x = K ∗ Kw con w ∈ H1 tale che kxk2 = kwk ≤ E e kKxk ≤ ε. Calcoliamo kxk2H1 =< x, x >=< K ∗ Kw, x >=< Kw, Kx >≤ kKwkε, e osserviamo che kKwk2 =< Kw, Kw >=< w, K ∗ Kw >=< w, x >≤ EkxkH1 e, quindi, kxk2H1 ≤ εE p kxkH1 ⇒ kxkH1 ≤ ε2/3 E 1/3 . Proviamo adesso che la stima è asintoticamente stabile. Sia {σj , ej , fj } un sistema singolare per K. Prendiamo x = Eσj2 ej = EK ∗ Kej ∈ X2 . Con questa scelta kxk2 = E e kKxkH2 = kEσj2 Kej k = kEσj3 fj k = Eσj3 . Prendendo εj = Eσj3 → 0 per j → ∞ si ha kxkH1 = Eσj2 = e ε 2/3 j E 2/3 = εj E 1/3 . La dimostrazione del caso a) è del tutto analoga. Vediamo cosa diventa questo risultato nel caso R t dell’operatore integrale: R1 Prendiamo K : L2 (0, 1) → L2 (0, 1), Kx(t) = o x(s) ds e K ∗ y(t) = t y(s) ds. R1 se x ∈ X1 = K ∗ (L2 ), allora x(t) = t z(s) ds per qualche z ∈ L2 . Vale quindi x(1) = 0 e x0 = −z(t) ∈ L2 , cioè x ∈ H 1 (0, 1) e kxk1 = kzkL2 = kx0 kL2 . Quindi il teorema descrive l’esempio della sezione precedente affermando che √ sup{kxk : kKxk ≤ ε, kx0 kL2 ≤ E, x(1) = 0} ≤ εE. R1Rs Per la seconda parte, invece, x ∈ X2 se x(t) = t 0 w(τ ) dτ ds da cui segue che x(1) = 0, x0 (0) = 0 e x00 (t) = −w(t) con kxk2 = kwkL2 , quindi sup{kxk : kKxk ≤ ε, kx00 kL2 ≤ E, x(1) = 0, x0 (0) = 0} ≤ ε2/3 E 1/3 . Osserviamo che la condizione x ∈ X1 e x ∈ X2 riguarda la soluzione. Nel caso del problema della derivazione possiamo rileggere il risultato nel modo seguente: è ben posto il problema della derivazione di una funzione di classe H 2 (0, 1)( o H 3 ) con derivata seconda (terza) limitata in norma L2 . 45 5.3 Stime di stabilità per l’equazione del calore all’indietro Riprendiamo in considerazione il problema della conduzione di calore in una sbarra di lunghezza π i cui estremi sono tenuti a temperatura costante. Il problema differenziale è il seguente: ut = uxx in (0, π) × (0, T ), u(0, t) = u(π, t) = 0 per t ∈ (0, T ). Abbiamo visto che la soluzione u al tempo t si può scrivere in funzione dei valori al tempo iniziale Z π ∞ 2 X −n2 t u(x, t) = e sin(nx) u(y, 0) sin(ny) dy, per 0 ≤ x ≤ π, 0 < t ≤ T. π n=1 0 Abbiamo osservato che calcolare la temperatura finale u(x, T ) conoscendo la temperatura iniziale u(x, 0) è un problema ben posto, mentre il problema all’indietro, cioè calcolare u(x, 0) conoscendo u(x, T ) è un problema mal posto. Vediamo una leggera variante di questo problema: siano X = Y = L2 (0, π), supponiamo di avere il dato u(x, T ) e di voler calcolare l’incognita u(x, τ ) per qualche τ ∈ (0, T ). Si tratta quindi di invertire l’operatore K : X → Y che ha come nucleo ∞ 2 X −n2 (T −τ ) e sin(nx) sin(ny). k(x, y) = π n=1 Ovviamente è ancora un problema mal posto, come si vede considerando soluzioni della forma 2 ũ(x, t) = em (τ −t) sin(mx). Infatti, r kdatok = kũ(·, T )kL2 = π −m2 (T −τ ) e →0 2 e per m → ∞, r π . 2 Cerchiamo le giuste informazioni aggiuntive che permettono di ripristinare la stabilità. Supponiamo di sapere che ksoluzionek = kũ(·, τ )kL2 = u(x, 0) ∈ L2 (0, 1) e ku(x, 0)kL2 ≤ E. (28) Osserviamo subito che la funzione ũ non soddisfa queste condizioni aggiun2 tive quando m diventa grande, infatti kũ(x, 0)kL2 = em τ . Sia u una soluzione che soddisfa le condizioni (28). Chiamiamo r Z π π u(y, 0) sin(ny)dy. an = 2 0 Con questa notazione u(y, 0) = ∞ X r an n=1 46 π sin(nx) 2 e la (28) diventa ∞ X (an )2 ≤ E 2 . (29) n=1 Supponiamo che il dato sia piccolo cioè che ku(x, T )k2L2 = ∞ X e−2n 2 T (an )2 ≤ ε2 (30) n=1 e stimiamo ku(x, τ )k2L2 = ∞ X 2 e−2n τ (an )2 . n=1 1 p T τ e p tale che + Siano q = disuguaglianza di Hölder si ha ∞ X 2 e−2n τ (an )2 = n=1 ∞ X 1 q = 1. Usando la versione discreta della 2 e−2n τ ((an )2 )1/q ((an )2 )1/p n=1 ≤ ∞ X !1/q −2n2 τ q e 2 (an ) n=1 = ∞ X ∞ X !1/p 2 (an ) n=1 !1/q −2n2 T e 2 (an ) n=1 ∞ X !1/p 2 (an ) ≤ ε2τ /T E 2(1−τ /T ) , n=1 cioè ku(x, τ )kL2 (0,π) ≤ ετ /T E 1−τ /T Osserviamo che la stima migliora se τ → T , mentre degenera per τ → 0. Nel linguaggio dell’errore nel caso peggiore possiamo scrivere X1 = {v(x) Z π ∞ 2 X −n2 τ e sin(nx) : v(x) = u0 (y) sin(ny) dy, π n=1 0 per qualche u0 ∈ L2 (0, π)} con kvk1 = ku0 kL2 e F(ε, E, k · k1 ) ≤ ετ /T E 1−τ /T . 6 Teoria generale della regolarizzazione Lo scopo dei metodi di regolarizzazione è quello di costruire, a partire dal dato misurato y ε , una soluzione xε che sia vicina alla soluzione reale x̃. L’ideale sarebbe costruire una funzione dello spazio Sε0 , ma ci accontenteremo di metodi che forniscano approssimazione comparabili con quelle del peggior errore, cioè tali che, per qualche costante positiva C, kx̃−xε k ≤ CF(2ε, 2E, k·k1 ). Iniziamo con un esempio introduttivo. 47 6.1 Approssimazione della derivata con il rapporto incrementale da un lato Come esempio introduttivo, vediamo il problema della derivazione numerica. Abbiamo visto che si può derivare con un processo stabile una funzione y ∈ H 2 (0, 1) con ky 00 kL2 ≤ E. Approssimiamo y 0 (t) con i rapporti incrementali da un lato. Analizziamo prima il caso senza errori. Fissiamo h ∈ (0, 1/2) e definiamo ( y(t+h)−y(t) t ∈ (0, 1/2), h v(t) = y(t)−y(t−h) t ∈ (1/2, 1). h Per valutare la differenza tra v e y 0 utilizziamo la Formula di Taylor. Sia y ∈ H n+1 (a, b) e siano t, t + h ∈ (a, b). Allora y(t + h) = n X y (k) (t) k! k=0 dove Rn (t, h) = 1 n! hk + Rn (t, h), t+h Z (t + h − s)n y (n+1) (s) ds. t Dim. della Formula di Taylor per n = 1. Se y ∈ H 2 , la sua derivata prima y ∈ H 1 ed è una funzione assolutamente continua e per τ, t ∈ (a, b) Z τ y 0 (τ ) − y 0 (t) = y 00 (s) ds, 0 t e Z y(t + h) − y(t) = t+h Z 0 t+h y (τ ) dτ = y (t) + t = y 0 (t)h + Z t+h = y 0 (t)h + Z t t+h Z t Z 0 τ 00 y (s) ds dτ t dτ y 00 (s) ds τ t+h (t + h − τ )y 00 (τ ) dτ t Utilizziamo la formula di Taylor con n = 1, in t, t + h e t − h. Z 0 y(t ± h) − y(t) = ±y (t)h + t±h (t ± h − τ )y 00 (τ ) dτ. t Per t ∈ (0, 1/2), v(t) − y 0 (t) = 1 h Z t+h (t + h − τ )y 00 (τ ) dτ = h 48 1 h Z t+h h τ y 00 (t + h − τ ) dτ. Calcoliamo h2 kv − y 0 k2L2 (0,1/2) = h2 Z 1/2 (v(t) − y 0 (t))2 dt 0 1/2 Z h Z = 0 h Z Z 0 h τ y (t + h − τ ) dτ "Z 1/2 h Z ≤ h 0 ky 00 k2L2 (0,1) ! 1/2 Z |y 00 (t + h − τ )|2 dt dτ ds sτ 0 sy 00 (t + h − s) ds # 0 0 0 Z 0 h y 00 (t + h − τ )y 00 (t + h − s) dt dτ ds sτ = ≤ Z 00 0 Z !2 h s ds = 0 h4 00 2 ky kL2 (0,1) . 4 con calcoli analoghi per t ∈ (1/2, 1) si ottiene infine, Eh kv − y 0 kL2 (0,1) ≤ √ 2 dalla quale si vede che se h tende a zero il rapporto incrementale v converge alla derivata. Vediamo adesso cosa succesde se si introduce un errore. Invece di y supponiamo di aver misurato y ε tale che ky − y ε kL2 (0,1) ≤ ε. Anziché v costruiamo l’approssimazione ( ε y (t+h)−y ε (t) t ∈ (0, 1/2), ε h v (t) = y ε (t)−y ε (t−h) t ∈ (1/2, 1). h Stimiamo Z 1/2 Z 1/2 1 2 ε 2 |v (t) − v(t)| dt ≤ 2 (|y ε (t + h) − y(t + h)| + |y ε (t) − y(t)|) dt h 0 0 ! Z 1/2 Z 1/2 2 ε 2 ε 2 ≤ 2 |y (t + h) − y(t + h)| dt + |y (t) − y(t)| dt h 0 0 2 ≤ 2 2ky ε − yk2L2 (0,1) h da cui √ 2 2ε . h L’errore che si commette approssimando con v ε la derivata di y è quindi √ 2 2ε Eh ε 0 ε 0 kv − y kL2 (0,1) ≤ kv − vkL2 + kv − y kL2 ≤ +√ . h 2 √ h è il parametro di discretizzazione. Il minimo dell’errore totale vale 2 2εE e pε si realizza scegliendo h = 2 E . kv ε − vkL2 (0,1) ≤ 49 6.2 Strategie di regolarizzazione L’idea di base della regolarizzazione è quella di costruire approssimazioni limitate dell’operatore K −1 : R(K) → Y . Definizione 6.1 Una strategia di regolarizzazione è una famiglia ad un parametro di operatori lineari e limitati Rα : Y → X, α > 0, tali che lim Rα Kx = x α→0 per ogni x ∈ X, cioè l’operatore Rα K converge puntualmente all’identità. Da questa definizione e per la compattezza dell’operatore K si ha che Teorema 6.2 Sia Rα una strategia di regolarizzazione per l’operatore compatto K : X → Y con dim(X) = +∞. Allora: 1. Gli operatori Rα non sono uniformemente limitati, cioè esiste una successione aj convergente a zero, tale che kRαj k → +∞ per j → +∞. 2. La successione {Rα Kx}α non converge uniformemente sui sottoinsiemi limitati di X, cioè Rα K non converge all’identità nella norma degli operatori. Dim. 1) Se esistesse C tale che kRα k ≤ C per ogni α, si avrebbe allora kRα yk ≤ Ckyk per ogni y ∈ K(X). Ma Rα y converge a K −1 y e quindi kK −1 yk ≤ Ckyk contrariamente al fatto che K è compatto e X non ha dimensione finita. 2) Per ogni α, Rα K è un operatore compatto. Se Rα K → I nella norma degli operatori, allora I : X → X è compatta con dimX = +∞ e questo è assurdo. La nozione di strategia di regolarizzazione è basata su dati esatti: Rα y converge ad x̃ se y = K x̃. Vediamo cosa succede se introduciamo un errore. Sia y = K x̃ il dato esatto e sia y ε ∈ Y il dato misurato con ky − y ε k ≤ ε. Definiamo xα,ε := Rα y ε e valutiamo l’errore che si compie approssimando x̃ con xα,ε : kxα,ε − x̃k ≤ kRα y ε − Rα yk + kRα y − xk ≤ kRα kky ε − yk + kRα K x̃ − x̃k ≤ εkRα k + kRα K x̃ − x̃k. Questa stima presenta una caratteristica fondamentale: l’errore è diviso in due parti. Il primo termine descrive quanto l’approssimazione Rα dell’inverso di K amplifica l’errore ε sul dato. Per il teorema precedente, al tendere di α a zero questo termine tende a +∞. Il secondo termine indica l’errore che si 50 commette approssimando l’identità con Rα K. Per definizione di strategia di regolarizzazione questo termine tende a zero quando α tende a zero. A questo punto è necessario scegliere α = α(ε) dipendente da ε in modo da rendere l’errore più piccolo possibile. L’ideale sarebbe minimizzare la somma εkRα k + kRα K x̃ − x̃k, ma questo, in genere, non è possibile con le informazioni a disposizione. Introduciamo le seguenti definizioni: Definizione 6.3 Una strategia di regolarizzazione α = α(ε) si dice ammissibile se α(ε) → 0 e sup{kRα(ε) y ε − xk : kKx − y ε k ≤ ε} → 0 per ogni x ∈ X. Definizione 6.4 Una strategia di regolarizzazione α = α(ε) si dice ottimale se è ammissibile e per x ∈ X1 , kxk1 ≤ E e kKx − y ε k ≤ ε si ha, per qualche costante positiva C kRα(ε) y ε − xk ≤ CF(2ε, 2E, k · k1 ). Riprendiamo l’esempio del paragrafo 6.1 e chiamiamo ( y(t+h)−y(t) t ∈ (0, 1/2), h Rh (t) = y(t)−y(t−h) t ∈ (1/2, 1). h Verifichiamo che Rh è una strategia di regolarizzazione. • Per ogni h l’operatore Rh : L2 → L2 è limitato. h2 Z 1 2 (Rh y(t)) dt Z 1/2 (y(t + h) − y(t))2 dt + = 0 0 Z 1 (y(t) − y(t − h))2 dt 1/2 Z ≤ 2 1/2 2 2 Z 2 2 y (t) + y (t − h)dt y (t + h) + y (t)dt + 0 ! 1 1/2 ≤ 6kyk2L2 (0,1) , cioè √ kRh k ≤ 6 . h • Mostriamo poi che Rh Kx → x per ogni x ∈ L2 (0, 1). Dal paragrafo 6.1 sappiamo che h kRh Kx − xkL2 ≤ √ kx0 kL2 2 per ogni x ∈ H 1 (0, 1), cioè sappiamo che Rh K − I converge puntualmente a zero su un sottoinsieme denso di L2 . Per dimostrare che converge puntualmente su tutto lo spazio, utilizziamo il seguente risultato, conseguenza del Teorema di Banach-Steinhaus. Proposizione 6.5 Sia An una successione di operatori lineari limitati da X spazio di Banach in Y spazio normato e sia D ⊂ X un sottoinsieme densi in X. Sono allora equivalenti: 51 (a) An x → 0 per n → +∞ e per ogni x ∈ X. (b) supn kAn k < +∞ e An x → 0 per n → +∞ e per ogni x ∈ D. Rimane quindi soltanto da dimostrare che gli operatori Rh K sono equilimitati. Per t ∈ (0, 1/2), usando la disuguaglianza di Hölder, Z 1Z h 1 t+h x(s) ds = |x(t + s)| ds |Rh Kx(t)| = h 0 h t !1/2 Z h 1 2 ≤ √ x (t + s) ds h 0 e Z 1/2 2 |Rh Kx(t)| dt ≤ 0 ≤ 1 h Z 1 h Z 1/2 Z 0 h 0 Z h x2 (t + s) ds dt 0 1/2 x2 (t + s) dt ds ≤ kxk2L2 (0,1) , 0 da cui kRh KxkL2 (0,1) ≤ √ cioè kRh Kk ≤ 2kxkL2 (0,1) , √ 2. Osserviamo che se y ∈ H 2 (0, 1) e ky 00 kL2 ≤ E, e se ky − y ε kL2 ≤ ε, allora √ 6 h ε 0 kRh y − y k ≤ ε+ √ E h 2 pε e la scelta h(ε) = E risulta ottimale. 6.3 Filtri regolarizzanti Dal teorema di Picard abbiamo visto che la soluzione x dell’equazione Kx = y è data da ∞ X 1 x= < y, fj > ej σ j=1 j se y ∈ R(K), cioè se questa serie converge. L’idea dei filtri regolarizzanti consiste nel costruire una regolarizzazione limitando l’influenza del fattore 1/σj soprattutto quando σj diventa piccolo. Teorema 6.6 Sia K : X → Y un operatore lineare compatto e iniettivo tra spazi di Hilbert e sia {σj , ej , fj }j∈J un sistema singolare per K. Sia q : (0, +∞)× (0, kKk] → R un filtro regolarizzante per K, cioè una funzione con le seguenti proprietà: 52 (1) |q(α, σ)| ≤ 1 per ogni α > 0 e 0 < σ ≤ kKk. (2) Per ogni α > 0 esiste c(α) tale che |q(α, σ)| ≤ c(α)σ 0 < σ ≤ kKk. per ogni (3a) lim q(α, σ) = 1 α→0 0 < σ ≤ kKk. per ogni Allora, l’operatore Rα : Y → X definito per α > 0 da X q(α, σj ) Rα y = σj j∈J < y, fj > ej è una strategia di regolarizzazione con kRα k ≤ c(α). Una strategia α = α(ε) è ammissibile se, per ε → 0, si ha α(ε) → 0 e εc(α(ε)) → 0. Dim. Consideriamo il caso J = N. Il caso in cui J è finito è più semplice. Calcoliamo 2 kRα yk = ∞ X |q(α, σj )|2 σj2 j=1 2 2 < y, fj > ≤ c(α) ∞ X < y, fj >2 ≤ c(α)2 kyk2 , j=1 da cui kRα k ≤ c(α). Sia x un elemento fissato in X. Dal momento che K è iniettivo x= ∞ X < x, ej > ej e Kx = j=1 ∞ X σj < x, ej > fj , j=1 quindi kRα Kx − xk2 = ∞ X [q(α, σj ) − 1]2 < x, ej >2 . j=1 Fissiamo ε > 0. Esiste N = N (ε) tale che ∞ X < x, ej >2 ≤ j=N +1 ε2 . 8 Inoltre, esiste α0 = α(ε, N (ε)) tale che, per 0 < α < α0 , [q(α, σj ) − 1]2 ≤ ε2 2kxk2 per j = 1, 2, . . . , N (ε). Allora, 2 kRα Kx − xk = N X 2 2 [q(α, σj ) − 1] < x, ej > + j=1 ≤ ∞ X j=N +1 ε2 ε2 2 kxk + 4 = ε2 . 2kxk2 8 53 [q(α, σj ) − 1]2 < x, ej >2 Inoltre, se kKx − y ε k ≤ ε, allora kRα y ε − xk ≤ εc(α) + kRα Kx − xk e, siccome kRα Kx − xk → 0 se α → 0, è sufficiente scegliere α(ε) in modo che, per ε che tende a zero, sia α(ε) che εc(α(ε) tendano a zero. Le ipotesi (1), (2) e (3a) sono sufficienti per garantire che Rα è una strategia di regolarizzazione. Se specifichiamo ulteriormente il modo in cui q(α, σ) tende ad 1 quando α → 0, si può stimare meglio la convergenza del metodo di regolarizzazione. Teorema 6.7 Supponiamo che K soddisfi tutte le ipotesi del teorema 6.6 e che R(K) sia denso in Y . Supponiamo che q soddisfi le condizioni (1) e (2). (i) se vale inoltre (3b) esiste una costante c1 > 0 tale che √ c1 α per α > 0, 0 < σ ≤ kKk, |q(α, σ) − 1| ≤ σ e se x ∈ K ∗ (Y ), allora √ kRα Kx − xk ≤ c1 αk(K ∗ )−1 xk. (ii) se invece (3c) esiste una costante c2 > 0 tale che |q(α, σ) − 1| ≤ c2 α σ2 per α > 0, 0 < σ ≤ kKk, e se x ∈ K ∗ K(X), allora kRα Kx − xk ≤ c2 αk(K ∗ K)−1 xk. Vediamo qualche esempio di filtro regolarizzante. Esempio 6.1 La funzione q(α, σ) = σ2 α + σ2 soddisfa le ipotesi (1), (2) con c(α) = 2√1 α , (3a), (3b) con c1 = 1/2 e (3c) con c2 = 1. Per x ∈ K ∗ (Y ) si ha una strategia ottimale per α = ε/E Esempio 6.2 Fissato a ∈ (0, 1/kKk2 ), la funzione q(α, σ) = 1 − (1 − aσ 2 )1/α √ p soddisfa le ipotesi (1), (2) con c(α) = αa , (3a), (3b) con c1 = 1/ 2a e (3c) con c2 = 1/a. 54 Esempio 6.3 La funzione q(α, σ) = σ 2 ≥ α, σ 2 < α, 1 se 0 se soddisfa le ipotesi (1), (2) con c(α) = √1α , (3a), (3b) con c1 = 1 e (3c) con c2 = 1. La regolarizzazione che si ottiene usando questo filtro si chiama troncamento della decomposizione a valori singolari, infatti in questo caso Rα y = X 1 < y, fj > ej . σj σj ≥α Anche questo filtro conduce a strategie di regolarizzazione ottimali. 6.4 Regolarizzazione secondo Tikhonov Quando si ha un sistema lineare finito sovradeterminato della forma Kx = y un metodo comune per affrontarlo è quello di cercare di minimizzare lo scarto quadratico kKx − yk2 al variare di x in X. Se X ha dimensione infinita e K è un operatore compatto, si può impostare la stessa strategia, ma il problema di minimo che si ottiene risulta ancora mal posto. Lemma 6.8 Sia K : X → Y un operatore lineare limitato tra spazi di Hilbert e sia y ∈ Y . Esiste x̂ ∈ X tale che kK x̂ − yk ≤ kKx − yk per ogni x∈X se e solo se x̂ risolve l’equazione normale K ∗ K x̂ = Ky. Minimizzare lo scarto equivale quindi a risolvere l’equazione normale che è una equazione di prima specie. Se K è compatto, K ∗ K è ancora compatto e risolvere l’equazione normale è un problema mal posto. Dim. Con qualche passaggio, si dimostra che kKx − yk2 − kK x̂ − yk2 = kKx − K x̂k2 + 2 < x − x̂, K ∗ K x̂ − K ∗ y > . Se x̂ risolve l’equazione K ∗ K x̂ = K ∗ y, allora kKx − yk2 ≥ kK x̂ − yk2 e x̂ è un punto di minimo. 55 D’altra parte, se x̂ è un punto di minimo, per ogni t > 0 e z ∈ X si ha 0 ≤ kK(x̂ + tz) − yk2 − kK x̂ − yk2 = t2 kKzk2 − 2t < z, K ∗ K x̂ − K ∗ y >, da cui segue che < z, K ∗ K x̂ − K ∗ y >= 0 per ogni z ∈ X cioè K ∗ K x̂ − K ∗ y = 0. Occorre quindi modificare il problema di minimo. Dato K : X → Y operatore lineare limitato, y ∈ Y e α > 0, determinare xα ∈ X che minimizza il funzionale di Tikhonov Jα (x) := kKx − yk2 + αkxk2 Teorema 6.9 Il funzionale di Tikhonov Jα ha un unico minimo xα ∈ X. Tale minimo è soluzione dell’equazione normale αxα + K ∗ Kxα = K ∗ y. Dim. Sia xn una successione minimizzante per Jα , cioè tale che lim Jα (xn ) = I := inf Jα (x). n→∞ x∈X Facciamo vedere che {xn } è una successione di Cauchy. = 1 ka − bk2 si mostra che Usando la relazione kak2 + kbk2 − 2 a+b 2 2 1 1 α Jα (xn ) + Jα (xm ) − 2Jα ( (xn + xm )) = kKxn − Kxm k2 + kxn − xm k2 2 2 2 e quindi α kxn − xm k2 ≤ Jα (xn ) + Jα (xm ) − 2I → 0 2 quando n, m → ∞. Chiamiamo xα il limite della successione xn . Per la continuità dell’operatore di Tikhonov, Jα (xα ) = Jα (lim xn ) = lim Jα (xn ) = I. n n Mostriamo adesso che xα risolve l’equazione normale. Si può procedere come nella dimostrazione del lemma, oppure si può osservare che, se xα è un punto di minimo per Jα , allora d Jα (xα + t)|t=0 = 0. dt (31) Calcoliamo allora d Jα (xα + t) dt = = d kK(xα + tz) − yk2 + αkxα + tzk2 dt 2tkKzk2 + 2 < Kz, Kxα − y > +2αtkzk2 + 2α < z, xα >, per cui la (31) diventa < z, K ∗ Kxα − K ∗ y + αxα >= 0 56 per ogni z ∈ X. Rimane da dimostrare che la soluzione è unica. Supponiamo che esista un altro punto di minimo x̂ che sarà ancora soluzione dell’equazione normale. Consideriamo v = xα − x̂ che risulta soluzione di αv + K ∗ Kv = 0. Ma K ∗ K è un operatore compatto autoaggiunto con autovalori tutti positivi (i suoi autovalori sono i quadrati dei valori singolari di K), quindi per α > 0 l’unica soluzione di αv + K ∗ Kv = 0 è quella identicamente nulla. Dato y ∈ Y definiamo allora Rα y := xα unico punto di minimo di Jα su X. Vogliamo dimostrare che Rα , che si dice regolarizzazione secondo Tikhonov è una strategia di regolarizzazione. Per farlo, usiamo la decomposizione a valori singolari. Vogliamo risolvere l’equazione normale. Scriviamo X xj ej , xα = x0 + j∈J dove x0 ∈ N (K). Allora, K ∗ Kxα = X σj2 xj ej j∈J e l’equazione diventa X X X α x0 + xj ej + K ∗ Kxα = σj2 xj ej = σj < y, f j > ej j∈J j∈J dalla quale segue che x0 = 0 e xj = Rα y = X j∈J σj α+σj2 j∈J < y, fj >, cioè σj < y, fj > ej α + σj2 che corrisponde alla regolarizzazione mediante il filtro dell’esempio 6.1. Utilizzando quindi il risultato sui filtri regolarizzanti possiamo affermare che Teorema 6.10 Sia K : X → Y un operatore lineare compatto tra spazi di Hilbert e sia α > 0. L’operatore αI + K ∗ K è invertibile con inverso limitato. Gli operatori Rα = (αI + K ∗ K)−1 K ∗ : Y → X formano una strategia di regolarizzazione con kRα k ≤ 2√1 α che viene detta metodo di regolarizzazione di Tikhonov. Rα y ε si determina come l’ unica soluzione xα,ε dell’equazione del secondo tipo αxα,ε + K ∗ Kxα,ε = K ∗ y ε . Ogni scelta α(ε) → 0 per ε → 0 con ε2 α(ε) 57 → 0 è ammissibile. Osservazioni. • αI + K ∗ K ha autovalori maggiori di α e quindi lontani da zero. • La scelta di α ammissibile nel teorema precedente è fatta a priori, cioè prima di calcolare il punto di minimo xα . Questa scelta è la migliore dal punto di vista teorico per studiare il comportamento asintotico dell’errore. Esistono metodi a posteriori nei quali la scelta delparametro di regolarizzazione viene effettuata contestualmente al calcolo del punto di minimo (ad esempio il metodo di discrepanza di Morozov ). • È possibile penalizzare il funzionale dei minimi quadrati con norme più forti. Ad esempio si può minimizzare kKx − yk2 + αkxk21 su X1 . Esercizio 6.1 Si applichi il metodo di regolarizzazione di Tikhonov all’operatore K : L2 (0, 1) → L2 (0, 1), mostrando che, per y ∈ H 1 (0, 1) con y(0) = 0, il punto di minimo del funzionale di Tikhonov è la soluzione del problema differenziale αx00 (t) − x(t) = −y 0 (t) in (0, 1) x0 (0) = 0 x(1) = 0. Applicare questo risultato nel caso y(t) = 58 1 n sin πnt 2 .