(Lemma) di Farkas-Minkowski - Università degli studi di Pavia
Transcript
(Lemma) di Farkas-Minkowski - Università degli studi di Pavia
Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski (∗) GIORGIO GIORGI UNIVERSITÀ DI PAVIA – FACOLTÀ DI ECONOMIA SUNTO. Il teorema (o lemma) di Farkas (o di Farkas-Minkowski) è forse il più noto ed il più utilizzato teorema dell’alternativa per sistemi lineari. Anche a causa dei diversi contesti ove tale risultato è introdotto (programmazione lineare e non, teoria dei sistemi di disequazioni lineari, modelli economici multisettoriali, teoria dei giochi ecc.), le relative motivazioni ed i relativi metodi di dimostrazione possono variare ampiamente. Spesso le dimostrazioni disponibili sono incomplete ed insoddisfacenti, in quanto viene dato per scontato che un cono (convesso) poliedrico è chiuso. Scopo del presente lavoro è di offrire una rassegna, non esaustiva, dei principali approcci alla dimostrazione di tale fondamentale risultato. Qualche nuova considerazione viene presentata. 1. Introduzione Il teorema (o lemma) di Farkas o di Farkas-Minkowski è forse il più noto teorema dell’alternativa per sistemi lineari. Ha di conseguenza dato origine ad una vasta letteratura concernente la relativa dimostrazione e soprattutto per quel che riguarda le applicazioni. Inoltre si dimostra (cfr. [15, 24, 28]) che da tale risultato è possibile ottenere, direttamente o indirettamente, tutti gli altri teoremi dell’alternativa per sistemi lineari. Il teorema di Farkas-Minkowski può essere descritto nella seguente versione. • Per ogni assegnata matrice A di ordine (m, n) e ogni assegnato vettore b ∈ Rm uno ed uno solo dei seguenti sistemi lineari ammette soluzione: S: Ax = b, x > [0] S*: yA > [0], yb < 0. Facciamo notare che l’enunciato del teorema è equivalente anche al seguente: • Il sistema Ax = b, x > [0] ammette soluzione se e solo se yA > [0] ⇒ yb > 0. (∗) Presentato al XXX Convegno A.M.A.S.E.S., Trieste 4 – 7 settembre 2006 2 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski Ovviamente il sistema duale S* può essere riscritto nella forma equivalente S*: yA < [0], yb > 0 e quindi è possibile enunciare che il sistema Ax = b, x > [0] ammette soluzione se e solo yA < [0], ⇒ yb < 0. Nonostante la “popolarità” di tale teorema “centenario”, le relative dimostrazioni sono spesso carenti (si veda, in proposito, [25]). Usualmente il teorema di Farkas-Minkowski viene infatti dimostrato utilizzando un classico teorema di separazione tra insiemi convessi chiusi. In tale tipo di dimostrazione viene spesso data come scontata la chiusura del cono Z = {z | Ax = z, x > [0]}. Si vedano, ad es., i lavori [3, 6, 39, 40, 49], nei quali forse non ci si rende conto che l’ottenimento della chiusura di Z è di fatto equivalente all’ottenimento della tesi del teorema di Farkas-Minkowski. Il presente lavoro è, in un certo senso, una prosecuzione del lavoro [25]. Si presenteranno innanzitutto tre dimostrazioni, non troppo complicate, che Z (cono poliedrico convesso) è insieme chiuso e si farà poi una rassegna (non esaustiva!) delle possibili dimostrazioni del teorema di FarkasMinkowski, nelle quali si evita di utilizzare il fatto che Z sia insieme chiuso. 2. Dimostrazioni che un cono poliedrico convesso (cono finito) è insieme chiuso Alcune dimostrazioni disponibili in letteratura (cfr. [11, 17, 30, 31, 42] sono piuttosto lunghe e anche complesse; altre sono stringate ma sottintendono concetti e ragionamenti non sempre elementari. Proponiamo tre dimostrazioni che costituiscono una sorta di “via di mezzo”. La prima è la più lunga ma è alquanto elementaare e sfrutta sostanzialmente un risultato di Caratheodory. La seconda è per ricorrenza e la terza si appoggia sulla decomposizione di un sottospazio lineare. I) Se M = [b1, ..., bq} è un insieme finito non vuoto di punti dello spazio Rn, allora l’insieme cone M = {x ∈ Rn : ∃v ∈ R q+ , x = v1b1 + ... + vqbq} si chiama inviluppo conico dell’insieme M o cono finito generato da M o cono poliedrico convesso generato da M. Distinguiamo ora due casi: a) L’insieme M è costituito da vettori linearmente indipendenti. Conformemente ad un risultato conosciuto nella teoria degli spazi lineari, esiste allora una base {x1, ..., xn} per lo spazio Rn in modo tale che M ⊆ {x1, ..., xn}. Sia I0 l’insieme di quegli indici i ∈ {1, ..., n} per i quali xi ∉ M. L’applicazione f: Rn → Rn definita da f (v) = v1x1 + ... + vnxn per ogni v = ( v1, ..., vn) ∈ Rn è un isomorfismo, poiché trasforma l’insieme K = {v ∈ R n+ : ∀ i ∈ I0, vi = 0} in cone M. Poiché K è insieme Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 3 chiuso e f –1 è un’applicazione continua, risulta che l’insieme (f –1)–1 (K) è chiuso. Ma (f –1)–1 (K) coincide con f (K), cioè con cone M. Di conseguenza cone M è un insieme chiuso. b) L’insieme M è costituito da vettori linearmente dipendenti. Se M = {[0]}, allora cone M = {[0]}, che è evidentemente un insieme chiuso. Supponiamo quindi M ≠ {[0]}. Denotiamo con b1, ..., bq gli elementi dell’insieme M, mentre con L la totalità dei sottoinsiemi linearmente indipendenti (non vuoti) formati da M. Evidentemente L è un insieme finito non vuoto. Conformemente al caso precedente, l’inviluppo conico di ciascun insieme L di L è chiuso. Poiché l’unione di un numero finito di insiemi chiusi è chiusa, risulta che l’insieme M0 = ∪ cone L L∈L è a sua volta chiuso. Dimostriamo ora che cone M = M0, di modo che la dimostrazione della chiusura di cone M è completa. Dato che l’inclusione cone L ⊆ cone M è verificata per ogni L ∈ L, abbiamo M0 ⊆ cone M. Resta quindi da dimostrare l’inclusione opposta cone M ⊆ M0. A tale scopo consideriamo un punto qualsiasi x di cone M. Se x = [0] allora evidentemente x ∈ M0. Se x ≠ [0], allora si può rappresentare sotto la forma x = ∑ vi b i , (1) i∈I ove I è un sottoinsieme non vuoto dell’insieme {1, ..., 9}, e vi, i ∈ I, sono numeri reali positivi. Se l’insieme {bi, i ∈ I}, che interviene in questa rappresentazione del vettore x, è linearmente indipendente, allora la relazione (1) implica x ∈ cone { bi, i ∈ I} ⊆ M0. In caso contrario esiste un sistema di numeri reali ai, i ∈ I, non tutti nulli, tali per cui (2) ∑ ai b i = [0]. i∈I Senza perdita di generalità, possiamo supporre che almeno uno dei numeri ai, i ∈ I, sia positivo. Scegliendo il numero a = min {vi | ai : i ∈ I, ai > 0} e ponendo wi = vi – aai per ogni i ∈ I, si constata che tutti i numeri wi, i ∈ I, sono positivi e almeno uno di essi è nullo. Poiché in base alle relazioni (1) e (2) è verificata l’uguaglianza x = x − a[0] = ∑ wi b i , (3) i∈I risulta che i numeri wi, i ∈ I, non possono essere tutti nulli. L’insieme I = {i ∈ I : wi > 0} è quindi non vuoto e soddisfa la disuguaglianza card I < card I, mentre x si scrive nel seguente modo: x= ∑ wi b i . j∈I 4 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski Se l’insieme {bi, j ∈ I} che interviene in questa uguaglianza è linearmente indipendente, allora abbiamo x ∈ cone { bi, j ∈ I } ⊆ M0. Se tale insieme è linearmente dipendente, ripetiamo il ragionamento fatto precedentemente, partendo questa volta dalla nuova rappresentazione di x, nella quale interviene un numero più piccolo di termini che nella rappresentazione (1). Continuando questa procedura di riduzione dei termini nella rappresentazione di x, otteniamo, dopo un numero finito di passi, una rappresentazione di x sotto forma di una combinaizone lineare con coefficienti positivi di vettori linearmente indipendenti di M. Quindi x ∈ M0. II) Dimostriamo per induzione che l’insieme (cono poliedrico convesso) Z = {z : z = Ax, x > [0]} è chiuso. Un cono generato da un singolo vettore è ovviamente chiuso (è una semiretta). Supponiamo che il teorema sia vero per un cono generato da k – 1 vettori generatori e consideriamo un cono Z generato da k vettori A1, A2, ..., Ak, Aj indicando la j-esima colonna della matrice A. Due casi possono sorgere. Nel primo caso i vettori – A1, – A2, ..., – Ak sono in Z. In questo caso Z coincide con – Z ed è quindi uno spazio lineare, che è perciò un insieme chiuso. Nel secondo caso, uno almeno dei vettori – A1, – A2, ..., – Ak non appartiene a Z, ad esempio sia – Ak ∉ Z. Ogni z ∈ Z può essere rappresentato come z = z + α Ak, α > 0, ove z ∈ Z . Consideriamo una successione {zn} convergente a z. Per quanto detto, z n = z n + α n A k , αn > 0, per ogni n. Se la successione {αn} è limitata, possiamo assumere, senza perdita di generalità, che lim α n = α , è di conseguenza n →∞ z − αA k = lim ( z n − α n A k ) = lim z n ≡ z ∈ Z , n →∞ n →∞ poiché Z è chiuso. Perciò z = z + αA k ∈ Z . Quindi se la successione {αn} è limitata, l’insieme Z è chiuso. Assumiamo ora che lim α n = +∞. Allora n →∞ {αn}–1 zn = {αn}–1 z n + A k . Poiché lim (α n ) −1 z n = [0], abbiamo z ≡ lim (α n ) −1 z n = − A k . Tuttavia, poiché n →∞ n →∞ Z è chiuso, abbiamo z ∈ Z e di conseguenza − A k ∈ Z , il che è una contraddizione. III) Sia Z = {z ∈ Rm | Ax = z, x > [0]}, ossia, ponendo x = λ ed evidenziando così z come combinazione lineare, con pesi non negativi, delle colonne di A, n Z = {z ∈ Rm | z = ∑ λ i Ai , i =1 λ i ≥ 0} , Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 5 con A1, ..., An ≠ [0]. Sia poi {zk} ⊆ Z una successione con zk → z0 ≠ [0]. Dobbiamo dimostrare che anche z0 ∈ Z. Nel caso in cui è Z ∩ (– Z) = {[0]} (il che significa che [0] ∉ conv {A1, ..., An}), abbiamo n n i =1 i =1 z k = ∑ λ ik Ai = λ k ∑ ove λ n k = ∑ λ i =1 λ ik i A = λ k An , λi > 0 (per k sufficientemente grande) e ik λ ik i A ∈ conv{ A1 ,..., A n }. λ i =1 k n Ak = ∑ Poiché [0] ∉ conv{ A1 ,..., A n } e a causa della compattezza di tale insieme, { A k } è inferiormente limitato da un numero positivo; quindi {λ k } è inferiormente limitato. Esistono perciò sottosuccessioni convergenti di {A k } e di {λ k } che convergono a A 0 ∈ conv{ A1 ,..., A n } ed a λ0 > 0 rispettivamente, ossia è z 0 = λ 0 a 0 ∈ cone{ A1 ,..., A n } = Z . Nel caso cui è Z ∩ (– Z) = L, con L sottospazio lineare di Rm, usiamo la decomposizione unica Ai = bi + ci, con bi ∈ L e ci ∈ L⊥ (complemento ortogonale L), di modo che Z è dato dalla somma diretta n ⎧ Z = ⎨ z ∈ R m z =∑ λ i b i , ⎩ i =1 n ⎫ ⎧ λ i ≥0⎬ + ⎨ z ∈ R m z = ∑ λ i c i , ⎭ ⎩ i =1 ⎫ λ i ≥ 0 ⎬ = L + Z1 . ⎭ Poiché Z1 ∩ (– Z1) = {[0]}, otteniamo la chiusura di Z1, in base a quanto precedentemente dimostrato. Anche L è chiuso, in quanto spazio lineare. Quindi Z è chiuso in quanto somma diretta di L e Z1. (In effetti, sia {zk} ={bk + ck} ⊆ L + Z1, convergente a z0 = b0 + c0 ∈ L + L⊥. Allora zk – z0 = (bk – b0) + (ck – c0) tende a [0]. 2 La moltiplicazione per (bk – b0) porta a b k – b 0 → 0 , la moltiplicazione per (ck – c0) porta a c k – c 0 2 → 0. Quindi è z0 = b0 + c0 ∈ L + Z1 = Z). 2. Le molte dimostrazioni del teorema di Farkas-Minkowski che non utilizzano il teorema di separazione tra insiemi convessi e chiusi Elenchiamo qui di seguito una serie di osservazioni (alcune non ancora considerate in letteratura, almeno per quanto ci consta) sulle varie procedure che si possono adottare per ottenere il teorema di Farkas-Minkowski, evitando di dimostrare preventivamente che un cono poliedrico convesso (cono finito) è un insieme chiuso. Alcune osservazioni sono già state fatte nei lavori [23, 24, 25, 26, 27]. 6 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 1. Dimostrazioni geometriche Hanno lo svantaggio di non essere generali (sono condotte in R2) e di appoggiarsi un po’ troppo su evidenze visive ed intuizioni. Una buona dimostrazione “intuitiva” è contenuta nell’appendice del celebre libro di Dorfman, Samuelson e Solow “Linear Programming and Economic Analysis [16]. 2. Dimostrazione che utilizza il teorema di dualità della Programmazione Lineare È una dimostrazione elementare e veloce, a patto di dare come acquisito il teorema di dualità della P.L., teorema che quasi sempre viene ottenuto tramite le condizioni di Kuhn-Tucker, che a loro volta abbisognano di un teorema dell’alternativa. Va però detto che esiste la possibilità (cfr., ad es., [5, 43, 56]) di ottenere il teorema di dualità della P.L. sfruttando basilari proprietà del metodo del simplesso. Il teorema di dualità della P.L. è ottenuto, ad esempio, da Karlin [33] e da Manara e Nicola [37] (che espressamente si rifanno al testo citato di Karlin) senza l’utilizzo diretto del teorema di Farkas (vengono usati risultati di separazione tra coni). Una volta ottenuto il classico teorema di dualità della P.L., la dimostrazione del teorema di Farkas è pressoché immediata. Dobbiamo fare vedere che le seguenti affermazioni sono equivalenti: a) La disuguaglianza lineare yb > 0 è verificata per tutte le soluzioni del sistema di disuguaglianze yA > [0]. b) Il sistema Ax = b, x > [0] ammette soluzione. Consideriamo il problema di P.L. (P) min bTy ATy > [0] Il problema duale è (D) max [0] x = 0 Ax = b x > [0]. Valga a); il problema (P) ammette allora soluzione y = [0], con valore della funzione obiettivo pari a zero. Dal teorema di dualità della (PL), anche (D) ha soluzione, ossia vale b). Valga b); banalmente (D) ammette soluzione (con funzione obiettivo pari a zero). Dal teorema di dualità della P.L., anche (P) ammette soluzione, con valore della funzione obiettivo pari a zero. Ossia vale a). 3. Dimostrazioni algebriche Sono usualmente piuttosto lunghe, anche se a volte richiedono soltanto nozioni elementari. Qui ci occuperemo soltanto delle dimostrazioni algebriche “diret- Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 7 te” del teorema di Farkas-Minkowski, rimandando successivamente quelle che ottengono algebricamente altri risultati, che a loro volta generano quello di FarkasMinkowski. Un lavoro interessante, che utilizza nozioni e tecniche dell’Algebra Lineare è quello di Pearl [45] che fornisce però una dimostrazione piuttosto lunga e complessa. Una dimostrazione elegante e non eccessivamente lunga e complicata è quella effettuata per ricorrenza da D. Gale [19, 20] e ripresa da altri autori (cfr., ad es., [25, 36]. Tra le dimostrazioni algebriche rientrano quelle che riprendono lo storico metodo di “eliminazione” di J.B. Fourier per la risoluzione di sistemi di uguaglianze e disuguaglianze lineari. E l’approccio utilizzato da Kuhn [35], da Stoer e Witzgall [52] e da Rockafeller [47]. I passaggi sono abbastanza elementari ma numerosi. Recentemente [51] è stato dimostrato che tale procedura può essere brevemente ottenuta dal teorema dell’alternativa di Motzkin, il che evidenzia la sostanziale equivalenza tra il metodo di Kuhn-Fourier e la classe dei teoremi dell’alternativa per sistemi lineari. È comunque abbastanza sorprendente che i risultati della procedura di “eliminazione”, tra i primi nella teoria delle disequazioni e dei sistemi di disequazioni lineari, siano stati scarsamente considerati nella letteratura specialistica. 4. Dimostrazioni algoritmiche Segnaliamo il recente lavoro di Dax [13] che propone una “Elementary proof of the Farkas’lemma” che si snoda per quattro pagine a stampa (formato “SIAM Review”). Una altro lavoro “algoritmico” che si propone di risolvere sistemi di disequazioni lineari, e quindi di ottenere una dimostrazione “costruttiva” del teorema di Farkas, è quello di Avis e Kaluzny [2]. 5. Dimostrazioni che utilizzano proprietà di equilibrio di sistemi fisico-meccanici Sono “curiosità” che si trovano nel volume di Razoumikhine [46]. 6. Dimostrazioni che utilizzano risultati di “distanza minima” Si può vedere l’articolo di rassegna [12] e il lavoro [14]. L’applicazione diretta del metodo in questione richiede comunque l’asserto che il cono Z precedentemente definito sia chiuso. Un approccio che ricade in questa tipologia di dimostrazioni è quello, breve ed elegante, di V. Komornik [34], basato sul seguente risultato. Lemma 1. Per ogni a ∈ Rn esiste nel cono Z un punto b che è il più vicino al punto a. L’autore fa notare che il punto b è unico ma nella dimostrazione ciò non viene usato. Parimenti fa notare che il lemma implica che Z sia chiuso, ma ciò non necessita esplicitamente alla dimostrazione. 8 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 7. Dimostrazioni che utilizzano il teorema di Weyl È noto ([4, 28, 44]) che un cono poliedrico convesso, può essere caratterizzato, oltre che dalla definizione già richiamata, anche dalla seguente. • Sia B una matrice di ordine (k, m). Allora Z è un cono poliedrico convesso se consiste di tutti i vettori v tali che Bv > [0]. È questo, sostanzialmente, il teorema di Weyl sui coni poliedrici convessi: in altre parole Z può essere equivalentemente espresso dall’intersezione di un numero finito di semispazi chiusi i cui iperpiani generatori passano per l’origine. L’immediato “sottoprodotto” di tale teorema è la proprietà di chiusura del cono poliedrico Z. Purtroppo quasi tutte le dimostrazioni disponibili del teorema di Weyl sono alquanto complesse ed utilizzano, a loro volta, il teorema di FarkasMinkowski. Un’eccezione è costituita dal citatissimo (e forse poco studiato) lavoro di Gale [18], che pur non fornendo una dimostrazione autonoma completa del teorema di Weyl indica la strada per dimostrare il teorema di Farkas-Minkowski, assumendo quale definizione di cono poliedrico convesso, quella espressa da disuguaglianze deboli, appena richiamata. L’approccio è sviluppato anche nei lavori [25, 53]. Una dimostrazione, per ricorrenza, abbastanza breve e non eccessivamente complicata, del teorema di Weyl, è quella fornita da R.J.-B. Wets nel lavoro [57], che rappresenta quindi un approccio sintetico e abbastanza elementare all’ottenimento di risultati fondamentali sui coni poliedrici convessi, sui teoremi dell’alternativa lineari e sui sistemi di disuguaglianze lineari. Ribadiamo nuovamente che la dimostrazione di Wets del teorema di Weyl non utilizza il teorema di FarkasMinkowski. Il lavoro di Uzawa [55] fornisce anch’esso una dimostrazione completa del teorema di Weyl, facendo a meno di quello di Farkas-Minkowski, ed ottenendo anche, in modo costruttivo, una formula che consente di passare dalla matrice A, che interviene nella prima definizione, alla matrice B, che interviene nella seconda definizione e viceversa. La dimostrazione è piuttosto lunga, anche se formalmente abbastanza elementare. 8. Dimostrazioni che utilizzano i teoremi di Tucker I teoremi di Tucker che a loro volta generano il teorema di Farkas-Minkowski (nonché altri teoremi dell’alternativa per sistemi lineari) sono i seguenti (cfr. [24, 26, 38, 54]. Teorema 1. Per ogni matrice emisimmetrica K (ossia è K = – KT) esiste un vettore non negativo x tale che Kx > [0], x + Kx > [0]. Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 9 Teorema 2. Per ogni matrice K di ordine (m, n), i sistemi Ax > [0] e ATy = [0], y > [0] ammettono soluzioni x e y tali che Ax + y > [0]. Il teorema 1 è stato recentemente ottenuto da C.G. Broyden [9] utilizzando una semplice proprietà delle matrici ortogonali. Questo risultato stabilisce che per qualsiasi matrice ortogonale Q (ossia QQT = QTQ = I, ossia QT = Q–1) esiste un’unica matrice diagonale D avente sulla diagonale principale + 1 oppure – 1, tale che Qx = Dx, con x > [0]. Purtroppo la dimostrazione di tale risultato è alquanto lunga, benché non eccessivamente complicata. Dopo di che il teorema 1 è ottenuto abbastanza speditamente: se K è emisimmetrica, allora Q = (I + K)–1(I – K) è matrice ortogonale (la dimostrazione di questo fatto è puramente algebrica e semplice). Di conseguenza, a causa del teorema di Broyden, esistono una matrice diagonale D, del tipo sopra specificato, ed un vettore positivo z, tali che (I + K)–1(I – K)z = Dz. Tale relazione può essere riscritta nella forma (I – K)z = (I + K)Dz da cui z – Kz = Dz + KDz ossia z – Dz = K(z + Dz). Ponendo x = z + Dz si ha x > [0], Kx > [0], x + Kx = 2z > [0], ossia la tesi del teorema 1 di Tucker. Per altri commenti sull’articolo di Broyden si veda [48]. Il teorema 2 di Tucker, dimostrato per ricorrenza dal suo scopritore (ugualmente Mangasarian [38] lo dimostra per ricorrenza), è stato ottenuto in modo più intuitivo e meno formale da Good [29], purtroppo con una dimostrazione terribilmente lunga. Due diverse dimostrazioni del teorema di Tucker sono fornite da Singh e Praton [50]; la prima dimostrazione è piuttosto breve e sfrutta proprietà fondamentali dell’involucro convesso di un insieme (finito) di punti (politopo): in particolare, tale insieme è compatto (cfr. ed es. [44]). La seconda dimostrazione è fatta per ricorrenza ma appare più lunga e complessa di quella originale di Tucker o quella di Mangasarian. 10 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski A parere dello scrivente, un modo spiccio ed elementare per ottenere il teorema di Tucker 2 è quello di ottenerlo dal teorema dell’alternativa di Gordan, come descritto nel punto successivo. 9. Dimostrazioni che utilizzano il teorema dell’alternativa di Gordan Nel lavoro [26] è stata dimostrata l’equivalenza tra i teoremi dell’alternativa di Gordan, Stiemke e il teorema 2 di Tucker, con dimostrazioni abbastanza semplice e brevi (l’equivalenza tra i teoremi di Stiemke e 2 di Tucker è stata dimostrata in Nikaido [44], in modo alquanto complesso). Ricordiamo la formulazione dei teoremi dell’alternativa di Gordan (forse il primo teorema dell’alternativa per sistemi lineari che è stato pubblicato nel 1873) e di Stiemke (1915). Teorema 3 (di Gordan). Sia A matrice reale di ordine (m, n); i due seguenti risultati sono in alternativa: I) ∃ x ∈ Rn | Ax > [0]; II) ∃ p ∈ Rm | ATp = [0], p > [0], p ≠ [0]. Teorema 4 (di Stiemke). Sia A matrice reale di ordine (m, n); i due seguenti risultati sono in alternativa: I) ∃ x ∈ Rn | Ax > [0], Ax ≠ [0]; II) ∃ p ∈ Rm | ATp = [0], p > [0]. L’equivalenza tra il teorema di Gordan e quello di Stiemke è provata in modo elementare in [26]. Anche Antosiewicz [1] fornisce una dimostrazione di tale equivalenza. Sempre in [26] il teorema 2 di Tucker è poi ottenuto in modo abbastanza semplice dal teorema di Stiemke e poiché dal teorema 2 di Tucker si possono ottenere vari teoremi dell’alternativa, tra cui quello di Farkas-Minkowski e di Stiemke, l’equivalenza tra questi risultati viene così dimostrata. Il teorema di Stiemke può poi essere dimostrato in modo semplice, per induzione, come fatto nel lavoro [26], oppure tramite l’equivalente teorema di Gordan, che può essere a sua volta dimostrato semplicemente utilizzando il classico teorema di separazione debole, poiché qui, contrariamente al caso del teorema di FarkasMinkowski, non occorre dimostrare la chiusura di alcun insieme (si veda nuovamente il lavoro [26]). 10. Dimostrazioni che utilizzano proprietà dei coni polari di coni convessi In Bazaraa e Shetty [4] e in Gale [20] si trovano le seguenti interessanti considerazioni. Siano C1 e C2 coni poliedrici convessi. Allora è (C1 ∩ C 2 ) * = C1* + C 2* (3) Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 11 ove C* indica il cono polare del cono C (o anche, più generalmente, dell’insieme C di Rn), ossia C* ={z | zy < 0, ∀y ∈ C}. La relazione (3) è dimostrato in modo veloce ma richiede a sua volta due risultati preliminari (va notato che la (3) non vale se C1 e C2 non sono coni poliedrici; se C1 e C2 sono coni convessi chiusi risulta (C1 ∩ C2 )* = (C1 )* + (C2 )* , C denotando la chiusura di C). Lemma 2. Siano C1 e C2 coni non vuoti di Rn, allora risulta (C1 + C 2 ) * = C1* ∩ C 2* , ove C1 + C2 è l’insieme di tutti i vettori esprimibili come somma di vettori da C1 e C2. Dimostrazione. Supponiamo x ∈ C1* ∩ C 2* ; allora xy1 < 0 per tutti gli y1 ∈ C1 e xy < 0 per tutti gli y2 ∈ C2. Ma se y ∈ C1+ C2, abbiamo y = y1 + y2, con y1 ∈ C1, y2 ∈ C2; perciò xy = xy1 + xy2 < 0 e quindi x ∈ (C1+ C2)*. Viceversa, se x ∈ (C1+ C2)*, allora xy < 0 per y = y1 + y2, y1 ∈ C1, y2 ∈ C2. In particolare, per y2 = [0] otteniamo xy1 < 0 per tutti gli y1 ∈ C1 e per y1 = [0] otteniamo xy2 < 0 per tutti gli y2 ∈ C2 e quindi x ∈ C1* e x ∈ C 2* , cioè x ∈ C1* ∩ C1* . 2 Lemma 3. Sia C cono chiuso e convesso di Rn. Allora risulta (“proprietà di dualità”) C = C**. Dimostrazione. Dimostriamo prima che è C ⊆ C**. Sia c ∈ C e y ∈ C*; per definizione yc < 0 per ogni c e y e C** è l’insieme di tutti i vettori v tali che vy < 0 per tutti gli y ∈ C*. Poiché yc = cy < 0, c ∈ C**. Dimostriamo ora l’inclusione opposta C** ⊆ C. Sia x ∈ C** e supponiamo che x ∉ C. Poiché C è cono chiuso e convesso, esiste un iperpiano di equazione yp = α, p ≠ 0, tale che yp < α per ogni y ∈ C e yp > α. Ma poiché y = [0] ∈ C, è allora α > 0 e quindi xp > 0. Ciò è però impossibile poiché (come mostreremo) p ∈ C* (si ricordi che x ∈ C** per ipotesi). Supponiamo per assurdo che p ∉ C*; allora esiste y ∈ C con yp > 0. Ma allora λy ⋅ p può essere reso arbitrariamente grande, scegliendo λ sufficientemente grande il che viola la disequazione λy ⋅ p < α per ogni λ > 0. Dimostriamo ora la relazione (3). Poiché duale, somma e intersezione di coni poliedrici sono ancora coni poliedrici, si ha, di seguito, C1* + C 2* = (C1* + C 2* ) ** = = (C1** ∩ C 2** ) * = (C1 ∩ C 2 ) * . Da tali relazioni ricaviamo ora il teorema di Farkas. 12 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski Sia Ci = {x | x ai < 0} per i = 1, 2, ..., m. In altre parole ogni Ci rappresenta un semispazio chiuso con ai quali vettori normali. Si noti che è m C = ∩ Ci = { x AT ≤ [0]}, i =1 ove A è la matrice n × m con colonna a1, a2 ..., am. Ciò significa allora che C* è composto da vettori b tali che bx < 0 qualora ATx < [0], cioè C* = {b | ATx < [0] ⇒ xb < 0}. È chiaro dalla definizione di ogni Ci che Ci* = {λai : λ > [0]}. Applicando la relazione (3) abbiamo perciò il seguente risultato: il sistema ATx < [0] implica che xb < 0 è consistente se e solo se il sistema b = Aλ ammette soluzione λ > [0]. Cio è precisamente il teorema di Farkas-Minkowski. Un’altra dimostrazione similare si trova nel volume di Giannessi [21]. Anche Gale [20] osserva esplicitamente che parecchi teoremi dell’alternativa lineari si possono ottenere dalle proprietà viste sui coni finiti. 11. Dimostrazione che utilizza le condizioni di ottimalità di Fritz John e di KuhnTucker Nel volume [8] l’Autore propone una via per la dimostrazione del teorema di Farkas che utilizza, quale risultato preliminare, il teorema di Fritz John sulla programmazione matematica. Beninteso, tale teorema va ottenuto senza uso di teoremi dell’alternativa per sistemi lineari, ad esempio seguendo l’approccio di Mc Shane [41] o di Hiriart-Urruty [32]. Bertsekas considera il seguente classico problema di programmazione non lineare min f ( x ) sub h1 ( x ) = 0,..., hm ( x ) = 0, g1 ( x ) ≤ 0,..., g r ( x ) ≤ 0, (P) ove tutte le funzioni f: Rn → R; hi : Rn → R, i = 1, ..., m; gj: Rn → R, j = 1, ..., r, sono differenziabili con continuità. L’Autore propone poi la seguente versione del teorema di Fritz John, ove la tesi sub iv) è solitamente non esplicitata. Teorema 5. Sia x* soluzione locale di (P). Allora esistono moltiplicatori (reali) µ1* ,..., µ *r , λ*1 ,..., λ*m , tali che µ *0 , m r i) µ *0 ∇f ( x * ) + ∑ λ*i ∇hi ( x * ) + ∑ µ *j ∇g j ( x * ) = [ 0] ; i =1 ii) µ *j ≥ 0, j = 0, 1, ..., r ; µ *0 , j =1 λ*1 ,..., λ*m , iii) µ *j g j ( x * ) = 0, j = 1, ..., r ; µ1* ,..., µ *r non tutti indenticamente nulli; Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 13 iv) In ogni intorno N(x*) di x* esiste x ∈ N(x*) tale che λ*i hi ( x ) > 0 per tutti gli indici i per cui è λ*i ≠ 0 e tale che µ *j g j ( x ) > 0 per tutti gli indici j per cui è µ*j > 0 . Nello stesso volume, la proposizione iv) figura anche nelle classiche condizioni necessarie di ottimalità di Kuhn-Tucker per il problema (P) (ossia le precedenti i), ii), iii) ove è µ *0 > 0, integrate con la condizione iv)), ottenute da Bertsekas sotto ipotesi di indipendenza lineare dei vincoli attivi in x*. Successivamente (proposizione 3.3.7 in [8]) vengono ottenute le condizioni di Kuhn-Tucker, assumendo, quale condizione di qualificazione dei vincoli, che le funzioni hi siano tutte lineari affini e che le funzioni gj siano tutte concave (condizioni di qualificazione “contraria”-“reverse” constraint qualification; si veda [28, 38]). Viene utilizzata, nella relativa dimostrazione, la proprietà iv) del teorema di Fritz John. Sulla base dei precedenti risultati, dimostriamo il teorema di Farkas-Minkowski nella versione: • Data la matrice A di ordine (n, r), e il vettore c ∈ Rn, risulta cy < 0 per tutti gli y tali che ATy < [0], se e solo se esistono scalari non negativi µ1, ..., ur, tali che Aµ = c. Dimostrazione. Se c = Aµ, con µ > [0], allora per ogni y tale che ATy < [0], ossia yA < [0], abbiamo cy = yAµ < 0. Viceversa, se il vettore c soddisfa la disequazione cy < 0 per tutti gli y tali che ATy < [0], allora y* = [0] minimizza – cy nell’insieme dei vincoli ATy < [0]. L’esistenza di scalari non negativi µ1, ..., ur tali che c = µ1A1 + ... + µ1Ar (Aj indicando il j-esima vettore colonna di A) segue dal teorema di Kuhn-Tucker, (i vincoli, essendo lineari, sono automaticamente qualificati, in base alla citata dimo strazione di Bertsekas). 12. Dimostrazioni che utilizzano versioni di teoremi dell’alternativa per sistemi non lineari Sono disponibili in letteratura parecchi teoremi dell’alternativa per sistemi non lineari, con varie ipotesi di convessità (concavità) generalizzata sulle funzioni in essi implicate e con riferimento sia a spazi con dimensione finita che a spazi topologici con infinite dimensioni. Curiosamente, molti di tali risultati non si prestano ad ottenre direttamente il teorema di Farkas-Minkowski o altri noti teoremi dell’alternativa per sistemi lineari. In [23], sfruttando un teorema sull’intersezione di insiemi convessi, dovuto a C. Berge e che può essere considerato una generalizzazione del celebre teorema di Helly (si veda [7]), è dimostrato il seguente risultato. 14 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski Teorema 6. Siano fk(x), k ∈ T = {1, ..., t}; gi(x), i ∈ M = {1, ..., m}, funzioni convesse sull’insieme aperto e convesso C ⊆ Rn e hj(x), j ∈ P = {1, ..., p}, funzioni lineari affini. Supponiamo poi che il sistema ⎧ g i ( x ) < 0, ⎨ ⎩ h j ( x ) ≤ 0, i = 1,..., m j = 1,..., p ammetta soluzione x* ∈ C. Allora il sistema ⎧ f k ( x ) < 0, ⎪ ⎨ g i ( x ) ≤ 0, ⎪ h ( x ) ≤ 0, ⎩ j k ∈T i∈M j∈P non ammette soluzioni x ∈ C se e solo se esistono moltiplicazioni (α1, α2, ..., αt) > [0], non tutti nulli, (λ1, λ2, ..., λm) > [0]; (µ1, µ2, ..., µp) > [0], tali per cui risulta ∑ α k f k ( x ) + ∑ λ i g i ( x ) + ∑ µ j h j ( x ) ≥ 0, ∀x ∈ C . k i j Per k = 1 si può facilmente dedurre da tale teorema il teorema di FarkasMinkowski. Una volta osservato che i sistemi S e S* non possono essere simultaneamente compatibili, resta da dimostrare che se S* è incompatibile, allora S è compatibile. Si scriva S* nella forma f1 ( y ) = yb < 0; h j ( y ) = – yAi ≤ 0, i = 1,..., n. Se S* è incompatibile, allora esiste, in base al teoerma 6, un vettore di moltiplicatori x = (xi) > 0, i = 1, 2, ..., n, tale che (yb – yAx) > 0, ∀y ∈ Rm, relazione da cui risulta che il sistema b – Ax = [0], x > [0] ammette soluzione. Anche, ad esempio, il teorema di Motzkin può essere facilmente ottenuto dal teorema 6. Una versione un pò più generale del teorema 6 è stata dimostrata in [27], basandosi, anziché sul teorema di Berge, sul più noto teorema dell’alternativa di FanGlicksberg-Hoffman (si veda ad es., [28, 38]) che può essere a sua volta considerato una generalizzazione al caso non lineare del teorema di Gordan. Ridimostriamo ora, in modo “autonomo” ed elementare, il teorema 6 nella seguente versione. Teorema 7. Sia dato il sistema ⎧ f ( x ) < 0, ⎪ ⎨ g j ( x ) ≤ 0, ⎪⎩ x ∈ C j = 1,..., m (4) ove f: C → R, gj: C → R sono funzioni convesse sul convesso C ⊆ Rn. Supponiamo poi che sia verificato il sistema (“condizione generalizzata di Slater”) Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 15 0 ⎧ g j ( x ) < 0, ∀J per cui g j è non lineare ⎪ 0 ⎨ g j ( x ) ≤ 0, ∀J per cui g j è lineare ⎪ x 0 ∈ relint C ⎩ (5) (essendo relint C l’interno relativo di C). Allora il sistema (4) non ammette soluzioni se e solo se esiste un vettore y = (y1, ..., ym) > [0] tale che m f ( x ) + ∑ λ j g j ( x ) ≥ 0, ∀x ∈ C . (6) j =1 Sia F ={x ∈C | gj(x) < 0, j = 1, ..., m}. Può accadere che alcune funzioni gj(x) possano essere identicamente nulle su F. Tali funzioni saranno dette singolari. Definiamo poi i seguenti insiemi di indici: I = {1, 2, ..., m} Is = {j ∈ I | gj(x) = 0, ∀ x ∈ F} Ir = I \Is = { j ∈ I | gj(x) < 0, per qualche x ∈ F }. Notiamo poi che se vale la condizione di Slater generalizzata, tutte le funzioni gj singolari devono essere lineari. Ricordiamo infine il seguente classico teorema di separazione che non richiede che l’insieme in esso considerato sia chiuso (si veda, ad es. [4, 47, 52]), risultato peraltro già citato nella dimostrazione del Lemma 2. Teorema 8. Sia X ⊆ Rn un insieme convesso e non vuoto e sia [0] ∉ X. Allora esiste un iperpiano H = {x | x ∈ Rn, cx = 0}, c ≠ [0], che separa X e l’origine [0], ossia cx > 0, ∀ x ∈ X e cx > 0 per qualche x ∈ X. Dimostrazione del teorema 7. Se il sistema (4) ammette soluzione ovviamente la (6) non può essere vera per quella soluzione. Questa è la parte “banale” del teorema, che sussiste senza ipotesi di convessità e di “regolarità” (à la Slater) delle funzioni. Il resto della dimostrazione è meno banale. Assumiamo che il sistema (4) non ammetta soluzione e dimostriamo che allora vale la (6). Ponendo u = (u0, ..., um) ∈ Rm+1, si definisca l’indieme U come segue. U = {u | ∃ x ∈ C con u0 > f(x), uj > gj(x), se j ∈ Ir, uj = gj(x), se j ∈ Is}. Chiaramente U è convesso e, grazie alle ipotesi fatte, non contiene l’origine. Dunque, in base al teorema 8, esiste un iperpiano di separazione, definito dal vettore (y0, y1, ..., ym) tale che m ∑ y ju j j =0 ≥ 0, ∀u ∈ U (7) 16 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski e per qualche u ∈ U si avrà m ∑ y ju j > 0 (8) j =0 Il resto della dimostrazione è diviso in tre parti. I. Dapprima dimostriamo che è y0 > 0 e yj > 0 per ogni j ∈ Ir. II. Poi dimostriamo che la (7) vale per u = ( f(x), g1(x), ..., gm(x)) se x ∈ C. III. Poi dimostriamo che y0 > 0. I. Dimostriamo che è y0 > 0 e yj > 0 per ogni j ∈ Ir. Assumiamo per assurdo che sia y0 < 0 e prendiamo un vettore arbitrario (u0, u1, ..., um) ∈ U. Per definizione (u0 + λ, u1, ..., um) ∈ U per ogni λ > 0. Quindi dalla (7) risulta m λy 0 + ∑ y j u j ≥ 0, ∀λ ≥ 0. j =0 Per λ sufficientemente grande si ha che la precedente espressione è negativa, il che comporta una contraddizione. Quindi è y0 > 0. La dimostrazione per la non negatività di yj, j ∈ Ir, è analoga. II. Ora dimostriamo che m y 0 f ( x ) + ∑ y j g j ( x ) ≥ 0, ∀x ∈ C . (9) j =1 Ciò segue dall’osservazione che per ogni x ∈ C e per ogni λ > 0 si ha u = (f(x) + λ, g1(x), ..., gm(x)) ∈ U, perciò m y 0 ( f ( x ) + λ ) + ∑ y j g j ( x ) ≥ 0, ∀x ∈ C . j =1 Prendendo il limite per λ → 0 segue il risultato. III. Dimostriamo ora che è y0 > 0. La dimostrazione è per assurdo. Già sappiamo che è y0 > 0; assumiamo allora per assurdo che sia y0 = 0. Dalla (9) segue m ∑ y j g j ( x ) + ∑ y j g j ( x ) = ∑ y j g j ( x ) ≥ 0, j∈I r j∈I s j =1 Prendendo un punto x* ∈ relint C, tale che g j ( x* ) < 0, ∀j ∈ Ir g j ( x* ) = 0, ∀j ∈ Is (valendo la (5), tale punto sicuramente esiste), si ha ∀x ∈ C . Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 17 ∑ y j g j ( x * ) ≥ 0. j∈I r Poiché yj > 0 e gj(x*) < 0, ∀ j ∈ Ir, ciò implica yj = 0, ∀ j ∈ Ir. Quindi ∑ y j g j ( x ) ≥ 0, ∀x ∈ C . (10) j∈I s Ora, dalla (8), con x ∈ C tale che u j = g j ( x ) se j ∈ Is, abbiamo ∑ y j g j ( x ) > 0. (11) j∈I s x ∈ C tale che x* = λx + (1 − λ ) ~ x , λ ∈ (0, 1). Poiché x* ∈ relint C, esiste un vettore ~ Ricordando che è gj(x*) = 0, j ∈ Is, e che le funzioni gj singolari sono lineari, si ha 0= ∑ y j g j ( x * ) = ∑ y j g j (λx + (1 − λ ) ~x ) = j∈I s =λ j∈I s ∑ y j g j ( x ) + (1 − λ ) ∑ y j g j ( ~x ) >(1 − λ ) ∑ y j g j ( ~x ). j∈I s j∈I s j∈I s L’ultima disuguaglianza segue dalla (11). La disuguaglianza (1 − λ ) y g (~ x) < 0 ∑ j∈I s j j contraddice le (10), essendo (1 – λ) > 0. Quindi è y0 > 0. Abbiamo quindi la (9), con yj , y0 > 0 e yj > 0 per ogni j ∈Ir. Dividendo per y0 > 0 la (9) e definendo y j = y0 j ∈ I, abbiamo la (6): m f ( x ) + ∑ y j g j ( x ) ≥ 0, ∀x ∈ C . j =1 Un altro teorema dell’alternativa per sistemi non lineari utile per ricavare direttamente il teorema di Farkas-Minkowski è dovuto a F. Giannessi [21, 22]. Si veda anche il lavoro di Cambini [10]. La versione che ci interessa e che è, in realtà, un corollario di risultati più generali, è la seguente. Teorema 9. Sia X ⊆ Rn convesso e non vuoto. Siano f: x → Rt, g: X → Rn funzioni convesse su X. Allora: i) Se il sistema f(x) < [0], g(x) < [0], x ∈ X è impossibile, esistono vettori ϕ > [0], λ > [0], con (ϕ, λ) ≠ [0], tali che (12) 18 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski ϕf(x) + λg(x) > 0, ∀x∈X (13) ii) Supponiamo che esistano vettori ϕ > [0], λ > [0], (ϕ, λ) ≠ [0], tali che valga la (13) e inoltre è {x ∈ X: f(x) < [0], g(x) < [0], λg(x) = 0} = ∅ qualora sia ϕ = [0]. Allora il sistema (12) è impossibile. Dunque se, con ϕ = [0], la (13) vale con il segno di disuguaglianza stretta, la (12) è senz’altro non verificata. Da tale risultato si ottiene subito la versione non omogenea del teorema di Farkas-Minkowski, usualmente accreditata a Duffin (si veda [38]). Teorema 10 (di Duffin). Sia A una matrice di ordine (m, n), b un vettore di Rn e c un vettore di Rm e β uno scalare. Il sistema bx < β, A x > c (14) è impossibile se e solo se è possibile almeno uno dei seguenti sistemi ⎧ yA = b, ⎨ ⎩ yc ≥ β y ≥ [ 0] ⎧ yA = [ 0], ; ⎨ ⎩ yc > 0 y ≥ [ 0] (15) ove y è un vettore di Rm. Dimostrazione. Identificando la (14) con il sistema f(x) < [0], g(x) < [0], si può applicare il teorema con t = 1, a norma del quale la (14) è impossibile, se e solo se, ⎛1⎞ posto y = x, quando ϕ = 0, e y = ⎜⎜ ⎟⎟ λ , quando ϕ > 0, risulta ⎝ϕ⎠ (yA – b) x < y c – β, y > [0], ∀ x ∈ Rn, se ϕ > 0 oppure yAx < y c, y > [0], ∀ x ∈ Rn, se ϕ > 0. Questi due sistemi sono equivalenti, rispettivante ai sistemi (15). Ponendo, nel teorema di Duffin, β = 0 e c = [0], si ha subito che il secondo dei sisteni (15) è sempre impossibile e resta quindi soltanto il primo dei due sistemi (15) ove la relazione yc > β è ridondante. Tale versione è precisamente il teorema di Farkas-Minkowski. Dal teorema 9 è pure possibile ricavare direttamente, ad esempio, il teorema di Motzkin che a sua volta genera vari teoremi dell’alternativa per sistemi lineari, tra cui quello di Farkas-Minkowski. Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 19 Riferimenti bibliografici [1] ANTOSIEWICZ H.A., A theorem on alternatives for pair of matrices, Pacific J. of Mathematics, 5, 1955, 641-642. [2] AVIS D.-KALUZNY B., Solving inequalities and proving Farkas’s lemma made easy, Amer. Math. Monthly, 111, 2001, 152-157. [3] AVRIEL M., Nonlinear Programming: Analysis and Methods, Prentice Hall, Englewood Cliffs, N.J., 1976. [4] BAZARAA M.S.-SHETTY C.M., Foundations of Optimization, Springer Verlag, Berlin, 1976. [5] BAZARAA M.S.-JARVIS J.J.-SHERALI H.D., Linear Programming and Network Flows, John Wiley & Sons, New York, 1990. [6] BEAVIS B.-DOBBS I, Optimization and Stability Theory for Economic Analysis, Cambridge Univ. Press., Cambridge, 1990. [7] BERGE C.-GHOUILA-HOURI A., Programming, Games & Transportation Networks, Methuen & Co., London, 1965. [8] BERTSEKAS D.P., Nonlinear Programming (Second Edition), Athena Scientific, Belmont, Mass. 1999. [9] BROYDEN C.G., A simple algebraic proof of Farkas’s lemma and related theorems, Optimization Methods and Sotware, 8, 1998, 185-199. [10] CAMBINI A, Nonlinear separation theorems, duality and optimality conditions, in R. Conti, E. De Giorgi, F. Giannesi (Eds.), “Optimization and Related Fields”, Springer Verlag, Berlin, 1986, 57-93. [11] CIARLET P.G., Introduzione all’Analisi Numerica Matriciale e all’Ottimizzazione, Masson, Milano, 1989. [12] DAX A., The relationship between theorems of the alternative, least norm problems, steepest descent directions and degeneracy: a review, Annals of Operations Research, 46, 1993, 11-60. [13] DAX A., An elementary proof of Farkas’lemma, SIAM Review, 39, 1997, 503-507. [14] DAX A.-SREEDHARAN V.P., Theorems of the alternative and duality, J.O.T.A., 94, 1997, 561-590. [15] DE GIULI M.E.-GIORGI G.-MAGNANI U., A general theorem of the alternative: how to get its special cases quickly, P.U.M.A., 8, 1997, 215-232. 20 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski [16] DORFMAN R.-SAMUELSON P.-SOLOW R., Linear Programming and Economic Analysis, Mc Graw-Hill, New York, 1958. [17] FRANKLIN J.N., Methods of Mathematical Economics. Linear and Non linear Programming, Fixed-Point Theorems, Springer Verlag, New York, 1980. [18] GALE D., Convex polyhedral cones and linear inequalities, in T.C. Koopmans (Eds.), “Activily Analysis of Production and Allocation”, John Wiley & Sons, New York, 1951, 287-297. [19] GALE D., The basic theorems of real linear equations, inequalities, linear programming, and game theory, Naval Research Logistics Quarterly, 3, 1956, 193200. [20] GALE D., The Theory of Linear Economic Models, Mc Graw-Hill, New York, 1960. [21] GIANNESSI F., Metodi Matematici della Programmazione. Problemi Lineari e Non lineari, Pitagora Editrice, Bologna, 1982. [22] GIANNESSI F., Theorems of the alternative and optimality conditions, J.O.T.A., 43, 1984, 331-365. Errata Corrige in J.O.T.A., 44, 1984, 363-364. [23] GIORGI G., Alcune applicazioni di teoremi dell’alternativa a condizioni di ottimalità, Fascicoli Ist. Mat. Gen. e Finanziaria, Università di Pavia, n. 79, a.a. 1983-84. [24] GIORGI G., Un approccio unificante ai teoremi dell’alternativa per sistemi lineari, Atti X Convegno A.M.A.S.E.S., Siena, 8-10 settembre 1986, Pitagora, Bologna, 103-106. [25] GIORGI G., Alla ricerca di una dimostrazione elementare del teorema di FarkasMinkowski, Atti XXIII Convegno A.M.A.S.E.S., Rende, 8-11 settembre 1999, 211-221. [26] GIORGI G., Sui teoremi di Gordan, Stiemke e Tucker, Atti XXIV Convegno A.M.A.S.E.S., Padenghe sul Garda, 6-9 settembre 2000, Università degli Studi di Bergamo e di Brescia, 623-630. [27] GIORGI G., Osservazioni sui teoremi dell’alternativa non lineari implicanti relazioni di uguaglianza e vincolo insiemistico, in G. Crespi e altri, “Optimization in Economics”, Finance and Industry, Datanova, Milano, 2002, 171-183. [28] GIORGI G.-GUERRAGGIO A.-THIERFELDER J., Mathematics of Optimizations: Smooth and Nonsmooth Case, American Elsevier, Amsterdam, 2004. [29] GOOD R.A., Systems of linear relations, SIAM Review, 1, 1959, 1-31. [30] HESTENES M.R., Calculus of Variations and Optimal Control Theory, John Wiley & Sons, New York, 1966. [31] HESTENES M.R., Optimization Theory. The Finite Dimensional Case, John Wiley & Sons, New York, 1975. [32] HIRIART-URRUTY J.B., What conditions are satisfied at points minimizing the maximum of a finite number of differentiable functions?, in F. Giannessi (Eds.), “Nonsmooth Optimization: Methods and Applications”, Gordon & Breach Sciences Publishers, London, 1992, 166-174. Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski 21 [33] KARLIN S., Mathematical Methods and Theory in Games, Programming and Economics, Vol. I, Addison-Wesley, Reading, Mass., 1959. [34] KOMORNIK V., A simple proof of Farkas’ lemma, Amer. Math. Monthly, 105, 1998, 949-950. [35] KUHN H.W., Solvability and consistency for linear equations and inequalities, Amer. Math. Monthly, 63, 1956, 217-232. [36] LANCASTER K., Mathematical Economics, Macmillan, London, 1968. [37] MANARA C.F.-NICOLA P.C., Elementi di Economia Matematica, Editrice Viscontea, Milano, 1970. [38] MAGASARIAN O.L., Nonlinear Programming, Mc Graw-Hill, New York, 1969. [39] MARTOS B., Nonlinear Programming: Theory and Methods, North Holland, Amsterdam, 1976. [40] MC CORMIK G.P., Nonlinear Programming, J. Wiley, New York, 1983. [41] MC SHANE E.J., The Lagrange multiplier rule, Amer. Math. Monthly, 80, 1973, 922-924. [42] MICHEL P., Cours de Mathématiques pour Economistes, Economica, Paris, 1989. [43] MURACCHINI L.-GUIDOTTI L., Programmazione matematica, UTET, Torino, 1988. [44] NIKAIDO H., Convex Structures and Economic Theory, Academic Press, New York, 1968. [45] PEARL M.H., A matrix proof of Farka’s theorem, Quarterly Journal of Mathematics, 18, 1967, 193-197. [46] RAZOUMIKHINE B., Modèles Physiques et Méthodes de la Théorie de l’Equilibre en Programmation et en Economie, Editions MIR, Mosca, 1978. [47] ROCKAFELLAR R.T., Convex Analysis, Princeton Univ. Press, Princeton, 1970. [48] ROOS C.-TERLAKY T., Note on a paper of Broyden, Operations Research Letters, 25, 1999, 183-186. [49] SAIGAL R., Linear Programming. A Modern Integrated Analysis, Kluwer Academic Publishers, Boston, 1995. [50] SINGH C.-PATRON I., Some variations, extensions, and generalizations of Tucker’s theorems, Journal of Information & Optimization Sciences, 17, 1996, 243-253. [51] SZILAGYI P., A simple proof and short forms for the Kuhn-Fourier theorem, P.U.M.A., 4, 1999, 381-384. [52] STOER C.-WITZGALL C., Convexity and Optimization in Finite Dimensions, I, Springer Verlag, Berlin, 1970. [53] TRUCHON M., Théorie de l’Optimisation Statique et Différentiable, G. Morin Editeur, Chicontini, Québec, Canada, 1987. 22 Le molte dimostrazioni del Teorema (Lemma) di Farkas-Minkowski [54] TUCKER A.W., Dual systems of homogeneous linear relations, in H.W. Kuhn, A.W. Tucker (Eds.), “Linear Inequalities and Related Systems”, Princeton Univ. Press, Princeton, 1956, 3-18.. [55] UZAWA H., A theorem on convex polyhedral cones, in K.J. Arrow, L. Hurwicz, H. Uzawa (Eds.), “Studies in Linear and Non-linear Programming”, Stanford Univ. Press, Stanford, 1958, 23-31. [56] VANDERBEI R.J., Linear Programming. Foundations and Extensions, Kluwer Academic Publishers, Boston, 2001. [57] WETS R. J.B., Elementary, constructive proofs of the theorems of Farkas, Minkowski and Weyl, in J.J. Gabszewicz, J.F. Richard, L.A. Wolsey (Eds.), “Economic Decision-Making: Games, Econometrics and Optimization”. Contributions in Honour of Jacques H. Drèze, North Holland, Amsterdam, 1990, 427432.
Documenti analoghi
Le molte dimostrazioni del Teorema (Lemma) di Farkas
più utilizzato teorema dell’alternativa per sistemi lineari. Anche a causa dei diversi contesti
ove tale risultato è introdotto (programmazione lineare e non, teoria dei sistemi di disequazioni lin...