nākamais augstāk iepriekšējais saturs Matemātika DU TSC
Nākamais: 1.2.8. Uzdevumi Augstāk: 1.2. Nosacītais ekstrēms Iepriekšējais: 1.2.6. Lagranža reizinātāju metode, kad ierobežojumi

1.2.7. Lagranža reizinātāju metodes pamatojums

Kādēļ Lagranža reizinātāju metode dod labus (pareizus) rezultātus? Lai atbildētu uz šo dabisko jautājumu, jāveic analīze. Vēsturiski tā bija lietota tieši tāpat, kā mūsu tekstā: sākumā praktiski, un tikai pēc kāda laika bija dots metodes pamatojums.

Sākumā aplūkosim vienkāršu gadījumu, kad minimizējamai funkcijai ir divi argumenti un ir viens ierobežojums vienādības formā:

$\displaystyle f(x;y)\longrightarrow min,\;\; g(x;y)=0.$    

Pieņemsim, ka abām funkcijām ir nepārtraukti parciālie atvasinājumi. Ja problēmai ir atrisinājums, t.i., lokālā minimuma punkts, kuru apzīmēsim ar $ M_{0}(x_{0};y_{0})$, tad kādas punkta $ M_{0}$ apkārtnes šķēlumā ar pieļaujamo apgabalu $ \{(x,y):\;
g(x;y)=0\}$ izpildās vienādība

$\displaystyle \Delta f(x_{0};y_{0})=f(x;y)-f(x_{0};y_{0})=df(x_{0};y_{0})+ \varepsilon,$    

kur $ df(x_{0};y_{0})=f_{x}(x_{0};y_{0})dx+f_{y}(x_{0};y_{0})dy$, bet $ \varepsilon$ apzīmē augstākas kārtas (attiecībā pret $ dx$ un $ dy$) elementus. Tā ka $ (x_{0};y_{0})$ ir lokālā minimuma punkts, tad funkcijas pieaugums $ \Delta f(x_{0};y_{0})$ ir nenegatīvs. Tātad $ df(x_{0};y_{0})$ ir vienāds ar nulli visiem pieļaujamiem $ dx$ un $ dy$ (jo pretējā gadījumā $ df(x_{0};y_{0})$ un līdz ar to $ \Delta f(x_{0};y_{0})$ pieņemtu gan pozitīvas, gan negatīvas vērtības). Diferencējot saiti $ g(x;y)=0$ punktā $ M_{0}$, iegūstam pieļaujamo diferenciāļu kritēriju: pieļaujamiem diferenciāļiem ir jāapmierina nosacījums

$\displaystyle dg(x_{0};y_{0})=g_{x}(x_{0};y_{0})dx+g_{y}(x_{0};y_{0})dy=0.$ (1.3)

Tātad lokālā minimuma punktā ir jāizpildās vienādojumu sistēmai:

$\displaystyle \left\{\begin{array}{lcl} df(x_{0};y_{0})&=&f_{x}(x_{0};y_{0})dx+...
..._{0};y_{0})dx+g_{y}(x_{0};y_{0})dy=0,\  g(x_{0};y_{0})&=&0. \end{array}\right.$ (1.4)

1.13. piezīme. 
Tā kā diferenciāļi $ dx$ un $ dy$ nav patvaļīgi, tad no vienādības $ df(x_{0},y_{0})=0$ nevar secināt, ka $ f_{x}(x_{0},y_{0})=0$ un $ f_{y}(x_{0},y_{0})=0$. Piemēram, aplūkosim problēmu:

$\displaystyle x^{2}+ y^{2} \longrightarrow min,\;\; x + y = 1,$    

kuras minimuma punkta koordinātas ir $ (0,5; 0,5)$. Minimuma punktā diferenciāļi apmierina vienādību $ dx + dy = 0$. Funkcijas diferenciālis minimuma punktā ir

$\displaystyle 2x\vert _{x =0,5}\cdot dx + 2y\vert _{y =0,5}\cdot dy = dx + dy$    

un tas, protams, ir vienāds ar nulli visiem pieļaujamiem diferenciāļiem $ (dx + dy = 0)$, kaut arī funkcijas $ f(x;y)=x^{2}+y^{2}$ parciālie atvasinājumi minimuma punktā nav vienādi ar nulli ( $ f_{x}=f_{y}=1$ minimuma punktā).

Lagranža ideja ir ievest pagaidām nenoteiktu parametru $ \lambda$ un aplūkot lielumu

$\displaystyle dL = df(x;y) + \lambda dg(x;y).$    

Tad

$\displaystyle dL=$ $\displaystyle \;f_{x}(x_{0};y_{0})dx+f_{y}(x_{0};y_{0})dy+\lambda\bigl[g_{x}(x_{0};y_{0})dx+ g_{y}(x_{0};y_{0})dy\bigr]=$    
$\displaystyle =$ $\displaystyle \;\bigl[f_{x}(x_{0};y_{0})+\lambda g_{x}(x_{0};y_{0})\bigr]dx+\bigl[f_{y}(x_{0};y_{0})+\lambda g_{y}(x_{0};y_{0})\bigr]dy.$    

Tā kā $ df(x_{0};y_{0})$ un $ dg(x_{0};y_{0})$ ir vienādi ar nulli, tad $ dL = 0$ minimuma punktā. Sekojot Lagranža idejai, jāaizvēlas tādu parametru $ \lambda$, lai viena no iekavām (teiksim, pirmā) iepriekšējās izteiksmes pēdējā rindiņā būtu vienāda ar nulli (tas ir iespējams, ja $ g_{x}(x_{0};y_{0})\not=0$). Tad

$\displaystyle f_{x}(x_{0};y_{0})+\lambda g_{x}(x_{0},y_{0})=0.$    

Tā kā $ dL$ minimuma punktā ir vienāds ar nulli un diferenciālis $ dy$ var būt izvēlēts patvaļīgi, tad koeficientam pie $ dy$ arī ir jābūt vienādam ar nulli. Tātad

$\displaystyle f_{y}(x_{0};y_{0})+\lambda g_{y}(x_{0};y_{0})=0.$    

Minimuma punktā jāizpildās arī vienādībai

$\displaystyle g(x_{0};y_{0})=0.$    

Nosacītā minimuma problēmā minimuma punkta noteikšanai iegūstam trīs vienādojumu sistēmu, kura sakrīt ar sistēmu (1.4). Tātad minimuma punkta atrašanai jārisina sistēma (1.4) attiecībā pret $ x$, $ y$, $ \lambda$.

1.14. piezīme. 
Ja mēs no paša sākuma sastādītu funkciju

$\displaystyle L(x;y;\lambda)=f(x;y)+\lambda g(x;y)$    

un meklētu tai brīvā ekstrēma punktu, tad iegūtu sistēmu:

$\displaystyle \left\{\begin{array}{ccl} L_x&=&f_{x}(x,y)+\lambda g_{x}(x,y)=0,\...
...&=&f_{y}(x,y)+\lambda g_{y}(x,y)=0,\  L_\lambda&=&g(x,y)=0. \end{array}\right.$    

Tagad aplūkosim gadījumu, kad nosacītā ekstrēma problēma ir formā:

\begin{displaymath}\begin{array}{l} f(x)\longrightarrow ekstr,\;\;x\in\mathbb{R}^{n},\  g_{i}(x)=0\;\;(i=1,\ldots,m). \end{array}\end{displaymath}    

Nepieciešamais nosacījums lokālam ekstrēmam ir vienādība

$\displaystyle df=\sum\limits_{i = 1}^n{\frac{\partial f}{\partial x_i}} dx = 0,$    

kurai jāizpildās visiem pieļaujamiem diferenciāļiem $ dx_{i}$.

Savukārt pieļaujamiem diferenciāļiem jāapmierina vienādības

$\displaystyle dg_j=\sum\limits_{i =1}^n{\frac{\partial g_j}{\partial x_i}} dx_i =0 \;\;(j=1,\ldots,m).$ (1.5)

Tagad reizinām (1.5) katram $ j$ ar pagaidām nenoteiktiem skaitļiem $ \lambda_{j}$ un sastādām izteiksmi

$\displaystyle dL=df+\sum\limits_{j = 1}^m\lambda_j  dg_j.\ $ (1.6)

Ievietojot lielumu $ df$ un $ dg_{i}$ izteiksmes vienādībā (1.6) un sagrupējot locekļus, iegūstam

$\displaystyle dL=\sum\limits_{i =1}^n\left(\frac{\partial f}{\partial x_i} +\sum\limits_{j =1}^m\lambda_j \frac{\partial g_j }{\partial x_i}\right)dx_i.$    

Lielumam $ dL$ ir jābūt vienādam ar nulli visiem pieļaujamiem diferenciāļiem $ dx_{i}$, jo $ dL$ saskaņā ar (1.6) sastāv no divām daļām, katra no kurām ir vienāda ar nulli visiem pieļaujamiem diferenciāļiem. Tātad

$\displaystyle dL=0$    

visiem pieļaujamiem argumentu pieaugumiem $ dx_{i}$. No tiem tikai $ n - m$ diferenciāļi var būt izvēlēti patvaļīgi, jo argumentu pieaugumi $ dx_{i}$ ir saistīti savā starpā ar $ m$ ierobežojumiem. Izvēlēsimies Lagranža reizinātājus $ \lambda_j$ $ (j = 1,\ldots,m)$ tā, lai pirmās $ m$ iekavas lieluma $ dL$ izteiksmē būtu vienādas ar nulli. Iegūsim $ m$ vienādojumu sistēmu attiecībā pret $ \lambda_{j}$:

$\displaystyle \frac{\partial f}{\partial x_i}+\sum\limits_{j=1}^m\lambda_j  \frac{\partial g_j }{\partial x_i}=0\;\;(i=1,\ldots,m),$    

kura ir atrisināma, ja determinants $ \det\left\Vert{\frac{\partial
g_i }{\partial x_j}}\right\Vert\not=0$. Pārējās $ n - m$ iekavas ir koeficienti pie atlikušajiem $ n - m$ diferenciāļiem, kuri var būt izvēlēti patvaļīgi, un līdz ar to šie koeficienti arī ir nulles. Iegūsim vēl $ n - m$ vienādojumus

$\displaystyle \frac{\partial f}{\partial x_i}+\sum\limits_{j = 1}^m\lambda _j  \frac{\partial g_j}{\partial x_i}=0\;\;(i=m+1,\ldots,n).$    

Visbeidzot, minimuma punktā ir jāizpildās arī ierobežojumiem

$\displaystyle g_{i}(x)=0\;\;(i=1,\ldots,m).$    

Kopā $ n+m$ nezināmajiem $ x_{i},\lambda_{j}$ $ (i=1,\ldots,n;\;j=1,\ldots,m)$ ir jāapmierina $ n+m$ vienādojumu sistēmu.

1.15. piezīme. 
Vienādojumu sistēmu nezināmo $ x_{i}$, $ \lambda_{j}$ atrašanai var iegūt arī, sastādot Lagranža funkciju

$\displaystyle L(x;\lambda)=f(x)+\sum\limits_{j =1}^m\lambda_j g_j (x)$    

un meklējot tai brīvā ekstrēma punktu.


nākamais augstāk iepriekšējais saturs Matemātika DU TSC
Nākamais: 1.2.8. Uzdevumi Augstāk: 1.2. Nosacītais ekstrēms Iepriekšējais: 1.2.6. Lagranža reizinātāju metode, kad ierobežojumi

2002-05-04