Ero sivun ”Matemaattinen optimointi” versioiden välillä
[arvioimaton versio] | [arvioimaton versio] |
Poistettu sisältö Lisätty sisältö
p pilkku lisätty ja reaalijoukon tunnus muutettu R -> \mathbb{R} |
kieliasua siistitty; pieniä kappaleiden jäsennyksiä |
||
Rivi 1:
'''Matemaattinen optimointi''' on sellaisen pisteen <math>x^{*} \in A</math> etsiminen, jossa [[funktio]] <math>f : A \to \mathbb{R}</math> saa pienimmän arvonsa. Tätä pistettä <math>x^{*}</math> kutsutaan [[minimipiste|minimipisteeksi]]. Minimipisteen etsimistä kutsutaan ''minimoinniksi'' tai ''optimoinniksi''. Rajoitetussa optimointitehtävässä lähtöavaruudessa <math>A</math> on pisteitä, joita ei voida hyväksyä ratkaisuiksi. Vastaavasti ''maksimointi'' on sellaisen pisteen <math>y^{*} \in B</math> etsimistä, jossa funktio <math>g : B \to \mathbb{R}</math> saa suurimman arvonsa <math>g(y^{*})</math>.
Jokaista maksimointiongelmaa vastaa tietty minimointiongelma, joka ratkaisee maksimointiongelman. Funktion <math>g</math> maksimointi on sama tehtävä kuin funktion <math>f=-g</math> minimointi. Näin ollen matemaattisen optimointiteorian riittää tarkastella pelkästään minimointiongelmia. Funktiolla voi olla lokaaleja sekä globaaleja minimejä. Globaali minimi määritellään pisteeksi <math>\mathbf{x}^*</math>, jolle pätee <math>f(\mathbf{x}^*)\leq f(\mathbf{x})</math> kaikilla <math>\mathbf{x}</math>, jotka kuuluvat käypään alueeseen, eli sitä pienempää funktion arvoa ei voida saavuttaa käyvässä joukossa. Lokaali minimi määritellään pisteeksi <math>\mathbf{x}_{\mathrm{lok}}^*</math>, jolle on olemassa <math>\epsilon > 0</math> siten, että <math>f(\mathbf{x}_{\mathrm{lok}}^*) \leq f(\mathbf{x}_{\mathrm{lok}}^*+\mathbf{h})~,\forall \mathbf{h},~||\mathbf{h}||\leq \epsilon</math> ja <math>\mathbf{x}_{\mathrm{lok}}^*+\mathbf{h}</math> kuuluu käypään joukkoon.
▲Jokaista maksimointiongelmaa vastaa tietty minimointiongelma, joka ratkaisee maksimointiongelman. Funktion <math>g</math> maksimointi on sama tehtävä kuin funktion <math>f=-g</math> minimointi. Näin ollen matemaattisen optimointiteorian riittää tarkastella pelkästään minimointiongelmia. Funktiolla voi olla lokaaleja sekä globaaleja minimejä. Globaali minimi määritellään pisteeksi <math>\mathbf{x}^*</math>, jolle pätee <math>f(\mathbf{x}^*)\leq f(\mathbf{x})</math> kaikilla <math>\mathbf{x}</math>, jotka kuuluvat käypään alueeseen, eli sitä pienempää funktion arvoa ei voida saavuttaa käyvässä joukossa. Lokaali minimi määritellään pisteeksi <math>\mathbf{x}_{\mathrm{lok}}^*</math>, jolle on olemassa <math>\epsilon > 0</math> siten, että <math>f(\mathbf{x}_{\mathrm{lok}}^*) \leq f(\mathbf{x}_{\mathrm{lok}}^*+\mathbf{h})~,\forall \mathbf{h},~||\mathbf{h}||\leq \epsilon</math> ja <math>\mathbf{x}_{\mathrm{lok}}^*+\mathbf{h}</math> kuuluu käypään joukkoon. Ts. on olemassa jokin alue eli ympäristö, jossa piste <math>\mathbf{x}_{\mathrm{lok}}^*</math> antaa pienempiä funktion arvoja kun muut pisteet.
missä <math>f:\mathbb{R}^n\mapsto \mathbb{R}</math> on kohdefunktio ja <math>S</math> käypä joukko. Käyvällä joukolla tarkoitetaan
Optimointiteoriassa hyödynnetään usein funktion derivaatan nollakohtaa. [[konveksi funktio|Konveksin funktion]] optimointi [[konveksi joukko|konveksissa]] käyvässä joukossa ja mahdollistaa epälineaarisen tehtävän globaalian optimin löytämisen.
▲Optimointiongelma <math>P</math> esitetään matemaattisesti yleensä muodossa
▲<math>P: \min f(\mathbf{x})~,~\mathbf{x\in S}~,</math>
▲missä <math>f:\mathbb{R}^n\mapsto \mathbb{R}</math> on kohdefunktio ja <math>S</math> käypä joukko. Käyvällä joukolla tarkoitetaan sitä joukko johon x:n on kuuluttava.
==Esimerkkejä==
Rivi 86 ⟶ 84:
missä <math>f,g_i,h_j:\mathbb{R}^n\mapsto \mathbb{R}</math>, ''f'' on kohdefunktio, funktiot <math>g_i</math> epäyhtälörajoitukset, <math>h_j</math> yhtälörajoitukset ja X käypä joukko. Huomaa, että vaikka yhtälörajoitukset voidaan esittää pelkästään epäyhtälörajoitusten avulla (<math>h_i = 0 \Rightarrow h_i \leq 0 \wedge -h_i \leq 0</math>), ei näin kuitenkaan kannata tehdä: Monet johdetut tulokset olettavat rajoitusten lineaarista riippumattomuutta, jolloin kätevin tapa ratkaista on erotella yhtälö- ja epäyhtälörajoitukset.
Epälineaarinen ja lineaarinen tehtävä (LP) eroavat toisistaan monissa kohdissa.
Epälineaarinen tehtävä on lineaarista tehtävää siis yleisempi,
=== Välttämättömät optimaalisuusehdot ===▼
Jos jokin piste on optimaalinen, se täyttää välttämättömät optimaalisuusehdot. Lause ei päde toisin päin, eli tehtävälle voidaan löytää optimaalisuusehdot täyttävä piste, joka ei ole optimipiste.
▲===Välttämättömät optimaalisuusehdot===
Rajoittamattoman tehtävän välttämätön optimaalisuusehto optimointitehtävän ratkaisupisteelle <math>\mathbf{x}^*</math> on
====Fritz-Johnin välttämättömät optimaalisuusehdot====
Rivi 101:
Olkoon käypä joukko epätyhjä ja avoin sekä <math>\mathbf{x}</math> jonkin epälineaarisen tehtävän lokaali optimi. Tällöin on olemassa vektori <math>(u_0,\mathbf{u,v})</math> siten, että
:<math>u_0\nabla f(\mathbf{x})+\sum_{i=1}^m u_i \nabla g_i(\mathbf{x})+\sum_{i=1}^l v_i \nabla h_i(\mathbf{x}) = 0</math>
:<math>u_0 \geq 0, u_i \geq 0, i = 1,...,m</math>▼
missä <math>\mathbf{u}</math> ja <math>\mathbf{v}</math> ovat m ja l vektoreita joiden i:nnet komponintit ovat <math>u_i</math> ja <math>v_i</math>. Luonnollisesti on oletettava, että gradientit ovat olemassa. FJ-ehdot saadaan toteutumaan mielivaltaiselle käyvälle pisteelle lisäämällä sopivia merkityksettömiä rajoituksia.▼
▲<math>u_i g_i(\mathbf{x}) = 0, i = 1,...,m</math>
▲<math>u_0 \geq 0, u_i \geq 0, i = 1,...,m</math>
▲missä <math>\mathbf{u}</math> ja <math>\mathbf{v}</math> ovat m ja l vektoreita joiden i:nnet komponintit ovat <math>u_i</math> ja <math>v_i</math>. Luonnollisesti on oletettava, että gradientit ovat olemassa.
====Karush-Kuhn-Tuckerin välttämättömät optimaalisuusehdot====
Fritz-Johnin ehdot redusoituvat tietyin ehdoin KKT-ehdoiksi. KKT-ehdot ovat FJ-ehtoja hyödyllisempiä, sillä ne karsivat pois turhia kandidaattipisteitä. Käytännössä näiden ehtojen on taattava, että FJ-ehtojen <math>u_0</math> on nollasta poikkeava, jolloin jakamalla sillä puolittain saadaan ns. KKT-ehdot.
Olkoon <math>\mathbf{x}</math> jonkin epälineaarisen tehtävän lokaali optimi, jolla on sopivat rajoitusehdot. Tällöin on olemassa vektori <math>(\mathbf{u,v})</math> siten, että
:<math>\nabla f(\mathbf{x})+\sum_{i=1}^m u_i \nabla g_i(\mathbf{x})+\sum_{i=1}^l v_i \nabla h_i(\mathbf{x}) = 0</math>
:<math>u_i g_i(\mathbf{x}) = 0, i = 1,...,m</math>
:<math>u_i
▲<math>u_i \geq 0, i = 1,...,m</math>
missä <math>\mathbf{u}</math> ja <math>\mathbf{v}</math> ovat m ja l vektoreita joiden i:nnet komponentit ovat <math>u_i</math> ja <math>v_i</math>.
|