Oggetti di controllo dinamico di grandi dimensioni. Controllo ottimo di sistemi dinamici lineari

REFERENZE

1. Popov E.V. Sistemi esperti in tempo reale [ Risorsa elettronica] // Sistemi aperti - 1995. - № 2. - Elettrone. Dan. - Modalità di accesso: http://www.osp.ru/text/302/178608/

2. Crossland R., Sims W.J.H., McMahon C.A. Un framework di modellazione orientato agli oggetti per rappresentare l'incertezza nella progettazione di varianti iniziali. // Ricerca in progettazione ingegneristica - 2003. - № 14. -С. 173-183.

3. Landmark Graphics ARIES [risorsa elettronica] - Electron. Dan. - 2006. - Modalità di accesso: http://www.geographix.com/ps/vi-ewpg.aspx?navigation_id=1273

4. Schlumberger Merak [risorsa elettronica] - Electron. Dan. -2006. - Modalità di accesso: http://www.slb.com/content/servi-ces/software/valuerisk/index.asp

5. Gensim G2 [risorsa elettronica] - Electron. Dan. - 2006. - Modalità di accesso: - http://www.gensym.com/?p=what_it_is_g2

6. Thurston D.L., Liu T. Valutazione del progetto di più attributi Un-

der Uncertainty // Automazione dei sistemi: ricerca e applicazioni.

1991. - V. 1. - N. 2. - P. 93-102.

7. Paredis C.J.J., Diaz-Calderon A., Sinha R., Khosla P.K. Modelli componibili per la progettazione basata sulla simulazione // Ingegneria con i computer. - 2001. - N. 17. - P. 112-128.

8. Silich M.P. Tecnologia di sistema: un approccio orientato agli oggetti. - Tomsk: Tom. stato Università dei sistemi di controllo e radioelettronica, 2002. - 224 p.

9. Silich MP, Starodubtsev GV. Modello a oggetti di selezione progetti di investimento sviluppo di giacimenti di petrolio e gas. // Automazione, telemeccanizzazione e comunicazione in industria petrolifera. - 2004. - N. 11. - S. 16-21.

10. Khabibulina N.Yu., Silich M.P. Ricerca di soluzioni sul modello delle relazioni funzionali // Tecnologie dell'informazione

2004. - N. 9. - S. 27-33.

11. Jess Rete Algorithm [risorsa elettronica] - Electron. Dan. -

2006. - Modalità di accesso: http://www.jessru-

les.com/jess/docs/70/rete.html

UTILIZZO DI CONTROLLI DI DIMENSIONALITÀ ECCESSIVA PER AUTONOMIZZAZIONE DI USCITE CONTROLLATE DI OGGETTI DI REGOLAZIONE MULTIDIMENSIONALE

SONO. Malyshenko

E-mail dell'Università Politecnica di Tomsk: [e-mail protetta]

Vengono sistematizzate le informazioni sull'influenza dei controlli delle dimensioni in eccesso sull'autonomizzabilità delle uscite di oggetti dinamici lineari stazionari, vengono proposti algoritmi per la sintesi di precompensatori che forniscono un effetto simile e feedback sullo stato e sull'uscita.

introduzione

Il problema del controllo autonomo (indipendente) dei componenti dell'output controllato di un oggetto è uno dei compiti più importanti in termini pratici nella sintesi dei sistemi controllo automatico(ACS), forse, per la maggior parte degli oggetti di controllo multidimensionali in termini di output. Ha trovato il suo riflesso in molte pubblicazioni, anche monografiche, in particolare in.

I problemi di autonomizzazione per oggetti multidimensionali stazionari lineari sono stati elaborati in modo più dettagliato. Molto spesso vengono posti e risolti i problemi di autonomizzazione (disaccoppiamento) di ciascuna delle uscite dell'oggetto, inoltre, il vettore di controllo (RCV) che non ha una dimensione in eccesso m. A causa dell'irraggiungibilità in linea di principio di tale soluzione per molti oggetti del tipo specificato, questo problema viene modificato in un problema più generale di disaccoppiamento riga per riga, definito come problema di Morgan, quando per un oggetto con p uscite è necessario per determinare p insiemi di controlli m>p e la corrispondente legge di controllo, con la quale ciascuno degli insiemi agisce su una sola uscita. Pertanto, la soluzione è determinata nella classe ACS con una dimensione in eccesso del vettore di controllo secondo

rispetto alla dimensione del vettore delle variabili controllate.

Insieme alle affermazioni di cui sopra, i problemi di autonomizzazione sono anche formulati come problemi di autonomizzazione blocco per blocco (disaccoppiamento), quando l'indipendenza è fornita solo tra le coordinate di uscita incluse nei loro diversi blocchi, ma non all'interno di questi blocchi (gruppi), così come come autonomizzazione a cascata. In quest'ultimo caso, la dipendenza delle coordinate di uscita tra loro è di natura "a catena" (ciascuna successiva dipende solo dalle precedenti, ma non dalle successive nella serie stabilita per esse). E in questi casi la soluzione dei problemi di autonomizzazione spesso richiede ridondanza nella dimensione del vettore di controllo rispetto al numero di variabili controllate.

Condizioni per la risolvibilità dei problemi di autonomizzazione

Le soluzioni ai problemi di autonomizzazione si trovano solitamente nella classe dei precompensatori lineari o dei feedback lineari statici o dinamici, e per questi scopi vengono utilizzati sia l'apparato delle matrici di trasferimento (il più delle volte) sia i metodi stato-spazio, gli approcci strutturali e geometrici. Gli ultimi due

gli approcci completano con successo i primi, poiché di fatto solo con il loro aiuto è stato possibile stabilire la maggior parte delle condizioni note per la risolvibilità dei problemi di autonomizzazione [6], per dare interpretazioni più approfondite delle loro soluzioni.

Quando si utilizzano per l'autonomizzazione (disaccoppiamento) le uscite di un oggetto precompensatore multidimensionale lineare, ovvero un controller che implementa un controllo rigoroso nella funzione di impostazione ¡d(t) senza feedback, la sua matrice di trasferimento Wy(s) è scelta dalla condizione

Wœ(s) = Wo(s) -W y(s), (1)

dove Wo(s) è la matrice di trasferimento dell'oggetto di controllo, e Wx(s) è la matrice di trasferimento desiderata del sistema sintetizzato che soddisfa le condizioni per il suo disaccoppiamento dalle uscite.

Il feedback statico lineare utilizzato per questi scopi corrisponde all'algoritmo di controllo

u(t) = F x(t) + G /u(t), (2)

e dinamico -

u (s) = F (s) x(s) + G fi(s). (3)

Tali retroazioni sono realizzabili sia con una trasformazione regolare (la matrice G è invertibile) sia con una irregolare della specificazione ¡d(t) del sistema.

Secondo quanto sopra i feedback dinamici possono essere definiti come un caso speciale di estensioni dinamiche che completano l'oggetto descritto dal sistema di equazioni nella forma di "input-state-output" della forma

x (t) = Ax (t) + Bu (t), y(t) = C x (t),

ua (t) p _ xa (t)_

dove xa(/) = ua(/), o dall'equazione dell'operatore generalizzata

e (5) = G(5) x(5") + O(5) ¡l(5).

Il controllo di un oggetto con un modello di visualizzazione secondo l'algoritmo (2) fornisce la matrice di trasferimento finale del sistema

W^) \u003d C (51 - (A + B G (5))) ~ 1BO \u003d

J0(5) . (1 - SOL (5) (51 - LA) -1 SI) -1 O \u003d W0 (5) . H(5), (4)

dove Wo(s)=C(sI-AylB e #(£) sono rispettivamente le matrici di trasferimento dell'oggetto e del precompensatore, equivalenti in termini di effetto di retroazione, I è la matrice identità di dimensione nxn.

La trasformata canonica di Morse g=(T,F,G,R,S) utilizzata nell'approccio geometrico con T,G,S invertibile della matrice di trasferimento Wo(s) dell'oggetto "Lo(C,A,B)

(A, B, C) ^ (TA A + BF + R C) T, T ~lBG, SCT)

riduce Wo(s) alle sue trasformazioni bicausali sinistra e destra della forma

W0(s) ^ Bi(s)-W0(s)-B2(s), (5)

dove B1(s) = S_1;

B2(s) = -G.

Da (4) e (5) segue che la statica regolare

(2) e i feedback dinamici (3) possono essere interpretati come precompensatori bicausali, cioè possono essere sostituiti da precompensatori bicausali che hanno effetti equivalenti. In relazione alla seconda vale anche l'affermazione inversa, tuttavia il precompensatore bicausale H(s) è realizzato secondo la forma di una retroazione statica lineare equivalente solo per un oggetto con Wo(s) di minima implementazione, e se e solo se Wo(s) e H-1(s) - matrici polinomiali.

Da (5), possiamo anche concludere che i precompensatori bicausali ei loro corrispondenti feedback statici e dinamici regolari non possono cambiare la struttura del sistema all'infinito e le sue proprietà, in particolare, l'inerzia minima (ritardi) dei canali di controllo autonomi. Questi cambiamenti possono essere raggiunti solo nella classe degli algoritmi di controllo irregolari.

Le condizioni di risolvibilità dei problemi di autonomizzazione sono legate alle proprietà strutturali degli oggetti gestiti, descritti dalle loro liste di invarianti. Inoltre, l'insieme richiesto per questo è determinato da quale algoritmo (compensatore) si prevede di utilizzare per questi scopi. Di conseguenza, per determinare le retroazioni dinamiche di disaccoppiamento realizzabili, è sufficiente disporre di informazioni sulla struttura input-output dell'oggetto, incorporate nella sua matrice di trasferimento o nella minima parte della descrizione nello spazio degli stati. La risolvibilità di questo problema utilizzando il feedback sullo stato statico è stabilita da struttura interna oggetto di controllo, in particolare basato sullo studio delle sue matrici di sistema Rosenbrock o Kronecker o sulla decomposizione canonica Morse.

Il pre-compensatore che disaccoppia le uscite dell'oggetto secondo le righe può essere determinato da (1) se e solo se m>p, e le matrici [ Wo(s) : W(s)] e Wo(s) hanno la stessa struttura della forma Smith-McMillan all'infinito.

Se la matrice di trasferimento dell'oggetto ha rango di riga completo ( condizione necessaria linea-

disaccoppiamento fornito solo a t>p), allora il disaccoppiamento può essere fornito da un precompensatore con una matrice di trasferimento

dove Wnob(s) è l'inverso destro di W0(s) e k è un numero intero che rende Wn(s) un'automatrice.

È dimostrato che il disaccoppiamento con feedback statico regolare (2) è possibile se e solo se è possibile il disaccoppiamento con feedback dinamico regolare

(3). A sua volta, secondo , quest'ultimo è possibile se e solo se la struttura infinita della matrice di trasferimento dell'oggetto è l'unione delle strutture infinite delle sue righe.

La regolarità del feedback implica infatti che l'oggetto non abbia ridondanza nella dimensione del vettore di controllo (m=p). Pertanto, se in questo caso il disaccoppiamento non è realizzabile e l'oggetto controllato ha un potenziale IRTI, allora per ottenere l'autonomia di controllo di ciascuno dei valori di uscita, è consigliabile utilizzare questa ridondanza o alcune modifiche costruttive nell'oggetto di controllo per raggiungere prima il suo IRTI. Va inoltre tenuto presente che in situazioni in cui m>p feedback regolari possono non portare al risultato desiderato, mentre nella classe dei precompensatori irregolari o lo stesso feedback può essere ottenuto. Ad esempio, per un oggetto con una matrice di trasferimento

I feedback irregolari corrispondono a precompensatori semplicemente causali (strettamente propri). Pertanto, i sistemi che formano con l'oggetto di controllo generalmente non preservano la struttura dell'oggetto controllato all'infinito. Questo, in particolare, può essere utilizzato per garantire la stabilità del sistema sintetizzato. Ricordiamo che nel 1996 è stato dimostrato che con l'aiuto di feedback regolari, il disaccoppiamento e la stabilità del sistema possono essere raggiunti simultaneamente se e solo se l'oggetto non ha zeri invarianti instabili della relazione. Gli ultimi sono quegli zeri invarianti £0(C, A, B) che non sono uguali

zeri temporalmente e invarianti dei sottosistemi di riga £;(C,A,B). Qui c, /e 1,p è la /esima riga della matrice C dell'oggetto. Questi zeri, in funzione delle condizioni di disaccoppiamento, determinano i vincoli sulla scelta dei poli del sistema sintetizzato. In questo caso, l'insieme dei poli fissi (che non consentono assegnazioni arbitrarie) di un sistema disaccoppiato dalle uscite deve necessariamente includere tutti gli zeri invarianti della relazione.

Pertanto, l'algoritmo di controllo nel caso di zeri retti invarianti della relazione nell'oggetto deve essere scelto dalla condizione che sarà in grado di apportare la correzione necessaria per le condizioni di stabilità nelle proprietà strutturali del sistema. Tali, come mostrato sopra, possono essere algoritmi con feedback irregolare, che sono effettivamente implementati nella classe dei sistemi con IRVE.

Non è stata ancora ottenuta una soluzione completa al problema del disaccoppiamento utilizzando il feedback per oggetti con zeri invarianti retti della relazione. In particolare, per la sua implementazione con feedback statico, è necessario, come segue da , rendere la struttura del sottospazio di massima controllabilità contenuta in KerC sufficientemente ricca perché la struttura infinita cresca fino all'elenco degli ordini di oggetti essenziali. Questi ultimi caratterizzano il grado di dipendenza all'infinito tra i singoli output e tutti gli altri e possono essere calcolati con la formula:

pgv \u003d HPg -X Pg g \u003d 1 g \u003d 1

le uscite non sono disaccoppiate da un feedback regolare, ma sono disaccoppiate da un precompensatore a matrice di trasferimento statico

Qui n è l'ordine dello zero infinito del sistema s¡ nella forma della matrice di trasferimento di Smith-McMillan dell'oggetto. La prima somma in (6) è determinata per il sistema £0(C, A, B) nel suo insieme, e la seconda - per CS;, A, B), dove C / è la matrice C senza /- gettare. Gli ordini essenziali qui indicati determinano la minima struttura infinita ottenibile da un sistema disaccoppiato.

Per il feedback irregolare dinamico in, viene stabilita solo la condizione di disaccoppiamento, che si riduce al fatto che la ridondanza della dimensione del vettore di controllo (m-p) deve essere maggiore o uguale al deficit del rango di colonna all'infinito della matrice dell'interazione W0 (s), e quest'ultimo deve avere rango di riga pieno. L'interazione specificata della matrice di trasferimento dell'oggetto W0(s) è la matrice inversa alla forma Hermitiana di W0(s). Di passaggio, notiamo che il /-esimo ordine essenziale di un oggetto può essere determinato attraverso l'interazione della sua matrice di trasferimento ed è uguale al grado polinomiale della sua -esima colonna.

Decisioni generali per la sintesi di algoritmi di controllo nella classe di ACS con IRVU anche per oggetti lineari che danno autonomia

le loro uscite non sono ancora state ricevute. L'uso di controlli di dimensione in eccesso nella risoluzione dei problemi di disaccoppiamento riga per riga (autonomia delle uscite) di un oggetto è effettivamente necessario.

Questa è una condizione importante in quei casi in cui l'oggetto controllato non soddisfa le condizioni per la risolvibilità di questo problema nella classe dei precompensatori bicausali e dei loro corrispondenti feedback.

BIBLIOGRAFIA

1. Wonem M. Sistemi di controllo multidimensionali lineari. - M.: Nauka, 1980. - 375 p.

2. Rosenbrock S.A. Teoria dello spazio degli stati e delle multivariabili. - Londra: Nelson, 1970. - 257 p.

3. Meerov M. V. Ricerca e ottimizzazione di sistemi di controllo a connessione multipla. - M.: Nauka, 1986. - 233 p.

4. Malyshenko A.M. Sistemi di controllo automatico con dimensione eccessiva del vettore di controllo. - Tomsk: casa editrice del Politecnico di Tomsk. un-ta, 2005. - 302 p.

5. Commault C., Lafay J.F., Malabre M. Struttura dei sistemi lineari. Approcci geometrici e di matrice di trasferimento // Cybernetika. - 1991.

V. 27. - N. 3. - P. 170-185.

6. Descusse J., Lafay J.F., Malabre M. Soluzione del problema di Morgan // IEEE Trans. automatico. controllo. - 1988. - V. aC-33. -P. 732-739.

7 Morse A.S. Invarianti strutturali di sistemi multivariabili lineari // SIAM J. Controllo. - 1973. - N. 11. - P. 446-465.

8. Aling H., Schumacher J.M. Una decomposizione canonica in nove parti per sistemi lineari // Int. J. Controllo. - 1984. - V. 39. - P 779-805.

9. Hautus MLJ, Heymann H. Feedback lineare. Un approccio algebrico // SIAM J. Control. - 1978. - N. 16. - P. 83-105.

10. Descusse J., Dion J.M. Sulla struttura all'infinito dei sistemi lineari quadrati disaccoppiabili // IEEE Trans. automatico. controllo. - 1982.-V. AC-27. - Pag. 971-974.

11. Falb PL., Wolovich W. Disaccoppiamento nella progettazione e sintesi di sistemi multivariabili // IEEE Trans. automatico. controllo. - 1967. -V. AC-12. - P 651-669.

12. Dion JM, Commault C. Il problema del disaccoppiamento del ritardo minimo: implementazione del feed-back con stabilità // SIAM J. Control. -1988. - N. 26. - P. 66-88.

UDC 681.511.4

CORRETTORI PSEUDOLINEARI ADATTATIVI DELLE CARATTERISTICHE DINAMICHE DEI SISTEMI DI CONTROLLO AUTOMATICO

MV Skorospeshkin

E-mail dell'Università Politecnica di Tomsk: [e-mail protetta]

Vengono proposti correttori adattativi pseudo-lineari di ampiezza e di fase delle proprietà dinamiche dei sistemi di controllo automatico. È stato effettuato uno studio delle proprietà dei sistemi di controllo automatico con correttori adattativi. Viene mostrata l'efficacia dell'uso di correttori adattivi pseudo-lineari nei sistemi di controllo automatico con parametri non stazionari.

Nei sistemi di controllo automatico per oggetti le cui proprietà cambiano nel tempo, è necessario garantire un cambiamento mirato delle caratteristiche dinamiche del dispositivo di controllo. Nella maggior parte dei casi, ciò avviene modificando i parametri dei regolatori proporzionale-integrale-derivativo (regolatori PID). Tali approcci sono descritti, ad esempio, in , tuttavia, l'implementazione di questi approcci è associata all'identificazione o all'uso di metodi speciali basati su calcoli lungo la curva transitoria. Entrambi questi approcci richiedono un notevole tempo di messa a punto.

Questo articolo presenta i risultati dello studio delle proprietà dei sistemi di controllo automatico con un controller PID e correttori adattativi sequenziali di ampiezza e fase pseudo-lineari delle caratteristiche dinamiche. Questo tipo di adattamento è caratterizzato

il fatto che durante il funzionamento del sistema di controllo i parametri del controller non cambiano e corrispondono all'impostazione prima dell'avvio del sistema in funzione. Durante il funzionamento del sistema di controllo, a seconda del tipo di correttore utilizzato, cambia il coefficiente di trasmissione del correttore o lo sfasamento da esso creato. Questi cambiamenti si verificano solo nei casi in cui vi sono fluttuazioni nel valore controllato associate a un cambiamento nelle proprietà dell'oggetto di controllo o dovute all'impatto di disturbi sull'oggetto di controllo. E questo consente di garantire la stabilità del sistema e migliorare la qualità dei processi transitori.

La scelta dei correttori pseudo-lineari per l'implementazione del sistema adattivo è spiegata come segue. I correttori utilizzati per modificare le proprietà dinamiche dei sistemi di controllo automatico possono essere suddivisi in tre gruppi: lineari, non lineari e pseudo-lineari. Il principale svantaggio dei correttori lineari è associato a

Negli esempi considerati (il problema del caricamento dello zaino e il problema dell'affidabilità), è stata utilizzata una sola variabile per descrivere gli stati del sistema e anche il controllo è stato assegnato a una variabile. Nel caso generale, nei modelli di programmazione dinamica, stati e controlli possono essere descritti utilizzando diverse variabili che formano i vettori di stato e di controllo.

Un aumento del numero di variabili di stato provoca un aumento del numero opzioni decisioni associate a ciascuna delle fasi. Questo può portare al cosiddetto problema della “maledizione della dimensionalità”, che rappresenta un serio ostacolo alla soluzione di problemi di programmazione dinamica di medie e grandi dimensioni.

Ad esempio, considera il problema di caricare uno zaino, ma con due vincoli (ad esempio, vincoli di peso e volume):

Dove , . Poiché l'attività ha due tipi di risorse, è necessario inserire due parametri di stato e . Denota , , . Allora le restrizioni (1) possono essere ridotte alla forma:

Dove . Nelle equazioni ricorrenti del metodo di programmazione dinamica per il problema dello "zaino" con due vincoli (1):

ciascuna delle funzioni , è una funzione di due variabili. Se ciascuna delle variabili , può assumere 10 2 valori, allora la funzione deve essere tabulata in 10 4 punti. Nel caso di tre parametri, nelle stesse ipotesi, occorre calcolare 10 8 le potenze dei valori delle funzioni .

Quindi l'ostacolo più grande applicazione pratica la programmazione dinamica risulta essere una serie di parametri del problema.

Problema di gestione dell'inventario.

Il problema della gestione dell'inventario si pone quando è necessario creare uno stock di risorse materiali o merci per soddisfare la domanda per un dato intervallo di tempo (finito o infinito). In qualsiasi attività di gestione dell'inventario, è necessario determinare la quantità di prodotti ordinati e i tempi di immissione degli ordini. La domanda può essere soddisfatta creando uno stock una volta per l'intero periodo di tempo considerato, oppure creando uno stock per ogni unità di tempo in quel periodo. Il primo caso corrisponde a un'offerta in eccesso rispetto a un'unità di tempo, il secondo a un'offerta insufficiente rispetto a un periodo di tempo completo.

L'eccesso di scorte richiede investimenti di capitale unitari più elevati (per unità di tempo), ma le scorte si verificano meno frequentemente e gli ordini vengono effettuati meno frequentemente. D'altra parte, con un'offerta insufficiente, specifica investimenti di capitale sono in calo, ma aumentano la frequenza degli ordini e il rischio di carenze. Per ciascuno di questi casi estremi, sono caratteristiche perdite economiche significative. Pertanto, le decisioni riguardanti la dimensione di un ordine e la tempistica della sua collocazione possono essere basate sulla minimizzazione della funzione corrispondente dei costi totali, inclusi i costi dovuti a perdite dovute a scorte in eccesso e carenze.



Questi costi includono:

1. Costi di acquisizione, che diventano un fattore particolarmente importante quando il prezzo unitario è espresso come sconti sul volume quando il prezzo unitario diminuisce all'aumentare della dimensione dell'ordine.

2. I costi di elaborazione dell'ordine sono prezzi fissi associato al suo posizionamento. Quando la domanda viene soddisfatta entro un dato periodo di tempo effettuando ordini più piccoli (più spesso), i costi aumentano rispetto al caso in cui la domanda viene soddisfatta effettuando più grossi ordini(e quindi meno spesso).

3. I costi di mantenimento dell'inventario, che sono i costi per mantenere l'inventario in magazzino (interessi sul capitale investito, ammortamento e costi operativi), in genere aumentano con i livelli di inventario.

4. Perdite dovute a carenze dovute alla mancanza di scorte di prodotti necessari. Di solito sono associati a sanzioni economiche da parte dei consumatori, potenziale perdita di profitti. La figura 1 illustra la dipendenza dei tipi di costi considerati dal livello delle scorte di prodotti. In pratica, una componente di costo può essere ignorata se non costituisce una parte significativa dei costi totali. Ciò porta a una semplificazione dei modelli di gestione dell'inventario.


Tipi di modelli di gestione dell'inventario.

Un'ampia varietà di modelli di gestione dell'inventario è determinata dalla natura della domanda di prodotti, che può essere deterministica o probabilistica. La Figura 2 mostra lo schema di classificazione della domanda adottato nei modelli di gestione dell'inventario.

La domanda statica deterministica presuppone che l'intensità del consumo rimanga invariata nel tempo. Domanda dinamica: la domanda è nota ma cambia nel tempo.

La natura della domanda può essere descritta nel modo più accurato per mezzo di distribuzioni probabilistiche non stazionarie. Tuttavia, da un punto di vista matematico, il modello diventa molto più complicato, soprattutto con l'aumentare del periodo di tempo considerato.

In sostanza, la classificazione di Fig. 2 può essere considerata come una rappresentazione di diversi livelli di astrazione della descrizione della domanda.

Al primo livello si assume che la distribuzione di probabilità della domanda sia stazionaria nel tempo, cioè la stessa funzione di distribuzione di probabilità viene utilizzata durante tutti i periodi di tempo studiati. Con questa ipotesi, l'effetto delle fluttuazioni stagionali della domanda non viene preso in considerazione nel modello.

Al secondo livello di astrazione vengono prese in considerazione le variazioni della domanda da un periodo all'altro. Tuttavia, le funzioni di distribuzione non vengono applicate e le esigenze in ciascun periodo sono descritte dalla domanda media. Questa semplificazione significa che l'elemento di rischio nella gestione dell'inventario non viene preso in considerazione. Ma permette di studiare le fluttuazioni stagionali della domanda, che, per difficoltà analitiche e computazionali, non possono essere prese in considerazione in un modello probabilistico.

Al terzo livello di semplificazione, si assume che la domanda durante qualsiasi periodo sia uguale al valore medio della domanda nota per tutti i periodi considerati, cioè stimare la sua intensità costante.

La natura della domanda è uno dei fattori principali nella costruzione di un modello di gestione dell'inventario, ma ci sono altri fattori che influenzano la scelta del tipo di modello.

1. Ritardo nelle consegne. Una volta effettuato un ordine, potrebbe essere consegnato immediatamente o potrebbe essere necessario del tempo per il completamento. L'intervallo di tempo tra il momento in cui viene effettuato un ordine e la sua consegna è chiamato ritardo di consegna. Questo valore può essere deterministico o casuale.

2. Rifornimento delle scorte. Il processo di ricostituzione delle scorte può essere effettuato istantaneamente o in modo uniforme nel tempo.

3. Periodo di tempo determina l'intervallo durante il quale viene regolato il livello di inventario. A seconda del periodo di tempo in cui è possibile prevedere in modo affidabile lo stock, il periodo considerato è considerato finito o infinito.

4. Numero di punti di stoccaggio. Un sistema di gestione dell'inventario può includere più punti di conservazione dell'inventario. In alcuni casi, questi punti sono organizzati in modo tale che uno funga da fornitore per un altro. Questo schema è talvolta implementato a diversi livelli, in modo che un punto consumatore di un livello possa diventare un punto fornitore di un altro. In questo caso si ha un sistema di controllo a struttura ramificata.

5. Numero di tipi di prodotto. Più di un tipo di prodotto può apparire nel sistema di gestione dell'inventario. Questo fattore viene preso in considerazione a condizione che esista una certa dipendenza tra i tipi di prodotti. Quindi, per prodotti diversi, può essere utilizzato lo stesso magazzino, oppure la loro produzione può essere effettuata con vincoli sul totale degli asset produttivi.

Modelli deterministici di gestione dell'inventario.

1. Modello di definizione generalizzato deterministico dimensione ottimale lotti di prodotti nell'ipotesi di una carenza.

Il sistema di gestione dell'inventario viene considerato quando i prodotti vengono consegnati al magazzino direttamente dalla linea di produzione con un'intensità costante di unità di produzione per unità di tempo. Al raggiungimento di un certo livello di stock Q la produzione viene interrotta. La ripresa della produzione e la consegna dei prodotti al magazzino viene effettuata nel momento in cui la domanda insoddisfatta raggiunge un certo valore G. Lo stock è speso con intensità. Sono noti i valori dei seguenti parametri: - il costo di stoccaggio di un'unità di merce in un magazzino per unità di tempo; - il costo dell'organizzazione di un ordine (un lotto di prodotti); - perdite da domanda insoddisfatta (penale). È necessario trovare il volume ottimale di un lotto di prodotti e l'intervallo di tempo tra i punti di ripresa della consegna secondo il criterio dei costi totali minimi dal funzionamento del sistema di gestione dell'inventario.

Graficamente, le condizioni del problema sono mostrate in Fig.3.

La figura mostra che il rifornimento e l'esaurimento dello stock vengono eseguiti contemporaneamente durante l'intervallo di ciascun ciclo. scorta accumulata Q completamente consumato durante l'intervallo. Durante l'intervallo, la domanda non è soddisfatta, ma si accumula. Domanda insoddisfatta G coperto nell'intervallo.

Il valore è chiamato gestione dell'inventario a ciclo completo.- scorte marginali di prodotti, G- scarsità marginale di prodotti.

Ovviamente, l'attuale livello di inventario del prodotto è determinato dalla formula:

Dal triangolo OAB segue:

Allo stesso modo, possiamo definire , e (2)

Dalla somiglianza dei triangoli OAC e CEF, possiamo scrivere Dall'uguaglianza segue che (3)

L'espressione (3), tenendo conto della (1), sarà riscritta:

Poi importo totale il costo del rifornimento, dello stoccaggio di uno stock di prodotti e di un'eventuale penale per domanda insoddisfacente sarà determinato dall'espressione:

Se portiamo i costi per unità di tempo, l'espressione per i costi unitari sarà simile a:

Quindi c'è una funzione di due argomenti Q e T, i cui valori ottimali sono determinati come soluzione al problema:

Per trovare il minimo di una funzione a due argomenti è necessario e sufficiente risolvere il sistema di equazioni:

Ciò deriva dal fatto che la funzione è una funzione concava rispetto ai suoi argomenti. La soluzione del sistema di equazioni (5) fornisce le seguenti radici non negative:

Il costo totale minimo per unità di tempo sarà:

Possiamo considerare casi speciali.

1. La carenza di prodotti non è consentita. La soluzione del problema in questo caso si ottiene dalla formula (6)-(8), se mettiamo una penalità Allora С 1 /С 3 =0 e i valori ottimali dei valori ricercati saranno:

Questo caso corrisponde al grafico delle variazioni del livello delle scorte nel tempo:

2. Il rifornimento è istantaneo. In questo caso, e di conseguenza

Il grafico del livello delle scorte si presenta così:

3. La carenza non è consentita, le scorte vengono reintegrate all'istante, ad es. . Quindi segue:

Queste formule sono chiamate formule di Wilson e il valore è la dimensione economica del lotto.

Il grafico del livello delle scorte si presenta così:


Modelli dinamici di gestione dell'inventario.

Nelle lezioni precedenti sono stati considerati problemi statici di gestione dell'inventario per un periodo. In un certo numero di tali problemi, sono state ottenute espressioni analitiche per il livello ottimale delle scorte.

Se si considera il funzionamento del sistema per n periodi e la domanda non è costante, si arriva a modelli dinamici di gestione delle scorte. Questi problemi, di norma, non sono suscettibili di soluzione analitica, tuttavia, i livelli ottimali delle scorte per ciascun periodo possono essere calcolati utilizzando il metodo di programmazione dinamica.

Viene considerato il problema della gestione delle scorte, quando la domanda per il periodo j-esimo (j=1,n) è determinata dal valore . Sia il livello delle scorte all'inizio del j-esimo periodo e sia il volume di rifornimento delle scorte in questo periodo. Il rifornimento delle scorte viene effettuato istantaneamente all'inizio del periodo, la carenza di prodotti non è consentita. Graficamente, le condizioni del problema sono mostrate in Fig.1.

Permettere - costi totali per lo stoccaggio e il rifornimento nel j-esimo periodo. Il valore è impostato, e , perché al termine del funzionamento degli impianti la riserva non è necessaria.

È necessario determinare i volumi ottimali di ordini in ciascun periodo secondo il criterio dei costi totali minimi.

Il modello matematico del problema sarà simile

qui è necessario determinare , che soddisfi i vincoli (2)-(6) e minimizzi la funzione obiettivo (1).

In questo modello la funzione obiettivo è separabile, i vincoli (2) hanno una forma ricorrente. E questa caratteristica del modello suggerisce la possibilità di utilizzare il metodo di programmazione dinamica per risolverlo. Il modello (1)-(6) differisce dal modello di programmazione dinamica standard per la presenza di una condizione; questa condizione può essere trasformata come segue. Da (2) e (3) segue che , o può essere scritto

Quindi da (7), tenendo conto di (4), viene determinato l'intervallo di valori possibili: o infine:

Pertanto, la condizione (3)-(4) è sostituita dalla condizione (8) e il modello (1),(2),(5)-(6),(8) ha una forma standard per il metodo di programmazione dinamica.

In accordo con il metodo di programmazione dinamica, la soluzione di questo problema consiste nei seguenti passi:

Segue dal vincolo (12)-(14).(j=2,n).

Tenuto movimento inverso algoritmo, di conseguenza, vengono trovati i valori ottimali delle variabili richieste e. Il valore minimo della funzione obiettivo (1) è determinato dal valore

AGENZIA FEDERALE PER L'ISTRUZIONE

ISTITUZIONE EDUCATIVA STATALE DI ISTRUZIONE PROFESSIONALE SUPERIORE "UNIVERSITÀ AEROSPAZIALE STATALE DI SAMARA intitolata all'accademico S.P.KOROLEV"

Y. Zabolotnov

CONTROLLO OTTIMALE DI SISTEMI DINAMICI CONTINUI

Approvato dal Consiglio di redazione ed editoria dell'Università come Guida allo studio

SARA 2005


CDU 519,9+534,1

Revisori: SA Ishkov, L.V. Kudyurov

Zabolotnov Yu.

Controllo ottimo di sistemi dinamici continui: libro di testo. indennità / Y. Zabolotnov; Samar. stato aerospaziale un-t. Samara, 2005. 149 p. : malato.

Il manuale include una descrizione dei metodi per il controllo ottimale dei sistemi dinamici. Particolare attenzione è rivolta alla soluzione ottima del problema di stabilizzazione per sistemi dinamici lineari. Insieme alla presentazione dei metodi classici di controllo ottimo di sistemi lineari, basati principalmente sul principio di programmazione dinamica di Bellman, viene considerato il controllo ottimo approssimato di sistemi dinamici oscillatori mediante il metodo della media.

Il materiale del manuale è incluso nel corso delle lezioni" Base teorica controllo automatizzato”, letto dall'autore per gli studenti della specialità 230102 - sistemi automatizzati elaborazione e gestione delle informazioni nei reparti sistemi di informazione e tecnologia, matematica e meccanica SSAU. Tuttavia, il manuale può essere utile per gli studenti di altre specialità quando si studia la teoria del controllo ottimo dei sistemi dinamici.


PREFAZIONE ……………………………………………………. 5

1. PRINCIPALI DISPOSIZIONI TEORICHE DEL CONTROLLO OTTIMALE DEI SISTEMI DINAMICI …………………………….…………………………….. 8

1.1. Enunciato del problema del controllo ottimo dei sistemi dinamici …………………………….…...8

1.2. Software controllo ottimale e problema

stabilizzazione ………………………………………………………. undici

1.3. Moto imperturbato e perturbato di un sistema dinamico ……………………………………………….………….. 12

1.4. Enunciato del problema della stabilizzazione ottimale del moto per un sistema dinamico lineare.………………………………..… 14

2. CONTROLLO ED OSSERVABILITA'

SISTEMI DINAMICI …………………………………….….16

2.1. Trasformazioni simili di sistemi dinamici lineari.16

2.2. Controllabilità dei sistemi dinamici.……………………….18

2.3. Osservabilità dei sistemi dinamici ……………………….21

3. PRINCIPIO DI PROGRAMMAZIONE DINAMICA DI BELLMAN E TEORIA DELLA STABILITÀ DI LYAPUNOV …….24

3.1. Principio di programmazione dinamica di Bellman …….24

3.2. Controllo ottimo di sistemi dinamici lineari …………………………………………………..………… 29


3.3. La teoria della stabilità di Lyapunov …………………………………31

3.4. La connessione del metodo di programmazione dinamica con la teoria della stabilità di Lyapunov ……………………………………… ... 37

4. DETERMINAZIONE DEL CONTROLLO OTTIMALE PER SISTEMI DINAMICI LINEARI ………………………………………………………………………………………………………… ……………………………………………………………………………………………………………………………………… ……………………………………………………………………………………………………………………………………… ……………………39

4.1. Risoluzione dell'equazione di Bellman per sistemi dinamici stazionari lineari……………………………………………… 39

4.2. Soluzione dell'equazione di Bellman per sistemi dinamici lineari non stazionari……………………………………………… 41

4.3. Sulla scelta del criterio di ottimalità nella soluzione del problema della stabilizzazione ………………………………………………………….43

4.4. Esempio scelta ottimale coefficienti del controllore

quando si controlla un sistema lineare del secondo ordine....……….. 47

5. SISTEMI OSCILLATORI DINAMICI………….56

5.1. Piccole oscillazioni dei sistemi.dinamici…………………….…56

5.2. Controllabilità e osservabilità di sistemi dinamici oscillatori lineari …………………………………………………. 65

5.3. Metodo dei piccoli parametri..…………………………………….. 68

5.4. Metodo della media..………………………………………….… 72

5.5. Metodo della media per un sistema con un grado di libertà.. 76

5.6. Metodo di calcolo della media per sistemi con diversi veloci

fasi …………………………………………………………………. 79

5.7. Metodo della media per un sistema a due potenze

libertà ………………………………………………………..…… 86

6. CONTROLLO APPROSSIMATIVAMENTE OTTIMALE DEI SISTEMI OSCILLATORI DINAMICI.... 93

6.1. Controllo di un sistema oscillatorio lineare con un grado di libertà ………………………………………………….… 93

6.2. Controllo di un sistema oscillatorio lineare a due gradi di libertà..………………………………………………. 106

6.3. L'influenza dei disturbi non lineari sulla soluzione del problema di controllo ottimo …………//……………………………… 115

ELENCO FONTI UTILIZZATE …..…………127

APPENDICE 1. Trasformazioni simili di sistemi dinamici lineari ……………………………………………..…129

APPENDICE 2. Studio qualitativo di sistemi dinamici lineari sul piano delle fasi …………………… 134

APPENDICE 3. Differenziazione di funzioni con argomento vettoriale …………………………………………………………... 142

APPENDICE 4. Concetti fondamentali della teoria delle serie asintotiche ………………………………………………………………. 143

APPENDICE 5. Calcolo della media trigonometrica

funzioni ………………………………………..………………….. 148

PREFAZIONE

Tradizionalmente, nella teoria del controllo classica, vengono considerati due problemi principali: il problema di determinare il programma di movimento di un sistema dinamico e il problema di progettare controllori che implementano il programma dato di movimento dell'oggetto di controllo (problema di stabilizzazione). L'obiettivo del manuale è risolvere il problema della stabilizzazione, che di solito viene risolto utilizzando modelli dinamici lineari. Rispetto ai sistemi statici, nei sistemi dinamici il processo si sviluppa nel tempo, e anche il controllo nel caso generale è funzione del tempo.

Quando si risolve il problema di stabilizzazione, si può usare vari metodi. Qui, prima di tutto, vanno segnalati i metodi classici della teoria del controllo automatico, basati sull'apparato delle funzioni di trasferimento e delle caratteristiche di frequenza. Tuttavia, l'avvento dei computer ad alta velocità ha portato allo sviluppo di nuovi metodi che ne costituiscono la base teoria moderna gestione. Nella moderna teoria del controllo, il comportamento del sistema è descritto nello spazio degli stati e il controllo del sistema si riduce a determinare le azioni di controllo ottimali, in un certo senso, sul sistema in ogni momento del tempo. Inoltre, i modelli matematici di sistemi dinamici continui sono solitamente sistemi di equazioni differenziali ordinarie, in cui la variabile indipendente è il tempo.

Quando si risolve il problema di stabilizzazione, l'ottimalità del controllo è intesa nel senso del minimo di un certo criterio di ottimalità (funzionale), che è scritto come integrale definito. Il criterio di ottimalità può caratterizzare vari aspetti della qualità del controllo: costi di controllo (energia, combustibile, ecc.), errori di controllo (per varie variabili di stato), ecc. Per determinare il controllo ottimale nella risoluzione del problema di stabilizzazione, viene utilizzato il classico principio di programmazione dinamica di Bellman.

La prima sezione del manuale è introduttiva: contiene una formulazione matematica dei problemi da risolvere nel controllo di sistemi dinamici continui. La seconda sezione è dedicata alle questioni che precedono la costruzione del controllo ottimo per sistemi lineari: questioni di controllabilità e osservabilità. Nella terza sezione vengono derivate le principali relazioni del principio di programmazione dinamica di Bellman, da cui viene ulteriormente determinato il controllo ottimo per un sistema dinamico lineare quando si risolve il problema di stabilizzazione. Nella stessa sezione, si mostra che il principio di programmazione dinamica di Bellman per i sistemi lineari è organicamente correlato al secondo metodo di Lyapunov, il cui compimento dei teoremi fornisce una soluzione al problema della stabilizzazione. La quarta sezione del manuale descrive gli algoritmi per determinare il controllo ottimo quando si risolve il problema di stabilizzazione per un dato criterio di ottimalità quadratica (l'integranda del funzionale è una forma quadratica delle variabili di controllo e di stato del sistema). Viene fornito un esempio di determinazione del controllo ottimo con un dato criterio di ottimalità per uno specifico sistema lineare. La quinta sezione delinea i fondamenti della teoria dei sistemi oscillatori dinamici. Vengono derivate le relazioni di base del principio della media, che in molti casi consente di semplificare notevolmente l'analisi e la sintesi dei sistemi oscillatori. Nella sesta sezione, consideriamo un metodo per determinare un controllo approssimativamente ottimale per il problema della stabilizzazione mediante sistemi oscillatori. Vengono forniti esempi di controllo di sistemi oscillatori con uno e due gradi di libertà. Vengono analizzate questioni relative alla possibile influenza delle perturbazioni non lineari sulla soluzione di problemi di stabilizzazione per sistemi oscillatori.

I metodi presentati nel manuale consentono di trovare il controllo ottimale per risolvere problemi di stabilizzazione di sistemi dinamici sotto forma di funzioni analitiche dipendenti dalle variabili di stato del sistema. In questo caso diciamo che il problema della sintesi del controllo è in fase di risoluzione. Questi metodi possono essere attribuiti alla teoria della progettazione analitica dei controllori, che è una delle direzioni importanti nello sviluppo della moderna teoria del controllo.

Il materiale del manuale si basa su opere nel campo della teoria del controllo, che nel tempo sono diventate dei classici. Qui, prima di tutto, è necessario notare le opere di Pontryagin L.S. , Letova A.M. , Demidovich B.P. , Gropa D. , Bellman R. , Moiseeva N.N., Bogolyubova N.N., Mitropolsky Yu.A. e altri famosi scienziati nazionali e stranieri.


1. PRINCIPALI PROPOSTE TEORICHE DEL CONTROLLO OTTIMALE DEI SISTEMI DINAMICI

1.1. Enunciazione del problema del controllo ottimo di sistemi dinamici

I modelli matematici dei sistemi dinamici possono essere costruiti in varie forme. Questi possono essere sistemi di equazioni differenziali ordinarie, equazioni alle derivate parziali, corrispondenti modelli discreti, ecc. Caratteristica distintiva descrizione matematica di qualsiasi sistema dinamico è che il suo comportamento si sviluppa nel tempo ed è caratterizzato da funzioni ,… , che sono chiamate variabili di stato (coordinate di fase) del sistema. Nel seguito considereremo sistemi a tempo continuo. Il moto di un sistema dinamico può essere controllato o non controllato. Quando si implementa un movimento controllato, il comportamento del sistema dinamico dipende anche dalle funzioni di controllo ,… . Assumiamo anche che il comportamento del sistema sia determinato in modo univoco se sono dati la funzione del vettore di controllo e lo stato di fase iniziale, dove è il tempo iniziale.

Come modello matematico di un sistema dinamico, considereremo un sistema di equazioni differenziali ordinarie scritte nella forma normale di Cauchy

dove , , è una funzione vettoriale nota.

Il sistema (1.1) è più spesso utilizzato per vari modelli matematici di sistemi dinamici con tempo continuo. Quindi, ad esempio, se il comportamento di un sistema dinamico è descritto da un sistema di equazioni alle derivate parziali e avviene nello spazio e nel tempo (modelli matematici della meccanica del continuo), allora, operando una discretizzazione nello spazio (approccio agli elementi finiti), si arriva ad un sistema di equazioni differenziali ordinarie simile alla ( 1.1), la cui soluzione viene cercata in funzione del tempo.

L'ipotesi precedentemente introdotta sull'unicità del processo di controllo per il sistema (1.1) è determinata dal soddisfacimento delle condizioni del teorema sull'esistenza e l'unicità delle soluzioni ai sistemi di equazioni differenziali ordinarie nella forma di Cauchy.

Formuliamo il problema del controllo ottimo del sistema (1.1) . All'istante iniziale il sistema (1.1) si trova nello stato , è necessario determinare un controllo tale che porti il ​​sistema ad un dato stato finale (diverso da quello iniziale), dove è il tempo finale. Di solito è richiesto che la transizione da punto a punto (transitorio) sia in un certo senso la migliore di tutte le transizioni possibili. Ad esempio, se si considera un sistema tecnico, il processo transitorio deve soddisfare la condizione di minima energia spesa o la condizione di minimo tempo di transizione. Questo miglior processo transitorio è chiamato processo ottimale.

La funzione di controllo di solito appartiene a qualche dominio di controllo, che è un insieme di spazio euclideo dimensionale. Nelle applicazioni tecniche, si presume che la regione sia una regione chiusa, cioè una regione che include i suoi confini. Un controllo ammissibile è qualsiasi controllo che porti il ​​sistema da un punto all'altro. Per un confronto quantitativo di vari controlli ammissibili, viene introdotto un criterio di ottimalità, che, di norma, viene presentato sotto forma di un determinato criterio funzionale

Il funzionale è calcolato su soluzioni del sistema (1.1) che soddisfano le condizioni e , per un dato controllo ammissibile .

Infine, il problema di controllo ottimo è formulato come segue: due punti e sono dati nello spazio delle fasi; tra tutti i controlli ammissibili che spostano il punto di fase da una posizione all'altra, trovare quello per il quale la funzionale (1.2) assume il valore più piccolo.

Il controllo che risolve il problema posto sopra è detto controllo ottimo ed è indicato con , e la traiettoria corrispondente è detta traiettoria ottima.

Commento. Se è necessario garantire il massimo di qualche criterio, allora questo problema può essere ridotto al problema di trovare un minimo cambiando formalmente il segno davanti al funzionale (1.2).

Un caso particolare del problema formulato del controllo ottimo è il caso in cui . Allora il funzionale (1.2) assume la forma e l'ottimalità risiede nell'implementazione del tempo minimo di transizione da punto a punto . Un tale problema di controllo ottimo è detto problema tempo-ottimale.


1.2. Controllo ottimale del software e problema di stabilizzazione

Consideriamo il moto del sistema dinamico (1.1). Si trovi il controllo ottimo per questo sistema e si ottenga la corrispondente traiettoria ottima. Quando si implementa la traiettoria ottimale in compiti tecnici incontrano inevitabilmente difficoltà significative, consistenti nell'impossibilità, in primo luogo, di impostare con precisione il sistema reale (o oggetto di controllo) allo stato iniziale, in secondo luogo, di implementare accuratamente il controllo ottimo stesso, in terzo luogo, di prevedere accuratamente in anticipo condizioni esterne funzionamento del sistema (approssimazione del modello matematico originario). Tutto ciò porta alla necessità di risolvere il problema di correggere la legge del controllo ottimale nel processo di funzionamento di qualsiasi sistema tecnico(o oggetto). Pertanto, il problema del controllo ottimo in condizioni reali può essere suddiviso in due parti: 1) costruzione di un controllo ottimo nominale del sistema dinamico originario in condizioni ideali nell'ambito del modello matematico (1.1); 2) costruzione di azioni di controllo correttive al fine di implementare un dato controllo ottimale nominale e una traiettoria ottimale nel processo di funzionamento del sistema. La prima parte del problema del controllo ottimo è generalmente chiamata problema della costruzione dell'ottimo controllo del programma, ed è risolto nel quadro di informazioni a priori note in anticipo sul sistema in esame. La seconda parte del problema è chiamata il compito di stabilizzare un dato programma di controllo nominale e deve essere risolto durante il funzionamento del sistema in base alle informazioni ricevute dai dispositivi di misurazione del sistema di controllo. Il problema di stabilizzare il programma di controllo nominale può anche essere posto come problema di trovare il controllo ottimo secondo il criterio corrispondente, cosa che verrà fatta in seguito (vedi Sezione 1.4).

Commento. Ovviamente, non solo il controllo ottimo può essere utilizzato come programma di controllo nominale, ma anche qualsiasi altro controllo ammissibile (se il problema dell'ottimizzazione del controllo del programma non è risolto). Nel caso particolare più semplice, ad esempio, si può porre il problema di stabilizzare una certa posizione costante del sistema.

1.3. Moto imperturbato e perturbato di un sistema dinamico

Poiché il movimento reale del sistema differisce inevitabilmente da quello del programma nominale, questo fatto ha portato al concetto di movimenti imperturbati e perturbati di Lyapunov A.A. . Pertanto, qualsiasi moto programma del sistema (1.1), indipendentemente dal fatto che sia ottimale o ammissibile, è chiamato moto imperturbato. Inoltre, questo moto corrisponde a qualche particolare soluzione del sistema (1.1). Il moto perturbato è stimato in questo caso da alcune deviazioni dal moto imperturbato. Pertanto, il moto perturbato sarà descritto dalle seguenti variabili

dove le variabili e caratterizzano il programma di controllo nominale e le variabili e - deviazioni dal programma nominale.

Sostituendo le relazioni (1.3) nel sistema (1.1), otteniamo

Sommando e sottraendo lo stesso termine sul lato destro del sistema (1.4) e tenendo conto di ciò

otteniamo il sistema in deviazioni dal movimento nominale

dove , , e sono determinati come risultato del sistema risolutivo (1.5).

Di solito si presume che le deviazioni dal movimento nominale siano piccole. Pertanto, se espandiamo la funzione in una serie di Taylor e introduciamo la notazione , , dove l'indice (o) significa che le derivate parziali sono determinate per un dato programma nominale, allora otteniamo

Qui, la funzione determina i termini del secondo ordine e superiori in termini di deviazioni; matrici e selezionare la parte lineare della serie e avere componenti e ; .

Le equazioni scritte nelle deviazioni (1.7) hanno Grande importanza nella teoria del controllo. Sulla base di queste equazioni vengono formulati un gran numero di problemi di ottimizzazione di interesse pratico. Uno di questi problemi è il problema di stabilizzazione formulato sopra. Quando si risolve questo problema, è necessario determinare come dovrebbero essere scelte le azioni di controllo correttive al fine di ridurre le deviazioni in un certo senso nel miglior modo possibile.

1.4. Enunciazione del problema della stabilizzazione ottimale del moto per un sistema dinamico lineare

Molto spesso, quando si risolve il problema di stabilizzare il movimento di un sistema o di un oggetto di controllo, viene utilizzato un sistema dinamico lineare nelle deviazioni, che si ottiene dal sistema (1.7) scartando i termini non lineari . Poi

dove le matrici e nel caso generale sono funzioni del tempo, in quanto dipendono dal programma di controllo nominale . , inoltre, si dice che il problema della sintesi del controllo sia in fase di risoluzione. Dopo la sostituzione della legge. Considera il caso in cui la matrice non ha più autovalori (identici). In questo caso, tale trasformazione riduce la matrice a una forma diagonale , dove è una matrice diagonale, sulla cui diagonale principale sono gli autovalori della matrice (la dimostrazione è fornita nell'Appendice 1).

MINISTERO DELL'ISTRUZIONE E DELLA SCIENZA

FEDERAZIONE RUSSA

UNIVERSITÀ STATALE DI MOSCA

FACOLTA' DI FISICA

Dipartimento di metodi di controllo fisici e matematici

COMPITI

SU corsi

"Controllo ottimo di sistemi dinamici lineari"

sul corso "Controllo ottimale"

Redatto da: prof., d.t.s. Afanasiev V.N.

Mosca 2014

  1. OBIETTIVO DEL LAVORO

Progettazione matematica di sistemi di controllo lineari ottimi.

  1. IL CONTENUTO DELL'OPERA
    1. Studio del materiale teorico necessario secondo le fonti;
    2. Ottenere una soluzione analitica al problema;
    3. Stesura di uno schema a blocchi del sistema di controllo.
    4. Acquisizione di competenze nella modellazione matematica del sistema di controllo utilizzando il pacchetto matlab.
  1. TEMPO DI LAVORO

VIII semestre, 4° anno.

Gli incarichi vengono assegnati durante la quinta settimana accademica.

L'accettazione dei lavori completati viene effettuata a 10 e 11 settimane.

DISPOSIZIONI TEORICHE DI BASE.

FORMULAZIONE DEL PROBLEMA

Molti oggetti di controllo possono essere accuratamente descritti da modelli dinamici lineari. Con una scelta ragionevole di criteri di prestazione quadratici e vincoli quadratici, in questo caso, è possibile sintetizzare dispositivi di controllo di grande successo con feedback lineare.

Lasciate che i sistemi dinamici controllati descritti da lineare equazioni differenziali

(1)

qui: - stato del sistema; - input di controllo del sistema; - Uscita del sistema. Quindi le matrici A(t), B(t), C(t) hanno le dimensioni corrispondenti: n x n , n x r , m x n . Supponiamo che non siano imposte restrizioni nemmeno al controllo.

Cerchiamo di definire lo scopo del sistema da un punto di vista fisico. Sia l'output "desiderato" del sistema. È necessario trovare un tale controllo u(t) , in cui l'errore di sistema

(2)

sarebbe piccolo.

Dal momento che la gestione u(t) non è limitato nel problema in esame, quindi per evitare grandi sforzi nel circuito di controllo e un elevato consumo di energia, è possibile introdurre un requisito appropriato nel criterio di qualità che tenga conto di questi fatti.

Spesso è importante commettere un "piccolo" errore alla fine del transitorio.

La traduzione di questi requisiti fisici nella forma dell'uno o dell'altro funzionale matematico dipende da molte ragioni. Questo capitolo prenderà in considerazione classe privata criteri di qualità aventi la seguente forma:

(3)

dove F,Q(t) matrici semidefinite positive di dimensione m x m ; R(t) matrice definita positiva di dimensione r x r .

Considera ogni termine del funzionale (3). Iniziamo con. Ovviamente, poiché la matrice D(t) è semidefinito positivo, allora questo termine è non negativo per nessuno e(t) ed è uguale a zero a e(t)=0. Poiché, dove q ij (t ) elemento di matrice Q (t ), e i (t ) ed e j (t ) componenti vettoriali e(t), quindi gli errori grandi vengono valutati "più costosi" di quelli piccoli.

Consideriamo un membro. Perché R(t) è una matrice definita positiva, allora questo termine è positivo per qualsiasi e “punisce” il sistema per le grandi azioni di controllo più che per quelle piccole.

Finalmente, . Questo termine è spesso indicato come il costo dello stato finale. Il suo scopo è quello di garantire la "piccolezza" dell'errore al termine del processo di transizione.

Il criterio di qualità (3) è matematicamente conveniente e la sua minimizzazione porta al fatto che i sistemi ottimali risultano essere lineari.

Il problema di controllo ottimo è formulato come segue: sono dati un sistema di controllo dinamico lineare (1) e un funzionale (3). È necessario trovare il controllo ottimale, ad es. controllo, sotto l'influenza del quale il sistema (1) si muove in modo tale da minimizzare il funzionale (3). La ricerca di soluzioni verrà effettuata per problemi con un'area aperta di cambiamenti nelle azioni di controllo e problemi in cui le azioni di controllo appartengono a un determinato insieme.

  1. ESERCIZIO
    1. Studiare il metodo di costruzione del controllo ottimo di sistemi dinamici lineari
    2. In base al numero della variante, prendere la condizione del problema dall'applicazione
    3. Verificare le proprietà di controllabilità e osservabilità
    4. Costruisci Luenberger Observer
    5. Ottenere soluzione analitica compiti
    6. Disegna uno schema a blocchi del sistema di controllo ottimo
    7. Studiare l'influenza dei coefficienti di peso sulla qualità dei processi transitori e sul valore della qualità funzionale
    8. Modellazione matematica del sistema di controllo utilizzando il pacchetto matlab

APPLICAZIONE

Oggetto di controllo:

Funzionalità: .

Opzione numero 1

Considera a:

  1. ;

Opzione numero 2

Considera a:

  1. ;

Opzione numero 3

Considera a:

  1. ;

Opzione numero 4

Considera a:

  1. ;

Opzione numero 5

Considera a:

  1. ;

Opzione numero 6

Considera a:

  1. ;

Opzione numero 7

Considera a:

  1. ;

Opzione numero 8

Considera a:

  1. ;

Opzione numero 9

Considera a:

  1. ;

Opzione numero 10

Considera a:

  1. ;

Opzione numero 11

Considera a:

  1. ;

Opzione numero 12

Considera a:

  1. ;

Opzione numero 13

Considera a:

  1. ;

Opzione numero 14

Considera a:

14.1. ;

14.2. .

Opzione numero 15

Considera quando

15.1. ;

15.2. .

LETTERATURA

  1. Afanasiev V.N., Kolmanovsky V.B., Nosov V.R. Teoria matematica della progettazione di sistemi di controllo scuola di Specializzazione. M., 2003, 616 p.
  2. Afanasiev V.N. Teoria del controllo ottimo di sistemi dinamici continui. Disegno analitico. M. Facoltà di Fisica, Università Statale di Mosca 2011, 170 p.
  3. Afanasiev V.N. Sistemi ottimali gestione. RUDN. 2007. - 260 pag.