Sažetak | Optimalno upravljanje se odnosi na upravljanje sustavom na način da je željeni optimalni kriteriji zadovoljen. Dinamika sustava je opisana jednadžbama stanja. Takve jednadžbe su zadane prirodom samog sustava. Problem upravljanja također uključuje i funkciju cilja koja ovisi o stanju sustava i varijabli upravljanja. Funkcija cilja može biti proizvoljno odabrana u ovisnosti o tome kakvo ponašanje sustava želimo. Budući da je izbor funkcije cilja nas odabir, pripadni problem optimizacije može biti promatran kao problem maksimizacije ili minimizacije. U ovom radu ćemo prezentirati način rješavanja problema optimizacije funkcije cilja koja opisuje sustav s vremenski promjenjivom dinamikom u diskretnim trenutcima. U prvom poglavlju dajemo način rješavanja problema optimalnog upravljanja za općeniti nelinearni sustav. Za rješavanje ovog problema koristimo princip Lagrange-ovih multiplikatora. Uvjeti koje dobijemo pomoću takvog pristupa definiraju rubni problem, budući da su rubni uvjeti za pronalazak rješenja početno stanje sustava i završno adjungirano stanje. Ovakvi problem su općenito teško rješivi. Kako bi razvili osjećaj za teoriju koju smo razvili u ovom poglavlju razmotrili smo par primjera. Eksplicitan izraz za optimalno upravljanje je jako teško naći te zbog toga u drugom poglavlju razmatramo poseban slučaj linearnih sustava s kvadratičnom funkcijom cilja. Analizirajući problem, zaključili smo da se profinjena rješenja mogu naći u dva slučaja: fiksirano konačno stanje i proizvoljno konačno stanje sustava što vodi problemu optimalnog upravljanja s povratnom vezom. U slučaju kad imamo fiksirano konačno stanje sustava, optimalno upravljanje možemo dobiti znajući samo početno i željeno završeno stanje sustava. Optimalno upravljanje je u tom slučaju nezavisno od varijable stanja u međukoracima unutar promatranog intervala. U problemu optimalnog upravljanja s povratnom vezom ne stavljamo nikakve restrikcije na vrijednosti konačnog stanja pa je i rješenje pronalaska optimalnog upravljanja znatno drugačije od prethodnog slučaja. Optimalno upravljanje u određenom trenutku je izraženo preko vrijednosti stanja sustava u tom trenutku. Ubrzano razvijanje digitalne tehnologije neprestano mijenja granice i mogućnosti modeliranja sustava za upravljanje. Upravljanje takvih sustava se zasniva na diskretizaciji kontinuiranog sustava. Problematika digitalnog upravljanja kontinuiranim sustavom i simulacije nad njima je obrađena u posljednjem poglavlju. U praksi je uobičajeno modelirati sustav s početnim funkcijom cilja te za izračunato optimalno upravljanje pokrenuti simulacije na danom sustavu. Ako se sustav ne ponaša u željenom smjeru proces ponavljamo mijenjajući funkciju cilja. Kad nađemo prihvatljivo rješenje, tu konačnu verziju optimalnog upravljanja primijenimo na sustav. |
Sažetak (engleski) | Optimal control deals with the problem of finding a control law for a given system such that a certain optimality criterion is achieved. Dynamics of the system is represented by state equations. These constraint relations are fixed by the physics of the problem. A control problem also includes a performance index that is a function of state and control variables. The performance index is what we choose to achieve the desired system response. To achieve different control objectives, different types of performance indices are selected so the optimization problem can be either a minimization or a maximization problem. In this paper we are focused on optimization of a performance index associated with a system developing dynamically through time more precisely we are interested in finding optimal control for discrete time systems. In the first chapter we solve the optimal control problem for the general nonlinear system. To determine the optimal control sequence minimizing/maximizing J, we use powerful Lagrange-multiplier approach. Conditions derived from applying Lagrange-multiplies define two-point boundary-value problem, since the boundary conditions required for solution are the initial state and the final costate. These problems are, in general, extremely difficult to solve. To develop some feel for the theory derived in the chapter, we considered some examples. Explicit expressions for the optimal control are difficult to deduce so in the second chapter we consider the extremely important special case of linear systems with quadratic performance indices. Analysing the problem, we find that very refined solutions can be given in two instances: the fixed-final-state situation, which leads to an open-loop control strategy, and the free-final-state situation, which leads to a closed-loop strategy. Open-loop control can be precomputed knowing only the given initial state and the desired final state, and it is independent of intermediate values of the state within the desired interval. In free final-state problem we make no restriction on the value of the final state and it results in a radically different sort of control. The optimal control is a time-varying state feedback which means the current required control is expressed in terms of the current state. With the increasing sophistication of microprocessors, more and more control schemes are being implemented digitally. Such controls must be designed using a discretized version of the continuous plant. The design of digital control of continuous systems and simulations are presented in the last chapter. In practice, it is usually necessary to do a control design with a trial performance index, compute the optimal control, and then run a computer simulation to see how the system responds to this optimal control. If the response is not acceptable, the entire process is repeated using another performance index with different state and control weightings. After several repetitions have been done to find an acceptable optimal control, this final version is applied to the actual system. |