Esta tesis establece nuevos desarrollos científicos y tecnológicos sobre control óptimo de procesos cuando existe o se imponen restricciones sobre la variable manipulada, especialmente utilizando estrategias basadas en el formalismo Hamiltoniano y en el Principio del Máximo de Pontryagin. El énfasis es puesto en generar esquemas de control óptimo en tiempo real recurriendo al uso de computación en paralelo para su resolución.
Se presentan de manera concisa y metódica los elementos y definiciones más importantes de la literatura relacionada, con el fin de sentar el fundamento teórico necesario para la comprensión del trabajo.
Se aborda el problema de control óptimo en dos contextos distintos, siempre asumiendo la existencia de restricciones: (i) el tratamiento de problemas lineales mediante ecuaciones exactas, recurriendo a la actualización de los parámetros involucrados en la ley de control obtenida a través de la solución de la ecuación diferencial de Riccati, y explorando la aparición de varios períodos regulares, y (ii) el tratamiento para sistemas no lineales, para el cual se saca ventaja inicialmente de una fórmula existente para la actualización del control cuando no se tienen restricciones, y posteriormente la incorporación de diferentes variaciones espaciales a la trayectoria de control.
Los tratamientos y estrategias de control obtenidas fueron verificados a través de varios casos de estudio, aplicaciones a procesos de ingeniería y a un problema biomédico.
This thesis establishes new scientific and technological developments on optimal process control when there exist restrictions on the manipulated variable, based on the Hamiltonian formalism and the Pontryagin’s maximum principle. The methodology aims to generating optimal control schemes that can be implemented in real time by taking advantage of parallel computing techniques.
The most important elements and definitions of the related literature are presented and discussed in a concise and methodical form, in order to lay the theoretical foundation necessary for the understanding of the work.
The problem of optimal control is approached in two different contexts: (i) the treatment of linear problems by means of exact equations, resorting to updating the parameters involved in the control law obtained through the solution of Riccati's differential equation, and exploring the occurrence of several regular periods, and (ii) the treatment for nonlinear systems by extrapolating a formula for updating the control when there are no restrictions, and later by incorporating different spatial variations to the control trajectory and forcing the cost decreasing through the gradient method.
The treatments and control strategies obtained were verified through several case studies, applications to engineering processes, and a biomedical problem.