Optimización matemática
  • 1. La optimización matemática, también conocida como programación matemática, es una disciplina que se ocupa de encontrar la mejor solución entre un conjunto de soluciones factibles. Consiste en maximizar o minimizar una función objetivo teniendo en cuenta las restricciones. Los problemas de optimización surgen en diversos campos, como la ingeniería, la economía, las finanzas y la investigación operativa. El objetivo de la optimización matemática es mejorar la eficiencia, maximizar los beneficios, minimizar los costes o lograr el mejor resultado posible dentro de las restricciones dadas. Para resolver problemas de optimización se utilizan distintas técnicas, como la programación lineal, la programación no lineal, la programación entera y la optimización estocástica. En general, la optimización matemática desempeña un papel crucial en los procesos de toma de decisiones y resolución de problemas en escenarios complejos del mundo real.

    ¿Cuál es el principal objetivo de la optimización matemática?
A) Minimizar o maximizar una función objetivo
B) Resolver ecuaciones
C) Generación de números aleatorios
D) Contar números primos
  • 2. ¿Qué es una restricción en los problemas de optimización?
A) La suposición inicial
B) La fórmula matemática
C) El resultado final
D) Limitación de las posibles soluciones
  • 3. ¿Qué tipo de optimización busca el valor máximo de una función objetivo?
A) Maximización
B) Aleatorización
C) Minimización
D) Simplificación
  • 4. ¿Qué es la función objetivo en un problema de optimización?
A) Una ecuación sin variables
B) Una operación matemática aleatoria
C) Función que debe optimizarse o minimizarse
D) Una función de restricción
  • 5. ¿Qué método se utiliza habitualmente para resolver problemas de programación lineal?
A) Adivinar y comprobar
B) Recocido simulado
C) Método simplex
D) Ensayo y error
  • 6. ¿Qué significa el término "solución factible" en optimización?
A) Una solución aleatoria
B) Una solución que satisface todas las restricciones
C) Una solución incorrecta
D) Una solución sin restricciones
  • 7. En programación lineal, ¿qué es la región factible?
A) El conjunto de todas las soluciones viables
B) El espacio de soluciones
C) El área fuera de las limitaciones
D) La región con el valor máximo
  • 8. ¿Qué importancia tiene el análisis de sensibilidad en la optimización?
A) Evalúa el impacto de los cambios de parámetros en la solución
B) Encuentra el óptimo global
C) Selecciona el mejor algoritmo
D) Genera soluciones aleatorias
  • 9. ¿Cómo también se conoce la optimización matemática?
A) Maximización de funciones
B) Diseño de algoritmos
C) Programación matemática
D) Análisis cuantitativo
  • 10. ¿En cuántas subdisciplinas se divide generalmente la optimización matemática?
A) Dos: optimización discreta y optimización continua.
B) Una: optimización general.
C) Cuatro: optimización combinatoria, optimización estocástica, optimización dinámica y optimización robusta.
D) Tres: programación lineal, programación no lineal y programación entera.
  • 11. ¿Qué tipo de optimización implica encontrar un objeto como un entero, una permutación o un grafo?
A) Programación lineal
B) Optimización discreta
C) Optimización continua
D) Programación no lineal
  • 12. ¿En qué tipo de optimización se encuentran los argumentos óptimos dentro de un conjunto continuo?
A) Optimización combinatoria
B) Optimización continua
C) Programación entera
D) Optimización discreta
  • 13. ¿A qué rama de las matemáticas pertenece el estudio de los algoritmos deterministas para problemas no convexos?
A) Programación lineal
B) Matemáticas discretas
C) Optimización local
D) Optimización global
  • 14. ¿Cuál es el valor mínimo de \(x2 + 1\) cuando \(x = -2\)?
A) 3
B) 5
C) 4
D) 1
  • 15. ¿Para qué valor de x la función (x² + 1) alcanza su valor mínimo?
A) x = ∞
B) x = -1
C) x = 0
D) x = 1
  • 16. ¿Existe un valor máximo para la función \(2x\) en todos los números reales?
A) Sí, es 2.
B) No, no tiene un límite superior.
C) Sí, es infinito.
D) Sí, es menos infinito.
  • 17. ¿Quién es considerado el autor del término 'programación lineal'?
A) George B. Dantzig
B) John von Neumann
C) Fermat
D) Leonid Kantorovich
  • 18. ¿En qué año Leonid Kantorovich introdujo gran parte de la teoría que sustenta la programación lineal?
A) 1960
B) 1939
C) 1950
D) 1947
  • 19. ¿Qué tipos de variables se utilizan en la programación semidefinida (SDP)?
A) Variables discretas.
B) Variables binarias.
C) Variables continuas.
D) Matrices semidefinidas.
  • 20. ¿Qué ocurre al añadir más de un objetivo a un problema de optimización?
A) Aumenta la complejidad.
B) Elimina las compensaciones.
C) Simplifica el problema.
D) Reduce el número de soluciones.
  • 21. ¿Cómo se considera un diseño si no es superado por ningún otro diseño?
A) Subóptimo
B) Inferior
C) Ineficiente
D) Óptimo de Pareto
  • 22. ¿Quién determina la 'solución preferida' entre las soluciones óptimas de Pareto?
A) El algoritmo de optimización
B) El diseñador del sistema
C) El responsable de la toma de decisiones
D) Un evaluador externo
  • 23. ¿Cómo se puede, en ocasiones, obtener la información faltante en un problema de optimización multi-objetivo?
A) Mediante el análisis de datos históricos.
B) A través de sesiones interactivas con el tomador de decisiones.
C) Ignorando los objetivos de menor importancia.
D) Automáticamente, mediante el algoritmo.
  • 24. ¿Cuál es el caso especial de la optimización matemática en el que cualquier solución es óptima?
A) El problema de existencia.
B) Optimización global.
C) El problema de factibilidad.
D) Optimización multimodal.
  • 25. ¿Qué condiciones se utilizan para encontrar óptimos en problemas con restricciones de igualdad y/o desigualdad?
A) Condiciones de primer orden
B) Condiciones de segundo orden
C) Las condiciones de Karush-Kuhn-Tucker
D) Condiciones de factibilidad
  • 26. ¿Cuáles son las técnicas numéricas eficientes para minimizar funciones convexas?
A) Métodos de puntos interiores.
B) Regiones de confianza.
C) Relajación lagrangiana.
D) Búsqueda de direcciones.
  • 27. ¿Qué método garantiza la convergencia mediante la optimización de una función a lo largo de una dimensión?
A) Estimación del momento positivo-negativo.
B) Relajación lagrangiana.
C) Regiones de confianza.
D) Búsquedas a lo largo de una línea.
  • 28. ¿Qué método utiliza la aproximación de gradiente aleatorio para la optimización estocástica?
A) Algoritmos de optimización cuántica
B) Método del elipsoide
C) Métodos de puntos interiores
D) Aproximación estocástica por perturbación simultánea (SPSA)
  • 29. ¿Qué método es históricamente importante pero lento, y ha despertado un nuevo interés para problemas de gran tamaño?
A) Métodos de descenso de coordenadas
B) Aproximación estocástica por perturbación simultánea
C) Descenso de gradiente
D) Métodos cuasi-newtonianos
  • 30. ¿En qué campo se aplica particularmente la optimización del diseño?
A) Microeconomía.
B) Ingeniería, especialmente ingeniería aeroespacial.
C) Cosmología y astrofísica.
D) Ingeniería eléctrica.
  • 31. ¿En qué campo se utilizan la programación estocástica y la simulación para apoyar la toma de decisiones?
A) Ingeniería civil
B) Modelado molecular
C) Investigación de operaciones
D) Ingeniería de control
Examen creado con That Quiz — donde la práctica de matemáticas se hace fácil.