ThatQuiz Directorio Inténtalo
Optimización matemática
Contribuido por: Alvarado
  • 1. La optimización matemática, también conocida como programación matemática, es una disciplina que se ocupa de encontrar la mejor solución entre un conjunto de soluciones factibles. Consiste en maximizar o minimizar una función objetivo teniendo en cuenta las restricciones. Los problemas de optimización surgen en diversos campos, como la ingeniería, la economía, las finanzas y la investigación operativa. El objetivo de la optimización matemática es mejorar la eficiencia, maximizar los beneficios, minimizar los costes o lograr el mejor resultado posible dentro de las restricciones dadas. Para resolver problemas de optimización se utilizan distintas técnicas, como la programación lineal, la programación no lineal, la programación entera y la optimización estocástica. En general, la optimización matemática desempeña un papel crucial en los procesos de toma de decisiones y resolución de problemas en escenarios complejos del mundo real.

    ¿Cuál es el principal objetivo de la optimización matemática?
A) Minimizar o maximizar una función objetivo
B) Contar números primos
C) Resolver ecuaciones
D) Generación de números aleatorios
  • 2. ¿Qué es una restricción en los problemas de optimización?
A) La fórmula matemática
B) La suposición inicial
C) Limitación de las posibles soluciones
D) El resultado final
  • 3. ¿Qué tipo de optimización busca el valor máximo de una función objetivo?
A) Aleatorización
B) Maximización
C) Simplificación
D) Minimización
  • 4. ¿Qué es la función objetivo en un problema de optimización?
A) Una función de restricción
B) Una operación matemática aleatoria
C) Una ecuación sin variables
D) Función que debe optimizarse o minimizarse
  • 5. ¿Qué método se utiliza habitualmente para resolver problemas de programación lineal?
A) Ensayo y error
B) Recocido simulado
C) Método simplex
D) Adivinar y comprobar
  • 6. ¿Qué significa el término "solución factible" en optimización?
A) Una solución aleatoria
B) Una solución sin restricciones
C) Una solución que satisface todas las restricciones
D) Una solución incorrecta
  • 7. En programación lineal, ¿qué es la región factible?
A) El área fuera de las limitaciones
B) El conjunto de todas las soluciones viables
C) La región con el valor máximo
D) El espacio de soluciones
  • 8. ¿Qué importancia tiene el análisis de sensibilidad en la optimización?
A) Selecciona el mejor algoritmo
B) Encuentra el óptimo global
C) Genera soluciones aleatorias
D) Evalúa el impacto de los cambios de parámetros en la solución
  • 9. ¿Cómo también se conoce la optimización matemática?
A) Programación matemática
B) Análisis cuantitativo
C) Diseño de algoritmos
D) Maximización de funciones
  • 10. ¿En cuántas subdisciplinas se divide generalmente la optimización matemática?
A) Una: optimización general.
B) Dos: optimización discreta y optimización continua.
C) Tres: programación lineal, programación no lineal y programación entera.
D) Cuatro: optimización combinatoria, optimización estocástica, optimización dinámica y optimización robusta.
  • 11. ¿Qué tipo de optimización implica encontrar un objeto como un entero, una permutación o un grafo?
A) Programación no lineal
B) Optimización continua
C) Optimización discreta
D) Programación lineal
  • 12. ¿En qué tipo de optimización se encuentran los argumentos óptimos dentro de un conjunto continuo?
A) Programación entera
B) Optimización continua
C) Optimización combinatoria
D) Optimización discreta
  • 13. ¿A qué rama de las matemáticas pertenece el estudio de los algoritmos deterministas para problemas no convexos?
A) Matemáticas discretas
B) Programación lineal
C) Optimización global
D) Optimización local
  • 14. ¿Cuál es el valor mínimo de \(x2 + 1\) cuando \(x = -2\)?
A) 4
B) 5
C) 3
D) 1
  • 15. ¿Para qué valor de x la función (x² + 1) alcanza su valor mínimo?
A) x = 0
B) x = 1
C) x = -1
D) x = ∞
  • 16. ¿Existe un valor máximo para la función \(2x\) en todos los números reales?
A) No, no tiene un límite superior.
B) Sí, es infinito.
C) Sí, es menos infinito.
D) Sí, es 2.
  • 17. ¿Quién es considerado el autor del término 'programación lineal'?
A) George B. Dantzig
B) Leonid Kantorovich
C) John von Neumann
D) Fermat
  • 18. ¿En qué año Leonid Kantorovich introdujo gran parte de la teoría que sustenta la programación lineal?
A) 1950
B) 1939
C) 1947
D) 1960
  • 19. ¿Qué tipos de variables se utilizan en la programación semidefinida (SDP)?
A) Variables binarias.
B) Matrices semidefinidas.
C) Variables discretas.
D) Variables continuas.
  • 20. ¿Qué ocurre al añadir más de un objetivo a un problema de optimización?
A) Simplifica el problema.
B) Aumenta la complejidad.
C) Elimina las compensaciones.
D) Reduce el número de soluciones.
  • 21. ¿Cómo se considera un diseño si no es superado por ningún otro diseño?
A) Inferior
B) Subóptimo
C) Ineficiente
D) Óptimo de Pareto
  • 22. ¿Quién determina la 'solución preferida' entre las soluciones óptimas de Pareto?
A) Un evaluador externo
B) El algoritmo de optimización
C) El diseñador del sistema
D) El responsable de la toma de decisiones
  • 23. ¿Cómo se puede, en ocasiones, obtener la información faltante en un problema de optimización multi-objetivo?
A) Mediante el análisis de datos históricos.
B) A través de sesiones interactivas con el tomador de decisiones.
C) Ignorando los objetivos de menor importancia.
D) Automáticamente, mediante el algoritmo.
  • 24. ¿Cuál es el caso especial de la optimización matemática en el que cualquier solución es óptima?
A) El problema de factibilidad.
B) Optimización global.
C) Optimización multimodal.
D) El problema de existencia.
  • 25. ¿Qué condiciones se utilizan para encontrar óptimos en problemas con restricciones de igualdad y/o desigualdad?
A) Condiciones de primer orden
B) Las condiciones de Karush-Kuhn-Tucker
C) Condiciones de factibilidad
D) Condiciones de segundo orden
  • 26. ¿Cuáles son las técnicas numéricas eficientes para minimizar funciones convexas?
A) Relajación lagrangiana.
B) Búsqueda de direcciones.
C) Métodos de puntos interiores.
D) Regiones de confianza.
  • 27. ¿Qué método garantiza la convergencia mediante la optimización de una función a lo largo de una dimensión?
A) Regiones de confianza.
B) Estimación del momento positivo-negativo.
C) Búsquedas a lo largo de una línea.
D) Relajación lagrangiana.
  • 28. ¿Qué método utiliza la aproximación de gradiente aleatorio para la optimización estocástica?
A) Método del elipsoide
B) Métodos de puntos interiores
C) Aproximación estocástica por perturbación simultánea (SPSA)
D) Algoritmos de optimización cuántica
  • 29. ¿Qué método es históricamente importante pero lento, y ha despertado un nuevo interés para problemas de gran tamaño?
A) Métodos de descenso de coordenadas
B) Descenso de gradiente
C) Aproximación estocástica por perturbación simultánea
D) Métodos cuasi-newtonianos
  • 30. ¿En qué campo se aplica particularmente la optimización del diseño?
A) Cosmología y astrofísica.
B) Microeconomía.
C) Ingeniería, especialmente ingeniería aeroespacial.
D) Ingeniería eléctrica.
  • 31. ¿En qué campo se utilizan la programación estocástica y la simulación para apoyar la toma de decisiones?
A) Investigación de operaciones
B) Ingeniería de control
C) Ingeniería civil
D) Modelado molecular
Examen creado con That Quiz — donde la práctica de matemáticas se hace fácil.