ThatQuiz Bibliothèque de tests Faire ce test maintenant
Optimisation mathématique - Quiz
Contribué par: Pichon
  • 1. L'optimisation mathématique, également connue sous le nom de programmation mathématique, est une discipline qui consiste à trouver la meilleure solution parmi un ensemble de solutions possibles. Elle implique le processus de maximisation ou de minimisation d'une fonction objective tout en tenant compte des contraintes. Les problèmes d'optimisation se posent dans divers domaines tels que l'ingénierie, l'économie, la finance et la recherche opérationnelle. L'objectif de l'optimisation mathématique est d'améliorer l'efficacité, de maximiser les profits, de minimiser les coûts ou d'obtenir le meilleur résultat possible compte tenu des contraintes données. Différentes techniques telles que la programmation linéaire, la programmation non linéaire, la programmation en nombres entiers et l'optimisation stochastique sont utilisées pour résoudre les problèmes d'optimisation. Globalement, l'optimisation mathématique joue un rôle crucial dans les processus de prise de décision et la résolution de problèmes dans des scénarios complexes du monde réel.

    Quel est l'objectif principal de l'optimisation mathématique ?
A) Générer des nombres aléatoires
B) Résolution d'équations
C) Compter les nombres premiers
D) Minimiser ou maximiser une fonction objective
  • 2. Qu'est-ce qu'une contrainte dans les problèmes d'optimisation ?
A) L'estimation initiale
B) Le résultat final
C) Limitation des solutions possibles
D) La formule mathématique
  • 3. Quel type d'optimisation recherche la valeur maximale d'une fonction objective ?
A) Simplification
B) Maximisation
C) Randomisation
D) Minimisation
  • 4. Qu'est-ce que la fonction objective dans un problème d'optimisation ?
A) Fonction à optimiser ou à minimiser
B) Une équation sans variables
C) Une fonction de contrainte
D) Une opération mathématique aléatoire
  • 5. Que signifie le terme "solution réalisable" dans le domaine de l'optimisation ?
A) Une solution qui satisfait toutes les contraintes
B) Une solution sans contraintes
C) Une solution aléatoire
D) Une solution incorrecte
  • 6. Dans la programmation linéaire, qu'est-ce que la région réalisable ?
A) La zone en dehors des contraintes
B) La région avec la valeur maximale
C) L'ensemble de toutes les solutions réalisables
D) L'espace de solution
  • 7. Quelle est l'importance de l'analyse de sensibilité dans l'optimisation ?
A) Génère des solutions aléatoires
B) Sélectionne le meilleur algorithme
C) Évaluer l'impact des changements de paramètres sur la solution
D) Trouve l'optimum global
  • 8. Quelle méthode est couramment utilisée pour résoudre les problèmes de programmation linéaire ?
A) Deviner et vérifier
B) Méthode du simplexe
C) Recuit simulé
D) Essais et erreurs
  • 9. Comment appelle-t-on également l'optimisation mathématique ?
A) Maximisation de fonctions
B) Analyse quantitative
C) Conception d'algorithmes
D) Programmation mathématique
  • 10. En combien de sous-domaines l'optimisation mathématique est-elle généralement divisée ?
A) Trois : programmation linéaire, programmation non linéaire et programmation en nombres entiers.
B) Quatre : optimisation combinatoire, optimisation stochastique, optimisation dynamique et optimisation robuste.
C) Deux : optimisation discrète et optimisation continue.
D) Un : optimisation générale.
  • 11. Quel type d'optimisation implique la recherche d'un objet tel qu'un entier, une permutation ou un graphe ?
A) Optimisation continue
B) Programmation non linéaire
C) Optimisation discrète
D) Programmation linéaire
  • 12. Dans quel type d'optimisation les arguments optimaux sont-ils trouvés parmi un ensemble continu ?
A) Optimisation combinatoire
B) Optimisation continue
C) Optimisation discrète
D) Programmation en nombres entiers
  • 13. Quelle branche des mathématiques traite des algorithmes déterministes pour les problèmes non convexes ?
A) Optimisation globale
B) Mathématiques discrètes
C) Optimisation locale
D) Programmation linéaire
  • 14. Quelle est la valeur minimale de l'expression (x² + 1) lorsque x = -2 ?
A) 5
B) 4
C) 3
D) 1
  • 15. Pour quelle valeur de x la fonction (x2 + 1) atteint-elle sa valeur minimale ?
A) x = -1
B) x = 0
C) x = ∞
D) x = 1
  • 16. Existe-t-il une valeur maximale pour la fonction 2x sur l'ensemble des nombres réels ?
A) Oui, elle est égale à 2.
B) Oui, elle est égale à l'infini.
C) Oui, elle est égale à moins l'infini.
D) Non, elle n'est pas bornée.
  • 17. À qui est-on tenu de créditer l'introduction du terme "programmation linéaire" ?
A) Leonid Kantorovich
B) Fermat
C) John von Neumann
D) George B. Dantzig
  • 18. En quelle année Leonid Kantorovich a-t-il introduit une grande partie de la théorie de la programmation linéaire ?
A) 1939
B) 1960
C) 1947
D) 1950
  • 19. Quels types de variables sont utilisés dans la programmation semi-définie (PSD) ?
A) Variables discrètes.
B) Variables binaires.
C) Variables continues.
D) Matrices semi-définies.
  • 20. Quels sont les effets de l'ajout de plusieurs objectifs à un problème d'optimisation ?
A) Réduit le nombre de solutions
B) Simplifie le problème
C) Augmente la complexité
D) Élimine les compromis
  • 21. Comment qualifie-t-on une conception si elle n'est dominée par aucune autre conception ?
A) Non-efficace
B) Inférieure
C) Sous-optimale
D) Optimal selon Pareto
  • 22. Qui détermine la « solution préférée » parmi les solutions Pareto-optimales ?
A) Le décideur
B) Le concepteur du système
C) L'algorithme d'optimisation
D) Un évaluateur externe
  • 23. Comment peut-on parfois déduire les informations manquantes dans un problème d'optimisation multi-objectifs ?
A) Automatiquement par l'algorithme.
B) Par le biais de sessions interactives avec le décideur.
C) Grâce à l'analyse de données historiques.
D) En ignorant les objectifs moins importants.
  • 24. Quel est le cas particulier de l'optimisation mathématique où toute solution est optimale ?
A) Le problème de faisabilité
B) L'optimisation globale
C) Le problème d'existence
D) L'optimisation multi-modale
  • 25. Quelles sont les conditions utilisées pour trouver les optima dans les problèmes avec des contraintes d'égalité et/ou d'inégalité ?
A) Les conditions de Karush-Kuhn-Tucker
B) Conditions d'ordre second
C) Conditions d'ordre premier
D) Conditions de faisabilité
  • 26. Quelles sont les techniques numériques efficaces pour minimiser les fonctions convexes ?
A) Recherches de direction.
B) Méthodes du point intérieur.
C) Régions de confiance.
D) Relaxation lagrangienne.
  • 27. Quelle méthode garantit la convergence en optimisant une fonction le long d'une seule dimension ?
A) Relaxation lagrangienne.
B) Régions de confiance.
C) Recherches de direction.
D) Estimation du moment positif-négatif.
  • 28. Quelle méthode utilise une approximation du gradient aléatoire pour l'optimisation stochastique ?
A) Méthodes du point intérieur
B) L'approximation stochastique par perturbation simultanée (SPSA)
C) Algorithmes d'optimisation quantique
D) Méthode de l'ellipsoïde
  • 29. Quelle méthode est historiquement importante mais lente, et qui suscite un regain d'intérêt pour les problèmes de grande taille ?
A) Approximation stochastique par perturbation simultanée
B) Méthodes de descente par coordonnées
C) Descente de gradient
D) Méthodes quasi-Newton
  • 30. Dans quel domaine l'optimisation de la conception est-elle particulièrement appliquée ?
A) L'ingénierie électrique.
B) La microéconomie.
C) L'ingénierie, en particulier l'ingénierie aérospatiale.
D) La cosmologie et l'astrophysique.
  • 31. Dans quel domaine la programmation stochastique et la simulation sont-elles utilisées pour soutenir la prise de décision ?
A) Génie du contrôle
B) Génie civil
C) Recherche opérationnelle
D) Modélisation moléculaire
Créé avec That Quiz — où un test de math n'est qu'à un clic du bout des doigtsu bout des doigts.