- 1. L'optimisation mathématique, également connue sous le nom de programmation mathématique, est une discipline qui consiste à trouver la meilleure solution parmi un ensemble de solutions possibles. Elle implique le processus de maximisation ou de minimisation d'une fonction objective tout en tenant compte des contraintes. Les problèmes d'optimisation se posent dans divers domaines tels que l'ingénierie, l'économie, la finance et la recherche opérationnelle. L'objectif de l'optimisation mathématique est d'améliorer l'efficacité, de maximiser les profits, de minimiser les coûts ou d'obtenir le meilleur résultat possible compte tenu des contraintes données. Différentes techniques telles que la programmation linéaire, la programmation non linéaire, la programmation en nombres entiers et l'optimisation stochastique sont utilisées pour résoudre les problèmes d'optimisation. Globalement, l'optimisation mathématique joue un rôle crucial dans les processus de prise de décision et la résolution de problèmes dans des scénarios complexes du monde réel.
Quel est l'objectif principal de l'optimisation mathématique ?
A) Minimiser ou maximiser une fonction objective B) Compter les nombres premiers C) Générer des nombres aléatoires D) Résolution d'équations
- 2. Qu'est-ce qu'une contrainte dans les problèmes d'optimisation ?
A) La formule mathématique B) Le résultat final C) Limitation des solutions possibles D) L'estimation initiale
- 3. Quel type d'optimisation recherche la valeur maximale d'une fonction objective ?
A) Randomisation B) Minimisation C) Simplification D) Maximisation
- 4. Qu'est-ce que la fonction objective dans un problème d'optimisation ?
A) Une opération mathématique aléatoire B) Une équation sans variables C) Une fonction de contrainte D) Fonction à optimiser ou à minimiser
- 5. Que signifie le terme "solution réalisable" dans le domaine de l'optimisation ?
A) Une solution sans contraintes B) Une solution aléatoire C) Une solution incorrecte D) Une solution qui satisfait toutes les contraintes
- 6. Dans la programmation linéaire, qu'est-ce que la région réalisable ?
A) La région avec la valeur maximale B) L'espace de solution C) La zone en dehors des contraintes D) L'ensemble de toutes les solutions réalisables
- 7. Quelle est l'importance de l'analyse de sensibilité dans l'optimisation ?
A) Trouve l'optimum global B) Sélectionne le meilleur algorithme C) Évaluer l'impact des changements de paramètres sur la solution D) Génère des solutions aléatoires
- 8. Quelle méthode est couramment utilisée pour résoudre les problèmes de programmation linéaire ?
A) Méthode du simplexe B) Essais et erreurs C) Deviner et vérifier D) Recuit simulé
- 9. Comment appelle-t-on également l'optimisation mathématique ?
A) Programmation mathématique B) Conception d'algorithmes C) Analyse quantitative D) Maximisation de fonctions
- 10. En combien de sous-domaines l'optimisation mathématique est-elle généralement divisée ?
A) Trois : programmation linéaire, programmation non linéaire et programmation en nombres entiers. B) Un : optimisation générale. C) Deux : optimisation discrète et optimisation continue. D) Quatre : optimisation combinatoire, optimisation stochastique, optimisation dynamique et optimisation robuste.
- 11. Quel type d'optimisation implique la recherche d'un objet tel qu'un entier, une permutation ou un graphe ?
A) Programmation non linéaire B) Optimisation continue C) Programmation linéaire D) Optimisation discrète
- 12. Dans quel type d'optimisation les arguments optimaux sont-ils trouvés parmi un ensemble continu ?
A) Programmation en nombres entiers B) Optimisation continue C) Optimisation combinatoire D) Optimisation discrète
- 13. Quelle branche des mathématiques traite des algorithmes déterministes pour les problèmes non convexes ?
A) Programmation linéaire B) Optimisation globale C) Mathématiques discrètes D) Optimisation locale
- 14. Quelle est la valeur minimale de l'expression (x² + 1) lorsque x = -2 ?
A) 3 B) 1 C) 4 D) 5
- 15. Pour quelle valeur de x la fonction (x2 + 1) atteint-elle sa valeur minimale ?
A) x = ∞ B) x = 1 C) x = 0 D) x = -1
- 16. Existe-t-il une valeur maximale pour la fonction 2x sur l'ensemble des nombres réels ?
A) Oui, elle est égale à l'infini. B) Oui, elle est égale à moins l'infini. C) Non, elle n'est pas bornée. D) Oui, elle est égale à 2.
- 17. À qui est-on tenu de créditer l'introduction du terme "programmation linéaire" ?
A) George B. Dantzig B) John von Neumann C) Fermat D) Leonid Kantorovich
- 18. En quelle année Leonid Kantorovich a-t-il introduit une grande partie de la théorie de la programmation linéaire ?
A) 1960 B) 1950 C) 1939 D) 1947
- 19. Quels types de variables sont utilisés dans la programmation semi-définie (PSD) ?
A) Variables binaires. B) Matrices semi-définies. C) Variables discrètes. D) Variables continues.
- 20. Quels sont les effets de l'ajout de plusieurs objectifs à un problème d'optimisation ?
A) Augmente la complexité B) Simplifie le problème C) Élimine les compromis D) Réduit le nombre de solutions
- 21. Comment qualifie-t-on une conception si elle n'est dominée par aucune autre conception ?
A) Non-efficace B) Optimal selon Pareto C) Inférieure D) Sous-optimale
- 22. Qui détermine la « solution préférée » parmi les solutions Pareto-optimales ?
A) Le concepteur du système B) Un évaluateur externe C) Le décideur D) L'algorithme d'optimisation
- 23. Comment peut-on parfois déduire les informations manquantes dans un problème d'optimisation multi-objectifs ?
A) Grâce à l'analyse de données historiques. B) Automatiquement par l'algorithme. C) En ignorant les objectifs moins importants. D) Par le biais de sessions interactives avec le décideur.
- 24. Quel est le cas particulier de l'optimisation mathématique où toute solution est optimale ?
A) Le problème de faisabilité B) L'optimisation globale C) L'optimisation multi-modale D) Le problème d'existence
- 25. Quelles sont les conditions utilisées pour trouver les optima dans les problèmes avec des contraintes d'égalité et/ou d'inégalité ?
A) Conditions d'ordre second B) Conditions de faisabilité C) Conditions d'ordre premier D) Les conditions de Karush-Kuhn-Tucker
- 26. Quelles sont les techniques numériques efficaces pour minimiser les fonctions convexes ?
A) Méthodes du point intérieur. B) Recherches de direction. C) Relaxation lagrangienne. D) Régions de confiance.
- 27. Quelle méthode garantit la convergence en optimisant une fonction le long d'une seule dimension ?
A) Relaxation lagrangienne. B) Recherches de direction. C) Estimation du moment positif-négatif. D) Régions de confiance.
- 28. Quelle méthode utilise une approximation du gradient aléatoire pour l'optimisation stochastique ?
A) Méthodes du point intérieur B) Méthode de l'ellipsoïde C) L'approximation stochastique par perturbation simultanée (SPSA) D) Algorithmes d'optimisation quantique
- 29. Quelle méthode est historiquement importante mais lente, et qui suscite un regain d'intérêt pour les problèmes de grande taille ?
A) Méthodes de descente par coordonnées B) Approximation stochastique par perturbation simultanée C) Descente de gradient D) Méthodes quasi-Newton
- 30. Dans quel domaine l'optimisation de la conception est-elle particulièrement appliquée ?
A) La cosmologie et l'astrophysique. B) L'ingénierie électrique. C) La microéconomie. D) L'ingénierie, en particulier l'ingénierie aérospatiale.
- 31. Dans quel domaine la programmation stochastique et la simulation sont-elles utilisées pour soutenir la prise de décision ?
A) Modélisation moléculaire B) Recherche opérationnelle C) Génie civil D) Génie du contrôle
|