ThatQuiz Biblioteca de Testes Faça o teste agora
Otimização matemática
Contribuição de: Pereira
  • 1. A otimização matemática, também conhecida como programação matemática, é uma disciplina que trata de encontrar a melhor solução entre um conjunto de soluções viáveis. Envolve o processo de maximização ou minimização de uma função objetiva tendo em conta as restrições. Os problemas de otimização surgem em vários domínios, como a engenharia, a economia, as finanças e a investigação operacional. O objetivo da otimização matemática é melhorar a eficiência, maximizar os lucros, minimizar os custos ou obter o melhor resultado possível dentro de determinadas restrições. São utilizadas diferentes técnicas, como a programação linear, a programação não linear, a programação inteira e a otimização estocástica, para resolver problemas de otimização. Em geral, a otimização matemática desempenha um papel crucial nos processos de tomada de decisão e na resolução de problemas em cenários complexos do mundo real.

    Qual é o principal objetivo da otimização matemática?
A) Geração de números aleatórios
B) Resolver equações
C) Minimizar ou maximizar uma função objetivo
D) Contagem de números primos
  • 2. O que é uma restrição em problemas de otimização?
A) A fórmula matemática
B) O resultado final
C) Limitação das soluções possíveis
D) O palpite inicial
  • 3. Que tipo de otimização procura o valor máximo de uma função objetivo?
A) Minimização
B) Simplificação
C) Maximização
D) Randomização
  • 4. Na programação linear, o que é a região viável?
A) O conjunto de todas as soluções viáveis
B) A área fora dos condicionalismos
C) A região com o valor máximo
D) O espaço de solução
  • 5. O que significa o termo "solução viável" em otimização?
A) Uma solução sem restrições
B) Uma solução incorrecta
C) Uma solução aleatória
D) Uma solução que satisfaz todas as restrições
  • 6. O que é a função objetivo num problema de otimização?
A) Uma operação matemática aleatória
B) Uma equação sem variáveis
C) Uma função de restrição
D) Função a ser optimizada ou minimizada
  • 7. Que método é normalmente utilizado para resolver problemas de programação linear?
A) Recozimento simulado
B) Adivinhar e verificar
C) Tentativa e erro
D) Método Simplex
  • 8. Qual é a importância da análise de sensibilidade na otimização?
A) Gera soluções aleatórias
B) Avalia o impacto das alterações dos parâmetros na solução
C) Encontra o ótimo global
D) Seleciona o melhor algoritmo
  • 9. Como é também conhecido o conceito de otimização matemática?
A) Programação matemática
B) Projeto de algoritmos
C) Maximização de funções
D) Análise quantitativa
  • 10. Em quantas áreas específicas a otimização matemática é geralmente dividida?
A) Uma: otimização geral.
B) Três: programação linear, programação não linear e programação inteira.
C) Quatro: otimização combinatória, otimização estocástica, otimização dinâmica e otimização robusta.
D) Duas: otimização discreta e otimização contínua.
  • 11. Que tipo de otimização envolve a busca por um objeto, como um número inteiro, uma permutação ou um grafo?
A) Programação não linear
B) Otimização discreta
C) Programação linear
D) Otimização contínua
  • 12. Em qual tipo de otimização são encontrados os argumentos ótimos de um conjunto contínuo?
A) Programação inteira
B) Otimização discreta
C) Otimização contínua
D) Otimização combinatória
  • 13. Qual ramo da matemática lida com algoritmos determinísticos para problemas não convexos?
A) Otimização global
B) Otimização local
C) Matemática discreta
D) Programação linear
  • 14. Qual é o valor mínimo de (x² + 1) quando x = -2?
A) 3
B) 1
C) 5
D) 4
  • 15. Para qual valor de x a função \(x2 + 1\) atinge seu valor mínimo?
A) x = 1
B) x = -1
C) x = ∞
D) x = 0
  • 16. Existe um valor máximo para a função \(2x\) em todos os números reais?
A) Sim, é infinito.
B) Não, ela não tem limite superior.
C) Sim, é menos infinito.
D) Sim, é 2.
  • 17. Quem é creditado por ter introduzido o termo 'programação linear'?
A) George B. Dantzig
B) Fermat
C) Leonid Kantorovich
D) John von Neumann
  • 18. Em que ano Leonid Kantorovich introduziu grande parte da teoria por trás da programação linear?
A) 1947
B) 1939
C) 1960
D) 1950
  • 19. Quais tipos de variáveis são utilizados na programação semidefinida (PSD)?
A) Variáveis contínuas.
B) Matrizes semidefinidas.
C) Variáveis discretas.
D) Variáveis binárias.
  • 20. O que acontece quando se adiciona mais de um objetivo a um problema de otimização?
A) Aumenta a complexidade.
B) Simplifica o problema.
C) Reduz o número de soluções.
D) Elimina os compromissos (trade-offs).
  • 21. O que se diz de um projeto que não é dominado por nenhum outro projeto?
A) Subótimo
B) Ótimo de Pareto
C) Inferior
D) Ineficiente
  • 22. Quem determina a 'solução preferida' entre as soluções ótimas de Pareto?
A) O algoritmo de otimização
B) O projetista do sistema
C) Um avaliador externo
D) O tomador de decisão
  • 23. Como é possível, em alguns casos, obter as informações faltantes em um problema de otimização multi-objetivo?
A) Automaticamente, pelo próprio algoritmo.
B) Por meio da análise de dados históricos.
C) Através de sessões interativas com o tomador de decisão.
D) Ignorando os objetivos de menor importância.
  • 24. Qual é o caso especial da otimização matemática em que qualquer solução é ótima?
A) Otimização multimodada.
B) O problema de existência.
C) Otimização global.
D) O problema de viabilidade.
  • 25. Quais são as condições utilizadas para encontrar os pontos ótimos em problemas com restrições de igualdade e/ou desigualdade?
A) Condições de viabilidade
B) As condições de Karush-Kuhn-Tucker
C) Condições de segunda ordem
D) Condições de primeira ordem
  • 26. Quais são as técnicas numéricas eficientes para minimizar funções convexas?
A) Relaxamento lagrangiano.
B) Métodos de ponto interior.
C) Regiões de confiança.
D) Buscas ao longo de linhas.
  • 27. Qual método garante a convergência ao otimizar uma função ao longo de uma dimensão?
A) Estimativa de momento positivo-negativo.
B) Relaxamento lagrangiano.
C) Regiões de confiança.
D) Buscas diretas (ou métodos de busca linear).
  • 28. Qual método utiliza a aproximação do gradiente aleatório para otimização estocástica?
A) Método da elipsoide
B) Métodos do ponto interior
C) Aproximação estocástica por perturbação simultânea (SPSA)
D) Algoritmos de otimização quântica
  • 29. Qual método é historicamente importante, mas lento, e tem despertado novo interesse para problemas de grande escala?
A) Descida do gradiente
B) Aproximação estocástica por perturbação simultânea
C) Métodos de descida coordenada
D) Métodos quase-newtonianos
  • 30. Em qual área a otimização de projetos é particularmente aplicada?
A) Cosmologia e astrofísica.
B) Microeconomia.
C) Engenharia, especialmente engenharia aeroespacial.
D) Engenharia elétrica.
  • 31. Em qual área a programação estocástica e a simulação são utilizadas para apoiar a tomada de decisões?
A) Engenharia de controle
B) Modelagem molecular
C) Pesquisa operacional
D) Engenharia civil
Criado com That Quiz — a página para criar testes de Matemática e de outras áreas.