![]()
A) Integração automatizada B) Inteligência Artificial C) Análise e investigação D) Interface avançada
A) Honda B) Toyota C) LG D) Sony
A) EVE B) C-3PO C) R2-D2 D) BOLT
A) Optimus Prime B) Robô B-9 C) C-3PO D) WALL-E
A) Conectividade sem fios B) Aprendizagem automática C) Realidade virtual D) Redes sociais
A) Antropomorfismo B) Algoritmo C) Articulação D) Automatização
A) R2-D2 B) Dalek C) Bender D) Joãozinho 5
A) HAL 9000 B) Skynet C) Mãe D) Ultron
A) Redes Neuronais Artificiais B) Programação por demonstração C) Algoritmos genéticos D) Aprendizagem por reforço profundo
A) Repensar a robótica B) Boston Dynamics C) Origem Azul D) iRobot
A) China B) Coreia do Sul C) Japão D) Alemanha
A) Queda de neve B) Neuromancer C) Eu, Robô D) Os Androides Sonham com Ovelhas Eléctricas?
A) metatags.html B) sitemap.xml C) robots.txt D) crawlerrules.json
A) Charles Stross B) Vint Cerf C) Tim Berners-Lee D) Martijn Koster
A) WebBotRules.txt B) RobotsNotWanted.txt C) CrawlerExclusion.txt D) PageAccessControl.txt
A) 2019 B) 1998 C) 2005 D) 2022
A) Aumentar a segurança do site por meio de criptografia. B) Indicar quais partes de um site os robôs de busca (web crawlers) têm permissão para acessar. C) Exibir anúncios. D) Armazenar as credenciais de login dos usuários.
A) No cache do navegador do usuário. B) Dentro de cada diretório ao qual se aplica. C) Na raiz da estrutura do site. D) Nos arquivos de configuração do servidor.
A) O servidor retorna um erro 404. B) O site é bloqueado pelos mecanismos de busca. C) Os robôs da web assumem que não existem restrições para rastrear todo o site. D) Todas as páginas da web são indexadas automaticamente.
A) Coloque um único arquivo robots.txt no diretório raiz. B) Cada subdomínio deve ter seu próprio arquivo robots.txt. C) Utilize o mesmo arquivo robots.txt para todos os subdomínios. D) Ignore os arquivos robots.txt para os subdomínios.
A) Apenas se o proprietário do site aprovar manualmente. B) Não, eles nunca aparecerão nos resultados de pesquisa. C) Sim, se eles estiverem linkados a partir de outra página que é indexada. D) Eles só aparecem se o arquivo robots.txt estiver ausente.
A) Alto consumo de largura de banda devido à transmissão de vídeo. B) Envio de arquivos grandes por parte dos usuários. C) A internet era pequena o suficiente para manter uma lista completa de todos os robôs. D) Consultas complexas a bancos de dados.
A) Objetos JSON B) Tags HTML C) Um formato específico baseado em texto D) Código binário
A) World Wide Web Consortium (W3C) B) Organização Internacional de Normalização (ISO) C) Institute of Electrical and Electronics Engineers (IEEE) D) Internet Engineering Task Force (IETF)
A) Utilizar a segurança por opacidade. B) Implementar sistemas CAPTCHA. C) Utilizar criptografia. D) Implementar firewalls.
A) Melhorar o design visual. B) Gerenciar quais partes de um site são rastreadas e indexadas. C) Aumentar a velocidade de carregamento das páginas. D) Criptografar a transmissão de dados.
A) RFC 2616 B) RFC 9309 C) RFC 7230 D) RFC 3986
A) Para aumentar o número de visitantes. B) Para melhorar o hardware do servidor. C) Para impedir que certos conteúdos sejam exibidos de forma enganosa ou irrelevante nos resultados de pesquisa. D) Para otimizar a reprodução de conteúdo multimídia.
A) Casos legais demonstraram que o arquivo robots.txt é irrelevante para o funcionamento dos bots. B) O arquivo robots.txt é sempre ignorado pelos tribunais em casos como este. C) Ele tem sido usado como base para ações legais contra operadores de bots que não cumprem as regras. D) Os tribunais exigem a criação de arquivos robots.txt para todos os sites.
A) Facebook, Twitter, Instagram B) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex C) Amazon, eBay, Alibaba D) LinkedIn, WhatsApp, Telegram
A) 50 B) 100 C) 500 D) 306
A) LinkedIn, WhatsApp, Telegram B) Google, Facebook, Twitter C) Medium, Reddit, Yahoo D) Amazon, eBay, Alibaba
A) BingBot B) Todos os robôs de indexação C) Yandex D) Googlebot
A) 256 kilobytes B) 1 megabyte C) Ilimitado D) 500 kibibytes (512000 bytes)
A) Disallow B) Crawl-delay C) Sitemap D) Content-Signal
A) Allow B) Disallow C) Sitemap D) Crawl-delay |