ThatQuiz Directorio Inténtalo
Robots
Contribuido por: Peña
  • 1. Los robots son máquinas diseñadas para realizar tareas automáticamente, a menudo con precisión y eficacia. Los hay de varias formas y tamaños, desde robots industriales utilizados en la fabricación hasta robots humanoides que pueden ayudar en las tareas domésticas. Con avances tecnológicos como la inteligencia artificial y el aprendizaje automático, los robots son cada vez más sofisticados, capaces de aprender y adaptarse a nuevas situaciones. Aunque algunos teman que los robots sustituyan a los humanos, también pueden mejorar nuestras vidas al asumir tareas peligrosas o repetitivas, liberando a los humanos para que se centren en tareas más creativas.

    ¿Qué significa IA en relación con los robots?
A) Integración automatizada
B) Interfaz avanzada
C) Inteligencia artificial
D) Análisis e investigación
  • 2. ¿Qué fabricante de robots es conocido por crear el robot humanoide "ASIMO"?
A) Sony
B) Toyota
C) LG
D) Honda
  • 3. ¿Cómo se llama el compañero robot de la película "Wall-E"?
A) PERNO
B) R2-D2
C) C-3PO
D) EVE
  • 4. ¿Qué famoso robot es conocido por su eslogan "¡Peligro, Will Robinson!"?
A) Robot B-9
B) C-3PO
C) Optimus Prime
D) WALL-E
  • 5. ¿Qué país ostenta el récord mundial de mayor número de robots por cada 10.000 trabajadores del sector manufacturero?
A) China
B) Alemania
C) Japón
D) Corea del Sur
  • 6. ¿Qué empresa de robótica es conocida por crear el sistema de robots modulares "Baxter"?
A) Repensar la robótica
B) Blue Origin
C) Boston Dynamics
D) iRobot
  • 7. ¿Cómo se llamaba el sistema de inteligencia artificial que aparecía en la película "2001: Una odisea del espacio"?
A) HAL 9000
B) Madre
C) Ultron
D) Skynet
  • 8. ¿Qué famoso robot se caracteriza a menudo por querer "exterminar" a los humanos?
A) Johnny 5
B) R2-D2
C) Dalek
D) Bender
  • 9. ¿Cómo se denomina el proceso de programar un robot para que realice una tarea específica demostrándosela al robot?
A) Redes neuronales artificiales
B) Programación por demostración
C) Aprendizaje por refuerzo profundo
D) Algoritmos genéticos
  • 10. ¿Cuál era el título de la famosa colección de relatos de ciencia ficción de Isaac Asimov que introducía las Tres Leyes de la Robótica?
A) Neuromante
B) ¿Sueñan los androides con ovejas eléctricas?
C) Snow Crash
D) Yo, Robot
  • 11. ¿Cómo se denomina la capacidad de un robot para imitar acciones o expresiones similares a las humanas?
A) Antropomorfismo
B) Articulación
C) Algoritmo
D) Automatización
  • 12. ¿Cómo se denomina la capacidad de un robot para aprender de las experiencias y mejorar su rendimiento con el tiempo?
A) Conectividad inalámbrica
B) Aprendizaje automático
C) Realidad virtual
D) Redes sociales
  • 13. ¿Cómo se conoce comúnmente el Protocolo de Exclusión de Robots?
A) crawlerrules.json
B) robots.txt
C) metatags.html
D) sitemap.xml
  • 14. ¿Quién propuso el estándar para el archivo robots.txt en 1994?
A) Martijn Koster
B) Vint Cerf
C) Charles Stross
D) Tim Berners-Lee
  • 15. ¿Cuál era el nombre inicial propuesto para el archivo robots.txt?
A) WebBotRules.txt
B) CrawlerExclusion.txt
C) PageAccessControl.txt
D) RobotsNotWanted.txt
  • 16. ¿En qué año Google propuso el Protocolo de Exclusión de Robots como un estándar oficial?
A) 2019
B) 1998
C) 2022
D) 2005
  • 17. ¿Cuál es el propósito principal de un archivo robots.txt?
A) Mostrar anuncios.
B) Indicar qué partes de un sitio web los rastreadores (web crawlers) están autorizados a visitar.
C) Almacenar las credenciales de inicio de sesión de los usuarios.
D) Mejorar la seguridad de un sitio web mediante el cifrado.
  • 18. ¿Dónde se debe colocar el archivo robots.txt en un sitio web?
A) En la caché del navegador del usuario.
B) Dentro de cada directorio al que se aplica.
C) En la raíz de la estructura del sitio web.
D) En los archivos de configuración del servidor.
  • 19. ¿Qué ocurre si no existe un archivo robots.txt en un sitio web?
A) El servidor devuelve un error 404.
B) El sitio web es bloqueado por los motores de búsqueda.
C) Los robots web asumen que no existen restricciones para rastrear todo el sitio.
D) Todas las páginas web se indexan automáticamente.
  • 20. ¿Qué se debe hacer si un sitio web tiene múltiples subdominios y cada uno necesita su propio archivo robots.txt?
A) Cada subdominio debe tener su propio archivo robots.txt.
B) Ignore el archivo robots.txt para los subdominios.
C) Utilice el mismo archivo robots.txt para todos los subdominios.
D) Coloque un único archivo robots.txt en el directorio raíz.
  • 21. ¿Pueden aparecer en los resultados de búsqueda enlaces a páginas que están listadas en el archivo robots.txt?
A) No, nunca aparecerán en los resultados de búsqueda.
B) Solo aparecen si el archivo robots.txt no está presente.
C) Solo si el propietario del sitio lo aprueba manualmente.
D) Sí, si están enlazadas desde otra página que se rastrea.
  • 22. ¿Cuál era una preocupación principal con respecto a la sobrecarga del servidor cuando se implementó por primera vez el archivo robots.txt?
A) Consultas complejas a la base de datos.
B) Internet era lo suficientemente pequeño como para mantener una lista completa de todos los robots.
C) Subida de archivos grandes por parte de los usuarios.
D) Alto consumo de ancho de banda debido a la transmisión de video.
  • 23. ¿Cuál es el formato para las instrucciones en un archivo robots.txt?
A) Objetos JSON
B) Código binario
C) Etiquetas HTML
D) Un formato específico basado en texto
  • 24. ¿Qué organización publicó el Protocolo de Exclusión de Robots como una norma oficial en septiembre de 2022?
A) World Wide Web Consortium (W3C)
B) Instituto de Ingenieros Eléctricos y Electrónicos (IEEE)
C) Internet Engineering Task Force (IETF)
D) Organización Internacional de Normalización (ISO)
  • 25. ¿Qué prácticas desaconsejan los organismos de normalización al tratar con bots maliciosos utilizando el archivo robots.txt?
A) Contrarrestar la amenaza mediante la seguridad basada en la opacidad.
B) Utilizar cifrado.
C) Implementar cortafuegos.
D) Implementar sistemas CAPTCHA.
  • 26. ¿Cuál es el propósito de utilizar el archivo robots.txt junto con los mapas del sitio?
A) Cifrar la transmisión de datos.
B) Aumentar la velocidad de carga de las páginas.
C) Gestionar qué partes de un sitio web se rastrean e indexan.
D) Mejorar el diseño visual.
  • 27. ¿Cuál es el número de RFC para el estándar propuesto publicado en septiembre de 2022?
A) RFC 3986
B) RFC 7230
C) RFC 9309
D) RFC 2616
  • 28. ¿Cuál podría ser una razón para que un sitio web utilice el archivo robots.txt?
A) Para aumentar el número de visitantes.
B) Para mejorar la reproducción de contenido multimedia.
C) Para evitar que cierto contenido aparezca como engañoso o irrelevante en los resultados de búsqueda.
D) Para mejorar el hardware del servidor.
  • 29. ¿Cuál es la importancia del archivo robots.txt en casos legales relacionados con bots?
A) Se ha utilizado como base para acciones legales contra operadores de bots que no cumplen con las normas.
B) Los tribunales siempre ignoran el archivo robots.txt en este tipo de casos.
C) Los tribunales exigen la creación de archivos robots.txt para todos los sitios web.
D) Los casos legales han demostrado que el archivo robots.txt es irrelevante para el funcionamiento de los bots.
  • 30. ¿Qué motores de búsqueda siguen el estándar robots.txt?
A) Amazon, eBay, Alibaba
B) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
C) LinkedIn, WhatsApp, Telegram
D) Facebook, Twitter, Instagram
  • 31. En 2023, ¿cuántos de los mil sitios web más visitados bloquearon el bot GPT de OpenAI?
A) 500
B) 306
C) 50
D) 100
  • 32. ¿Qué empresas participaron en el lanzamiento de RSL?
A) LinkedIn, WhatsApp, Telegram
B) Google, Facebook, Twitter
C) Amazon, eBay, Alibaba
D) Medium, Reddit, Yahoo
  • 33. ¿Qué rastreador interpreta el parámetro 'crawl-delay' como el tamaño de un intervalo de tiempo durante el cual accederá a un sitio web solo una vez?
A) Googlebot
B) Yandex
C) BingBot
D) Todos los rastreadores
  • 34. ¿Cuál es el tamaño máximo permitido para un archivo robots.txt según las restricciones de Google?
A) 500 kibibytes (512000 bytes)
B) Ilimitado
C) 256 kilobytes
D) 1 megabyte
  • 35. ¿Qué directiva introducida por Cloudflare sugiere un comportamiento aceptable para los rastreadores?
A) Disallow
B) Sitemap
C) Crawl-delay
D) Content-Signal
  • 36. ¿Cuál de las siguientes directivas no forma parte del protocolo estándar de Robots Exclusion?
A) Disallow
B) Crawl-delay
C) Allow
D) Sitemap
Examen creado con That Quiz — el sitio de matemáticas.