Robots
  • 1. Los robots son máquinas diseñadas para realizar tareas automáticamente, a menudo con precisión y eficacia. Los hay de varias formas y tamaños, desde robots industriales utilizados en la fabricación hasta robots humanoides que pueden ayudar en las tareas domésticas. Con avances tecnológicos como la inteligencia artificial y el aprendizaje automático, los robots son cada vez más sofisticados, capaces de aprender y adaptarse a nuevas situaciones. Aunque algunos teman que los robots sustituyan a los humanos, también pueden mejorar nuestras vidas al asumir tareas peligrosas o repetitivas, liberando a los humanos para que se centren en tareas más creativas.

    ¿Qué significa IA en relación con los robots?
A) Interfaz avanzada
B) Análisis e investigación
C) Integración automatizada
D) Inteligencia artificial
  • 2. ¿Qué fabricante de robots es conocido por crear el robot humanoide "ASIMO"?
A) Honda
B) LG
C) Toyota
D) Sony
  • 3. ¿Cómo se llama el compañero robot de la película "Wall-E"?
A) EVE
B) R2-D2
C) PERNO
D) C-3PO
  • 4. ¿Qué famoso robot es conocido por su eslogan "¡Peligro, Will Robinson!"?
A) Robot B-9
B) WALL-E
C) Optimus Prime
D) C-3PO
  • 5. ¿Qué país ostenta el récord mundial de mayor número de robots por cada 10.000 trabajadores del sector manufacturero?
A) Corea del Sur
B) Alemania
C) China
D) Japón
  • 6. ¿Qué empresa de robótica es conocida por crear el sistema de robots modulares "Baxter"?
A) Blue Origin
B) Boston Dynamics
C) iRobot
D) Repensar la robótica
  • 7. ¿Cómo se llamaba el sistema de inteligencia artificial que aparecía en la película "2001: Una odisea del espacio"?
A) Skynet
B) Madre
C) Ultron
D) HAL 9000
  • 8. ¿Qué famoso robot se caracteriza a menudo por querer "exterminar" a los humanos?
A) Bender
B) Dalek
C) Johnny 5
D) R2-D2
  • 9. ¿Cómo se denomina el proceso de programar un robot para que realice una tarea específica demostrándosela al robot?
A) Redes neuronales artificiales
B) Algoritmos genéticos
C) Aprendizaje por refuerzo profundo
D) Programación por demostración
  • 10. ¿Cuál era el título de la famosa colección de relatos de ciencia ficción de Isaac Asimov que introducía las Tres Leyes de la Robótica?
A) Snow Crash
B) Yo, Robot
C) Neuromante
D) ¿Sueñan los androides con ovejas eléctricas?
  • 11. ¿Cómo se denomina la capacidad de un robot para imitar acciones o expresiones similares a las humanas?
A) Algoritmo
B) Articulación
C) Antropomorfismo
D) Automatización
  • 12. ¿Cómo se denomina la capacidad de un robot para aprender de las experiencias y mejorar su rendimiento con el tiempo?
A) Aprendizaje automático
B) Redes sociales
C) Realidad virtual
D) Conectividad inalámbrica
  • 13. ¿Cómo se conoce comúnmente el Protocolo de Exclusión de Robots?
A) sitemap.xml
B) robots.txt
C) metatags.html
D) crawlerrules.json
  • 14. ¿Quién propuso el estándar para el archivo robots.txt en 1994?
A) Martijn Koster
B) Tim Berners-Lee
C) Vint Cerf
D) Charles Stross
  • 15. ¿Cuál era el nombre inicial propuesto para el archivo robots.txt?
A) PageAccessControl.txt
B) WebBotRules.txt
C) CrawlerExclusion.txt
D) RobotsNotWanted.txt
  • 16. ¿En qué año Google propuso el Protocolo de Exclusión de Robots como un estándar oficial?
A) 2019
B) 2022
C) 1998
D) 2005
  • 17. ¿Cuál es el propósito principal de un archivo robots.txt?
A) Indicar qué partes de un sitio web los rastreadores (web crawlers) están autorizados a visitar.
B) Almacenar las credenciales de inicio de sesión de los usuarios.
C) Mejorar la seguridad de un sitio web mediante el cifrado.
D) Mostrar anuncios.
  • 18. ¿Dónde se debe colocar el archivo robots.txt en un sitio web?
A) En los archivos de configuración del servidor.
B) Dentro de cada directorio al que se aplica.
C) En la raíz de la estructura del sitio web.
D) En la caché del navegador del usuario.
  • 19. ¿Qué ocurre si no existe un archivo robots.txt en un sitio web?
A) Todas las páginas web se indexan automáticamente.
B) El sitio web es bloqueado por los motores de búsqueda.
C) Los robots web asumen que no existen restricciones para rastrear todo el sitio.
D) El servidor devuelve un error 404.
  • 20. ¿Qué se debe hacer si un sitio web tiene múltiples subdominios y cada uno necesita su propio archivo robots.txt?
A) Cada subdominio debe tener su propio archivo robots.txt.
B) Coloque un único archivo robots.txt en el directorio raíz.
C) Ignore el archivo robots.txt para los subdominios.
D) Utilice el mismo archivo robots.txt para todos los subdominios.
  • 21. ¿Pueden aparecer en los resultados de búsqueda enlaces a páginas que están listadas en el archivo robots.txt?
A) Solo aparecen si el archivo robots.txt no está presente.
B) No, nunca aparecerán en los resultados de búsqueda.
C) Solo si el propietario del sitio lo aprueba manualmente.
D) Sí, si están enlazadas desde otra página que se rastrea.
  • 22. ¿Cuál era una preocupación principal con respecto a la sobrecarga del servidor cuando se implementó por primera vez el archivo robots.txt?
A) Internet era lo suficientemente pequeño como para mantener una lista completa de todos los robots.
B) Consultas complejas a la base de datos.
C) Subida de archivos grandes por parte de los usuarios.
D) Alto consumo de ancho de banda debido a la transmisión de video.
  • 23. ¿Cuál es el formato para las instrucciones en un archivo robots.txt?
A) Objetos JSON
B) Un formato específico basado en texto
C) Código binario
D) Etiquetas HTML
  • 24. ¿Qué organización publicó el Protocolo de Exclusión de Robots como una norma oficial en septiembre de 2022?
A) Instituto de Ingenieros Eléctricos y Electrónicos (IEEE)
B) Organización Internacional de Normalización (ISO)
C) World Wide Web Consortium (W3C)
D) Internet Engineering Task Force (IETF)
  • 25. ¿Qué prácticas desaconsejan los organismos de normalización al tratar con bots maliciosos utilizando el archivo robots.txt?
A) Implementar cortafuegos.
B) Contrarrestar la amenaza mediante la seguridad basada en la opacidad.
C) Implementar sistemas CAPTCHA.
D) Utilizar cifrado.
  • 26. ¿Cuál es el propósito de utilizar el archivo robots.txt junto con los mapas del sitio?
A) Cifrar la transmisión de datos.
B) Gestionar qué partes de un sitio web se rastrean e indexan.
C) Aumentar la velocidad de carga de las páginas.
D) Mejorar el diseño visual.
  • 27. ¿Cuál es el número de RFC para el estándar propuesto publicado en septiembre de 2022?
A) RFC 3986
B) RFC 9309
C) RFC 2616
D) RFC 7230
  • 28. ¿Cuál podría ser una razón para que un sitio web utilice el archivo robots.txt?
A) Para mejorar el hardware del servidor.
B) Para aumentar el número de visitantes.
C) Para evitar que cierto contenido aparezca como engañoso o irrelevante en los resultados de búsqueda.
D) Para mejorar la reproducción de contenido multimedia.
  • 29. ¿Cuál es la importancia del archivo robots.txt en casos legales relacionados con bots?
A) Los tribunales siempre ignoran el archivo robots.txt en este tipo de casos.
B) Los casos legales han demostrado que el archivo robots.txt es irrelevante para el funcionamiento de los bots.
C) Los tribunales exigen la creación de archivos robots.txt para todos los sitios web.
D) Se ha utilizado como base para acciones legales contra operadores de bots que no cumplen con las normas.
  • 30. ¿Qué motores de búsqueda siguen el estándar robots.txt?
A) Facebook, Twitter, Instagram
B) LinkedIn, WhatsApp, Telegram
C) Amazon, eBay, Alibaba
D) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
  • 31. En 2023, ¿cuántos de los mil sitios web más visitados bloquearon el bot GPT de OpenAI?
A) 500
B) 100
C) 50
D) 306
  • 32. ¿Qué empresas participaron en el lanzamiento de RSL?
A) Google, Facebook, Twitter
B) Medium, Reddit, Yahoo
C) LinkedIn, WhatsApp, Telegram
D) Amazon, eBay, Alibaba
  • 33. ¿Qué rastreador interpreta el parámetro 'crawl-delay' como el tamaño de un intervalo de tiempo durante el cual accederá a un sitio web solo una vez?
A) BingBot
B) Yandex
C) Googlebot
D) Todos los rastreadores
  • 34. ¿Cuál es el tamaño máximo permitido para un archivo robots.txt según las restricciones de Google?
A) 1 megabyte
B) 256 kilobytes
C) 500 kibibytes (512000 bytes)
D) Ilimitado
  • 35. ¿Qué directiva introducida por Cloudflare sugiere un comportamiento aceptable para los rastreadores?
A) Crawl-delay
B) Content-Signal
C) Disallow
D) Sitemap
  • 36. ¿Cuál de las siguientes directivas no forma parte del protocolo estándar de Robots Exclusion?
A) Allow
B) Disallow
C) Crawl-delay
D) Sitemap
Examen creado con That Quiz — el sitio de matemáticas.