ThatQuiz Elenco di test Affronta questo test adesso
Robot - Quiz
Con il contributo di: Quinto
  • 1. I robot sono macchine progettate per svolgere compiti in modo automatico, spesso con precisione ed efficienza. Sono disponibili in varie forme e dimensioni, dai robot industriali utilizzati nella produzione ai robot umanoidi che possono assistere nelle faccende domestiche. Grazie ai progressi della tecnologia, come l'intelligenza artificiale e l'apprendimento automatico, i robot stanno diventando sempre più sofisticati, in grado di apprendere e adattarsi a nuove situazioni. Sebbene alcuni possano temere che i robot sostituiscano i lavori umani, essi hanno anche il potenziale per migliorare le nostre vite assumendo compiti pericolosi o ripetitivi, liberando gli esseri umani per concentrarsi su attività più creative.

    Cosa significa AI in relazione ai robot?
A) Interfaccia avanzata
B) Integrazione automatizzata
C) Intelligenza artificiale
D) Analisi e indagine
  • 2. Quale produttore di robot è noto per aver creato il robot umanoide "ASIMO"?
A) LG
B) Sony
C) Toyota
D) Honda
  • 3. Come si chiama il robot compagno del film "Wall-E"?
A) C-3PO
B) R2-D2
C) BOLT
D) EVE
  • 4. Quale famoso robot è noto per il suo tormentone "Pericolo, Will Robinson!"?
A) C-3PO
B) Optimus Prime
C) Robot B-9
D) WALL-E
  • 5. Qual è il termine che indica la capacità di un robot di imitare azioni o espressioni simili a quelle umane?
A) Antropomorfismo
B) Articolazione
C) Algoritmo
D) Automazione
  • 6. Quale paese detiene il record mondiale del maggior numero di robot ogni 10.000 lavoratori del settore manifatturiero?
A) Germania
B) Cina
C) Giappone
D) Corea del Sud
  • 7. Quale famoso robot è spesso caratterizzato dal desiderio di "sterminare" gli esseri umani?
A) R2-D2
B) Bender
C) Johnny 5
D) Dalek
  • 8. Quale azienda di robotica è nota per aver creato il sistema robotico modulare "Baxter"?
A) Blue Origin
B) Ripensare la robotica
C) Boston Dynamics
D) iRobot
  • 9. Qual è il termine che indica il processo di programmazione di un robot per l'esecuzione di un compito specifico, dimostrando il compito al robot?
A) Apprendimento per rinforzo profondo
B) Algoritmi genetici
C) Programmazione per dimostrazione
D) Reti neurali artificiali
  • 10. Qual era il titolo della famosa raccolta di racconti di fantascienza di Isaac Asimov che introduceva le Tre Leggi della Robotica?
A) Snow Crash
B) Gli androidi sognano pecore elettriche?
C) Neuromante
D) Io, Robot
  • 11. Qual è il termine che indica la capacità di un robot di imparare dalle esperienze e migliorare le prestazioni nel tempo?
A) Connettività wireless
B) Apprendimento automatico
C) Social Networking
D) Realtà virtuale
  • 12. Come si chiamava il sistema di intelligenza artificiale presente nel film "2001: Odissea nello spazio"?
A) Skynet
B) HAL 9000
C) Madre
D) Ultron
  • 13. Come è comunemente noto il protocollo di esclusione dei robot?
A) crawlerrules.json
B) sitemap.xml
C) metatag.html
D) robots.txt
  • 14. Chi ha proposto lo standard per il file robots.txt nel 1994?
A) Charles Stross
B) Tim Berners-Lee
C) Martijn Koster
D) Vint Cerf
  • 15. Qual era il nome originale del file robots.txt quando è stato proposto?
A) CrawlerExclusion.txt
B) WebBotRules.txt
C) PageAccessControl.txt
D) RobotsNotWanted.txt
  • 16. In quale anno Google ha proposto il protocollo Robots Exclusion come standard ufficiale?
A) 2019
B) 1998
C) 2022
D) 2005
  • 17. Qual è lo scopo principale di un file robots.txt?
A) Visualizzare annunci pubblicitari.
B) Indicare quali sezioni di un sito web i crawler sono autorizzati a visitare.
C) Memorizzare le credenziali di accesso degli utenti.
D) Migliorare la sicurezza di un sito web tramite la crittografia.
  • 18. Dove dovrebbe essere posizionato il file robots.txt su un sito web?
A) Nella directory principale della struttura del sito web.
B) Nei file di configurazione del server.
C) All'interno di ogni directory a cui si applica.
D) Nella cache del browser dell'utente.
  • 19. Cosa succede se un file robots.txt non esiste su un sito web?
A) Tutte le pagine web vengono automaticamente indicizzate.
B) Il sito web viene bloccato dai motori di ricerca.
C) Il server restituisce un errore 404.
D) I crawler web presumono che non ci siano limitazioni alla scansione dell'intero sito.
  • 20. Cosa si dovrebbe fare se un sito web ha diversi sottodomini e ognuno di essi necessita di un proprio file robots.txt?
A) Ogni sottodominio deve avere il proprio file robots.txt.
B) Posizionare un singolo file robots.txt nella directory principale.
C) Ignorare i file robots.txt per i sottodomini.
D) Utilizzare lo stesso file robots.txt per tutti i sottodomini.
  • 21. I link a pagine elencate nel file robots.txt possono comparire nei risultati di ricerca?
A) Compariranno solo se il file robots.txt è assente.
B) No, non compariranno mai nei risultati di ricerca.
C) Solo se il proprietario del sito lo approva manualmente.
D) Sì, se sono collegati da un'altra pagina che viene indicizzata.
  • 22. Qual era la principale preoccupazione riguardo al sovraccarico dei server quando è stato implementato per la prima volta il file robots.txt?
A) Upload di file di grandi dimensioni da parte degli utenti.
B) Internet era abbastanza piccolo da consentire la creazione di un elenco completo di tutti i bot.
C) Query complesse ai database.
D) Elevato utilizzo della banda dovuto allo streaming di video.
  • 23. Qual è il formato delle istruzioni in un file robots.txt?
A) Tag HTML
B) Codice binario
C) Oggetti JSON
D) Un formato specifico basato su testo
  • 24. Quale organizzazione ha pubblicato il Robots Exclusion Protocol come standard ufficiale nel settembre 2022?
A) International Organization for Standardization (ISO)
B) World Wide Web Consortium (W3C)
C) Internet Engineering Task Force (IETF)
D) Institute of Electrical and Electronics Engineers (IEEE)
  • 25. Cosa viene sconsigliato dagli organismi di standardizzazione quando si tratta di bot dannosi che utilizzano il file robots.txt?
A) Utilizzare la crittografia.
B) Implementare firewall.
C) Implementare sistemi CAPTCHA.
D) Utilizzare la sicurezza basata sull'opacità.
  • 26. Qual è lo scopo di utilizzare il file robots.txt insieme alle sitemap?
A) Gestire quali parti di un sito web devono essere scansionate e indicizzate.
B) Aumentare la velocità di caricamento delle pagine.
C) Crittografare la trasmissione dei dati.
D) Migliorare il design visivo.
  • 27. Qual è il numero RFC dello standard proposto pubblicato nel settembre 2022?
A) RFC 3986
B) RFC 9309
C) RFC 2616
D) RFC 7230
  • 28. Qual è una possibile ragione per cui un sito web utilizza il file robots.txt?
A) Per ottimizzare la riproduzione di contenuti multimediali.
B) Per aumentare il numero di visitatori.
C) Per migliorare l'hardware del server.
D) Per impedire che determinati contenuti vengano presentati in modo fuorviante o irrilevante nei risultati di ricerca.
  • 29. Qual è il significato del file robots.txt nei casi legali che coinvolgono i bot?
A) I casi legali hanno dimostrato che il file robots.txt è irrilevante per il funzionamento dei bot.
B) È stato utilizzato come base per azioni legali contro gli operatori di bot che non rispettano le sue regole.
C) Il file robots.txt viene sempre ignorato dai tribunali in tali casi.
D) I tribunali impongono la creazione di file robots.txt per tutti i siti web.
  • 30. Quali motori di ricerca rispettano lo standard robots.txt?
A) Facebook, Twitter, Instagram
B) Amazon, eBay, Alibaba
C) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
D) LinkedIn, WhatsApp, Telegram
  • 31. Nel 2023, quanti dei mille siti web più visitati hanno bloccato il bot GPT di OpenAI?
A) 306
B) 500
C) 50
D) 100
  • 32. Quali aziende hanno partecipato al lancio di RSL?
A) Medium, Reddit, Yahoo
B) Google, Facebook, Twitter
C) LinkedIn, WhatsApp, Telegram
D) Amazon, eBay, Alibaba
  • 33. Quale motore di ricerca interpreta il parametro 'crawl-delay' come la dimensione di un intervallo di tempo durante il quale accederà a un sito web solo una volta?
A) BingBot
B) Googlebot
C) Tutti i motori di ricerca
D) Yandex
  • 34. Qual è la dimensione massima consentita per un file robots.txt secondo le restrizioni di Google?
A) Illimitata
B) 256 kilobyte
C) 1 megabyte
D) 500 kibibyte (512000 byte)
  • 35. Quale direttiva introdotta da Cloudflare indica un comportamento accettabile per i crawler?
A) Content-Signal
B) Sitemap
C) Disallow
D) Crawl-delay
  • 36. Quale delle seguenti direttive non fa parte del protocollo standard Robots Exclusion Protocol?
A) Disallow
B) Crawl-delay
C) Sitemap
D) Allow
Creato con That Quiz — dove un test di matematica è sempre a portata di clic.