A) Automatizált integráció B) Elemzés és vizsgálat C) Fejlett interfész D) Mesterséges intelligencia
A) Honda B) Toyota C) LG D) Sony
A) C-3PO B) EVE C) BOLT D) R2-D2
A) Optimus Prime B) WALL-E C) B-9 robot D) C-3PO
A) Ultron B) Anya C) Skynet D) HAL 9000
A) Dél-Korea B) Németország C) Kína D) Japán
A) Mesterséges neurális hálózatok B) Programozás bemutatóval C) Genetikus algoritmusok D) Mély megerősítéses tanulás
A) Algoritmus B) Artikuláció C) Antropomorfizmus D) Automatizálás
A) Snow Crash B) I, Robot C) Neuromancer D) Álmodnak-e az androidok elektromos bárányokról?
A) Újragondolni a robotikát B) Blue Origin C) Boston Dynamics D) iRobot
A) Bender B) R2-D2 C) Dalek D) Johnny 5
A) Vezeték nélküli kapcsolat B) Közösségi hálózatépítés C) Virtuális valóság D) Gépi tanulás
A) meta tags.html B) sitemap.xml C) crawler rules.json D) robots.txt
A) Charles Stross B) Vint Cerf C) Martijn Koster D) Tim Berners-Lee
A) CrawlerExclusion.txt B) PageAccessControl.txt C) RobotsNotWanted.txt D) WebBotRules.txt
A) 2019 B) 2022 C) 1998 D) 2005
A) Hirdetések megjelenítése. B) Hogy jelölje, mely weboldal-részletek megtekinthetők a webcrawlerek számára. C) A weboldal biztonságának növelése titkosítással. D) A felhasználói bejelentkezési adatok tárolása.
A) A felhasználó böngészőjének gyorsítótárában. B) Minden olyan könyvtárban, amelyre vonatkozik. C) A weboldal gyökérkönyvtárában. D) A szerver konfigurációs fájljaiban.
A) A webes robotok feltételezik, hogy a teljes weboldal böngészésére nincs korlátozás. B) Az összes weboldal automatikusan bekerül a keresőindexbe. C) A szerver 404-es hibát ad vissza. D) A weboldal letiltva van a keresőmotorok számára.
A) Helyezzen egyetlen robots.txt fájlt a gyökérkönyvtárba. B) Minden aldomainhez külön robots.txt fájl tartozik. C) Ignorálja a robots.txt fájlt az aldomainek esetében. D) Használjon ugyanazt a robots.txt fájlt minden aldomainhez.
A) Nem, ők sosem jelennek meg a keresési eredményekben. B) Csak akkor jelennek meg, ha a robots.txt fájl hiányzik. C) Csak akkor, ha a weboldal tulajdonosa manuálisan engedélyezi. D) Igen, ha egy másik, indexelhető oldalról hivatkoznak rájuk.
A) A videóstreamelés jelentős sávszélességet igényelt. B) A komplex adatbázis lekérdezések. C) Az internet akkora volt, hogy teljes listát lehetett készíteni minden botról. D) A felhasználók által feltöltött nagy fájlok terhelést jelentettek.
A) Egy konkrét, szövegalapú formátum B) Bináris kód C) HTML-címkék D) JSON-objektumok
A) Internet Engineering Task Force (IETF) B) International Organization for Standardization (ISO) C) Institute of Electrical and Electronics Engineers (IEEE) D) World Wide Web Consortium (W3C)
A) A biztonság elérése rejtett módszerekkel. B) CAPTCHA rendszerek bevezetése. C) Titkosítás használata. D) Tűzfalak telepítése.
A) A weboldal betöltési sebességének növelése. B) A weboldal mely részei legyenek feltérképezve és indexelve, annak szabályozása. C) Az adatok továbbításának titkosítása. D) A vizuális megjelenés javítása.
A) RFC 2616 B) RFC 7230 C) RFC 3986 D) RFC 9309
A) A látogatók számának növelése. B) A multimédiás tartalmak lejátszásának javítása. C) A szerver hardverének fejlesztése. D) Egyes tartalmak kizárása a keresőmotorok eredményeiből, hogy azok ne legyenek félrevezetőek vagy irrelevánsak.
A) A bíróságok előírják, hogy minden weboldalnak legyen robots.txt fájlja. B) A jogi ügyekből kiderült, hogy a robots.txt irreleváns a botok működése szempontjából. C) Ezt a fájlt felhasználják arra, hogy jogi lépéseket tegyenek a szabálytalan botok üzemeltetői ellen. D) A bíróságok ilyen esetekben mindig figyelmen kívül hagyják a robots.txt fájlt.
A) Amazon, eBay, Alibaba B) Facebook, Twitter, Instagram C) LinkedIn, WhatsApp, Telegram D) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex
A) 50 B) 100 C) 306 D) 500
A) Amazon, eBay, Alibaba B) Google, Facebook, Twitter C) Medium, Reddit, Yahoo D) LinkedIn, WhatsApp, Telegram
A) Minden webcrawler B) BingBot C) Yandex D) Googlebot
A) 1 megabyte B) 256 kibibit C) Korlátlan D) 500 kibibit (512000 byte)
A) Sitemap B) Content-Signal C) Crawl-delay D) Disallow
A) Sitemap B) Disallow C) Allow D) Crawl-delay |