A) Analyse und Untersuchung B) Künstliche Intelligenz C) Automatisierte Integration D) Erweiterte Schnittstelle
A) Honda B) Sony C) LG D) Toyota
A) R2-D2 B) BOLT C) EVE D) C-3PO
A) Roboter B-9 B) Optimus Prime C) WALL-E D) C-3PO
A) Mutter B) HAL 9000 C) Skynet D) Ultron
A) Neuromancer B) Träumen Androiden von elektrischen Schafen? C) Ich, Roboter D) Schneegestöber
A) Deutschland B) China C) Südkorea D) Japan
A) Algorithmus B) Automatisierung C) Artikulation D) Anthropomorphismus
A) Soziale Netzwerke B) Virtuelle Realität C) Drahtlose Konnektivität D) Maschinelles Lernen
A) Genetische Algorithmen B) Tiefes Reinforcement Learning C) Programmierung durch Demonstration D) Künstliche neuronale Netze
A) Boston Dynamics B) iRobot C) Robotik neu überdenken D) Blauer Ursprung
A) Johnny 5 B) Bender C) Dalek D) R2-D2
A) robots.txt B) crawler-regeln.json C) meta-tags.html D) sitemap.xml
A) Vint Cerf B) Tim Berners-Lee C) Martijn Koster D) Charles Stross
A) RobotsNotWanted.txt B) CrawlerExclusion.txt C) PageAccessControl.txt D) WebBotRules.txt
A) 1998 B) 2019 C) 2005 D) 2022
A) Um Benutzeranmeldedaten zu speichern. B) Um anzugeben, welche Bereiche einer Website Web-Crawler besuchen dürfen. C) Um Werbung anzuzeigen. D) Um die Sicherheit einer Website durch Verschlüsselung zu erhöhen.
A) Im Browser-Cache des Benutzers. B) In den Konfigurationsdateien des Servers. C) Innerhalb jedes Verzeichnisses, für das sie gilt. D) Im Stammverzeichnis der Website-Struktur.
A) Alle Webseiten werden automatisch indexiert. B) Web-Roboter gehen davon aus, dass es keine Einschränkungen beim Crawlen der gesamten Website gibt. C) Die Website wird von Suchmaschinen gesperrt. D) Der Server gibt einen Fehler 404 zurück.
A) Jede Subdomain benötigt eine eigene robots.txt-Datei. B) Platzieren Sie eine einzige robots.txt-Datei im Stammverzeichnis. C) Ignorieren Sie die robots.txt-Datei für Subdomains. D) Verwenden Sie für alle Subdomains dieselbe robots.txt-Datei.
A) Ja, wenn sie von einer anderen Seite verlinkt werden, die gecrawlt wird. B) Sie erscheinen nur, wenn die robots.txt-Datei fehlt. C) Nein, sie werden niemals in den Suchergebnissen erscheinen. D) Nur, wenn der Website-Betreiber dies manuell genehmigt.
A) Große Datei-Uploads durch Benutzer. B) Das Internet war klein genug, um eine vollständige Liste aller Bots zu führen. C) Hoher Bandbreitenverbrauch durch Videostreaming. D) Komplexe Datenbankabfragen.
A) Binärcode B) JSON-Objekte C) HTML-Tags D) Ein bestimmtes, textbasiertes Format
A) Internationale Organisation für Normung (ISO) B) Institute of Electrical and Electronics Engineers (IEEE) C) World Wide Web Consortium (W3C) D) Internet Engineering Task Force (IETF)
A) Verwendung von Verschlüsselung B) Sicherheitsmaßnahmen durch Verschleierung C) Einsatz von Firewalls D) Implementierung von CAPTCHA-Systemen
A) Um das visuelle Design zu verbessern. B) Um die Datenübertragung zu verschlüsseln. C) Um zu steuern, welche Teile einer Website gecrawlt und indexiert werden. D) Um die Ladezeit von Seiten zu erhöhen.
A) RFC 9309 B) RFC 7230 C) RFC 2616 D) RFC 3986
A) Um zu verhindern, dass bestimmte Inhalte in den Suchergebnissen irreführend oder irrelevant dargestellt werden. B) Um die Wiedergabe von Multimedia-Inhalten zu optimieren. C) Um die Leistung der Serverhardware zu verbessern. D) Um die Anzahl der Besucher zu erhöhen.
A) Rechtsfälle haben gezeigt, dass die robots.txt-Datei für den Betrieb von Bots irrelevant ist. B) Sie wurde als Grundlage für rechtliche Schritte gegen Bot-Betreiber verwendet, die die Regeln nicht einhalten. C) Gerichte fordern die Erstellung von robots.txt-Dateien für alle Websites. D) Die robots.txt-Datei wird von Gerichten in solchen Fällen immer ignoriert.
A) Ask, AOL, Baidu, Bing, DuckDuckGo, Kagi, Google, Yahoo!, Yandex B) Amazon, eBay, Alibaba C) LinkedIn, WhatsApp, Telegram D) Facebook, Twitter, Instagram
A) 500 B) 50 C) 100 D) 306
A) Amazon, eBay, Alibaba B) Medium, Reddit, Yahoo C) Google, Facebook, Twitter D) LinkedIn, WhatsApp, Telegram
A) Alle Crawler B) BingBot C) Googlebot D) Yandex
A) 500 Kibibyte (512000 Byte) B) Unbegrenzt C) 1 Megabyte D) 256 Kilobyte
A) Disallow B) Content-Signal C) Crawl-delay D) Sitemap
A) Disallow B) Allow C) Crawl-delay D) Sitemap |