A) Überwachtes Lernen. B) Unüberwachtes Lernen. C) Verstärkungslernen. D) Semi-überwachtes Lernen.
A) Mustererkennung und Klassifizierung. B) Code schreiben. C) Speicherung von Daten. D) Sicherheit im Netz.
A) Ein Modell, das schneller lernt. B) Ein Modell ohne Parameter. C) Ein Modell, das sich gut verallgemeinern lässt. D) Ein Modell, das zu komplex ist und bei neuen Daten schlecht abschneidet.
A) K-means-Clustering. B) Support-Vektor-Maschinen. C) Genetische Algorithmen. D) Gradientenabstieg.
A) Verhaltensweisen durch Versuch und Irrtum lernen. B) Zur direkten Zuordnung von Eingängen zu Ausgängen. C) Zur Optimierung linearer Gleichungen. D) Einteilung der Daten in Kategorien.
A) Die Leistungsaufnahme eines Systems. B) Die Verarbeitungsgeschwindigkeit eines Computers. C) Die Fähigkeit einer Maschine, intelligentes Verhalten zu zeigen, das dem eines Menschen entspricht. D) Die Speicherkapazität eines Computers.
A) Funktioniert besser bei kleinen Datensätzen. B) Einfacher zu implementieren als Standardalgorithmen. C) Fähigkeit zum automatischen Lernen von Merkmalen aus Daten. D) Benötigt weniger Daten als herkömmliche Methoden.
A) K-means. B) Entscheidungsbäume. C) Lineare Regression. D) Zufällige Wälder.
A) Verschlüsselung von Daten zur Sicherheit. B) Speicherung großer Datenmengen in Datenbanken. C) Bereinigung der Daten für die Analyse. D) Extraktion von Mustern und Informationen aus großen Datenbeständen.
A) Faltungsneuronale Netze (CNNs). B) Neuronale Netze mit Vorwärtskopplung. C) Rekurrente neuronale Netze (RNNs). D) Netze mit radialen Basisfunktionen.
A) Iteration durch Zufallsstichproben. B) Angleichung der Funktionen. C) Das Überleben des Stärkeren durch die Evolution. D) Sortieren durch Quicksort.
A) Daten, die für eine Analyse zu klein sind. B) Von Apps gesammelte private Nutzerdaten. C) In einer relationalen Datenbank gespeicherte Daten. D) Große und komplexe Datensätze, deren Verarbeitung fortgeschrittene Werkzeuge erfordert.
A) Geometrische Transformationen. B) Das Internet. C) Die Struktur und die Funktionen des menschlichen Gehirns. D) Statistische Modelle.
A) Zum Ersetzen von Testsätzen. B) Bewertung der Modellleistung während des Trainings. C) Vergrößerung der Trainingsdaten. D) Um Modelle glücklicher zu machen.
A) Schöne Suppe. B) Pygame. C) Fläschchen. D) Scikit-learn.
A) Minimierung des Abstands zwischen allen Punkten. B) Einsatz von Deep Learning für die Klassifizierung. C) Maximierung des Volumens des Datensatzes. D) Suche nach der Hyperebene, die die Datenpunkte am besten trennt.
A) Verschiebt Modelle von einem Datensatz zu einem anderen ohne Änderungen. B) Nutzt das bei einer Aufgabe gewonnene Wissen, um die Leistung bei einer verwandten Aufgabe zu verbessern. C) Überträgt Daten zwischen verschiedenen Benutzern. D) Verschiebt Softwareanwendungen zwischen Plattformen.
A) Einheitliche Kodierungsstandards. B) Hardware-Einschränkungen. C) Zu viel öffentliches Interesse. D) Verzerrungen in Daten und Algorithmen.
A) Montage. B) C++. C) HTML. D) Python.
A) Vorhersage B) Clustering C) Klassifizierung D) Regression
A) Genetische Algorithmen B) Entscheidungsbäume C) Gradienter Abstieg D) Monte-Carlo-Simulation
A) Genauigkeit B) Entropie C) Durchsatz D) Abweichung
A) MySQL B) Git C) TensorFlow D) Windows
A) Bandbreite B) Latenzzeit C) Überanpassung D) Durchsatz
A) Grundlegende arithmetische Berechnungen. B) Textverarbeitung. C) Verarbeitung natürlicher Sprache. D) Tabellenkalkulationen.
A) K-means-Clustering. B) Verstärkungslernen. C) Genetische Algorithmen. D) Lineare Regression.
A) K-means-Clustering. B) Lineare Regression. C) Q-learning. D) Support-Vektor-Maschine. |