Testez votre compréhension des sujets d'analyse de données en répondant à plus de 100 QCM d'analyse de données.
Faites défiler vers le bas pour commencer !
A. Analyse explicative
B. Analyse spectrale
C. Prévision
D. Analyse descriptive
A. Conception de catalogue
B. Analyse des données du panier
C. Marketing croisé
D. Analyse des leader à perte
E. Tout ce qui précède
F. Aucune de ces réponses
A. Il peut traiter automatiquement les messages et les e-mails.
B. Il peut enquêter sur les concurrents en rampant leurs sites Web.
C. Il peut analyser les réponses à l'enquête ouverte.
D. Il peut analyser la garantie ou les réclamations d'assurance.
E. Tout ce qui précède.
A. Neurone d'entrée
B. Neurone caché
C. Neurone de sortie
D. Aucune de ces réponses
A. Il est utilisé pour calculer la probabilité conditionnelle entre les colonnes d'entrée et prévisibles et il suppose que les colonnes sont indépendantes.
B. Il est utilisé pour effectuer une sélection de fonctionnalités automatique pour limiter le nombre de valeurs qui sont prises en compte lors de la construction d'un modèle.
C. Il est fourni par Microsoft SQL Server Analysis Services pour une utilisation dans la modélisation prédictive.
D. Il est utilisé pour considérer chaque paire de valeurs d'attribut d'entrée et de valeurs d'attribut de sortie.
E. Tout ce qui précède.
A. Il est utilisé pour encourager l'effet de groupe en cas de variables hautement corrélées.
B. Il est utilisé pour trouver la probabilité d'événement = succès et événement = échec.
C. Il est utilisé pour ajouter et retirer les prédicteurs au besoin pour chaque étape.
D. Il est utilisé pour pénaliser la taille absolue des coefficients de régression.
A. Il est utilisé pour prédire une ou plusieurs variables numériques continues; Par exemple. bénéfice ou perte basé sur d'autres attributs dans un ensemble de données.
B. Il est utilisé pour trouver des corrélations entre différents attributs dans un ensemble de données.
C. Il est utilisé pour diviser les données en groupes ou grappes d'éléments qui ont des propriétés similaires.
D. Il est utilisé pour résumer des séquences ou des épisodes fréquents dans les données; Par exemple. Une série d'événements de journal précédant la maintenance des machines.
A. ltemsets
B. Réseau de dépendances
C. Règles
D. Aucune de ces réponses
A. Il est utilisé pour faire la question de savoir si un événement peut entraîner un changement dans une série temporelle.
B. Il est utilisé pour faire une tendance ou un modèle dans une série temporelle grâce à l'utilisation de graphiques ou d'autres outils.
C. Il est largement utilisé dans la budgétisation. qui est basé sur les tendances historiques.
D. Il est utilisé pour étudier la corrélation croisée entre deux séries chronologiques et leur dépendance à l'égard d'un autre.
A. dix
B. 3
C. 1
D. 0.4
A. GLM (Formule, Family = FamilyType (link = linkFunction), data =)
B. GLM (formule, données =, méthode =, contrôle =)
C. glm (vecteur, start =. end =, fréquence =)
D. glm (bootObject. conf =, type =)
A. bibliothèque grel.any (installer.packages ("xlsx")) ("xlsx")
B. any (grel ("xlsx", installé.package ())) bibliothèque ("xlsx")
C. any.grepl (xlsx, installé.package50) | Ibrary (xlsx)
D. grel (any (installé.packages (xlsx))) | ibrary (xlsx)
A. Clustering
B. Catégorisation
C. Visualisation
D. Extraction d'informations
A. Algorithme de segmentation
B. Algorithme de classification
C. Algorithme d'analyse de séquence
D. Algorithme d'association
A. Associations de correspondance [en tant que patron_name] Analyser {Mesurer (S)}
B. Associations de mines [en tant que patch_name] Analyser Classification_attribute_or_dimension
C. Associations de mines [comme [Pattern_name]] {Matching {Metapattern}}
D. Associations de mines [As Pattern_name] Analyser Prediction_Attribute_or_dimension {set [attribut_or_dimension_i = value_i}]
A. Régression par étapes
B. Régression polynomiale
C. Régression linéaire
D. Régression logistique
A. Il prend en charge les types de contenu cyclique, de clé et de table.
B. Il prend en charge les types de contenu clé, table et commandés.
C. Il prend en charge les types de contenu continu, de clé et de table.
D. Il prend en charge les types de contenu continues, cycliques et ordonnés.
A. Il spécifie comment un modèle doit être mélangé pour optimiser les prévisions.
B. Il spécifie quel algorithme utiliser pour l'analyse et la prédiction.
C. Il spécifie une valeur numérique comprise entre 0 et 1 qui détecte la périodicité.
D. Il spécifie le nombre minimum de tranches de temps nécessaires pour générer une scission dans chaque arborescence de séries chronologiques.
A. 0.6
B. 0.1
C. dix
D. 1
A. Il peut être utilisé pour produire une analyse de composants principaux non utilisée.
B. Il peut être utilisé pour produire une analyse factorielle du maximum de vraisemblance.
C. Il peut être utilisé pour amorcer le modèle d'équation structurelle.
D. Il peut être utilisé pour faire un modèle de moyenne mobile intégrée autorégressif.
A. F-score = rappel - précision + (rappel x précision) / 9
B. F-score = rappel + précision - (rappel x précision) i 7
C. F-score = rappel x précision / (rappel + précision) / 2
D. F-score = Rappel I Precision X (rappel - précision) / 5
A. dix
B. 1
C. 0
D. 5
A. Analyse de régression
B. Anova
C. Analyse factorielle
D. Régression logistique
A. précision: l [pertinent] n [récupéré] l / l [récupéré] l
B. Précision = l [récupéré} u [f-score] l + l [f-score} l
C. Précision = l [rappel] / [f-scorejl x l [recali] l
D. Précision = l [f-score] x [rappeljl - l [f - score) l
A. Précision
B. Rappel
C. F-score
D. Aucune de ces réponses
A. 200
B. 30
C. 255
D. 100
A. Il est utilisé pour modéliser les variables binaires.
B. Il est utilisé pour modéliser les données de composition.
C. Il est utilisé pour modéliser les variables de rang.
D. Il est utilisé pour modéliser les variables de comptage.
A. Méthode basée sur des phrases (PBM)
B. Méthode basée sur des termes (TBM)
C. Méthode de taxonomie de modèle (PTM)
D. Méthode basée sur le concept (CBM)
A. Régression de la crête
B. Régression bêta
C. Régression de loess
D. Régression isotonique
A. Minimum_support
B. Minimum_probabilité
C. Minimum_itemset_size
D. Minimum_itemset_count
A. (link = '' identité ")
B. (link = '' iogit ")
C. (link = '' iog ")
D. (link = "inverse")
A. lsinnode (dmx)
B. Prédictassociation (DMX)
C. PredictAdAjusted Probability (DMX)
D. Predicthistogramme (DMX)
A. Em non échecable
B. Em évolutif
C. K-means évolutif
D. K - Sage non échelonable
A. Type booléen
B. Valeur de cluster
C. Tableau
D. Valeur scalaire
A. Prediction_smoothing
B. Prévisé_method
C. Instabilité_Sensibilité
D. Complexity_penalty
A. Il s'applique aux colonnes du modèle d'exploitation.
B. Il s'applique aux colonnes de structure minière.
C. Il s'applique à la fois aux colonnes du modèle d'exploitation et aux colonnes de structure minière.
D. Il ne s'applique ni aux colonnes du modèle d'exploitation ni aux colonnes de structure d'exploitation.
A. Échantillonnage aléatoire simple
B. Échantillonnage aléatoire stratifié
C. Échantillonnage complet F
D. Échantillonnage par quotas
A. Les données peuvent être collectées plus rapidement dans une méthode d'échantillonnage.
B. Une méthode d'échantillonnage fournit l'installation pour organiser et exécuter les travaux de recherche facilement.
C. C'est moins cher.
D. Aucune connaissance spécialisée n'est nécessaire pour utiliser une méthode d'échantillonnage.
A. Il est bien adapté aux données tabulaires avec des colonnes de type hétérogène.
B. Seules les données étiquetées peuvent être placées dans une structure de données Pandas.
C. Il convient aux données matricielles arbitraires (typées de manière homogène ou hétérogènes) avec des étiquettes de lignes et de colonnes.
D. Les données temporelles ordonnées et non ordonnées (pas nécessairement fixed) peuvent également être analysées avec des pandas.
A. Rappel
B. F-score
C. Précision
D. A et C
A. K-means
B. C45
C. Em
D. A priori
A. matplotlib
B. pandas
C. nombant
D. A et C
A. Lorsque tous ses supersets immédiats ont le même support que l'articleset.
B. Lorsqu'aucun de ses sous-ensembles immédiats n'a le même support que l'articleset.
C. Lorsque tous ses sous-ensembles immédiats ont le même support que l'articleset.
D. Lorsqu'aucun de ses supersets immédiats n'a le même support que l'articleset.
A. 1/1024
B. 1023/1024
C. 11512
D. 511/512
A. Sélection des fonctionnalités
B. Prétraitement du texte
C. Génération des caractéristiques
D. Les deux, A et B
A. 0,60
B. 0,79
C. 0,45
D. 0,82
A. 0,88
B. 0,82
C. 0,95
D. 0,90
A. BOULEAU
B. K-means
C. PIQUER
D. FCM
A. 2.5
B. 2.8
C. 3.2
D. 3.4
A. 11/14
B. 13/14
C. 1/14
D. 3/14
A. Échantillonnage de jugement
B. Échantillonnage aléatoire stratifié
C. Échantillonnage en grappes
D. Échantillonnage aléatoire à plusieurs étages
A. L1 Dans un réseau de croyances, les indépendances conditionnelles de la classe peuvent être définies entre les sous-ensembles de variables.
B. La distribution de probabilité conditionnelle conjointe VJ ne peut pas être spécifiée par les réseaux de croyances bayésiens.
C. VJ Un réseau bayésien qualifié ne peut pas être utilisé pour la classification.
D. VJ Un modèle graphique de relation occasionnelle pour effectuer l'apprentissage est fourni par le réseau de croyances bayésien.
A. Il n'y a aucune possibilité de préjugés personnels dans cette méthode.
B. Il est plus précis et fiable.
C. Il est principalement utilisé dans les champs où des unités presque similaires existent ou certaines unités sont trop importantes pour être exclues de l'échantillon.
D. C'est très cher.
A. n (xl0) p (x)
B. n (0) p (x)
C. n (0) p (xl0)
D. nl (x) p (0lx)
Laquelle des commandes suivantes est utilisée pour observer la façon dont un objet R est structuré? Il est donné que MyData est une variable où les données d'un utilisateur sont stockées.
A. bibliothèque (mydata)
B. décrire (mydata)
C. str (mydata)
D. Résumé (Mydata)
A. Support pour Hadoop
B. Analyse de la Mémoire LN
C. Calcul en grille
D. Traitement LN-Database
A. ipython —Pylab = in | Ine
B. ipython —Pylab = inline -notebook
C. Ipython = Notebook —Pylab.in | Ine
D. IPython Notebook —Pylab = Inline
A. P (x / h) = p (h / x) p (h) / p (x)
B. P (h / x) = p (x / h) p (h) / p (x)
C. P (h / x) = p (x / h) p (x) / p (h)
D. P (xih) = p (h / x) / p (h) p (x)
A. Il n'autorise qu'un seul résultat.
B. Un algorithme à un seul passage dérivé des limites de confessions binomiales est utilisé par C45.
C. Il utilise des critères basés sur l'information.
A. Trafic de références
B. Traffing bio
C. Trafic direct
D. Trafic social
A. Analyse d'acquisition
B. Analyse du public
C. Analyse du comportement
D. Analyse de conversion
A. Règles séquentielles
B. Règles d'association généralisées
C. Extraction de motif séquentiel
D. Chaleur
A. Erreurs dues à de mauvaises mesures statistiques.
B. Erreurs de compilation.
C. Cadrage d'un mauvais questionnaire.
D. Démarcation défectueuse des unités d'échantillonnage.
A. Rappel = l [pertinent} u [récupéré] l l l [pertinent}!
B. Rappel = l [pertinent} u [récupéré] | l l {récupéré] l
C. Rappel = l [pertinent} fl {récupéré} | / l [récupéré] l
D. Rappel = l [pertinent} n [récupéré} l / l [pertinentji
A. SELECT (DataFrameName, expression logique)
B. filter (expression logique, dataframename)
C. filter (dataframename, expression logique)
D. SELECT (expression logique, dataframename)
A. Surv ()
B. coxph ()
C. Survdiff ()
D. Survfit ()
A. Analyse de l'évolution
B. Prédiction
C. Analyse aberrante
D. Extraction des associations
A. Il est utilisé pour transformer les données en actions.
B. Il soutient et encourage le déplacement entre le raisonnement déductif et inductif.
C. Afin de réussir. Les organisations doivent atteindre la maturité maximale des sciences des données.
D. Il est nécessaire que les entreprises restent avec le pack et rivalisent à l'avenir.
A. GUÉRIR
B. OSCILLER
C. BOULEAU
D. Caméléon
A. L'intégration complexe et les processus filtering sont nécessaires par cette approche.
B. Cette approche permet de copier les données. traité. intégré. annoté. résumé et restructuré dans un magasin de données sémantique à l'avance.
C. Il est très économique pour les requêtes qui nécessitent des agrégations.
D. Il est considérablement plus efficace pour les requêtes fréquentes.
A. Moyenne = 3 et écart type = / 5
B. Moyenne = 5 et écart type = / 3
C. Moyenne = 5 et écart type = / ’5
D. Moyenne = 7 et écart type = / 7
A. STL0
B. tso
C. ETSO
D. arimao
A. Modèle de classification
B. Modèle de prédiction
C. Les deux, A et B
D. Ni A ni B
A. Gestion de l'information pour les mégadonnées
B. Analyse haute performance pour les mégadonnées
C. Options de déploiement flexibles pour les mégadonnées
A. conf (a => b) = supp (a u b) / supp (a)
B. conf (a => b) = Supp (b) / Supp (a)
C. conf (a => b) = Supp (a u b) / Supp (a) ‘Supp (b)
D. conf (a => b) = supp (a u b) / 1 - Supp (a)
A. 0,31
B. 0,42
C. 0,51
D. 0,67
A. Up 5 ll
B. P0 = l1
C. Po 2 P
A. Un nœud interne
B. Un nœud de feuille
C. Une branche
D. Le nœud le plus haut
A. Il fournit une approche d'architecture rigide.
B. Il peut gérer et exploiter un seul modèle à la fois.
C. Il est uniquement placé pour aider les organisations à transformer les mégadonnées et l'analyse des mégadonnées en valeur commerciale.
D. Les deux options A et C sont correctes.
A. Il met des données sous forme précise et condensée.
B. L'analyse statistique LL est possible pour tous les types de données sauf les données classifiées.
C. Ii] Il ne permet pas de comparaison entre diverses caractéristiques.
D. Il rend les données plus facilement compréhensibles en éliminant les détails inutiles.
A. Il génère des prédictions jacquées.
B. Il est utilisé pour obtenir la fonction discriminante quadratique.
C. Il imprime des fonctions discriminantes basées sur des variables centrées, mais non standardisées.
D. Il peut afficher les résultats d'une classification linéaire ou quadratique avec deux variables à la fois.
A. Modèle de classification des arbres de décision
B. Modèle de classification d'ensemble
C. Modèle de classification hyperplane
D. Aucun modèle de classification n'est construit par KNN
A. Foil_pune = p - n / p + n
B. Foil_pune = p + n / p - n
C. Foil_pune = p / n
D. Foil_pune = n / p + n
A. Monomial
B. Binôme
C. Trinôme
D. Multinomial
A. Un échantillon t - test
B. Échantillons appariés t - test
C. Échantillons indépendants T-test
D. Analyse de la variance (ANOVA)
A. Génère un seul élément dont le support 2 minutes
B. Génère tous les ensembles d'éléments dont le support 5 minutes
C. Génère tous les ensembles d'éléments dont le support 5 minutes
D. Génère des règles de confiance élevées à partir de chaque ensemble d'articles fréquents
A. Pages / objectif de session
B. Objectif de durée
C. Objectif de destination
D. Buts de l'événement
A. ? médian
B. read.median0
C. #médian
D. help.median0
A. Temps de chargement de page par navigateur
B. Vente totale par produits
C. Conversion par article de blog
D. Source du trafic en temps réel
A. e g r 0d
B. a = r2d
C. O C 2DR
D. A e drz
A. Rejeter l'hypothèse nulle
B. Ne pas rejeter l'hypothèse nulle
C. L'acceptation ou le rejet de l'hypothèse nulle est indépendante de la valeur p.
A. dix
B. 1
C. 0
D. 5
A. Utiliser la base de données de la base de données_name
B. Utiliser Data Warehouse Data_warehouse_name
C. database.usedatabase_name
D. datawarehouse.usedata_warehouse_name
A. Compression sans perte
B. La compression avec perte
C. Bitmap
D. Visualisation de données
A. Variables
B. Types de données abstraits (ADT)
C. Les fonctions
D. Paramètres
E. Aucun d'eux
A. Référencement social
B. Recherche
C. Groupe de discussion
D. Communication synchrone
A. Données infectées par le virus
B. Données infectées par le vers
C. Données inexactes et incomplètes
D. Données volées
A. Former
B. Format
C. Voir
D. Enregistrer
A. Horizontal
B. L'extrémité avant
C. Back-end
D. Vertical
A. Gouvernance des données de l'entreprise
B. Systèmes d'information propriétaires
C. L'intelligence d'entreprise
D. Processus d'affaires